Laura Schulz: The surprisingly logical minds of babies

233,233 views ・ 2015-06-02

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Şâkir Aşçı Gözden geçirme: güney örnek
00:12
Mark Twain summed up what I take to be
0
12835
2155
Mark Twain, benim bilişsel bilimlerin
00:14
one of the fundamental problems of cognitive science
1
14990
3120
temel sorunlarından biri olarak gördüğüm şeyi
00:18
with a single witticism.
2
18110
1710
tek bir espriyle özetledi.
00:20
He said, "There's something fascinating about science.
3
20410
3082
"Bilimle ilgili inanılmaz bir şey var.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
İncir çekirdeğini doldurmayan gerçeğe yatırımla,
00:26
out of such a trifling investment in fact."
5
26720
3204
varsayımların toptan satış kârını elde edebilirsiniz."
00:29
(Laughter)
6
29924
1585
(Gülüşmeler)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Twain bunu şaka amaçlı söyledi tabii ki de, ama haklı:
00:34
There's something fascinating about science.
8
34803
2876
Bilimle ilgili inanılmaz bir şey var.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
Birkaç kemikten, dinozorların varlığına ulaşıyoruz.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
Tayf çizgilerinden, bulutsuların dizilimine;
00:47
From fruit flies,
11
47471
2938
meyve sineklerinden,
00:50
the mechanisms of heredity,
12
50409
2943
kalıtım düzeneklerine
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
ve beynin içinde akan kanın yeniden oluşturulan görüntülerinden,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
ya da benim durumumda, çok küçük çocukların davranışından,
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
insan bilişinin temel düzenekleriyle ilgili bir şeyler
01:05
of human cognition.
16
65138
1618
söylemeye çalışıyoruz.
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
Özellikle, MIT'teki Beyin ve Bilişsel Bilimler Bölümü'ndeki laboratuvarımda,
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
geçen on yılı, çocukların çok az bilgiyle bu kadar çok bilgiyi çok hızlıca
01:16
of how children learn so much from so little so quickly.
19
76129
3977
nasıl öğrendiğini anlamaya çalışarak harcadım.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
Çünkü, bilimle ilgili büyüleyici olan şey,
01:23
is also a fascinating thing about children,
21
83644
3529
aynı zamanda çocuklarla ilgili olarak da büyüleyici bir şey oluyor,
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
Mark Twain'in bakışıyla ele alırsak,
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
bu durum, tam olarak çocukların yetersiz ve belirsiz veriden
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
hızlıca ve doğruca zengin ve soyut çıkarımlar yapma yeteneği demek.
01:40
I'm going to give you just two examples today.
25
100355
2398
Bugün size yalnızca iki örnek vereceğim.
01:42
One is about a problem of generalization,
26
102753
2287
Birisi genelleme sorunuyla ilgili,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
diğeriyse nedensel akıl yürütme sorunuyla ilgili.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
Ve laboratuvarımdaki çalışmamla ilgili konuşacak olsam da,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
bu çalışma alanımda teşekkür borçlu olduğum kişilerden ilham alıyor.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Dünyadaki tüm danışmanlara, meslektaşlara ve işbirlikçilere minnettârım.
01:59
Let me start with the problem of generalization.
31
119308
2974
Genelleme sorunuyla başlayalım.
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
Küçük veri örneklerinden genelleme yapmak bilimin ekmek teknesidir.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
Küçücük bir seçmen kitlesine anket yaparız
02:09
and we predict the outcome of national elections.
34
129339
2321
ve ulusal seçimlerin sonucunu öngörürüz.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
Bir klinik deneyde bir avuç insanın tedaviye verdiği tepkiye bakar
02:16
and we bring drugs to a national market.
36
136165
3065
ve ilaçları ülke pazarına süreriz.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
Fakat böyle bir şey, ancak örneğimiz ana kitleden rastgele alınırsa işe yarar.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Örneğimiz bir şekilde keyfî olarak seçilmişse,
02:26
say, we poll only urban voters,
39
146330
2072
diyelim ki yalnızca şehirdeki seçmenleri
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
ya da diyelim ki kalp hastalığı tedavisi klinik deneylerimizde
02:32
we include only men --
41
152790
1881
yalnızca erkekleri dâhil ettik --
02:34
the results may not generalize to the broader population.
42
154671
3158
sonuçlar daha geniş ana kitleye genellenemeyebilir.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
Bu yüzden bilim insanları, bulgunun rastgeleliğine önem verir,
02:42
but what does that have to do with babies?
44
162060
2015
ama bunun bebeklerle ne ilgisi var?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Şöyle ki, bebekler sürekli küçük veri örneklerinden genellemek zorundadır.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Birkaç oyuncak ördek görürler ve batmadan durduğunu öğrenirler
02:52
or a few balls and learn that they bounce.
47
172364
3575
ya da birkaç topun zıpladığını öğrenirler.
02:55
And they develop expectations about ducks and balls
48
175939
2951
Ördekler ve toplarla ilgili
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
yaşamları boyunca oyuncak ördek ve toplara ekleyecekleri
03:01
for the rest of their lives.
50
181606
1879
beklentiler edinirler.
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
Ve bebekler, ördekler ve toplarla ilgili yapması gereken bu tür genellemeleri
03:07
they have to make about almost everything:
52
187224
2089
neredeyse her şey için yapmak zorundadır:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
ayakkabılar, gemiler, mühür mumları, lahanalar, krallar...
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
Peki bebekler gördükleri küçücük bulgu parçasının
03:17
is plausibly representative of a larger population?
55
197161
3692
daha büyük bir ana kitleyi temsil edişini umursar mı?
03:21
Let's find out.
56
201763
1900
Haydi öğrenelim.
03:23
I'm going to show you two movies,
57
203663
1723
Size iki video göstereceğim,
03:25
one from each of two conditions of an experiment,
58
205386
2462
bir deneyin iki koşulunu da gösteren videolar
03:27
and because you're going to see just two movies,
59
207848
2438
ve yalnızca iki video izleyeceğiniz için
03:30
you're going to see just two babies,
60
210286
2136
yalnızca iki bebek göreceksiniz
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
ve herhangi iki bebek birbirinden sayısız farklılıklar gösterir.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Fakat bu bebekler, tabii ki, bebek gruplarını temsil ediyor
03:39
and the differences you're going to see
63
219420
1895
ve göreceğiniz farklılıklar
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
bebeklerin davranışındaki koşullar arası ortalama grup farklılıklarını temsil ediyor.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
Her videoda, bir bebeğin belki de
03:49
just exactly what you might expect a baby to do,
66
229743
3460
bir bebekten tam da bekleyeceğiniz şeyi yaptığını göreceksiniz
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
ve bebekleri olduklarından daha sihirli yapmamız mümkün değildir.
03:58
But to my mind the magical thing,
68
238090
2010
Fakat benim zihnimde, sihirli olan şey
04:00
and what I want you to pay attention to,
69
240100
2089
ve dikkat etmenizi istediğim şey
04:02
is the contrast between these two conditions,
70
242189
3111
bu iki koşul arasındaki zıtlık,
04:05
because the only thing that differs between these two movies
71
245300
3529
çünkü bu iki video arasındaki tek farklı şey
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
bebeklerin gözlemleyeceği istatistiksel bulgu.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
Bebeklere mavi ve sarı toplarla dolu bir kutu göstereceğiz
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
ve eski yüksek lisans öğrencim, şimdiki Stanford'lu meslektaşım Hyowon Gweon,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
bu kutudan art arda üç mavi top çekecek
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
ve bu topları çektiğinde onları sıkacak
04:27
and the balls are going to squeak.
77
267428
2113
ve toplar ses çıkaracak.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
Ve bebekseniz, bu tam TED Konuşması gibidir.
04:32
It doesn't get better than that.
79
272304
1904
Bundan daha iyisi olamaz.
04:34
(Laughter)
80
274208
2561
(Gülüşmeler)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
Fakat önemli olan şey şu ki çoğu topun mavi olduğu bir kutudan art arda
04:42
out of a box of mostly blue balls.
82
282627
2305
üç mavi top çekmek gerçekten kolaydır.
04:44
You could do that with your eyes closed.
83
284932
2060
Bunu gözleriniz kapalı da yapabilirsiniz.
04:46
It's plausibly a random sample from this population.
84
286992
2996
Ana kitleden çekilen toplar olası biçimde rastgele bir örnektir.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
Ve kutunun içinden rastgele çektiğiniz toplar ses çıkarıyorsa, belki
04:53
then maybe everything in the box squeaks.
86
293720
2839
kutudaki tüm toplar ses çıkarıyordur.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
Bu yüzden belki bebekler sarı topların da ses çıkarmasını bekliyordur.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
Bu sarı topların ucunda komik çubuklar takılı,
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
bebekler isterlerse sarı toplara farklı şeyler de yapabilir.
05:05
They could pound them or whack them.
90
305585
1831
Alıp yere vurabilirler.
05:07
But let's see what the baby does.
91
307416
2586
Ama bir görelim ne yapıyorlar.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(Video) Hyowon Gweon: Bunu görüyor musun? (Top ses çıkarıyor)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
Gördün mü? (Top ses çıkarıyor)
05:20
Cool.
94
320036
3066
Çok güzel.
05:24
See this one?
95
324706
1950
Bunu görüyor musun?
05:26
(Ball squeaks)
96
326656
1881
(Top ses çıkarıyor)
05:28
Wow.
97
328537
2653
Vay be.
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Laura Schulz: Dedim size. (Gülüşmeler)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(Video) HG: Bunu görüyor musun? (Top ses çıkarıyor)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
Bak Clara, bu sana. Alıp oynayabilirsin.
05:51
(Laughter)
101
351854
4365
(Gülüşmeler)
05:56
LS: I don't even have to talk, right?
102
356219
2995
LS: Konuşmama bile gerek yok, değil mi?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
Pekâlâ, bebeklerin mavi topların özelliklerini sarı toplara
06:02
of blue balls to yellow balls,
104
362113
1528
genellemesi güzel
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
ve bizi taklit ederek öğrenebilmeleri etkileyici
06:06
but we've known those things about babies for a very long time.
106
366737
3669
fakat bebeklerle ilgili olarak bunları uzun süredir biliyoruz.
06:10
The really interesting question
107
370406
1811
Gerçekten ilginç olan soru şu:
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
bebeklere tam olarak aynı şeyi gösterirsek ne olur?
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
Birebir aynı olduğuna emin olabiliriz, çünkü gizli bir bölmemiz var
06:18
and we actually pull the balls from there,
110
378680
2110
ve aslında topları oradan çekiyoruz,
06:20
but this time, all we change is the apparent population
111
380790
3478
ancak bu sefer, değiştirdiğimiz tek şey bulgunun çekildiği
06:24
from which that evidence was drawn.
112
384268
2902
görünürdeki ana kitlenin kendisi.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
Bu sefer, bebeklere üç mavi topu
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
çoğunlukla sarı topların olduğu kutudan çekerek göstereceğiz
06:34
and guess what?
115
394107
1322
ve bilin bakalım ne olacak?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
Çoğunluğun sarı toplar olduğu kutudan art arda üç mavi topu
06:38
out of a box of mostly yellow balls.
117
398269
2484
[muhtemelen] çekemezsiniz.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
Böyle bir şey muhtemelen rastgele örnekli bulgu olmaz.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
Böyle bir bulgu, Hyowon'un kasıtlı olarak mavi topları çektiği izlenimini verebilir.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
Belki toplarla ilgili özel bir şey var.
06:52
Maybe only the blue balls squeak.
121
412846
2976
Belki yalnızca mavi toplar ses çıkarıyor.
06:55
Let's see what the baby does.
122
415822
1895
Bakalım bebek ne yapıyor.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(Video) HG: Bunu görüyor musun? (Top ses çıkarıyor)
07:02
See this toy? (Ball squeaks)
124
422851
2645
Bu oyuncağı görüyor musun? (Top ses çıkarıyor)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
Aman da ne güzel. Gördün mü? (Top ses çıkarıyor)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
Bak bu da senin için. Alıp oynayabilirsin.
07:18
(Fussing) (Laughter)
127
438074
6347
(Mızıldanıyor) (Gülüşmeler)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
LS: Az önce 15 aylık iki bebeğin
07:29
do entirely different things
129
449649
1942
yalnızca gözlemledikleri örneğin
07:31
based only on the probability of the sample they observed.
130
451591
3599
olasılığına dayanarak bambaşka şeyler yapışını gördünüz.
07:35
Let me show you the experimental results.
131
455190
2321
Deneysel sonuçlara bakalım.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
Dikey eksende, her iki durumda da topu sıkan bebeklerin
07:40
who squeezed the ball in each condition,
133
460275
2530
yüzdesini görüyorsunuz
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
ve gördüğünüz gibi, bebekler; bulgu, ana kitlenin muhtemel temsilcisi
07:46
when it's plausibly representative of the population
135
466520
3135
olduğunda bulguyu genellemeye,
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
bulgu keyfî olarak seçildiğindeki durumda genellemekten daha yatkınlar.
07:53
And this leads to a fun prediction:
137
473393
2415
Ve bu, eğlenceli bir öngörüye çıkıyor:
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
Çoğu sarı top olan kutudan yalnızca bir mavi top çektiğinizi varsayın.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
Sarı top kutusundan art arda üç kez mavi topu muhtemelen çekemezsiniz,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
ama rastgele yalnızca bir mavi top çekebilirsiniz.
08:07
That's not an improbable sample.
141
487220
1970
Olasılıksız bir örnek değil.
08:09
And if you could reach into a box at random
142
489190
2224
Ve bir kutudan rastgele bir şey çekip de
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
çektiğiniz şey ses çıkarıyorsa, belki kutudaki her şey ses çıkarıyordur.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
Bu yüzden, bebekler bu tek top koşulunda izlediğiniz bir önceki koşula göre
08:20
and have many fewer actions to imitate
145
500320
2242
ses çıkaran daha az bulgu görseler de
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
ve taklit edecekleri daha az eylem olsa da
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
bebeklerin daha çok top sıkacağını öngördük
08:29
and that's exactly what we found.
148
509797
2894
ve bulduğumuz da tam olarak bu oldu.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
15 aylık bebekler, bu hususta, tıpkı bilim adamları gibi
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
bulgunun rastgele örneklenip örneklenmediğini önemsiyor
08:40
and they use this to develop expectations about the world:
151
520190
3507
ve bunu dünyayla ilgili beklentiler edinmek için kullanıyorlar:
08:43
what squeaks and what doesn't,
152
523697
2182
Ne ses çıkarır, ne ses çıkarmaz,
08:45
what to explore and what to ignore.
153
525879
3145
ne keşfedilmeli, ne görmezden gelinmeli?
08:50
Let me show you another example now,
154
530384
2066
Şimdi size bir başka örnek göstereyim,
08:52
this time about a problem of causal reasoning.
155
532450
2730
bu seferki nedensel akıl yürütme sorunuyla ilgili.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
Ve hepimizin yaşadığı bir şaşırtıcı bulgu
08:57
that all of us have,
157
537619
1672
sorunuyla başlıyor,
08:59
which is that we are part of the world.
158
539291
2020
dünyanın parçası olmamızın sorunu.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
Ve size bir sorun gibi görünmeyebilir, fakat çoğu sorun gibi,
09:04
it's only a problem when things go wrong.
160
544747
2337
yalnızca işler yoldan çıkınca sorun hâlini alıyor.
09:07
Take this baby, for instance.
161
547464
1811
Örneğin bu bebeği ele alalım.
09:09
Things are going wrong for him.
162
549275
1705
Onun için işler yolunda gitmiyor.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
Bu oyuncağı çalıştırmak istiyor ve yapamıyor.
09:13
I'll show you a few-second clip.
164
553251
2529
Birkaç saniyelik videoyu göstereceğim.
09:21
And there's two possibilities, broadly:
165
561340
1920
Ve kabaca iki olasılık var:
09:23
Maybe he's doing something wrong,
166
563260
2634
Belki bir şeyleri yanlış yapıyor
09:25
or maybe there's something wrong with the toy.
167
565894
4216
ya da belki oyuncakta bir bozukluk var.
09:30
So in this next experiment,
168
570110
2111
Diğerini izleyen bu deneyde,
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
bebeklere, bir varsayımı diğerine göre destekleyen yalnızca küçücük
09:35
supporting one hypothesis over the other,
170
575518
2582
istatistiksel veri parçası vereceğiz
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
ve bebekler, yapacakları şeye karar verirken bunu
09:41
about what to do.
172
581555
1834
kullanabilecekler mi göreceğiz.
09:43
Here's the setup.
173
583389
2022
Böyle bir kurgumuz var.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Hyowon oyuncağı çalıştırmayı deneyecek ve başaracak.
09:49
I am then going to try twice and fail both times,
175
589101
3320
Sonra ben iki kez deneyeceğim ve ikisinde de başarısız olacağım
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
ve sonra Hyowon yeniden deneyip başaracak
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
ve bu durum, kurul boyunca yüksek lisans öğrencilerimle teknoloji
09:58
in technology across the board.
178
598705
2835
durumumu kabaca özetliyor.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
Fakat buradaki önemli nokta, sorunun oyuncakla ilgili olmadığı;
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
kişiyle ilgili olduğuyla ilgili küçük bulgu sağlanıyor.
10:08
Some people can make this toy go,
181
608990
2350
Kimi insanlar bu oyuncağı çalıştırabiliyor
10:11
and some can't.
182
611340
959
kimileri yapamıyor.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Şimdi, bebek oyuncağı alınca bir seçim yapacak.
10:16
His mom is right there,
184
616212
2188
Annesi hemen yanında,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
bu yüzden oyuncağı ona verip kişiyi değiştirebilir,
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
fakat kumaşın ucunda başka bir oyuncak daha bulunacak
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
ve kumaşı kendine çekerek oyuncağı değiştirebilir.
10:28
So let's see what the baby does.
188
628425
2090
Haydi bakalım bebek ne yapıyor.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(Video) HG: İki, üç. Başla! (Müzik)
10:34
LS: One, two, three, go!
190
634698
3131
LS: Bir, iki, üç, başla!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
Arthur, yeniden deneyeceğim. Bir, iki, üç, başla!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
YG: Arthur, ben yeniden deneyeyim, olur mu?
10:48
One, two, three, go! (Music)
193
648277
4550
Bir, iki, üç, başla! (Müzik)
10:53
Look at that. Remember these toys?
194
653583
1883
Şuna bak. Bu oyuncakları hatırladın mı?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
Oyuncakları görüyor musun? Tamam, bunu buraya koyuyorum
10:58
and I'm going to give this one to you.
196
658730
2062
ve bunu da sana veriyorum.
11:00
You can go ahead and play.
197
660792
2335
Alıp oynayabilirsin.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
LS: Tamam Laura, ama tabii ki bebekler annelerini severler.
11:27
Of course babies give toys to their mommies
199
687950
2182
Tabii ki bebekler oyuncakları çalıştıramayınca
11:30
when they can't make them work.
200
690132
2030
annelerine verir.
11:32
So again, the really important question is what happens when we change
201
692162
3593
Bu yüzden yine, önemli soru, istatistiksel veriyi çok azıcık
11:35
the statistical data ever so slightly.
202
695755
3154
değiştirince ne olacağıdır.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Bu sefer, bebekler oyuncağın bir öncekiyle aynı biçimde çalışıp bozulduğunu görecek,
11:42
but we're changing the distribution of evidence.
204
702996
2415
fakat bulgunun dağılımını değiştireceğiz.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
Bu sefer, Hyowon bir kez başarıp bir kez yapamayacak, bende de aynısı olacak.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
Ve oyuncağı kimin denediğinin önemi olmayacak, oyuncak bozuk izlenimi verecek.
11:55
It doesn't work all the time.
207
715459
1886
Oyuncak her denemede çalışmıyor.
11:57
Again, the baby's going to have a choice.
208
717345
1965
Yine, bebek bir seçim yapacak.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
Annesi hemen yanında, bu yüzden bebek deneyeni değiştirebilir
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
ve kumaşın ucunda başka bir oyuncak daha olacak.
12:05
Let's watch what she does.
211
725910
1378
Bebek ne yapıyor izleyelim.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(Video) HG: İki, üç, başla! (Müzik)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
Bir kere daha deneyeyim. Bir, iki, üç, başla!
12:17
Hmm.
214
737460
1697
Hımm.
12:19
LS: Let me try, Clara.
215
739950
2692
LS: Ben deneyeyim Clara.
12:22
One, two, three, go!
216
742642
3945
Bir, iki, üç, başla!
12:27
Hmm, let me try again.
217
747265
1935
Hımm, bir daha deneyeyim.
12:29
One, two, three, go! (Music)
218
749200
5670
Bir, iki, üç, başla! (Müzik)
12:35
HG: I'm going to put this one over here,
219
755009
2233
HG: Bunu buraya koyuyorum
12:37
and I'm going to give this one to you.
220
757242
2001
ve bunu da sana veriyorum.
12:39
You can go ahead and play.
221
759243
3597
Alıp oynayabilirsin.
12:58
(Applause)
222
778376
4897
(Alkış)
13:04
LS: Let me show you the experimental results.
223
784993
2392
LS: Size deney sonuçlarını göstereyim.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
Dikey eksende, çocukların her durumla ilgili
13:09
of children's choices in each condition,
225
789860
2577
seçimlerini görüyorsunuz
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
ve çocukların yaptığı seçimlerin dağılımı
13:16
depends on the evidence they observe.
227
796988
2787
gözlemledikleri bulguya bağlı.
13:19
So in the second year of life,
228
799775
1857
Yaşamın ikinci yılında,
13:21
babies can use a tiny bit of statistical data
229
801632
2577
bebekler küçücük istatistiksel veri parçasını,
13:24
to decide between two fundamentally different strategies
230
804209
3367
temelde farklı stratejiler arasında dünyada eylemde bulunmak için
13:27
for acting in the world:
231
807576
1881
karara varırken kullanabiliyorlar:
13:29
asking for help and exploring.
232
809457
2743
yardım istemek ve keşfetmek.
13:33
I've just shown you two laboratory experiments
233
813700
3434
Size az önce iki laboratuvar deneyini
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
alandaki abartısız yüzlerce benzer noktaya vurgu yapanların arasından gösterdim,
13:40
because the really critical point
235
820825
2392
çünkü esas önemli mesele
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
çocukların belirsiz verilerden zengin çıkarımlar yapabilme yeteneği
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
türümüze özgü kültürel öğrenmemizin temelini oluşturuyor.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
Çocuklar yeni araçları yalnızca birkaç örnekten öğreniyor.
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Nedensel ilişkilerini yalnızca birkaç örnekten öğreniyor.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Hatta yeni sözcükleri bile öğreniyorlar, bu örnekte Amerikan İşaret Dili'ni.
14:08
I want to close with just two points.
241
848799
2311
Konuşmamı iki hususla kapatmak istiyorum.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Benim dünyamı, beyin ve bilişsel bilimler alanını, son birkaç yıldır
14:15
for the past few years,
243
855738
1927
takip ediyorsanız,
14:17
three big ideas will have come to your attention.
244
857665
2415
üç büyük fikir ilginizi çekmiştir.
14:20
The first is that this is the era of the brain.
245
860080
3436
Birincisi, bu çağ beyin çağıdır.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
Ve aslında, sinirbilimde insanı afallatan keşifler yapıldı:
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
beyin kabuğunun işlevselce özelleşmiş bölgelerinin yerinin belirlenmesi,
14:30
turning mouse brains transparent,
248
870621
2601
fare beyinlerinin şeffaflaştırılması,
14:33
activating neurons with light.
249
873222
3776
sinir hücrelerinin ışıkla etkinleştirilmesi.
14:36
A second big idea
250
876998
1996
İkinci büyük fikir,
14:38
is that this is the era of big data and machine learning,
251
878994
4104
bu çağ, büyük veri ve makine öğrenimi çağıdır
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
ve makine öğrenimi, sosyal ağlardan salgınbilimine
14:46
of everything from social networks to epidemiology.
253
886239
4667
her şeyi anlayışımızı değiştirmeye söz veriyor.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
Ve belki makine öğrenimi, mekan algılama
14:53
and natural language processing,
255
893599
1993
ve doğal dil işleme sorunlarıyla
14:55
to tell us something about human cognition.
256
895592
3324
bize insan bilişi hakkında bir şeyler anlatmak için uğraşıyor.
14:59
And the final big idea you'll have heard
257
899756
1937
Ve duyacağınız üçüncü büyük fikir,
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
beyin hakkında o kadar çok şey bilmemiz ve büyük veriye o kadar çok
15:05
and have so much access to big data,
259
905080
1917
erişimimizin olması iyi olacak,
15:06
because left to our own devices,
260
906997
2507
çünkü işler kendi irademize bırakıldığında,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
insanlar yanılabilir, kestirmeleri seçiyoruz
15:13
we err, we make mistakes,
262
913335
3437
konuşurken duraksıyoruz, hatalar yapıyoruz,
15:16
we're biased, and in innumerable ways,
263
916772
3684
önyargılıyız ve birçok biçimde
15:20
we get the world wrong.
264
920456
2969
dünyaya kötülük yapıyoruz.
15:24
I think these are all important stories,
265
924843
2949
Bence bunların hepsi önemli hikâyeler
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
ve insan olmanın anlamı üzerine bize söyleyecekleri çok şey var,
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
fakat bir kenara yazmanızı istiyorum, bugün size çok başka bir hikâye anlattım.
15:35
It's a story about minds and not brains,
268
935966
3807
Anlattığım zihin hakkında, beyin hakkında değil
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
ve özellikle, yalnızca insan zihninin gerçekleştirebildiği türde,
15:42
that uniquely human minds can perform,
270
942779
2590
zengin, yapılandırılmış bilgi ve küçük miktarda veriden;
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
yalnızca birkaç örneğin bulgusundan öğrenme yeteneğini içeren türde
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
hesaplamalar hakkında bir hikâye, yalnızca birkaç örneğin bulgusu.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
Ve temelde, küçük bir çocuk olarak başlayıp
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
kültürümüzdeki en büyük başarılara giden yolda
16:04
of our culture,
275
964780
3843
devam ederek,
16:08
we get the world right.
276
968623
1997
dünyayı düzeltişimizin hikâyesidir.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
Arkadaşlar, insan zihni yalnızca küçük miktarda veriyle öğrenmez.
16:18
Human minds think of altogether new ideas.
278
978285
2101
İnsan zihni, bütün fikirleri bir arada düşünür.
16:20
Human minds generate research and discovery,
279
980746
3041
İnsan zihni, araştırma ve keşif yaratır,
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
insan zihni; sanat, edebiyat, şiir ve tiyatro yaratır
16:29
and human minds take care of other humans:
281
989070
3760
ve insan zihni diğer insanlarla ilgilenir:
16:32
our old, our young, our sick.
282
992830
3427
yaşlılarımızla, gençlerimizle, hastalarımızla.
16:36
We even heal them.
283
996517
2367
Hatta insanları iyileştiriyoruz.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
Gelecek yıllarda, zihnimde canlandırabileceğimin bile ötesinde
16:42
beyond anything I can even envision,
285
1002667
3797
teknolojik yenileşmeler göreceğiz,
16:46
but we are very unlikely
286
1006464
2150
fakat benim ya da sizin yaşamınız boyunca
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
bir insan çocuğunun hesaplama gücüne yaklaşacak güçte bile
16:54
in my lifetime or in yours.
288
1014323
4298
bir şeyin görülmesi olası değil.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Bu en güçlü öğrenicilere ve onların gelişimine;
17:03
in babies and children
290
1023668
2917
bebeklere ve çocuklara,
17:06
and mothers and fathers
291
1026585
1826
annelere ve babalara,
17:08
and caregivers and teachers
292
1028411
2699
bakıcılara ve öğretmenlere,
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
diğer teknolojinin, mühendisliğin ve tasarımın en güçlü ve zeki türlerine
17:15
of technology, engineering and design,
294
1035280
3218
yatırım yaptığımız gibi yaparsak,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
yalnızca daha iyi bir geleceğin hayalini kuruyor olmayacağız,
17:21
we will be planning for one.
296
1041437
2127
iyi bir geleceği planlıyor olacağız.
17:23
Thank you very much.
297
1043564
2345
Çok teşekkür ederim.
17:25
(Applause)
298
1045909
3421
(Alkış)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Chris Anderson: Laura, teşekkür ederiz. Sana soracağım bir sorum var.
17:34
First of all, the research is insane.
300
1054236
2359
Öncelikle, bu çılgınca bir araştırma.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Demek istediğim, kim böyle bir deney tasarlar ki? (Gülüşmeler)
17:41
I've seen that a couple of times,
302
1061150
1790
Birkaç kez izledim
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
ve hâlâ gerçekten bunun olabileceğine inanmıyorum,
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
fakat diğer insanlar da benzer deneyler yaptı ve sonuçlar örtüşüyor.
17:49
The babies really are that genius.
305
1069320
1633
Bebekler gerçekten tam bir dâhi.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
LS: Biliyor musun, deneylerimizde gerçekten şaşırtıcı görünüyor,
17:53
but think about what they look like in real life, right?
307
1073960
2652
fakat gerçek yaşamda nasıl olduklarını bir düşün.
17:56
It starts out as a baby.
308
1076612
1150
Bebek olarak başlıyor.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
On sekiz ay sonra, seninle konuşuyor
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
ve bebeklerin ilk sözcükleri yalnızca top ya da ördek değil,
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
"hepsi gitti" gibi ortadan kaybolmayla ilgili şeyler ya da
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
"a-aa" gibi istemsiz eylemlerle ilgili şeyler.
18:07
It has to be that powerful.
313
1087974
1562
Bebeğin güçlü olması gerekiyor.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
Gösterdiğim herhangi bir şeyden daha güçlü olması gerekiyor.
18:12
They're figuring out the entire world.
315
1092311
1974
Koca dünyayı anlamlandırıyorlar.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
Dört yaşında bir çocuk neredeyse her şey hakkında konuşabilir.
18:17
(Applause)
317
1097429
1601
(Alkış)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
CA: Sizi doğru anladıysam, dikkat çektiğiniz diğer bir husus
18:22
we've been through these years where there's all this talk
319
1102444
2754
yıllardır şu konuşma ortada dönüyor,
18:25
of how quirky and buggy our minds are,
320
1105198
1932
beynimiz ve zihnimiz acayip ve kusurlu,
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
davranışsal ekonomi ve ardındaki bütün kuramlar
18:29
that we're not rational agents.
322
1109997
1603
mantıklı varlıklar olmadığımızı söyler.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
Gerçekten de büyük hikâyenin olağanüstü olduğunu
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
ve gerçekten gereğinden az değer verilen bir dâhinin varlığından bahsediyorsunuz.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
LS: Ruhbilimdeki en sevdiğim alıntılardan biri
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
toplumsal ruhbilimci Solomon Asch'tan gelir
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
ve Solomon, ruhbilimin temel görevinin zâten ortada olanın
18:47
the veil of self-evidence from things.
328
1127927
2626
örtüsünü kaldırmak olduğunu söylemiştir.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
Her gün önem sırasına göre verdiğiniz birçok karar vardır,
18:55
that get the world right.
330
1135104
1347
bu kararlar dünyayı düzeltir.
18:56
You know about objects and their properties.
331
1136451
2132
Nesneleri ve özelliklerini bilirsiniz.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
Önüne engel gelince tanırsınız. Karanlıkta tanırsınız.
Bir odadan diğerine yürüyebilirsiniz.
19:01
You can walk through rooms.
333
1141612
1308
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Başkalarının ne düşündüğünü anlarsınız. Onlarla konuşursunuz.
Uzayda hareket edersiniz. Sayıları bilirsiniz.
19:06
You can navigate space. You know about numbers.
335
1146452
2230
Nedensel ilişkileri bilirsiniz. Ahlâkî akıl yürütmeyi bilirsiniz.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
Bunları çabasız yaparsınız, bu yüzden pek bir şey görmeyiz,
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
fakat dünyayı böyle anlamlandırırız, bu dikkate değerdir
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
ve anlaması çok zor bir başarımdır.
CA: Sanırım izleyicilerimiz arasında teknolojinin hızlanan gücünü
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
19:21
this view of accelerating technological power
341
1161918
2238
benimseyen sizin üç yaşındaki çocuğun
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
yapabileceklerini bir bilgisayarın hiçbir zaman yapamayacağı
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
açıklamanıza itiraz edecek insanlar olabilir,
19:29
but what's clear is that in any scenario,
344
1169732
3248
fakat net olan şey şu, her durumda
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
makinelerimizin bebeklerimizden öğreneceği çok şey var.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
LS: Bence de. Burada makine öğrenimiyle ilgilenen arkadaşlar vardır.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
Diyorum ki, asla bebekleri şempanzelerle
19:45
or technology as a matter of practice,
348
1185649
3645
ya da teknolojiyle kıyaslamayın,
19:49
but it's not just a difference in quantity,
349
1189294
4528
fakat bu yalnızca nicelik farklılığı değil.
19:53
it's a difference in kind.
350
1193822
1764
Tür farklılığı.
19:55
We have incredibly powerful computers,
351
1195586
2160
İnanılmaz güçlü bilgisayarlarımız var
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
ve inanılmaz karmaşık şeyler yapıyorlar,
20:00
often with very big amounts of data.
353
1200137
3204
sıklıkla büyük miktarda veriyle.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
İnsan zihni, bence, oldukça farklı bir şey yapıyor
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
ve bence, asıl zorlayıcı olan şey,
insan zihninin yapısal, basamaklı doğası.
20:09
that remains a real challenge.
356
1209843
2032
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
CA: Laura Schulz, üstünde düşünülecek harika bir konuşmaydı. Çok teşekkürler.
20:14
LS: Thank you. (Applause)
358
1214936
2922
LS: Teşekkürler (Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7