Laura Schulz: The surprisingly logical minds of babies

225,846 views ・ 2015-06-02

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Oana Coban Corector: Delia Bogdan
00:12
Mark Twain summed up what I take to be
0
12835
2155
Mark Twain a descris concis
00:14
one of the fundamental problems of cognitive science
1
14990
3120
una dintre problemele fundamentale ale științelor cognitive
00:18
with a single witticism.
2
18110
1710
într-o singură remarcă.
00:20
He said, "There's something fascinating about science.
3
20410
3082
A spus: „Ştiinţele exacte sunt fascinante.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
Fac o grămadă de presupuneri din orice fleac care se întâmplă.”
00:26
out of such a trifling investment in fact."
5
26720
3204
00:29
(Laughter)
6
29924
1585
(Râsete)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
Twain a glumit desigur, însă avea dreptate:
00:34
There's something fascinating about science.
8
34803
2876
Știința are ceva fascinant.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
Studiind câteva oase, am dedus viaţa dinozaurilor.
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
Din liniile spectrale, am dedus compoziția nebulelor.
00:47
From fruit flies,
11
47471
2938
De la musculiţele de oţet,
00:50
the mechanisms of heredity,
12
50409
2943
am dedus mecanismele ereditare,
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
și din imaginile reconstruite ale sângelui care circulă prin creier,
00:57
or in my case, from the behavior of very young children,
14
57601
4708
sau în cazul meu, din comportamentul copiilor foarte mici,
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
investigăm mecanismele fundamentale ale cogniției umane.
01:05
of human cognition.
16
65138
1618
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
În Departamentul de Științe Cerebrale și Cognitive de la MIT,
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
studiem capacitatea uluitoare a copiilor
01:16
of how children learn so much from so little so quickly.
19
76129
3977
de a învăța atât de mult din atât de puțin și atât de repede.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
Ce este fascinant în științe
01:23
is also a fascinating thing about children,
21
83644
3529
este fascinant și legat de copii.
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
Îndulcind citatul din Twain, este vorba despre capacitatea lor
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
de a face deducţii complexe și abstracte corect şi rapid,
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
din date împrăştiate şi bruiate.
01:40
I'm going to give you just two examples today.
25
100355
2398
Vă voi oferi doar două exemple astăzi.
01:42
One is about a problem of generalization,
26
102753
2287
Unul e o problemă de generalizare,
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
iar celălalt, o problemă despre relația cauzală.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
Deși vă voi prezenta rezultate din laboratorul meu,
01:50
this work is inspired by and indebted to a field.
29
110415
3460
acest proiect e inspirat și se datorează întregii discipline.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
Sunt recunoscătoare mentorilor, colegilor și colaboratorilor mei din toată lumea.
01:59
Let me start with the problem of generalization.
31
119308
2974
Dați-mi voie să încep cu problema generalizării
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
Generalizarea dintr-un set mic de date reprezintă pâinea si untul în știință.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
Sondăm un număr mic din electorat
02:09
and we predict the outcome of national elections.
34
129339
2321
și prezicem rezultatul alegerilor naționale.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
Doar câțiva pacienți răspund pozitiv la un tratament într-un studiu clinic,
02:16
and we bring drugs to a national market.
36
136165
3065
și introducem medicamentul pe piață.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
E valabil numai dacă eșantionul e selectat aleator din populație.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
Dacă eșantionul e ales într-un fel anume
02:26
say, we poll only urban voters,
39
146330
2072
dacă selectăm numai votul orășenilor
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
sau dacă în studiile clinice ale tratamentelor bolilor de inimă,
02:32
we include only men --
41
152790
1881
includem numai bărbați,
02:34
the results may not generalize to the broader population.
42
154671
3158
rezultatele pot fi nereprezentative pentru întreaga populație.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
Cercetătorilor le pasă dacă dovezile sunt aleatorii sau nu,
02:42
but what does that have to do with babies?
44
162060
2015
dar ce are asta de-a face cu bebelușii?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
Bebelușii generalizeză tot timpul din puţine date.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
Văd câteva rațe de cauciuc și învață că plutesc,
02:52
or a few balls and learn that they bounce.
47
172364
3575
sau câteva mingi și învață că sar.
02:55
And they develop expectations about ducks and balls
48
175939
2951
Astfel crează așteptări legate de rațe și mingi
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
pe care le vor extinde la toate rațele și mingile din viața lor.
03:01
for the rest of their lives.
50
181606
1879
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
Aceste generalizări pe care le fac despre rațe și mingi
03:07
they have to make about almost everything:
52
187224
2089
trebuie să le facă pentru aproape orice:
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
pantofi și vapoare și ceară și verze și regi.
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
Contează pentru bebeluși dacă micul fapt pe care-l observă
03:17
is plausibly representative of a larger population?
55
197161
3692
e reprezentativ pentru o populaţie mai largă?
03:21
Let's find out.
56
201763
1900
Haideți să aflăm.
03:23
I'm going to show you two movies,
57
203663
1723
Vă voi arăta două filme,
03:25
one from each of two conditions of an experiment,
58
205386
2462
câte unul pentru fiecare condiție experimentală.
03:27
and because you're going to see just two movies,
59
207848
2438
Deoarece veți vedea două filme
03:30
you're going to see just two babies,
60
210286
2136
veți vedea doar doi bebeluși.
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
Oricare doi bebeluși diferă unul de celălalt în nenumărate feluri.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
Acești doi bebeluși sunt reprezentativi pentru grupuri distincte
03:39
and the differences you're going to see
63
219420
1895
și diferențele pe care le veți vedea
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
reprezintă media diferențelor dintre grupuri, în cele două condiții.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
Bebelușul din fiecare film poate că face exact ce vă așteptați să facă.
03:49
just exactly what you might expect a baby to do,
66
229743
3460
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
E greu de imaginat că bebelușii ar putea fi mai minunați decât sunt.
03:58
But to my mind the magical thing,
68
238090
2010
Însă ce e magic pentru mine și ce vreau să observați
04:00
and what I want you to pay attention to,
69
240100
2089
04:02
is the contrast between these two conditions,
70
242189
3111
e contrastul dintre aceste două condiții.
04:05
because the only thing that differs between these two movies
71
245300
3529
Singura diferență dintre aceste două filme
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
e evidența statistică pe care o observă bebelușii.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
Le-am arătat bebelușilor o cutie cu mingi albastre și galbene,
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
și studenta mea de atunci, acum colega mea la Stanford, Hyowon Gweon,
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
a scos consecutiv trei mingi albastre din cutie.
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
După ce le-a scos, le-a strâns în mână
04:27
and the balls are going to squeak.
77
267428
2113
ca să scoată un sunet.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
Pentru un bebeluș e ca și o conferință TED pentru dvs.
04:32
It doesn't get better than that.
79
272304
1904
Mai bine decât atât nu se poate.
04:34
(Laughter)
80
274208
2561
(Râsete)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
Important e că, e relativ ușor să scoți pe rând trei mingi albastre
04:42
out of a box of mostly blue balls.
82
282627
2305
dintr-o cutie plină cu mingi albastre.
04:44
You could do that with your eyes closed.
83
284932
2060
Am putea s-o facem și cu ochii inchiși.
04:46
It's plausibly a random sample from this population.
84
286992
2996
E foarte probabil să fie o probă reprezentativă.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
Și dacă putem scoate la noroc o minge care scoate sunete,
04:53
then maybe everything in the box squeaks.
86
293720
2839
poate că fiecare minge din cutie scoate sunete.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
Poate că bebelușii se vor aștepta ca și mingile galbene să scoată sunete.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
Mingile galbene au niște bețe ciudate la un capăt.
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
Bebelușii ar putea face tot felul de lucruri cu ele,
05:05
They could pound them or whack them.
90
305585
1831
să le arunce sau să le lovească.
05:07
But let's see what the baby does.
91
307416
2586
Dar haideți să vedem ce fac.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
(Video) Hyowon Gweon: Uită-te! (Mingea scoate un sunet)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
Ai văzut? (Mingea scoate un sunet)
05:20
Cool.
94
320036
3066
Interesant.
05:24
See this one?
95
324706
1950
Vezi?
05:26
(Ball squeaks)
96
326656
1881
(Mingea scoate un sunet)
05:28
Wow.
97
328537
2653
Oh!
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
Laura Schulz: V-am spus. (Râsete)
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
(Video) HG:Uită-te! (Mingea scoate un sunet)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
Hei, Clara, asta este pentru tine. Poți să te joci cu ea.
05:51
(Laughter)
101
351854
4365
(Râsete)
05:56
LS: I don't even have to talk, right?
102
356219
2995
LS: Nici nu mai trebuie să vorbesc, așa este?
E bine că bebelușii generalizează, extinzând proprietăţile mingilor albastre
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
06:02
of blue balls to yellow balls,
104
362113
1528
şi la cele galbene.
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
E impresionant că bebelușii pot învăța prin imitație,
06:06
but we've known those things about babies for a very long time.
106
366737
3669
dar știm aceste lucruri de mult timp.
06:10
The really interesting question
107
370406
1811
E interesant de aflat
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
ce se întâmplă când le aratăm bebelușilor exact același lucru
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
– și suntem siguri de asta pentru că avem un compartiment secret
06:18
and we actually pull the balls from there,
110
378680
2110
de unde scoatem mingile.
06:20
but this time, all we change is the apparent population
111
380790
3478
Tot ce schimbăm e populația aparentă din care extragem proba.
06:24
from which that evidence was drawn.
112
384268
2902
06:27
This time, we're going to show babies three blue balls
113
387170
3553
De data aceasta, le vom arăta bebelușilor trei mingi albastre
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
scoase dintr-o cutie cu mingi preponderent galbene.
06:34
and guess what?
115
394107
1322
Puteți ghici ce urmează?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
Probabil n-ați putea scoate consecutiv trei mingi albastre
06:38
out of a box of mostly yellow balls.
117
398269
2484
dintr-o cutie cu mingi preponderent galbene.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
E imposibil în mod aleator.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
Asta sugerează că Hyowon, poate alegea special mingile albastre.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
Poate e ceva special legat de mingile albastre.
06:52
Maybe only the blue balls squeak.
121
412846
2976
Poate că numai mingile albastre scot sunete.
06:55
Let's see what the baby does.
122
415822
1895
Să vedem ce face bebelușul.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
(Video) HG:Uită-te! (Mingea scoate un sunet)
07:02
See this toy? (Ball squeaks)
124
422851
2645
Vezi jucăria asta? (Mingea scoate un sunet)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
Oh, ce interesant. Vezi? (Mingea scoate un sunet)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
Asta este pentru tine, să te joci cu ea. Hai, joacă-te cu ea.
07:18
(Fussing) (Laughter)
127
438074
6347
(Îmbufnat) (Râsete)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
LS:Tocmai ați văzut doi bebeluși de 15 luni
07:29
do entirely different things
129
449649
1942
care fac lucruri complet diferite
07:31
based only on the probability of the sample they observed.
130
451591
3599
pe baza probabilității evenimentului pe care l-au observat.
07:35
Let me show you the experimental results.
131
455190
2321
Iată rezultatele experimentale.
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
Pe axa verticală vedeți procentajul de bebeluși
07:40
who squeezed the ball in each condition,
133
460275
2530
care au strâns mingea în fiecare caz.
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
E mult mai probabil ca bebelușii să generalizeze
07:46
when it's plausibly representative of the population
135
466520
3135
când e plauzibil ca dovezile să fie reprezentative pentru lot,
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
decât atunci când probele sunt selectate.
07:53
And this leads to a fun prediction:
137
473393
2415
Aceasta ne conduce la o prognoză interesantă.
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
Să presupunem că am scos o singură minge albastră
din cutia cu mingi preponderent galbene.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
Nu scoateţi 3 mingi albastre la rând din cutia cu mingi preponderent galbene,
08:04
but you could randomly sample just one blue ball.
140
484765
2455
dar ați putea scoate una singură albastră.
08:07
That's not an improbable sample.
141
487220
1970
Asta nu e improbabil.
08:09
And if you could reach into a box at random
142
489190
2224
Şi dacă scoateţi la întâmplare ceva care chiţăie, poate că toate chiţăie.
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
și scoate sunete, poate că fiecare minge va scoate sunete.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
Deși bebelușii observă mai puține dovezi pentru chiţăit
şi au mai puțin de imitat când e vorba de o singură minge,
08:20
and have many fewer actions to imitate
145
500320
2242
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
decât în cazul pe care tocmai l-aţi văzut,
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
am prezis că bebelușii vor strânge de mai multe mingi.
08:29
and that's exactly what we found.
148
509797
2894
Şi chiar ăsta a fost rezultatul.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
Bebelușii de 15 luni țin cont, ca și oamenii de știință,
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
dacă proba a fost colectată aleatoriu sau nu.
08:40
and they use this to develop expectations about the world:
151
520190
3507
În funcţie de asta își construiesc așteptări despre lumea din jur,
08:43
what squeaks and what doesn't,
152
523697
2182
despre ce scoate sunete şi ce nu,
08:45
what to explore and what to ignore.
153
525879
3145
ce să exploreze și ce să ignore.
08:50
Let me show you another example now,
154
530384
2066
Iată un alt exemplu
08:52
this time about a problem of causal reasoning.
155
532450
2730
despre o problemă de relație cauzală.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
Porneşte de la problema dovezilor incerte, pe care toţi le avem,
08:57
that all of us have,
157
537619
1672
08:59
which is that we are part of the world.
158
539291
2020
fiindcă facem parte din lume.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
Poate nu pare o problemă, dar devine una, când lucrurile merg prost.
09:04
it's only a problem when things go wrong.
160
544747
2337
09:07
Take this baby, for instance.
161
547464
1811
Acest bebeluş, de exemplu.
09:09
Things are going wrong for him.
162
549275
1705
Lucrurile nu merg bine pentru el.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
Nu reușește să facă această jucărie să meargă.
09:13
I'll show you a few-second clip.
164
553251
2529
Vă arăt un clip de câteva secunde.
În mare, sunt două posibilități:
09:21
And there's two possibilities, broadly:
165
561340
1920
09:23
Maybe he's doing something wrong,
166
563260
2634
s-ar putea ca el să facă ceva greșit,
09:25
or maybe there's something wrong with the toy.
167
565894
4216
sau poate jucăria nu e în regulă.
09:30
So in this next experiment,
168
570110
2111
În următorul experiment,
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
le vom da bebelușilor doar puțină informație statistică
09:35
supporting one hypothesis over the other,
170
575518
2582
în favoarea uneia dintre ipoteze
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
și vom vedea dacă o pot folosi pentru a decide diferit ce vor face.
09:41
about what to do.
172
581555
1834
09:43
Here's the setup.
173
583389
2022
Iată experimentul.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
Hyowon va încerca să facă jucăria să meargă și va reuși.
09:49
I am then going to try twice and fail both times,
175
589101
3320
Apoi eu voi încerca de două ori și voi eșua ambele dăți,
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
iar apoi Hyowon va încerca din nou și va reuși,
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
şi asta reflectă raportul dintre mine și studenții mei politehnişti.
09:58
in technology across the board.
178
598705
2835
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
Important e că se oferă puține dovezi,
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
că problema nu e jucăria, ci persoana.
10:08
Some people can make this toy go,
181
608990
2350
Unii pot face jucăria să meargă, iar alţii nu.
10:11
and some can't.
182
611340
959
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
Când bebelușul va primi jucăria va avea de ales.
10:16
His mom is right there,
184
616212
2188
Mama e acolo, aşa că el poate să-i dea ei jucăria, schimbând astfel persoana,
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
dar va mai fi încă o jucărie la capătul șervetului
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
și ar putea să tragă șervetul către el, ca să schimbe jucăria.
10:28
So let's see what the baby does.
188
628425
2090
Să vedem ce face.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
(Video) HG: Doi, trei. Hai! (Muzică)
10:34
LS: One, two, three, go!
190
634698
3131
LS: Unu, doi, trei, start!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
Arthur, voi încerca din nou. Unu, doi, trei, start!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
YG: Arthur, încerc eu încă o dată, bine?
10:48
One, two, three, go! (Music)
193
648277
4550
Unu, doi, trei, start! (Muzică)
10:53
Look at that. Remember these toys?
194
653583
1883
Ia uită-te. Ții minte jucăriile astea?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
Vezi jucăriile astea? O pun pe asta aici și ți-o dau pe asta.
10:58
and I'm going to give this one to you.
196
658730
2062
11:00
You can go ahead and play.
197
660792
2335
Joacă-te în continuare.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
LS: Bine Laura, dar bebelușii își iubesc mămicile.
11:27
Of course babies give toys to their mommies
199
687950
2182
Sigur că le vor da lor jucăria când nu o pot face să meargă.
11:30
when they can't make them work.
200
690132
2030
11:32
So again, the really important question is what happens when we change
201
692162
3593
Important e să aflăm ce se întâmplă când schimbăm puţin statistica.
11:35
the statistical data ever so slightly.
202
695755
3154
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
Vor vedea jucăria mergând sau nu, exact în aceeași ordine,
11:42
but we're changing the distribution of evidence.
204
702996
2415
dar modificăm distribuţia dovezilor.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
De data aceasta, Hyowon va reuși o dată și va eșua o data și eu la fel .
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
Aceasta sugerează că nu contează cine încearcă jucăria. E stricată.
11:55
It doesn't work all the time.
207
715459
1886
Nu funcționează mereu.
11:57
Again, the baby's going to have a choice.
208
717345
1965
Bebelușul va avea de făcut o alegere.
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
Mama e chiar lângă ea și ar putea schimba persoana,
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
dar va mai fi încă o jucărie la capătul șervetului.
12:05
Let's watch what she does.
211
725910
1378
Să vedem ce face.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
(Video) HG: Doi, trei, hai! (Muzică)
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
Dă-mi voie să mai încerc o dată. Unu, doi, trei, hai!
12:17
Hmm.
214
737460
1697
Hmm.
12:19
LS: Let me try, Clara.
215
739950
2692
LS:Lasă-ma să încerc și eu, Clara.
12:22
One, two, three, go!
216
742642
3945
Unu, doi, trei, hai!
12:27
Hmm, let me try again.
217
747265
1935
Hmm, să mai încerc o dată.
12:29
One, two, three, go! (Music)
218
749200
5670
Unu, doi, trei, hai! (Muzică)
12:35
HG: I'm going to put this one over here,
219
755009
2233
HG: O voi pune pe aceasta aici,
12:37
and I'm going to give this one to you.
220
757242
2001
și ți-o voi da pe aceasta.
12:39
You can go ahead and play.
221
759243
3597
Joacă-te cu ea.
12:58
(Applause)
222
778376
4897
(Aplauze)
13:04
LS: Let me show you the experimental results.
223
784993
2392
LS: Iată rezultatele experimentului.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
Pe axa verticală e distribuția alegerilor în cele două cazuri.
13:09
of children's choices in each condition,
225
789860
2577
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
După cum vedeți, distribuția alegerilor făcute de copiii
13:16
depends on the evidence they observe.
227
796988
2787
depinde de dovezile pe care le observă.
13:19
So in the second year of life,
228
799775
1857
În al doilea an de viață,
13:21
babies can use a tiny bit of statistical data
229
801632
2577
copiii folosesc puţine date statistice
13:24
to decide between two fundamentally different strategies
230
804209
3367
ca să decidă între două strategii fundamental diferite
13:27
for acting in the world:
231
807576
1881
conform cărora să acționeze în lume:
13:29
asking for help and exploring.
232
809457
2743
să ceară ajutorul sau să exploreze.
13:33
I've just shown you two laboratory experiments
233
813700
3434
V-am arătat două experimente
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
dintre sute de astfel de experimente în domeniu, cu concluzii similare.
13:40
because the really critical point
235
820825
2392
Concluzia e că abilitatea copiilor
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
de face deducţii complexe din informaţii împrăştiate
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
stă la baza învățarii culturale specifice speciei noastre.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
Copiii învață despre unelte noi din câteva exemple
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
Învață noi relații cauzale din doar câteva exemple.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
Învață chiar și cuvinte noi, în acest caz, în limbajul american în semne.
14:08
I want to close with just two points.
241
848799
2311
Închei cu doar două concluzii.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
Dacă ați fi la curent cu progresul recent dinn științe cerebrale și cognitive,
14:15
for the past few years,
243
855738
1927
trei idei principale v-ar fi atras atenția.
14:17
three big ideas will have come to your attention.
244
857665
2415
14:20
The first is that this is the era of the brain.
245
860080
3436
Prima e că suntem în epoca creierului.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
Într-adevăr, s-au făcut descoperiri uimitoare în neuroștiințe.
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
Regiuni specializate ale cortexului au fost localizate.
14:30
turning mouse brains transparent,
248
870621
2601
Un creier de șoarece a fost făcut transparent.
14:33
activating neurons with light.
249
873222
3776
Neuronii au fost activați cu lumină.
14:36
A second big idea
250
876998
1996
În al doilea rând, trăim într-o epocă cu volume masive de date
14:38
is that this is the era of big data and machine learning,
251
878994
4104
și învățarea automatizată care promite să ne revoluționeze înțelegerea,
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
14:46
of everything from social networks to epidemiology.
253
886239
4667
de la rețelele sociale până la epidemiologie.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
Poate că pe măsura ce învață despre diverse imagini
14:53
and natural language processing,
255
893599
1993
și cum să proceseze limbajul
14:55
to tell us something about human cognition.
256
895592
3324
ne va da informații despre cogniția umană.
14:59
And the final big idea you'll have heard
257
899756
1937
Ultima idee importantă
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
este că poate e bine că vom ști atâtea despre creier
15:05
and have so much access to big data,
259
905080
1917
și că vom avea acces la date masive
15:06
because left to our own devices,
260
906997
2507
pentru că noi înșine,
15:09
humans are fallible, we take shortcuts,
261
909504
3831
oamenii, suntem supuși erorii, tăiem colțurile, facem greșeli,
15:13
we err, we make mistakes,
262
913335
3437
15:16
we're biased, and in innumerable ways,
263
916772
3684
avem prejudecăţi şi, în nenumărate feluri, percepem lumea greșit.
15:20
we get the world wrong.
264
920456
2969
15:24
I think these are all important stories,
265
924843
2949
Cred că toate acestea sunt exemple importante
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
și ne dau multe informaţii despre condiția umană.
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
Vreau să vă atrag atenția că astăzi v-am spus o poveste foarte diferită.
15:35
It's a story about minds and not brains,
268
935966
3807
E o poveste despre minte și nu despre creier.
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
E o poveste despre tipurile de raţionament pe care doar mintea umană le poate face
15:42
that uniquely human minds can perform,
270
942779
2590
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
și care implică informație structurată, complexă și capacitatea de a învăța
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
dintr-o cantitate mică de date și dovezi din puţine exemple.
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
Fundamental, e o poveste despre cum, începând de mici
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
și continuând pâna la marile realizări ale culturii noastre
16:04
of our culture,
275
964780
3843
16:08
we get the world right.
276
968623
1997
înțelegem corect lumea în care trăim.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
Oameni buni, mintea umană nu numai că învață din date puține
16:18
Human minds think of altogether new ideas.
278
978285
2101
Mintea umană gândește idei noi.
16:20
Human minds generate research and discovery,
279
980746
3041
Mintea umană generează cercetare și știință,
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
și mintea umană generează artă și literatură și poezie și teatru
16:29
and human minds take care of other humans:
281
989070
3760
și mintea umană are grijă de alte ființe umane
16:32
our old, our young, our sick.
282
992830
3427
cei bătrâni, cei tineri, cei bolnavi.
16:36
We even heal them.
283
996517
2367
Îi și vindecăm.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
În anii ce vor urma, vom vedea inovaţii tehnologice
16:42
beyond anything I can even envision,
285
1002667
3797
mai surprinzătoare decât orice mi-aș putea imagina,
16:46
but we are very unlikely
286
1006464
2150
dar e foarte puțin probabil
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
să vedem ceva similar puterii computaționale a creierului unui copil
16:54
in my lifetime or in yours.
288
1014323
4298
în decursul vieții mele sau a dvs.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
Dacă vom investi în acești avizi învățacei și în dezvoltarea lor
17:03
in babies and children
290
1023668
2917
în bebeluși și copii,
17:06
and mothers and fathers
291
1026585
1826
în mame și tați,
17:08
and caregivers and teachers
292
1028411
2699
în bone și învățători,
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
la fel cum investim în celelalte forme elegante și avansate de tehnologie,
17:15
of technology, engineering and design,
294
1035280
3218
inginerie și design,
17:18
we will not just be dreaming of a better future,
295
1038498
2939
nu numai că vom visa la un viitor mai bun, dar chiar vom plănui unul.
17:21
we will be planning for one.
296
1041437
2127
17:23
Thank you very much.
297
1043564
2345
Vă mulțumesc foarte mult.
17:25
(Applause)
298
1045909
3421
(Aplauze)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
Christ Anderson: Laura, mulțumesc. Am o întrebare pentru tine.
17:34
First of all, the research is insane.
300
1054236
2359
În primul rând, această cercetare e nebunească.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
Vreau să spun, cine ar planifica un astfel de experiment? (Râsete)
17:41
I've seen that a couple of times,
302
1061150
1790
L-am urmărit de mai multe ori,
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
și încă nu pot să cred că se poate întâmpla cu adevărat
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
dar alții au făcut experimente similare. Se verifică.
17:49
The babies really are that genius.
305
1069320
1633
Bebelușii sunt într-adevăr geniali.
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
LS: Sunt impresionanți în experimentele noastre,
17:53
but think about what they look like in real life, right?
307
1073960
2652
imaginați-vă însă ce fac în realitate?
17:56
It starts out as a baby.
308
1076612
1150
Se naște un bebeluș şi după 18 luni îţi vorbeşte.
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
Primele cuvinte nu-s „mingi” sau „rațe”, ci „nu mai e", referindu-se la dispariție,
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
sau „o-o”, care se referă la acțiuni neintenționate.
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
18:07
It has to be that powerful.
313
1087974
1562
Este impresionant.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
E mai impresionant decât tot ce-am prezentat.
Își deslușesc întreaga lume.
18:12
They're figuring out the entire world.
315
1092311
1974
Un copil de patru ani îți poate vorbi despre aproape orice.
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
(Aplauze)
18:17
(Applause)
317
1097429
1601
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
CA: Dacă înțeleg bine, în pofida discuţiilor din ultimii ani,
18:22
we've been through these years where there's all this talk
319
1102444
2754
despre cât de complexă şi întortocheată e mintea noastră,
18:25
of how quirky and buggy our minds are,
320
1105198
1932
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
comportamentul şi toate teoriile care susţin că nu suntem fiinţe raţionale,
18:29
that we're not rational agents.
322
1109997
1603
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
tu spui că imaginea de ansamblu e cu adevărat extraordinară
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
și că există cu adevărat geniul care este subapreciat.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
LS: Un citat preferat din psihologie aparține psihologului social Solomon Asch,
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
care a spus că principala sarcină a psihologiei
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
18:47
the veil of self-evidence from things.
328
1127927
2626
e îndepărtarea vălului propriilor dovezi de pe lucruri.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
Luăm milioane de decizii zilnic ca să înţelegem lumea din jur.
18:55
that get the world right.
330
1135104
1347
18:56
You know about objects and their properties.
331
1136451
2132
Cunoaștem obiectele și proprietățile lor, le recunoaştem acoperite sau în întuneric,
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
19:01
You can walk through rooms.
333
1141612
1308
ne deplasăm prin încăperi.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
Ne dăm seama ce gândesc alţii. Vorbim cu ei.
Ne deplasăm prin spaţiu, ştim numerele, ştim despre cauză şi efect,
19:06
You can navigate space. You know about numbers.
335
1146452
2230
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
Ştim despre raţionamente morale.
Facem asta făra efort, invisibil, dar aşa înțelegem lumea.
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
E o realizare remarcabilă şi dificil de înțeles.
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
CA: Cred că în audiență sunt oameni care cred în progresul tehnologic rapid,
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
19:21
this view of accelerating technological power
341
1161918
2238
care ar găsi discutabilă afirmaţia ta, că în decursul vieții noastre,
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
un computer nu va putea face, ce face un copil de 3 ani.
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
E însă evident, indiferent de scenariu,
19:29
but what's clear is that in any scenario,
344
1169732
3248
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
mașinile au atât de mult de învățat de la copiii noștri.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
LS: Probabil în audiență sunt experți în învățarea automată.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
Să nu pariați împotriva bebelușilor, cimpanzeilor sau a tehnologiei.
19:45
or technology as a matter of practice,
348
1185649
3645
19:49
but it's not just a difference in quantity,
349
1189294
4528
Nu e numai o diferență cantitativă, ci e o diferenţă de categorie.
19:53
it's a difference in kind.
350
1193822
1764
19:55
We have incredibly powerful computers,
351
1195586
2160
Avem calculoatoare extrem de performante, care fac lucruri extrem de sofisticate,
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
20:00
often with very big amounts of data.
353
1200137
3204
cu cantități imense de date.
Mintea umană face ceva destul de diferit,
20:03
Human minds do, I think, something quite different,
354
1203341
2607
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
și cred că e natura structurată, ierarhică a cunoașterii umane
20:09
that remains a real challenge.
356
1209843
2032
care rămâne o provocare.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
CA: Laura Schulz, minunată hrană pentru minte. Mulțumesc foarte mult.
20:14
LS: Thank you. (Applause)
358
1214936
2922
LS: Mulțumesc. (Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7