How to Get Inside the "Brain" of AI | Alona Fyshe | TED

58,610 views ・ 2023-04-03

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Claudia Pravat
00:04
People are funny.
0
4417
1127
Oamenii sunt ciudați.
00:05
We're constantly trying to understand and interpret
1
5585
2544
Încercăm mereu să înțelegem și să interpretăm
00:08
the world around us.
2
8171
1460
lumea din jurul nostru.
00:10
I live in a house with two black cats, and let me tell you,
3
10090
2794
Locuiesc într-o casă cu două pisici negre și pot să vă spun
00:12
every time I see a black, bunched up sweater out of the corner of my eye,
4
12926
3462
că de câte ori văd cu coada ochiului un pulover negru mototolit,
00:16
I think it's a cat.
5
16388
1209
am impresia că e o pisică.
00:18
It's not just the things we see.
6
18098
1585
Nu e doar ce vedem.
00:19
Sometimes we attribute more intelligence than might actually be there.
7
19724
3587
Câteodată atribuim mai multă inteligență decât există cu adevărat.
00:23
Maybe you've seen the dogs on TikTok.
8
23770
1794
Cred că ați văzut câinii de pe TikTok.
00:25
They have these little buttons that say things like "walk" or "treat."
9
25605
3379
Au niște butoane mici care spun „mergi” sau „recompensă”.
00:29
They can push them to communicate some things with their owners,
10
29025
3128
Ei le apasă pentru a comunica cu stăpânii lor,
00:32
and their owners think they use them
11
32195
1752
iar stăpânii cred că ei le folosesc
00:33
to communicate some pretty impressive things.
12
33947
2169
ca să spună ceva impresionant.
00:36
But do the dogs know what they're saying?
13
36491
2002
Dar câinii știu ce spun?
00:39
Or perhaps you've heard the story of Clever Hans the horse,
14
39494
3462
Poate ați auzit povestea cu Hans cel deștept,
00:42
and he could do math.
15
42956
1376
calul care știa matematică.
00:44
And not just like, simple math problems, really complicated ones,
16
44374
3086
Și nu e vorba de probleme simple, ci unele chiar complicate,
00:47
like, if the eighth day of the month falls on a Tuesday,
17
47460
3003
cum ar fi „dacă a opta zi a lunii cade într-o joi,
00:50
what's the date of the following Friday?
18
50463
1919
ce dată e vinerea următoare?”
00:52
It's like, pretty impressive for a horse.
19
52841
2043
Destul de impresionant pentru un cal.
00:55
Unfortunately, Hans wasn't doing math,
20
55927
2586
Din păcate, Hans nu știa matematică,
00:58
but what he was doing was equally impressive.
21
58555
2586
dar ce făcea era la fel de impresionant.
01:01
Hans had learned to watch the people in the room
22
61182
2670
Hans învățase să privească oamenii dintr-o încăpere,
01:03
to tell when he should tap his hoof.
23
63893
2002
ca să știe când să lovească cu copita.
01:05
So he communicated his answers by tapping his hoof.
24
65937
2461
Spunea răspunsul lovind cu copita.
01:08
It turns out that if you know the answer
25
68982
1918
Se pare că dacă știi răspunsul la întrebarea
01:10
to "if the eighth day of the month falls on a Tuesday,
26
70942
2544
„dacă a opta zi a lunii cade într-o joi,
01:13
what's the date of the following Friday,"
27
73528
1960
ce dată e vinerea următoare?”,
01:15
you will subconsciously change your posture
28
75488
2044
în mod inconștient îți vei schimba poziția
01:17
once the horse has given the correct 18 taps.
29
77532
2169
de îndată ce calul va fi bătut din copită de 18 ori.
01:20
So Hans couldn't do math,
30
80493
1293
Așadar, Hans nu știa matematică,
01:21
but he had learned to watch the people in the room who could do math,
31
81786
3254
dar învățase să se uite la oamenii din cameră care știau să calculeze,
01:25
which, I mean, still pretty impressive for a horse.
32
85081
2419
lucru destul de impresionant pentru un cal.
01:28
But this is an old picture,
33
88418
1418
Asta e o imagine veche
01:29
and we would not fall for Clever Hans today.
34
89836
2252
și Hans nu ne-ar mai impresiona azi.
01:32
Or would we?
35
92672
1168
Sau poate că da?
01:34
Well, I work in AI,
36
94549
2169
Lucrez în domeniul AI
01:36
and let me tell you, things are wild.
37
96718
2002
și vreau să vă spun că lucrurile sunt neobișnuite.
01:38
There have been multiple examples of people being completely convinced
38
98720
3754
Sunt multe exemple de oameni absolut convinși
01:42
that AI understands them.
39
102515
1502
că AI îi înțelege.
01:44
In 2022,
40
104559
2711
În 2022,
01:47
a Google engineer thought that Google’s AI was sentient.
41
107270
3337
un inginer de la Google s-a gândit că AI poate să simtă.
01:50
And you may have had a really human-like conversation
42
110649
2752
Și poate ați purtat și o conversație
01:53
with something like ChatGPT.
43
113401
1877
cu ceva cum e ChatGPT.
01:55
But models we're training today are so much better
44
115779
2377
Dar modelele dezvoltate azi sunt mult mai bune
01:58
than the models we had even five years ago.
45
118198
2002
decât cele de acum cinci ani.
02:00
It really is remarkable.
46
120200
1710
E extraordinar.
02:02
So at this super crazy moment in time,
47
122744
2502
În acest moment remarcabil,
02:05
let’s ask the super crazy question:
48
125288
2127
să ne punem întrebarea:
02:07
Does AI understand us,
49
127832
1293
Ne înțelege AI
02:09
or are we having our own Clever Hans moment?
50
129167
2878
sau suntem precum Hans Clever?
02:13
Some philosophers think that computers will never understand language.
51
133254
3462
Unii filozofi sunt de părere că niciodată calculatoarele
nu vor înțelege limbajul.
02:16
To illustrate this, they developed something they call
52
136716
2628
Pentru a demonstra acest lucru, au dezvoltat ceva
02:19
the Chinese room argument.
53
139344
1460
ce numesc argumentul camerei chinezești.
02:21
In the Chinese room, there is a person, hypothetical person,
54
141429
3629
Într-o cameră din China se presupune că există o persoană
02:25
who does not understand Chinese,
55
145100
1835
care nu înțelege chineza,
02:26
but he has along with him a set of instructions
56
146976
2211
dar are cu el un set de instrucțiuni
02:29
that tell him how to respond in Chinese to any Chinese sentence.
57
149229
4212
care îi spun cum să răspundă în chineză la orice întrebare.
02:33
Here's how the Chinese room works.
58
153983
1669
Iată cum funcționează camera chinezească.
02:35
A piece of paper comes in through a slot in the door,
59
155652
2502
Printr-o crăpătură a ușii este introdusă o hârtie
02:38
has something written in Chinese on it.
60
158196
2461
care are scris ceva în chineză.
02:40
The person uses their instructions to figure out how to respond.
61
160699
3003
Persoana folosește instrucțiunile ca să știe cum să răspundă.
02:43
They write the response down on a piece of paper
62
163702
2293
Scrie răspunsul pe o foaie de hârtie
02:46
and then send it back out through the door.
63
166037
2252
și apoi o trimite înapoi prin ușă.
02:48
To somebody who speaks Chinese,
64
168331
1502
Unui om care vorbește chineză
02:49
standing outside this room,
65
169833
1293
și se află în afara camerei,
02:51
it might seem like the person inside the room speaks Chinese.
66
171167
3170
i se va părea că cel din cameră știe chineza.
02:54
But we know they do not,
67
174337
2753
Dar noi știm că nu e așa,
02:57
because no knowledge of Chinese is required to follow the instructions.
68
177090
4546
pentru că nu e nevoie să știi chineza ca să urmezi acele instrucțiuni.
03:01
Performance on this task does not show that you know Chinese.
69
181636
2961
Să îndeplinești această sarcină nu demonstrează că știi chineză.
03:05
So what does that tell us about AI?
70
185807
2002
Ce ne spune asta despre AI?
03:08
Well, when you and I stand outside of the room,
71
188226
2753
Ei bine, când stăm în afara camerei
03:11
when we speak to one of these AIs like ChatGPT,
72
191020
4547
și vorbim cu aceste AI precum ChatGPT,
03:15
we are the person standing outside the room.
73
195567
2085
suntem ca cel care stă afară.
03:17
We're feeding in English sentences,
74
197652
1710
Îi dăm un set de propoziții în engleză
03:19
we're getting English sentences back.
75
199362
2127
și primim unele înapoi.
03:21
It really looks like the models understand us.
76
201531
2419
Avem impresia că modelele ne înțeleg.
03:23
It really looks like they know English.
77
203992
2502
Chiar pare că știu engleză.
03:27
But under the hood,
78
207203
1168
Dar în realitate,
03:28
these models are just following a set of instructions, albeit complex.
79
208371
3754
aceste modele urmează doar un set de instrucțiuni complexe.
03:32
How do we know if AI understands us?
80
212917
2795
De unde știm că AI ne înțelege?
03:36
To answer that question, let's go back to the Chinese room again.
81
216880
3086
Ca să răspundem la această întrebare, să revenim la camera chinezească.
03:39
Let's say we have two Chinese rooms.
82
219966
1794
Să zicem că avem două camere.
03:41
In one Chinese room is somebody who actually speaks Chinese,
83
221801
3879
În prima e cineva care chiar vorbește chineza,
03:46
and in the other room is our impostor.
84
226014
1877
iar în cealaltă e cineva care se preface.
03:48
When the person who actually speaks Chinese gets a piece of paper
85
228224
3087
Când persoana care vorbește chineza primește o foaie de hârtie
03:51
that says something in Chinese in it, they can read it, no problem.
86
231311
3170
pe care scrie ceva în chineză, poate citi fără probleme.
03:54
But when our imposter gets it again,
87
234522
1752
Dar cel care se preface că știe limba
03:56
he has to use his set of instructions to figure out how to respond.
88
236274
3170
va folosi un set de instrucțiuni pentru a ști cum să răspundă.
03:59
From the outside, it might be impossible to distinguish these two rooms,
89
239819
3671
Din afară, poate părea imposibil de diferențiat aceste camere,
04:03
but we know inside something really different is happening.
90
243531
3587
dar noi știm că acolo se petrec lucruri diferite.
04:07
To illustrate that,
91
247660
1168
Pentru a ilustra acest lucru,
04:08
let's say inside the minds of our two people,
92
248870
2836
să presupunem că în mintea celor două persoane
04:11
inside of our two rooms,
93
251748
1585
din cele două camere
04:13
is a little scratch pad.
94
253374
1752
există un carnețel de notițe.
04:15
And everything they have to remember in order to do this task
95
255168
2878
Și tot ce trebuie să-și amintească pentru a îndeplini această sarcină
04:18
has to be written on that little scratch pad.
96
258046
2169
e scris pe acel carnețel.
04:20
If we could see what was written on that scratch pad,
97
260757
2586
Dacă am putea vedea ce e scris pe acel carnețel,
04:23
we would be able to tell how different their approach to the task is.
98
263384
3421
am putea vedea diferența de executare a acestei sarcini.
04:27
So though the input and the output of these two rooms
99
267514
2502
Deși informația și executarea din aceste două camere
04:30
might be exactly the same,
100
270016
1293
ar putea fi identice,
04:31
the process of getting from input to output -- completely different.
101
271309
3337
procesul de informare și executare ar putea fi complet diferit.
04:35
So again, what does that tell us about AI?
102
275897
2294
Ce ne spune asta despre AI?
04:38
Again, if AI, even if it generates completely plausible dialogue,
103
278691
3838
Dacă AI generează un dialog total plauzibil,
04:42
answers questions just like we would expect,
104
282529
2085
răspunzând la întrebări exact cum ne-am aștepta,
04:44
it may still be an imposter of sorts.
105
284614
2377
tot ar fi un fel de impostor.
04:47
If we want to know if AI understands language like we do,
106
287033
3003
Dacă dorim să știm dacă AI înțelege limbajul ca noi,
04:50
we need to know what it's doing.
107
290078
1835
avem nevoie să înțelegem ce face.
04:51
We need to get inside to see what it's doing.
108
291955
2335
Să pătrundem în interior ca să vedem ce face.
04:54
Is it an imposter or not?
109
294332
1585
Se preface sau nu?
04:55
We need to see its scratch pad,
110
295959
1835
Trebuie să-i vedem notițele
04:57
and we need to be able to compare it
111
297794
1752
și să le comparăm
04:59
to the scratch pad of somebody who actually understands language.
112
299587
3212
cu cele ale cuiva care înțelege limba.
05:02
But like scratch pads in brains,
113
302841
1751
Dar precum notițele din creier,
05:04
that's not something we can actually see, right?
114
304634
2336
nu e ceva ce putem vedea, nu-i așa?
05:07
Well, it turns out that we can kind of see scratch pads in brains.
115
307720
3337
Ei bine, se pare că putem vedea aceste notițe din creier.
05:11
Using something like fMRI or EEG,
116
311099
2127
Cu ajutorul fMRI sau EEG,
05:13
we can take what are like little snapshots of the brain while it’s reading.
117
313268
3712
putem observa instantanee din creier în timp ce citește.
05:17
So have people read words or stories and then take pictures of their brain.
118
317021
4171
Punem câțiva oameni să citească și facem poze la creierul lor.
05:21
And those brain images are like fuzzy,
119
321192
2252
Aceste imagini sunt neclare,
05:23
out-of-focus pictures of the scratch pad of the brain.
120
323486
3253
imagini nefocalizate ale suprafeței creierului.
05:26
They tell us a little bit about how the brain is processing
121
326739
3045
Ne vorbesc despre modul în care creierul procesează
05:29
and representing information while you read.
122
329784
2461
și redă informația în timp ce citim.
05:33
So here are three brain images taken while a person read the word "apartment,"
123
333079
4087
Iată trei imagini ale creierului când cineva citește cuvântul „apartament”,
05:37
"house" and "celery."
124
337208
1669
„casă” și „țelină”.
05:39
You can see just with your naked eye
125
339252
2002
Se observă cu ochiul liber
05:41
that the brain image for "apartment" and "house"
126
341296
2252
că imaginile creierului pentru „apartament” și „casă”
05:43
are more similar to each other
127
343548
1585
se aseamănă mai mult
05:45
than they are to the brain image for "celery."
128
345133
2252
decât imaginea creierului pentru cuvântul „țelină”.
05:47
And you know, of course that apartments and houses are more similar
129
347385
3170
Și e normal, pentru că apartamentul seamănă mai mult cu casa
05:50
than they are to celery, just the words.
130
350555
2210
decât cu țelina.
05:52
So said another way,
131
352807
2544
Cu alte cuvinte,
05:55
the brain uses its scratchpad when reading the words "apartment" and "house"
132
355393
4296
creierul folosește notițele când citește „apartament” și „casă”,
05:59
in a way that's more similar than when you read the word "celery."
133
359731
3128
într-un mod similar cu acela când citește cuvântul „țelină”.
06:03
The scratch pad tells us a little bit
134
363693
1793
Carnețelul de notițe ne spune ceva
06:05
about how the brain represents the language.
135
365486
2086
despre modul în care creierul redă limbajul.
06:07
It's not a perfect picture of what the brain's doing,
136
367572
2502
Nu e o imagine perfectă a ceea ce face creierul,
06:10
but it's good enough.
137
370074
1335
dar e destul de bună.
06:11
OK, so we have scratch pads for the brain.
138
371409
2169
Așadar, avem carnețel pentru creier.
06:13
Now we need a scratch pad for AI.
139
373620
2127
Acum avem nevoie de unul și pentru AI.
06:16
So inside a lot of AIs is a neural network.
140
376706
2878
În interiorul multor AI există o rețea neuronală.
06:19
And inside of a neural network is a bunch of these little neurons.
141
379626
3253
Iar în această rețea există mulți neuroni mici.
06:22
So here the neurons are like these little gray circles.
142
382921
2919
Aceștia sunt ca niște mici cercuri gri.
06:25
And we would like to know
143
385840
1210
Am vrea să știm
06:27
what is the scratch pad of a neural network?
144
387091
2086
care e carnețelul unei rețele neuronale.
06:29
Well, when we feed in a word into a neural network,
145
389177
4254
Când introducem un cuvânt într-o rețea neuronală,
06:33
each of the little neurons computes a number.
146
393473
2794
fiecare mic neuron generează un număr.
06:36
Those little numbers I'm representing here with colors.
147
396893
2627
Aceste numere mici sunt reprezentate cu culori.
06:39
So every neuron computes this little number,
148
399562
2795
Fiecare neuron generează acest număr mic,
06:42
and those numbers tell us something
149
402398
1710
iar numerele ne spun ceva
06:44
about how the neural network is processing language.
150
404108
2711
despre cum e procesat limbajul de rețeaua neuronală.
06:47
Taken together,
151
407862
1168
Luate împreună,
06:49
all of those little circles paint us a picture
152
409030
2753
aceste cercuri mici oferă o imagine
06:51
of how the neural network is representing language,
153
411824
2419
despre cum redă limbajul rețeaua neuronală
06:54
and they give us the scratch pad of the neural network.
154
414243
2753
și ne oferă notițele rețelei neuronale.
06:57
OK, great.
155
417580
1168
Perfect.
06:58
Now we have two scratch pads, one from the brain and one from AI.
156
418790
3086
Acum avem cele două carnețele, ale creierului și ale AI.
07:01
And we want to know: Is AI doing something like what the brain is doing?
157
421876
3629
Și vrem să aflăm: AI face ceva asemănător creierului?
07:05
How can we test that?
158
425838
1377
Cum putem testa asta?
07:07
Here's what researchers have come up with.
159
427757
2002
Iată ce au descoperit cercetătorii.
07:09
We're going to train a new model.
160
429801
1877
Vom antrena un nou model.
07:11
That new model is going to look at neural network scratch pad
161
431678
2877
Acesta va căuta în notițele rețelei neuronale
07:14
for a particular word
162
434555
1168
un anumit cuvânt
07:15
and try to predict the brain scratch pad for the same word.
163
435723
3087
și va încerca să anticipeze notițele creierului pentru același cuvânt.
07:18
We can do it, by the way, around two.
164
438851
1919
Putem face cam două.
07:20
So let's train a new model.
165
440812
2043
Să dezvoltăm un nou model.
07:22
It’s going to look at the neural network scratch pad for a particular word
166
442897
3504
Acesta va căuta în notițele rețelei neuronale un anumit cuvânt
07:26
and try to predict the brain scratchpad.
167
446401
1918
și va încerca să anticipeze notițele creierului.
07:28
If the brain and AI are doing nothing alike,
168
448319
2586
Dacă creierul și AI nu acționează la fel,
07:30
have nothing in common,
169
450947
1168
dacă nu au nimic în comun,
07:32
we won't be able to do this prediction task.
170
452115
2085
nu vom putea face această anticipare.
07:34
It won't be possible to predict one from the other.
171
454200
2461
Nu vom putea diferenția una de alta.
07:36
So we've reached a fork in the road
172
456995
1710
Așadar, suntem la o răspântie
07:38
and you can probably tell I'm about to tell you one of two things.
173
458705
3295
și cred că vă dați seama ce urmează să vă spun.
07:42
I’m going to tell you AI is amazing,
174
462458
2044
Vă voi spune că AI e senzațională
07:44
or I'm going to tell you AI is an imposter.
175
464544
2669
sau vă voi spune că e ceva fals.
07:48
Researchers like me love to remind you
176
468047
2211
Cercetătorilor ca mine le place să vă reamintească
07:50
that AI is nothing like the brain.
177
470299
1627
că AI nu seamănă deloc cu creierul.
07:51
And that is true.
178
471968
1501
Acesta e adevărul.
07:53
But could it also be the AI and the brain share something in common?
179
473845
3253
Dar ar putea AI și creierul să se asemene?
07:58
So we’ve done this scratch pad prediction task,
180
478516
2211
Am dezvoltat acest carnețel pentru predicții
08:00
and it turns out, 75 percent of the time
181
480727
2669
și am descoperit că în 75% din cazuri,
08:03
the predicted neural network scratchpad for a particular word
182
483438
3169
predicția rețelei neuronale pentru un anumit cuvânt
08:06
is more similar to the true neural network scratchpad for that word
183
486649
3754
seamănă mai bine cu cuvântul real al rețelei neuronale
08:10
than it is to the neural network scratch pad
184
490403
2085
decât cu un cuvânt ales la întâmplare
08:12
for some other randomly chosen word --
185
492488
1835
din rețeaua neuronală,
08:14
75 percent is much better than chance.
186
494323
2962
cu șanse mai mari cu 75%.
08:17
What about for more complicated things,
187
497285
1918
Cum rămâne cu situații mai complicate,
08:19
not just words, but sentences, even stories?
188
499203
2086
nu doar cuvinte, ci propoziții și conversații?
08:21
Again, this scratch pad prediction task works.
189
501330
2420
Și în aceste situații funcționează predicția carnetului de notițe.
08:23
We’re able to predict the neural network scratch pad from the brain and vice versa.
190
503791
4213
Putem prezice rețeaua neuronală din creier în ambele sensuri.
08:28
Amazing.
191
508838
1210
E uimitor.
08:30
So does that mean
192
510548
1168
Este acesta un semn
08:31
that neural networks and AI understand language just like we do?
193
511758
3378
că rețelele neuronale și AI înțeleg limbajul ca noi?
08:35
Well, truthfully, no.
194
515511
1585
Sincer, nu.
08:37
Though these scratch pad prediction tasks show above-chance accuracy,
195
517513
4880
Deși aceste predicții arată o precizie foarte mare,
08:42
the underlying correlations are still pretty weak.
196
522393
2378
corelațiile principale sunt foarte slabe.
08:45
And though neural networks are inspired by the brain,
197
525188
2502
Și deși rețelele neuronale sunt determinate de creier,
08:47
they don't have the same kind of structure and complexity
198
527690
2711
nu au structura și complexitatea
08:50
that we see in the brain.
199
530401
1210
pe care le vedem la creier.
08:52
Neural networks also don't exist in the world.
200
532028
2461
Rețelele neuronale nici nu există în lume.
08:54
A neural network has never opened a door
201
534530
2086
O rețea neuronală nu deschide ușa,
08:56
or seen a sunset, heard a baby cry.
202
536657
2962
n-a văzut niciodată un apus de soare și n-a auzit cum plânge un bebeluș.
09:00
Can a neural network that doesn't actually exist in the world,
203
540161
2961
Poate o rețea neuronală care nu există în lume,
09:03
hasn't really experienced the world,
204
543122
1794
care nu știe ce înseamnă lumea,
09:04
really understand language about the world?
205
544916
2294
să înțeleagă cu adevărat lumea?
09:08
Still, these scratch pad prediction experiments have held up --
206
548169
2961
Totuși, aceste experimente de predicție au expus
09:11
multiple brain imaging experiments,
207
551130
1710
multe experimente de imagistică a creierului
09:12
multiple neural networks.
208
552840
1418
și rețele neuronale.
09:14
We've also found that as the neural networks get more accurate,
209
554300
2961
Am descoperit că pe măsură ce rețelele neuronale sunt mai precise,
09:17
they also start to use their scratch pad in a way
210
557261
2711
încep să-și folosească memoria
09:20
that becomes more brain-like.
211
560014
2002
într-un fel care seamănă cu creierul.
09:22
And it's not just language.
212
562058
1293
Și nu se întâmplă doar cu limbajul.
09:23
We've seen similar results in navigation and vision.
213
563392
2503
Am văzut rezultate similare la deplasare și vedere.
09:26
So AI is not doing exactly what the brain is doing,
214
566270
3879
Așadar, AI nu face exact ce face creierul,
09:30
but it's not completely random either.
215
570191
2377
dar nici ceva la întâmplare.
09:34
So from where I sit,
216
574112
1835
Din punctul meu de vedere,
09:35
if we want to know if AI really understands language like we do,
217
575988
3337
dacă vrem să ne convingem că AI înțelege limbajul ca noi,
09:39
we need to get inside of the Chinese room.
218
579325
2336
trebuie să intrăm în camera chinezească.
09:41
We need to know what the AI is doing,
219
581702
1836
Trebuie să aflăm ce face AI
09:43
and we need to be able to compare that to what people are doing
220
583579
2962
și să putem compara asta cu ceea ce fac oamenii
09:46
when they understand language.
221
586541
1751
când înțeleg un limbaj.
09:48
AI is moving so fast.
222
588334
1877
AI se mișcă foarte repede.
09:50
Today, I'm asking you, does AI understand language
223
590545
2377
Dacă vă întreb astăzi dacă AI înțelege limbajul,
09:52
that might seem like a silly question in ten years.
224
592964
2460
în 10 ani asta ar putea să fie o întrebare absurdă.
09:55
Or ten months.
225
595466
1168
Chiar în 10 luni.
09:56
(Laughter)
226
596634
1919
(Râsete)
09:58
But one thing will remain true.
227
598594
1544
Dar un lucru rămâne adevărat.
10:00
We are meaning-making humans,
228
600179
1460
Suntem oameni care caută sens
10:01
and we are going to continue to look for meaning
229
601681
2878
și vom continua să căutăm înțelesuri
10:04
and interpret the world around us.
230
604559
1918
și să cunoaștem lumea din jurul nostru.
10:06
And we will need to remember
231
606477
2127
Și trebuie să fim atenți
10:08
that if we only look at the input and output of AI,
232
608646
2794
că dacă doar ne uităm la intrările și ieșirile AI,
10:11
it's very easy to be fooled.
233
611440
2128
e foarte ușor să ne înșelăm.
10:13
We need to get inside of the metaphorical room of AI
234
613609
3712
E nevoie să intrăm în acea cameră imaginară a AI,
10:17
in order to see what's happening.
235
617363
1627
ca să înțelegem ce se întâmplă.
10:19
It's what's inside the counts.
236
619740
2461
Contează ceea ce e înăuntru.
10:22
Thank you.
237
622660
1168
Vă mulțumesc!
10:23
(Applause)
238
623828
4004
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7