How to Get Inside the "Brain" of AI | Alona Fyshe | TED

59,902 views ・ 2023-04-03

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Nefise Zehra Bayar Gözden geçirme: esra kurul
00:04
People are funny.
0
4417
1127
İnsanlar çok komik.
00:05
We're constantly trying to understand and interpret
1
5585
2544
Sürekli etrafımızdaki dünyayı anlayıp yorumlamaya çalışıyoruz.
00:08
the world around us.
2
8171
1460
00:10
I live in a house with two black cats, and let me tell you,
3
10090
2794
Evimde 2 siyah kedi besliyorum ve şunu söyleyeyim,
00:12
every time I see a black, bunched up sweater out of the corner of my eye,
4
12926
3462
ne zaman göz ucuyla siyah bir süveter görsem
00:16
I think it's a cat.
5
16388
1209
kedi sanıyorum.
00:18
It's not just the things we see.
6
18098
1585
Sadece gördüklerimiz de değil.
00:19
Sometimes we attribute more intelligence than might actually be there.
7
19724
3587
Bazen bir şeylere olduğundan çok daha fazla zeka yüklüyoruz.
00:23
Maybe you've seen the dogs on TikTok.
8
23770
1794
TikTok’taki köpekleri görmüşsünüzdür.
00:25
They have these little buttons that say things like "walk" or "treat."
9
25605
3379
“Yürü” ya da ” ödül ver” gibi şeyler yazan küçük düğmeleri var.
00:29
They can push them to communicate some things with their owners,
10
29025
3128
Köpekler de sahipleriyle iletişim kurmak için o tuşlara basıyorlar
00:32
and their owners think they use them
11
32195
1752
sahipleri de çok etkileyici şeyler dediklerini düşünüyor.
00:33
to communicate some pretty impressive things.
12
33947
2169
00:36
But do the dogs know what they're saying?
13
36491
2002
Ama köpekler ne dediklerini biliyor mu ki?
00:39
Or perhaps you've heard the story of Clever Hans the horse,
14
39494
3462
Ya da belki Akıllı Hans’ı duymuşsunuzdur,
00:42
and he could do math.
15
42956
1376
hesap yapabilen bir at.
00:44
And not just like, simple math problems, really complicated ones,
16
44374
3086
Sadece basit problemler değil, karmaşık problemler de çözebiliyordu.
00:47
like, if the eighth day of the month falls on a Tuesday,
17
47460
3003
Mesela ayın 8. günü salıysa, bir sonraki cuma ayın kaçına gelir gibi.
00:50
what's the date of the following Friday?
18
50463
1919
00:52
It's like, pretty impressive for a horse.
19
52841
2043
Bir ata göre oldukça etkileyici.
00:55
Unfortunately, Hans wasn't doing math,
20
55927
2586
Fakat ne yazık ki, Hans hesap yapmıyordu.
00:58
but what he was doing was equally impressive.
21
58555
2586
Yaptığı şey yine de etkileyiciydi tabii.
01:01
Hans had learned to watch the people in the room
22
61182
2670
Hans, odadaki insanları gözlemeyi öğrenmişti,
01:03
to tell when he should tap his hoof.
23
63893
2002
insanlar ona toynağını ne zaman vuracağını söylüyordu.
01:05
So he communicated his answers by tapping his hoof.
24
65937
2461
Toynağını vurarak cevap veriyordu.
01:08
It turns out that if you know the answer
25
68982
1918
Sonradan ortaya çıktı ki,
01:10
to "if the eighth day of the month falls on a Tuesday,
26
70942
2544
″ayın 8. günü salıysa, bir sonraki cuma ayın kaçına gelir,″
01:13
what's the date of the following Friday,"
27
73528
1960
sorusunun cevabını biliyorsanız,
at toynağını 18. kere vurduğunda,
01:15
you will subconsciously change your posture
28
75488
2044
bu doğru cevap olduğu için bilinçsizce duruşunuzu değiştiriyordunuz.
01:17
once the horse has given the correct 18 taps.
29
77532
2169
01:20
So Hans couldn't do math,
30
80493
1293
Yani Hans hesap yapamıyordu,
01:21
but he had learned to watch the people in the room who could do math,
31
81786
3254
odadaki hesap yapabilen insanları gözlemlemeyi öğrenmişti.
01:25
which, I mean, still pretty impressive for a horse.
32
85081
2419
yine de bir ata göre oldukça etkileyici.
01:28
But this is an old picture,
33
88418
1418
Ama bu eskide kaldı,
01:29
and we would not fall for Clever Hans today.
34
89836
2252
bugün olsa Akıllı Hans’a aldanmazdık.
01:32
Or would we?
35
92672
1168
Ya da aldanır mıydık?
01:34
Well, I work in AI,
36
94549
2169
Ben yapay zeka üzerinde çalışıyorum,
01:36
and let me tell you, things are wild.
37
96718
2002
ve işler çığırından çıktı.
01:38
There have been multiple examples of people being completely convinced
38
98720
3754
Yapay zekanın onları anladığına gerçekten inanan birçok insan var.
01:42
that AI understands them.
39
102515
1502
01:44
In 2022,
40
104559
2711
2022′de bir Google mühendisi,
Google’ın yapay zekasının bilinçli bir varlık olduğunu düşünüyordu.
01:47
a Google engineer thought that Google’s AI was sentient.
41
107270
3337
01:50
And you may have had a really human-like conversation
42
110649
2752
Belki de ChatGPT gibi bir şeyle gerçekten insanmış gibi
01:53
with something like ChatGPT.
43
113401
1877
bir konuşma yapmışsınızdır.
01:55
But models we're training today are so much better
44
115779
2377
Ve tabii bugün eğittiğimiz modeller,
01:58
than the models we had even five years ago.
45
118198
2002
beş yıl önceki modellerden çok daha iyi.
02:00
It really is remarkable.
46
120200
1710
Gerçekten olağanüstü bir şey.
02:02
So at this super crazy moment in time,
47
122744
2502
Öyleyse, bu süper çılgın zamanda,
02:05
let’s ask the super crazy question:
48
125288
2127
şu süper çılgın soruyu soralım:
02:07
Does AI understand us,
49
127832
1293
Yapay zeka bizi anlıyor mu,
02:09
or are we having our own Clever Hans moment?
50
129167
2878
yoksa biz kendi Zeki Hans dönemimizi mi yaşıyoruz?
02:13
Some philosophers think that computers will never understand language.
51
133254
3462
Bazı filozoflar bilgisayarların asla dilleri anlayamayacağını düşünüyor.
02:16
To illustrate this, they developed something they call
52
136716
2628
Bunu göstermek için Çince odası argümanı adını verdikleri
02:19
the Chinese room argument.
53
139344
1460
bir şey geliştirdiler.
02:21
In the Chinese room, there is a person, hypothetical person,
54
141429
3629
Çince odasında, Çince anlamayan varsayımsal bir kişi var,
02:25
who does not understand Chinese,
55
145100
1835
bu kişinin yanında herhangi bir
02:26
but he has along with him a set of instructions
56
146976
2211
Çince cümleye Çince olarak nasıl
02:29
that tell him how to respond in Chinese to any Chinese sentence.
57
149229
4212
yanıt vereceğini söyleyen bir dizi talimat var.
02:33
Here's how the Chinese room works.
58
153983
1669
Çin odası şu şekilde çalışıyor.
02:35
A piece of paper comes in through a slot in the door,
59
155652
2502
Kapıdaki delikten üzerinde Çince bir şeyler yazan
02:38
has something written in Chinese on it.
60
158196
2461
bir kağıt parçası atılır.
02:40
The person uses their instructions to figure out how to respond.
61
160699
3003
Kişi nasıl yanıt vereceğini bulmak için talimatları uygular.
02:43
They write the response down on a piece of paper
62
163702
2293
Yanıtı bir kağıda yazıp
02:46
and then send it back out through the door.
63
166037
2252
kapıdan geri gönderirler.
02:48
To somebody who speaks Chinese,
64
168331
1502
Bu odanın dışında duran
02:49
standing outside this room,
65
169833
1293
ve Çince konuşan biri için,
02:51
it might seem like the person inside the room speaks Chinese.
66
171167
3170
odanın içindeki kişi Çince konuşuyor gibi görünebilir.
02:54
But we know they do not,
67
174337
2753
Ama öyle olmadığını biliyoruz,
02:57
because no knowledge of Chinese is required to follow the instructions.
68
177090
4546
çünkü talimatları takip etmek için Çince bilmek gerekmiyor.
03:01
Performance on this task does not show that you know Chinese.
69
181636
2961
Bu görevdeki performansınız Çince bildiğinizi göstermez.
03:05
So what does that tell us about AI?
70
185807
2002
Peki bu bize yapay zeka hakkında ne gösteriyor?
03:08
Well, when you and I stand outside of the room,
71
188226
2753
ChatGPT gibi bu yapay zeka türlerinden
03:11
when we speak to one of these AIs like ChatGPT,
72
191020
4547
biriyle konuştuğumuzda, odanın dışında duran
03:15
we are the person standing outside the room.
73
195567
2085
kişi tam olarak biz oluyoruz.
03:17
We're feeding in English sentences,
74
197652
1710
Biz onları İngilizce cümlelerle besliyoruz,
03:19
we're getting English sentences back.
75
199362
2127
karşılığında da İngilizce cümleler alıyoruz.
03:21
It really looks like the models understand us.
76
201531
2419
Modeller bizi gerçekten anlıyor gibi görünüyor.
03:23
It really looks like they know English.
77
203992
2502
Gerçekten artık İngilizce biliyorlar gibi.
03:27
But under the hood,
78
207203
1168
Ancak biliyoruz ki
03:28
these models are just following a set of instructions, albeit complex.
79
208371
3754
bu modeller karmaşık görünse de aslında sadece bir dizi talimata uyuyorlar.
03:32
How do we know if AI understands us?
80
212917
2795
Peki yapay zekanın bizi anlayıp anlamadığını nasıl bilebiliriz?
03:36
To answer that question, let's go back to the Chinese room again.
81
216880
3086
Bu soruyu yanıtlamak için tekrar Çince odasına dönelim.
03:39
Let's say we have two Chinese rooms.
82
219966
1794
İki Çince odamız olduğunu varsayalım.
03:41
In one Chinese room is somebody who actually speaks Chinese,
83
221801
3879
Bir Çince odasında gerçekten Çince konuşan biri,
03:46
and in the other room is our impostor.
84
226014
1877
diğer odada ise bizim sahtekarımız var.
03:48
When the person who actually speaks Chinese gets a piece of paper
85
228224
3087
Gerçekten Çince bilen bir kişi, üzerinde Çince bir şeyler yazan
03:51
that says something in Chinese in it, they can read it, no problem.
86
231311
3170
bir kağıt parçası aldığında, bunu okuyabilir, problem yok.
03:54
But when our imposter gets it again,
87
234522
1752
Ancak sahtekarımız bunu anladığında,
03:56
he has to use his set of instructions to figure out how to respond.
88
236274
3170
nasıl tepki vereceğini bulmak için kendi talimatlar dizisini kullanmalı.
03:59
From the outside, it might be impossible to distinguish these two rooms,
89
239819
3671
Dışarıdan bakıldığında bu iki odayı ayırt etmek imkansız olabilir,
04:03
but we know inside something really different is happening.
90
243531
3587
ancak içeride gerçekten farklı bir şeyler döndüğünü biliyoruz.
04:07
To illustrate that,
91
247660
1168
Bunu açıklamak için,
04:08
let's say inside the minds of our two people,
92
248870
2836
diyelim ki iki insanımızın zihninindeki
04:11
inside of our two rooms,
93
251748
1585
iki odanın içinde
04:13
is a little scratch pad.
94
253374
1752
küçük bir karalama defteri var.
04:15
And everything they have to remember in order to do this task
95
255168
2878
Ve bu görevi yerine getirmek için hatırlamaları gereken tek şey,
04:18
has to be written on that little scratch pad.
96
258046
2169
o küçük karalama defterine yazılmak zorunda.
04:20
If we could see what was written on that scratch pad,
97
260757
2586
O karalama defterine ne yazıldığını görebilseydik,
04:23
we would be able to tell how different their approach to the task is.
98
263384
3421
göreve yaklaşımlarının ne kadar farklı olduğunu anlayabilirdik.
04:27
So though the input and the output of these two rooms
99
267514
2502
Yani bu iki odanın girdisi ve çıktısı
04:30
might be exactly the same,
100
270016
1293
tamamen aynı olsa da
04:31
the process of getting from input to output -- completely different.
101
271309
3337
girdiden çıktıya ulaşma süreci tamamen farklıdır.
04:35
So again, what does that tell us about AI?
102
275897
2294
Peki tekrar soruyorum, bu yapay zeka hakkında ne gösteriyor?
04:38
Again, if AI, even if it generates completely plausible dialogue,
103
278691
3838
Yapay zeka tamamen mantıklı diyaloglar üretse ve sorulara
04:42
answers questions just like we would expect,
104
282529
2085
beklediğimiz gibi cevap verse bile,
04:44
it may still be an imposter of sorts.
105
284614
2377
yine de bir tür sahtekar olabilir.
04:47
If we want to know if AI understands language like we do,
106
287033
3003
Yapay zekanın dili bizim gibi anlayıp anlamadığını bilmek istiyorsak,
04:50
we need to know what it's doing.
107
290078
1835
ne yaptığını bilmemiz gerekir.
04:51
We need to get inside to see what it's doing.
108
291955
2335
Ne yaptığını görmek için içeri girmeliyiz.
04:54
Is it an imposter or not?
109
294332
1585
Sahtekar mı değil mi?
04:55
We need to see its scratch pad,
110
295959
1835
Onun karalama defterini görmemiz
04:57
and we need to be able to compare it
111
297794
1752
ve dili gerçekten anlayan birinin
04:59
to the scratch pad of somebody who actually understands language.
112
299587
3212
karalama defteriyle karşılaştırabilmemiz gerekir.
05:02
But like scratch pads in brains,
113
302841
1751
Ama beyinlerdeki karalama defterleri gibi,
05:04
that's not something we can actually see, right?
114
304634
2336
bu da aslında görebileceğimiz bir şey değil, değil mi?
05:07
Well, it turns out that we can kind of see scratch pads in brains.
115
307720
3337
Aslında beyinlerdeki karalama defterlerini görebildiğimiz kanıtlandı.
05:11
Using something like fMRI or EEG,
116
311099
2127
fMRI veya EEG gibi bir şey kullanarak,
05:13
we can take what are like little snapshots of the brain while it’s reading.
117
313268
3712
okurken beynin küçük anlık görüntülerini çekebiliyoruz.
05:17
So have people read words or stories and then take pictures of their brain.
118
317021
4171
İnsanlara kelimeler ya da hikayeler okutun sonra beyinlerinin fotoğraflarını çekin.
05:21
And those brain images are like fuzzy,
119
321192
2252
Ve bu beyin görüntüleri,
05:23
out-of-focus pictures of the scratch pad of the brain.
120
323486
3253
beynin karalama defterinin bulanık, odak dışı resimleri gibidir.
05:26
They tell us a little bit about how the brain is processing
121
326739
3045
Okurken beynin bilgiyi nasıl işlediği ve sunduğu
05:29
and representing information while you read.
122
329784
2461
hakkında bize bazı bilgiler verirler.
05:33
So here are three brain images taken while a person read the word "apartment,"
123
333079
4087
İşte bir insanın “apartman”, “ev” ve “kereviz” kelimelerini okurken çekilen
05:37
"house" and "celery."
124
337208
1669
üç farklı beyin görüntüsü.
05:39
You can see just with your naked eye
125
339252
2002
Sadece çıplak gözle bile “apartman” ve “ev “in
05:41
that the brain image for "apartment" and "house"
126
341296
2252
beyin imgelerinin birbirlerine “kereviz “in
05:43
are more similar to each other
127
343548
1585
beyin imgesinden
05:45
than they are to the brain image for "celery."
128
345133
2252
daha çok benzediğini görebilirsiniz.
05:47
And you know, of course that apartments and houses are more similar
129
347385
3170
Biliyorsunuz ki, apartman ve ev kelimeleri birbirine
05:50
than they are to celery, just the words.
130
350555
2210
kerevizden daha çok benziyor.
05:52
So said another way,
131
352807
2544
Diğer bir deyişle,
05:55
the brain uses its scratchpad when reading the words "apartment" and "house"
132
355393
4296
beyin “apartman” ve “ev” kelimelerini okuduğunda,
“kereviz” kelimesine kıyasla karalama defterini daha benzer şekilde kullanır.
05:59
in a way that's more similar than when you read the word "celery."
133
359731
3128
06:03
The scratch pad tells us a little bit
134
363693
1793
Karalama defteri bize
beynin dili nasıl ifade ettiği hakkında biraz bilgi verir.
06:05
about how the brain represents the language.
135
365486
2086
06:07
It's not a perfect picture of what the brain's doing,
136
367572
2502
Beynin nasıl çalıştığının mükemmel bir tasviri değil
06:10
but it's good enough.
137
370074
1335
ama yeterince iyi.
06:11
OK, so we have scratch pads for the brain.
138
371409
2169
Tamam, beyin için karalama defterlerimiz var.
06:13
Now we need a scratch pad for AI.
139
373620
2127
Şimdi de bir tane yapay zeka için lazım.
06:16
So inside a lot of AIs is a neural network.
140
376706
2878
Pek çok yapay zekanın içinde bir sinir ağı vardır.
06:19
And inside of a neural network is a bunch of these little neurons.
141
379626
3253
Ve bir sinir ağının içinde bu küçük nöronlardan bir yığın vardır.
06:22
So here the neurons are like these little gray circles.
142
382921
2919
Burada nöronlar küçük gri daireler gibi.
06:25
And we would like to know
143
385840
1210
Biz de bir sinir ağının
karalama defterinin ne olduğunu bilmek istiyoruz.
06:27
what is the scratch pad of a neural network?
144
387091
2086
06:29
Well, when we feed in a word into a neural network,
145
389177
4254
Bir sinir ağına bir kelime girdiğimizde,
06:33
each of the little neurons computes a number.
146
393473
2794
küçük nöronların her biri bir sayı hesaplar.
06:36
Those little numbers I'm representing here with colors.
147
396893
2627
Burada renklerle gösterdiğim küçük sayılar.
06:39
So every neuron computes this little number,
148
399562
2795
Yani her nöron bu küçük sayıyı hesaplar
06:42
and those numbers tell us something
149
402398
1710
ve bu sayılar bize sinir ağının
06:44
about how the neural network is processing language.
150
404108
2711
dili nasıl işlediği hakkında bir şeyler söyler.
06:47
Taken together,
151
407862
1168
Birlikte ele alındığında,
06:49
all of those little circles paint us a picture
152
409030
2753
tüm bu küçük daireler bize sinir ağının
06:51
of how the neural network is representing language,
153
411824
2419
dili nasıl ifade ettiğinin bir resmini çizer
ve böylece bize sinir ağının karalama defterini vermiş olur.
06:54
and they give us the scratch pad of the neural network.
154
414243
2753
06:57
OK, great.
155
417580
1168
Tamam, harika.
06:58
Now we have two scratch pads, one from the brain and one from AI.
156
418790
3086
Artık biri beyinden diğeri yapay zekadan gelen iki karalama defteri var.
07:01
And we want to know: Is AI doing something like what the brain is doing?
157
421876
3629
Ve bilmek istediğimiz yapay zekanın beynin yaptığına benzer bir şey yapıp yapmadığı.
07:05
How can we test that?
158
425838
1377
Bunu nasıl test edebiliriz?
07:07
Here's what researchers have come up with.
159
427757
2002
İşte araştırmacıların bulduğu sonuçlar.
07:09
We're going to train a new model.
160
429801
1877
Yeni bir model eğiteceğiz.
07:11
That new model is going to look at neural network scratch pad
161
431678
2877
Bu yeni model, belirli bir kelime için sinir ağı karalama defterine bakıp
07:14
for a particular word
162
434555
1168
07:15
and try to predict the brain scratch pad for the same word.
163
435723
3087
aynı kelime için
beyin karalama defterini tahmin etmeye çalışacak.
07:18
We can do it, by the way, around two.
164
438851
1919
Bunu yapabiliriz bu arada.
07:20
So let's train a new model.
165
440812
2043
Öyleyse yeni bir model geliştirelim.
07:22
It’s going to look at the neural network scratch pad for a particular word
166
442897
3504
Bu model, belirli bir kelime için sinir ağı karalama defterine bakacak,
07:26
and try to predict the brain scratchpad.
167
446401
1918
beyninkini tahmin etmeye çalışacak.
Şayet beyin ve yapay zeka benzer işler yapmıyorsa,
07:28
If the brain and AI are doing nothing alike,
168
448319
2586
07:30
have nothing in common,
169
450947
1168
ortak hiçbir noktaları yoksa,
07:32
we won't be able to do this prediction task.
170
452115
2085
bu tahmin görevini yerine getiremeyiz.
07:34
It won't be possible to predict one from the other.
171
454200
2461
Birini diğerinden ayırmak mümkün olmaz.
07:36
So we've reached a fork in the road
172
456995
1710
Şimdi bir yol ayrımına geldik
07:38
and you can probably tell I'm about to tell you one of two things.
173
458705
3295
ve muhtemelen size şu iki şeyden birini söyleyeceğimi anlamışsınızdır.
07:42
I’m going to tell you AI is amazing,
174
462458
2044
Size ya yapay zekanın harika olduğunu
07:44
or I'm going to tell you AI is an imposter.
175
464544
2669
ya da tam bir sahtekar olduğunu söyleyeceğim.
Benim gibi araştırmacılar, yapay zekanın beyne
07:48
Researchers like me love to remind you
176
468047
2211
07:50
that AI is nothing like the brain.
177
470299
1627
benzemediğini hatırlatmayı çok sever.
07:51
And that is true.
178
471968
1501
Ve bu doğrudur.
07:53
But could it also be the AI and the brain share something in common?
179
473845
3253
Ancak yapay zeka ve beynin ortak bir noktası da olabilir mi?
07:58
So we’ve done this scratch pad prediction task,
180
478516
2211
Bu karalama defteri tahmin görevini yaptık
08:00
and it turns out, 75 percent of the time
181
480727
2669
ve belirli bir kelime için tahmin edilen sinir ağının
08:03
the predicted neural network scratchpad for a particular word
182
483438
3169
o kelime için gerçek sinir ağı karalama defterine,
08:06
is more similar to the true neural network scratchpad for that word
183
486649
3754
bu defterden veya rastgele seçilen başka bir
08:10
than it is to the neural network scratch pad
184
490403
2085
kelimeden daha çok benzediği
08:12
for some other randomly chosen word --
185
492488
1835
zamanların %75 olması ihtimali
08:14
75 percent is much better than chance.
186
494323
2962
şanstan daha öte bir durumdur.
08:17
What about for more complicated things,
187
497285
1918
Peki ya daha karmaşık şeyler için,
sadece kelimeler değil, cümleler, hikayeler için?
08:19
not just words, but sentences, even stories?
188
499203
2086
08:21
Again, this scratch pad prediction task works.
189
501330
2420
Yine, bu karalama defteri tahmin görevi işe yarıyor.
08:23
We’re able to predict the neural network scratch pad from the brain and vice versa.
190
503791
4213
Sinir ağı karalama defterini beyin ile ön görüyoruz ve bunun tersi de geçerli.
08:28
Amazing.
191
508838
1210
Muhteşem.
08:30
So does that mean
192
510548
1168
Peki bu, sinir ağları
08:31
that neural networks and AI understand language just like we do?
193
511758
3378
ve yapay zeka dilleri tıpkı bizim anladığımız gibi anlıyor mu demek?
08:35
Well, truthfully, no.
194
515511
1585
Doğrusu, hayır.
08:37
Though these scratch pad prediction tasks show above-chance accuracy,
195
517513
4880
Bu karalama defteri tahmin görevleri şansın üzerinde doğruluk gösterse de
08:42
the underlying correlations are still pretty weak.
196
522393
2378
altında yatan korelasyonlar hala oldukça zayıftır.
08:45
And though neural networks are inspired by the brain,
197
525188
2502
Sinir ağları beyinden esinlenmiş olsa da
08:47
they don't have the same kind of structure and complexity
198
527690
2711
beyinde gördüğümüz türden bir yapıya
ve karmaşıklığa sahip değiller.
08:50
that we see in the brain.
199
530401
1210
Sinir ağları da dünyada mevcut değil zaten.
08:52
Neural networks also don't exist in the world.
200
532028
2461
Bir sinir ağı hiç bir kapıyı açmamış, gün batımını görmemiş
08:54
A neural network has never opened a door
201
534530
2086
08:56
or seen a sunset, heard a baby cry.
202
536657
2962
ya da bir bebeğin ağladığını duymamıştır.
09:00
Can a neural network that doesn't actually exist in the world,
203
540161
2961
Gerçekte dünyada var olmayan,
09:03
hasn't really experienced the world,
204
543122
1794
dünyayı deneyimlememiş bir sinir ağı,
09:04
really understand language about the world?
205
544916
2294
dünya dilini gerçekten anlayabilir mi?
09:08
Still, these scratch pad prediction experiments have held up --
206
548169
2961
Yine de bu karalama defteri tahmin deneyleri,
çoklu beyin görüntüleme deneylerini
09:11
multiple brain imaging experiments,
207
551130
1710
09:12
multiple neural networks.
208
552840
1418
ve çoklu sinir ağlarını destekledi.
09:14
We've also found that as the neural networks get more accurate,
209
554300
2961
Ayrıca, sinir ağları daha duyarlı hale geldikçe,
09:17
they also start to use their scratch pad in a way
210
557261
2711
karalama defterlerini de daha beyne benzer bir şekilde
09:20
that becomes more brain-like.
211
560014
2002
kullanmaya başladıklarını gördük.
09:22
And it's not just language.
212
562058
1293
Ve bu sadece dil de değil.
09:23
We've seen similar results in navigation and vision.
213
563392
2503
Benzer sonuçları navigasyon ve görüş alanlarında da gördük.
09:26
So AI is not doing exactly what the brain is doing,
214
566270
3879
Yani yapay zeka tam olarak beynin yaptığını yapmıyor
09:30
but it's not completely random either.
215
570191
2377
ama tümüyle rastgele de davranmıyor.
09:34
So from where I sit,
216
574112
1835
Bu nedenle, benim bakış açımla,
09:35
if we want to know if AI really understands language like we do,
217
575988
3337
yapay zekanın dilleri gerçekten bizim gibi anlayıp anlamadığını bilmek için,
09:39
we need to get inside of the Chinese room.
218
579325
2336
Çince odasına girmemiz gerekir.
09:41
We need to know what the AI is doing,
219
581702
1836
Yapay zekanın yaptıklarını bilmemiz
09:43
and we need to be able to compare that to what people are doing
220
583579
2962
ve bunu insanların yaptıklarıyla karşılaştırabilmemiz gerek,
09:46
when they understand language.
221
586541
1751
o zaman dilleri anlarlar.
09:48
AI is moving so fast.
222
588334
1877
Yapay zeka çok hızlı gelişiyor.
09:50
Today, I'm asking you, does AI understand language
223
590545
2377
Bugün size soruyorum, aptalca bir soru gibi görünebilir
09:52
that might seem like a silly question in ten years.
224
592964
2460
ama yapay zeka on yıl içinde dilleri anlayacak mı?
09:55
Or ten months.
225
595466
1168
Ya da on ay içinde.
09:56
(Laughter)
226
596634
1919
(Kahkahalar)
09:58
But one thing will remain true.
227
598594
1544
Ancak bir şey doğru kalmaya devam edecek.
10:00
We are meaning-making humans,
228
600179
1460
Bizler anlam üretme yetisine sahip insanlarız
10:01
and we are going to continue to look for meaning
229
601681
2878
ve etrafımızdaki dünyayı anlamlandırmaya
10:04
and interpret the world around us.
230
604559
1918
ve yorumlamaya devam edeceğiz.
10:06
And we will need to remember
231
606477
2127
Yapay zekanın sadece girdi
10:08
that if we only look at the input and output of AI,
232
608646
2794
ve çıktılarına bakarsak, kolayca kandırılabileceğimizi de
10:11
it's very easy to be fooled.
233
611440
2128
unutmamalıyız.
10:13
We need to get inside of the metaphorical room of AI
234
613609
3712
Neler olduğunu görebilmek için yapay zekanın
10:17
in order to see what's happening.
235
617363
1627
metaforik odasına girmemiz gerekiyor.
10:19
It's what's inside the counts.
236
619740
2461
Önemli olan içinde ne olduğu.
10:22
Thank you.
237
622660
1168
Teşekkürler.
10:23
(Applause)
238
623828
4004
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7