Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,643 views ・ 2023-04-28

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: esra kurul
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Yapay zeka üzerine birkaç baharatlı düşünceyi paylaşacağım için heyecanlıyım.
00:10
But first, let's get philosophical
1
10799
3044
Ama önce,
18. yüzyıl Aydınlanma filozofu Voltaire’in
00:13
by starting with this quote by Voltaire,
2
13843
2545
“Sağduyu o kadar da yaygın değildir” sözüyle başlayarak
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
00:18
who said, "Common sense is not so common."
4
18682
2961
felsefi bir yaklaşım sergileyelim.
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Görünüşe göre bu söz bugün yapay zeka için
00:24
to artificial intelligence today.
6
24854
2169
daha uygun olamazdı.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Buna rağmen yapay zeka, dünya çapındaki “Go” şampiyonunu yenen,
00:31
beating the world-class "Go" champion,
8
31027
2586
üniversiteye kabul testlerinde başarılı olan ve hatta baro sınavını geçen
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
inkar edilemez derecede güçlü bir araç.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Ben 20 yıllık bir bilgisayar bilimcisiyim
00:40
and I work on artificial intelligence.
11
40579
2419
ve yapay zeka üzerine çalışıyorum.
00:43
I am here to demystify AI.
12
43039
2586
Yapay zekanın gizemini çözmek için buradayım.
00:46
So AI today is like a Goliath.
13
46626
3462
Yapay zeka bugün bir Golyat gibi.
00:50
It is literally very, very large.
14
50130
3003
Kelimenin tam anlamıyla çok çok büyük.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Son zamanlarda on binlerce GPU ve bir trilyon kelime üzerinde eğitildiği
00:59
and a trillion words.
16
59389
2544
tahmin ediliyor.
01:02
Such extreme-scale AI models,
17
62475
2086
Genellikle “büyük dil modelleri”
01:04
often referred to as "large language models,"
18
64603
3128
olarak adlandırılan bu tür aşırı ölçekli YZ modelleri,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
yapay genel zeka olan AGI’nin
01:11
artificial general intelligence.
20
71610
2627
kıvılcımlarını gösteriyor gibi görünmektedir.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Küçük, aptalca hatalar yaptığı zamanlar hariç,
01:18
which it often does.
22
78158
1585
ki sıklıkla yapıyor.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Pek çok kişi, yapay zekanın bugün yaptığı hataların
kaba kuvvet, daha büyük ölçek ve daha fazla kaynakla
01:24
can be easily fixed with brute force,
24
84080
2002
01:26
bigger scale and more resources.
25
86124
2127
kolayca düzeltilebileceğine inanıyor.
01:28
What possibly could go wrong?
26
88585
1960
Ne yanlış gidebilir ki?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Halihazırda toplumsal düzeyde karşımızda olan üç acil zorluk var.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Birincisi, devasa-ölçekli YZ modellerini eğitmek çok pahalı
01:44
and only a few tech companies can afford to do so.
29
104059
3461
ve sadece birkaç teknoloji şirketi bunu karşılayabiliyor.
01:48
So we already see the concentration of power.
30
108104
3796
Yani gücün yoğunlaştığını zaten görüyoruz.
01:52
But what's worse for AI safety,
31
112817
2503
Ancak bu YZ güvenliği için çok daha kötü,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
şu anda bu birkaç teknoloji şirketinin insafına kalmış durumdayız
01:59
because researchers in the larger community
33
119115
3796
çünkü daha geniş topluluktaki araştırmacılar
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
bu modelleri gerçekten inceleyecek araçlara sahip değiller.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
Ayrıca devasa karbon ayak izlerini
02:12
and the environmental impact.
36
132295
1919
ve çevresel etkilerini de unutmayalım.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Bir de bu ek düşünsel sorular var.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
Sağlam bir sağduyu olmadan YZ insanlık için gerçekten güvenli olabilir mi?
02:24
And is brute-force scale really the only way
39
144307
4463
Kaba kuvvet ölçeği gerçekten YZ’yi öğretmenin tek yolu
02:28
and even the correct way to teach AI?
40
148812
2919
ve hatta doğru yolu mu?
02:32
So I’m often asked these days
41
152232
1668
Bu yüzden bugünlerde bana sık sık
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
aşırı ölçekli hesaplama olmadan anlamlı bir araştırma yapmanın
02:36
without extreme-scale compute.
43
156569
1961
mümkün olup olmadığı soruluyor.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
bir üniversitede ve kar amacı gütmeyen bir araştırma enstitüsünde çalışıyorum,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
bu nedenle devasa dil modelleri oluşturmak için devasa bir GPU çiftliği kuramam.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Bununla birlikte, YZ’yi sürdürülebilir ve insancıl hale getirmek için
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
yapmamız gereken ve yapabileceğimiz çok şey olduğuna inanıyorum.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
YZ’yi demokratikleştirmek için onu küçültmemiz gerekiyor.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
İnsani norm ve değerleri öğreterek YZ’yi daha güvenli hale getirmemiz gerekiyor.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Belki de burada “Davut ve Golyat “tan bir benzetme yapabiliriz,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
Golyat devasa-ölçekli dil modelleri,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
ve eski zaman klasiklerinden “Savaş Sanatı“ndan ilham alabiliriz,
03:21
which tells us, in my interpretation,
53
201156
2419
benim yorumuma göre bize
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
düşmanını tanı, savaşlarını seç ve silahlarını yenile diyor.
03:28
Let's start with the first, know your enemy,
55
208163
2669
İlkiyle başlayalım, düşmanını tanı:
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
bu da YZ’yi dikkatle değerlendirmemiz gerektiği anlamına geliyor.
03:35
AI is passing the bar exam.
57
215044
2169
YZ baro sınavını geçiyor.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
Bu, YZ’nin sağduyu konusunda güçlü olduğu anlamına mı geliyor?
03:41
You might assume so, but you never know.
59
221342
2795
Böyle varsayabilirsiniz, ama asla emin olamazsınız.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Diyelim ki beş tane giyeceği güneşte kurumaya bıraktım
03:48
and it took them five hours to dry completely.
61
228600
3003
ve hepsinin tamamen kuruması beş saat aldı.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
30 giyeceğin kuruması ne kadar sürer?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4, en yeni ve en iyi yapay zeka sistemi 30 saat diyor.
03:59
Not good.
64
239694
1502
İyi değil.
04:01
A different one.
65
241196
1167
Farklı bir tane.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
12 litrelik sürahim ve 6 litrelik sürahim var
04:04
and I want to measure six liters.
67
244741
1626
ve 6 litre ölçmek istiyorum.
04:06
How do I do it?
68
246367
1252
Nasıl yaparım?
04:07
Just use the six liter jug, right?
69
247660
2002
Altı litrelik sürahiyi kullanırım, değil mi?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 çok ayrıntılı bir saçmalık ortaya atıyor.
04:13
(Laughter)
71
253792
2919
(Gülüşmeler)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Birinci adım, altı litrelik sürahiyi doldur,
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
ikinci adım, suyu altılıktan 12-litrelik sürahiye dök,
04:22
step three, fill the six-liter jug again,
74
262550
3087
üçüncü adım, altılık sürahiyi yeniden doldur,
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
dördüncü adım, çok dikkatle altılıktan 12-litelik sürahiye suyu dök.
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
Sonunda işte altı litrelik sürahide altı litre suyunuz olur
04:34
that should be empty by now.
77
274979
1460
ama tabi şu anda içi boş.
04:36
(Laughter)
78
276439
1377
(Gülüşmeler)
04:37
OK, one more.
79
277857
1126
Tamam, bir tane daha.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
Çiviler, vidalar ve kırık camlar üzerinde asılı olan
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
bir köprünün üzerinden bisikletle geçerken lastiğim patlar mı?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Evet, büyük olasılıkla, diyor GPT-4,
04:51
presumably because it cannot correctly reason
83
291454
2378
muhtemelen bir köprünün kırık çiviler
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
ve kırık camlar üzerinde asılı olması durumunda köprünün yüzeyinin keskin
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
nesnelere doğrudan temas etmediğini doğru bir şekilde muhakeme edemediği için.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Peki, baro sınavında başarılı olan ama böylesine temel bir sağduyu konusunda
05:08
yet randomly fails at such basic common sense?
87
308429
3546
rastgele başarısız olan bir YZ avukatı hakkında ne düşünürsünüz?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
Günümüzde yapay zeka inanılmaz derecede zeki ve sonra şok edici derecede aptal.
05:18
(Laughter)
89
318898
1418
(Gülüşmeler)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
Bu, yapay zekayı kaba kuvvet ölçeğiyle öğretmenin kaçınılmaz bir yan etkisidir.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Bazı ölçek iyimserleri şöyle diyebilir: “Bu konuda endişelenmeyin.
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
Tüm bunlar, yapay zeka için daha fazla eğitim verisi olarak
05:33
as yet more training data for AI."
93
333663
2753
benzer örnekler eklenerek kolayca düzeltilebilir.”
05:36
But the real question is this.
94
336916
2044
Ama asıl soru şu.
05:39
Why should we even do that?
95
339460
1377
Bunu neden yapalım ki?
05:40
You are able to get the correct answers right away
96
340879
2836
Benzer örneklerle kendinizi eğitmek zorunda kalmadan da
05:43
without having to train yourself with similar examples.
97
343715
3295
doğru cevapları bulabilirsiniz.
05:48
Children do not even read a trillion words
98
348136
3378
Çocuklar böylesine temel bir sağduyu seviyesie
05:51
to acquire such a basic level of common sense.
99
351556
3420
ulaşmak için trilyon kelime okumazlar.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Dolayısıyla bu gözlem bizi bir sonraki bilgeliğe götürüyor:
05:58
choose your battles.
101
358146
1710
Savaşlarınızı seçin.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Peki, bu statükoyu aşırı ölçekli YZ ile aşmak için
06:04
and tackle today
103
364569
1918
şu anda
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
hangi temel soruları sormalı ve bugün ele almalıyız?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Sağduyunun en önemli öncelikler arasında olduğunu söyleyebilirim.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
Yani sağduyu, YZ’de uzun süredir devam eden bir zorluk.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Nedenini açıklamak için size karanlık madde ile bir benzetme yapayım.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Evrenin sadece yüzde beşi görebildiğiniz ve etkileşime girebildiğiniz normal madde,
06:26
that you can see and interact with,
109
386716
2794
geri kalan yüzde 95′i ise
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
karanlık madde ve karanlık enerjidir.
06:34
Dark matter is completely invisible,
111
394390
1835
Karanlık madde tamamen görünmezdir,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
ancak bilim insanları ışığın yörüngesi de dahil olmak üzere
görünür dünyayı etkilediği için orada olduğunu tahmin etmektedir.
06:40
even including the trajectory of light.
113
400897
2627
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Dolayısıyla dil için, normal madde görünür metinlerdir,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
karanlık maddeyse insanların dili kullanma ve yorumlama biçimlerini etkileyen
06:51
including naive physics and folk psychology,
116
411574
3212
fizik ve halk psikolojisi de dahil olmak üzere
06:54
which influence the way people use and interpret language.
117
414827
3546
dünyanın nasıl işlediğine dair söylenmemiş kurallardır.
06:58
So why is this common sense even important?
118
418831
2503
Peki bu aklıselim neden bu kadar önemli?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
Nick Bostrom tarafından önerilen ünlü bir düşünce deneyinde,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
yapay zekadan ataçları üretmesi ve maksimize etmesi istenmiştir.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
Bu yapay zeka, insanları ek kaynak olarak kullanmak için öldürmeye karar verdi,
07:19
to turn you into paper clips.
122
439769
2461
sizi ataçlara dönüştürmek için.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
Çünkü yapay zeka, insani değerlere ilişkin temel insani anlayışa sahip değildi.
07:29
Now, writing a better objective and equation
124
449070
3295
Şimdi, böyle açıkça ve net bir şekilde
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
“İnsanları öldürme” gibi bir ifade yazmak da
07:35
will not work either
126
455284
1210
işe yaramayacaktır
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
çünkü yapay zeka devam edip tüm ağaçları öldürebilir
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
ve bunun gayet normal bir şey olduğunu düşünebilir.
07:42
And in fact, there are endless other things
129
462583
2002
Aslında, YZ’nin ataçları maksimize ederken
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
açıkça yapmaması gereken sayısız başka şey var:
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
“Sahte haberleri yayma”, “Çalma”, “Yalan söyleme”,
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
hepsi dünyanın nasıl işlediğine dair sağduyulu anlayışımızın parçasıdır.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
Bununla birlikte, yapay zeka alanı on yıllardır sağduyuyu
08:00
as a nearly impossible challenge.
134
480810
2753
neredeyse imkansız bir zorluk olarak görmüştür.
08:03
So much so that when my students and colleagues and I
135
483563
3837
Öyle ki birkaç yıl önce öğrencilerim ve meslektaşlarımla birlikte
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
bu konu üzerinde çalışmaya başladığımızda cesaretimiz çok kırılmıştı.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
Bize bunun 70 ve 80′lerin araştırma konusu olduğu, üzerinde
08:14
shouldn’t work on it because it will never work;
138
494490
2419
çalışmamamız gerektiğini çünkü asla işe yaramayacağını,
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
hatta ciddiye alınmak için bu kelimeyi telaffuz bile etmememizi söylediler.
08:20
Now fast forward to this year,
140
500329
2128
Şimdi hızlıca bu yıla geliyoruz ve
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
duyuyorum ki: “Bunun üzerinde çalışmayın çünkü ChatGPT bunu neredeyse çözdü.”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
“Sadece ölçeği büyütün, sihir ortaya çıkacak
08:29
and nothing else matters.”
143
509338
1794
ve başka hiçbir şeyin önemi kalmayacak.“
08:31
So my position is that giving true common sense
144
511174
3545
Bu yüzden benim görüşüm, yapay zekaya gerçek anlamda sağduyulu
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
insan benzeri robotlar vermenin hala bir hayal olduğu yönünde.
08:38
And you don’t reach to the Moon
146
518514
1502
Dünyanın en yüksek binasını
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
her seferinde bir santim daha uzatarak Ay’a ulaşamazsınız.
08:44
Extreme-scale AI models
148
524270
1460
Aşırı ölçekli yapay zeka modelleri,
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
giderek artan miktarda sağduyulu bilgi ediniyor,
08:48
I'll give you that.
150
528983
1168
bu cepte.
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
Ama unutmayın, hala çocukların bile
çözebileceği kadar önemsiz problemlerde tökezliyorlar.
08:54
that even children can do.
152
534489
2419
08:56
So AI today is awfully inefficient.
153
536908
3879
Yani bugün yapay zeka son derece verimsiz.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
Peki ya alternatif ya da henüz bulunmamış bir yol varsa?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Derin sinir ağlarındaki gelişmeler üzerine inşa edilebilecek,
09:09
but without going so extreme with the scale.
156
549378
2712
ancak ölçekte bu kadar aşırıya kaçmayacak bir yol.
09:12
So this leads us to our final wisdom:
157
552465
3170
Bu da bizi son bilgeliğimize götürüyor:
09:15
innovate your weapons.
158
555635
1710
silahlarınızı yenileyin.
09:17
In the modern-day AI context,
159
557345
1668
Günümüz YZ bağlamında bu,
09:19
that means innovate your data and algorithms.
160
559055
3086
verilerinizi ve algoritmalarınızı yenilemek anlamına geliyor.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
Modern YZ’nin üzerinde eğitildiği
09:24
that modern AI is trained on:
162
564852
1961
kabaca üç tür veri vardır:
09:26
raw web data,
163
566813
1376
ham web verileri,
09:28
crafted examples custom developed for AI training,
164
568231
4462
YZ eğitimi için özel olarak geliştirilmiş örnekler,
09:32
and then human judgments,
165
572735
2044
ve daha sonra YZ performansıyla ilgili
09:34
also known as human feedback on AI performance.
166
574821
3211
insan geri bildirimi olarak da bilinen insan yargıları.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
Eğer YZ sadece ilk tür olan ve serbestçe erişilebilen
09:42
which is freely available,
168
582078
1710
ham web verisi üzerinde eğitilirse,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
iyi olmaz çünkü bu veriler ırkçılık, cinsiyetçilik
09:48
and misinformation.
170
588584
1126
ve yanlış bilgilerle dolu.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Yani ne kadarını kullanırsanız kullanın, çöp girer çöp çıkar.
09:54
So the newest, greatest AI systems
172
594507
2794
Dolayısıyla en yeni ve en büyük YZ sistemleri
09:57
are now powered with the second and third types of data
173
597343
3337
artık insan çalışanlar tarafından hazırlanan ve değerlendirilen
10:00
that are crafted and judged by human workers.
174
600680
3378
ikinci ve üçüncü tür verilerle güçlendiriliyor.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
Bu, yapay zekanın çalışması için özel ders kitapları yazmaya ve ardından
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
YZ’ye sürekli geri bildirimde bulunmaları için öğretmenler tutmaya benziyor.
10:15
These are proprietary data, by and large,
177
615027
2461
Bunlar, büyük ölçüde on milyonlarca dolara
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
mal olduğu tahmin edilen özel verilerdir.
10:20
We don't know what's in this,
179
620908
1460
Bunların içinde ne olduğunu bilmiyoruz,
10:22
but it should be open and publicly available
180
622410
2419
ancak farklı norm ve değerleri denetleyebilmemiz
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
ve bunları desteklediğinden emin olabilmemiz için kamuya açık olmalıdır.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Bu nedenle, UW ve AI2′deki ekiplerim
10:32
have been working on commonsense knowledge graphs
183
632628
2461
yapay zekaya temel sağduyu normlarını
10:35
as well as moral norm repositories
184
635089
2086
ve ahlak kurallarını öğretmek için sağduyu bilgi grafikleri
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
ve ahlaki norm havuzları üzerinde çalışıyorlar.
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
Verilerimiz tamamen açıktır, böylece herkes içeriği inceleyebilir
10:44
and make corrections as needed
187
644473
1502
ve gerektiğinde düzeltmeler yapabilir
10:45
because transparency is the key for such an important research topic.
188
645975
4171
çünkü şeffaflık böylesine önemli bir araştırma konusunun anahtarıdır.
10:50
Now let's think about learning algorithms.
189
650646
2545
Şimdi öğrenme algoritmaları hakkında biraz düşünelim.
10:53
No matter how amazing large language models are,
190
653733
4629
Büyük dil modelleri ne kadar şaşırtıcı olursa olsun,
10:58
by design
191
658404
1126
tasarımları gereği
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
güvenilir bilgi modelleri olarak hizmet vermek için en uygun olmayabilirler.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
Bu dil modelleri büyük miktarda bilgi edinirler,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
ancak bunu doğrudan öğrenme amacının aksine bir yan ürün olarak yaparlar.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Halüsinasyon etkileri ve sağduyu eksikliği gibi
11:18
and lack of common sense.
196
678841
2002
istenmeyen yan etkilere neden olur.
11:20
Now, in contrast,
197
680843
1210
Bunun aksine,
insan öğrenmesi hiçbir zaman bir sonraki kelimenin ne olacağını
11:22
human learning is never about predicting which word comes next,
198
682053
3170
tahmin etmekle ilgili değildir, aksine dünyayı anlamlandırmak
11:25
but it's really about making sense of the world
199
685223
2877
ve nasıl işlediğini öğrenmekle ilgilidir.
11:28
and learning how the world works.
200
688142
1585
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Belki yapay zeka da bu şekilde öğretilmelidir.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Bu nedenle, daha doğrudan sağduyulu bilgi edinmeye yönelik
11:39
my team has been investigating potential new algorithms,
203
699195
3879
bir arayış olarak ekibim, burada gösterildiği gibi
11:43
including symbolic knowledge distillation
204
703115
2628
çok büyük olduğu için ekrana sığdıramadığım
11:45
that can take a very large language model as shown here
205
705743
3795
çok büyük bir dil modelini alabilen ve bunu derin sinir ağları kullanarak
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
çok daha küçük sağduyulu modellere
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
indirgeyebilen sembolik bilgi damıtma da dahil olmak üzere
11:58
using deep neural networks.
208
718214
2252
potansiyel yeni algoritmaları araştırıyor.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Bunu yaparken de algoritmik olarak insan tarafından incelenebilir,
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
sembolik, sağduyulu bilgi temsili üretiyoruz,
böylece insanlar bunu inceleyip düzeltmeler yapabiliyor
12:09
so that people can inspect and make corrections
211
729141
2211
12:11
and even use it to train other neural commonsense models.
212
731394
3545
ve hatta diğer nöral sağduyulu modelleri eğitmek için kullanabiliyor.
12:15
More broadly,
213
735314
1210
Daha geniş anlamda,
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
fiziksel, sosyal ve görsel sağduyudan zihin teorisi,
12:21
of common sense, ranging from physical,
215
741237
2669
normlar ve ahlaka kadar uzanan,
12:23
social and visual common sense
216
743906
2169
imkansız gibi görünen
12:26
to theory of minds, norms and morals.
217
746117
2419
bu dev sağduyu yapbozunu ele alıyoruz.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Her bir parça tuhaf ve eksik görünebilir,
12:32
but when you step back,
219
752415
1585
ancak bir adım geri gittiğinizde,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
bu parçalar sanki insan deneyimi
12:38
that we call human experience and common sense.
221
758504
3045
ve sağduyu dediğimiz bir kilim gibi birbirine örülüyor.
12:42
We're now entering a new era
222
762174
1961
Artık YZ’nin neredeyse
12:44
in which AI is almost like a new intellectual species
223
764176
5923
insanlara kıyasla benzersiz güçlü ve zayıf yönleri olan
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
yeni bir entelektüel tür olduğu yeni bir döneme giriyoruz.
12:54
In order to make this powerful AI
225
774478
3546
Bu güçlü yapay zekayı
12:58
sustainable and humanistic,
226
778065
2336
sürdürülebilir ve insancıl kılmak için
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
yapay zekaya sağduyu, normlar ve değerler öğretmemiz gerekiyor.
13:04
Thank you.
228
784530
1376
Teşekkür ederim.
13:05
(Applause)
229
785906
6966
(Alkışlar)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Şuna bak.
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, lütfen bir saniye bekle.
13:18
This is so interesting,
232
798002
1418
Bu çok ilginç,
13:19
this idea of common sense.
233
799462
2002
bu sağduyu fikri.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Belli ki hepimiz gelecek olan şeyden bunu gerçekten istiyoruz.
13:25
But help me understand.
235
805926
1168
Ama anlamama yardım edin.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Öğrenen bir çocuk modelimiz var.
13:31
How does a child gain common sense
237
811599
3044
Bir çocuk daha fazla girdi birikimi
13:34
apart from the accumulation of more input
238
814685
3545
ve bazı insan geri bildirimleri dışında
13:38
and some, you know, human feedback?
239
818230
3045
nasıl sağduyu kazanır?
13:41
What else is there?
240
821317
1293
Başka ne var?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: Temelde eksik olan birkaç şey var
13:45
but one of them is, for example,
242
825613
1918
ama bunlardan biri örneğin
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
hipotez kurma ve deney yapma,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
dünyayla etkileşime girme ve bu hipotezi geliştirme becerisi.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
Dünyanın nasıl işlediğine dair kavramları soyutlarız
13:59
and then that's how we truly learn,
246
839835
2044
ve günümüzün dil modelinin aksine
14:01
as opposed to today's language model.
247
841921
3003
gerçek anlamda bu şekilde öğreniriz.
14:05
Some of them is really not there quite yet.
248
845424
2795
Bazıları gerçekten henüz o noktada değil.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA: Bir binayı her seferinde bir adım uzatarak
14:12
by extending a building a foot at a time.
250
852014
2544
Ay’a gidemeyeceğimiz benzetmesini kullanıyorsunuz.
14:14
But the experience that most of us have had
251
854558
2044
Ancak çoğumuzun bu dil modellerine
14:16
of these language models is not a foot at a time.
252
856602
2336
ilişkin deneyimi bir seferde bir ayak değil.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
Sanki nefes kesici bir hızlanma gibi.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Bu şeylerin ilerleme hızı göz önüne alındığında,
14:25
each next level seems to be bringing with it
255
865319
2711
her bir sonraki seviyenin beraberinde bilgelik
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
ve bilgi gibi hissettiren şeyleri getirdiğinden emin misiniz?
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Ölçeklendirmenin her alanda performansı gerçekten
14:38
really enhances the performance across the board.
258
878124
3670
ne kadar artırdığının dikkate değer olduğuna kesinlikle katılıyorum.
14:42
So there's real learning happening
259
882086
2544
Yani hesaplama ve veri ölçeği nedeniyle
14:44
due to the scale of the compute and data.
260
884630
4797
gerçek bir öğrenme gerçekleşiyor.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Ancak, hala tam olarak ulaşılamamış bir öğrenme kalitesi var.
14:53
And the thing is,
262
893681
1168
Ve mesele şu ki,
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
sadece işleri ölçeklendirerek oraya tam olarak
14:58
just by scaling things up.
264
898561
2335
ulaşıp ulaşamayacağımızı henüz bilmiyoruz.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
Eğer yapamazsak, o zaman başka ne yapabiliriz sorusu ortaya çıkıyor.
15:05
And then even if we could,
266
905401
1877
Bunu yapabilsek bile,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
sadece birkaç kişinin yaratabileceği ve sahip olabileceği
çok çok uç ölçekli yapay zeka modellerine
15:12
that only a few can create and own?
268
912575
4337
sahip olma fikrini seviyor muyuz?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Demek istediğim, eğer OpenAI “Çalışmalarınızla ilgileniyoruz,
modelimizi geliştirmemize yardımcı olmanızı istiyoruz” derse,
15:23
we would like you to help improve our model,"
270
923043
2837
15:25
can you see any way of combining what you're doing
271
925921
2670
yaptığınız şeyi onların yaptıklarıyla birleştirmenin
15:28
with what they have built?
272
928632
1710
bir yolunu görebiliyor musunuz?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Kesinlikle öngördüğüm şey,
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
derin sinir ağlarındaki ilerlemelerin üzerine inşa edilmeli.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
Belki de bazı ölçeklerde Goldilocks Bölgesi olabilir,
15:41
such that ...
276
941770
1168
öyle ki ...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
Bu arada ne kadar küçük olursa o kadar iyi olur diye de düşünmüyorum.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
Doğru miktarda ölçek olması muhtemeldir,
ancak bunun ötesinde, kazanan tarif başka bir şey olabilir.
15:50
the winning recipe might be something else.
279
950696
2294
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Dolayısıyla burada bazı fikirlerin sentezi kritik önem taşıyacaktır.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, konuşmanız için çok teşekkür ederim.
16:00
(Applause)
282
960873
1585
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7