How to Keep AI Under Control | Max Tegmark | TED

166,257 views ・ 2023-11-02

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Figen Ergürbüz Ekmekçi Gözden geçirme: Eren Gokce
00:03
Five years ago,
0
3833
2461
Beş yıl önce
00:06
I stood on the TED stage
1
6294
1752
TED sahnesindeydim
00:08
and warned about the dangers of superintelligence.
2
8046
4379
ve süper-zekânın tehlikeleri hakkında uyarı yaptım.
00:13
I was wrong.
3
13051
1710
Yanılmışım.
00:16
It went even worse than I thought.
4
16513
1752
Düşündüğümden daha bile kötü gitti.
00:18
(Laughter)
5
18306
1752
(Kahkahalar)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Hükûmetlerin, yapay zekâ şirketlerinin ciddi mevzuat olmaksızın
00:24
without any meaningful regulation.
7
24479
2294
bu kadar ileri gitmelerine izin vereceklerini hiç düşünmemiştim.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Ve yapay zekânın ilerlemesi tahmin ettiğimden daha hızlı gitti.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Bakın, yüksekliğin yapay zekânın bir görevi insan düzeyinde yapmasının
00:36
where the elevation represented how hard it was for AI
10
36241
3128
ne kadar zor olduğunu simgelediği
00:39
to do each task at human level.
11
39369
1919
bu soyut manzarayı göstermiştim.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Ve deniz seviyesi, o zamanlar yapay zekânın ne olabileceğini temsil ediyordu.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
Ve aman tanrım, deniz o zamandan beri hızla yükseliyor.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Ancak bu görevlerin çoğu çoktan (blub blub blub blub blub) oldu.
00:52
And the water is on track to submerge all land,
15
52882
3921
Ve su, tüm araziyi kaplama ve insan zekâsıyla tüm bilişsel görevlerde
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
denk olma yolunda ilerliyor.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Bu OpenAI, Google DeepMind ve Anthropic
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
gibi şirketlerin belirlenmiş hedefi olan
“yapay genel zekâ”nın (YGZ) bir tanımıdır.
01:10
Google DeepMind and Anthropic.
19
70442
2002
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Ve bu şirketler aynı zamanda bir süper-zekâ oluşturarak
01:16
leaving human intelligence far behind.
21
76448
2919
insan zekâsını çok geride bırakmaya çalışıyor.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Ve birçok kişi, YGZ’den süper-zekâya sadece birkaç yılda geçeceğimize inanıyor.
01:24
So when are we going to get AGI?
23
84539
2795
Peki YGZ’yi ne zaman başaracağız?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Yakın zamana kadar çoğu yapay zekâ araştırmacısı bunun
en az birkaç on yıl uzakta olduğunu düşünüyordu.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Ve şimdi Microsoft diyor ki, “Neredeyse geldi.”
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
ChatGPT-4′te YGZ kıvılcımları görüyoruz
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
ve Metaculus bahis sitesi, YGZ’ye kalan sürenin
01:44
plummeting from 20 years away to three years away
28
104351
4129
son on sekiz ayda
yirmi yıldan üç yıla düştüğünü gösteriyor.
01:48
in the last 18 months.
29
108521
1544
01:50
And leading industry people are now predicting
30
110106
4922
Ve sektörden önemli isimler
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
zekâmızın alt edilmesine iki veya üç yıl kaldığını tahmin ediyor.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Bu yüzden YGZ’den “uzun vadeli bir risk” olarak bahsetmeyi bıraksanız iyi olur
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
yoksa birisi size geçmişte kalmış bir dinozor diyebilir.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Yapay zekânın son zamanlarda nasıl ilerlediği gerçekten dikkat çekici.
02:12
Not long ago, robots moved like this.
35
132921
2419
Kısa bir süre önce robotlar böyle hareket ediyordu.
02:15
(Music)
36
135382
2085
(Müzik)
02:18
Now they can dance.
37
138551
1418
Artık dans edebiliyorlar.
02:20
(Music)
38
140804
2711
(Müzik)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Henüz geçen yıl Midjourney bu görüntüyü üretti.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Bu yıl, tam olarak aynı komut bunu üretiyor.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Deepfakeler gerçekten inandırıcı hâle geliyor.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Video) Deepfake Tom Cruise: Size bir sihir göstereceğim.
02:46
It's the real thing.
43
166913
1335
Gerçek olan bu.
02:48
(Laughs)
44
168289
2086
(Gülüyor)
02:50
I mean ...
45
170375
1293
Demek istediğim...
02:53
It's all ...
46
173920
1835
Hepsi...
02:55
the real ...
47
175797
1710
gerçek.
02:57
thing.
48
177549
1168
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: Ya da öyle mi?
03:02
And Yoshua Bengio now argues
50
182387
2669
Ve Yoshua Bengio şimdi büyük dil modellerinin
03:05
that large language models have mastered language
51
185056
3837
dilde ve bilgide Turing testini geçecek noktaya kadar
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
uzmanlaştığını savunuyor.
03:12
I know some skeptics are saying,
53
192355
1585
Bazı şüphecilerin
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
“Hayır, onlar sadece dünya algısından yoksun aşırı abartılmış
03:16
that lack a model of the world,"
55
196693
1877
rastgele konuşan papağanlar” dediklerini biliyorum
03:18
but they clearly have a representation of the world.
56
198611
2878
ama açıkça dünyanın bir temsiline sahipler.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Hatta son zamanlarda Llama-2′nin içinde gerçek bir dünya haritası olduğunu gördük.
03:28
And AI also builds
58
208121
3045
Ayrıca yapay zekâ,
doğru ve yanlış olduğunu düşündüğü şeyler gibi daha soyut kavramların
03:31
geometric representations of more abstract concepts
59
211207
3796
03:35
like what it thinks is true and false.
60
215003
3754
geometrik gösterimlerini oluşturur.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Peki YGZ ve süper-zekâyı ele geçirirsek ne olacak?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Konuşmamdan sadece bir şeyi hatırlayacaksanız o da bu olsun.
03:51
AI godfather, Alan Turing predicted
63
231311
3462
Yapay zekânın babası Alan Turing,
03:54
that the default outcome is the machines take control.
64
234814
4797
varsayılan sonucun makinelerin kontrolü ele geçirmesi olduğunu tahmin etti.
04:00
The machines take control.
65
240528
2211
Makineler kontrolü ele geçiriyor.
04:04
I know this sounds like science fiction,
66
244240
2336
Bunun kulağa bilim kurgu gibi geldiğini biliyorum
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
ama GPT-4 kadar akıllı yapay zekâya sahip olmak da
04:10
also sounded like science fiction not long ago.
68
250163
2919
kısa bir süre önce bilim kurgu gibi geliyordu.
04:13
And if you think of AI,
69
253124
2378
Ve eğer yapay zekâyı düşünüyorsanız
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
özellikle de süper-zekâyı elektrik gibi
04:21
like electricity,
71
261591
2419
başka bir teknoloji olarak düşünüyorsanız
04:24
you're probably not very worried.
72
264052
2002
muhtemelen çok endişeli değilsiniz.
04:26
But you see,
73
266095
1168
Ama gördüğünüz gibi
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
Turing süper-zekâyı daha çok yeni bir tür gibi düşünüyor.
04:31
Think of it,
75
271142
1168
Bir düşünün,
04:32
we are building creepy, super capable,
76
272310
3879
ürkütücü, süper yetenekli,
uyumayan ve bizden çok daha hızlı düşünen,
04:36
amoral psychopaths
77
276231
1585
04:37
that don't sleep and think much faster than us,
78
277857
2711
kendi kopyalarını üretebilen,
04:40
can make copies of themselves
79
280610
1418
hiçbir insani yanı bulunmayan
04:42
and have nothing human about them at all.
80
282070
2002
ahlaksız psikopatlar inşa ediyoruz.
04:44
So what could possibly go wrong?
81
284072
1835
Yani ne yanlış gidebilir ki?
04:45
(Laughter)
82
285949
1543
(Kahkahalar)
04:47
And it's not just Turing.
83
287951
1585
Ve bu sadece Turing değil.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Bize ChatGPT’yi veren OpenAI CEO’su Sam Altman, geçtiğimiz günlerde
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
bunun “hepimiz için bir felaket olabileceği” konusunda uyardı.
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Antropik CEO’su Dario Amodei, bu riske bir oran bile koydu:
05:02
10-25 percent.
87
302090
2210
yüzde 10 ila 25.
05:04
And it's not just them.
88
304300
1335
Ve sadece onlar değil.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
Yapay zekâ kaynaklı insan neslinin tükenmesi
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
Mayıs ayında tüm YGZ CEO’ları ve saygın yapay zekâ araştırmacıları çıkıp
bu konuda uyarı yapınca ana akım oldu.
05:13
came on and warned about it.
91
313685
1376
05:15
And last month, even the number one of the European Union
92
315061
2920
Ve geçen ay, Avrupa Birliği’nin bir numarası bile yapay zekâ tarafından
05:18
warned about human extinction by AI.
93
318022
3295
insan neslinin tükenmesi konusunda uyardı.
05:21
So let me summarize everything I've said so far
94
321359
2211
Şimdiye kadar söylediğim her şeyi tek bir kedi mim slaytında özetleyeyim:
05:23
in just one slide of cat memes.
95
323611
2544
05:27
Three years ago,
96
327282
1793
Üç yıl önce
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
insanlar bunun -süper zekânın- kaçınılmaz olduğunu söylüyorlardı,
05:33
it'll be fine,
98
333288
1501
sorun yok
05:34
it's decades away.
99
334789
1210
daha on yıllar var.
05:35
Last year it was more like,
100
335999
1835
Geçen yıl daha ziyade şöyleydi:
05:37
It's inevitable, it'll be fine.
101
337876
2043
Bu kaçınılmaz, sorun yok iyi olacak.
05:40
Now it's more like,
102
340295
2460
Şimdi daha çok şöyle:
05:42
It's inevitable.
103
342797
1251
Bu kaçınılmaz.
05:44
(Laughter)
104
344090
1126
(Kahkahalar)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Ama derin bir nefes alalım daha iyi hissetmeye
ve kendimizi neşelendirmeye çalışalım
05:51
and cheer ourselves up,
106
351264
1168
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
çünkü konuşmamın geri kalanında iyi haberler olacak,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
bu kaçınılmaz değil ve kesinlikle daha iyisini yapabiliriz,
05:58
alright?
109
358521
1168
tamam mı?
06:00
(Applause)
110
360315
2002
(Alkış)
06:02
So ...
111
362317
1209
Yani...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Asıl sorun, yapay zekâ güvenliği için ikna edici bir planın olmamasıdır.
06:10
People are working hard on evals
113
370700
3337
İnsanlar, riskli yapay zekâ davranışları arayan
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
değerlendirme algoritmaları üzerinde çok çalışıyorlar ve bu iyi
06:18
but clearly not good enough.
115
378124
2044
ama yeterince iyi olmadığı aşikâr.
06:20
They're basically training AI to not say bad things
116
380209
4797
Temelde yapay zekâyı kötü şeyler söylememesi için eğitiyorlar,
06:25
rather than not do bad things.
117
385006
2502
kötü şeyler yapmaması için değil.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Dahası, değerlendirme ve hata ayıklama, güvenlik için gerekli
06:32
not sufficient, conditions for safety.
119
392430
2002
fakat yeterli olmayan koşullardır.
06:34
In other words,
120
394474
1751
Başka bir deyişle,
06:36
they can prove the presence of risk,
121
396225
3671
riskin varlığını kanıtlayabilirler
06:39
not the absence of risk.
122
399938
2168
yokluğunu değil.
06:42
So let's up our game, alright?
123
402148
2544
Hadi o zaman oyunumuzu geliştirelim.
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Kontrol edebildiğimiz, kanıtlanabilir ölçüde güvenli
yapay zekâyı nasıl yapabileceğimizi anlamaya çalışın.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Korkuluklar, zararı fiziksel olarak sınırlamaya çalışır.
06:55
But if your adversary is superintelligence
126
415828
2211
Ama düşmanınız süper zekâ
06:58
or a human using superintelligence against you, right,
127
418081
2544
veya size karşı süper zekâ kullanan bir insansa çabalamak yeterli değildir.
07:00
trying is just not enough.
128
420625
1960
07:02
You need to succeed.
129
422585
1877
Başarılı olmak zorundasın.
07:04
Harm needs to be impossible.
130
424504
2169
Zarar imkânsız olmalı.
07:06
So we need provably safe systems.
131
426714
2544
Bu yüzden bize güvenirliği kanıtlanabilir sistemler gerek.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Kanıtlanabilir derken, ”Bir hâkimi ikna etmek” gibi zayıf bir anlamda değil
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
“fizik yasalarına göre imkânsız” gibi güçlü bir anlamda.
07:16
according to the laws of physics.
134
436265
1585
07:17
Because no matter how smart an AI is,
135
437892
2002
Çünkü bir yapay zekâ ne kadar akıllı olursa olsun
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
fizik yasalarını ihlal edemez ve mümkün olmayan bir şeyi yapamaz.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro ve ben bununla ilgili bir makale yazdık
07:27
and we're optimistic that this vision can really work.
138
447318
5005
ve bu vizyonun gerçekten işe yarayabileceği konusunda iyimseriz.
07:32
So let me tell you a little bit about how.
139
452323
2169
Öyleyse size nasıl olduğundan biraz bahsedeyim:
07:34
There's a venerable field called formal verification,
140
454993
4421
Kodla ilgili şeyleri kanıtlayan “program doğrulama” adında saygın bir alan var.
07:39
which proves stuff about code.
141
459455
2127
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Ayrıca yapay zekânın “otomatik kanıtlama” işinde
ve aynı zamanda program sentezinde, yani otomatik olarak çok iyi kod yazma işinde
07:48
and also revolutionize program synthesis,
143
468214
3337
07:51
the ability to automatically write really good code.
144
471592
3254
devrim yaratacağı konusunda iyimserim.
07:54
So here is how our vision works.
145
474887
1585
İşte vizyonumuzun işleyiş şekli:
07:56
You, the human, write a specification
146
476472
4213
Siz, bir insan olarak yapay zekâ aracınızın uyması gereken, doğru şifre
08:00
that your AI tool must obey,
147
480685
2711
olmadan laptopunuza giriş yapması imkânsız olan veya bir DNA yazıcısının
08:03
that it's impossible to log in to your laptop
148
483438
2127
08:05
without the correct password,
149
485565
1793
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
tehlikeli virüsleri sentezleyemeyeceği bir spesifikasyon yazıyorsunuz.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Ardından çok güçlü bir yapay zekâ, hem yapay zekâ aracınızı yaratır
08:18
and a proof that your tool meets your spec.
152
498369
3837
hem de aracınızın özelliklerinizi karşıladığına dair bir kanıt oluşturur.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
Makine öğrenimi algoritmaları öğrenmede benzersiz bir şekilde iyidir
08:26
but once the algorithm has been learned,
154
506836
2169
ancak algoritma öğrenildikten sonra
08:29
you can re-implement it in a different computational architecture
155
509047
3169
doğrulanması daha kolay olan farklı bir hesaplama mimarisinde
08:32
that's easier to verify.
156
512216
1627
yeniden uygulayabilirsiniz.
08:35
Now you might worry,
157
515344
1210
Şimdi endişelenebilirsiniz, bu güçlü yapay zekâyı,
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
onun yarattığı güçlü yapay zekâ aracını
08:40
and the powerful AI tool it built
159
520475
1626
ve de bunun kanıtını
08:42
and the proof,
160
522143
1126
nasıl anlayacağım,
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
bütün bunlar insanın kavrayamayacağı kadar karmaşıksa?
08:46
Here is the really great news.
162
526147
2127
İşte gerçekten harika haber.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Bunların hiçbirini anlamak zorunda değilsiniz
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
çünkü bir kanıtı doğrulamak, onu keşfetmekten çok daha kolaydır.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Bu nedenle, sadece birkaç yüz satır uzunluğunda olabilen
kontrol kodunuzu anlamanız veya ona güvenmeniz yeterlidir.
09:01
which could be just a few hundred lines long.
166
541245
2211
09:03
And Steve and I envision
167
543498
2252
Steve ve ben, bu tür ispat denetleyicilerinin
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
tüm bilgi işlem donanımımıza yerleştirileceğini düşünüyoruz,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
bu yüzden çok güvenli olmayan kod çalıştırmak imkânsız hâle geliyor.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Ya yapay zekâ, bu yapay zekâ aracını sizin için yazamazsa?
09:20
Then there's another possibility.
171
560056
3795
Sonra başka bir olasılık daha var.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Bir yapay zekâyı önce istediğinizi yapmayı öğrenmek için eğitiyorsunuz
09:27
and then you use a different AI
173
567480
3337
ve sonra öğrenilmiş algoritma ve bilgiyi
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
sizin için çıkarması için farklı bir yapay zekâ kullanıyorsunuz,
09:34
like an AI neuroscientist.
175
574862
2086
bir yapay zekâ sinir bilimci gibi.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Bu, gerçekten etkileyici hızla ilerleme kaydeden
09:41
which is making really impressive rapid progress.
177
581160
3253
mekanik yorumlanabilirlik alanının ruhunda var.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Kanıtlanmış güvenli sistemler kesinlikle imkânsız değildir.
09:47
Let's look at a simple example
179
587625
1502
İlk önce verilerden bir algoritmayı makine öğrendiğimiz
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
ve ardından onu spesifikasyona uygun bir kod biçiminde ayıkladığımız
09:53
and then distill it out in the form of code
181
593840
4254
basit bir örneğe bakalım, tamam mı?
09:58
that provably meets spec, OK?
182
598136
2252
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Bunu muhtemelen birinci sınıfta öğrendiğiniz bir algoritma ile yapalım
10:05
addition,
184
605810
1168
artı
10:07
where you loop over the digits from right to left,
185
607019
2503
sayıları sağdan sola doğru döngülüyorsunuz
10:09
and sometimes you do a carry.
186
609564
1793
ve bazen bir taşıma yapıyorsunuz.
10:11
We'll do it in binary,
187
611357
1752
Sanki on yerine iki parmağınızla
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
sayıyormuşsunuz gibi ikili olarak yapacağız.
10:16
And we first train a recurrent neural network,
189
616279
3378
Ve önce tekrarlayan bir sinir ağını eğitiyoruz
10:19
never mind the details,
190
619657
2211
-ayrıntılara takılmayın-
10:21
to nail the task.
191
621909
1418
görevi başarıyla tamamlaması için.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Şimdi bizim yazılımcı dilinde
parametre olarak adlandırdığımız
10:27
in a black box
193
627123
2753
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
bir grup sayı tablosu tarafından tanımlanan bir kara kutuda
nasıl çalıştığını anlamadığınız bu algoritmaya sahipsiniz.
10:34
call parameters.
195
634380
1502
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Daha sonra öğrenilen algoritmayı Python programı biçiminde otomatik olarak
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
ayıklamak için oluşturduğumuz bir yapay zekâ aracını kullanıyoruz.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Ardından, bu programın sadece eğitim verilerinizdeki sayıları değil,
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
herhangi bir sayıyı doğru şekilde topladığını kanıtlamak için
10:54
not just the numbers that were in your training data.
200
654942
2503
Dafny olarak bilinen resmi doğrulama aracını kullanıyoruz.
10:57
So in summary,
201
657778
1377
Özetle,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
kanıtlanabilir şekilde güvenli yapay zekânın mümkün olduğuna ikna oldum
11:03
but it's going to take time and work.
203
663117
3003
ancak zaman ve emek gerekecek.
11:06
And in the meantime,
204
666162
1209
Ve bu arada
11:07
let's remember that all the AI benefits
205
667413
4254
çoğu insanın heyecan duyduğu
11:11
that most people are excited about
206
671709
3795
bütün bu yapay zekâ avantajlarının
11:15
actually don't require superintelligence.
207
675504
2628
aslında süper zekâ gerektirmediğini hatırlayalım.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Yapay zekâ ile uzun ve şaşırtıcı bir geleceğimiz olabilir.
11:25
So let's not pause AI.
209
685014
2169
Bu yüzden yapay zekâyı duraklatmayalım.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Süper zekâya giden pervasız yarışı duraklatalım.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Anlamadığımız her zamankinden daha büyük modelleri
takıntılı bir şekilde eğitmeyi bırakalım.
11:37
that we don't understand.
212
697276
1669
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Antik Yunan’dan gelen uyarıya kulak verelim
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
ve İkarus’un hikâyesindeki gibi kibirli olmayalım.
11:46
Because artificial intelligence
215
706702
2711
Çünkü yapay zekâ
11:49
is giving us incredible intellectual wings
216
709455
4463
saplantılı bir şekilde güneşe uçmaya çalışmayı bırakırsak
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
entelektüel bakımdan en çılgın hayallerimizin bile ötesine
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
uçmamızı sağlayacak inanılmaz kanatlar veriyor.
12:02
Thank you.
219
722802
1168
Teşekkür ederim.
12:03
(Applause)
220
723970
5880
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7