The Dark Side of Competition in AI | Liv Boeree | TED

149,153 views ・ 2023-11-09

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ramazan Şen Gözden geçirme: esra kurul
00:04
Competition.
0
4000
1502
Rekabet,
00:05
It's a fundamental part of human nature.
1
5502
3003
insan doğasının temel bir parçasıdır.
00:09
I was a professional poker player for 10 years,
2
9047
2628
10 yıl profesyonel poker oyunculuğu yaptım,
00:11
so I've very much seen all the good, bad and ugly ways it can manifest.
3
11675
4421
bu yüzden tezahür edebileceği tüm iyi, kötü ve çirkin yolları çok gördüm.
00:16
When it's done right,
4
16763
1502
Doğru yapıldığında,
00:18
it can drive us to incredible feats in sports and innovation,
5
18306
5589
sporda ve inovasyonda bizi inanılmaz başarılara götürebilir.
00:23
like when car companies compete over who can build the safest cars
6
23895
4380
Otomobil şirketlerinin en güvenli arabaları yapması
veya en verimli güneş panellerinin yapımı için rekabet edilmesi gibi.
00:28
or the most efficient solar panels.
7
28275
2544
00:30
Those are all examples of healthy competition,
8
30860
2169
Bunların hepsi sağlıklı rekabet örnekleridir,
çünkü bireysel şirketler gelip gidebilse de
00:33
because even though individual companies might come and go,
9
33029
3170
00:36
in the long run,
10
36199
1168
uzun vadede
00:37
the game between them creates win-win outcomes
11
37409
2419
aralarındaki oyun sonunda herkesin yararına olan
00:39
where everyone benefits in the end.
12
39828
2043
çift taraflı kazanç yaratır.
00:42
But sometimes competition is not so great
13
42581
3003
Ancak bazen rekabet o kadar iyi değildir
00:45
and can create lose-lose outcomes where everyone's worse off than before.
14
45625
5464
ve herkesin eskisinden daha kötü durumda olduğu çift taraflı kayıp yaratabilir.
00:51
Take these AI beauty filters, for example.
15
51715
2878
Örneğin, şu AI güzellik filtrelerini ele alalım.
00:54
As you can see, they're a very impressive technology.
16
54968
2586
Gördüğünüz gibi çok etkileyici bir teknoloji.
00:57
They can salvage almost any picture.
17
57596
2210
Neredeyse her resmi kurtarabilirler.
01:00
They can even make Angelina and Margot more beautiful.
18
60181
5297
Angelina ve Margot’u daha güzel hâle getirebiliyorlar.
01:05
So they're very handy,
19
65520
1335
Bu yüzden,
01:06
especially for influencers who, now, at the click of a button,
20
66896
3045
özellikle bir tıkla kendilerini en güzel Hollywood versiyonlarına dönüştüren
01:09
can transform into the most beautiful Hollywood versions of themselves.
21
69983
3795
fenomenler için çok kullanışlılar.
01:13
But handy doesn't always mean healthy.
22
73778
2419
Ancak kullanışlı her zaman sağlıklı anlamına gelmez.
01:16
And I've personally noticed how quickly these things can train you
23
76573
3879
Bu şeylerin sizi doğal yüzünüzden nefret etmeniz için
01:20
to hate your natural face.
24
80493
2378
ne kadar çabuk eğitebileceğini bizzat fark ettim.
01:22
And there's growing evidence that they're creating issues
25
82912
2795
Ve özellikle gençlerde beden algı bozukluğu gibi
01:25
like body dysmorphia, especially in young people.
26
85707
3420
sorunlar yarattıklarına dair artan kanıtlar var.
01:29
Nonetheless, these things are now endemic to social media
27
89502
4421
Her şeye rağmen, bunlar artık sosyal medyaya özgü olmuş durumda
01:33
because the nature of the game demands it.
28
93965
2461
çünkü oyunun doğası bunu talep ediyor.
01:37
The platforms are incentivized to provide them
29
97093
2211
Platformlar bunları sağlamaya teşvik ediliyor
01:39
because hotter pictures means more hijacked limbic systems,
30
99346
3253
çünkü daha çekici resimler daha çok gasp edilmiş limbik sistem demek,
01:42
which means more scrolling and thus more ad revenue.
31
102641
2502
bu da, daha fazla kaydırma ve daha fazla reklam geliri demek.
01:45
And users are incentivized to use them
32
105644
2210
Kullanıcılar bunları kullanmaya teşvik ediliyor,
01:47
because hotter pictures get you more followers.
33
107896
2377
çünkü daha çekici resim size daha fazla takipçi kazandırır.
01:50
But this is a trap,
34
110815
2461
Ama bu bir tuzak
01:53
because once you start using these things,
35
113318
2044
çünkü bunları kullanmaya başladığınızda,
01:55
it's really hard to go back.
36
115362
2127
geri dönmek gerçekten zor.
01:57
Plus, you don't even get a competitive advantage from them anymore
37
117530
3254
Artı, artık onlardan rekabet avantajı elde edemezsiniz
02:00
because everyone else is already using them too.
38
120784
2502
çünkü herkes onları kullanıyor.
02:03
So influencers are stuck using these things
39
123787
3461
Bu yüzden fenomenler bunları kullanmaya mecbur kaldı,
02:07
with all the downsides
40
127290
1460
tüm dezavantajlarına
02:08
and very little upside.
41
128792
1793
ve çok az avantajına rağmen.
02:10
A lose-lose game.
42
130627
1334
İki tarafın da kaybettiği bir oyun.
02:12
A similar kind of trap is playing out in our news media right now,
43
132462
4504
Benzer bir tuzak şu anda haber medyamızda ortaya çıkıyor,
02:16
but with much worse consequences.
44
136966
2712
ancak çok daha kötü sonuçları var.
02:19
You'd think since the internet came along
45
139719
1961
İnternet ortaya çıktığından beri
02:21
that the increased competition between news outlets
46
141680
3169
haber kuruluşları arasındaki artan rekabetin
02:24
would create a sort of positive spiral,
47
144891
2044
bir tür pozitif sarmal yaratacağı düşünülürdü;
02:26
like a race to the top of nuanced, impartial, accurate journalism.
48
146976
4839
incelikli, tarafsız, doğru haberciliğin zirvesine doğru bir yarış gibi.
02:32
Instead, we're seeing a race to the bottom of clickbait and polarization,
49
152565
6132
Bunun yerine, tık tuzağı ve kutuplaşmanın dibine giden bir yarış görüyoruz
ve saygın gazeteler bile bu tür kalitesiz, partizan taktiklere
02:38
where even respectable papers are increasingly leaning
50
158697
2836
02:41
into these kind of low-brow partisan tactics.
51
161533
3253
giderek daha fazla meylediyor.
02:45
Again, this is due to crappy incentives.
52
165537
3170
Tekrar edersek bu, berbat özendirmelerden kaynaklanıyor.
02:49
Today, we no longer just read our news.
53
169374
2669
Bugün artık sadece haberleri okumuyoruz.
02:52
We interact with it by sharing and commenting.
54
172085
3378
Paylaşarak ve yorum yaparak onlarla etkileşime giriyoruz.
02:56
And headlines that trigger emotions like fear or anger
55
176131
4170
Korku veya öfke gibi duyguları tetikleyen manşetlerin
03:00
are far more likely to go viral than neutral or positive ones.
56
180343
4088
yayılma olasılığı yansız veya olumlu olanlardan çok daha fazla.
03:05
So in many ways, news editors are in a similar kind of trap
57
185098
4087
Bu nedenle, haber editörleri bir çok açıdan fenomenlerle
03:09
as the influencers,
58
189185
1544
benzer bir tuzağın içinde;
03:10
where, the more their competitors lean into clickbaity tactics,
59
190770
4171
rakipleri tık tuzağı taktiklerine ne kadar çok meylederse
03:14
the more they have to as well.
60
194983
1960
onlar da o kadar mecbur kalyor.
03:16
Otherwise, their stories just get lost in the noise.
61
196943
2628
Aksi takdirde, hikâyeleri gürültüde kaybolur.
03:20
But this is terrible for everybody,
62
200029
2420
Ama bu herkes için korkunç,
03:22
because now the media get less trust from the public,
63
202490
3295
çünkü artık medya halktan daha az güven alıyor,
03:25
but also it becomes harder and harder for anyone to discern truth from fiction,
64
205785
4463
ama aynı zamanda herkesin gerçeği kurgudan ayırt etmesi giderek zorlaşıyor
03:30
which is a really big problem for democracy.
65
210248
2127
ki bu demokrasi için gerçekten büyük bir sorun.
03:33
Now, this process of competition gone wrong
66
213251
3420
Şimdi, yanlış giden bu rekabet süreci
03:36
is actually the driving force behind so many of our biggest issues.
67
216713
4880
aslında en büyük sorunlarımızın çoğunun arkasındaki itici güçtür.
03:42
Plastic pollution,
68
222427
1877
Plastik kirliliği,
03:44
deforestation,
69
224345
2128
ormansızlaşma,
03:46
antibiotic overuse in farming,
70
226514
2711
tarımda aşırı antibiyotik kullanımı,
03:49
arms races,
71
229225
1627
silahlanma yarışları,
03:50
greenhouse gas emissions.
72
230894
1918
sera gazı emisyonları.
03:52
These are all a result of crappy incentives,
73
232854
3754
Bunların hepsi kötü teşviklerin,
03:56
of poorly designed games that push their players --
74
236649
3420
oyuncuları olan insanları, şirketleri veya hükümetleri
04:00
be them people, companies or governments --
75
240069
2753
maliyetleri ve zararları geleceğe erteleyen
04:02
into taking strategies and tactics that defer costs and harms to the future.
76
242864
5714
stratejilere ve taktiklere iten kötü tasarlanmış oyunların bir sonucudur.
04:09
And what's so ridiculous is that most of the time,
77
249454
2919
Ve çok saçma olan şey, çoğu zaman,
04:12
these guys don't even want to be doing this.
78
252415
2878
bu adamların bunu yapmak istememeleri.
04:15
You know, it's not like packaging companies
79
255335
2169
Yani, ambalaj şirketleri okyanusları
04:17
want to fill the oceans with plastic
80
257545
1919
plastikle doldurmak istemiyor
04:19
or farmers want to worsen antibiotic resistance.
81
259506
2836
ya da çiftçiler antibiyotik direncini kötüleştirmek istemiyor.
04:22
But they’re all stuck in the same dilemma of:
82
262759
3420
Ama hepsi aynı ikilemde sıkışıp kalmışlar:
04:26
"If I don't use this tactic,
83
266221
2294
“Bu taktiği kullanmazsam,
04:28
I’ll get outcompeted by all the others who do.
84
268515
3211
bunu yapan diğerleri tarafından alt edileceğim.
04:31
So I have to do it, too.”
85
271768
1835
Bu yüzden ben de yapmak zorundayım.”
04:34
This is the mechanism we need to fix as a civilization.
86
274604
3545
Bir medeniyet olarak düzeltmemiz gereken mekanizma budur.
04:38
And I know what you're probably all thinking, "So it's capitalism."
87
278858
3170
Muhtemelen ne düşündüğünü biliyorum, “Yani kapitalizm.”
Hayır, kapitalizm değil.
04:42
No, it's not capitalism.
88
282028
1543
04:43
Which, yes, can cause problems,
89
283613
1793
Bu, evet, sorunlara neden olabilir,
04:45
but it can also solve them and has been fantastic in general.
90
285448
3170
ancak bunları çözebilir de ve genel olarak harika oldu.
04:48
It's something much deeper.
91
288618
2127
Çok daha derin bir şey.
04:51
It's a force of misaligned incentives of game theory itself.
92
291287
5005
Bu, oyun teorisinin kendisinin hizasız teşviklerinin bir gücüdür.
04:57
So a few years ago, I retired from poker,
93
297001
2378
Bu yüzden birkaç yıl önce, pokerden emekli oldum,
04:59
in part because I wanted to understand this mechanism better.
94
299420
3671
kısmen bu mekanizmayı daha iyi anlamak istediğim için.
05:03
Because it takes many different forms, and it goes by many different names.
95
303633
4213
Çünkü pek çok farklı biçimi vardır ve birçok farklı isimle anılır.
05:08
These are just some of those names.
96
308346
2085
Bunlar o isimlerden sadece birkaçı.
05:11
You can see they're a little bit abstract and clunky, right?
97
311015
3337
Biraz soyut ve kullanışsız olduklarını görebiliyorsunuz, değil mi?
05:14
They don't exactly roll off the tongue.
98
314394
2002
Söylenmesi çok kolay değil.
05:16
And given how insidious and connected all of these problems are,
99
316771
5089
Tüm bu sorunların ne kadar sinsi ve bağlantılı olduğu düşünüldüğünde,
05:21
it helps to have a more visceral way of recognizing them.
100
321901
3963
onları tanımak için içgüdüsel bir tavra sahip olmak faydalı olur.
05:27
So this is probably the only time
101
327073
1585
Bu, muhtemelen bu konferansta
05:28
you're going to hear about the Bible at this conference.
102
328658
2711
İncil hakkında duyacağınız tek zamandır.
Ama size ondan kısa bir hikâye anlatmak istiyorum,
05:31
But I want to tell you a quick story from it,
103
331369
2127
05:33
because allegedly, back in the Canaanite days,
104
333496
2544
çünkü iddialara göre, Kenan günlerinde,
05:36
there was a cult who wanted money and power so badly,
105
336040
5256
para ve güç çok isteyen bir tarikat vardı
05:41
they were willing to sacrifice their literal children for it.
106
341296
3587
ve bunun için öz çocuklarını feda etmeye bile razıydılar.
05:45
And they did this by burning them alive in an effigy
107
345592
4212
Ve bunu, onları bu nihai kurban için ödüllendireceğine inandıkları
05:49
of a God that they believed would then reward them
108
349846
2711
bir Tanrı heykeli içinde
05:52
for this ultimate sacrifice.
109
352599
2127
diri diri yakarak yaptılar.
05:55
And the name of this god was Moloch.
110
355643
2962
Ve bu tanrının adı Molek idi.
05:59
Bit of a bummer, as stories go.
111
359772
2461
Hikâyenin devamı pek hoş değil.
06:02
But you can see why it's an apt metaphor,
112
362233
2586
Ama bunun yerinde bir benzetme olduğunu anlayabilirsiniz,
06:04
because sometimes we get so lost in winning the game right in front of us,
113
364861
6673
çünkü bazen tam önümüzdeki oyunu kazanmaya o kadar odaklanırız ki
06:11
we lose sight of the bigger picture
114
371534
1960
büyük resmi gözden kaçırırız
06:13
and sacrifice too much in our pursuit of victory.
115
373536
3754
ve zafer arayışımızda çok fazla fedakarlık yaparız.
06:17
So just like these guys were sacrificing their children for power,
116
377832
4088
Tıpkı bu adamların çocuklarını güç için feda ettikleri gibi
06:21
those influencers are sacrificing their happiness for likes.
117
381961
4588
bu fenomenler de beğeniler için mutluluklarını feda ediyorlar.
06:27
Those news editors are sacrificing their integrity for clicks,
118
387008
4087
Bu haber editörleri tıklamalar için dürüstlüklerini feda ediyor
06:31
and polluters are sacrificing the biosphere for profit.
119
391137
3796
ve kirleticiler biyosferi kâr için feda ediyor.
06:35
In all these examples,
120
395767
1793
Tüm bu örneklerde,
06:37
the short-term incentives of the games themselves are pushing,
121
397602
3962
oyunların kısa vadeli teşvikleri zorluyor,
06:41
they're tempting their players
122
401606
1752
oyuncularını geleceklerini
06:43
to sacrifice more and more of their future,
123
403358
3378
giderek daha fazla feda etmeye teşvik ediyor,
06:46
trapping them in a death spiral where they all lose in the end.
124
406778
4129
onları sonunda hepsinin kaybettiği bir felaketler zincirine hapsediyor.
06:52
That's Moloch's trap.
125
412158
2127
Bu Molek’in tuzağı.
06:54
The mechanism of unhealthy competition.
126
414661
2752
Sağlıksız rekabet mekanizması.
06:58
And the same is now happening in the AI industry.
127
418164
3337
Aynısı şimdi AI endüstrisinde oluyor.
07:02
We're all aware of the race that's heating up
128
422251
2128
Şu anda şirketler arasındaki kızışan yarışın
07:04
between companies right now
129
424379
1293
hepimiz farkındayız.
07:05
over who can score the most compute,
130
425713
2253
En çok hesaplama puanını, en büyük yatırımı
07:08
who can get the biggest funding round or get the top talent.
131
428007
3379
veya en iyi yetenekleri almaya çalışıyorlar.
07:11
Well, as more and more companies enter this race,
132
431386
3461
Daha fazla şirket bu yarışa girdikçe,
07:14
the greater the pressure for everyone to go as fast as possible
133
434847
3629
herkesin mümkün olduğunca hızlı gitmesi ve
07:18
and sacrifice other important stuff like safety testing.
134
438476
4171
güvenlik testi gibi diğer önemli şeylerden ödün vermesi için baskı o kadar artar.
07:23
This has all the hallmarks of a Moloch trap.
135
443189
3253
Bu, bir Molek tuzağının tüm özelliklerini taşıyor.
07:27
Because, like, imagine you're a CEO who, you know, in your heart of hearts,
136
447068
3587
Bir CEO olduğunuzu hayal edin.
Tüm kalbinizle, son derece güçlü bir AI’ı güvenli bir şekilde inşa edebilecek
07:30
believes that your team is the best
137
450655
2586
07:33
to be able to safely build extremely powerful AI.
138
453241
3462
en iyi ekibe sahip olduğunuza inanıyorsunuz.
07:37
Well, if you go too slowly, then you run the risk of other,
139
457120
4170
Çok yavaş giderseniz, çok daha az temkinli diğer ekiplerin
07:41
much less cautious teams getting there first
140
461332
2628
sizin önünüze geçmesi ve sistemlerini sizden önce
devreye alması riskiyle karşı karşıya kalırsınız.
07:44
and deploying their systems before you can.
141
464002
2168
07:46
So that in turn pushes you to be more reckless yourself.
142
466212
3378
Böylece bu da sizi daha kayıtsız olmaya zorlar.
07:49
And given how many different experts and researchers,
143
469966
3628
Ve hem bu şirketlerdeki hem de tamamen bağımsız şirketlerdeki
07:53
both within these companies
144
473594
1585
farklı uzman ve araştırmacının
07:55
but also completely independent ones,
145
475179
2545
bizi aceleye getirilmiş yapay zekanın
07:57
have been warning us about the extreme risks of rushed AI,
146
477765
4296
aşırı riskleri konusunda uyardığı göz önüne alındığında,
08:02
this approach is absolutely mad.
147
482103
2711
bu yaklaşım kesinlikle çılgınca.
08:05
Plus, almost all AI companies
148
485398
3170
Ayrıca, neredeyse tüm yapay zeka şirketleri
08:08
are beholden to satisfying their investors,
149
488609
3003
yatırımcılarını tatmin etmeye mecburdur;
08:11
a short-term incentive which, over time, will inevitably start to conflict
150
491612
4255
bu kısa vadeli bir teşvik zamanla kaçınılmaz olarak
herhangi bir iyicil misyonla çatışmaya başlayacaktır.
08:15
with any benevolent mission.
151
495867
1751
08:18
And this wouldn't be a big deal
152
498202
1502
Mesele ekmek kızartma makinesi olsaydı
08:19
if this was really just toasters we're talking about here.
153
499704
3337
çok da dert etmezdik.
08:23
But AI, and especially AGI,
154
503041
2752
Ancak yapay zeka ve özellikle AGI,
08:25
is set to be a bigger paradigm shift
155
505835
1752
tarımsal veya endüstriyel devrimlerden
08:27
than the agricultural or industrial revolutions.
156
507587
2669
daha büyük bir paradigma değişimi olacak.
08:30
A moment in time so pivotal,
157
510590
2544
Bu, zaman içerisinde o kadar önemli bir an ki,
08:33
it's deserving of reverence and reflection,
158
513176
4546
hürmeti ve üzerinde düşünmeyi hak ediyor.
08:37
not something to be reduced to a corporate rat race
159
517764
2419
Bu, kimin daha fazla günlük aktif kullanıcı çekeceği
08:40
of who can score the most daily active users.
160
520183
2544
kurumsal bir yarışa indirgenmemeli.
08:43
I'm not saying I know
161
523186
1209
Hızlanma ve güvenlik arasındaki doğru ödünleşmenin
08:44
what the right trade-off between acceleration and safety is,
162
524437
3420
ne olduğunu bildiğimi söylemiyorum,
08:47
but I do know that we'll never find out what that right trade-off is
163
527899
3962
ama doğru ödünleşmenin ne olduğuna Molek’in karar vermesine izin verirsek
08:51
if we let Moloch dictate it for us.
164
531903
2794
bunu asla öğrenemeyeceğimizi biliyorum.
08:56
So what can we do?
165
536699
1794
Peki ne yapabiliriz?
08:58
Well, the good news is we have managed to coordinate
166
538868
3086
İyi haber şu ki, daha önce Molek’in tuzaklarından kaçmak için
09:01
to escape some of Moloch's traps before.
167
541954
2002
birlikte çalışmayı başardık.
09:04
We managed to save the ozone layer from CFCs
168
544540
2545
Montreal Protokolü yardımıyla ozon tabakasını
09:07
with the help of the Montreal Protocol.
169
547126
2169
CFC’lerden kurtarmayı başardık.
09:09
We managed to reduce the number of nuclear weapons on Earth
170
549337
2878
1991′deki Stratejik Silahların Azaltılması Antlaşması’nın yardımıyla
09:12
by 80 percent,
171
552256
1210
09:13
with the help of the Strategic Arms Reduction Treaty in 1991.
172
553466
3378
Dünya’daki nükleer silah sayısını
yüzde 80 azaltmayı başardık.
09:17
So smart regulation may certainly help with AI too,
173
557428
4338
Yani, akıllı düzenleme kesinlikle yapay zeka konusunda da yardımcı olabilir,
09:21
but ultimately,
174
561766
1335
ancak nihayetinde,
09:23
it's the players within the game who have the most influence on it.
175
563142
4004
en fazla etkiye sahip olanlar oyunun içindeki oyunculardır.
09:27
So we need AI leaders to show us
176
567814
2294
Bu yüzden AI liderlerinin
bize sadece teknolojilerinin yarattığı risklerin değil,
09:30
that they're not only aware of the risks their technologies pose,
177
570108
3586
09:33
but also the destructive nature of the incentives
178
573736
3253
şu anda borçlu oldukları teşviklerin yıkıcı doğasının da farkında olduklarını
09:37
that they're currently beholden to.
179
577031
1877
göstermelerine ihtiyacımız var.
09:39
As their technological capabilities reach towards the power of gods,
180
579617
3712
Teknolojik yetenekleri tanrıların gücüne ulaştıkça,
09:43
they're going to need the godlike wisdom to know how to wield them.
181
583329
3712
onları nasıl kullanacaklarını bilmek için tanrısal bilgeliğe ihtiyaçları olacak.
09:47
So it doesn't fill me with encouragement
182
587917
2211
Bu yüzden çok büyük bir şirketin CEO'sunun
09:50
when I see a CEO of a very major company saying something like,
183
590169
4338
“İnsanların rakibimizi oynattırdığımızı bilmelerini istiyorum.” gibi bir şey
09:54
"I want people to know we made our competitor dance."
184
594507
2753
söylediğini gördüğümde cesaretlenemiyorum.
09:57
That is not the type of mindset we need here.
185
597677
2669
Burada ihtiyacımız olan düşünce yapısı bu değil.
10:00
We need leaders who are willing to flip Moloch's playbook,
186
600346
3629
Molek’in taktik tahtasınıı tersine çevirmeye istekli,
10:04
who are willing to sacrifice their own individual chance of winning
187
604016
3671
bütünün iyiliği için kendi bireysel kazanma şanslarını feda etmeye istekli
10:07
for the good of the whole.
188
607687
1626
liderlere ihtiyacımız var.
10:10
Now, fortunately, the three leading labs are showing some signs of doing this.
189
610148
4921
Neyse ki, önde gelen üç şirket buna dair bazı işaretler gösteriyor.
10:15
Anthropic recently announced their responsible scaling policy,
190
615695
3086
Anthropic, geçenlerde sorumlu ölçeklendirme politikalarını duyurdu.
10:18
which pledges to only increase capabilities
191
618823
2586
Bu politika, belirli güvenlik kriterleri karşılandıktan sonra
10:21
once certain security criteria have been met.
192
621409
2627
yetenekleri artırma sözü veriyor.
10:24
OpenAI have recently pledged
193
624954
1418
OpenAI yakın zamanda
10:26
to dedicate 20 percent of their compute purely to alignment research.
194
626414
3962
hesaplamalarının yüzde 20′sini sadece uyumlama araştırmalarına adama sözü verdi.
10:31
And DeepMind have shown a decade-long focus
195
631627
3087
Ve DeepMind, on yıldır
10:34
of science ahead of commerce,
196
634714
2377
ticaretten ziyade bilime odaklandı;
10:37
like their development of AlphaFold,
197
637133
1752
geliştirdikleri AlphaFold’u
10:38
which they gave away to the science community for free.
198
638885
2627
bilim topluluğuna ücretsiz sundular.
10:41
These are all steps in the right direction,
199
641846
2044
Bunların hepsi doğru yönde atılan adımlar,
10:43
but they are still nowhere close to being enough.
200
643931
2836
ancak hâlâ yeterli olmaya yakın değiller.
10:46
I mean, most of these are currently just words,
201
646809
2586
Yani, bunların çoğu şu anda sadece sözler,
10:49
they're not even proven actions.
202
649437
2127
kanıtlanmış eylemler bile değiller.
10:52
So we need a clear way to turn the AI race into a definitive race to the top.
203
652023
6006
AI yarışını zirveye doğru kesin bir yarışa dönüştürmek için net bir yol gerek.
10:58
Perhaps companies can start competing over who can be within these metrics,
204
658779
5297
Belki şirketler, bu metrikler içinde kimin yer alacağı veya
en iyi güvenlik kriterlerini kimin geliştireceği konusunda yarışabilirler.
11:04
over who can develop the best security criteria.
205
664118
3128
11:07
A race of who can dedicate the most compute to alignment.
206
667288
4004
En çok hesaplamayı uyumlamaya adamak için bir yarış.
11:11
Now that would truly flip the middle finger to Moloch.
207
671292
2669
İşte bu, Molek’e orta parmağı gerçekten çevirtirdi.
11:14
Competition can be an amazing tool,
208
674587
3253
Rekabet inanılmaz bir araç olabilir,
11:17
provided we wield it wisely.
209
677882
2085
akıllıca kullanmamız kaydıyla.
11:20
And we're going to need to do that
210
680468
1668
Ve bunu yapmamız gerekecek
11:22
because the stakes we are playing for are astronomical.
211
682136
3170
çünkü oynadığımız bahisler astronomik.
11:25
If we get AI, and especially AGI, wrong,
212
685806
3421
AI’i ve özellikle AGI’yi yanlış anlamak
11:29
it could lead to unimaginable catastrophe.
213
689268
2795
hayal edilemez bir felakete yol açabilir.
11:32
But if we get it right,
214
692980
1502
Ama eğer doğru anlarsak
11:34
it could be our path out of many of these Moloch traps
215
694523
2837
bu, bugün bahsettiğim Molek tuzaklarının bir çoğundan
11:37
that I've mentioned today.
216
697401
1502
çıkış yolumuz olabilir.
11:40
And as things get crazier over the coming years,
217
700446
3045
Ve önümüzdeki yıllarda işler çılgına döndükçe,
11:43
which they're probably going to,
218
703532
1836
ki muhtemelen öyle olacak,
11:45
it's going to be more important than ever
219
705368
2002
buradaki gerçek düşmanın Molek’in olduğunu
11:47
that we remember that it is the real enemy here, Moloch.
220
707370
4296
hatırlamamız her zamankinden daha önemli olacak.
11:52
Not any individual CEO or company, and certainly not one another.
221
712208
4379
Herhangi bir CEO veya şirket değil, ve kesinlikle birbirleri değil.
11:57
So don't hate the players,
222
717255
1751
Yani, oyunculardan nefret etmeyin,
11:59
change the game.
223
719006
1293
oyunu değiştirin.
12:01
(Applause)
224
721509
1126
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7