How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

61,506 views ・ 2024-05-01

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ozay Ozaydin Gözden geçirme: Eren Gokce
00:03
When I talk to people about artificial intelligence,
0
3583
3963
İnsanlarla yapay zekâ hakkında konuştuğumda,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
uzman olmayanlardan en çok duyduğum şey “Yapay zekâyı anlamıyorum.” oluyor.
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Ancak uzmanlarla konuştuğumda komik bir şey oluyor.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
“Yapay zekâyı ben de anlamıyorum, başkaları da anlamıyor” diyorlar.
00:21
This is a pretty strange state of affairs.
4
21393
3503
Bu oldukça garip bir durum.
00:24
Normally, the people building a new technology
5
24896
3295
Normalde, yeni bir teknolojiyi geliştiren insanlar
00:28
understand how it works inside and out.
6
28233
2669
onun nasıl çalıştığını tam anlamıyla anlarlar.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Ancak etrafımızdaki dünyayı kökten yeniden şekillendiren bir teknoloji olan YZ için
00:36
that's not so.
8
36283
1167
durum böyle değil.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Uzmanlar elbette YZ sistemlerinin nasıl inşa edileceği
ve çalıştırılacağı hakkında çok şey biliyor.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Ancak konu içeride nasıl çalıştıklarına geldiğinde,
00:45
there are serious limits to how much we know.
11
45000
2877
ne kadar bildiğimizin ciddi sınırları var.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Bu önemli çünkü YZ’yi derinlemesine anlamadan,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
bir sonraki adımda neler yapabileceğini,
hatta şu anda neler yapabileceğini bilmemiz gerçekten zor.
00:56
or even what it can do now.
14
56636
2336
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Teknolojide neler olup bittiğini anlamakta
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
ve bundan sonra nereye gideceğini tahmin etmekte
bu kadar zorlanıyor olmamız,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
YZ’yi nasıl yöneteceğimizi bulmakta karşılaştığımız en büyük engellerden biri.
01:12
But AI is already all around us,
18
72861
2294
Ancak YZ zaten etrafımızda,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
bu yüzden oturup her şeyin netleşmesini bekleyemeyiz.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Her hâlükârda ileriye doğru bir yol çizmek zorundayız.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Önce San Francisco’da, şimdi de Washington DC’de olmak üzere
01:27
for about eight years,
22
87751
1167
yaklaşık sekiz yıldır
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
bu YZ politika ve yönetişim konuları üzerinde çalışıyorum.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Bu süre zarfında hükûmetlerin
01:35
at how governments are working to manage this technology.
25
95717
3754
bu teknolojiyi yönetmek için nasıl çalıştıklarına içeriden baktım.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Sektörün içinde de bir iki şey gördüm.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Bu yüzden yapay zekâyı yönetme yolumuzun
01:49
for what our path to governing AI could look like.
28
109022
3629
neye benzeyebileceğine dair birkaç fikir paylaşacağım.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Ama önce, yapay zekâyı anlamayı ve tahmin etmeyi bu kadar zorlaştıran şeyin
01:57
and predict.
30
117489
1251
ne olduğundan bahsedelim.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Yapay “zekâ” oluşturmanın en büyük zorluklarından biri,
02:03
is that no one can agree on what it actually means
32
123495
3086
kimsenin zeki olmanın gerçekte ne anlama geldiği konusunda
02:06
to be intelligent.
33
126623
1752
hemfikir olamamasıdır.
Bu, yeni bir teknoloji inşa ederken içinde bulunulması gereken tuhaf bir durum.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Wright kardeşler uçakları denemeye başladıklarında
02:15
they didn't know how to build one,
36
135507
1668
nasıl bir uçak yapacaklarını bilmiyorlardı
02:17
but everyone knew what it meant to fly.
37
137175
3128
ama herkes uçmanın ne demek olduğunu biliyordu.
02:21
With AI on the other hand,
38
141596
1794
Öte yandan yapay zekâ söz konusu olduğunda,
02:23
different experts have completely different intuitions
39
143431
3295
farklı uzmanlar zekânın temelinde neyin yattığı konusunda
02:26
about what lies at the heart of intelligence.
40
146726
2920
tamamen farklı sezgilere sahip.
02:29
Is it problem solving?
41
149646
2210
Problem çözme mi?
02:31
Is it learning and adaptation,
42
151898
2711
Öğrenme ve adaptasyon mu,
02:34
are emotions,
43
154651
1418
duygular
02:36
or having a physical body somehow involved?
44
156111
3128
ya da fiziksel bir bedene sahip olmak bir şekilde işin içinde mi?
02:39
We genuinely don't know.
45
159698
1459
Gerçekten bilmiyoruz.
02:41
But different answers lead to radically different expectations
46
161157
4338
Ancak farklı yanıtlar, teknolojinin nereye gittiği
ve oraya ne kadar hızlı ulaşacağı konusunda
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
kökten farklı beklentilere yol açıyor.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Kafamızın nasıl karıştığına dair bir örnek, eskiden
02:53
about narrow versus general AI.
49
173461
2294
dar ve genel yapay zekâ hakkında nasıl konuştuğumuzdur.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Uzun bir süre boyunca iki kova terimiyle konuştuk.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Pek çok insan, bir sonraki YouTube videosunu önermek gibi
03:03
trained for one specific task,
52
183763
1919
belirli bir görev için eğitilmiş
03:05
like recommending the next YouTube video,
53
185724
2669
dar yapay zekâ ile
bir insanın yapabileceği her şeyi yapabilen yapay genel zekâ
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
veya AGI arasında ayrım yapmamız gerektiğini düşünüyordu.
03:12
that could do everything a human could do.
55
192272
2586
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Bu ayrımı, dar ve genel ayrımını,
03:18
as a core divide between what we could build in practice
57
198778
3963
pratikte inşa edebileceklerimiz ile
gerçekten akıllı olabilecekler arasındaki
03:22
and what would actually be intelligent.
58
202782
2252
temel bir ayrım olarak düşündük.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Ama bir ya da iki yıl önce ChatGPT ortaya çıktı.
03:31
If you think about it,
60
211541
1543
Eğer düşünürseniz,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
bilirsiniz, belirli bir görev için eğitilmiş dar bir yapay zekâ mı?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Yoksa AGI mi ve bir insanın yapabileceği her şeyi yapabilir mi?
03:41
Clearly the answer is neither.
63
221092
1502
Açıkçası cevap ikisi de değil.
03:42
It's certainly general purpose.
64
222635
1919
Kesinlikle genel amaçlı.
03:44
It can code, write poetry,
65
224554
2920
Kod yazabilir, şiir yazabilir,
iş sorunlarını analiz edebilir,
03:47
analyze business problems, help you fix your car.
66
227515
3045
arabanızı tamir etmenize yardımcı olabilir.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Ancak her şeyi sizin ya da benim yapabileceğim kadar
03:54
as well as you or I could do it.
68
234189
2419
iyi yapabilmekten çok uzak.
03:56
So it turns out this idea of generality
69
236608
2043
Dolayısıyla, bu genellik fikrinin
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
aslında akıllı olan ve olmayan arasındaki
doğru ayrım çizgisi olmadığı ortaya çıkıyor.
04:01
between intelligent and not.
71
241404
2127
04:04
And this kind of thing
72
244073
1335
Bu tür bir şey
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
şu anda tüm yapay zekâ alanı için büyük bir zorluk.
Ne inşa etmeye çalıştığımız ya da bundan sonraki yol haritasının
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
04:11
or on what the road map looks like from here.
75
251164
2419
nasıl göründüğü konusunda herhangi bir anlaşmamız yok.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Bugün sahip olduğumuz YZ sistemlerini bile net bir şekilde anlamıyoruz.
04:18
Why is that?
77
258004
1251
Neden böyle?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Araştırmacılar bazen bugün inşa edilen ana yapay zekâ türü olan
04:22
the main kind of AI being built today,
79
262300
2085
derin sinir ağlarını bir kara kutu olarak tanımlıyorlar.
04:24
as a black box.
80
264427
1460
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Ancak bununla kastettikleri şey, doğası gereği gizemli olduğu
04:29
and we have no way of looking inside the box.
82
269974
2711
ve kutunun içine bakmanın bir yolu olmadığı değil.
04:33
The problem is that when we do look inside,
83
273228
2669
Sorun şu ki, içine baktığımızda bulduğumuz şey,
04:35
what we find are millions,
84
275939
2335
belirli bir şekilde birbirine eklenen
04:38
billions or even trillions of numbers
85
278316
2878
ve çarpılan milyonlarca, milyarlarca
04:41
that get added and multiplied together in a particular way.
86
281194
3462
ve hatta trilyonlarca sayıdır.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
Uzmanların neler olup bittiğini anlamasını zorlaştıran şey,
04:47
is basically just, there are too many numbers,
88
287617
3086
temelde çok fazla sayı olması ve bunların ne işe yaradığını
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
ayırt etmek için henüz iyi yöntemlere sahip olmamamızdır.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Bundan biraz daha fazlası var ama çok değil.
04:58
So how do we govern this technology
91
298545
3003
Peki anlamakta ve tahmin etmekte zorlandığımız
05:01
that we struggle to understand and predict?
92
301589
2628
bu teknolojiyi nasıl yöneteceğiz?
05:04
I'm going to share two ideas.
93
304717
1502
İki fikir paylaşacağım.
05:06
One for all of us and one for policymakers.
94
306261
3253
Biri hepimiz için, diğeri de politika yapıcılar için.
05:10
First, don't be intimidated.
95
310932
2711
Birincisi, gözünüz korkmasın.
05:14
Either by the technology itself
96
314102
2461
Ya teknolojinin kendisinden
05:16
or by the people and companies building it.
97
316563
3086
ya da onu geliştiren insanlardan ve şirketlerden.
05:20
On the technology,
98
320400
1168
Teknoloji konusunda,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
YZ kafa karıştırıcı olabilir, ancak sihirli değildir.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
YZ sistemlerinin halihazırda iyi anladığımız bazı kısımları var
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
ve anlamadığımız kısımlar bile sonsuza kadar anlaşılmaz kalmayacak.
05:31
An area of research known as “AI interpretability”
102
331619
3295
“YZ yorumlanabilirliği” olarak bilinen bir araştırma alanı,
05:34
has made quite a lot of progress in the last few years
103
334956
3128
tüm bu milyarlarca sayının ne yaptığını anlamlandırma konusunda
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
son birkaç yılda oldukça ilerleme kaydetti.
05:42
One team of researchers, for example,
105
342463
2169
Örneğin bir araştırma ekibi,
05:44
found a way to identify different parts of a neural network
106
344674
3420
bir sinir ağının farklı kısımlarını tanımlamanın bir yolunu buldu
05:48
that they could dial up or dial down
107
348136
2335
ve bu kısımları çevirerek YZ’nin cevaplarını
05:50
to make the AI's answers happier or angrier,
108
350513
3754
daha mutlu ya da öfkeli,
05:54
more honest,
109
354309
1418
daha dürüst,
05:55
more Machiavellian, and so on.
110
355768
2545
daha Makyavelist vb. hâle getirebildiler.
05:58
If we can push forward this kind of research further,
111
358771
2503
Bu tür araştırmaları daha da ilerletebilirsek,
06:01
then five or 10 years from now,
112
361316
2210
bundan beş ya da 10 yıl sonra,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
kara kutu olarak adlandırılan şeyin içinde neler olup bittiğini
06:06
inside the so-called black box.
114
366571
2669
çok daha net bir şekilde anlayabiliriz.
06:10
And when it comes to those building the technology,
115
370325
2669
Teknolojiyi geliştirenlere gelince,
teknoloji uzmanları bazen sanki teknik detaylara vakıf değilseniz,
06:13
technologists sometimes act as though
116
373036
1918
06:14
if you're not elbows deep in the technical details,
117
374996
3420
bu teknolojiyle ne yapmamız gerektiği konusunda
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
fikir beyan etme hakkınız yokmuş gibi davranıyorlar.
06:22
Expertise has its place, of course,
119
382337
2294
Uzmanlığın elbette bir yeri var,
06:24
but history shows us how important it is
120
384672
2169
ancak tarih bize yeni bir teknolojiden etkilenen insanların
06:26
that the people affected by a new technology
121
386883
3003
onu nasıl kullanacağımızı şekillendirmede
06:29
get to play a role in shaping how we use it.
122
389886
2753
rol oynamasının ne kadar önemli olduğunu gösteriyor.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Tıpkı 20. yüzyılda fabrika güvenliği için mücadele eden fabrika işçileri ya da
06:37
or the disability advocates
124
397310
2127
internetin erişilebilir olmasını sağlayan engelli savunucuları gibi.
06:39
who made sure the world wide web was accessible.
125
399437
3003
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Söz sahibi olmak için bilim insanı ya da mühendis olmanıza gerek yok.
06:48
(Applause)
127
408821
4547
(Alkışlar)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
İkinci olarak, kesinliğe değil, uyarlanabilirliğe odaklanmamız gerekiyor.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
YZ için nasıl politika oluşturulacağına dair birçok konuşma,
07:02
get bogged down in fights between, on the one side,
130
422919
2711
bir tarafta “YZ’yi şu anda gerçekten sıkı bir şekilde düzenlemeliyiz
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
çünkü çok riskli” diyen insanlar arasındaki kavgalara boğuluyor.
07:08
because it's so risky."
132
428716
1585
07:10
And on the other side, people saying,
133
430301
1794
Diğer tarafta ise,
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
“Ama düzenleme inovasyonu öldürecek ve bu riskler zaten uydurma” diyenler var.
07:16
But the way I see it,
135
436307
1168
Ama benim gördüğüm kadarıyla
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
bu sadece frene basmak ya da gaza basmak arasında bir seçim değil.
07:20
or hitting the gas.
137
440478
1502
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Beklenmedik dönemeçleri olan bir yolda araba kullanıyorsanız,
07:26
then two things that will help you a lot
139
446275
2503
size çok yardımcı olacak iki şey ön camdan net bir görüşe
07:28
are having a clear view out the windshield
140
448778
2794
07:31
and an excellent steering system.
141
451614
2419
ve mükemmel bir direksiyon sistemine sahip olmaktır.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Yapay zekâda bu, teknolojinin nerede olduğuna ve nereye gittiğine dair
net bir resme sahip olmak ve farklı senaryolarda ne yapılacağına dair
07:39
and where it's going,
143
459080
1627
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
planlara sahip olmak anlamına gelir.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Somut olarak bu, YZ sistemlerinin neler yapabileceğini ölçme yeteneğimize
yatırım yapmak gibi şeyler anlamına gelir.
07:49
what AI systems can do.
146
469132
1877
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Bu kulağa inekçe geliyor ama gerçekten önemli.
07:54
Right now, if we want to figure out
148
474595
2044
Şu anda, bir YZ’nin kritik altyapıyı hacklemek
07:56
whether an AI can do something concerning,
149
476681
2002
veya birini siyasi inançlarını değiştirmeye ikna etmek gibi
07:58
like hack critical infrastructure
150
478725
2377
08:01
or persuade someone to change their political beliefs,
151
481102
4671
ilgili bir şey yapıp yapamayacağını anlamak istiyorsak,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
bunu ölçme yöntemlerimiz ilkeldir.
08:08
We need better.
153
488317
1210
Daha iyisine ihtiyacımız var.
08:10
We should also be requiring AI companies,
154
490319
2545
Ayrıca YZ şirketlerinden,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
özellikle de en gelişmiş YZ sistemlerini inşa eden şirketlerden,
08:16
to share information about what they're building,
156
496367
3170
ne inşa ettikleri, sistemlerinin neler yapabildiği
08:19
what their systems can do
157
499537
1710
ve riskleri nasıl yönettikleri hakkında
08:21
and how they're managing risks.
158
501289
2127
bilgi paylaşmalarını talep etmeliyiz.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Ayrıca, şirketlerin sadece kendi ev ödevlerine not vermemeleri için
çalışmalarını incelemeleri için
harici YZ denetçilerine izin vermek zorunda olmalıdırlar.
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
08:33
(Applause)
161
513801
4213
(Alkışlar)
08:38
A final example of what this can look like
162
518014
2461
Bunun neye benzeyebileceğine dair son bir örnek,
08:40
is setting up incident reporting mechanisms,
163
520475
3503
olay raporlama mekanizmalarının kurulmasıdır;
böylece gerçek dünyada işler ters gittiğinde,
08:44
so that when things do go wrong in the real world,
164
524020
2753
ne olduğuna ve bir dahaki sefere nasıl düzeltebileceğimize dair
08:46
we have a way to collect data on what happened
165
526814
2962
08:49
and how we can fix it next time.
166
529817
2002
veri toplamanın bir yolunu bulabiliriz.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Tıpkı uçak kazaları ve siber saldırılar hakkında topladığımız veriler gibi.
08:57
None of these ideas are mine,
168
537158
1668
Bu fikirlerin hiçbiri bana ait değil
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
ve bazıları Brüksel, Londra ve hatta
Washington gibi yerlerde uygulanmaya başlandı bile.
09:03
London, even Washington.
170
543372
2128
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Ancak bu fikirleri, ölçüm, açıklama,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
olay raporlamayı vurgulamamın nedeni,
bize ön camdan daha net bir görüş sağlayarak
09:12
is that they help us navigate progress in AI
173
552757
2794
09:15
by giving us a clearer view out the windshield.
174
555593
3086
YZ’deki ilerlemeyi yönlendirmemize yardımcı olmalarıdır.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Eğer YZ tehlikeli yönlerde hızla ilerliyorsa,
09:22
these policies will help us see that.
176
562475
2377
bu politikalar bunu görmemize yardımcı olacaktır.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Eğer her şey yolunda gidiyorsa, bunu da bize gösterecekler
09:28
and we can respond accordingly.
178
568981
2211
ve biz de buna göre yanıt verebileceğiz.
09:33
What I want to leave you with
179
573569
1502
Size bırakmak istediğim konu,
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
YZ alanında bir ton belirsizlik
ve anlaşmazlık olduğunun doğru olduğu.
09:39
and disagreement in the field of AI.
181
579742
2961
09:42
And that companies are already building and deploying AI
182
582745
4046
Şirketlerin halihazırda hepimizi etkileyecek şekilde
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
her yerde YZ’yi inşa ettikleri ve kullandıkları.
09:52
Left to their own devices,
184
592004
1544
Kendi hâllerine bırakıldıklarında,
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
YZ şirketleri sosyal medya şirketlerine benzer bir yöne gidebilir,
09:56
to social media companies,
186
596717
1961
kaynaklarının çoğunu web uygulamaları oluşturmaya
09:58
spending most of their resources on building web apps
187
598678
2627
ve kullanıcıların dikkatini çekmeye harcayabilir gibi görünüyor.
10:01
and for users' attention.
188
601305
1836
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
Varsayılan olarak, daha gelişmiş YZ sistemlerinin muazzam gücü,
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
az sayıda şirketin, hatta az sayıda bireyin elinde
yoğunlaşmış olarak kalabilir gibi görünüyor.
10:12
or even a small number of individuals.
191
612567
1918
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Ancak YZ’nin potansiyeli bunun çok ötesine geçiyor.
10:18
AI already lets us leap over language barriers
193
618531
2711
YZ şimdiden dil engellerini aşmamızı
10:21
and predict protein structures.
194
621284
2252
ve protein yapılarını tahmin etmemizi sağlıyor.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Daha gelişmiş sistemler temiz, sınırsız füzyon enerjisinin kilidini açabilir
10:28
or revolutionize how we grow food
196
628082
2503
ya da gıda yetiştirme şeklimizde veya 1000 başka şeyde devrim yaratabilir.
10:30
or 1,000 other things.
197
630626
1835
10:32
And we each have a voice in what happens.
198
632962
2586
Her birimiz ne olacağı konusunda söz sahibiyiz.
10:35
We're not just data sources,
199
635548
2002
Bizler sadece veri kaynakları değiliz,
10:37
we are users,
200
637592
2043
bizler kullanıcıyız,
10:39
we're workers,
201
639635
1502
bizler işçiyiz,
10:41
we're citizens.
202
641137
1209
bizler vatandaşız.
10:43
So as tempting as it might be,
203
643514
2961
Bu nedenle, ne kadar cazip olursa olsun,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
YZ ile ne olmasını istediğimizi anlamak için
10:51
to figure out what we want to happen with AI.
205
651147
3378
netlik veya uzman konsensüsü bekleyemeyiz.
10:54
AI is already happening to us.
206
654525
2586
YZ zaten başımıza geliyor.
10:57
What we can do is put policies in place
207
657737
3211
Yapabileceğimiz şey, bize teknolojinin
11:00
to give us as clear a picture as we can get
208
660948
2670
nasıl değiştiğine dair olabildiğince net bir resim sunacak politikaları
11:03
of how the technology is changing,
209
663618
2460
uygulamaya koymak ve ardından arenaya girip
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
gerçekten istediğimiz gelecekler için bastırmaktır.
11:11
Thank you.
211
671751
1126
Teşekkür ederim.
11:12
(Applause)
212
672919
3378
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7