Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,322 views ・ 2024-06-05

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Seray Türkyılmaz Gözden geçirme: Eren Gokce
00:04
I want to tell you a story
0
4543
1835
Size yapay zekâ ve çiftçiler
00:06
about artificial intelligence and farmers.
1
6419
4171
hakkında bir hikâye anlatmak istiyorum.
00:10
Now, what a strange combination, right?
2
10966
3044
Şimdi, ne garip bir kombinasyon, değil mi?
00:14
Two topics could not sound more different from each other.
3
14010
4088
İki konu birbirinden daha farklı görünemezdi.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Ancak modern çiftçiliğin aslında çok fazla teknoloji içerdiğini biliyor muydunuz?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
Bu nedenle bilgisayar görüşü, mahsul verimini tahmin etmek için kullanılır.
00:27
And artificial intelligence is used to find,
6
27315
2836
Ve yapay zekâ böcekleri bulmak,
00:30
identify and get rid of insects.
7
30151
2878
tanımlamak ve onlardan kurtulmak için kullanılır.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
Tahmine dayalı analitik, kuraklık veya kasırgalar
00:37
like drought or hurricanes.
9
37242
1960
gibi aşırı hava koşullarının anlaşılmasına yardımcı olur.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Ancak bu teknoloji çiftçileri de yabancılaştırıyor.
00:44
And this all came to a head in 2017
11
44291
3003
Ve bunların hepsi 2017 yılında traktör şirketi John Deere
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
ile akıllı traktörleri tanıttıklarında doruğa ulaştı.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Yani o zamandan önce, bir çiftçinin traktörü bozulursa,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
kendileri tamir edebilir veya bir tamirciye götürebilirlerdi.
00:59
Well, the company actually made it illegal
15
59222
2961
Şirket aslında çiftçilerin kendi ekipmanlarını
01:02
for farmers to fix their own equipment.
16
62225
2586
tamir etmelerini yasa dışı hâle getirdi.
01:04
You had to use a licensed technician
17
64811
2836
Lisanslı bir teknisyen kullanmanız gerekiyordu
01:07
and farmers would have to wait for weeks
18
67689
2628
ve çiftçiler mahsulleri çürüyüp zararlılar
01:10
while their crops rot and pests took over.
19
70317
3044
ele geçirene kadar haftalarca beklemek zorunda kalacaktı.
01:14
So they took matters into their own hands.
20
74279
3170
Bu yüzden işleri kendi ellerine aldılar.
01:17
Some of them learned to program,
21
77490
1544
Bazıları programlamayı öğrendi
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
ve kendi sistemlerini onarmak için hackerlarla birlikte çalıştılar.
01:23
In 2022,
23
83997
1418
2022′de
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
dünyanın en büyük hacker konferanslarından biri olan DEFCON’da,
01:29
a hacker named Sick Codes and his team
25
89210
2586
Sick Codes adında bir hacker ve ekibi
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
herkese John Deere traktörüne nasıl girileceğini gösterdi,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
bu her şeyden önce teknolojinin savunmasız olduğunu gösteriyor,
01:38
but also that you can and should own your own equipment.
28
98762
4337
ama aynı zamanda ekipmanınıza sahip olmanız gerekiyor.
01:43
To be clear, this is illegal,
29
103683
2836
Açık olmak gerekirse, bu yasa dışı,
01:46
but there are people trying to change that.
30
106561
2795
ama bunu değiştirmeye çalışan insanlar var.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Şimdi bu harekete “onarım hakkı” denir.
01:53
The right to repair goes something like this.
32
113526
2169
Onarım hakkı böyle bir şeydir.
01:55
If you own a piece of technology,
33
115737
1668
Bir teknolojiye sahipseniz,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
bir traktör, akıllı bir diş fırçası,
01:59
a washing machine,
35
119991
1377
bir çamaşır makinesi olabilir,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
kırılırsa tamir etme hakkına sahip olmalısınız.
02:05
So why am I telling you this story?
37
125246
2253
Öyleyse neden sana bu hikâyeyi anlatıyorum?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
Onarım hakkının yapay zekâya yayılması gerekiyor.
02:14
Now it seems like every week
39
134214
2127
Şimdi her hafta yapay zekâda
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
yeni ve akıllara durgunluk veren bir yenilik var gibi görünüyor.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Ama halkın güveninin gerçekten azaldığını biliyor muydunuz?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Yakın tarihli bir Pew anketi, Amerikalıların teknolojiden
02:29
than they are excited about the technology.
43
149604
2503
heyecan duymaktan ziyade endişeli olduğunu gösterdi.
02:32
This is echoed throughout the world.
44
152148
2211
Bu tüm dünyada yankılanıyor.
02:34
The World Risk Poll shows
45
154401
1418
Dünya Risk Anketi
02:35
that respondents from Central and South America and Africa
46
155860
3462
Orta ve Güney Amerika ve Afrika’dan katılımcıların hepsi
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
yapay zekânın insanlara yarardan çok zarar getireceğini düşündüklerini söyledi.
Bir sosyal bilimci ve bir yapay zekâ geliştiricisi olarak,
02:46
As a social scientist and an AI developer,
48
166287
2503
02:48
this frustrates me.
49
168790
1585
bu beni hayal kırıklığına uğratıyor.
02:50
I'm a tech optimist
50
170417
1293
Ben bir teknoloji iyimseriyim
02:51
because I truly believe this technology can lead to good.
51
171751
4338
çünkü bu teknolojinin iyiye yol açabileceğine gerçekten inanıyorum.
02:56
So what's the disconnect?
52
176464
1919
Peki bağlantı kopması nedir?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Son birkaç yıldır yüzlerce insanla konuştum.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Mimarlar ve bilim adamları, gazeteciler ve fotoğrafçılar,
03:06
ride-share drivers and doctors,
55
186224
1710
araç paylaşım sürücüleri
03:07
and they all say the same thing.
56
187976
2961
ve doktorlar, hepsi aynı şeyi söylüyor.
03:12
People feel like an afterthought.
57
192272
3795
İnsanlar sonradan düşünmüş gibi hissediyorlar.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Hepsi, bu karmaşık sistemleri oluşturmak için izinleri olmadan
03:21
to create these sophisticated systems.
59
201823
2461
verilerinin sık sık toplandığını biliyor.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Bu sistemlerin yaşam fırsatlarını belirlediğini biliyorlar.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Ayrıca kimsenin onlara sistemin nasıl inşa
03:32
how the system should be built,
62
212083
1502
edilmesi gerektiğini sormaya zahmet etmediğini biliyorlar
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
ve bir şeyler ters giderse nereye gideceklerini kesinlikle bilmiyorlar.
03:40
We may not own AI systems,
64
220383
2336
Yapay zekâ sistemlerine sahip olmayabiliriz,
03:42
but they are slowly dominating our lives.
65
222761
2794
ancak yavaş yavaş hayatımıza hâkim oluyorlar.
03:45
We need a better feedback loop
66
225597
1501
Bu sistemleri yapan insanlar ile bu yapay
03:47
between the people who are making these systems,
67
227140
2961
zekâ sistemlerinin kendi dünyalarında
03:50
and the people who are best determined to tell us
68
230101
3337
nasıl etkileşime girmesi gerektiğini bize söylemeye en kararlı insanlar arasında
03:53
how these AI systems should interact in their world.
69
233480
3628
daha iyi bir geri bildirim döngüsüne ihtiyacımız var.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Buna doğru bir adım kırmızı ekip oluşturma adı verilen bir süreçtir.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
Şimdi, kırmızı ekip oluşturma orduda başlatılan bir uygulama
04:04
and it's used in cybersecurity.
72
244866
1919
ve siber güvenlikte kullanılıyor.
04:06
In a traditional red-teaming exercise,
73
246826
2628
Geleneksel bir kırmızı ekip tatbikatında, bir sisteme girmek için
04:09
external experts are brought in to break into a system,
74
249454
3920
harici uzmanlar getirilir,
tıpkı Sick Codes’un traktörlerle yaptığı gibi, ancak yasal.
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
Yani kırmızı takım testi, savunmanızı test etmenin bir yolu olarak
işlev görür ve bir şeyin nerede yanlış gideceğini
04:21
and when you can figure out where something will go wrong,
77
261424
3545
anlayabilirseniz, nasıl düzelteceğinizi anlayabilirsiniz.
04:25
you can figure out how to fix it.
78
265011
3003
Ancak yapay zekâ sistemleri hileli hâle geldiğinde,
04:28
But when AI systems go rogue,
79
268056
2377
bu sadece bir hackerın girmesinden daha fazlasıdır.
04:30
it's more than just a hacker breaking in.
80
270433
2920
Model arızalanabilir veya gerçeği yanlış temsil edebilir.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
Örneğin, çok yakın zamanda bir yapay zekâ sistemi,
04:37
So, for example, not too long ago,
82
277190
2044
04:39
we saw an AI system attempting diversity
83
279234
2627
tarihsel olarak doğru olmayan fotoğraflar göstererek
04:41
by showing historically inaccurate photos.
84
281903
3503
çeşitliliği sağlamaya çalıştı.
Batı tarihi hakkında temel bir anlayışa sahip herkes
04:45
Anybody with a basic understanding of Western history
85
285406
2670
size ne Kurucu Babalar’ın ne de
04:48
could have told you that neither the Founding Fathers
86
288076
2502
Nazi dönemi askerlerinin Siyah olmayacağını söyleyebilirdi.
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
Bu durumda, kim uzman olarak nitelendirilir?
04:54
In that case, who qualifies as an expert?
88
294123
3629
Sen.
04:58
You.
89
298670
1168
Dünyanın her yerinden binlerce insanla büyük ve küçük kırmızı ekip alıştırmaları
05:00
I'm working with thousands of people all around the world
90
300380
2836
üzerinde çalışıyorum ve onlar aracılığıyla
05:03
on large and small red-teaming exercises,
91
303258
2252
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
yapay zekâ modellerinde hatalar bulduk ve düzelttik.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Ayrıca dünyanın en büyük teknoloji şirketlerinden bazılarıyla çalışıyoruz:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic, Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
Ve bu sayede modellerin daha fazla insan için daha iyi çalışmasını sağladık.
İşte öğrendiklerimizin bir kısmı.
05:22
Here's a bit of what we've learned.
96
322277
2168
Londra’daki Royal Society ile birlikte hastalık bilimcileriyle
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
bilimsel yanlış bilgi ve dezenformasyon etkinliği düzenledik.
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
Bu bilim adamlarının bulduğu şey
05:32
What these scientists found
99
332203
1335
YZ modellerinin aslında COVID yanlış bilgisine
05:33
is that AI models actually had a lot of protections
100
333580
2794
karşı çok fazla korumaya sahip olduğudur.
05:36
against COVID misinformation.
101
336416
2294
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Ancak kızamık, kabakulak ve grip gibi diğer hastalıklar için
aynı korumalar geçerli değildi.
05:42
the same protections didn't apply.
103
342297
2460
05:44
We reported these changes,
104
344757
1293
Bu değişiklikleri bildirdik,
05:46
they’re fixed and now we are all better protected
105
346050
3170
düzeltildi ve şimdi hepimiz bilimsel yanlış ve dezenformasyona
05:49
against scientific mis- and disinformation.
106
349220
2670
karşı daha iyi korunuyoruz.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Autodesk Üniversitesi’ndeki mimarlarla gerçekten benzer bir alıştırma yaptık
05:57
and we asked them a simple question:
108
357562
1877
ve onlara basit bir soru sorduk:
05:59
Will AI put them out of a job?
109
359439
2961
Yapay zekâ onları işten çıkaracak mı?
06:02
Or more specifically,
110
362442
2169
Veya daha spesifik olarak,
06:04
could they imagine a modern AI system
111
364611
2043
modern bir sanat müzesinin
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
özelliklerini tasarlayabilecek modern bir YZ sistemi hayal edebilirler mi?
06:10
The answer, resoundingly, was no.
113
370408
3962
Cevap, gürültülü bir şekilde, hayırdı.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
İşte bu yüzden mimarlar bina çizmekten daha fazlasını yapar.
06:18
They have to understand physics and material science.
115
378458
3336
Fizik ve malzeme bilimini anlamaları gerekir.
06:21
They have to know building codes,
116
381836
1585
Bina kodlarını bilmek zorundalar
06:23
and they have to do that
117
383463
1251
ve bunu duygu uyandıran bir şey
06:24
while making something that evokes emotion.
118
384756
2794
yaparken yapmak zorundalar.
06:28
What the architects wanted was an AI system
119
388426
2169
Mimarların istediği şey, onlarla etkileşime
06:30
that interacted with them, that would give them feedback,
120
390595
2753
giren, onlara geri bildirim verecek,
06:33
maybe proactively offer design recommendations.
121
393389
2753
belki proaktif olarak tasarım önerileri sunan bir YZ sistemiydi.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
Ve bugünün YZ sistemleri, henüz tam olarak orada değil.
06:39
But those are technical problems.
123
399854
1752
Ama bunlar teknik problemlerdir.
06:41
People building AI are incredibly smart,
124
401648
2043
Yapay zekâ oluşturan insanlar inanılmaz derecede akıllıdır
06:43
and maybe they could solve all that in a few years.
125
403733
2753
ve belki de tüm bunları birkaç yıl içinde çözebilirler.
06:46
But that wasn't their biggest concern.
126
406527
1961
06:48
Their biggest concern was trust.
127
408529
2795
Ama bu onların en büyük endişesi değildi.
En büyük endişeleri güvendi.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Artık binalarında bir şeyler ters giderse mimarlar sorumludur.
06:56
They could lose their license,
129
416537
1669
Ehliyetlerini kaybedebilirler,
06:58
they could be fined, they could even go to prison.
130
418206
3211
para cezasına çarptırılabilirler, hatta hapse girebilirler.
07:01
And failures can happen in a million different ways.
131
421459
3086
Ve başarısızlıklar milyonlarca farklı şekilde olabilir.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Örneğin, yanlış yoldan açılan, insanların tahliye krizinde ezilmesine
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
yol açan çıkış kapıları
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
veya rüzgâr çok sert estiği ve pencereleri parçaladığı
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
için sokaktaki yayalara kırık cam yağmasına neden olması.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Peki, bir mimar neden işiyle ilgili yapay zekâ sistemine güvenecek,
07:24
with their literal freedom,
137
444273
2670
gerçek özgürlükleriyle,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
eğer bir hata bulduklarında onu düzeltemezlerse?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Bu yüzden bugün bu sorunları çözmemiz gerekiyor ve size nedenini söyleyeceğim.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
Yapay zekâ sistemlerinin bir sonraki dalgası olan ajansal YZ
07:40
is a true tipping point
141
460289
1335
gerçek bir uç noktasıdır,
07:41
between whether or not we retain human agency,
142
461624
4213
insan ajansını koruyup korumayacağımızı belirleyen ya da
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
yapay zekâ sistemlerinin kararlarımızı bizim yerimize yapmasını belirleyen.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Bir yapay zekâ ajanını kişisel bir asistan gibi düşünün.
07:53
So, for example, a medical agent might determine
145
473261
3712
Bu nedenle, örneğin, bir tıbbi ajan ailenizin doktor randevularına ihtiyacı
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
olup olmadığını belirleyebilir,
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
reçeteli ilaçları yeniden doldurabilir veya acil bir durumda
08:03
send medical records to the hospital.
148
483062
2586
tıbbi kayıtları hastaneye gönderebilir.
08:05
But AI agents can't and won't exist
149
485690
2836
Ancak yapay zekâ ajanları tamir etme
08:08
unless we have a true right to repair.
150
488568
2210
hakkımız olmadıkça var olamaz ve olmayacak.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Bazı temel teşhisleri çalıştıramadığınız
08:15
unless you could run some basic diagnostics?
152
495783
2795
sürece hangi ebeveyn çocuklarının sağlığı için bir YZ sistemine güvenir?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Hangi profesyonel, bir iş kararları konusunda bir yapay zekâ sistemine
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
güvenir, onu genç bir çalışan gibi yeniden eğitebilmediğiniz sürece?
08:28
Now, a right to repair might look something like this.
155
508129
2878
Şimdi, tamir hakkı böyle bir şeye benzeyebilir.
08:31
You could have a diagnostics board
156
511007
2210
Tasarladığınız temel testleri
08:33
where you run basic tests that you design,
157
513259
3003
yürüttüğünüz bir tanılama panonuz olabilir
08:36
and if something's wrong, you could report it to the company
158
516304
2836
ve bir sorun varsa, bunu şirkete bildirebilir
08:39
and hear back when it's fixed.
159
519140
1585
ve düzeltildiğinde yanıt alabilirsiniz.
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
Ya da bugün yaptığımız gibi sistemler için yamalar
08:43
who make patches for systems like we do today.
161
523895
2586
yapan etik bilgisayar korsanları gibi üçüncü taraflarla çalışabilirsiniz.
08:46
You can download them and use them to improve your system
162
526481
2711
Bunları indirebilir ve sisteminizi iyileştirmesini
08:49
the way you want it to be improved.
163
529233
1919
istediğiniz şekilde geliştirmek için kullanabilirsiniz.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
Ya da bu cesur çiftçiler gibi olabilir ve kendi sistemlerinizi programlamayı
08:54
and fine-tune your own systems.
165
534864
3003
ve ince ayar yapmayı öğrenebilirsiniz.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
İnsanları geliştirme sürecine nasıl dahil edeceğimizi
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
bulmadıkça yapay zekânın vaat edilen faydalarını elde edemeyiz.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
Kariyerimi sorumlu yapay zekâya adadım
09:11
and in that field we ask the question,
169
551923
3253
ve bu alanda şu soruyu soruyoruz, şirketler
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
insanların yapay zekâya güvenmesini sağlamak için neler inşa edebilir?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
Şimdi, bu kırmızı ekip alıştırmaları sayesinde ve sizinle konuşarak,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
başından beri yanlış soruyu sorduğumuzu fark ettim.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Sormamız gereken şey, insanların yapay zekâyı kendileri için faydalı hâle
09:34
so people can make AI beneficial for them?
174
574529
4045
getirebilmeleri için hangi araçları oluşturabileceğimizdi?
09:39
Technologists can't do it alone.
175
579117
2460
Teknologlar bunu tek başlarına yapamazlar.
09:41
We can only do it with you.
176
581619
2419
Bunu sadece seninle yapabiliriz.
09:44
Thank you.
177
584080
1168
Teşekkür ederim.
09:45
(Applause)
178
585248
2794
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7