How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Çeviri: Nevaz Mescioğlu Gözden geçirme: Figen Ergürbüz
00:12
How many decisions have been made about you today,
1
12875
3768
Sizce sizin hakkınızda kaç karar alınmıştır,
00:16
or this week or this year,
2
16667
2601
bugün, bu hafta veya bu yıl içinde,
00:19
by artificial intelligence?
3
19292
1958
yapay zekâ tarafından?
00:22
I build AI for a living
4
22958
1685
Benim işim yapay zekâ oluşturmak.
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
Yani, daha da açmak gerekirse bir inek öğrenciyim.
00:27
And because I'm kind of a nerd,
6
27708
2393
Bir inek öğrenci olduğum için de
00:30
wherever some new news story comes out
7
30125
2351
ne zaman yapay zekânın iş imkânlarımızı çalması
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
00:35
or robots getting citizenship of an actual country,
9
35958
4185
veya robotların gerçek ülkelerden vatandaşlık alması gibi bir haber çıksa
00:40
I'm the person my friends and followers message
10
40167
3142
arkadaşlarımın ve takipçilerimin gelecek kaygısıyla mesaj attığı kişiyim.
00:43
freaking out about the future.
11
43333
1542
00:45
We see this everywhere.
12
45833
2101
Bunu her yerde görüyoruz.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
Medya, robotlar yönetimi ele geçiriyor diye panik hâlinde.
00:52
We could blame Hollywood for that.
14
52875
1917
Bunun için Hollywood'u suçlayabiliriz.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
Fakat gerçek şu ki odaklanmamız gereken sorun bu değil.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Yapay zekâyla ilgili düzeltmemiz gereken daha büyük bir tehlike var.
01:04
that we need to fix first.
17
64917
1583
01:07
So we are back to this question:
18
67417
2309
Bu yüzden yine şu soruya dönüyoruz:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
Yapay zekâ bugün sizin hakkınızda kaç karar aldı
01:15
And how many of these
20
75792
1976
ve bunlardan kaç tanesinde cinsiyetiniz, milliyetiniz veya geçmişiniz baz alındı?
01:17
were based on your gender, your race or your background?
21
77792
4500
01:24
Algorithms are being used all the time
22
84500
2768
Kim olduğumuz ve ne istediğimizle ilgili kararlar vermek için
01:27
to make decisions about who we are and what we want.
23
87292
3833
algoritmalar her zaman kullanılıyor.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Buradaki kadınların bir kısmı ne demek istediğimi anlıyorlardır.
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
YouTube'da hamilelik testi reklamlarını bin kere sonuna kadar izlediyseniz,
01:39
like 1,000 times.
26
99667
2059
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
Facebook'ta doğum kliniği reklamlarıyla karşılaştıysanız
01:44
on your Facebook feed.
28
104625
2042
veya benim gibi Hint izdivaç servisi reklamlarıyla,
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
ne dediğimi alıyorsunuzdur.
01:50
(Laughter)
30
110042
1267
(Gülüşmeler)
01:51
But AI isn't just being used to make decisions
31
111333
2976
Fakat yapay zekâ sadece hangi ürünleri almak istediğimize
01:54
about what products we want to buy
32
114333
2601
veya hangi diziyi izlemek istediğimize karar vermek için kullanılmıyor.
01:56
or which show we want to binge watch next.
33
116958
2500
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
Şöyle düşünen biriyle ilgili ne düşünürdünüz merak ediyorum:
02:06
"A black or Latino person
35
126250
1934
"Siyahi veya Latin birinin, borcunu zamanında ödeme ihtimali
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
beyaz birine göre daha düşük."
02:13
"A person called John makes a better programmer
37
133542
2809
"John isimli biri, Mary isimli birinden daha iyi programcılık yapar."
02:16
than a person called Mary."
38
136375
1667
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"Siyahi bir adamın suçlu olma olasılığı beyaz bir adamdan daha fazla."
02:26
You're probably thinking,
40
146958
1268
"Ne kadar da cinsiyetçi ve ırkçı biri." diye düşünüyorsunuz, değil mi?
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
Bunlar, yakın bir zamanda yapay zekânın ulaştığı gerçek kararlar.
02:37
based on the biases it has learned from us,
43
157875
2934
Kararların dayanağı ise biz insanlardan öğrendiği ön yargı.
02:40
from the humans.
44
160833
1250
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
Yapay zekâ; iş görüşmenizin başarılı olup olmayacağına,
02:48
how much you pay for your car insurance;
46
168583
2393
trafik sigortasına ne kadar ödeyeceğinize, kredi puanınızın ne kadar iyi olacağına
02:51
how good your credit score is;
47
171000
1893
02:52
and even what rating you get in your annual performance review.
48
172917
3125
ve yıllık performans değerlendirmenizdeki puana karar vermeye yardımcı olur.
02:57
But these decisions are all being filtered through
49
177083
3143
Fakat tüm bu kararlar, yapay zekânın kimliğimiz, ırkımız, cinsiyetimiz
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
ve yaşımız hakkındaki varsayım filtrelerinden geçiyor.
03:08
How is that happening?
51
188250
2268
Peki bu nasıl gerçekleşiyor?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Yapay zekânın, bir işe alım müdürünün
03:14
find the next tech leader in the company.
53
194083
2851
şirketin gelecek liderini bulmasına yardım ettiğini düşünün.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
Şimdiye kadar müdür, çoğunlukla erkekleri işe almış.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
Böylece yapay zekâ, erkeklerin programcı olmalarının
kadınlara göre daha olası olduğunu öğrenir
03:25
And it's a very short leap from there to:
56
205542
2892
ve şu sonuca ulaşması uzun sürmez: "Erkek, kadından daha iyi programcı olur."
03:28
men make better programmers than women.
57
208458
2042
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Kendi ön yargılarımızı yapay zekâya dayatıyoruz
03:35
And now, it's screening out female candidates.
59
215167
3625
ve artık yapay zekâ kadın adayları eliyor.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Bir dakika, eğer işe alım müdürü kadın adayları eleseydi
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
haksızlığa uğramış olurduk, buna izin vermezdik.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
Böyle cinsiyet ayrımcılığı kabul edilemez.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
Ama bir şekilde yapay zekâ, yasaların önüne geçti
03:54
because a machine made the decision.
64
234375
2083
çünkü kararı bir makine aldı.
03:57
That's not it.
65
237833
1518
Hayır, öyle değil.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Yapay zekâyla etkileşimimizde ön yargılarımızı güçlendiriyoruz.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
Siri, Alexa veya Cortana gibi asistanları ne sıklıkta kullanıyorsunuz?
04:10
They all have two things in common:
68
250917
2559
Hepsinin iki ortak özelliği var.
04:13
one, they can never get my name right,
69
253500
3101
Birincisi, ismimi hiçbir zaman doğru söyleyemiyorlar.
04:16
and second, they are all female.
70
256625
2667
İkincisi, hepsi kadın.
04:20
They are designed to be our obedient servants,
71
260417
2767
Bizim itaatkâr hizmetçimiz olmak için tasarlanmışlar;
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
ışığınızı açıp kapatıyor, alışveriş siparişlerinizi veriyorlar.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
Tabii erkek yapay zekâlar da var.
Fakat onlar daha güçlüler, örneğin IBM Watson;
04:30
like IBM Watson, making business decisions,
74
270458
3059
şirketler için kararlar veriyorlar, örneğin Satış Kadrosu Einstein;
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
veya avukatlık yapıyorlar, mesela ROSS.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
Yani zavallı robotlar, onlar bile iş yerinde cinsiyetçilikle karşılaşıyor.
04:42
(Laughter)
77
282292
1125
(Gülüşmeler)
04:44
Think about how these two things combine
78
284542
2851
Bu ikisinin birleşip
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
günümüz yapay zekâ dünyasında büyüyen çocukları nasıl etkilediğini bir düşünün.
04:52
So they're doing some research for a school project
80
292750
2934
Mesela bir okul ödevi için araştırma yapıyorlar,
04:55
and they Google images of CEO.
81
295708
3018
Google'da CEO görsellerine bakıyorlar
04:58
The algorithm shows them results of mostly men.
82
298750
2893
ve algoritma onlara çoğunlukla erkekleri gösteriyor.
05:01
And now, they Google personal assistant.
83
301667
2559
Sonra, kişisel asistan görsellerine bakıyorlar
05:04
As you can guess, it shows them mostly females.
84
304250
3434
ve tahmin ettiğiniz gibi algoritma çoğunlukla kadınları gösteriyor.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
Daha sonra biraz müzik dinlemek veya yiyecek sipariş etmek istiyorlar
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
ve itaatkâr kadın kişisel asistanlarına siparişlerini emrediyorlar.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
En parlak zekâlarımızın bazıları günümüzde bu teknolojiyi üretiyor.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
İstedikleri her türde üretebilecekleri teknolojiyi,
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
1960'ların "Mad Man"daki asistanlar tarzında üretmeyi seçiyorlar.
05:34
Yay!
90
334792
1500
Yaşasın!
05:36
But OK, don't worry,
91
336958
1310
Ama endişelenmeyin,
05:38
this is not going to end with me telling you
92
338292
2059
konuşmamı, cinsiyetçi ve ırkçı makinelerin yönettiği bir dünyaya doğru
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
ilerlediğimizi söyleyerek bitirmeyeceğim.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
İyi haber şu ki
yapay zekâ tümüyle bizim kontrolümüzde.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
Ona, doğru etik değerleri öğretebiliriz.
05:56
So there are three things we can do.
96
356167
2184
Bu konuda yapabileceğimiz üç şey var.
05:58
One, we can be aware of our own biases
97
358375
3351
Birincisi, kendi ön yargılarımızın ve makinelerin ön yargılarının
06:01
and the bias in machines around us.
98
361750
2726
farkında olabiliriz.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
İkincisi, bu teknolojiyi çeşitli grupların ürettiğinden emin olabiliriz.
Üçüncüsü, yapay zekânın öğrenmesi için ona çeşitli tecrübeler sunabiliriz.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
06:14
I can talk about the first two from personal experience.
101
374875
3309
Kişisel tecrübelerime dayanarak ilk ikisi hakkında konuşabilirim.
06:18
When you work in technology
102
378208
1435
Teknolojiyle çalışıyorsanız
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
ve bir Mark Zuckerberg ya da Elon Musk gibi görünmüyorsanız
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
hayatınız biraz zor olur, yetenekleriniz sorgulanır.
06:27
Here's just one example.
105
387875
1393
Bir örnek vereyim.
06:29
Like most developers, I often join online tech forums
106
389292
3726
Çoğu geliştirici gibi ben de sık sık çevrim içi teknoloji forumlarına katılıp
06:33
and share my knowledge to help others.
107
393042
3226
başkalarına yardımcı olmak için bildiklerimi paylaşırım.
06:36
And I've found,
108
396292
1309
Şunu anladım ki kendi fotoğrafım ve kendi ismimle oturum açtığımda
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
06:41
I tend to get questions or comments like this:
110
401625
4601
şu tarz sorular ve yorumlar alıyorum:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"Yapay zekâyla ilgili konuşacak vasıfta olduğunu düşündüren şey ne?"
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"Makine öğrenimi hakkında bilgili olduğunu düşünmeni sağlayan ne?"
06:53
So, as you do, I made a new profile,
113
413958
3435
Sonra, kendime yeni bir profil oluşturdum, kendi fotoğrafım yerine
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
sırtında roket olan bir kedi fotoğrafı koydum
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
ve cinsiyetimi belli etmeyen bir isim seçtim.
07:05
You can probably guess where this is going, right?
116
425917
2726
Bu işin nereye gittiğini tahmin ettiniz değil mi?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
Bu sefer yeteneğim hakkında küçümseyici yorumlar almadım
07:15
and I was able to actually get some work done.
118
435083
3334
ve işe yarar bir şeyler yapabildim.
07:19
And it sucks, guys.
119
439500
1851
Bu berbat bir durum.
07:21
I've been building robots since I was 15,
120
441375
2476
15 yaşından beri robot yapıyorum, birkaç bilgisayar bilimi derecem var
07:23
I have a few degrees in computer science,
121
443875
2268
07:26
and yet, I had to hide my gender
122
446167
2434
ama yine de işimin ciddiye alınması için cinsiyetimi gizlemek zorundayım.
07:28
in order for my work to be taken seriously.
123
448625
2250
07:31
So, what's going on here?
124
451875
1893
Bu ne demek oluyor?
07:33
Are men just better at technology than women?
125
453792
3208
Teknolojide erkekler kadınlardan daha mı iyi?
07:37
Another study found
126
457917
1559
Bir araştırmada, kadın kodlayıcılar benim gibi cinsiyetlerini gizlediklerinde
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
07:44
their code was accepted four percent more than men.
128
464458
3250
kodlarının erkeklere oranla yüzde dört daha fazla kabul edildiği bulunmuş.
07:48
So this is not about the talent.
129
468542
2916
Yani bunun yetenekle ilgisi yok.
07:51
This is about an elitism in AI
130
471958
2893
Bu, bir programcının belirli bir kişi gibi görünmesi gerektiğini söyleyen
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
yapay zekânın elitliği.
07:59
What we really need to do to make AI better
132
479375
3101
Yapay zekâyı geliştirmek için yapmamız gereken şey
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
her türden geçmişe sahip insanları bir araya getirmek.
08:06
We need people who can write and tell stories
134
486542
2559
Yapay zekâ kişilikleri oluşturmamıza yardım edecek hikâyeler yazıp anlatabilen,
08:09
to help us create personalities of AI.
135
489125
2167
08:12
We need people who can solve problems.
136
492208
2042
problem çözebilen, farklı zorluklarla yüzleşebilen,
08:15
We need people who face different challenges
137
495125
3768
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
çözülmesi gereken gerçek sorunların neler olduğunu söyleyebilen
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
ve bu sorunları teknolojinin çözmesi için yöntemler öneren kişilere ihtiyacımız var.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Çünkü çeşitli geçmişe sahip insanlar bir araya geldiğine,
08:33
when we build things in the right way,
141
513583
2143
yapılanı olması gerektiği gibi yaptığında imkânlar sınırsız olur.
08:35
the possibilities are limitless.
142
515750
2042
08:38
And that's what I want to end by talking to you about.
143
518750
3309
İşte bunun hakkında konuşmak istiyorum.
Daha az ırkçı robotlar, işimizi elimizden alacak daha az makine
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
08:46
and more about what technology can actually achieve.
145
526332
3125
ve teknolojinin aslında neler başarabileceği hakkında daha fazla şey.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Yani evet, yapay zekâ dünyasında, teknoloji dünyasında enerjinin bir kısmı
08:53
in the world of technology
147
533750
1393
08:55
is going to be about what ads you see on your stream.
148
535167
4267
yayın akışınızda hangi reklamları gördüğünüzle ilgili olacak.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
Ama birçoğu, dünyayı daha iyi bir yer yapmak için harcanacak.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Demokratik Kongo Cumhuriyeti'nde hamile bir kadın düşünün.
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
Kontrole gitmek için en yakın doğum kliniğine 17 saat yürümek zorunda.
09:13
to get a checkup.
152
553500
1851
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
Bunun yerine telefonundan tanı konulabilseydi?
09:19
Or think about what AI could do
154
559750
1809
Her üç kadından birinin aile içi şiddete maruz kaldığı Güney Afrika'yı
09:21
for those one in three women in South Africa
155
561583
2726
ve yapay zekânın bu kadınlar için yapabileceklerini bir düşünün.
09:24
who face domestic violence.
156
564333
2125
Buna karşı ses çıkarmaları güvenli değilse
09:27
If it wasn't safe to talk out loud,
157
567083
2726
09:29
they could get an AI service to raise alarm,
158
569833
2476
tehlikeye dikkat çekmek ve finansal ve hukuki destek almak için
09:32
get financial and legal advice.
159
572333
2459
bir yapay zekâ hizmeti edinebilirler.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Bunların hepsi ben de dahil insanların, üzerinde çalıştığı gerçek projeler.
09:41
are working on right now, using AI.
161
581000
2500
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
Eminim ki birkaç gün içinde varoluşsal tehlikeyle ilgili
09:49
about the existential risk,
163
589167
2684
veya robotların işlerinizi elinizden alacağı hakkında yeni haberler çıkacak.
09:51
robots taking over and coming for your jobs.
164
591875
2434
09:54
(Laughter)
165
594333
1018
(Gülüşmeler)
09:55
And when something like that happens,
166
595375
2309
Böyle bir şey olduğunda
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
gelecekle ilgili endişelenenlerden yine aynı mesajları alacağım.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
Ama ben teknoloji hakkında son derece olumlu hissediyorum.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Bu, dünyayı çok daha eşit bir yer yapabilmemiz için bir şans.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
Fakat bunu yapabilmek için en temelden itibaren doğru inşa etmemiz gerekiyor.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
Farklı cinsiyet, ırk, cinsel yönelim ve geçmişlerden insana ihtiyacımız var.
10:26
We need women to be the makers
172
626458
2476
Sadece sahibinin emrini yerine getiren kadın makinelere değil
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
üretici olan kadınlara ihtiyacımız var.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Makinelere ne öğrettiğimize ve hangi verileri verdiğimize
10:37
what data we give them,
175
637667
1642
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
çok dikkat etmeliyiz ki geçmiş hatalarımızı tekrarlamasınlar.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Umarım iki şey hakkında düşünerek buradan ayrılırsınız.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
Birincisi, ön yargılar.
Doğum kliniklerine veya bahis sitelerine ilgi duyduğunuzu varsayan
10:53
And that the next time you scroll past an advert
179
653125
3184
10:56
that assumes you are interested in fertility clinics
180
656333
2810
10:59
or online betting websites,
181
659167
2851
bir reklamla karşılaştığınızda umarım düşünüp hatırlarsınız ki
11:02
that you think and remember
182
662042
2017
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
aynı teknoloji, siyahi bir adamın tekrar suç işleyeceğini varsayıyor,
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
bir kadının, kişisel asistan olmasının, CEO olmasından olası olduğunu varsayıyor.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
Umarım bu, size bir şeyler yapmamız gerektiğini hatırlatır.
11:20
And second,
186
680917
1851
İkincisi,
11:22
I hope you think about the fact
187
682792
1892
geleceğimiz için olağanüstü bir güç olacak yapay zekâ oluşturmak için
11:24
that you don't need to look a certain way
188
684708
1976
11:26
or have a certain background in engineering or technology
189
686708
3851
belli bir şekilde görünmenize
11:30
to create AI,
190
690583
1268
veya mühendislik ya da teknoloji geçmişinizin olmasına gerek yok.
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
Mark Zuckerberg gibi görünmenize gerek yok,
11:38
you can look like me.
193
698333
1250
benim gibi görünebilirsiniz.
11:41
And it is up to all of us in this room
194
701250
2893
En uç durumlar da dahil herkes için yapay zekâ oluşturması için
11:44
to convince the governments and the corporations
195
704167
2726
11:46
to build AI technology for everyone,
196
706917
2892
devleti ve şirketleri iknâ etmek
11:49
including the edge cases.
197
709833
2393
11:52
And for us all to get education
198
712250
2059
ve geleceğin olağanüstü teknolojisiyle ilgili eğitim almak hepimizin görevi.
11:54
about this phenomenal technology in the future.
199
714333
2375
11:58
Because if we do that,
200
718167
2017
Çünkü bunu yaptığımızda
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
yapay zekâyla yapabileceklerimizin için ilk adımı atmış olacağız.
12:05
Thank you.
202
725125
1268
Teşekkürler.
12:06
(Applause)
203
726417
2708
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7