How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Fatih Yürekli Gözden geçirme: Figen Ergürbüz
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Bilgisayarların çevremizdeki dünya ile iletişim kurmasına yardım etmek
00:17
There are a lot of ways to do this,
1
17754
1793
üzerine çalışıyorum ve bunu yapmanın birçok yolu var
00:19
and I like to focus on helping computers
2
19571
2592
ben bilgisayarlara gördükleri ve anladıkları hakkında konuşmaları için
00:22
to talk about what they see and understand.
3
22187
2874
yardım etme üzerine odaklanmayı tercih ettim.
00:25
Given a scene like this,
4
25514
1571
Böyle bir sahneyi göz önüne alın,
00:27
a modern computer-vision algorithm
5
27109
1905
modern bilgisayar-vizyonu algoritması
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
burada bir kadın var ve bir köpek var diyebilir.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Kadının gülümsediğini size söyleyebilir.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Hatta köpeğin inanılmaz bir şekilde sevimli olduğunu söyleyebilir.
00:38
I work on this problem
9
38784
1349
Benim üzerinde çalıştığım problem yapay zekânın insanların dünyayı
00:40
thinking about how humans understand and process the world.
10
40157
4212
nasıl anladığını ve nasıl değerlendirdiğini düşünmesi.
00:45
The thoughts, memories and stories
11
45577
2952
Düşünceler, anılar ve hikâyeler.
00:48
that a scene like this might evoke for humans.
12
48553
2818
bu gibi sahneler insanlara hatırlatılabilir.
00:51
All the interconnections of related situations.
13
51395
4285
İlgili durumların tüm bağlantıları.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Belki de daha önce bunun gibi bir köpek görmüşsünüzdür
00:58
or you've spent time running on a beach like this one,
15
58854
2969
veya bunun gibi sahilde koşarak zaman geçirmişsinizdir
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
ve ayrıca eski bir tatile ait anı ve düşünceleri anımsatmaktadır,
01:06
past times to the beach,
17
66649
1920
sahildeki geçmiş zamanlar,
01:08
times spent running around with other dogs.
18
68593
2603
başka köpeklerle beraber etrafta beraber koşarak geçen zamanlar.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Bana ışık tutan prensiplerimden bir tanesi de bu tecrübeye sahip olmanın
nasıl bir şey olduğunu bilgisayarın anlamasını sağlarsak
01:16
what it's like to have these experiences,
20
76919
2896
01:19
to understand what we share and believe and feel,
21
79839
5176
ne paylaştığımızı, neye inandığımızı ve ne hissettiğimizi anlamasını sağlarsak
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
bilgisayar teknolojisini bizim tecrübelerimizle uyumlu bir şekilde
01:30
in a way that's complementary with our own experiences.
23
90428
4587
geliştirmeye başlamak için harika bir yerdeyiz demektir.
01:35
So, digging more deeply into this,
24
95539
3387
Bu nedenle, bunu daha derinlemesine araştırırken,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
birkaç yıl önce bir dizi fotoğraftan bilgisayarların insan benzeri hikâyeler
üretmesine yardımcı olmak üzere çalışmaya başladım.
01:44
from sequences of images.
26
104879
1666
01:47
So, one day,
27
107427
1904
Ve bir gün,
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
bilgisayarımla Avustralya gezisi hakkında ne düşündüğünü sormak için çalışıyordum.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Resme baktı ve bir koala gördü.
01:58
It didn't know what the koala was,
30
118236
1643
Koala'nın ne olduğunu bilmiyor
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
fakat ilginç görünümlü bir yaratık olduğunu düşündüğünü söyledi.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Ardından onunla bir dizi yanan ev resmi paylaştım.
02:09
It took a look at the images and it said,
33
129704
3285
Resimlere baktı ve dedi ki,
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
" Bu hayret verici bir görüntü, bu olağanüstü."
02:17
It sent chills down my spine.
35
137450
2095
Ürperdim.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
O korkunç, hayatı değiştiren ve hayatı yok eden olay gördü
02:25
and thought it was something positive.
37
145579
2382
ve bir şeylerin olumlu olduğunu düşündü.
02:27
I realized that it recognized the contrast,
38
147985
3441
Bence, kırmızı sarı zıtlığını
02:31
the reds, the yellows,
39
151450
2699
algıladı
02:34
and thought it was something worth remarking on positively.
40
154173
3078
ve olumlu bakmaya değer bir şey olarak düşündü.
02:37
And part of why it was doing this
41
157928
1615
Ve kısmen bunu yapmasının nedeni
02:39
was because most of the images I had given it
42
159577
2945
ona vermiş olduğum resimlerin çoğunluğunun
02:42
were positive images.
43
162546
1840
olumlu görüntüler olmasıydı.
02:44
That's because people tend to share positive images
44
164903
3658
Bunun nedeni insanlar kendi tecrübelerinden bahsederken
02:48
when they talk about their experiences.
45
168585
2190
olumlu resimleri paylaşmaya meyillidirler.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
En son ne zaman cenaze töreninde paylaşılan bir selfie gödünüz?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Anladım ki yapay zekâyı geliştirmek üzere çalışıyorken
02:58
task by task, dataset by dataset,
48
178553
3714
görevden göreve, veri setinden veri setine,
03:02
that I was creating massive gaps,
49
182291
2897
çok büyük boşluklar,
03:05
holes and blind spots in what it could understand.
50
185212
3999
delikler ve onun anlayabileceği kör noktalar yaratıyordum.
03:10
And while doing so,
51
190307
1334
Ve bunu yaparken,
03:11
I was encoding all kinds of biases.
52
191665
2483
her türlü ön yargıyı kodluyordum.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Kısıtlı bir bakış açısını yansıtan ön yargılar,
03:18
limited to a single dataset --
54
198371
2261
tek veri seti ile sınırlanmış--
03:21
biases that can reflect human biases found in the data,
55
201283
3858
insan ön yargılarını yansıtabilen ön yargılar verilerde de bulunur,
03:25
such as prejudice and stereotyping.
56
205165
3104
ön yargı ve basma kalıp düşünceler gibi.
03:29
I thought back to the evolution of the technology
57
209554
3057
Beni o gün olduğum yere getiren teknolojinin
03:32
that brought me to where I was that day --
58
212635
2502
evrimini düşündüm--
03:35
how the first color images
59
215966
2233
ilk renkli resmin nasıl
03:38
were calibrated against a white woman's skin,
60
218223
3048
beyaz kadının tenine uyarlandığını
03:41
meaning that color photography was biased against black faces.
61
221665
4145
renkli fotoğrafçılığın siyah yüzlere karşı ön yargılı olduğu anlamına geliyordu.
03:46
And that same bias, that same blind spot
62
226514
2925
Ve bu benzer ön yargı, bu aynı kör nokta
03:49
continued well into the '90s.
63
229463
1867
90'larda da devam etti.
03:51
And the same blind spot continues even today
64
231701
3154
Hatta aynı kör nokta yüz tanıma teknolojisinde farklı insanların
03:54
in how well we can recognize different people's faces
65
234879
3698
yüzlerini ne kadar iyi tanıdığımız konusunda
03:58
in facial recognition technology.
66
238601
2200
bugün de devam etmektedir.
04:01
I though about the state of the art in research today,
67
241323
3143
Bugünkü araştırmalardaki gelişmişlik seviyesini düşündüm, kendi düşüncemizi
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
bir veri setinde ve bir problemde sınırlamaya meyilli olduğumuz yerde.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
Ve bunu yaparken, yapay zekânın daha fazla büyüteceği
birçok kör nokta ve ön yargı yarattım.
04:14
that the AI could further amplify.
70
254593
2277
04:17
I realized then that we had to think deeply
71
257712
2079
Ardından anladım ki, bugün üzerinde çalıştığımız teknolojinin
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
beş yıl içresinde, 10 yıl içerisinde nasıl görüneceğini derinlemesine düşünmeliydik.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
İnsan zamanla insanlarla ve çevresiyle etkileşimindeki
04:29
in the interaction of humans and their environment.
74
269156
3534
meseleleri düzelterek yavaş yavaş evrimleşir.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Aksine, yapay zekâ inanılmaz bir hızla evrimleşmektedir.
04:39
And that means that it really matters
76
279013
1773
Ve bu şu anlama gelir, bu hemen şimdi
04:40
that we think about this carefully right now --
77
280810
2317
dikkatli bir şekilde düşünmemiz gereken bir konudur --
04:44
that we reflect on our own blind spots,
78
284180
3008
ki biz bunun üzerine kendi kör noktamızı
04:47
our own biases,
79
287212
2317
kendi ön yargılarımızı yansıtıyoruz
04:49
and think about how that's informing the technology we're creating
80
289553
3857
ve bu bilgi teknolojilerini nasıl yarattığımız hakkında düşünmeliyiz
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
ve bugünün teknolojisinin yarın için ne ifade edeceğini tartışmalıyız.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
CEO'lar ve bilim insanları geleceğin yapay zekâ teknolojilerinin
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
ne olacağını düşünmek üzerine ağırlıklarını koydular.
05:05
Stephen Hawking warns that
84
305157
1618
Stephen Hawking,
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"Yapay zekâ insanların sonu olabilir" uyarısını yaptı.
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Elon Musk, bunun bir varoluşsal risk olduğu ve toplum olarak
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
karşı karşıya olduğumuz en büyük risklerden biri olduğu konusunda uyardı.
05:17
Bill Gates has made the point,
88
317665
1452
Bill Gates bir noktaya işaret etti;
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"İnsanların niçin daha fazla alakadar olmadığını anlamıyorum."
05:23
But these views --
90
323412
1318
Fakat bu görüşler--
05:25
they're part of the story.
91
325618
1734
hikâyenin sadece bir bölümü.
05:28
The math, the models,
92
328079
2420
Matematik, modeller
05:30
the basic building blocks of artificial intelligence
93
330523
3070
yapay zekânın temel yapı taşları
05:33
are something that we call access and all work with.
94
333617
3135
erişim olarak tanımladığımız ve bununla alakadar şeylerdir.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Machine Learning ve katkıda bulunduğumuz zekâ için
açık kaynak araçlarına sahibiz.
05:40
that we can contribute to.
96
340585
1734
05:42
And beyond that, we can share our experience.
97
342919
3340
Ve bunun ötesinde, tecrübelerimizi paylaşabiliyoruz.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Tecrübelerimizi teknolojiyle paylaşabiliyoruz ve bizi nasıl
05:50
and how it excites us.
99
350252
1467
alakadar ettiği bizi nasıl cezbettiği
05:52
We can discuss what we love.
100
352251
1867
Neyi sevdiğimizi tartışabiliriz.
05:55
We can communicate with foresight
101
355244
2031
Daha faydalı olabilecek veya zamanla
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
daha sorunlu olabilecek teknolojinin görünümleri hakkında
06:02
or could be more problematic over time.
103
362180
2600
ön görü ile iletişim kurabiliriz.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Eğer geleceğe yönelik öngörü ile beraber yapay zekâ üzerine tartışma
06:09
with foresight towards the future,
105
369966
1809
açmak üzerine odaklanırsak
06:13
this will help create a general conversation and awareness
106
373093
4270
bu şimdi yapay zekânın ne olduğu,
06:17
about what AI is now,
107
377387
2513
ne olabileceği
ve bize en uygun sonucu mümkün kılması için
06:21
what it can become
108
381212
2001
06:23
and all the things that we need to do
109
383237
1785
yapmamız gereken her şey hakkında
06:25
in order to enable that outcome that best suits us.
110
385046
3753
genel bir tartışma ve farkındalık yaratmamıza yardım edecektir.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Bunu bugün kullandığımız teknolojide zaten gördük ve anladık.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Akıllı telefon, dijital asistan ve Roombas kullanıyoruz.
06:38
Are they evil?
113
398457
1150
Bunlar kötü mü?
06:40
Maybe sometimes.
114
400268
1547
Belki bazen.
06:42
Are they beneficial?
115
402664
1333
Faydalı mı?
06:45
Yes, they're that, too.
116
405005
1533
Evet, ayrıca faydalı.
06:48
And they're not all the same.
117
408236
1761
Ve bunların hepsi aynı değil.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
Ve burada geleceğin getireceklerinin ışığını şimdiden görüyorsun.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Gelecek şimdi yarattığımız ve inşa ettiğimiz şeyden devam ediyor.
06:59
We set into motion that domino effect
120
419165
2642
Yapay zekânın evrimsel yolunu açan
07:01
that carves out AI's evolutionary path.
121
421831
2600
domino etkisi yaratan hareketi başlattık.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
Bizim zamanımızda şimdi, yarının yapay zekâsını şekillendiriyoruz.
07:08
Technology that immerses us in augmented realities
123
428566
3699
Bizi artırılmış gerçekliğin içine daldıran teknoloji
07:12
bringing to life past worlds.
124
432289
2566
geçmiş dünyaları canlandırıyor.
07:15
Technology that helps people to share their experiences
125
435844
4312
İrtibat kurmakta zorluk çektiklerinde kendi tecrübelerini paylaşmalarında
07:20
when they have difficulty communicating.
126
440180
2262
insanlara yardımcı olan teknoloji.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
Akan görsel dünyaları anlamak üzerine inşa edilmiş olan teknoloji
sürücüsüz arabalarda kullanıyor.
07:27
used as technology for self-driving cars.
128
447879
3079
07:32
Technology built on understanding images and generating language,
129
452490
3413
Resimleri anlama ve dil üretmeyi anlama üzerine inşa edilmiş olan teknoloji
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
görme engelli insanların görsel dünyaya daha iyi ulaşmalarına
07:40
be better able to access the visual world.
131
460014
2800
yardım eden teknolojiye evriliyor.
07:42
And we also see how technology can lead to problems.
132
462838
3261
Aynı zamanda teknolojinin nasıl sorunlara yol açabileceğini de görüyoruz.
07:46
We have technology today
133
466885
1428
Bugün, ten rengimiz veya yüzümüzün görüntüsü gibi doğuştan gelen
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
fiziksel özelliklerimizi analiz ederek
07:52
such as the color of our skin or the look of our face --
135
472196
3272
bizim suçlu veya terörist olma ya da olmama ihtimalimizi belirlemek için
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
kullanan teknolojilere sahibiz.
07:59
We have technology that crunches through our data,
137
479688
2905
Kredi alıp alamayacağımıza karar vermek için verilerimizi
08:02
even data relating to our gender or our race,
138
482617
2896
hatta cinsiyetimiz veya ırkımızla ilgili verileri kullanarak
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
hesaplamalar yapan bir teknolojiye sahibiz.
08:09
All that we see now
140
489494
1579
Şimdi gördüğümüz her şey
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
yapay zekânın evriminde anlık bir görüntüdür.
08:15
Because where we are right now,
142
495763
1778
Çünkü şimdi olduğumuz yer
08:17
is within a moment of that evolution.
143
497565
2238
bu evrimin içinde kısa bir an.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Bunun anlamı, şu anda yaptığımız şey gelecekte olacak
08:24
and in the future.
145
504516
1200
şeyleri etkileyecektir.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Eğer yapay zekânın insanlığa yardım etme yolunda evrimleşmesini istiyorsak
08:30
then we need to define the goals and strategies
147
510038
2801
bize bu yolu sağlayacak hedef ve stratejileri belirlemeye
08:32
that enable that path now.
148
512863
1733
ihtiyacımız var.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Görmek istediğim şey
insanlar ile, bizim kültürümüz ve çevremiz ile uyumlu bir şeylerdir.
08:39
with our culture and with the environment.
150
519442
2800
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Hayatı herkes için eşit derecede zorlayıcı yapmak için
08:47
or other disabilities
152
527943
1721
nörolojik hastalıkları olanlar
08:49
in order to make life equally challenging for everyone.
153
529688
3216
ya da diğer engelli olanlarımıza yardımcı ve destekleyici olacak teknoloji.
08:54
Technology that works
154
534097
1421
Demografik yapı veya
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
ten rengine bakmaksızın çalışan teknoloji.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Ve bugün, odaklandığım şey gelecek için, bundan 10 yıl sonrası için
09:05
and for 10 years from now.
157
545149
1733
teknoloji.
09:08
AI can turn out in many different ways.
158
548530
2634
Yapay zekâ farklı şekillerde ortaya çıkabilir.
09:11
But in this case,
159
551688
1225
Fakat bu durumda,
09:12
it isn't a self-driving car without any destination.
160
552937
3328
varış noktası olmayan bir sürücüsüz araba değildir.
09:16
This is the car that we are driving.
161
556884
2400
Burada bizim sürdüğümüz bir araba vardır.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Ne zaman hızlanacağını veya yavaşlayacağını biz seçeriz.
09:23
We choose if we need to make a turn.
163
563572
2400
Dönüş yapmamız gerekiyorsa biz seçeriz.
09:26
We choose what the AI of the future will be.
164
566868
3000
Gelecekteki yapay zekânın ne olacağını biz belirleriz.
09:31
There's a vast playing field
165
571186
1337
Yapay zekânın olabileceği
09:32
of all the things that artificial intelligence can become.
166
572547
2965
her şeyin geniş oyun alanları vardır.
09:36
It will become many things.
167
576064
1800
Birçok şey olacaktır.
09:39
And it's up to us now,
168
579694
1732
Ve şimdi bu bize kaldı,
09:41
in order to figure out what we need to put in place
169
581450
3061
bunu halletmek adına
yapay zekanın sonuçlarından emin olmak için
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
09:48
are the ones that will be better for all of us.
171
588366
3066
yerine koymamız gereken şey hepimiz için daha iyi olanlardır.
09:51
Thank you.
172
591456
1150
Teşekkür ederim.
09:52
(Applause)
173
592630
2187
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7