How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Çeviri: Figen Ergürbüz Gözden geçirme: Cihan Ekmekçi
00:13
I consider myself one part artist and one part designer.
1
13760
4680
Kendimi kısmen sanatçı kısmen de tasarımcı olarak görüyorum.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
Bir yapay zekâ araştırma laboratuvarında çalışıyorum.
00:22
We're trying to create technology
3
22720
1696
Uzak gelecekte etkileşime girmek isteyeceğiniz
00:24
that you'll want to interact with in the far future.
4
24440
3296
teknolojiler yaratmaya çalışıyoruz.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
6 ay sonrası değil, yıllar, hatta on yıllar sonrası için.
00:33
And we're taking a moonshot
6
33120
1616
Bilgisayarlarla derinden duygusal etkileşimler kurmak isteyeceğimiz
00:34
that we'll want to be interacting with computers
7
34760
2456
00:37
in deeply emotional ways.
8
37240
2120
çığır açan bir proje üzerinde çalışıyoruz.
00:40
So in order to do that,
9
40280
1456
Bunu yapabilmek için
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
teknoloji yapay olduğu kadar insan da olmalı.
00:46
It has to get you.
11
46920
2256
Sizi yakalamalı.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
Tıpkı en yakın arkadaşınızla gülmekten yerlere yattığınız
00:52
on the floor, cracking up.
13
52560
1936
aranızdaki şakalaşma gibi.
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
Ya da görür görmez anladığınız o hayal kırıklığıyla bakışı.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
Sanatı insan ve makine arasında bağlantı kuran bir köprü olarak görüyorum:
01:07
to figure out what it means to get each other
16
67280
3136
Birbirimizi anlamanın ne anlama geldiğini tam olarak çözmek
01:10
so that we can train AI to get us.
17
70440
2760
ve yapay zekâya bizi anlamayı öğretmek için.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
Bana göre sanat, somut tecrübeleri
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
soyut fikirlere, hislerere, duygulara dönüştürmenin bir yolu.
01:21
And I think it's one of the most human things about us.
20
81800
2600
Sanatın bizim en insani yanlarımızdan biri olduğunu düşünüyorum.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
Biz insanlar karmaşık ve kompleks bir yapıdayız.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
Duygularımız ve hislerimiz adeta sınırsız bir çeşitlilik içinde,
01:31
and to top it off, we're all different.
23
91600
2496
üstüne üstlük hepimiz birbirimizden farklıyız.
01:34
We have different family backgrounds,
24
94120
2296
Farklı ailevi geçmişlere,
01:36
different experiences and different psychologies.
25
96440
3080
farklı tecrübe ve psikolojilere sahibiz.
01:40
And this is what makes life really interesting.
26
100240
2720
Aslında hayatı bu kadar ilginç kılan da bu.
01:43
But this is also what makes working on intelligent technology
27
103440
3496
Ancak akıllı teknolojiler üzerinde çalışmayı
01:46
extremely difficult.
28
106960
1600
aşırı derecede zor kılan da bu.
01:49
And right now, AI research, well,
29
109640
3456
Şimdi yapay zekâ araştırmalarına dönelim,
01:53
it's a bit lopsided on the tech side.
30
113120
2016
işin teknoloji kısmı biraz daha ağır basıyor.
01:55
And that makes a lot of sense.
31
115160
2136
Bu oldukça anlaşılabilir bir durum.
01:57
See, for every qualitative thing about us --
32
117320
2456
Bizimle ilgili nitel olan her şeyi --
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
yani duygusal, dinamik ve öznel taraflarımızı --
02:04
we have to convert it to a quantitative metric:
34
124280
3136
nicel bir ölçüte çevirmek zorundayız:
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
kesin veriler, rakamlar ve bilgisayar koduyla gösterilebilecek bir şeye.
02:13
The issue is, there are many qualitative things
36
133000
3376
Burada asıl mesele, parmağımızla dokunamayacağımız
02:16
that we just can't put our finger on.
37
136400
1960
pek çok nitel şeyin olması.
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
Mesela en sevdiğiniz şarkıyı ilk defa duyduğunuz o anı düşünün.
O sırada ne yapıyordunuz?
02:25
What were you doing?
39
145200
1200
02:28
How did you feel?
40
148000
1200
Ne hissettiniz?
02:30
Did you get goosebumps?
41
150720
1360
Tüyleriniz diken diken oldu mu?
02:33
Or did you get fired up?
42
153240
1640
Ya da şarkı sizi çoşturdu mu?
02:36
Hard to describe, right?
43
156400
1200
Tarifi zor değil mi?
02:38
See, parts of us feel so simple,
44
158800
2096
Bazı yanlarımız çok sıradan olmasına rağmen
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
aslında yüzeyin altında bir yığın karmaşıklık var.
02:44
And translating that complexity to machines
46
164600
2936
Bu karmaşıklığı makinelere aktarmak
02:47
is what makes them modern-day moonshots.
47
167560
2856
bu işi günümüzün çığır açan projeleri yapıyor.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
Bu derin sorulara sadece 1'ler ve 0'larla yanıt bulabileceğimize
02:54
with just ones and zeros alone.
49
174640
1480
ikna olmuş değilim.
02:57
So, in the lab, I've been creating art
50
177120
1936
Bu nedenle laboratuvarda yaptığım şey
02:59
as a way to help me design better experiences
51
179080
2456
henüz gelişmekte olan deneysel teknoloji için
03:01
for bleeding-edge technology.
52
181560
2096
daha iyi deneyimler tasarlamama yardım edecek sanat yaratmak.
03:03
And it's been serving as a catalyst
53
183680
1736
Sanat, bilgisayarların bizimle daha insani şekilde iletişim kurması için
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
bir katalizör işlevi görüyor.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
Sanatla cevaplanması en zor olan bazı sorulara yanıt arıyoruz:
03:12
like what does it really mean to feel?
56
192720
2360
Hissetmek tam olarak ne demektir?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
Nasıl ilişki kuruyoruz ve bu ilişkileri nasıl devam ettiriyoruz ?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
Etkileşim kurma biçimimizi önsezi nasıl etkiliyor?
03:26
So, take for example human emotion.
59
206440
2056
Örneğin insan duygularını ele alalım.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
Şu an bilgisayarlar keyif, üzüntü, öfke, korku ve nefet gibi
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
en temel duygularımızdan anlam çıkarabiliyor,
03:35
by converting those characteristics to math.
62
215520
3000
bu karakteristikleri matematiğe dönüştürüyor.
03:39
But what about the more complex emotions?
63
219400
2536
Peki ya daha karmaşık duygular?
03:41
You know, those emotions
64
221960
1216
Birbirimize tarif ederken bile
03:43
that we have a hard time describing to each other?
65
223200
2376
güçlük çektiğimiz o duygular.
03:45
Like nostalgia.
66
225600
1440
Nostalji gibi.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
Bunu keşfetmek için insanlardan bir anılarını paylaşmalarını isteyen
03:51
that asked people to share a memory,
68
231600
2096
bir sanat eseri, bir deneyim yarattım
03:53
and I teamed up with some data scientists
69
233720
2136
ve birkaç veri bilimciyle bir ekip olarak
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
bu kadar öznel bir duyguyu nasıl matematiksel olarak
03:59
and convert it into something mathematically precise.
71
239480
3200
kesin bir şeye dönüştürebileceğimiz sorusuna çözüm bulmaya çalıştık.
04:03
So, we created what we call a nostalgia score
72
243840
2136
Nostalji skoru dediğimiz şeyi yarattık
04:06
and it's the heart of this installation.
73
246000
2216
ve bu şey bu yazılımın kalbi.
04:08
To do that, the installation asks you to share a story,
74
248240
3056
Bunun için yazılım sizden bir hikâye paylaşmanızı istiyor,
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
ardından bilgisayar bu hikâyeyi daha basit duygular için analiz ederek
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
geçmiş zamana ait ifadeleri kullanma eğiliminizi kontrol ediyor
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
ve ayrıca nostaljiyle ilişkilendirme eğiliminde olduğumuz
04:20
like "home," "childhood" and "the past."
78
260640
3040
''ev'', ''çocukluk'', ''geçmiş'' gibi sözcükleri arıyor.
04:24
It then creates a nostalgia score
79
264760
2056
Ardından hikâyenizin ne kadar nostaljik olduğunu göstermek için
04:26
to indicate how nostalgic your story is.
80
266840
2736
bir nostalji skoru oluşturuyor.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
Skor, yaptığınız katkının somut bir hâl almış
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
bu ışık bazlı modellerin ardındaki itici güç.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
Skor ne kadar yüksekse ton o kadar pembe oluyor.
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
Dünyaya pembe gözlüklerle bakmak gibi.
04:44
So, when you see your score
85
284880
2616
Skorunuzu ve fiziksel gösterimini gördüğünüz zaman
04:47
and the physical representation of it,
86
287520
2656
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
bazen ona katılacak bazen de katılmayacaksınız.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
Bu deneyimin sizi nasıl hissettirdiğini sanki gerçekten anlamış gibi.
04:57
But other times it gets tripped up
89
297400
2216
Ancak bazı zamanlar yanılacak
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
ve onun sizi hiç anlamadığını düşünmenize sebep olacak.
05:02
But the piece really serves to show
91
302680
1896
Ama bu çalışmanın asıl göstermek istediği şey
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
hislerimizi ve duygularımızı birbirimize bile açıklamakta zorlanıyorsak
05:08
how can we teach a computer to make sense of them?
93
308680
2360
bilgisayara bunları anlamlandırmayı nasıl öğretebiliriz?
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
İnsan olmanın daha nesnel olan yanlarını bile tanımlamak güç.
05:15
Like, conversation.
95
315960
1240
Mesela sohbet.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
Daha önce hiç adım adım analiz etmeye çalıştınız mı?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
Arkadaşınızla bir kafede oturduğunuzu,
havadan sudan konuştuğunuzu düşünün.
05:23
and just having small talk.
98
323320
1320
05:25
How do you know when to take a turn?
99
325160
1720
Konuşma sırasının ne zaman bizde olduğunu
05:27
How do you know when to shift topics?
100
327440
1840
ya da konuyu ne zaman değiştireceğimizi nasıl biliyoruz?
05:29
And how do you even know what topics to discuss?
101
329960
2720
Hatta hangi konulardan bahsedeceğimizi nasıl biliyoruz?
05:33
See, most of us don't really think about it,
102
333560
2096
Çoğumuz bunu gerçekten düşünmüyoruz
05:35
because it's almost second nature.
103
335680
1656
çünkü neredeyse bir alışkanlık hâline gelmiş.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
Birini tanıma aşamasında, ilgi alanlarını, nelerden hoşlandığını
05:40
and then we learn what topics we can discuss.
105
340880
2376
ve dolayısıyla onunla konuşabileceğimiz konuları öğreniriz.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
Ama yapay zekâ sistemlerine insanlarla etkileşimi öğretirken
05:46
we have to teach them step by step what to do.
107
346960
2856
onlara yapmaları gerekenleri adım adım öğretmek zorundayız.
05:49
And right now, it feels clunky.
108
349840
3496
Şu anda oldukça hantal ve yavaş.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
Eğer Alexa, Siri veya Google Assistant ile konuşmayı denediyseniz
05:57
you can tell that it or they can still sound cold.
110
357520
4200
hâlâ soğuk bir edayla konuştuklarını fark etmişsinizdir.
06:02
And have you ever gotten annoyed
111
362440
1656
Hiç söylediklerinizi anlamadığı için
06:04
when they didn't understand what you were saying
112
364120
2256
sinir olduğunuz oldu mu?
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
Sadece bir şarkı çalması için şarkının adını 20 kez tekrarlamanız gerekti mi?
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
Tasarımcılar övgüyü hak ediyor, gerçeğe yakın iletişim gerçekten zor.
06:16
And there's a whole branch of sociology,
115
376360
2136
Sosyolojinin bu konuyla ilgilenen ayrı bir alanı var,
06:18
called conversation analysis,
116
378520
1936
sohbet analizi deniyor
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
ve değişik türde konuşmalara ilişkin şablonlar çıkarmaya çalışıyorlar.
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
Müşteri hizmetleri veya danışma, eğitim ve diğerleri.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
Laboratuvarda bir konuşma analistiyle birlikte çalışmalar yapıyorum,
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
yapay zekâ sistemlerimizin daha insansı sohbet edebilmesini sağlamaya çalışıyoruz.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
Bu şekilde telefonunuzdaki bir chatbot
veya arabanızda ses temelli bir sistemle etkileşime geçtiğinizde
06:39
or a voice-based system in the car,
122
399760
1856
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
daha çok insanla konuşur gibi olacak, kulağa soğuk ve tutarsız gelmeyecek.
06:46
So I created a piece of art
124
406360
1336
Bu nedenle biz tasarımcıların
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
yapay zekânın neden hâlâ insan gibi konuşmadığını
06:50
to help us understand, as designers,
126
410560
1976
ve bu konuda neler yapabileceğimizi anlamasına yardım edecek
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
robotik ve donuk konuşmayı çıkaran bir tür sanat yarattım,
06:57
The piece is called Bot to Bot
128
417160
1456
Adı Bot to Bot,
06:58
and it puts one conversational system against another
129
418640
2936
bir konuşma sistemini diğeriyle karşı karşıya getiriyor
07:01
and then exposes it to the general public.
130
421600
2536
ve daha sonra bunu ifşa ediyor.
07:04
And what ends up happening is that you get something
131
424160
2496
İşin sonunda gerçekleşen şey
07:06
that tries to mimic human conversation,
132
426680
1896
insan konuşmasını taklit etmeye çalışan
07:08
but falls short.
133
428600
1896
ama yetersiz kalan bir şey.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
Bazen işe yarıyor,
bazen de yanlış anlama döngüsüne takılıyor.
07:13
loops of misunderstanding.
135
433280
1536
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
Yani botlar arasındaki sohbetler
07:17
grammatically and colloquially,
137
437960
2016
dilbilgisel ve sözcüksel anlamda mantıklı olabilse de
07:20
it can still end up feeling cold and robotic.
138
440000
3216
hâlâ soğuk ve robot gibi bir his uyandırabilir.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
Bütün yanları tamam olsa da bu diyalog ruh bakımından
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
ve bizi biz yapan farklılıklarımız bakımından eksik kalıyor.
07:30
So while it might be grammatically correct
141
450440
2056
Dil bilgisi açısından doğru olmasına
07:32
and uses all the right hashtags and emojis,
142
452520
2656
ve bütün doğru hashtag ve emojileri kullanmasına rağmen
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
yine de sonunda mekanik ve biraz ürkütücü olabiliyor.
07:39
And we call this the uncanny valley.
144
459360
2336
Biz bunu tekinsiz vadi olarak adlandırıyoruz.
07:41
You know, that creepiness factor of tech
145
461720
1936
Teknolojinin insana çok benzer ama biraz tuhaf olduğu
07:43
where it's close to human but just slightly off.
146
463680
2856
o tekin olmayan, ürkütücü his.
07:46
And the piece will start being
147
466560
1456
Bu çalışmanın başlangıcında
07:48
one way that we test for the humanness of a conversation
148
468040
3216
bir sohbetin ne kadar insanı olduğu
07:51
and the parts that get lost in translation.
149
471280
2160
ve çeviride kaybolan kısımlar tek yönlü test edilecek.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
Çeviride kaybolan başka şeyler de var,
07:57
like human intuition.
151
477440
1616
insan sezgisi gibi.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
Şu anda bilgisayarlar daha fazla özerklik kazanıyorlar.
08:01
They can take care of things for us,
153
481880
1736
Bizim için gündelik işler yapıyorlar,
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
tercihlerimize göre evin sıcaklığını ayarlamak,
08:06
and even help us drive on the freeway.
155
486840
2160
hatta otoyolda araba kullanmamıza yardım etmek.
08:09
But there are things that you and I do in person
156
489560
2496
Ancak bizzat yaptığımız bazı şeyleri
08:12
that are really difficult to translate to AI.
157
492080
2760
yapay zekâya aktarmak gerçekten zor.
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
Okuldan veya işten eski bir arkadaşınızı en son gördüğünüz zamanı düşünün.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
Onlarla kucaklaştınız mı yoksa el mi sıkıştınız?
08:24
You probably didn't think twice
160
504800
1496
Ne yapacağınızı muhtemelen düşünmediniz.
08:26
because you've had so many built up experiences
161
506320
2336
Çünkü birbirinizle etkileşim sonucu
08:28
that had you do one or the other.
162
508680
2000
çok fazla birikim ve tecrübeniz var.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
Bir sanatçı olarak bir kişinin önsezilerine
08:34
your unconscious knowing,
164
514920
1416
ve bilinçaltına erişebilmesinin
08:36
is what helps us create amazing things.
165
516360
3056
inanılmaz şeyler yaratmamıza yardım eden şey olduğunu hissediyorum.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
Bilincimizin o soyut, doğrusal olmayan kısmından gelen büyük fikirler
08:43
that is the culmination of all of our experiences.
167
523520
2960
bütün tecrübelerimizin doruk noktasıdır.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
Bilgisayarların bizi anlamasını, yeteneklerimizi güçlendirmesini istiyorsak
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
onları nasıl sezgisel yapacağımızı da düşünmeye başlamalıyız.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
Bu nedenle insan önsezisi gibi bir şeyin
08:59
could be directly translated to artificial intelligence.
171
539560
3456
yapay zekâya nasıl aktarılabileceğini keşfetmek istedim.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
Bilgisayar temelli sezgiyi
fiziksel mekânda inceleyen bir yapıt yarattım.
09:06
in a physical space.
173
546280
1320
09:08
The piece is called Wayfinding,
174
548480
1696
Adı Wayfinding,
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
dört kinetik heykelden oluşan sembolik bir pusula olarak tasarlandı.
09:14
Each one represents a direction,
176
554160
2056
Heykellerden her biri bir yönü temsil etmekte;
09:16
north, east, south and west.
177
556240
2120
kuzey, doğu, güney ve batı.
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
Her bir heykelin üzerinde
09:21
that capture how far away you are from them.
179
561800
2256
onlardan ne kadar uzakta olduğunuzu yakalayan sensörler var.
09:24
And the data that gets collected
180
564080
1816
Toplanan veriler,
09:25
ends up changing the way that sculptures move
181
565920
2136
heykellerin hareket ediş şeklini
09:28
and the direction of the compass.
182
568080
2040
ve pusulanın yönünü değiştiriyor.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
Burada önemli olan bunun siz önünden geçtiğinizde açılan
09:35
that just opens when you walk in front of it.
184
575040
2656
otomatik kapı sensörü gibi çalışmıyor olması.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
Sizin katkınız onun yaşanmış tecrübeler koleksiyonunun yalnızca bir parçası.
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
Bütün bu deneyimler onun hareket etme biçimini etkiliyor.
09:46
So when you walk in front of it,
187
586880
1736
Önünde yürüdüğünüz zaman,
09:48
it starts to use all of the data
188
588640
1976
sergilendiği süre boyunca yakalamış olduğu
09:50
that it's captured throughout its exhibition history --
189
590640
2616
tüm verileri ya da önsezisini kullanmaya başlıyor,
09:53
or its intuition --
190
593280
1816
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
başkalarından öğrendiklerine dayanarak size mekanik şekilde yanıt veriyor.
09:59
And what ends up happening is that as participants
192
599480
2536
Neticede gerçekleşen şey katılımcılar olarak biz
10:02
we start to learn the level of detail that we need
193
602040
2816
hem insanların hem makinaların beklentilerini yönetmek için
10:04
in order to manage expectations
194
604880
2016
ihtiyaç duyduğumuz detay düzeyini
10:06
from both humans and machines.
195
606920
2776
öğrenmeye başlıyoruz.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
Neredeyse önsezimizin bilgisayar tarafından sahnelendiğini görebiliyoruz,
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
zihnimizin gözünde işlemden geçen bütün o verilerin betimlenmesi.
10:17
My hope is that this type of art
198
617560
1656
Umuyorum ki bu tür sanat
10:19
will help us think differently about intuition
199
619240
2416
sezgi ve gelecekte onu yapay zekâya nasıl uygulayacağımızla ilgili
10:21
and how to apply that to AI in the future.
200
621680
2280
farklı düşünmemize yardımcı olacaktır.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
Bunlar bir tasarımcı ve yapay zekâ araştırmacısı olarak
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
sanatı, çalışmalarımı desteklemek için nasıl kullandığıma dair birkaç örnek.
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
Sanatı inovasyonu ileriye taşımak açısından da çok önemli buluyorum.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
Çünkü şu anda yapay zekâ konusunda çok fazla aşırılık var.
10:39
Popular movies show it as this destructive force
205
639480
2816
Popüler filmler onu yıkıcı bir güç olarak gösterirken
10:42
while commercials are showing it as a savior
206
642320
3056
reklamlar onu dünyanın en karmaşık problemlerini çözecek
10:45
to solve some of the world's most complex problems.
207
645400
2936
bir kurtarıcı olarak gösteriyor.
10:48
But regardless of where you stand,
208
648360
2536
Ancak nereden bakarsanız bakın
10:50
it's hard to deny that we're living in a world
209
650920
2176
her saniye daha da dijital hâle gelen
10:53
that's becoming more and more digital by the second.
210
653120
2576
bir dünyada yaşadığımızı inkâr etmek oldukça zor.
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
Hayatlarımız aygıtlar ve akıllı cihazlar etrafında dönüyor.
11:01
And I don't think this will let up any time soon.
212
661400
2320
Bunun yakın bir zamanda son bulacağını da sanmıyorum.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
Başlangıçtan itibaren daha fazla insani özelliği eklemeye çalışıyorum.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
Bir yapay zekâ araştırma sürecine sanatı getirmenin
tam da bunu yapmanın iyi bir yolu olduğunu hissediyorum.
11:13
is a way to do just that.
215
673320
1896
11:15
Thank you.
216
675240
1216
Teşekkür ederim.
11:16
(Applause)
217
676480
2280
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7