Can machines read your emotions? - Kostas Karpouzis

Makineler duygularınızı okuyabiliyor mu? - Kostas Karpouzis

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Makineler duygularınızı okuyabiliyor mu? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Gülsüm Öztürk Gözden geçirme: Yunus ASIK
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Her geçen yıl makineler insanları, daha önce sadece bizim yapabildiğimizi
00:11
we once thought only we were capable of.
1
11642
3206
sandığımız pek çok faaliyette gölgede bırakıyor.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Bugünün bilgisayarları karmaşık masaüstü oyunlarında yenebiliyor,
00:18
transcribe speech in dozens of languages,
3
18423
2871
sayısız dilde konuşma metnini çevirebiliyor
00:21
and instantly identify almost any object.
4
21294
3452
ve hemen hemen her nesneyi anında tanımlayabiliyorlar.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Ancak yarının robotları,
00:27
by learning to figure out what we're feeling.
6
27112
3131
nasıl hissettiğimizi çözerek daha ileri gidebilirler.
00:30
And why does that matter?
7
30243
2138
Ve bu neden önemli?
00:32
Because if machines and the people who run them
8
32381
2292
Çünkü eğer makineler ve onları çalıştıran insanlar
00:34
can accurately read our emotional states,
9
34673
2550
duygusal durumlarımızı doğru olarak okuyabilirlerse,
00:37
they may be able to assist us or manipulate us
10
37223
2970
benzeri görülmemiş şekillerde bize yardımcı olabilir veya
00:40
at unprecedented scales.
11
40193
2909
bizi yönetebilirler.
00:43
But before we get there,
12
43102
1512
Ancak oraya gelmeden önce,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
duygu gibi çok karmaşık bir şey, nasıl sadece dil makinelerinin anlayacağı
00:49
the only language machines understand?
14
49653
3600
önemsiz sayılara dönüştürülebiliyor?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Esasen beyinlerimizin duyguları nasıl ayırt edeceklerini öğrenerek
00:56
by learning how to spot them.
16
56843
2151
yorumladıkları şekilde.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Amerikalı psikolog Paul Ekman, kültürler boyunca görsel ipuçlarının
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
aynı şekilde anlaşıldığı belirli evrensel duyguları tanımladı.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Örneğin, bir gülümseme görüntüsü, modern şehir insanına ve yerli kabilelere
01:14
and aboriginal tribesmen alike.
20
74193
2772
aynı hazzı gönderiyor.
01:16
And according to Ekman,
21
76965
1129
Ekman'a göre,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
öfke,
tiksinti,
01:19
fear,
24
79533
742
korku,
01:20
joy,
25
80275
817
haz,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
üzüntü
ve şaşkınlık eşit derecede tanınabilir.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Görünen o ki, bilgisayarlar görüntü tanımada sinir ağları gibi
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
algoritma öğrenen makineler sayesinde, hızla daha iyiye gidiyorlar.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Bunlar, bağlantılarımızı şekillendirerek ve bilgi değişimi yaparak
01:38
by forming connections and exchanging information.
31
98205
3579
biyolojik nöronlarımızı taklit eden suni ağlar içeriyor.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Ağı eğitmek için, farklı kategorilere ön sınıflandırması yapılmış,
01:46
such as photos marked happy or sad,
33
106285
2890
mutlu ya da üzüntülü olarak işaretlenmiş fotoğraf gibi girdiler,
01:49
are fed into the system.
34
109175
2110
sistem içine beslenirler.
01:51
The network then learns to classify those samples
35
111285
2460
Ağ daha sonra belirli özelliklere görevlendirilmiş
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
ilgili ağırlıkları ayarlayarak bu örnekleri sınıflandırmayı öğrenir.
01:58
The more training data it's given,
37
118405
1620
Ne kadar çok eğitme verisi girilirse,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
algoritma yeni görüntüleri doğru olarak tanımakta o kadar iyi olur.
02:04
This is similar to our own brains,
39
124795
1732
Bu, yeni uyarıcının nasıl işlem göreceğini
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
şekillendirmek için önceki deneyimlerden öğrenen kendi beyinlerimize benzer.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Algoritmaları tanımak sadece yüz ifadeleri ile sınırlı değildir.
02:15
Our emotions manifest in many ways.
42
135466
2420
Duygularımız pek çok yönden açığa çıkıyor.
02:17
There's body language and vocal tone,
43
137886
2230
Beden dili ve ses tonu,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
kalp atışında değişiklik, yüz rengi ve vücut ısısı
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
ya da yazdığımız yazıdaki kelimelerin sıklığı ve cümle yapısı ile.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Sinir ağlarını bunları tanımak için eğitmenin uzun ve karmaşık
02:31
would be a long and complicated task
47
151205
2432
bir görev olduğunu düşünebilirsiniz
02:33
until you realize just how much data is out there,
48
153637
3329
ancak orada ne kadar verinin olduğunu ve
02:36
and how quickly modern computers can process it.
49
156966
3409
modern bilgisayarların ne kadar çabuk işleyebildiğini fark edinceye kadar.
02:40
From social media posts,
50
160375
1542
Sosyal medya yorumlarından,
02:41
uploaded photos and videos,
51
161917
1669
yüklenen fotoğraflar ve videolardan
02:43
and phone recordings,
52
163586
1401
ve telefon kayıtlarından,
02:44
to heat-sensitive security cameras
53
164987
1780
ısıya duyarlı güvenlik kameraları
02:46
and wearables that monitor physiological signs,
54
166767
3670
ve fizyolojik işaretleri gözleyen giysi bilgisayarlara kadar,
02:50
the big question is not how to collect enough data,
55
170437
2510
asıl soru yeterince verinin nasıl toplanacağı değil,
02:52
but what we're going to do with it.
56
172947
2308
onunla ne yapacağımızdır.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Bilgisayarlı duygu tanımanın çok fazla yararlı kullanımları var.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Algoritmaları kullanarak yüz ifadelerini tanımlayan robotlar
03:02
can help children learn
59
182627
1619
çocukların öğrenmelerine yardım edebilir
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
veya yalnız insanlara bir çeşit arkadaşlık sağlayabilirler.
03:07
Social media companies are considering using algorithms
61
187636
3001
Sosyal medya şirketleri, belirli kelime ve tabirleri içeren mesajları işaretleyerek
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
intiharları önlemeye yardım etmek için algoritmaları kullanmayı düşünüyorlar.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Ve duygu tanıma yazılımları ruhsal bozuklukları tedavi etmeye yardım edebilir
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
veya insanlara düşük ücretle otomatik psikoterapi sağlayabilirler.
03:25
Despite the potential benefits,
65
205578
1610
Potansiyel faydalarına rağmen,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
fotoğraflarımızı otomatik olarak tarayan büyük bir ağın olasılığı,
03:30
communications,
67
210869
1089
görüşmeler
03:31
and physiological signs is also quite disturbing.
68
211958
4919
ve fizyolojik işaretler de oldukça rahatsız edici.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Bu tür şahsi olmayan sistemler reklamcılık yoluyla duygularımızı sömüren
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
şirketler tarafından kullanıldığında, mahremiyetimiz için sonuçlar ne olur?
03:45
And what becomes of our rights
71
225208
1510
Ve eğer yetkililer,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
suç işleme potansiyeli olan insanları, hareket etmeye karar vermeden önce
03:50
before they even make a conscious decision to act?
73
230737
4190
belirleyebileceklerini düşünüyorlarsa, bizim haklarımıza ne olacak?
03:54
Robots currently have a long way to go
74
234927
2223
Robotların hâlihazırda, ironi yapmak gibi
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
duygusal nüansları ve birinin ne kadar mutlu ya da üzgün olduğunu
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
gösteren duyguların derecesini ayırt etmekte gidecek çok yolları var.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Yine de, zamanla duygularımızı doğru olarak okuyabilirler
04:09
and respond to them.
78
249288
1850
ve onlara cevap verebilirler.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Ancak, istenmeyen ihlal korkumuzla empati yapıp yapamayacaklarıysa,
04:15
that's another story.
80
255389
1498
başka bir konu.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7