Can machines read your emotions? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Please double-click on the English subtitles below to play the video.

Translator: Ayan Organization Reviewer: Parikhan Ismail
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
لەگەڵ هەموو ساڵێك، ئامێرەکان مرۆڤ سەردەخەن لە چالاکی زیاتر و زیاتر
00:11
we once thought only we were capable of.
1
11642
3206
سەرەتا ئێمە وامان بیر کردەوە تەنها ئێمە توانامان بەسەریاندا هەیە.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
کۆمپیوتەرەکانی ئەمڕۆ دەتوانن لە یاریە ئاڵۆزەکانی سەرمێز بمانبەزێنن،
00:18
transcribe speech in dozens of languages,
3
18423
2871
نووسینەوەی قسە کردنەکان بە دەیان زمان،
00:21
and instantly identify almost any object.
4
21294
3452
و دەستبەجێ ناسینەوەی هەموو شتێك.
00:24
But the robots of tomorrow may go futher
5
24746
2366
بەڵام ڕۆبۆتەکانی داهاتوو ڕەنگە دورتر لەوە بڕۆن
00:27
by learning to figure out what we're feeling.
6
27112
3131
لە ڕێگەی فێربوونی وێناکردنی ئەوەی ئێمە هەست بەچی دەکەین.
00:30
And why does that matter?
7
30243
2138
و بۆچی ئەوە بە گرینگ دادەنرێت؟
00:32
Because if machines and the people who run them
8
32381
2292
چونکە ئەگەر ئامێرەکان و ئەو کەسانەی کە بەڕێوەیان دەبەن
00:34
can accurately read our emotional states,
9
34673
2550
بتوانن بەوردی دۆخی سۆزداری ئێمە بخوێننەوە،
00:37
they may be able to assist us or manipulate us
10
37223
2970
ڕەنگە توانای ئەوەشیان هەبێت کە یارمەتیمان بدەن یاخود بەکارمان بهێنن
00:40
at unprecedented scales.
11
40193
2909
لە تەرازوویەکی بێوێنەدا.
00:43
But before we get there,
12
43102
1512
بەڵام پێش ئەوەی بەوێ بگەین،
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
چۆن شتێکی زۆر ئاڵۆزی وەک هەست و سۆز دەتوانرێت بگۆڕێت بۆ تەنها چەند ژمارەیەك،
00:49
the only language machines understand?
14
49653
3600
کە تاکە زمانە ئامێرەکان لێی تێبگەن؟
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
بە شێوەیەکی بنچینەیی بە هەمان ڕێگە کە مێشکمان لێکدانەوەی سۆز دەکات،
00:56
by learning how to spot them.
16
56843
2151
لە ڕێگەی فێربوونی ئەوەی چۆن چاودرێریان بکەین.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
دەروونناسی ئەمریکی پاوڵ ئێکمان هەستا بە دیاریکردنی هەست و سۆزی جیهانی باوەڕ پێکراو
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
ئەوەی کە دەتوانرێ لە ئاماژە بینراوەکانی تێبگەن بە هەمان رێگەی کەلتورەکان.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
بۆ نموونە، وێنەی زەردەخەنەیەك ئاماژە بێت بۆ دڵخۆشی بۆ دانیشتوانی شارستانیە تازەکان
01:14
and aboriginal tribesmen alike.
20
74193
2772
و بۆ پیاوی هۆزەکانی شوێنێك بە هەمان چەشن.
01:16
And according to Ekman,
21
76965
1129
و بە گوێرەی ئێکمان،
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
توڕەیی،
قێز کردنەوە،
01:19
fear,
24
79533
742
ترس،
01:20
joy,
25
80275
817
شادی،
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
خەمباری،
و سەرسوڕمان بە یەکسانی ناسراوەتەوە.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
وەک ئەوەی دەردەکەوێت، کۆمپیتەرەکان بەخێرایی باشتر دەبن لە ناسینەوەی وێنەکان
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
سوپاس بۆ فێرکردنی ئالگۆریتمی ئامێرەکان، چەند تۆڕێکی زۆر جوڵەیە.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
ئەوە پێکدێت لە گرێی دەستکرد کە لاسایی بایۆلۆجی دەمارەکانمان دەکاتەوە
01:38
by forming connections and exchanging information.
31
98205
3579
بە پێکهێنانی پەیوەندیەکان و ئاڵوگۆڕ کردنی زانیاریەکان.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
بۆ ڕاهێنانی تۆڕ، نموونە تێکراوەکان بۆ چەند پۆلێکی جیاواز پۆلێن دەکرێن،
01:46
such as photos marked happy or sad,
33
106285
2890
وەکو ئەو وێنانەی ئاماژە بە دڵخۆشی و خەمباری دەدەن،
01:49
are fed into the system.
34
109175
2110
دەخرێتە ناو بەرنامەکە.
01:51
The network then learns to classify those samples
35
111285
2460
دواتر تۆڕ فێردەکرێت ئەو نموونانە پۆلێن بکات
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
لە ڕێگەی ڕێکخستنی ڕێژەی کێشی دیاریکراو بۆ تایبەتمەندیە تایبەتەکان.
01:58
The more training data it's given,
37
118405
1620
تا داتای ڕاهێنراوی زیاتر ئامادە بکرێت،
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
ئالگۆریتم باشتر بە تەواوەتی وێنە نوێیەکان دەناسێتەوە.
02:04
This is similar to our own brains,
39
124795
1732
ئەوە چونیەکە بۆ مێشکی خۆمان،
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
کە لە ئەزموونەکانی پێشوو فێربێت بۆ شێوەکردنی چۆنیەتی کارکردنی هاندەرە تازەکان
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
تێگەشتنی ئالگۆریتم تەنها دیاریکراو نییە بۆ دەربڕینی ڕواڵەتی دەموچاو.
02:15
Our emotions manifest in many ways.
42
135466
2420
هەستەکانمان بە چەند ڕێگایەك ئاشکرا دەکرێن.
02:17
There's body language and vocal tone,
43
137886
2230
زمانی جەستە و ئاوازی دەنگی هەیە،
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
گۆڕین لە تێکڕای لێدانەکانی دڵ، و پلەی گەرمای پێست،
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
یان تەنانەت لەرەی دەنگ و پێکهاتەی ڕستەکان لە نووسینەکانمان.
02:28
You might think that training neural networks to recognize these
46
148046
3159
لەوانەیە وابیر بکەیتەوە کە فێرکاری تۆڕە ئاڵۆزەکان بۆ ناسینەوەی ئەوانە
02:31
would be a long and complicated task
47
151205
2432
دەبێتە ئەرکێکی درێژ و ئاڵۆز
02:33
until you realize just how much data is out there,
48
153637
3329
تەنها تا ئەو کاتەی دەزانیت چەند داتا بوونی هەیە،
02:36
and how quickly modern computers can process it.
49
156966
3409
و تا چەند خێرا کۆمپیوتەرە تازەکان دەتوانن ئەرکەکان ئەنجامدەن.
02:40
From social media posts,
50
160375
1542
لە بڵاوکراوەکانی تۆڕە کۆمەڵایەتییەکان،
02:41
uploaded photos and videos,
51
161917
1669
دانانی وێنە و ڤیدیۆکان،
02:43
and phone recordings,
52
163586
1401
و دەنگە تۆمارکراوەکان،
02:44
to heat-sensitive security cameras
53
164987
1780
بۆ پارێزگاری کامێرا بە گەرمی هەستیارەکان
02:46
and wearables that monitor physiological signs,
54
166767
3670
و ئامێرە لەبەرگیراوەکان کە نیشانە فیسیۆلۆجیەکان لەخۆ دەگرن،
02:50
the big question is not how to collect enough data,
55
170437
2510
پرسیارەکە ئەوە نییە کە چۆن داتای پێویست کۆبکەینەوە،
02:52
but what we're going to do with it.
56
172947
2308
بەڵکو ئەوەیە کە ئێمە چی لەگەڵ ئەوە دەکەین.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
بەکارهێنانی زۆر سوودی هەیە بۆ شیکاری کۆمپیوتەری لە تێگەیشتنی هەست و سۆز.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
ڕۆبۆتەکان ئالگۆریتم بەکار دێنن بۆ ناسینەوەی دەربڕینە ڕواڵەتیەکان
03:02
can help children learn
59
182627
1619
دەتوانن یارمەتی منداڵەکان بدەن فێرببن
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
یاخود بۆ پێدانی خەڵکە بێکەسەکان لەگەڵ ژیریەك بۆ هاوڕێیەتی.
03:07
Social media companies are considering using algorithms
61
187636
3001
هاوکارەکانی تۆڕەی کۆمەڵایەتی ڕەچاوی بەکارهێنانی ئالگۆریتم دەکەن
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
بۆ ڕێگری خۆکوژی بە بێهێزکردنی ئەو پەخشانەی کە دەستەواژەی دیاریکراو لە خۆ دەگرن.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
و پڕۆگرامەکانی تێگەشتنی هەستەکان دەتوانێت یارمەتی مامەڵەکردنی شێواوی دەروونی بدات
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
یاخود تەنانەت دەتوانێت چارەسەری دەروونی کەم بەها دابین بکات بۆ کەسەکان.
03:25
Despite the potential benefits,
65
205578
1610
سەڕەڕای سوودە شاراوەکان،
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
،ئەگەری هەیە تۆڕە گەورەکان بە شێوەی خودکار وێنەکانمان بسڕێتەوە،
03:30
communications,
67
210869
1089
گفتوگۆکان،
03:31
and physiological signs is also quite disturbing.
68
211958
4919
و ئاماژە فیسیۆلۆجیەکان تا ڕادەیەك بە شتێکی بێزارکەر دادەنرێت.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
ئەو دەرکەوتنانە چین بۆتایبەتمەندیمان کاتێك وەها سیستەمێکی بابەتی
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
بەکاردێت لە دەزگاکانەوە بۆ چەوساندنەوەی هەست و سۆزمان بەهۆی بڵاو کراوەکان؟
03:45
And what becomes of our rights
71
225208
1510
و چی بەسەر مافەکانمان دێت
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
گەردەسەڵاتدارەکان وابزانن دەتوانن ئەو کەسانە بناسنەوە کە ڕەنگە تاوانیان کردبێت
03:50
before they even make a conscious decision to act?
73
230737
4190
بەر لەوەی تەنانەت بڕیارێکی هۆشدارانە بدات بۆ کردنی؟
03:54
Robots currently have a long way to go
74
234927
2223
ڕۆبۆتەکان لە ئێستادا ڕێگەیەکی درێژیان هەیە بۆ ڕۆشتن
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
لە ناسینەوەی جیاوازیەکانی هەست و سۆز، وەکو گاڵتە پێکردن،
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
و تەرازووی هەست و سۆز، تەنها کەسێک چەند دڵخۆشە یان خەمبارە.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
لەگەڵ ئەوەشدا، ڕەنگە ئەوان لەکۆتاییدا توانایاندا هەبێت بە ووردی هەست و سۆزمان
04:09
and respond to them.
78
249288
1850
بخوێننەوە و وەڵامیان بدەنەوە.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
ئەگەر بتوانن هاوسۆزبن لەگەڵ ترسمان لە خۆ تێهەڵقورتاندنە نەویستراوەکان،هەرچۆنێك ،
04:15
that's another story.
80
255389
1498
ئەوە چیرۆكێکی ترە.
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7