Can machines read your emotions? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: behrooz forsati Reviewer: soheila Jafari
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
هر ساله ماشینها در فعالیتهای بیشتری از انسانها پیشی می‌گیرند
00:11
we once thought only we were capable of.
1
11642
3206
که زمانی ما فکر می کردیم تنها خودمان توانایی انجام انها را داریم
00:14
Today's computers can beat us in complex board games,
2
14848
3575
امروزه کامپوترها ما در بازی های سخت
00:18
transcribe speech in dozens of languages,
3
18423
2871
تر جمه سخنذرانی ها به چندین زبان مختلف
00:21
and instantly identify almost any object.
4
21294
3452
و شناسایی فوری تقریبا تمام اجسام شکست میدهند.
00:24
But the robots of tomorrow may go futher
5
24746
2366
در حالیکه ممکن است ربات‌های اینده
00:27
by learning to figure out what we're feeling.
6
27112
3131
با آموختن کشف احساسات ما از این هم پیشتر بروند.
00:30
And why does that matter?
7
30243
2138
ولی چرا این مهم است؟
00:32
Because if machines and the people who run them
8
32381
2292
چون اگرماشینها و کسانی که انها را به کار می‌گیرند
00:34
can accurately read our emotional states,
9
34673
2550
بتوانند احساست ما را بطور دقیقی بخوانند،
00:37
they may be able to assist us or manipulate us
10
37223
2970
ممکن است هم مارا یاری دهند و هم بتوانند در اندازهای
00:40
at unprecedented scales.
11
40193
2909
غیر قابل پیش بینی مارا تحت تاثیر قرار دهند.
00:43
But before we get there,
12
43102
1512
اما قبل ازرسیدن به ان نقطه
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
چطور میتوان چیز چنان پیچیده‌ای چون احساسات را به اعداد
00:49
the only language machines understand?
14
49653
3600
که تنها زبان قابل فهم ماشینهاست تبدبل کرد؟
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
اصولا با همان روشی که مغز ما احساسات را تفسیر میکند،
00:56
by learning how to spot them.
16
56843
2151
یعنی با یاد گرفتن چگونگی تشخیص انها.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
"پائول اکمان "روانشناس امریکایی احساسات مشخصی را بطور جهانی شناسایی کرده که
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
نشانه‌های بصری انها در بین فرهنگ های مختلف بطور یکسان قابل فهم هستند.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
برای مثال تصویر یک لبخند پیام شادی را هم به شهر نشینان مدرن
01:14
and aboriginal tribesmen alike.
20
74193
2772
و هم به مردمان قبیله نشین بومی بطور یکسان می‌رساند.
01:16
And according to Ekman,
21
76965
1129
و بر طبق گفتههای اکمان،
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
خشم،
انزجار،
01:19
fear,
24
79533
742
ترس،
01:20
joy,
25
80275
817
لذت،
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
غم،
و تعحب بطور یکسان قابل شناسایی‌اند.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
چنان که پیداست کامپوترها به سرعت در حال بهتر شدن در تشخیص تصاویر
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
بدلیل یاد گیری الگوریتم هایی مثل شبکه های عصبی هستند.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
که شامل گره های مصنویی که عصبهای بیولوژیکی ما را بوسیله
01:38
by forming connections and exchanging information.
31
98205
3579
شکل دادن اتصالات و ردوبدل کردن اطلاعات تقلید می‌کنند می‌شود.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
جهت منظم کردن شبکه داده‌های نمونه در دسته های مختلف طبقه بندی می‌شوند
01:46
such as photos marked happy or sad,
33
106285
2890
مانند عکس‌هایی که به عنوان شاد یا غمگین نشانه‌گذاری شده اند،
01:49
are fed into the system.
34
109175
2110
به سیستم داده می‌شوند.
01:51
The network then learns to classify those samples
35
111285
2460
سپس سیستم یاد میگیرد که ان نمونه هارا بوسیله تنظیم
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
وزن های همانند به ویژگیهای خاصی طبقه بندی کند
01:58
The more training data it's given,
37
118405
1620
هرچه اطلاعات منظم شده بیشتری داده
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
داه شود الگوریتم در شناختن تصاویر بهتر می‌شود.
02:04
This is similar to our own brains,
39
124795
1732
این شبیه کاری است که مغز ما،
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
در یاد گیری از تجربه های قبلی در شکل دادن به محرک های جدید می‌کند.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
شناسایی الگوریتم‌ها به حالات چهره محدود نمی‌شوند.
02:15
Our emotions manifest in many ways.
42
135466
2420
احساسات ما به روش های مختلفی ظاهر می‌شوند،
02:17
There's body language and vocal tone,
43
137886
2230
مانند زبان بدن و تن صدا
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
تغییردر ضربان قلب یا تغییر چهره و دمای پوست
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
ویا حتی در تعداد تکرار کلمات و یا در ساختار جمله نویسی ما.
02:28
You might think that training neural networks to recognize these
46
148046
3159
ممکن است شما فکر کنید که تعلیم شبکه های عصبی جهت شناسایی این (احساسات)
02:31
would be a long and complicated task
47
151205
2432
کاری طولانی وسخت می‌باشد
02:33
until you realize just how much data is out there,
48
153637
3329
تا زمانی که شما بدانید که چه مقدار اطلاعات وجود دارد
02:36
and how quickly modern computers can process it.
49
156966
3409
و با چه سرعتی کامپوتر های جدید می‌توانند اطلاعات را پردازش کنند.
02:40
From social media posts,
50
160375
1542
از نوشته ها در شبکه های اجتماعی،
02:41
uploaded photos and videos,
51
161917
1669
عکس ها و ویدئوهای بار گذاری شده،
02:43
and phone recordings,
52
163586
1401
و مکالمات تلفنی ظبط شده،
02:44
to heat-sensitive security cameras
53
164987
1780
تا دوربین‌های حفاظتی حرارتی
02:46
and wearables that monitor physiological signs,
54
166767
3670
و پوشیدنی‌هایی که علامات فیزیولوژیکی را رصد می‌کنند،
02:50
the big question is not how to collect enough data,
55
170437
2510
حال سوال این است که چگونه به مقدارکافی اطلاعات جمع کنیم،
02:52
but what we're going to do with it.
56
172947
2308
ویا اینکه ما چه اقداماتی با این ها می‌کنیم.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
استفاده‌های سودمند زیادی برای شناسایی احساسات کامپیوتری وجود دارد.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
رباتها از این الگوریتم ها جهت شناسایی حالات چهره استفاده می‌کنند
03:02
can help children learn
59
182627
1619
ویا می شود درکمک به آموزش کودکان
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
ویا جهت افراد تنها برای فراهم کردن یک حس همراهی استفاده کرد.
03:07
Social media companies are considering using algorithms
61
187636
3001
رسانه های اجتماعی براین باورند که با استفاده از این الگوریتم‌ها بتوانند
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
ازتعداد خوکشی هابوسیله مشخص کردن پست‌هایی که شامل کلمات یا عبارات خاصی هستند بکاهند.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
و نرم افزارهای تخشخیص احساس بتوانند به علاج بیماری های ذهنی کمک کنند
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
ویا بتوانند جلسات روان شناسی ارزانی در اختیار مردم بگذارند.
03:25
Despite the potential benefits,
65
205578
1610
بر خلاف عوایدی که ممکن است باشد،
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
آینده اینکه این شبکه ها بتوانند بطور خود کار عکس‌ها،
03:30
communications,
67
210869
1089
گفتگو ها،
03:31
and physiological signs is also quite disturbing.
68
211958
4919
و یا حالات روانی مارا بکاوند همچنان آزار دهنده است.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
و اینکه چه اثاری برحریم شخصی ما خواهد داشت وقتی که این سیستم های غیر شخصی
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
ازاحساست ما در تبلیغات استفاده کنند؟
03:45
And what becomes of our rights
71
225208
1510
و چه بر سر حق و حقوق ما میاید
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
اگر مسئولان فکر کنند که می توانند افرادی را که ممکن است مرتکب جرمی شوند
03:50
before they even make a conscious decision to act?
73
230737
4190
شناسایی کنند حتی قبل از اینکه انها بطور خود آگاه تصمیم به کاری بگیرند؟
03:54
Robots currently have a long way to go
74
234927
2223
هنوز راه درازی برای رباتها در
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
در شناسایی احساسات ظریفی چون تمسخر
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
و میزان احساست مثل اینکه چقدر فردی خوشحال ویا ناراحت است در پیش است.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
با این وجود ممکن است که انها نهایتا بتوانند احساست ما را بطور دقیقی بخوانند
04:09
and respond to them.
78
249288
1850
و به آن پاسخ دهند.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
اگر ماشینها بتوانند با حس ترس ما از یک تعدی ناخواسته همدلی کنند،
04:15
that's another story.
80
255389
1498
که آن داستان دیگری است.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7