Can machines read your emotions? - Kostas Karpouzis

هل بمقدور الآلات قراءة عواطفكم؟ - كوستاس كاربوزيس

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

هل بمقدور الآلات قراءة عواطفكم؟ - كوستاس كاربوزيس

334,937 views ・ 2016-11-29

TED-Ed


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Noha A.H المدقّق: Allam Zedan
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
لا يمر عام إلا وتتفوق الآلات على البشر في المزيد والمزيد من الأنشطة
00:11
we once thought only we were capable of.
1
11642
3206
التي اعتقدنا يومًا أننا فقط من يملك القدرة على القيام بها.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
باستطاعة الحواسيب الحديثة التغلب علينا في ألعاب الطاولة المعقدة،
00:18
transcribe speech in dozens of languages,
3
18423
2871
نسخ الأحاديث بعشرات اللغات،
00:21
and instantly identify almost any object.
4
21294
3452
والتعرف بشكل فوري تقريبًا على أي شيء.
00:24
But the robots of tomorrow may go futher
5
24746
2366
غير أن روبوتات المستقبل ربما تذهب لأبعد من هذا
00:27
by learning to figure out what we're feeling.
6
27112
3131
بتعلمها اكتشاف ما نشعر به.
00:30
And why does that matter?
7
30243
2138
ولماذا يعد هذا ذو أهمية؟
00:32
Because if machines and the people who run them
8
32381
2292
لأن الآلات والأشخاص الذين يشغلونها
00:34
can accurately read our emotional states,
9
34673
2550
لو كانوا يستطيعون قراءة حالاتنا العاطفية بدقة،
00:37
they may be able to assist us or manipulate us
10
37223
2970
فإنه من المحتمل أن يقدروا على دعمنا أو التلاعب بنا
00:40
at unprecedented scales.
11
40193
2909
على مستويات لم يسبق لها مثيل.
00:43
But before we get there,
12
43102
1512
لكن قبل أن نصل إلى هناك،
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
كيف يمكن لشيء معقد مثل المشاعر أن يتحول لمجرد أرقام،
00:49
the only language machines understand?
14
49653
3600
وهي اللغة الوحيدة التي تستوعبها الآلات؟
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
بشكل أساسي فإنها نفس الطريقة التي يترجم بها دماغنا المشاعر،
00:56
by learning how to spot them.
16
56843
2151
من خلال تعلم كيفية استكشافها.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
العالم النفسي بول إيكمان قام بتحديد مشاعر معينة في العالم
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
والتي يمكن فهم ملامحها المرئية بنفس الطريقة عبر الثقافات.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
فمثلًا، صورة الابتسامة تشير إلى الفرح بالنسبة لساكني المناطق المتحضرة الحديثة
01:14
and aboriginal tribesmen alike.
20
74193
2772
ورجال قبائل السكان الأصليين على حد سواء.
01:16
And according to Ekman,
21
76965
1129
وبالنسبة لإيكمان، فإنّ مشاعر
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
الغضب،
الاشمئزاز،
01:19
fear,
24
79533
742
الخوف،
01:20
joy,
25
80275
817
الفرح،
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
الحزن،
و الاندهاش يمكن تمييزها على حد سواء.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
وكما تبيّن لاحقًا، فإن أجهزة الكمبيوتر تصبح أفضل في التعرف على الصور
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
بفضل خوارزميات تعلم الآلة، مثل الشبكات العصبية،
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
والتي تحتوي على عقد اصطناعية تحاكي الخلايا العصبية البيولوجية لدينا
01:38
by forming connections and exchanging information.
31
98205
3579
من خلال تشكيل اتصالات وتبادل معلومات.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
لتدريب الشبكة، نموذج مدخلات والذي تم تصنيفه سابقًا لفئات مختلفة،
01:46
such as photos marked happy or sad,
33
106285
2890
مثل صور تبرز ملامح السعادة أو الحزن،
01:49
are fed into the system.
34
109175
2110
يتم إدخاله للنظام.
01:51
The network then learns to classify those samples
35
111285
2460
ومن ثم تتعلم الشبكة تصنيف هذه النماذج
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
بضبط الأوزان النسبية المخصّصة لملامح محددة.
01:58
The more training data it's given,
37
118405
1620
كلما زاد التدريب على البيانات،
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
كلما أصبحت الخوارزميات أفضل في التعرف بشكل صحيح على الصور الجديدة.
02:04
This is similar to our own brains,
39
124795
1732
هذا مشابه لدماغنا،
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
والذي يتعلم من التجارب السابقة تطوير كيفية معالجة المحفزات الحديثة.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
التعرف على الخوارزميات لا يقتصر فقط على تعابير الوجه.
02:15
Our emotions manifest in many ways.
42
135466
2420
تظهر عواطفنا بطرق عديدة.
02:17
There's body language and vocal tone,
43
137886
2230
هناك لغة الجسد ونغمة الصوت،
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
تغيرات في معدل نبضات القلب، لون البشرة، ودرجة حرارة الجسم،
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
أو حتى معدل تكرار الكلمة وهيكل بناء الجملة في كتاباتنا.
02:28
You might think that training neural networks to recognize these
46
148046
3159
قد تعتقد أن تدريب الشبكات العصبية للتعرف على هذه الأشياء
02:31
would be a long and complicated task
47
151205
2432
سوف يكون مهمة طويلة ومعقدة
02:33
until you realize just how much data is out there,
48
153637
3329
حتى تدرك تمامًا كمية البيانات الموجودة هنالك،
02:36
and how quickly modern computers can process it.
49
156966
3409
وكيف يمكن لأجهزة الحاسوب الحديثة معالجتها سريعًا.
02:40
From social media posts,
50
160375
1542
من منشورات على شبكات التواصل الاجتماعي
02:41
uploaded photos and videos,
51
161917
1669
الصور والفيديوهات المحمّلة،
02:43
and phone recordings,
52
163586
1401
وتسجيلات الهاتف،
02:44
to heat-sensitive security cameras
53
164987
1780
إلى الكاميرات الأمنية الحساسة للحرارة
02:46
and wearables that monitor physiological signs,
54
166767
3670
والأجهزة القابلة للارتداء لرصد الإشارات الفسيولوجية،
02:50
the big question is not how to collect enough data,
55
170437
2510
السؤال الكبير هو ليس عن طريقة جمع بيانات كافية،
02:52
but what we're going to do with it.
56
172947
2308
لكن ما الذي سنفعله بهذه البيانات.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
يوجد الكثير من الاستخدامات المفيدة لعملية تعرف الكمبيوتر على العواطف.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
استخدام الإنسان الآلي للخوارزميات للتعرف على تعابير الوجه،
03:02
can help children learn
59
182627
1619
بمقدوره مساعدة الأطفال على التعلّم
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
أو إعطاء من يشعرون بالوحدة إحساسًا بالرفقة.
03:07
Social media companies are considering using algorithms
61
187636
3001
تأخذ شركات التواصل الاجتماعي استخدام الخوارزميات بعين الاعتبار
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
للمساعدة في منع حالات الانتحار بوضع علامة على المنشورات المتضمنة كلمات أو جمل محددة.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
بالإضافة إلى أن برنامج التعرف على العواطف يمكنه المساعدة في علاج الاضطرابات العقلية
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
أو حتى توفير علاج نفسي آلي للناس بتكلفة منخفضة.
03:25
Despite the potential benefits,
65
205578
1610
وبالرغم من المنافع المرتقبة،
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
فإن احتمالية وجود شبكات واسعة النطاق تقوم بشكل آلي بمسح صورنا،
03:30
communications,
67
210869
1089
اتصالاتنا،
03:31
and physiological signs is also quite disturbing.
68
211958
4919
وإشاراتنا الفسيولوجية، يعتبر شيئًا مزعجًا إلى حد بعيد.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
ما هي الآثار المترتبة على خصوصيتنا عندما يتم استخدام هذه الأنظمة غير الشخصية
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
من قبل الشركات لاستغلال عواطفنا من خلال الإعلانات؟
03:45
And what becomes of our rights
71
225208
1510
وماذا سيحدث لحقوقنا
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
إذا اعتقدت السلطات أنه يمكنها التعرف على الناس المرجح ارتكابهم لجرائم
03:50
before they even make a conscious decision to act?
73
230737
4190
من قبل حتى اتخاذهم قرارًا واعيًا للتنفيذ؟
03:54
Robots currently have a long way to go
74
234927
2223
الروبوتات حاليًا أمامها طريق طويل
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
في تمييز الفروق العاطفية، مثل السخرية،
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
ومقاييس العواطف، بالذات كيف أن شخصًا ما سعيد أم حزين.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
ومع ذلك، فإنها قد تكون بنهاية المطاف قادرة على قراءة عواطفنا بدقة
04:09
and respond to them.
78
249288
1850
والاستجابة لها.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
أما إذا أمكنها التعاطف مع خوفنا من التدخل غير المرغوب به،
04:15
that's another story.
80
255389
1498
فتلك قصة أخرى.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7