Can machines read your emotions? - Kostas Karpouzis

จักรกลสามารถอ่านความรู้สึกของเราได้หรือไม่ - โคสตัส คาร์ปูซี่ส์ (Kostas Karpouzis)

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

จักรกลสามารถอ่านความรู้สึกของเราได้หรือไม่ - โคสตัส คาร์ปูซี่ส์ (Kostas Karpouzis)

334,937 views ・ 2016-11-29

TED-Ed


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Pitipa Chongwatpol Reviewer: Kelwalin Dhanasarnsombut
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
ทุก ๆ ปี เครื่องจักรสามารถมีความสามารถ ล้ำหน้ามนุษย์ในกิจกรรมต่าง ๆ
00:11
we once thought only we were capable of.
1
11642
3206
ที่เราเคยคิดว่ามีแค่พวกเราที่ทำได้
00:14
Today's computers can beat us in complex board games,
2
14848
3575
คอมพิวเตอร์ในวันนี้สามารถเอาชนะพวกเรา ในบอร์ดเกมที่ซับซ้อนได้
00:18
transcribe speech in dozens of languages,
3
18423
2871
ถอดคำพูดได้หลายสิบภาษา
00:21
and instantly identify almost any object.
4
21294
3452
และสามารถระบุวัตถุต่าง ๆ ได้ในทันที
00:24
But the robots of tomorrow may go futher
5
24746
2366
แต่หุ่นยนต์ในอนาคตอาจทำได้มากกว่านั้น
00:27
by learning to figure out what we're feeling.
6
27112
3131
โดยการเรียนรู้ที่จะเข้าใจว่า เรากำลังรู้สึกอย่างไร
00:30
And why does that matter?
7
30243
2138
แล้วทำไมเรื่องนี้จึงสำคัญล่ะ
00:32
Because if machines and the people who run them
8
32381
2292
เพราะถ้าเครื่องจักรและคนที่ใช้มัน
00:34
can accurately read our emotional states,
9
34673
2550
สามารถอ่านอารมณ์ของเราได้อย่างแม่นยำ
00:37
they may be able to assist us or manipulate us
10
37223
2970
พวกเขาอาจจะสามารถช่วยเหลือหรือจัดการกับเรา
00:40
at unprecedented scales.
11
40193
2909
ในแบบที่ไม่เคยมีมาก่อน
00:43
But before we get there,
12
43102
1512
แต่ก่อนที่เราจะไปถึงตรงนั้น
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
สิ่งที่ซับซ้อนดังเช่นอารมณ์ จะถูกแปลงเป็นตัวเลข
00:49
the only language machines understand?
14
49653
3600
ซึ่งภาษาเดียวที่เครื่องจักรเข้าใจได้อย่างไร
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
โดยหลักแล้ว นั่นเป็นวิธีเดียวกัน กับที่สมองของเราแปลอารมณ์
00:56
by learning how to spot them.
16
56843
2151
โดยการเรียนรู้ว่าจะจดจำมันได้อย่างไร
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
นักจิตวิทยาชาวอเมริกัน พอล เอ็คแมน ระบุอารมณ์บางอย่างที่เป็นสากล
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
โดยสัญญาณที่มองเห็นได้นั้นมีความหมาย เป็นที่เข้าใจแบบเดียวกันในทุกวัฒนธรรม
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
ตัวอย่างเช่น ภาพของรอยยิ้มส่งสัญญาณความสุข ให้แก่ผู้อาศัยในเมืองยุคใหม่
01:14
and aboriginal tribesmen alike.
20
74193
2772
และชมเผ่าอะบอริจินเช่นเดียวกัน
01:16
And according to Ekman,
21
76965
1129
และตามที่เอ็คแมนกล่าว
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
ความโกรธ
ความขยะแขยง
01:19
fear,
24
79533
742
ความกลัว
01:20
joy,
25
80275
817
ความสุข
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
ความเศร้า
และความประหลาดใจนั้น ก็เป็นที่รับรู้ได้ในลักษณะเดียวกัน
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
ปรากฏว่าคอมพิวเตอร์นั้น สามารถรับรู้จดจำภาพได้ดีขึ้นเรื่อย ๆ
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
ด้วยอัลกอริธึมการเรียนรู้ของจักรกล ดังเช่น โครงข่ายประสาท
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
สิ่งเหล่านี้ประกอบได้ด้วยปมประดิษฐ์ ที่เลียนแบบเซลล์ประสาทชีวภาพของเรา
01:38
by forming connections and exchanging information.
31
98205
3579
ด้วยสร้างการเชื่อมต่อและแลกเปลี่ยนข้อมูล
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
เพื่อที่จะฝึกโครงข่ายนี้ ตัวอย่างของข้อมูล ถูกแบ่งออกเป็นกลุ่มต่าง ๆ ก่อน
01:46
such as photos marked happy or sad,
33
106285
2890
เช่น ภาพที่ระบุว่ามีความสุข หรือเศร้า
01:49
are fed into the system.
34
109175
2110
ถูกป้อนเข้าไปในระบบ
01:51
The network then learns to classify those samples
35
111285
2460
จากนั้นโครงข่ายเรียนรู้ ที่จะจำแนกตัวอย่างเหล่านั้น
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
โดยการปรับน้ำหนักสัมพัทธ์ ที่ถูกให้กับคุณลักษณะจำเพาะ
01:58
The more training data it's given,
37
118405
1620
ยิ่งได้รับข้อมูลสำหรับฝึกมากเท่าไร
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
อัลกอริธึมก็ยิ่งสามารถระบุภาพ ได้ถูกต้องมายิ่งขึ้น
02:04
This is similar to our own brains,
39
124795
1732
นี่เหมือนกับสมองของพวกเรา
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
ที่เรียนรู้จากประสบการณ์ก่อนหน้านี้ เพื่อกำหนดว่าสิ่งเร้าสิ่งใหม่จะถูกประมวลผลอย่างไร
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
กระบวนการรับรู้ไม่ได้จำกัดอยู่ แค่การแสดงออกทางสีหน้า
02:15
Our emotions manifest in many ways.
42
135466
2420
อารมณ์ของเราแสดงออกมาได้หลายทาง
02:17
There's body language and vocal tone,
43
137886
2230
มันมีทั้งภาษากายและระดับเสียงที่เปล่งออกมา
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
การเปลี่ยนแปลงอัตราการเต้นของหัวใจ สีผิว และอุณหภุมิของผิว
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
หรือแม้แต่ความถี่ของคำที่ใช้ และรูปประโยคในการเขียนของเรา
02:28
You might think that training neural networks to recognize these
46
148046
3159
คุณอาจคิดว่าการฝึกโครงข่ายประสาท ให้รับรู้จดจำสิ่งเหล่านี้ได้
02:31
would be a long and complicated task
47
151205
2432
น่าจะเป็นสิ่งที่ซับซ้อนและใช้เวลานาน
02:33
until you realize just how much data is out there,
48
153637
3329
จนกระทั่งคุณได้รู้ว่าข้อมูลที่มีอยู่นั้น มากมายแค่ไหน
02:36
and how quickly modern computers can process it.
49
156966
3409
และคอมพิวเตอร์สมัยใหม่นี้ สามารถประมวลผลได้เร็วแค่ไหน
02:40
From social media posts,
50
160375
1542
จากโพสท์ทางโซเชียลมีเดีย
02:41
uploaded photos and videos,
51
161917
1669
รูปและวีดีโอที่ถูกอัพโหลด
02:43
and phone recordings,
52
163586
1401
การบันทึกบทสนทนาทางโทรศัพท์
02:44
to heat-sensitive security cameras
53
164987
1780
ไปจนถึงกล้องรักษาความปลอดภัย ที่ใช้การตรวจจับความร้อน
02:46
and wearables that monitor physiological signs,
54
166767
3670
และอุปกรณ์สวมใส่ ที่ติดตามสัญญาณทางสรีรวิทยา
02:50
the big question is not how to collect enough data,
55
170437
2510
คำถามหลักนั้นไม่ใช่ว่า เราจะเก็บข้อมูลให้เพียงพอได้อย่างไร
02:52
but what we're going to do with it.
56
172947
2308
แต่คือเราจะทำอย่างไรกับมันต่างหาก
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
มันมีการใช้ที่เป็นประโยชน์มากมาย จากการรับรู้จดจำอารมณ์ด้วยคอมพิวเตอร์
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
หุ่นยนต์ใช้อัลกอริธึม เพื่อระบุการแสดงออกทางสีหน้า
03:02
can help children learn
59
182627
1619
ช่วยให้เด็ก ๆ เรียนรู้
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
หรือทำให้คนเหงารู้สึกได้ถึงมิตรภาพ
03:07
Social media companies are considering using algorithms
61
187636
3001
บริษัทโซเชี่ยลมีเดียต่าง ๆ กำลังคิดจะใช้อัลกอริธึมพวกนี้
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
เพื่อป้องกันการฆ่าตัวตาย โดยตรวจจับโพสท์ที่มีคำหรือวลีจำเพาะ
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
และซอร์ฟแวร์การรับรู้จดจำอารมณ์ สามารถช่วยรักษาความผิดปกติทางจิต
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
หรือแม้แต่ให้บริการการบำบัดทางจิต แบบอัตโนมัติที่มีค่าใช้จ่ายต่ำ
03:25
Despite the potential benefits,
65
205578
1610
นอกเหนือจากประโยชน์ที่เป็นไปได้
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
โอกาสที่เครืองข่ายขนาดใหญ่ จะสแกนรูปของพวกเรา
03:30
communications,
67
210869
1089
การสื่อสาร
03:31
and physiological signs is also quite disturbing.
68
211958
4919
และสัญญาณทางสรีระวิทยาอย่างอัตโนมัติ ก็น่ารำคาญอยู่ไม่น้อย
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
อะไรคือผลกระทบต่อความเป็นส่วนตัวของเรา เมื่อระบบที่ไม่มีความเป็นส่วนตัวนี้
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
ถูกใช้โดยบริษัทที่จ้องหาประโยชน์ จากอารมณ์ของเราผ่านการโฆษณา
03:45
And what becomes of our rights
71
225208
1510
และสิทธิของเราคืออะไร
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
ถ้าเจ้าหน้าที่คิดว่าพวกเขาสามารถระบุ คนที่มีแนวโน้มจะก่ออาชญากรรม
03:50
before they even make a conscious decision to act?
73
230737
4190
ได้ก่อนที่พวกเขาจะตัดสินใจกระทำการนั้น อย่างมีสติสัมปชัญญะ
03:54
Robots currently have a long way to go
74
234927
2223
หุ่นยนต์ในปัจจุบันยังห่างไกล
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
จากการแยกแยะอารมณ์ที่แตกต่างกันเล็กน้อย เช่น การประชด
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
และระดับของอารมณ์ เช่น ระดับความสุขหรือเศร้าของคนคนหนึ่ง
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
อย่างไรก็ตาม ในที่สุดพวกมันอาจจะสามารถ อ่านความรู้สึกของพวกเราได้อย่างถูกต้อง
04:09
and respond to them.
78
249288
1850
และตอบสนองต่อพวกมัน
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
ถึงแม้ว่าพวกมันจะตอกย้ำความกลัว เรื่องการบุกรุกที่พวกเราไม่ต้องการ
04:15
that's another story.
80
255389
1498
อย่างไรซะ นั่นมันก็เป็นอีกเรื่องหนึ่ง
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7