Rana el Kaliouby: This app knows how you feel — from the look on your face

138,524 views ・ 2015-06-15

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Thipnapa Huansuriya Reviewer: Kanawat Senanan
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
อารมณ์ของเรามีอิทธิพลต่อเรา ในทุกด้านของชีวิต
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
ตั้งแต่สุขภาพและการเรียนรู้ ไปจนถึงการทำธุรกิจและตัดสินใจ
00:20
big ones and small.
2
20149
1773
ไม่ว่าเรื่องใหญ่หรือเรื่องเล็ก
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
อารมณ์ของเรายังมีอิทธิพลต่อ ความสัมพันธ์ที่คนเรามีต่อกันด้วย
00:27
We've evolved to live in a world like this,
4
27132
3976
คนเรามีวิวัฒนาการมา ให้มีชีวิตอยู่ในโลกแบบนี้
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
แต่แทนที่จะเป็นอย่างนั้น เรากำลังใช้ชีวิตแบบนี้มากขึ้นเรื่อยๆ
00:35
this is the text message from my daughter last night --
6
35427
3134
นี่คือข้อความจากลูกสาวของฉันเมื่อคืนนี้
00:38
in a world that's devoid of emotion.
7
38561
2740
ในโลกที่ขาดไร้ซึ่งอารมณ์
00:41
So I'm on a mission to change that.
8
41301
1951
ฉันเลยมีภารกิจที่จะเปลี่ยนแปลงมัน
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
ฉันต้องการนำอารมณ์ กลับมาสู่ประสบการณ์ดิจิตอลของเรา
00:48
I started on this path 15 years ago.
10
48223
3077
ฉันเริ่มต้นเส้นทางนี้เมื่อ 15 ปีที่แล้ว
00:51
I was a computer scientist in Egypt,
11
51300
2066
ฉันเป็นนักวิทยาศาสตร์คอมพิวเตอร์ในอียิปต์
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
และเพิ่งได้รับตอบรับเข้าเรียนปริญญาเอก ที่มหาวิทยาลัยเคมบริดจ์
00:57
So I did something quite unusual
13
57871
2113
นั่นคือ ฉันทำอะไรที่ประหลาดมาก
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
สำหรับหญิงสาวมุสลิมในอียิปต์ ที่เพิ่งแต่งงาน
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
แต่ด้วยการสนับสนุนจากสามีของฉัน ซึ่งต้องอยู่ที่อียิปต์
01:08
I packed my bags and I moved to England.
16
68598
3018
ฉันก็เก็บกระเป๋าและย้ายไปอังกฤษ
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
ที่เคมบริดจ์ หลายพันไมล์ไกลจากบ้าน
01:14
I realized I was spending more hours with my laptop
18
74844
3413
ฉันเริ่มรู้ตัวว่าฉันใช้เวลา อยู่กับคอมพิวเตอร์แล็บท็อปของฉัน
01:18
than I did with any other human.
19
78257
2229
มากกว่าใช้เวลากับมนุษย์คนอื่น
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
แม้จะใกล้ชิดกันขนาดนั้น แล็บท็อปของฉัน ก็ไม่รู้เลยว่าฉันกำลังรู้สึกอย่างไร
01:25
It had no idea if I was happy,
21
85339
3211
มันไม่รู้เลยว่าฉันกำลังมีความสุข
01:28
having a bad day, or stressed, confused,
22
88550
2988
เจอวันที่เลวร้าย หรือเครียด หรือสับสน
01:31
and so that got frustrating.
23
91538
2922
ฉันก็เลยเกิดคับข้องใจขึ้นมา
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
ที่แย่กว่านั้น เวลาฉันสื่อสาร กับครอบครัวของฉันที่อยู่ที่บ้าน
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
ฉันรู้สึกว่าอารมณ์ทั้งหมดของฉัน มันอันตรธานหายไปในโลกไซเบอร์
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
ฉันคิดถึงบ้าน ฉันเหงา และบางวันฉันก็ร้องไห้
01:49
but all I had to communicate these emotions was this.
27
109858
4928
แต่วิธีที่ฉันใช้สื่อสารอารมณ์เหล่านี้ได้ มีทั้งหมดก็แค่นี้
01:54
(Laughter)
28
114786
2020
(เสียงหัวเราะ)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
เทคโนโลยีในปัจจุบันนี้ มี ไอ.คิว. สูงมาก แต่ไม่มี อี.คิว.
ฉลาดทางปัญญามาก แต่ไม่ฉลาดทางอารมณ์
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
02:04
So that got me thinking,
31
124956
2197
นั่นจึงทำให้ฉันคิดขึ้นมาว่า
02:07
what if our technology could sense our emotions?
32
127153
3624
มันจะเป็นยังไงนะ ถ้าเทคโนโลยีรับรู้อารมณ์ของเราได้
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
ถ้าอุปกรณ์ทั้งหลายของเรารับรู้ได้ว่า เรารู้สึกอย่างไรและตอบสนองได้อย่างเหมาะสม
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
เหมือนที่เพื่อนของเรา ที่มีความฉลาดทางอารมณ์จะตอบสนอง
02:18
Those questions led me and my team
35
138666
3564
คำถามเหล่านี้นำพาฉันและทีม
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
ให้สร้างเทคโนโลยีที่สามารถอ่าน และตอบสนองต่ออารมณ์ของเราได้
02:26
and our starting point was the human face.
37
146607
3090
และจุดเริ่มต้นของเราคือใบหน้าของมนุษย์
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
ใบหน้าของมนุษย์ เป็นช่องทางที่มีพลังที่สุดช่องทางหนึ่ง
02:33
that we all use to communicate social and emotional states,
39
153750
4016
ที่เราใช้สื่อสารสภาวะทางอารมณ์และสังคม
02:37
everything from enjoyment, surprise,
40
157766
3010
ทุกๆ อย่างตั้งแต่ความรื่นรมย์ ประหลาดใจ
02:40
empathy and curiosity.
41
160776
4203
เห็นอกเห็นใจ และสงสัยใคร่รู้
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
ในศาสตร์ด้านอารมณ์ เรียกการเคลื่อนไหว กล้ามเนื้อใบหน้าแต่ละมัดว่าหน่วยเคลื่อนไหว
02:49
So for example, action unit 12,
43
169907
2925
เช่น หน่วยเคลื่อนไหวที่ 12
02:52
it's not a Hollywood blockbuster,
44
172832
2038
ไม่ใช่ชื่อหนังฮอลลีวูดนะ
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
มันคือการดึงมุมปากขึ้น ซึ่งเป็นองค์ประกอบหลักของการยิ้ม
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
ทุกคนลองดูนะคะ มาเรามายิ้มกันเถอะ
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
อีกตัวอย่างหนึ่งคือหน่วยเคลื่อนไหวที่ 4 คือการขมวดคิ้ว
03:03
It's when you draw your eyebrows together
48
183954
2238
เมื่อคุณดึงคิ้วเข้าหากัน
03:06
and you create all these textures and wrinkles.
49
186192
2267
ทำให้เกิดพื้นผิวรอยย่นแบบนี้ ซึ่งเราไม่ชอบเลย
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
แต่มันเป็นตัวบ่งชี้อารมณ์ทางลบที่ชัดเจน
คนเรามีหน่วยการเคลื่อนไหวแบบนี้ 45 หน่วย
03:12
So we have about 45 of these action units,
51
192754
2206
03:14
and they combine to express hundreds of emotions.
52
194960
3390
และมันทำงานร่วมกันเพื่อแสดงอารมณ์นับร้อยๆ
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
การสอนให้คอมพิวเตอร์ อ่านอารมณ์ทางสีหน้าพวกนี้เป็นเรื่องยาก
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
เพราะหน่วยการเคลื่อนไหวเหล่านี้ เกิดขึ้นเร็ว มองไม่ค่อยออก
03:25
and they combine in many different ways.
55
205223
2554
และยังประกอบกันได้หลายรูปแบบ
03:27
So take, for example, the smile and the smirk.
56
207777
3738
ตัวอย่างเช่น การยิ้ม กับการยิ้มเยาะ
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
มันดูคล้ายๆ กัน แต่มันมีความหมายต่างกันมาก
03:35
(Laughter)
58
215268
1718
(เสียงหัวเราะ)
03:36
So the smile is positive,
59
216986
3004
การยิ้มนี่ความหมายทางบวก
03:39
a smirk is often negative.
60
219990
1270
การยิ้มเยาะนี่มักจะมีความหมายแง่ลบ
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
บางครั้งการยิ้มเยาะ อาจทำให้คุณกลายเป็นคนดังขึ้นมา
03:45
But seriously, it's important for a computer to be able
62
225136
2824
แต่เอาจริงๆ นะ นี่เป็นเรื่องสำคัญ ที่คอมพิวเตอร์ต้องสามารถ
03:47
to tell the difference between the two expressions.
63
227960
2855
แยกแยะความแตกต่างระหว่างสีหน้าสองแบบนี้ได้
03:50
So how do we do that?
64
230815
1812
แล้วเราทำยังไงล่ะ
03:52
We give our algorithms
65
232627
1787
เราให้ชุดคำสั่งของเรา
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
ได้เรียนรู้ตัวอย่างคนนับหมื่นๆ ที่เรารู้อย่างแน่นอนว่ากำลังยิ้มอยู่
03:58
from different ethnicities, ages, genders,
67
238524
3065
จากทุกเชื้อชาติ อายุ เพศ
04:01
and we do the same for smirks.
68
241589
2811
แล้วเราก็ทำอย่างเดียวกันกับการยิ้มเยาะ
04:04
And then, using deep learning,
69
244400
1554
แล้วหลังจากการเรียนรู้ที่ลึกซึ้ง
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
ชุดคำสั่งของเราก็มองหาพื้นผิว รอยย่น
04:08
and shape changes on our face,
71
248810
2580
และการเปลี่ยนแปลงรูปร่างเหล่านี้ บนใบหน้าของเรา
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
และเรียนรู้ว่า การยิ้มทุกๆ ตัวอย่าง มีลักษณะอะไรร่วมกัน
04:14
all smirks have subtly different characteristics.
73
254592
3181
และการยิ้มเยาะทุกตัวอย่าง มีลักษณะที่แตกต่างไปเล็กน้อยอย่างไร
04:17
And the next time it sees a new face,
74
257773
2368
ครั้งต่อไปที่มันเห็นใบหน้าใหม่
04:20
it essentially learns that
75
260141
2299
มันก็จะเรียนรู้ว่า
04:22
this face has the same characteristics of a smile,
76
262440
3033
ใบหน้านี้มีลักษณะเหมือนการยิ้ม
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
แล้วก็บอกว่า "อะฮ้า ฉันจำได้ละ นี่คือการยิ้ม"
04:30
So the best way to demonstrate how this technology works
78
270381
2800
ทีนี้ การสาธิตที่ดีที่สุด ว่าเทคโนโลยีนี้ทำงานอย่างไร
04:33
is to try a live demo,
79
273181
2136
คือการทดลองกับคนจริงๆ
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
เอาล่ะ ฉันอยากได้อาสาสมัครสักคน ขอให้เป็นคนที่มีใบหน้านะคะ
04:39
(Laughter)
81
279230
2334
(เสียงหัวเราะ)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
โคลอี้จะเป็นอาสาสมัครให้เราวันนี้ค่ะ
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
คือ ห้าปีที่ผ่านมา เราก้าวจากการเป็นโครงการวิจัยที่เอ็มไอที
04:49
to a company,
84
289783
1156
มาเป็นบริษัท
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
ซึ่งทีมของฉันทำงานกันหนักมาก เพื่อให้เทคโนโลยีนี้ทำงานได้
04:54
as we like to say, in the wild.
86
294131
2409
ในสภาพการใช้งานจริง
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
และเราก็ย่อส่วนมัน ให้โปรแกรมหลักที่ใช้วิเคราะห์อารมณ์
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
ทำงานบนอุปกรณ์เคลื่อนที่ที่มีกล้องได้ เช่นไอแพด
05:02
So let's give this a try.
89
302530
2786
เรามาลองกันนะคะ
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
คุณจะเห็นว่าชุดคำสั่งพบใบหน้าของโคลอี้แล้ว
05:10
so it's this white bounding box,
91
310680
1692
คือกล่องที่มีเส้นกรอบสีขาวนี่
05:12
and it's tracking the main feature points on her face,
92
312372
2571
แล้วมันก็ติดตามการเคลื่อนไหว ของจุดหลักๆ บนหน้าของเธอ
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
คิ้ว ตา ปาก และจมูก
05:17
The question is, can it recognize her expression?
94
317799
2987
คำถามคือ มันจะรู้ไหมว่าเธอแสดงสีหน้าอะไร
05:20
So we're going to test the machine.
95
320786
1671
เราจะมาทดสอบเจ้าเครื่องนี้กัน
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
ก่อนอื่น ทำหน้าเฉยหน่อยซิ อ่ะ เจ๋งเลย (เสียงหัวเราะ)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
ทีนี้ พอโคลอี้ยิ้ม นี่คือยิ้มที่จริงใจ เยี่ยมมาก
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
คุณจะเห็นแท่งสีเขียวเพิ่มขึ้นตอนที่เธอยิ้ม
05:31
Now that was a big smile.
99
331756
1222
นั่นคือการยิ้มกว้าง
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
ลองยิ้มน้อยๆ ได้ไหม ดูซิว่าคอมพิวเตอร์จะจับได้ไหม
05:36
It does recognize subtle smiles as well.
101
336021
2331
มันรับรู้ยิ้มจางๆ ได้ด้วยเช่นกัน
05:38
We've worked really hard to make that happen.
102
338352
2125
เราทำงานกันหนักมากเพื่อให้มันทำได้
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
ทีนี้ เลิกคิ้ว ตัวบ่งชี้ว่าประหลาดใจ
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
คิ้วขมวด ซึ่งบ่งชี้ความสับสน
05:47
Frown. Yes, perfect.
105
347688
4007
หน้าบึ้ง ใช่เลย เยี่ยม
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
นี่คือหน่วยการเคลื่อนไหวต่างๆ ยังมีอีกหลายแบบมาก
05:55
This is just a slimmed-down demo.
107
355188
2032
นี่คือการสาธิตสั้นๆ เท่านั้น
05:57
But we call each reading an emotion data point,
108
357220
3148
เราเรียกการอ่านข้อมูลแต่ละจุดบนใบหน้า ว่าหน่วยข้อมูลอารมณ์
06:00
and then they can fire together to portray different emotions.
109
360368
2969
และมันก็ทำงานร่วมกัน เพื่อแสดงอารมณ์ที่แตกต่างกันออกไป
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
ตรงด้านขวาของจอ ดูเหมือนเธอมีความสุขอยู่นะ
06:07
So that's joy. Joy fires up.
111
367990
1454
นั่นคือความสุข มันสว่างขึ้นมา
06:09
And then give me a disgust face.
112
369444
1927
ทีนี้ ทำหน้าขยะแขยงซิ
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
ทีนี้ นึกถึงความรู้สึกตอนที่เซย์น ลาออกจากวง วัน ไดเร็กชัน ซิ
06:15
(Laughter)
114
375643
1510
(เสียงหัวเราะ)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
ใช่ จมูกย่นเลย แจ๋ว
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
และทิศทางอารมณ์ค่อนข้างลบมาก นี่เป็นแฟนพันธุ์แท้วงนี้ล่ะสิ
06:25
So valence is how positive or negative an experience is,
117
385226
2700
ทิศทางอารมณ์คือความเป็นบวก หรือลบของประสบการณ์นั้น
06:27
and engagement is how expressive she is as well.
118
387926
2786
และความอิน คือ เธอแสดงออกมากขนาดไหน
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
ลองจินตนาการดูสิคะ ถ้าโคลอี้เข้าถึง ข้อมูลอารมณ์แบบนี้ได้ทันทีตลอดเวลา
06:34
and she could share it with anybody she wanted to.
120
394126
2809
และเธอสามารถแชร์ให้ใครก็ได้ที่เธอต้องการ
06:36
Thank you.
121
396935
2923
ขอบคุณค่ะ
06:39
(Applause)
122
399858
4621
(เสียงปรบมือ)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
ที่ผ่านมาจนถึงวันนี้ เราเก็บรวบรวม ข้อมูลอารมณ์ได้หนึ่งหมื่นสองพันล้านหน่วย
06:51
It's the largest emotion database in the world.
124
411019
2611
เป็นฐานข้อมูลอารมณ์ที่ใหญ่ที่สุดในโลก
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
เราเก็บรวบรวมมาจากวิดีโอใบหน้า สองล้านเก้าแสนวิดีโอ
06:56
people who have agreed to share their emotions with us,
126
416593
2600
ถ่ายจากคนที่ยินยอม ให้ข้อมูลอารมณ์ของเขาให้กับเรา
06:59
and from 75 countries around the world.
127
419193
3205
จาก 75 ประเทศทั่วโลก
07:02
It's growing every day.
128
422398
1715
และกำลังเพิ่มมากขึ้นทุกๆ วัน
07:04
It blows my mind away
129
424603
2067
มันทำให้ฉันตื่นเต้นสุดๆ
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
ที่ตอนนี้เราวัดปริมาณอะไรที่ เป็นประสบการณ์ส่วนตัวมากๆ อย่างอารมณ์
07:09
and we can do it at this scale.
131
429865
2235
และเราสามารถทำได้ในขอบเขตใหญ่ขนาดนี้
07:12
So what have we learned to date?
132
432100
2177
แล้วจากข้อมูลนี้เราได้เรียนรู้อะไรบ้าง
07:15
Gender.
133
435057
2331
ความแตกต่างระหว่างเพศ
07:17
Our data confirms something that you might suspect.
134
437388
3646
ข้อมูลของเรายืนยันบางอย่าง ที่คุณอาจคาดไว้อยู่แล้ว
07:21
Women are more expressive than men.
135
441034
1857
ผู้หญิงแสดงอารมณ์มากกว่าผู้ชาย
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
ไม่ใช่เพียงแค่ยิ้มมากกว่า แต่ยังยิ้มนานกว่า
07:25
and we can now really quantify what it is that men and women
137
445574
2904
และเรายังสามารถวัดได้ด้วย ว่าอะไรที่ผู้หญิงกับผู้ชาย
07:28
respond to differently.
138
448478
2136
ตอบสนองต่างกัน
07:30
Let's do culture: So in the United States,
139
450614
2290
ลองมาดูตามวัฒนธรรมกัน ในสหรัฐอเมริกา
07:32
women are 40 percent more expressive than men,
140
452904
3204
ผู้หญิงแสดงอารมณ์ มากกว่าผู้ชาย 40 เปอร์เซ็นต์
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
แต่น่าแปลกไหม ที่เราไม่เห็นความแตกต่าง ระหว่างชายหญิงในอังกฤษ
07:39
(Laughter)
142
459753
2506
(เสียงหัวเราะ)
07:43
Age: People who are 50 years and older
143
463296
4027
ส่วนอายุ คนที่อายุ 50 ปีขึ้นไป
07:47
are 25 percent more emotive than younger people.
144
467323
3436
แสดงอารมณ์มากกว่าคนที่อายุน้อยกว่า
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
ผู้หญิงในวัย 20 กว่า ยิ้มเยอะกว่าผู้ชายในวัยเดียวกันมาก
07:55
perhaps a necessity for dating.
146
475751
3839
บางทีอาจเป็นสิ่งจำเป็นในการออกเดท
07:59
But perhaps what surprised us the most about this data
147
479590
2617
แต่สิ่งที่ทำให้เราประหลาดใจที่สุด จากข้อมูลชุดนี้
08:02
is that we happen to be expressive all the time,
148
482207
3203
คือ จริงๆ คนเราแสดงอารมณ์ตลอดเวลา
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
แม้เวลาที่เรานั่งอยู่คนเดียว หน้าอุปกรณ์อิเล็กทรอนิกส์ของเรา
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
ไม่ใช่แค่ตอนที่เราดูวิดีโอแมวบนเฟซบุค
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
แต่เราแสดงอารมณ์ตอนเราอีเมล์ ส่งข้อความ ซื้อของออนไลน์
08:15
or even doing our taxes.
152
495227
2300
หรือแม้แต่ยื่นแบบภาษี
08:17
Where is this data used today?
153
497527
2392
วันนี้ เราเอาข้อมูลเหล่านี้ไปทำอะไรได้
08:19
In understanding how we engage with media,
154
499919
2763
ในการทำความเข้าใจการติดต่อสัมพันธ์กับสื่อ
08:22
so understanding virality and voting behavior;
155
502682
2484
การแพร่กระจายข่าวสารแบบไวรัล พฤติกรรมการเลือกตั้ง
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
เทคโนโลยีที่ให้อำนาจ หรือความสามารถทางอารมณ์
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
ฉันอยากเล่าตัวอย่าง ที่สำคัญกับฉันมากเป็นพิเศษ
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
แว่นตาเพิ่มความสามารถในการรับรู้อารมณ์
08:36
who are visually impaired read the faces of others,
159
516265
3228
ช่วยให้คนพิการทางสายตาอ่านใบหน้าคนอื่นได้
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
มันช่วยคนที่มีอาการออทิสซึม ให้ตีความอารมณ์คนอื่นได้
ซึ่งเป็นสิ่งที่พวกเขามีปัญหา
08:43
something that they really struggle with.
161
523680
2778
08:47
In education, imagine if your learning apps
162
527918
2859
ในวงการการศึกษา ลองคิดดูสิคะ ถ้าแอปพลิเคชันการเรียนรู้ของคุณ
08:50
sense that you're confused and slow down,
163
530777
2810
รับรู้ได้ว่าคุณสับสนและทำงานช้าลง
08:53
or that you're bored, so it's sped up,
164
533587
1857
หรือรู้ว่าคุณเบื่อ จึงเร่งความเร็วขึ้น
08:55
just like a great teacher would in a classroom.
165
535444
2969
เหมือนที่ครูที่ยอดเยี่ยมจะทำในห้องเรียน
08:59
What if your wristwatch tracked your mood,
166
539043
2601
จะเป็นยังไงถ้านาฬิกาข้อมือของคุณ เฝ้าติดตามอารมณ์ของคุณ
09:01
or your car sensed that you're tired,
167
541644
2693
หรือรถของคุณรับรู้ได้ว่าคุณเหนื่อย
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
หรือตู้เย็นของคุณอาจจะรู้ว่าคุณเครียด
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
มันเลยล็อกตัวเองอัตโนมัติ ป้องกันคุณกินอย่างไร้สติ (เสียงหัวเราะ)
ฉันอยากได้นะ
09:12
I would like that, yeah.
170
552951
2717
09:15
What if, when I was in Cambridge,
171
555668
1927
จะเป็นยังไง ถ้าตอนอยู่เคมบริดจ์
09:17
I had access to my real-time emotion stream,
172
557595
2313
ฉันสามารถเข้าถึงกระแสอารมณ์ของฉัน แบบนาทีต่อนาที
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
และฉันสามารถแชร์ความรู้สึกนั้น กับครอบครัวของฉันที่บ้านอย่างเป็นธรรมชาติ
09:23
just like I would've if we were all in the same room together?
174
563437
3971
เหมือนกับเวลาที่เราทุกคนอยู่ในห้องเดียวกัน
09:27
I think five years down the line,
175
567408
3142
ฉันคิดว่า อีกห้าปีข้างหน้า
09:30
all our devices are going to have an emotion chip,
176
570550
2337
อุปกรณ์ทุกอย่างของเรา จะมีชิพตรวจจับอารมณ์
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
และเราจะลืมช่วงเวลาก่อนหน้านี้ไปเลย ที่เรายังไม่สามารถหน้าบึ้งใส่อุปกรณ์ของเรา
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
แล้วอุปกรณ์ของเรามันจะพูดว่า "อืม คุณไม่ชอบใช่ไหมล่ะ"
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
ความท้าทายสูงสุดของเราคือ การใช้งานเทคโนโลยีนี้มีได้หลากหลายมาก
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
ฉันกับทีมของฉันรู้ว่า เราไม่สามารถสร้างทุกอย่างเองได้ทั้งหมด
09:47
so we've made this technology available so that other developers
181
587864
3496
เราจึงเปิดเผยเทคโนโลยีนี้ เพื่อให้นักพัฒนาคนอื่น
09:51
can get building and get creative.
182
591360
2114
สามารถเอาไปพัฒนาและสร้างสรรค์ต่อ
09:53
We recognize that there are potential risks
183
593474
4086
เราตระหนักว่ามันมีความเสี่ยง
09:57
and potential for abuse,
184
597560
2067
และอาจมีการเอาไปใช้ในทางที่ผิด
09:59
but personally, having spent many years doing this,
185
599627
2949
แต่โดยส่วนตัวที่ทำเรื่องนี้มาหลายปี
10:02
I believe that the benefits to humanity
186
602576
2972
ฉันเชื่อว่า ประโยชน์ที่มีต่อมนุษยชาติ
จากการมีเทคโนโลยีที่มีความฉลาดทางอารมณ์
10:05
from having emotionally intelligent technology
187
605548
2275
10:07
far outweigh the potential for misuse.
188
607823
3576
มันมากกว่าโอกาสที่จะมีคนนำไปใช้ในทางไม่ควร
และฉันอยากเชื้อเชิญทุกคน ให้เป็นส่วนหนึ่งในการสนทนานี้
10:11
And I invite you all to be part of the conversation.
189
611399
2531
10:13
The more people who know about this technology,
190
613930
2554
ยิ่งมีคนรู้เกี่ยวกับเทคโนโลยีนี้มากเท่าใด
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
เรายิ่งมีเสียงที่หลากหลายมากขึ้น ว่าเราเอามันไปใช้ทำอะไรได้บ้าง
10:21
So as more and more of our lives become digital,
192
621081
4574
ชีวิตของเรา กลายเป็นชีวิตดิจิตอลมากขึ้นเรื่อยๆ
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
เราพ่ายแพ้ในการต่อสู้เพื่อพยายาม ลดการใช้อุปกรณ์อิเล็กทรอนิกส์ต่างๆ
10:29
in order to reclaim our emotions.
194
629153
2229
เพื่อกู้อารมณ์ของเรากลับคืนมา
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
แทนที่จะทำอย่างนั้น สิ่งที่ฉันพยายามทำคือ นำอารมณ์มาใส่ในเทคโนโลยี
10:36
and make our technologies more responsive.
196
636536
2229
และทำให้เทคโนโลยีตอบสนองกับเรามากขึ้น
10:38
So I want those devices that have separated us
197
638765
2670
ฉันอยากให้อุปกรณ์เหล่านั้น ที่เคยแยกเราให้ห่างกัน
10:41
to bring us back together.
198
641435
2462
นำเรากลับมาใกล้กันอีกครั้ง
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
การทำให้เทคโนโลยีมีความเป็นมนุษย์มากขึ้น ทำให้เรามีโอกาสทอง
10:48
to reimagine how we connect with machines,
200
648485
3297
ที่จะสร้างจินตนาการใหม่ ว่าเราจะเชื่อมต่อกับอุปกรณ์ต่างๆ อย่างไร
10:51
and therefore, how we, as human beings,
201
651782
4481
และเพื่อให้เรา มนุษยชาติ
10:56
connect with one another.
202
656263
1904
เชื่อมโยงสัมพันธ์กันมากขึ้น
10:58
Thank you.
203
658167
2160
ขอบคุณค่ะ
11:00
(Applause)
204
660327
3313
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7