Rana el Kaliouby: This app knows how you feel — from the look on your face

137,190 views ・ 2015-06-15

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Kien Vu Duy Reviewer: Ngân Mai
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
Cảm xúc của chúng ta ảnh hưởng tới mọi khía cạnh của cuộc sống,
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
từ sức khoẻ và học tập, cho đến làm thế nào để kinh doanh và ra các quyết định,
00:20
big ones and small.
2
20149
1773
những điều lớn lao và nhỏ bé.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
Cảm xúc của chúng ta cũng ảnh hưởng tới cách mà chúng ta giao tiếp với người khác.
00:27
We've evolved to live in a world like this,
4
27132
3976
Chúng ta đã tiến hoá để sống trong một thế giới như thế này,
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
nhưng thay vào đó, chúng ta đang ngày càng sống giống như thế này --
00:35
this is the text message from my daughter last night --
6
35427
3134
đây là tin nhắn từ con gái tôi tối qua--
00:38
in a world that's devoid of emotion.
7
38561
2740
trong một thế giới mà ở đó không có cảm xúc
00:41
So I'm on a mission to change that.
8
41301
1951
Vì thế tôi có nhiệm vụ thay đổi điều đó.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
Tôi muốn mang cảm xúc trở lại trong các trải nghiệm trên thiết bị điện tử.
00:48
I started on this path 15 years ago.
10
48223
3077
Tôi đã bắt đầu công việc này từ 15 năm về trước.
00:51
I was a computer scientist in Egypt,
11
51300
2066
Tôi mà một nhà khoa học về máy tính ở Ai Cập,
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
và tôi đã được chấp nhận vào chương trình tiến sĩ tại Đại học tổng hợp Cambridge.
00:57
So I did something quite unusual
13
57871
2113
Vì thế tôi đã làm một số điều không bình thường
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
đối với một người vợ trẻ mới cưới theo đạo hồi ở Ai Cập:
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
Với sự ủng hộ từ chồng tôi, anh đã phải ở lại Ai Cập
01:08
I packed my bags and I moved to England.
16
68598
3018
Tôi đã sắp xếp hành lý và đi tới Anh
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
tại Đại học Cambridge, cách xa nhà hàng nghìn cây số,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
Tôi đã nhận ra rằng tôi đã dành nhiều thời gian cho cái máy tính xách tay của tôi
01:18
than I did with any other human.
19
78257
2229
hơn là giao tiếp với mọi người xung quanh.
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
Cho dù gần gũi như vậy, nhưng cái máy tính của tôi hoàn toàn không biết cảm giác của tôi thế nào
01:25
It had no idea if I was happy,
21
85339
3211
Nó không hiểu là tôi hạnh phúc,
01:28
having a bad day, or stressed, confused,
22
88550
2988
có một ngày tồi tệ, hoặc căng thẳng, bối rối,
01:31
and so that got frustrating.
23
91538
2922
và thật là vô dụng.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
Thậm chí tồi tệ hơn, khi tôi nói chuyện trực tiếp với gia đình của tôi ở nhà,
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
Tôi cảm giác rằng toàn bộ cảm xúc của tôi đã tiêu biến đi trong không gian ảo.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
Tôi dã nhớ nhà, tôi cảm thấy cô đơn, và vào một số ngày thực sự tôi đã khóc,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
nhưng cái thứ mà tôi phải dùng để giao tiếp chỉ là những thứ như thế này.
01:54
(Laughter)
28
114786
2020
(Khán giả cười)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
Công nghệ hiện này có quá nhiều thứ về IQ, nhưng chưa đề cập tới EQ;
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
có rất nhiều trí tuệ nhân tạo về nhận thức, nhưng không có trí tuệ nhân tạo về cảm xúc.
02:04
So that got me thinking,
31
124956
2197
Vì thế điều đó đã khiến tôi suy nghĩ,
02:07
what if our technology could sense our emotions?
32
127153
3624
Điều gì sẽ sảy ra nếu công nghệ có thể cảm nhận được cảm xúc của chúng ta?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
Điều gì sẽ sảy ra nếu các thiết bị có thể cảm nhận được chúng ta đang cảm thấy thế nào và đáp ứng lại một cách hợp lý,
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
liệu có thể đáp lại theo cách mà một người bạn có cảm xúc?
02:18
Those questions led me and my team
35
138666
3564
Những câu hỏi này đã dẫn dắt tôi và nhóm của tôi
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
sáng tạo ra các công nghệ mà chúng có thể đọc và đáp ứng lại cảm xúc của chúng ta,
02:26
and our starting point was the human face.
37
146607
3090
và khởi đầu của chúng tôi là từ khuôn mặt của con người.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
Vì khuôn mặt của chúng ta là một trong những kênh mạnh mẽ nhất
02:33
that we all use to communicate social and emotional states,
39
153750
4016
để tất cả chúng ta tạo ra các trạng thái giao tiếp xã hội và cảm xúc,
02:37
everything from enjoyment, surprise,
40
157766
3010
tất cả mọi thứ từ hứng thú, ngạc nhiên,
02:40
empathy and curiosity.
41
160776
4203
đồng cảm và tò mò.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
Trong khoa học về cảm xúc, chúng tôi gọi mỗi một chuyển động cơ mặt mà một đơn vị hành động.
02:49
So for example, action unit 12,
43
169907
2925
Vì thế, ví dụ như đơn vị hành động số 12,
02:52
it's not a Hollywood blockbuster,
44
172832
2038
nó không phải là một bộ phim bom tất của Hollywood,
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
mà thực sự nó là một cái nhếch môi, đây là một thành tố chính của một nụ cười.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
Mọi người hày làm thử xem nào. Hãy để những nụ cười tiếp tục.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
Một ví dụ khác là đơn vị hành động số 4, nó có nghĩa là cái nhíu lông mày.
03:03
It's when you draw your eyebrows together
48
183954
2238
Đó là khi bạn kéo lông mày của bạn cùng lúc
03:06
and you create all these textures and wrinkles.
49
186192
2267
và bạn đã tạo ra các kết cấu và nếp nhăn này.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
Chúng ta không thích chúng, nhưng đây là những chỉ điểm mạnh mẽ cho một cảm xúc tiêu cực.
03:12
So we have about 45 of these action units,
51
192754
2206
Như vậy chúng ta có khoảng 45 đơn vị hành động loại này,
03:14
and they combine to express hundreds of emotions.
52
194960
3390
và chúng kết hợp với nhau để bộc lộ hàng trăm cảm xúc khác nhau.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
Dạy cho máy tinhd đọc được những cảm xúc của khuôn mặt này thật khó,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
bởi vì những đơn vị hành động này, chúng có thể diễn ra rất nhanh, tinh tế,
03:25
and they combine in many different ways.
55
205223
2554
và chúng được kết hợp bằng rất nhiều cách khác nhau,
03:27
So take, for example, the smile and the smirk.
56
207777
3738
Vì thế thử lấy một ví dụ về nụ cười thoải mái và nụ cười bực bội.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
Trông chúng có vẻ giống nhau, nhưng thực tế chúng có ý nghĩa rất khác nhau.
03:35
(Laughter)
58
215268
1718
(Khán giả cười)
03:36
So the smile is positive,
59
216986
3004
Trong khi cười thoải mái có ý nghĩa tích cực,
03:39
a smirk is often negative.
60
219990
1270
thì cười bực bội thường là tiêu cực.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
Đôi khi cười bực bội có thể khiến bạn trở nên nổi tiếng.
03:45
But seriously, it's important for a computer to be able
62
225136
2824
Nhưng, rất quan trọng đối với máy tính để chúng có thể
03:47
to tell the difference between the two expressions.
63
227960
2855
đưa ra sự khác biệt giữa 2 cách biểu lộ cảm xúc đo.
03:50
So how do we do that?
64
230815
1812
Vậy thì làm thế nào để chúng tôi làm được điều đó?
03:52
We give our algorithms
65
232627
1787
Chúng tôi đưa ra các thuật toán cảu chúng tôi
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
với hàng ngàn ví dụ mà chúng ta biết về nụ cười của mọi người,
03:58
from different ethnicities, ages, genders,
67
238524
3065
với sự khác nhau về dân tộc, tuổi tác, giới tính,
04:01
and we do the same for smirks.
68
241589
2811
và chúng tôi cũng làm giống như vậy đối với nụ cười bực bội.
04:04
And then, using deep learning,
69
244400
1554
Và sau đó, phân tích thật kỹ càng,
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
thuật toán đã tìm kiếm toàn bộ các kết cấu và nếp nhăn
04:08
and shape changes on our face,
71
248810
2580
và các hình dạng thay đổi trên khuôn mặt của chúng ta,
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
và nhận thấy về cơ bản tất cả các nụ cười đều có những đặc tính chung,
04:14
all smirks have subtly different characteristics.
73
254592
3181
toàn bộ nhụ cười bực bội có các đặc tính khác biệt.
04:17
And the next time it sees a new face,
74
257773
2368
Và với lần sau khi máy tính nhìn vào một khuôn mặt mới,
04:20
it essentially learns that
75
260141
2299
nó có thể nhận ra thực tế là
04:22
this face has the same characteristics of a smile,
76
262440
3033
khuôn mặt này có các đặc tính giống với một nụ cười,
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
và nó sẽ nói răng, "Ồ, tôi đã nhận ra điều này. Đây là cách biểu lộ một nụ cười."
04:30
So the best way to demonstrate how this technology works
78
270381
2800
Vậy thì cách tốt nhất để mô tả công nghệ này hoạt động như thế nào
04:33
is to try a live demo,
79
273181
2136
là chúng ta thử nghiệm trực tiếp tại đây,
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
nào bây giờ tôi cần một tình nguyện viên, ưu tiên ai đó có một cái mặt.
04:39
(Laughter)
81
279230
2334
(Khán giả cười)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
Chị Cloe sẽ là tình nguyện viên của chúng ta hôm nay.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
Vì lẽ đó mà trong vòng 5 năm qua, chúng tôi đã chuyển một dự án nghiên cứu tại MIT
04:49
to a company,
84
289783
1156
thành một công ty,
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
mà ở đó nhóm của tôi đã làm việc rất vất vả để khiến cho công nghệ này hoạt động,
04:54
as we like to say, in the wild.
86
294131
2409
như là cách mà chúng tôi muốn nói, bằng một cách hoang dại.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
Và chugns tôi cũng đã rút gọn chúng lại để làm sao các thành phần cảm xúc cốt lõi
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
có thể hoạt động với bất kỳ thiết bị di động nào có camera, giống như chiếc iPad này.
05:02
So let's give this a try.
89
302530
2786
Giờ chúng ta cùng thử nghiệm.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
Như các bạn thấy, thuật toán về cơ bản đã tìm ra khuôn mặt của chi Chloe,
05:10
so it's this white bounding box,
91
310680
1692
đó là khung bao màu trắng,
05:12
and it's tracking the main feature points on her face,
92
312372
2571
và nó theo dõi các điểm đặc tính chính trên khuôn mặt của cô ấy,
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
đó là lông mày, mắt, miệng và mũi của cô ấy.
05:17
The question is, can it recognize her expression?
94
317799
2987
Câu hỏi ở đây là, liệu nó có thể nhận biết được các biểu lộ của cô ấy?
05:20
So we're going to test the machine.
95
320786
1671
Nào giờ chúng ta cùng thử nghiệm cái máy này.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
Trước tiên, hãy cho chúng tôi thấy một bộ mặt phớt đời. Vâng, tuyệt vời. (Khán giả cười)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
Và sau đây là cô ấy cười, một nụ cười thực sự, thật tuyệt.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
Như vậy các bạn đã nhìn thấy các cột màu xanh tăng lên khi mà cô ấy cười.
05:31
Now that was a big smile.
99
331756
1222
Nào bây giờ là một nụ cười lớn.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
Bạn có thể thể hiện một nụ cười thật tinh tế để xem máy tính có nhận ra không?
05:36
It does recognize subtle smiles as well.
101
336021
2331
Nó cũng đã nhận ra một nụ cười tinh tế.
05:38
We've worked really hard to make that happen.
102
338352
2125
Chúng tôi đã làm việc rất vất vả để tạo ra điều này.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
Và khi lông mày nhếc lên, đó là chỉ điểm của sự ngạc nhiên.
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
Cái nhíu mày là chỉ điểm của sự bối rối.
05:47
Frown. Yes, perfect.
105
347688
4007
Cái cau mày. Đúng, tuyệt vời.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
Có thể thấy đây là toàn bộ những đơn vị hành động khác nhau. Thực tế chúng còn có nhiều hơn nữa.
05:55
This is just a slimmed-down demo.
107
355188
2032
Đây chỉ là một trình diễn đơn giản.
05:57
But we call each reading an emotion data point,
108
357220
3148
Nhưng chúng ta có thể coi mỗi một lần đọc cảm xúc là một điểm dữ liệu,
06:00
and then they can fire together to portray different emotions.
109
360368
2969
và sau đó chúng có thể tổng hợp lại và đưa ra một chân dung với các cảm xúc khác nhau.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
Vì thế ở phía bên phải của bản trình diễn-- giống như là bạn đang hạnh phúc.
06:07
So that's joy. Joy fires up.
111
367990
1454
Vì thế sự vui mừng đó. Vui mừng được bùng phát lên.
06:09
And then give me a disgust face.
112
369444
1927
Và sau đó làm cho tôi mọt bộ mặt ghê tởm.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
Cố gắng nhớ tới điều đó đã như thế nào khi Zayn rời khỏi One Direction.
06:15
(Laughter)
114
375643
1510
(Khán giả cười)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
Vâng, nào hãy nhăn mũi. Tuyệt vời.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
Và trị số tương đối là âm tính, vì thế bạn chắc phải là một người hâm mộ lớn.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
Vì thế trị số chỉ ra những trải nghiệm tích cực hoặc tiêu cực như thế nào,
06:27
and engagement is how expressive she is as well.
118
387926
2786
và sự tham gia cũng là cách biểu lộ của cô ấy.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
Vì thế tưởng tượng rằng chị Chloe tham gia vào chuỗi cảm xúc thực này,
06:34
and she could share it with anybody she wanted to.
120
394126
2809
và chị ấy có thể chia sẻ not với bất kỳ ai mà chị ấy muốn.
06:36
Thank you.
121
396935
2923
Cảm ơn.
06:39
(Applause)
122
399858
4621
(Khán giả vỗ tay)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
Cho tới nay, chúng tôi đã tích lỹ được khoảng 12 tỷ dữ liệu cảm xúc như vậy.
06:51
It's the largest emotion database in the world.
124
411019
2611
Đây là một cơ sở dữ liệu cảm xúc lớn nhất thế giới.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
Chúng tôi đã thu thập nó từ khoảng hơn 2,9 triệu video về khuôn mặt,
06:56
people who have agreed to share their emotions with us,
126
416593
2600
của những người đã đồng ý chia sẻ những cảm xúc của họ với chúng tôi,
06:59
and from 75 countries around the world.
127
419193
3205
và họ đến từ 75 quốc gia trên thế giới.
07:02
It's growing every day.
128
422398
1715
Nó gia tăng từng ngày.
07:04
It blows my mind away
129
424603
2067
Nó đã thổi bay tâm trí của tôi
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
theo đó chúng tôi giờ đây có thể lượng hoá một số cảm xúc cá nhân của chúng ta,
07:09
and we can do it at this scale.
131
429865
2235
và chúng tôi có thể thực hiện nó ở mức độ như thế này.
07:12
So what have we learned to date?
132
432100
2177
Vậy thì chúng tôi đã học được gì cho tới nay?
07:15
Gender.
133
435057
2331
Giới tính.
07:17
Our data confirms something that you might suspect.
134
437388
3646
Dữ liệu của chúng tôi đã xác định được một số điều mà các bạn có thể hoài nghi.
07:21
Women are more expressive than men.
135
441034
1857
Phụ nữ thường biểu cảm nhiều hơn nam giới.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
Không chỉ là họ cười nhiều hơn, mà nụ cười của họ còn kéo dài hơn,
07:25
and we can now really quantify what it is that men and women
137
445574
2904
và chúng tôi giờ đây có thể thực sự lượng hoá được điều gì khiến nam giới và phụ nữ
07:28
respond to differently.
138
448478
2136
đáp ứng khác nhau.
07:30
Let's do culture: So in the United States,
139
450614
2290
Nào cùng xem xét khía cạnh văn hoá: Ở Mỹ
07:32
women are 40 percent more expressive than men,
140
452904
3204
phụ nữ có biểu cảm nhiều hơn nam giới tới 40%,
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
nhưng đáng ngạc nhiên, chúng tôi không thấy sự khác biệt giữa nam giới và phụ nữ ở Anh.
07:39
(Laughter)
142
459753
2506
(Khán giả cười)
07:43
Age: People who are 50 years and older
143
463296
4027
Độ tuổi: Người trên 50 tuổi
07:47
are 25 percent more emotive than younger people.
144
467323
3436
biểu lộ cảm xúc nhiều hơn người trẻ 25%.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
Phụ nữ ở độ tuổi 20 cười nhiều hơn rất nhiều so với nam giới ở cùng độ tuổi,
07:55
perhaps a necessity for dating.
146
475751
3839
có thể đó là điều cần thiết cho việc hẹn hò.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
Nhưng có thế điều mà gây cho chúng tôi nhiều ngạc nhiên nhất về số liệu này
08:02
is that we happen to be expressive all the time,
148
482207
3203
đó là chúng ta luôn luôn biểu lộ cảm xúc,
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
thậm chí ngay cả khi chúng ta ngồi một mình trước các thiết bị điện tử,
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
và không chỉ là khi chúng ta đang xem một video về mèo trên Facebook.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
Chúng ta bộc lộ cảm xúc khi chúng ta gửi thư điện tử, chúng ta nhắn tin, chúng ta mua bán trực tuyến,
08:15
or even doing our taxes.
152
495227
2300
và thậm chí khi chúng ta khai báo thuế.
08:17
Where is this data used today?
153
497527
2392
Vậy thì số liệu này được dùng ở đâu hiện nay?
08:19
In understanding how we engage with media,
154
499919
2763
để hiểu biết việc chúng ta liên hệ thế nào với truyền thông,
08:22
so understanding virality and voting behavior;
155
502682
2484
hiểu về mức độ là truyền và thái độ bỏ phiếu,
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
và cũng là làm mạnh mẽ và khả thi hơn công nghệ về cảm xúc,
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
và tôi muốn chia sẻ một vài ví dụ mà chúng đặc biệt nằm trong trái tim tôi.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
Một chiếc kính cảm xúc có thể giúp người mù
08:36
who are visually impaired read the faces of others,
159
516265
3228
đọc được cảm xúc trên mặt người khác,
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
và nó có thể giúp những người tự kỷ thể hiện cảm xúc của họ,
08:43
something that they really struggle with.
161
523680
2778
những điều mà họ thực sự phải đối mặt.
08:47
In education, imagine if your learning apps
162
527918
2859
Đối với giáo dục, tưởng tượng rằng ứng dụng học tập của bạn
08:50
sense that you're confused and slow down,
163
530777
2810
có thể cảm nhận được là bạn đang bối rối và đang đuối sức,
08:53
or that you're bored, so it's sped up,
164
533587
1857
hoặc khi bạn cảm thấy nhàm chán, thì nó sẽ tăng tốc lên,
08:55
just like a great teacher would in a classroom.
165
535444
2969
giống như là một giáo viên tuyệt với ở lớp vậy.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
Đó là khi đồng hồ đeo tay của bạn sẽ theo dõi cảm xúc của bạn,
09:01
or your car sensed that you're tired,
167
541644
2693
hoặc ô tô của bản cảm nhận được bạn đang mệt mỏi,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
hoặc có thể tủ lạnh của bạn biết rằng bạn đang căng thẳng
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
vì thế nó sẽ tự động khoá lại giúp bạn tránh được ăn uống vô độ. (Khán giả cười)
09:12
I would like that, yeah.
170
552951
2717
Tất nhiên tôi thích điều đó.
09:15
What if, when I was in Cambridge,
171
555668
1927
Đó là, khi tôi ở Cambridge,
09:17
I had access to my real-time emotion stream,
172
557595
2313
Tôi đã tạo ra một dòng cảm xúc theo thời gian thực,
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
và có thể chia sẻ nó với gia đình tại quê nhà theo một cách tự nhiên nhất,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
nó giống như tất cả chúng tôi đang ở trong một căn phòng với nhau vậy phải không?
09:27
I think five years down the line,
175
567408
3142
Tôi nghĩ rằng trong vòng 5 năm nữa,
09:30
all our devices are going to have an emotion chip,
176
570550
2337
toàn bộ các thiết bị điện tử sẽ có các con chíp cảm xúc,
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
và chúng ta không nhớ điều đó đã thế nào khi chúng ta không nhíu mày trước thiết bị điện tử
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
và cái thiết bị điện tử của chúng ta sẽ nói: "Hừm, bạn đã không thích điều đó, phải không?"
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
Trở ngại lớn nhất của chúng tôi hiện nay là có quá nhiều các ứng dụng của công nghệ này,
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
tôi và nhóm của tôi nhận ra rằng chúng tôi không thể tự phát triển toàn bộ chúng,
09:47
so we've made this technology available so that other developers
181
587864
3496
do đó chúng tôi đã làm cho công nghệ này sẵn sàng để các nhà phát triển khác
09:51
can get building and get creative.
182
591360
2114
có thể tiếp tục xây dựng và sáng tạo.
09:53
We recognize that there are potential risks
183
593474
4086
Chúng tôi nhìn nhận rằng có những rủi ro tiềm ẩn
09:57
and potential for abuse,
184
597560
2067
và những sự lạm dụng tiềm ẩn,
09:59
but personally, having spent many years doing this,
185
599627
2949
nhưng về cá nhân tôi, khi đã dành rất nhiều năm cho nó,
10:02
I believe that the benefits to humanity
186
602576
2972
tôi tin tưởng rằng các lợi ích mang lại cho con người
10:05
from having emotionally intelligent technology
187
605548
2275
từ công nghệ cảm xúc thông minh
10:07
far outweigh the potential for misuse.
188
607823
3576
vượt xa ngoài những rủi ro tiềm ẩn.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
Và tôi xin mời toàn bộ các bạn tham gia vào cuộc thảo luận này.
10:13
The more people who know about this technology,
190
613930
2554
Càng nhiều người biết về công nghệ này,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
chúng ta sẽ càng có tiếng nói đối với việc làm sao để sử dụng đúng công nghệ này.
10:21
So as more and more of our lives become digital,
192
621081
4574
Vì thế khi mà càng ngày cuộc sống của chúng ta càng trở nên số hoá,
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
chúng ta đang thua cuộc trong trận chiến chống lại việc sử dụng các thiết bị điện tử của chúng ta
10:29
in order to reclaim our emotions.
194
629153
2229
nhằm dành lại cảm xúc của chúng ta.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
Vì thế thay vào đó, điều mà tôi đang cố gắng làm đó là đưa cảm xúc vào trong công nghệ của chúng ta
10:36
and make our technologies more responsive.
196
636536
2229
và làm cho công nghệ của chúng ta trở nên tương tác nhiều hơn.
10:38
So I want those devices that have separated us
197
638765
2670
Vì thế tôi muốn rằng những thiết bị điện tử đang làm chia rẽ chúng ta
10:41
to bring us back together.
198
641435
2462
sẽ mang chúng ta trở lại với nhau.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
Và bởi những công nghệ phục vụ con người, chúng ta có một cơ hội vàng
10:48
to reimagine how we connect with machines,
200
648485
3297
để hình dung lại cách mà chúng ta kết nối với máy móc,
10:51
and therefore, how we, as human beings,
201
651782
4481
và do đó, là những con người, làm thế nào chúng ta
10:56
connect with one another.
202
656263
1904
kết nối với những người khác.
10:58
Thank you.
203
658167
2160
Cảm ơn.
11:00
(Applause)
204
660327
3313
(Khán giả vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7