Can machines read your emotions? - Kostas Karpouzis

Máy móc có thể đọc được suy nghĩ của bạn không? - Kostas Karpouzis

333,964 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Máy móc có thể đọc được suy nghĩ của bạn không? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Mai Nguyen Reviewer: Mai Nguyen
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Qua mỗi năm
Máy móc càng vượt qua con người trong nhiều hoạt động
00:11
we once thought only we were capable of.
1
11642
3206
mà chúng ta từng nghĩ chỉ mình có thể làm
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Ngày nay, máy tính có thể thắng chúng ta trong những trò trơi cờ bàn,
00:18
transcribe speech in dozens of languages,
3
18423
2871
Chuyển thể hàng chục ngôn ngữ
00:21
and instantly identify almost any object.
4
21294
3452
và có thể lập tức nhận diện hầu hết mọi thứ.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Nhưng tương lai Robot có thể đi xa hơn thế
00:27
by learning to figure out what we're feeling.
6
27112
3131
bằng cách cố gắng tìm hiểu cảm giác của con người.
00:30
And why does that matter?
7
30243
2138
Vậy tại sao việc đó lại quan trọng?
00:32
Because if machines and the people who run them
8
32381
2292
Bởi nếu máy móc và những ai điều khiển chúng
00:34
can accurately read our emotional states,
9
34673
2550
có thể đọc được cảm xúc của con người
00:37
they may be able to assist us or manipulate us
10
37223
2970
nó có thể giúp ta mà cũng có thể điều khiển ta
00:40
at unprecedented scales.
11
40193
2909
với quy mô chưa từng có.
Nhưng trước khi bàn đến việc đó,
00:43
But before we get there,
12
43102
1512
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
sao thứ phức tạp như cảm xúc có thể mã hóa thành những con số,
00:49
the only language machines understand?
14
49653
3600
loại ngôn ngữ duy nhất máy móc hiểu được?
Về cơ bản, như cách bộ bão chúng ta giải nghĩa những cảm xúc,
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
00:56
by learning how to spot them.
16
56843
2151
bằng việc học cách phát hiện ra chúng.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Nhà tâm lý học Mỹ Paul Ekman đã phát hiện ra những cảm xúc phổ biến
mà biểu hiện của chúng được hiểu giống nhau ở mọi nền văn hóa
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Ví dụ, hình mặt cười thể hiện sự vui vẻ đối với cư dân đôi thị hiện đại.
và với cả những thổ dân.
01:14
and aboriginal tribesmen alike.
20
74193
2772
01:16
And according to Ekman,
21
76965
1129
Theo Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
tức giận,
căm ghét,
01:19
fear,
24
79533
742
sợ hãi
01:20
joy,
25
80275
817
vui vẻ,
buồn bã
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
và ngạc nhiên đều có thể nhận biết được như nhau
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Như ta thấy, máy tính đang phát triển nhanh chóng về nhận diện hình ảnh
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
nhờ vào các thuật toán máy như những mạng lưới thần kinh.
Chúng có những nút nhân tạo bắt chước như nơ-ron của con người
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
01:38
by forming connections and exchanging information.
31
98205
3579
bằng cách tạo hình các liên kết và trao đổi thông tin.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Để huấn luyện mạng lưới, đầu vào mẫu được chia trước vào các mục,
01:46
such as photos marked happy or sad,
33
106285
2890
như hình ảnh thể hiện vui hay buồn
01:49
are fed into the system.
34
109175
2110
được đưa vào hệ thống.
01:51
The network then learns to classify those samples
35
111285
2460
Sau đó, hệ thống sẽ phân loại những mẫu đó
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
qua điều chỉnh các trọng số tương đối thành đặc tính đặc biệt.
Càng nhiều dữ liệu được huấn luyện,
01:58
The more training data it's given,
37
118405
1620
thuật toán càng nhận diện hình ảnh mới tốt hơn
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
02:04
This is similar to our own brains,
39
124795
1732
Điều này cũng giống như bộ não chúng ta,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
tích lũy kinh nghiệm để định hình xử lý các kích thích mới.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Thuật toán nhận diện không chỉ giới hạn trong việc nhận diện cảm xúc trên mặt.
02:15
Our emotions manifest in many ways.
42
135466
2420
Có nhiều cách bộc lộ cảm xúc.
02:17
There's body language and vocal tone,
43
137886
2230
Qua ngôn ngữ cơ thể và thanh âm,
thay đổi nhịp tim, màu da và nhiệt độ,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
hay thậm chí tần số từ và cấu trúc câu trong bài viết của chúng ta
Bạn có thể cho rằng huấn luyện nơron thần kinh để nhận biết những thứ này
02:28
You might think that training neural networks to recognize these
46
148046
3159
02:31
would be a long and complicated task
47
151205
2432
là một việc rất lâu và phức tạp
02:33
until you realize just how much data is out there,
48
153637
3329
đến khi bạn biết dữ liệu nhiều thế nào
02:36
and how quickly modern computers can process it.
49
156966
3409
và máy tính xử lý chúng nhanh thế nào.
02:40
From social media posts,
50
160375
1542
Từ các bài viết,
02:41
uploaded photos and videos,
51
161917
1669
hình ảnh, video được đăng tải
02:43
and phone recordings,
52
163586
1401
và các đoạn ghi âm điện thoại,
02:44
to heat-sensitive security cameras
53
164987
1780
tới camera cảm biến nhiệt
02:46
and wearables that monitor physiological signs,
54
166767
3670
và đồ mặc kiểm soát tín hiệu sinh lý,
vấn đề không phải là làm sao để thu thập đủ dữ liệu
02:50
the big question is not how to collect enough data,
55
170437
2510
02:52
but what we're going to do with it.
56
172947
2308
mà chúng ta sẽ làm gì với nó.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Máy hóa nhận biết cảm xúc có rất nhiều lợi ích.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Robot dùng thuật toán nhận dạng nét mặt
03:02
can help children learn
59
182627
1619
có thể giúp trẻ em học tập
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
hay làm cho con người bớt cô đơn.
03:07
Social media companies are considering using algorithms
61
187636
3001
Các công ty truyền thông đang xem xét dùng thuật toán
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
để ngăn chặn tự tử bằng cách đánh dâú những bài có nội dung nhạy cảm.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Phần mềm nhận biết cảm xúc có thể giúp chữa trị chứng rối loạn tâm lý
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
hay thậm chí đưa ra thiết bị trị liệu tự động giá rẻ.
03:25
Despite the potential benefits,
65
205578
1610
Bên cạnh những lợi ích trên,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
một mạng lưới to lớn tự động quét mọi hình ảnh,
03:30
communications,
67
210869
1089
giao thiệp,
03:31
and physiological signs is also quite disturbing.
68
211958
4919
và tín hiệu sinh lý, cũng khá phiền.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Vậy sự riêng tư của ta ở đâu khi có một mạng lưới như vậy
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
đang khai phá cảm xúc của chúng ta thông qua những biển quảng cáo.
03:45
And what becomes of our rights
71
225208
1510
Và đâu là quyền của chúng ta
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
nếu chính quyền cho là có thể xác định những người có khả năng phạm tội
03:50
before they even make a conscious decision to act?
73
230737
4190
ngay trước cả khi họ có ý định hành động?
03:54
Robots currently have a long way to go
74
234927
2223
Robot hiện tại vẫn còn cần phải phát triển hơn
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
để phân biệt các sắc thái cảm xúc, như mỉa mai
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
và mức độ xúc cảm, một người đang vui hay buồn thế nào
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Tuy nhiên, cuối cùng chúng có thể đọc được cảm xúc của ta
và phản hồi lại.
04:09
and respond to them.
78
249288
1850
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Nhưng việc chúng có thể hiểu được nỗi sợ của ta vì xâm nhập ngoài ý muốn hay không
04:15
that's another story.
80
255389
1498
thì lại là một câu chuyện khác.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7