Can machines read your emotions? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Sari Rachmatika Reviewer: Katya Canakya
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Semakin lama, mesin mengungguli manusia dalam makin banyak aktivitas
00:11
we once thought only we were capable of.
1
11642
3206
yang menurut kita mampu kita kerjakan.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Komputer hari ini bisa mengalahkan kita bermain board game,
00:18
transcribe speech in dozens of languages,
3
18423
2871
mentranskrip pidato dalam banyak bahasa,
00:21
and instantly identify almost any object.
4
21294
3452
dan cepat mengenali hampir semua objek.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Tapi robot masa depan mungkin bisa berbuat lebih
00:27
by learning to figure out what we're feeling.
6
27112
3131
dengan belajar mengetahui perasaan kita.
00:30
And why does that matter?
7
30243
2138
Dan kenapa itu penting?
00:32
Because if machines and the people who run them
8
32381
2292
Karena jika mesin dan orang yang mengendalikan
00:34
can accurately read our emotional states,
9
34673
2550
bisa dengan tepat membaca kondisi emosi kita,
00:37
they may be able to assist us or manipulate us
10
37223
2970
mereka mungkin mampu membantu atau memanipulasi kita
00:40
at unprecedented scales.
11
40193
2909
dalam skala lebih besar daripada sebelumnya.
00:43
But before we get there,
12
43102
1512
Tapi sebelum membahas hal itu,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
bagaimana bisa hal serumit emosi diubah menjadi angka-angka,
00:49
the only language machines understand?
14
49653
3600
satu-satunya bahasa yang dipahami mesin?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Pada dasarnya sama seperti cara otak kita mengartikan emosi,
00:56
by learning how to spot them.
16
56843
2151
dengan mempelajari cara mengenali emosi itu.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Psikolog Amerika, Paul Ekman, mengidentifikasi emosi universal tertentu
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
yang secara visual dipahami dengan cara yang sama di budaya mana pun.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Contoh, bagi orang perkotaaan seulas senyuman menandakan kegembiraan,
01:14
and aboriginal tribesmen alike.
20
74193
2772
juga bagi penduduk asli.
01:16
And according to Ekman,
21
76965
1129
Dan menurut Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
kemarahan,
kemuakan,
01:19
fear,
24
79533
742
ketakutan,
01:20
joy,
25
80275
817
kegembiraan,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
kesedihan,
dan keheranan sama-sama bisa dikenali.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Hasilnya, komputer makin cepat dan pintar dalam mengolah citra
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
berkat algoritma pembelajaran mesin, seperti jaringan saraf tiruan (ANN).
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Algoritma ini berisi simpul buatan yang menyerupai neuron tubuh kita
01:38
by forming connections and exchanging information.
31
98205
3579
dengan membentuk koneksi dan bertukar informasi.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Untuk melatih jaringan, input contoh digolongkan dulu dalam beberapa kategori,
01:46
such as photos marked happy or sad,
33
106285
2890
seperti foto-foto bertanda senang atau sedih,
01:49
are fed into the system.
34
109175
2110
dimasukkan dalam sistem.
01:51
The network then learns to classify those samples
35
111285
2460
Jaringan lalu belajar mengklasifikasikan sampel itu
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
dengan menyesuaikan nilai relatif fitur-fitur tertentu.
01:58
The more training data it's given,
37
118405
1620
Semakin banyak data training,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
semakin baik algoritmanya mengidentifikasi citra baru dengan tepat.
02:04
This is similar to our own brains,
39
124795
1732
Ini mirip dengan otak kita,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
yang belajar dari pengalaman sebelumnya
untuk membentuk cara memproses stimulus baru.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Algoritma pengenalan tidak terbatas hanya pada ekspresi wajah.
02:15
Our emotions manifest in many ways.
42
135466
2420
Emosi kita terwujud dalam banyak cara.
02:17
There's body language and vocal tone,
43
137886
2230
Ada bahasa tubuh dan intonasi suara,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
perubahan detak jantung, suhu dan tekstur kulit
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
bahkan frekuensi kata dan struktur kalimat dalam tulisan kita.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Mungkin Anda pikir melatih ANN untuk mengenali semua ini
02:31
would be a long and complicated task
47
151205
2432
adalah tugas panjang dan rumit
02:33
until you realize just how much data is out there,
48
153637
3329
sampai Anda menyadari betapa banyaknya data di luar sana,
02:36
and how quickly modern computers can process it.
49
156966
3409
dan betapa cepat komputer modern bisa memprosesnya.
02:40
From social media posts,
50
160375
1542
Mulai dari berita media sosial,
02:41
uploaded photos and videos,
51
161917
1669
unggahan foto dan video,
02:43
and phone recordings,
52
163586
1401
rekaman telepon,
02:44
to heat-sensitive security cameras
53
164987
1780
kamera keamanan sensor panas,
02:46
and wearables that monitor physiological signs,
54
166767
3670
dan peranti pakai yang memonitor tanda fisiologis,
02:50
the big question is not how to collect enough data,
55
170437
2510
pertanyaan besarnya bukan bagaimana mengumpulkan cukup data,
02:52
but what we're going to do with it.
56
172947
2308
tapi apa yang kita lakukan dengan data itu.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Ada banyak manfaat penggunaan pengenalan emosi lewat komputer.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Robot menggunakan algoritma untuk mengenali ekspresi wajah
03:02
can help children learn
59
182627
1619
bisa membantu anak-anak belajar
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
atau menjadi teman bagi orang-orang yang kesepian.
03:07
Social media companies are considering using algorithms
61
187636
3001
Perusahaan media sosial mempertimbangkan menggunakan algoritma
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
untuk mencegah bunuh diri dengan menandai berita berisi kata atau frasa khusus.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Perangkat lunak pengenalan emosi bisa membantu merawat gangguan mental
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
atau bahkan memberi psikoterapi otomatis dengan harga miring.
03:25
Despite the potential benefits,
65
205578
1610
Walaupun manfaatnya banyak,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
prospek jaringan yang kuat secara otomatis memindai foto kita,
03:30
communications,
67
210869
1089
komunikasi,
03:31
and physiological signs is also quite disturbing.
68
211958
4919
dan tanda fisiologis juga cukup meresahkan.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Apa dampak bagi privasi kita saat sistem mesin seperti itu
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
digunakan perusahaan untuk mengeksploitasi emosi kita lewat iklan?
03:45
And what becomes of our rights
71
225208
1510
Apa yang terjadi pada hak kita
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
jika yang berwenang pikir bisa mengenali orang-orang yang mungkin berbuat kriminal
03:50
before they even make a conscious decision to act?
73
230737
4190
bahkan sebelum orang-orang itu bertindak?
03:54
Robots currently have a long way to go
74
234927
2223
Saat ini perjalanan robot masih panjang
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
dalam membedakan nuansa emosi, seperti ironi,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
dan mengukur emosi, seberapa senang atau sedih seseorang.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Namun, akhirnya mereka mungkin mampu dengan tepat membaca emosi kita
04:09
and respond to them.
78
249288
1850
dan meresponsnya.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Apa robot berempati pada rasa takut kita terhadap gangguan yang tak diinginkan?
04:15
that's another story.
80
255389
1498
Itu lain cerita.
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7