Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Translator: Andi Tenri Wahyuni Reviewer: Azfa Adid
Suatu hari, sekitar 10 tahun yang lalu,
00:13
There was a day, about 10 years ago,
1
13047
2508
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
saya meminta teman untuk memegang robot bayi dinosaurus secara terbalik.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Robot ini namanya Pleo. Saya yang memesannya.
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
Saya begitu senang karena saya suka robot.
00:29
And this one has really cool technical features.
5
29784
2279
Dan robot ini punya fitur teknis keren.
00:32
It had motors and touch sensors
6
32087
2119
Robot ini punya sensor gerak dan sentuh
00:34
and it had an infrared camera.
7
34230
2244
juga kamera infra merah.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Dan salah satu fitur adalah sensor miring,
00:39
so it knew what direction it was facing.
9
39285
2318
jadi dia tahu ke mana dia menghadap.
00:42
And when you held it upside down,
10
42095
2134
Dan kalau dipegang terbalik,
00:44
it would start to cry.
11
44253
1572
dia akan menangis.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Saya rasa itu sangat keren, jadi saya tunjukkan ke teman saya,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
saya bilang, "pegang ekornya. Lihat apa yang dia lakukan."
00:55
So we're watching the theatrics of this robot
14
55268
3625
Lalu kita memerhatikan aksi dramatis robot ini
00:58
struggle and cry out.
15
58917
2199
meronta dan menangis.
01:02
And after a few seconds,
16
62767
2047
Setelah beberapa detik,
01:04
it starts to bother me a little,
17
64838
1972
saya mulai terganggu,
01:07
and I said, "OK, that's enough now.
18
67744
3424
lalu saya bilang, "Oke, sudah cukup.
01:11
Let's put him back down."
19
71930
2305
Mari letakkan dia kembali."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Lalu saya membelai robotnya agar berhenti menangis.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Itu pengalaman aneh bagi saya.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Karena satu hal, saat itu saya bukan orang yang keibuan.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Walau kemudian saya jadi ibu, 9 bulan lalu,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
saya akhirnya tahu bayi pun meronta kalau dipegang terbalik.
01:32
(Laughter)
25
92889
1563
(Suara tawa)
01:35
But my response to this robot was also interesting
26
95023
2358
Tapi respons saya ke robot ini juga menarik
01:37
because I knew exactly how this machine worked,
27
97405
4101
sebab saya tahu pasti cara kerja mesin ini,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
tapi saya merasa harus tetap bersikap baik padanya.
01:46
And that observation sparked a curiosity
29
106450
2707
Pengamatan itu mencetuskan rasa penasaran.
01:49
that I've spent the past decade pursuing.
30
109181
2832
Saya menghabiskan 10 tahun terakhir mencari jawabannya.
01:52
Why did I comfort this robot?
31
112911
1793
Kenapa saya menenangkan robot ini?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Salah satu hal yang saya dapati adalah perlakuan saya pada mesin ini
01:59
was more than just an awkward moment in my living room,
33
119831
3701
lebih dari sekadar momen aneh di ruang tamu saya,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
di dunia di mana kita semakin mengintegrasikan robot dalam kehidupan,
02:09
an instinct like that might actually have consequences,
35
129000
3126
naluri semacam itu mungkin saja punya konsekuensi,
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
sebab hal pertama yang saya dapati adalah bukan hanya saya
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
Di tahun 2007, Washington Post melaporkan bahwa militer Amerika Serikat
02:24
was testing this robot that defused land mines.
38
144075
3230
menguji robot penjinak ranjau darat.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Robot ini bekerja dengan cara membentuk serangga tongkat
02:30
and it would walk around a minefield on its legs,
40
150265
2651
dan akan berjalan kaki mengelilingi ladang ranjau,
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
dan setiap menginjak ranjau, kakinya akan meledak,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
dia menggunakan kaki lain untuk meledakkan lebih banyak ranjau.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Kolonel yang bertanggung jawab pada latihan percobaan ini
02:43
ends up calling it off,
44
163061
2118
akhirnya menghentikannya,
02:45
because, he says, it's too inhumane
45
165203
2435
sebab sangat tidak manusiawi
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
melihat robot rusak ini menyeret dirinya di sepanjang ladang ranjau.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Sekarang, apa yang menyebabkan seorang perwira militer tangguh
02:58
and someone like myself
48
178899
2043
dan orang seperti saya
03:00
to have this response to robots?
49
180966
1857
punya rasa seperti itu pada robot?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Tentu saja, kita dibekali fiksi ilmiah dan budaya pop
03:06
to really want to personify these things,
51
186871
2579
untuk mempersonifikasi hal seperti itu,
03:09
but it goes a little bit deeper than that.
52
189474
2789
tapi ini sedikit lebih dalam.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Ternyata secara biologis kita terdorong untuk menyoroti hasrat dan kehidupan
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
ke tiap gerakan di ruang fisik yang tampak otonom bagi kita.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Jadi orang akan memperlakukan segala macam robot seakan mereka hidup.
03:26
These bomb-disposal units get names.
56
206703
2683
Unit-unit pembasmi bom ini punya nama
03:29
They get medals of honor.
57
209410
1682
dan mendapatkan medali kehormatan,
03:31
They've had funerals for them with gun salutes.
58
211116
2325
juga dimakamkan dengan hormat senjata.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Penelitian menunjukkan, bahkan robot sederhana di rumah pun bisa,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
contohnya: penyedot debu Roomba.
03:40
(Laughter)
61
220396
1291
(Suara tawa)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Itu cuma cakram yang menelusuri lantai untuk bersih-bersih,
03:44
but just the fact it's moving around on its own
63
224824
2306
tapi karena dia bergerak sendiri,
03:47
will cause people to name the Roomba
64
227154
2167
orang memanggilnya Roomba
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
dan kasihan ketika Roomba tersangkut di bawah sofa.
03:52
(Laughter)
66
232551
1865
(Suara tawa)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Kita bisa mendesain robot khusus untuk membangkitkan respons ini,
03:57
using eyes and faces or movements
68
237804
3461
menggunakan mata dan wajah, ataupun gerakan
04:01
that people automatically, subconsciously associate
69
241289
3259
yang secara otomatis, orang akan menyatukannya
04:04
with states of mind.
70
244572
2020
dengan kondisi pikirannya.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Sebuah badan penelitian terpadu bernama interaksi manusia-robot
04:09
that really shows how well this works.
72
249933
1826
menunjukkan hebatnya cara kerja ini.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Contohnya, peneliti di Standford University menemukan,
04:14
that it makes people really uncomfortable
74
254933
2001
orang-orang merasa sangat tidak nyaman
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
saat diminta untuk menyentuh bagian pribadi robot
04:19
(Laughter)
76
259454
2120
(Suara tawa)
04:21
So from this, but from many other studies,
77
261598
2023
Dari sini dan penelitian lainnya,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
kita tahu bahwa orang merespons isyarat yang diberikan
04:27
by these lifelike machines,
79
267892
2022
oleh mesin yang tampak hidup ini,
04:29
even if they know that they're not real.
80
269938
2017
meski mereka tahu mesinnya tidak hidup.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Sekarang kita menuju dunia di mana robot ada di mana-mana.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Teknologi robotik keluar dari balik dinding pabrik,
04:40
It's entering workplaces, households.
83
280823
3013
memasuki tempat kerja dan rumah.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Mesin-mesin ini mampu merasakan, membuat keputusan sendiri, dan belajar,
04:50
enter into these shared spaces,
85
290093
2552
masuk ke ruang bersama ini,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
Saya pikir kita bisa menganalogikan itu
04:55
is our relationship with animals.
87
295189
1935
seperti hubungan kita dengan hewan.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Ribuan tahun lalu, kita mulai menjinakkan hewan,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
melatihnya untuk jadi pekerja, senjata, dan persahabatan.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Sepanjang sejarah, kita memperlakukan sebagian hewan seperti alat atau produk,
05:10
and other animals, we've treated with kindness
91
310513
2174
kita sayangi sebagian hewan lainnya.
05:12
and we've given a place in society as our companions.
92
312711
3078
Kita menganggapnya teman dalam bermasyarakat.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Saya pikir masuk akal bila kita mulai memperlakukan robot dengan cara yang sama.
05:21
And sure, animals are alive.
94
321484
3096
Tentu saja, hewan adalah makhluk hidup.
05:24
Robots are not.
95
324604
1150
Tapi robot tidak.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Dari pengalaman kerja dengan ahli robot, saya beri tahu
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
kita masih sangat jauh dari pengembangan robot yang bisa merasa.
05:35
But we feel for them,
98
335072
1460
Tapi kita ada rasa pada robot,
05:37
and that matters,
99
337835
1207
dan itulah yang penting,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
sebab kita berusaha mengintegrasikan robot ke ruang bersama ini,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
kita harus paham bahwa mereka akan diperlakukan berbeda dari alat lainnya,
05:47
and that in some cases,
102
347369
1844
dan dalam beberapa kasus,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
contohnya, kasus tentara yang jadi terikat secara emosional
05:52
to the robot that they work with,
104
352433
2047
dengan robot yang bekerja sama dengan dia,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
dan itu tidak efisien, bahkan berbahaya.
05:58
But in other cases, it can actually be useful
106
358551
2138
Tapi pada kasus lain, sangat berguna
06:00
to foster this emotional connection to robots.
107
360713
2623
jika kita memelihara keterkaitan emosi dengan robot.
06:04
We're already seeing some great use cases,
108
364184
2134
Kita sudah tahu beberapa contoh manfaatnya,
06:06
for example, robots working with autistic children
109
366342
2604
misalnya, robot bekerja dengan anak autis
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
untuk mengajak mereka dengan cara yang belum pernah kita tahu sebelumnya,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
atau robot bersama guru melibatkan anak dalam belajar dengan hasil baru
06:17
And it's not just for kids.
112
377433
1381
Robot tidak hanya untuk anak.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Studi awal menunjukkan bahwa robot bisa membantu dokter dan pasien
06:22
in health care settings.
114
382997
1427
dalam mengatur kesehatan.
06:25
This is the PARO baby seal robot.
115
385535
1810
Inilah PARO, robot bayi anjing laut.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Dia digunakan di panti jompo dan untuk pasien demensia.
06:30
It's been around for a while.
117
390678
1570
Dia sudah lama digunakan.
06:32
And I remember, years ago, being at a party
118
392272
3325
Saya ingat, beberapa tahun lalu, saat di sebuah pesta,
06:35
and telling someone about this robot,
119
395621
2571
saya memberi tahu seseorang tentang robot ini,
06:38
and her response was,
120
398216
2126
dan respons dia,
06:40
"Oh my gosh.
121
400366
1262
"Ya ampun.
06:42
That's horrible.
122
402508
1188
Mengerikan.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Sulit dipercaya, kita memberi mereka robot bukan perawatan manusia."
06:50
And this is a really common response,
124
410540
1875
Dan ini respons yang amat umum,
06:52
and I think it's absolutely correct,
125
412439
2499
dan saya pikir itu sangat tepat,
06:54
because that would be terrible.
126
414962
2040
karena itu bisa jadi mengerikan.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Tapi kasus ini bukan soal apa yang robot gantikan.
07:00
What this robot replaces is animal therapy
128
420858
3120
Yang digantikan oleh robot ini adalah terapi hewan
07:04
in contexts where we can't use real animals
129
424002
3198
yang mana kita tidak bisa menggunakan hewan sungguhan,
07:07
but we can use robots,
130
427224
1168
tapi bisa dengan robot,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
sebab orang akan terus memperlakukan mereka seperti hewan bukannya alat.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Mengakui keterikatan emosional pada robot ini
07:17
can also help us anticipate challenges
133
437906
1969
membantu kita mengantisipasi tantangan
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
saat semua alat ini masuk lebih dalam ke area intim kehidupan manusia.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Contohnya, apakah boleh jika robot beruang teddy anak Anda
07:27
records private conversations?
136
447539
2237
merekam percakapan pribadi?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Apakah boleh jika robot seks Anda menarik pembelian dalam aplikasi?
07:33
(Laughter)
138
453887
1396
(Suara tawa)
07:35
Because robots plus capitalism
139
455307
2501
Sebab robot plus kapitalisme
07:37
equals questions around consumer protection and privacy.
140
457832
3705
sama dengan pertanyaan soal perlindungan konsumen dan privasi.
07:42
And those aren't the only reasons
141
462549
1612
Dan itu bukan satu-satunya alasan
07:44
that our behavior around these machines could matter.
142
464185
2570
bahwa tingkah laku kita pada mesin ini memiliki arti.
07:48
A few years after that first initial experience I had
143
468747
3270
Beberapa tahun setelah pengalaman pertama saya
07:52
with this baby dinosaur robot,
144
472041
2311
dengan robot bayi dinosaurus ini,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
saya dan rekan, Hannes Gassert menggelar lokakarya.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Kami mengambil lima robot bayi dinosaurus
07:59
and we gave them to five teams of people.
147
479822
2453
dan memberikannya ke lima tim.
08:02
And we had them name them
148
482299
1697
Dan kami menamai robot-robot itu
08:04
and play with them and interact with them for about an hour.
149
484020
3809
lalu bermain dan berinteraksi dengan mereka selama sekitar satu jam.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Lalu kami mengeluarkan palu dan kapak,
08:10
and we told them to torture and kill the robots.
151
490937
2278
meminta mereka menyiksa dan membunuh robot itu.
08:13
(Laughter)
152
493239
3007
(Suara tawa)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Hal ini ternyata jadi agak lebih dramatis
08:19
than we expected it to be,
154
499175
1278
dari yang kami kira,
08:20
because none of the participants would even so much as strike
155
500477
3072
karena tidak satu pun peserta yang mau memukul
08:23
these baby dinosaur robots,
156
503573
1307
robot bayi dinosaurus ini,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
jadi kami harus sedikit mengubahnya, dan kami berkata,
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"Baik, robot tim Anda bisa selamat asal Anda hancurkan robot tim lain"
08:34
(Laughter)
159
514539
1855
(Suara tawa)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Tidak berhasil juga. Mereka tidak sanggup.
08:39
So finally, we said,
161
519058
1151
Akhirnya kami bilang,
08:40
"We're going to destroy all of the robots
162
520233
2032
"Kami akan hancurkan semua robot
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
kecuali ada orang memukul salah satunya."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Dan pria ini berdiri lalu mengambil kapak,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
dan seluruh ruangan meringis saat dia mengayunkan kapak
08:51
on the robot's neck,
166
531919
1780
ke leher robot itu,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
lalu setengah bercanda, setengah serius mereka mengheningkan cipta
09:00
for this fallen robot.
168
540085
1698
untuk robot yang gugur ini.
09:01
(Laughter)
169
541807
1406
(Suara tawa)
09:03
So that was a really interesting experience.
170
543237
3694
Itu sungguh pengalaman yang menarik.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Itu jelas bukan penelitian terkontrol,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
namun mengarah ke penelitian yang nanti saya lakukan di MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
bersama Palash Nandy dan Cynthia Breazeal,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
di mana kami meminta orang-orang ke laboratorium dan menghantam HEXBUG
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
yang bergerak sungguh nyata, seperti serangga.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Jadi dari pada memilih sesuatu yang imut sehingga orang tertarik,
09:24
we chose something more basic,
177
564484
2093
kami memilih sesuatu yang lebih dasar,
09:26
and what we found was that high-empathy people
178
566601
3480
dan yang kami temukan bahwa orang yang tinggi rasa empatinya
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
akan lebih ragu untuk memukul HEXBUG.
09:33
Now this is just a little study,
180
573575
1564
Nah, ini cuma penelitian kecil,
09:35
but it's part of a larger body of research
181
575163
2389
tapi bagian dari penelitian yang lebih besar
09:37
that is starting to indicate that there may be a connection
182
577576
2944
yang mulai mengindikasikan bahwa mungkin ada hubungan
09:40
between people's tendencies for empathy
183
580544
2373
antara tendensi rasa empati seseorang
09:42
and their behavior around robots.
184
582941
1976
dan perilaku mereka terhadap robot.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Tapi pertanyaan saya untuk era interaksi robot-manusia nanti
09:49
is not: "Do we empathize with robots?"
186
589372
3055
bukan: "Apakah kita berempati pada robot?"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
Tapi: "Dapatkah robot mengubah rasa empati manusia?"
09:57
Is there reason to, for example,
188
597489
2287
Misal, Apakah ada alasan untuk
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
melarang anak Anda menendang robot anjing,
10:03
not just out of respect for property,
190
603228
2914
bukan karena menghargai barang,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
tapi karena si anak seperti menendang anjing sungguhan?
10:10
And again, it's not just kids.
192
610507
1883
Dan lagi, bukan hanya anak-anak.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Ini soal video game kekerasan, tapi di tingkat yang berbeda
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
sebab karena nafsu mendalam ini kita lebih merespons
10:22
than to images on a screen.
195
622428
1547
pada gambar di layar.
10:25
When we behave violently towards robots,
196
625674
2578
Saat kita berperilaku kasar pada robot,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
khususnya robot yang didesain meniru kehidupan,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
apakah itu pelampiasan perilaku kasar yang sehat
10:35
or is that training our cruelty muscles?
199
635336
2544
atau malah melatih otot-otot kejam kita?
10:39
We don't know ...
200
639511
1150
Kita tidak tahu...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Tapi jawaban pertanyaan ini punya potensi yang berdampak pada perilaku manusia,
10:46
it has the potential to impact social norms,
202
646591
2768
punya potensi yang berdampak pada norma sosial,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
punya potensi mengilhami peraturan tentang apa yang bisa dan tak bisa kita lakukan
10:53
with certain robots,
204
653256
1151
pada robot tertentu,
10:54
similar to our animal cruelty laws.
205
654431
1848
seperti undang-undang tentang hewan.
10:57
Because even if robots can't feel,
206
657228
2864
Sebab meski robot tidak bisa merasa,
11:00
our behavior towards them might matter for us.
207
660116
3080
perilaku kita pada mereka itu yang penting bagi kita.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
terlepas dari kita mengubah peraturannya atau tidak,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
robot mungkin bisa membantu kita mendapatkan pemahaman baru atas diri kita.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Yang saya pelajari lebih dari 10 tahun
11:16
has not been about technology at all.
211
676616
2238
sebagian besar bukan soal teknologi.
11:18
It's been about human psychology
212
678878
2503
Namun soal psikologi manusia
11:21
and empathy and how we relate to others.
213
681405
2603
empati, dan bagaimana berhubungan dengan orang lain.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Sebab saat seorang anak bersikap baik pada Roomba,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
saat seorang tentara berusaha menyelamatkan robot di medan perang,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
atau saat sekelompok orang menolak melukai robot bayi dinosaurus,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
robot-robot itu bukan sekadar motor, mesin, dan algoritma.
11:42
They're reflections of our own humanity.
218
702501
1905
Merekalah cerminan dari kemanusiaan kita.
11:45
Thank you.
219
705523
1151
Terima kasih.
11:46
(Applause)
220
706698
3397
(Suara tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7