Why we have an emotional connection to robots | Kate Darling

137,191 views ・ 2018-11-06

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Translator: An Pham Reviewer: Ai Van Tran
Có một ngày, cách đây khoảng 10 năm,
khi tôi nhờ một người bạn giữ cho một con rô bốt khủng long lộn ngược.
00:13
There was a day, about 10 years ago,
1
13047
2508
Đó là món đồ chơi có tên Pleo mà tôi đã đặt mua,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
và tôi thực sự rất hào hứng với nó vì tôi luôn yêu thích những con rô bốt.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Con này có những tính năng rất thú vị.
Nó có động cơ, cảm biến cảm ứng
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
và một camera hồng ngoại.
Một trong những thứ nó có là cảm biến độ nghiêng,
00:29
And this one has really cool technical features.
5
29784
2279
vì vậy nó biết đang phải đối mặt với hướng nào.
00:32
It had motors and touch sensors
6
32087
2119
Và khi bạn cầm ngược nó lên,
00:34
and it had an infrared camera.
7
34230
2244
nó sẽ bắt đầu kêu lên.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Và tôi nghĩ điều này thật tuyệt, vì vậy tôi đã khoe nó với bạn của mình,
00:39
so it knew what direction it was facing.
9
39285
2318
và tôi nói, “Hãy chổng ngược nó lên. Xem nó làm gì.”
00:42
And when you held it upside down,
10
42095
2134
00:44
it would start to cry.
11
44253
1572
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Vì vậy, chúng tôi đang xem robot này
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
vật lộn và la hét.
Và sau một vài giây,
00:55
So we're watching the theatrics of this robot
14
55268
3625
nó bắt đầu làm phiền tôi một chút,
00:58
struggle and cry out.
15
58917
2199
và tôi nói, “Được rồi, đủ rồi.
01:02
And after a few seconds,
16
62767
2047
Hãy đặt cậu ta xuống.”
01:04
it starts to bother me a little,
17
64838
1972
Và sau đó tôi cưng nựng con robot để nó ngừng kêu.
01:07
and I said, "OK, that's enough now.
18
67744
3424
Và đó là một loại trải nghiệm kỳ lạ đối với tôi.
01:11
Let's put him back down."
19
71930
2305
Có điều, tôi không phải là người mẫu mực nhất vào thời điểm đó.
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
01:18
And that was kind of a weird experience for me.
21
78973
2452
Mặc dù tôi đã trở thành một người mẹ, cách đó 9 tháng,
và tôi đã biết rằng trẻ sơ sinh cũng vặn vẹo khi bạn cầm ngược chúng lên.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
(Cười)
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Phản ứng của tôi với con rô bốt này rất thú vị
vì tôi biết chính xác cách hoạt động của cỗ máy này,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
01:32
(Laughter)
25
92889
1563
và tôi vẫn cảm thấy bị bắt buộc phải đối xử tốt với nó
01:35
But my response to this robot was also interesting
26
95023
2358
01:37
because I knew exactly how this machine worked,
27
97405
4101
Và quan sát đó đã khơi dậy sự tò mò
mà tôi đã dành cả thập kỷ qua để theo đuổi.
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
Tại sao tôi lại an ủi con robot này?
01:46
And that observation sparked a curiosity
29
106450
2707
Một trong những điều tôi phát hiện ra là hành xử của tôi với cỗ máy này
01:49
that I've spent the past decade pursuing.
30
109181
2832
không chỉ là một khoảnh khắc khó xử trong phòng khách của tôi,
01:52
Why did I comfort this robot?
31
112911
1793
mà trong một thế giới chúng ta ngày càng tích hợp rô bốt vào cuộc sống của mình,
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
01:59
was more than just an awkward moment in my living room,
33
119831
3701
một bản năng như vậy thực sự có thể gây ra hậu quả,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
bởi vì điều đầu tiên mà tôi phát hiện ra rằng đó không chỉ là tôi.
02:09
an instinct like that might actually have consequences,
35
129000
3126
Năm 2007, tờ Washington Post đưa tin rằng quân đội Hoa Kỳ
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
đang thử nghiệm loại rô bốt có nhiệm vụ phá mìn trên đất liền.
Và cách hoạt động của nó có hình dạng như một con côn trùng
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
và nó sẽ đi quanh bãi mìn bằng hai chân của mình,
02:24
was testing this robot that defused land mines.
38
144075
3230
và mỗi khi nó giẫm phải mìn, một chân sẽ nổ tung,
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
và nó sẽ tiếp tục đi trên các chân khác để cho nổ thêm mìn.
02:30
and it would walk around a minefield on its legs,
40
150265
2651
Và vị đại tá phụ trách bài tập thử nghiệm này
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
đã kết thúc cuộc tập trận này,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
bởi vì, theo ông, thật quá vô nhân đạo
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
khi nhìn con rô bốt hư hỏng này tự lê lết dọc bãi mìn.
02:43
ends up calling it off,
44
163061
2118
02:45
because, he says, it's too inhumane
45
165203
2435
Bây giờ, điều gì sẽ khiến một sĩ quan quân đội cứng rắn
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
và một người như tôi
có phản ứng này với robot?
02:54
Now, what would cause a hardened military officer
47
174978
3897
Tất nhiên, chúng ta bị khoa học viễn tưởng và văn hóa đại chúng
02:58
and someone like myself
48
178899
2043
đánh giá là thực sự muốn nhân cách hóa những thứ này,
03:00
to have this response to robots?
49
180966
1857
nhưng nó đi sâu hơn thế một chút.
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Hóa ra về mặt sinh học, chúng ta có cố gắng phóng chiếu ý định và sự sống
03:06
to really want to personify these things,
51
186871
2579
03:09
but it goes a little bit deeper than that.
52
189474
2789
lên bất kỳ chuyển động trong không gian mà đối với chúng ta dường như tự trị.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Vì vậy, mọi người sẽ đối xử với tất thảy rô bốt như chúng đang sống.
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
Các đơn vị xử lý bom này được đặt tên.
Chúng có được huy chương danh dự.
Họ tổ chức tang lễ cho chúng với tiếng súng chào.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Nghiên cứu cho thấy ta làm được điều này với cả những rô bốt gia dụng đơn giản,
03:26
These bomb-disposal units get names.
56
206703
2683
03:29
They get medals of honor.
57
209410
1682
như máy hút bụi Roomba.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
(Cười)
Nó chỉ là một chiếc đĩa quay quanh sàn nhà của bạn để làm sạch,
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
nhưng thực tế là nó tự di chuyển xung quanh
03:38
like the Roomba vacuum cleaner.
60
218237
2135
sẽ khiến mọi người đặt tên là Roomba
03:40
(Laughter)
61
220396
1291
và cảm thấy tồi tệ cho Roomba khi nó bị mắc kẹt dưới ghế dài.
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
03:44
but just the fact it's moving around on its own
63
224824
2306
(Cười)
Và chúng ta có thể làm ra rô bốt đặc biệt để gợi lên phản ứng này,
03:47
will cause people to name the Roomba
64
227154
2167
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
sử dụng mắt và khuôn mặt hoặc các chuyển động
03:52
(Laughter)
66
232551
1865
mà con người tự động liên kết
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
với trạng thái của tâm trí trong tiềm thức.
03:57
using eyes and faces or movements
68
237804
3461
Và có một nhóm nghiên cứu được gọi là tương tác giữa người và rô bốt
04:01
that people automatically, subconsciously associate
69
241289
3259
đã cho thấy điều này hiệu quả ra sao.
Ví dụ, các nhà nghiên cứu tại Đại học Stanford phát hiện ra rằng
04:04
with states of mind.
70
244572
2020
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
điều đó khiến mọi người thực sự khó chịu
khi bạn yêu cầu họ chạm vào bộ phận của rô bốt.
04:09
that really shows how well this works.
72
249933
1826
(Cười)
04:11
So for example, researchers at Stanford University found out
73
251783
3126
Vì vậy, từ những nghiên cứu này,
04:14
that it makes people really uncomfortable
74
254933
2001
chúng ta biết rằng mọi người phản ứng với các tín hiệu được cung cấp
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
04:19
(Laughter)
76
259454
2120
bởi những cỗ máy giống như thật này,
04:21
So from this, but from many other studies,
77
261598
2023
cả khi họ biết rằng chúng không có thật.
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
Bây giờ, chúng ta đang hướng tới một thế giới mà rô bốt ở khắp mọi nơi.
04:27
by these lifelike machines,
79
267892
2022
04:29
even if they know that they're not real.
80
269938
2017
Công nghệ rô bốt đang phát triển sau các bức tường của nhà máy.
Nó xâm nhập vào nơi làm việc, các hộ gia đình.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Và khi những cỗ máy có thể cảm nhận và tự đưa ra các quyết định cũng như học hỏi
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
04:40
It's entering workplaces, households.
83
280823
3013
cách đi vào những không gian chung này,
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
tôi nghĩ rằng sự tương đồng nhất mà chúng ta có
là mối quan hệ của ta với động vật.
Hàng ngàn năm trước, chúng ta bắt đầu thuần hóa động vật,
04:50
enter into these shared spaces,
85
290093
2552
04:52
I think that maybe the best analogy we have for this
86
292669
2496
và chúng ta huấn luyện chúng để làm việc cũng như là vũ khí và để bầu bạn.
04:55
is our relationship with animals.
87
295189
1935
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Và trong suốt lịch sử, ta đã đối xử với một số động vật như công cụ hoặc sản phẩm,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
và những động vật khác, ta đối xử tử tế
và ta đã tạo một vị trí xã hội như người bạn đồng hành của ta.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Tôi nghĩ rằng thật hợp lý khi ta có thể tích hợp rô bốt theo những cách tương tự.
05:10
and other animals, we've treated with kindness
91
310513
2174
05:12
and we've given a place in society as our companions.
92
312711
3078
Và chắc chắn, động vật đang sống.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Rô bốt thì không.
Và kể bạn nghe, khi làm việc với các nhà tạo ra rô bốt,
05:21
And sure, animals are alive.
94
321484
3096
chúng ta còn khá xa mới có thể tạo rô bốt có thể cảm nhận được mọi thứ.
05:24
Robots are not.
95
324604
1150
Nhưng ta cảm nhận cho chúng,
05:27
And I can tell you, from working with roboticists,
96
327626
2580
và điều đó là vấn đề,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
bởi vì nếu chúng ta cố gắng tích hợp rô bốt vào những không gian chung này,
chúng ta cần hiểu rằng mọi người sẽ đối xử với chúng khác các thiết bị khác
05:35
But we feel for them,
98
335072
1460
05:37
and that matters,
99
337835
1207
và trong một số trường hợp,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
chẳng hạn khi một người lính trở nên gắn bó tình cảm với người máy
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
mà họ làm việc cùng,
có thể mọi thứ trở nên kém hiệu quả hoặc nguy hiểm.
05:47
and that in some cases,
102
347369
1844
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
Nhưng trong những trường hợp khác,
05:52
to the robot that they work with,
104
352433
2047
sẽ hữu ích khi thúc đẩy mối liên hệ cảm xúc với rô bốt.
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
Chúng tôi đã thấy một số trường hợp tuyệt vời,
chẳng hạn như rô bốt làm việc với trẻ tự kỷ
05:58
But in other cases, it can actually be useful
106
358551
2138
06:00
to foster this emotional connection to robots.
107
360713
2623
để thu hút chúng theo những cách mà chúng ta chưa từng thấy trước đây
06:04
We're already seeing some great use cases,
108
364184
2134
hoặc rô bốt làm việc với giáo viên để thu hút trẻ học tập với kết quả mới.
06:06
for example, robots working with autistic children
109
366342
2604
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
Và nó không chỉ cho trẻ em.
Các nghiên cứu ban đầu cho thấy rô bốt giúp cho bác sĩ và bệnh nhân
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
ở các cơ sở y tế.
06:17
And it's not just for kids.
112
377433
1381
Đây là rô bốt hải cẩu con PARO.
Nó được sử dụng ở các viện dưỡng lão và với bệnh nhân sa sút trí tuệ.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
06:22
in health care settings.
114
382997
1427
Nó đã ở đó một khoảng thời gian.
Và tôi nhớ cách đây nhiều năm, tôi có mặt tại một bữa tiệc
06:25
This is the PARO baby seal robot.
115
385535
1810
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
và kể cho ai đó nghe về con robot này,
và câu trả lời của cô ấy là
06:30
It's been around for a while.
117
390678
1570
“Ôi trời.
06:32
And I remember, years ago, being at a party
118
392272
3325
Thật kinh khủng.
06:35
and telling someone about this robot,
119
395621
2571
Tôi không thể tin ta đang gửi rô bốt cho con người thay vì sự chăm sóc.”
06:38
and her response was,
120
398216
2126
06:40
"Oh my gosh.
121
400366
1262
06:42
That's horrible.
122
402508
1188
Và đây là một phản ứng phổ biến,
và tôi nghĩ nó hoàn toàn chính xác,
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
bởi vì điều đó sẽ rất khủng khiếp.
Trường hợp này, nó không phải thứ mà rô bốt thay thế.
06:50
And this is a really common response,
124
410540
1875
06:52
and I think it's absolutely correct,
125
412439
2499
Điều mà rô bốt này thay thế là liệu pháp động vật
06:54
because that would be terrible.
126
414962
2040
trong bối cảnh chúng ta không thể sử dụng động vật thật
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
ta có thể dùng rô bốt,
bởi vì mọi người sẽ luôn coi chúng giống như một con vật hơn là một thiết bị.
07:00
What this robot replaces is animal therapy
128
420858
3120
07:04
in contexts where we can't use real animals
129
424002
3198
07:07
but we can use robots,
130
427224
1168
Thừa nhận mối liên hệ này với rô bốt
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
giúp chúng ta lường trước những thách thức
khi các thiết bị này ở các lĩnh vực quen thuộc trong cuộc sống của ta.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Ví dụ, có ổn không nếu rô bốt gấu bông của con bạn
07:17
can also help us anticipate challenges
133
437906
1969
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
ghi lại các cuộc trò chuyện riêng tư?
Có ổn không nếu robot tình dục của bạn giao dịch mua hàng trong ứng dụng?
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
(Cười)
Bởi vì robot cùng với chủ nghĩa tư bản tương đương
07:27
records private conversations?
136
447539
2237
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
với các câu hỏi xung quanh quyền riêng tư và sự bảo vệ người tiêu dùng.
07:33
(Laughter)
138
453887
1396
Và không phải chỉ những lý do đó
07:35
Because robots plus capitalism
139
455307
2501
khiến hành vi của ta với những cỗ máy này là vấn đề.
07:37
equals questions around consumer protection and privacy.
140
457832
3705
Vài năm sau trải nghiệm đầu tiên mà tôi có được
07:42
And those aren't the only reasons
141
462549
1612
với chú rô bốt khủng long con này,
07:44
that our behavior around these machines could matter.
142
464185
2570
tôi tổ chức workshop với người bạn Hannes Gassert.
07:48
A few years after that first initial experience I had
143
468747
3270
Và chúng tôi đã lấy 5 con rô bốt khủng long con này
và đưa chúng cho 5 đội.
07:52
with this baby dinosaur robot,
144
472041
2311
Và chúng tôi để họ đặt tên chúng
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
và chơi với chúng và tương tác với chúng trong khoảng một giờ.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
07:59
and we gave them to five teams of people.
147
479822
2453
Và chúng tôi cho một cái búa, một cái rìu nhỏ,
08:02
And we had them name them
148
482299
1697
chúng tôi bảo họ tra tấn và giết các con rô bốt.
08:04
and play with them and interact with them for about an hour.
149
484020
3809
(Cười)
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Và điều này hóa ra kịch tính hơn một chút
08:10
and we told them to torture and kill the robots.
151
490937
2278
so với chúng tôi mong đợi,
bởi vì không ai trong số người tham gia thậm chí có thể tấn công
08:13
(Laughter)
152
493239
3007
các con rô bốt này,
08:16
And this turned out to be a little more dramatic
153
496857
2294
vì vậy chúng tôi phải ứng biến một chút, và tại một số thời điểm, chúng tôi đã nói,
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants would even so much as strike
155
500477
3072
”Được rồi, bạn có thể cứu rô bốt đội mình nếu bạn tiêu diệt rô bốt của đội khác.”
08:23
these baby dinosaur robots,
156
503573
1307
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
(Cười)
Và thậm chí nó không ổn. Họ không thể làm vậy.
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
Sau cùng, chúng tôi nói,
“Chúng tôi sẽ tiêu diệt tất cả các rô bốt
trừ khi ai đó bẫy một trong số chúng.”
08:34
(Laughter)
159
514539
1855
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Và anh chàng này đứng dậy, anh ta cầm lấy cái rìu,
08:39
So finally, we said,
161
519058
1151
08:40
"We're going to destroy all of the robots
162
520233
2032
và cả khán phòng nhăn mặt khi anh ta đặt cái chốt xuống
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
trên cổ con rô bốt,
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
và có khoảnh khắc im lặng nửa đùa, nửa thật này trong phòng
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
08:51
on the robot's neck,
166
531919
1780
dành cho chú rô bốt bị ngã này.
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
(Cười)
Vì vậy, đó là một trải nghiệm thực sự thú vị.
Rõ ràng, đó không phải là nghiên cứu có kiểm soát,
09:00
for this fallen robot.
168
540085
1698
nhưng nó dẫn đến các nghiên cứu sau tôi thực hiện tại MIT
09:01
(Laughter)
169
541807
1406
09:03
So that was a really interesting experience.
170
543237
3694
với Palash Nandy và Cynthia Breazeal,
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
nơi chúng tôi cho mọi người vào phòng thí nghiệm và đập những HEXBUG
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
đang di chuyển một cách thực sự và sống động, như côn trùng.
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
Vì vậy, thay vì chọn cái gì đó dễ thương mà mọi người bị thu hút,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
chúng tôi đã chọn một cái gì đó cơ bản hơn
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
và những gì chúng tôi nhận thấy là những người có khả năng đồng cảm cao
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
sẽ do dự nhiều hơn khi đánh HEXBUGS.
09:24
we chose something more basic,
177
564484
2093
Đây chỉ là một nghiên cứu nhỏ,
09:26
and what we found was that high-empathy people
178
566601
3480
nhưng nó là một phần của nhóm nghiên cứu lớn hơn
đang bắt đầu chỉ ra rằng có thể có mối liên hệ
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
giữa xu hướng đồng cảm của con người
09:33
Now this is just a little study,
180
573575
1564
và hành vi của họ xung quanh rô bốt.
09:35
but it's part of a larger body of research
181
575163
2389
09:37
that is starting to indicate that there may be a connection
182
577576
2944
Nhưng câu hỏi của tôi cho kỷ nguyên tương tác sắp tới giữa người và máy
09:40
between people's tendencies for empathy
183
580544
2373
không phải là: “Chúng ta có đồng cảm với rô bốt không?”
09:42
and their behavior around robots.
184
582941
1976
Mà là: “Rô bốt có thể thay đổi sự đồng cảm của người không?”
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
09:49
is not: "Do we empathize with robots?"
186
589372
3055
Chẳng hạn, có lý do gì
để ngăn con bạn đá một con chó rô bốt,
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
không chỉ vì tôn trọng tài sản
09:57
Is there reason to, for example,
188
597489
2287
mà vì đứa trẻ có nhiều khả năng sẽ đá một con chó thật hơn?
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
Và một lần nữa, không chỉ trẻ em.
10:03
not just out of respect for property,
190
603228
2914
Đây là vấn đề về trò chơi điện tử bạo lực, nhưng nó ở một cấp độ hoàn toàn mới
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
vì theo bản năng tự nhiên mà chúng ta phản ứng mạnh mẽ hơn
10:10
And again, it's not just kids.
192
610507
1883
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
so với hình ảnh trên màn hình.
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
Khi chúng ta cư xử bạo lực với rô bốt,
cụ thể là rô bốt được thiết kế để bắt chước cuộc sống,
10:22
than to images on a screen.
195
622428
1547
thì đó là phương tiện lành mạnh cho hành vi bạo lực
10:25
When we behave violently towards robots,
196
625674
2578
hay là sự rèn luyện cơ bắp hung bạo của chúng ta?
10:28
specifically robots that are designed to mimic life,
197
628276
3120
10:31
is that a healthy outlet for violent behavior
198
631420
3892
Chúng ta không biết ...
Nhưng câu trả lời cho câu hỏi này có thể tác động đến hành vi của con người,
10:35
or is that training our cruelty muscles?
199
635336
2544
nó tiềm ẩn ảnh hưởng đến các chuẩn mực xã hội,
10:39
We don't know ...
200
639511
1150
nó có thể ảnh hưởng đến các quy tắc về những gì ta có thể và không thể làm
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
với một số rô bốt,
như luật đối xử tàn ác với động vật.
10:46
it has the potential to impact social norms,
202
646591
2768
Bởi vì, ngay cả khi rô bốt không thể cảm nhận,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
hành động của ta đối với chúng có thể tác động đến ta.
10:53
with certain robots,
204
653256
1151
10:54
similar to our animal cruelty laws.
205
654431
1848
Và bất kể chúng ta có thay đổi các quy tắc của mình không,
10:57
Because even if robots can't feel,
206
657228
2864
11:00
our behavior towards them might matter for us.
207
660116
3080
rô bốt có thể giúp chúng ta hiểu biết mới về bản thân.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Hầu hết những gì tôi học được trong 10 năm qua
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
không phải là về công nghệ.
Đó là về tâm lý con người, sự đồng cảm
và cách chúng ta tương tác với người khác.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
11:16
has not been about technology at all.
211
676616
2238
Bởi vì khi một đứa trẻ tử tế với Roomba,
11:18
It's been about human psychology
212
678878
2503
khi một người lính cố gắng cứu một con rô bốt trên chiến trường
11:21
and empathy and how we relate to others.
213
681405
2603
hoặc khi một nhóm người từ chối làm hại một con khủng long con rô bốt
11:25
Because when a child is kind to a Roomba,
214
685524
2365
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
những con rô bốt đó không chỉ là động cơ, bánh răng và thuật toán.
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
Chúng phản chiếu hình ảnh chúng ta.
Cảm ơn các bạn.
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
(Vỗ tay)
11:42
They're reflections of our own humanity.
218
702501
1905
11:45
Thank you.
219
705523
1151
11:46
(Applause)
220
706698
3397
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7