아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Translator: Joseph Geni
Reviewer: Krystian Aparta
0
0
7000
번역: Draka gagoil
검토: Jihyeon J. Kim
00:13
There was a day, about 10 years ago,
1
13047
2508
10년 전 어느날,
00:15
when I asked a friend to hold
a baby dinosaur robot upside down.
2
15579
3944
친구에게 아기 공룡 로봇을
거꾸로 들어봐라고 했어요.
00:21
It was this toy called a Pleo
that I had ordered,
3
21889
3446
제가 주문했던 것은
플레오(Pleo)라는 장난감이었고
00:25
and I was really excited about it
because I've always loved robots.
4
25359
4401
모든 로봇을 좋아했기에
정말로 기대하고 있었습니다.
00:29
And this one has really cool
technical features.
5
29784
2279
그리고 이 로봇은 정말
멋진 기술적 특징이 있었어요.
00:32
It had motors and touch sensors
6
32087
2119
모터와 터치 센서가 있었고
00:34
and it had an infrared camera.
7
34230
2244
적외선 카메라가 있었어요.
00:36
And one of the things it had
was a tilt sensor,
8
36498
2763
이 로봇이 가진 특징 중 하나는
수평 센서였는데
00:39
so it knew what direction it was facing.
9
39285
2318
이 센서로 Pleo가
바라보는 방향을 알 수 있죠.
00:42
And when you held it upside down,
10
42095
2134
이것을 거꾸로 들면
00:44
it would start to cry.
11
44253
1572
Pleo는 울기 시작합니다.
00:46
And I thought this was super cool,
so I was showing it off to my friend,
12
46527
3496
이 점이 정말 멋지다고 생각해서
친구에게도 보여줬죠.
00:50
and I said, "Oh, hold it up by the tail.
See what it does."
13
50047
2805
"와, 이거 꼬리 좀 잡고 들어봐.
이게 뭐하는지 좀 봐"라고 말했어요.
00:55
So we're watching
the theatrics of this robot
14
55268
3625
우린 이 로봇이 기계적으로
버둥거리며 울부짖는 것을
00:58
struggle and cry out.
15
58917
2199
보고있었습니다.
01:02
And after a few seconds,
16
62767
2047
그리고 몇 초 후
01:04
it starts to bother me a little,
17
64838
1972
이게 조금 불편해지기 시작했어요.
01:07
and I said, "OK, that's enough now.
18
67744
3424
"아, 충분해 이제.
01:11
Let's put him back down."
19
71930
2305
다시 똑바로 세워 두자."
라고 말했습니다.
01:14
And then I pet the robot
to make it stop crying.
20
74259
2555
그리곤 전 Pleo가 더 이상
울지 않도록 쓰다듬었어요.
01:18
And that was kind of
a weird experience for me.
21
78973
2452
이런것 은 저에게
기묘한 경험 중 하나입니다.
01:22
For one thing, I wasn't the most
maternal person at the time.
22
82084
4569
사실, 그 당시 저는 그다지
모성애적인 사람은 아니었죠.
01:26
Although since then I've become
a mother, nine months ago,
23
86677
2731
비록 9개월 전에 엄마가 된 이후에
01:29
and I've learned that babies also squirm
when you hold them upside down.
24
89432
3433
아기들 또한 거꾸로 뒤집히면
몸부림친다는 것을 알았지만요.
01:32
(Laughter)
25
92889
1563
(웃음)
01:35
But my response to this robot
was also interesting
26
95023
2358
하지만 이 로봇에 대한
저의 반응은 흥미로웠는데
01:37
because I knew exactly
how this machine worked,
27
97405
4101
이 로봇이 어떻게 움직이는지
정확하게 알고 있었음에도 불구하고
01:41
and yet I still felt
compelled to be kind to it.
28
101530
3262
여전히 로봇에게 잘 해줘야
한다고 느꼈어요.
01:46
And that observation sparked a curiosity
29
106450
2707
이 관찰은 지난 십여년의 연구를 하도록
01:49
that I've spent the past decade pursuing.
30
109181
2832
호기심에 불을 붙였습니다.
01:52
Why did I comfort this robot?
31
112911
1793
왜 이 로봇을 위로해줬을까요?
01:56
And one of the things I discovered
was that my treatment of this machine
32
116228
3579
제가 발견한 것들 중 하나는
이 로봇에 대한 저의 대우가
01:59
was more than just an awkward moment
in my living room,
33
119831
3701
거실에서 단순히 어색한 순간
그 이상이라는 것을 발견한 것입니다.
02:03
that in a world where we're increasingly
integrating robots into our lives,
34
123556
5420
그곳은 로봇이 점점 더
우리 삶으로 들어오는 곳이고
02:09
an instinct like that
might actually have consequences,
35
129000
3126
그런 본능은 실제로 어떤 결과를 낳는데
02:13
because the first thing that I discovered
is that it's not just me.
36
133452
3749
제가 처음 발견한 게
저만 그런 게 아니라는 겁니다.
02:19
In 2007, the Washington Post
reported that the United States military
37
139249
4802
2007년, Washington Post는
미군이 지뢰를 제거하는
02:24
was testing this robot
that defused land mines.
38
144075
3230
로봇을 테스트했다고 보고했었습니다.
02:27
And the way it worked
was it was shaped like a stick insect
39
147329
2912
이것이 작동하는 방식은
마치 막대 벌레처럼 생겼고
02:30
and it would walk
around a minefield on its legs,
40
150265
2651
다리로 지뢰밭을 걸어다니다가
02:32
and every time it stepped on a mine,
one of the legs would blow up,
41
152940
3206
지뢰를 밟을 때마다
밟은 다리가 터질 겁니다.
02:36
and it would continue on the other legs
to blow up more mines.
42
156170
3057
그리곤 계속 남은 다른 다리로
더 많은 지뢰를 터뜨리겠죠.
02:39
And the colonel who was in charge
of this testing exercise
43
159251
3786
이 실험의 책임자였던 대령은
02:43
ends up calling it off,
44
163061
2118
이 실험을 끝냈습니다.
02:45
because, he says, it's too inhumane
45
165203
2435
왜냐면 그가 말하길
부서진 로봇이 지뢰밭에서 질질 끌고 가는
모습을 보는 게 너무 비인간적이어서 랍니다.
02:47
to watch this damaged robot
drag itself along the minefield.
46
167662
4516
02:54
Now, what would cause
a hardened military officer
47
174978
3897
단련된 군장교나 저 같은 사람이
02:58
and someone like myself
48
178899
2043
로봇들에게 이런 반응을 갖도록
만든 것은 무엇일까요?
03:00
to have this response to robots?
49
180966
1857
03:03
Well, of course, we're primed
by science fiction and pop culture
50
183537
3310
물론 저희는 공상소설이나
대중 문화에 영향을 받았죠.
03:06
to really want to personify these things,
51
186871
2579
이런 로봇들을 의인화하고 싶어하죠.
03:09
but it goes a little bit deeper than that.
52
189474
2789
하지만 이런 것보다 좀 더 심오합니다.
03:12
It turns out that we're biologically
hardwired to project intent and life
53
192287
5309
우린 생물학적으로 의도와 생명력을
투영시키도록 되어 있는데
03:17
onto any movement in our physical space
that seems autonomous to us.
54
197620
4766
실제 공간에서 자율적으로 보이는 움직임에
그런 반응을 갖는다고 합니다.
03:23
So people will treat all sorts
of robots like they're alive.
55
203214
3465
그렇기에 사람들은 모든 로봇을
마치 생물처럼 대합니다.
03:26
These bomb-disposal units get names.
56
206703
2683
이 폭탄제거 로봇은 이름을 얻게되죠.
03:29
They get medals of honor.
57
209410
1682
훈장도 받죠.
03:31
They've had funerals for them
with gun salutes.
58
211116
2325
그들은 예포를 받으며
장례도 치렀습니다.
03:34
And research shows that we do this
even with very simple household robots,
59
214380
3833
조사자료들은 가전기기에도
이런한 일들을 한다고 보여줍니다.
03:38
like the Roomba vacuum cleaner.
60
218237
2135
진공청소기 같은 것들에도요.
03:40
(Laughter)
61
220396
1291
(웃음)
03:41
It's just a disc that roams
around your floor to clean it,
62
221711
3089
이 청소기는 바닥을 청소하기 위해
움직이는 원반일 뿐이죠.
03:44
but just the fact it's moving
around on its own
63
224824
2306
하지만 이 로봇은 자기 반경만 움직여서
03:47
will cause people to name the Roomba
64
227154
2167
룸바라고 불리게 될테고
03:49
and feel bad for the Roomba
when it gets stuck under the couch.
65
229345
3182
소파 밑에 막혀버릴 때면
룸바가 안타깝죠.
03:52
(Laughter)
66
232551
1865
(웃음)
03:54
And we can design robots
specifically to evoke this response,
67
234440
3340
이런 반응을 일으키도록
로봇을 설계할 수 있는데
03:57
using eyes and faces or movements
68
237804
3461
눈, 얼굴이나 움직을 이용해서
04:01
that people automatically,
subconsciously associate
69
241289
3259
사람들이 무의식적으로
마음 상태와 연결짓게 하는 거죠.
04:04
with states of mind.
70
244572
2020
04:06
And there's an entire body of research
called human-robot interaction
71
246616
3293
이것이 얼마나 잘 작동하는지
보여주는 인간-로봇 상호작용이라는
04:09
that really shows how well this works.
72
249933
1826
연구 단체가 있습니다.
04:11
So for example, researchers
at Stanford University found out
73
251783
3126
예를 들면, 스탠포드 대학
연구진들이 발견했는데
04:14
that it makes people really uncomfortable
74
254933
2001
사람들이 정말 불편해한다는 겁니다.
04:16
when you ask them to touch
a robot's private parts.
75
256958
2472
로봇의 사적인 부분을 만지라고 하면요.
04:19
(Laughter)
76
259454
2120
(웃음)
04:21
So from this, but from many other studies,
77
261598
2023
이 연구와 다른 연구들로부터
04:23
we know, we know that people
respond to the cues given to them
78
263645
4223
사람들은 주어진 자극에
반응함을 압니다.
04:27
by these lifelike machines,
79
267892
2022
진짜가 아님을 아는데도
살아있는 것 같은 기계에 반응합니다.
04:29
even if they know that they're not real.
80
269938
2017
04:33
Now, we're headed towards a world
where robots are everywhere.
81
273654
4056
이제, 어디에나 로봇이 있는
세상으로 향해가고 있습니다.
04:37
Robotic technology is moving out
from behind factory walls.
82
277734
3065
로봇 기술은 공장을 벗어나고 있습니다.
04:40
It's entering workplaces, households.
83
280823
3013
직장과 가정으로 들어가고 있죠.
04:43
And as these machines that can sense
and make autonomous decisions and learn
84
283860
6209
이렇게 이해하고
스스로 결정하고 배우는 기계들이
04:50
enter into these shared spaces,
85
290093
2552
공용 공간에 들어가기에
04:52
I think that maybe the best
analogy we have for this
86
292669
2496
이것을 적절하게 비유해보면
04:55
is our relationship with animals.
87
295189
1935
동물과의 관계일 겁니다.
04:57
Thousands of years ago,
we started to domesticate animals,
88
297523
3888
수 천년 전, 우린 동물들을
길들이기 시작했고,
05:01
and we trained them for work
and weaponry and companionship.
89
301435
4045
노동, 무기, 반려용으로 길렀습니다.
05:05
And throughout history, we've treated
some animals like tools or like products,
90
305504
4985
역사를 통틀어 동물들을
도구나 물건으로 대했고
05:10
and other animals,
we've treated with kindness
91
310513
2174
어떤 동물들은 친절하게 대하고
05:12
and we've given a place in society
as our companions.
92
312711
3078
반려 동물로 사회적 위치를 뒀습니다.
05:15
I think it's plausible we might start
to integrate robots in similar ways.
93
315813
3849
로봇을 비슷한 경우로
통합하기 시작한다고 생각합니다.
05:21
And sure, animals are alive.
94
321484
3096
물론, 동물들은 살아있죠.
05:24
Robots are not.
95
324604
1150
로봇은 아니고요.
05:27
And I can tell you,
from working with roboticists,
96
327626
2580
로봇 산업에서 일하는 사람으로
말씀드릴 수 있는 건
05:30
that we're pretty far away from developing
robots that can feel anything.
97
330230
3522
감정을 느끼는 로봇 개발은
한참 멀었습니다.
05:35
But we feel for them,
98
335072
1460
하지만 우리는 로봇에게 느낍니다.
05:37
and that matters,
99
337835
1207
그것이 중요합니다.
05:39
because if we're trying to integrate
robots into these shared spaces,
100
339066
3627
왜냐면 로봇을 공용 공간에
접목시키려 한다면
05:42
we need to understand that people will
treat them differently than other devices,
101
342717
4628
사람들이 다른 기계와는 다르게
대한다는 걸 이해해야 하니까요.
05:47
and that in some cases,
102
347369
1844
어떤 경우에는
05:49
for example, the case of a soldier
who becomes emotionally attached
103
349237
3172
예를 들어 함께 일하는
로봇과 애착이 생긴 군인의 경우
05:52
to the robot that they work with,
104
352433
2047
05:54
that can be anything
from inefficient to dangerous.
105
354504
2504
비효율적인 일부터
위험한 일이 될 수도 있어요.
05:58
But in other cases,
it can actually be useful
106
358551
2138
하지만 다른 경우에는
로봇과 감정적인 소통을
06:00
to foster this emotional
connection to robots.
107
360713
2623
촉진하는 것은 사실
아주 유용할 수 있습니다.
06:04
We're already seeing some great use cases,
108
364184
2134
이미 휼륭한 사용처를 보고있습니다.
06:06
for example, robots working
with autistic children
109
366342
2604
예를 들어, 자폐아동을 돌보는 로봇은
06:08
to engage them in ways
that we haven't seen previously,
110
368970
3634
이전엔 보지 못한 방식으로
아이들을 돌보거나
06:12
or robots working with teachers to engage
kids in learning with new results.
111
372628
4000
학생들의 새로운 학습결과를 내는
교사와 함께 작업하는 로봇이죠.
06:17
And it's not just for kids.
112
377433
1381
아이들에게만 해당하진 않습니다.
06:19
Early studies show that robots
can help doctors and patients
113
379750
3223
초기 연구들은 로봇들이
의사와 환자들의
06:22
in health care settings.
114
382997
1427
건강 유지에 도움을 준다고 합니다.
06:25
This is the PARO baby seal robot.
115
385535
1810
PARO라는 아기 바다표범 로봇입니다.
06:27
It's used in nursing homes
and with dementia patients.
116
387369
3285
양로원과 치매 환자들을
돌보기위해 사용되죠.
06:30
It's been around for a while.
117
390678
1570
얼마동안 있었습니다.
06:32
And I remember, years ago,
being at a party
118
392272
3325
제 기억엔, 몇 년 전
한 파티에 있을 때
06:35
and telling someone about this robot,
119
395621
2571
누군가에게 이 로봇을 말했어요.
06:38
and her response was,
120
398216
2126
그러자 그녀의 반응은
06:40
"Oh my gosh.
121
400366
1262
"세상에
06:42
That's horrible.
122
402508
1188
끔찍하네요.
06:45
I can't believe we're giving people
robots instead of human care."
123
405056
3397
사람이 돌봐주지 않고
로봇을 주다니 믿을수 없네요." 였습니다.
06:50
And this is a really common response,
124
410540
1875
이건 아주 일반적인 반응이에요.
06:52
and I think it's absolutely correct,
125
412439
2499
그게 정말 맞다고 생각하는데
06:54
because that would be terrible.
126
414962
2040
그게 끔찍할테니까요.
06:57
But in this case,
it's not what this robot replaces.
127
417795
2484
하지만 이 경우 로봇이
대체한 걸 말하는 게 아니에요.
07:00
What this robot replaces is animal therapy
128
420858
3120
로봇이 대체한 것은 동물치료입니다.
07:04
in contexts where
we can't use real animals
129
424002
3198
우리가 실제 동물을
쓸 수 없는 상황에선
07:07
but we can use robots,
130
427224
1168
로봇을 쓸 수 있죠.
07:08
because people will consistently treat
them more like an animal than a device.
131
428416
5230
사람들은 계속해서 기계라기보단 동물처럼
PARO를 대할 것이니까요.
07:15
Acknowledging this emotional
connection to robots
132
435502
2380
로봇과 이런 감성적인 연결을
인지하는 것은
07:17
can also help us anticipate challenges
133
437906
1969
어려움을 예상하도록 도와줄 수 있어요.
07:19
as these devices move into more intimate
areas of people's lives.
134
439899
3451
이런 기기들이 삶의 보다
친밀한 영역으로 들어오니까요.
07:24
For example, is it OK
if your child's teddy bear robot
135
444111
3404
이를테면, 여러분 자녀의 곰인형 로봇이
07:27
records private conversations?
136
447539
2237
사적인 대화를 녹음해도 괜찮겠습니까?
07:29
Is it OK if your sex robot
has compelling in-app purchases?
137
449800
4063
여러분의 섹스로봇이
강제로 앱구매를 해도 괜찮나요?
07:33
(Laughter)
138
453887
1396
(웃음)
07:35
Because robots plus capitalism
139
455307
2501
로봇과 자본주의의 결합은
07:37
equals questions around
consumer protection and privacy.
140
457832
3705
소비자 보호와 사생활의
문제와 같으니까요.
07:42
And those aren't the only reasons
141
462549
1612
그런 이유만으로
07:44
that our behavior around
these machines could matter.
142
464185
2570
기계와 함께 있는 우리 행동이
중요한 건 아닙니다.
07:48
A few years after that first
initial experience I had
143
468747
3270
그 아기 공룡 로봇(Pleo)를 통한
경험이 있은 후 몇년 후에
07:52
with this baby dinosaur robot,
144
472041
2311
07:54
I did a workshop
with my friend Hannes Gassert.
145
474376
2501
하네스 가서트란 친구와
워크샵을 가졌습니다.
07:56
And we took five
of these baby dinosaur robots
146
476901
2897
우린 다섯 개의 Pleo를 가져와서
07:59
and we gave them to five teams of people.
147
479822
2453
다섯 팀에게 나눠주었죠.
08:02
And we had them name them
148
482299
1697
그리곤 그 팀이 Pleo에게
이름을 짓게 하고
08:04
and play with them and interact with them
for about an hour.
149
484020
3809
한 시간 동안 같이 놀고
소통하게 했습니다.
08:08
And then we unveiled
a hammer and a hatchet
150
488707
2206
그리고 저희는 해머와 도끼를 꺼내선
08:10
and we told them to torture
and kill the robots.
151
490937
2278
그들에게 Pleo를
고문하고 부숴라고 말했죠.
08:13
(Laughter)
152
493239
3007
(웃음)
08:16
And this turned out to be
a little more dramatic
153
496857
2294
이것은 예상했던 것보다도
좀더 극적이었습니다.
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants
would even so much as strike
155
500477
3072
어떤 참여자도 이 작은
아기 공룡 로봇을
08:23
these baby dinosaur robots,
156
503573
1307
아주 강하게 내려치지 않았거든요.
08:24
so we had to improvise a little,
and at some point, we said,
157
504904
5150
그래서 약간 계획을 수정해야 했고
어느 시점에 말했습니다.
"좋아요, 다른 팀의 로봇을 부수면
여러분 팀의 로봇을 구할 수 있어요."
08:30
"OK, you can save your team's robot
if you destroy another team's robot."
158
510078
4437
08:34
(Laughter)
159
514539
1855
(웃음)
08:36
And even that didn't work.
They couldn't do it.
160
516839
2195
이것도 소용 없었죠.
그들은 하지 않았어요.
08:39
So finally, we said,
161
519058
1151
그래서 결과적으로 저희는 말했죠.
08:40
"We're going to destroy all of the robots
162
520233
2032
"우린 모든 로봇을 부술 거예요.
08:42
unless someone takes
a hatchet to one of them."
163
522289
2285
누군가가 도끼로 이 중 하나를
부수지 않으면요."
08:45
And this guy stood up,
and he took the hatchet,
164
525586
3579
이랬더니 한 남자가 일어나곤
도끼를 집어들었죠.
08:49
and the whole room winced
as he brought the hatchet down
165
529189
2706
그가 로봇의 목에 도끼를 내려찍을 때
08:51
on the robot's neck,
166
531919
1780
방의 모든 사람들이 주춤했죠.
08:53
and there was this half-joking,
half-serious moment of silence in the room
167
533723
6338
그 방에 반은 장난스럽고
반은 심각한 정적의 순간이 있었죠.
09:00
for this fallen robot.
168
540085
1698
이 쓰러진 로봇에 대해서 말입니다.
09:01
(Laughter)
169
541807
1406
(웃음)
09:03
So that was a really
interesting experience.
170
543237
3694
이건 엄청 흥미로운 경험이었어요.
09:06
Now, it wasn't a controlled
study, obviously,
171
546955
2459
이건 통제된 연구는 분명히 아니었죠.
09:09
but it did lead to some
later research that I did at MIT
172
549438
2850
하지만 이 실험으로 제가 MIT에서
동료인 Palsh와 Cynthia와 함께 한
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
이후의 몇몇 연구를 하게 됐습니다.
09:14
where we had people come into the lab
and smash these HEXBUGs
174
554564
3627
MIT에서 우리들은 연구실로
사람들을 불러서 거미로봇을 부수게 했죠.
09:18
that move around in a really
lifelike way, like insects.
175
558215
3087
이 거미로봇은 진짜 산
곤충처럼 걸어다녔죠.
09:21
So instead of choosing something cute
that people are drawn to,
176
561326
3134
사람들이 생각하던
귀여운 모양을 선택하는 것 대신에
09:24
we chose something more basic,
177
564484
2093
저희는 더 기본적인 걸 선택했고
09:26
and what we found
was that high-empathy people
178
566601
3480
저희가 발견한 것은
잘 감정이입하는 사람들이
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
거미로봇을 부수기에 주저한다는 겁니다.
09:33
Now this is just a little study,
180
573575
1564
이건 단지 간단한 연구일 뿐이지만
09:35
but it's part of a larger body of research
181
575163
2389
사람들의 감정에 대한 경향과
09:37
that is starting to indicate
that there may be a connection
182
577576
2944
로봇에 대한 그들의 행동 사이의
연결이 있을 것이라는 것을
09:40
between people's tendencies for empathy
183
580544
2373
09:42
and their behavior around robots.
184
582941
1976
보여주기 시작한 연구의
큰 틀 중 일부라는 것이죠.
09:45
But my question for the coming era
of human-robot interaction
185
585721
3627
하지만 사람-로봇의 상호작용의
다가오는 사대에 대한 제 의문은
09:49
is not: "Do we empathize with robots?"
186
589372
3055
"우리가 로봇에게 감정이입을 할까?"
가 아닙니다.
09:53
It's: "Can robots change
people's empathy?"
187
593211
2920
"로봇이 사람들의
감정에 변화를 줄까?" 입니다.
09:57
Is there reason to, for example,
188
597489
2287
예를 들면, 여러분의 아이들이
09:59
prevent your child
from kicking a robotic dog,
189
599800
2333
로봇 강아지를 발로 차는 걸
하지 말라고 할 이유가 있나요?
10:03
not just out of respect for property,
190
603228
2914
소유물에 대한 인식 때문이 아니라
10:06
but because the child might be
more likely to kick a real dog?
191
606166
2953
아이가 진짜 강아지를 차버릴 것이란
걱정 때문에 말입니다.
10:10
And again, it's not just kids.
192
610507
1883
아이에게만 해당되는 게 아닙니다.
10:13
This is the violent video games question,
but it's on a completely new level
193
613564
4056
이건 폭력적인 비디오 게임의 질문이지만,
완전히 새로운 단계에 있죠.
10:17
because of this visceral physicality
that we respond more intensely to
194
617644
4760
스크린의 이미지에 비해
더 격렬하게 우리가 반응하는
10:22
than to images on a screen.
195
622428
1547
감정적인 실체이기 때문이죠.
10:25
When we behave violently towards robots,
196
625674
2578
우리가 로봇을 난폭하게 대할 때
10:28
specifically robots
that are designed to mimic life,
197
628276
3120
특히나 생물을 본딴
로봇을 폭력적으로 대할 때,
10:31
is that a healthy outlet
for violent behavior
198
631420
3892
그것이 폭력적 행동에 대한
정상적인 해소법인가요?
10:35
or is that training our cruelty muscles?
199
635336
2544
또는 우리의 잔혹한
근육을 단련하는 것입니까?
10:39
We don't know ...
200
639511
1150
우린 모르죠.
10:42
But the answer to this question has
the potential to impact human behavior,
201
642622
3945
하지만 이 질문에 대한 답은 사람들의 행동에
잠재적인 영향력을 미칩니다.
10:46
it has the potential
to impact social norms,
202
646591
2768
사회적 규범에 잠재적인 영향을 미치죠.
10:49
it has the potential to inspire rules
around what we can and can't do
203
649383
3849
우리가 특정 로봇으로
할 수 있는 것과 없는 것에 대한
10:53
with certain robots,
204
653256
1151
법들을 고무시킬수 있죠.
10:54
similar to our animal cruelty laws.
205
654431
1848
이를 테면 돌물학대 방지법과
유사한 법을 말입니다.
10:57
Because even if robots can't feel,
206
657228
2864
로봇이 아무것도 느끼진 못하더라도
11:00
our behavior towards them
might matter for us.
207
660116
3080
로봇에 대한 우리 행동이
중요하기 때문입니다.
11:04
And regardless of whether
we end up changing our rules,
208
664889
2855
우리 규칙을 바꾸게 되는 것과 상관없이
11:08
robots might be able to help us
come to a new understanding of ourselves.
209
668926
3556
로봇은 아마 우리 스스로를 새롭게
이해하도록 도와줄 겁니다.
11:14
Most of what I've learned
over the past 10 years
210
674276
2316
지난 10여년 간
제가 배운 것 대부분은
11:16
has not been about technology at all.
211
676616
2238
단순히 기술적인 부분만은 아닙니다.
11:18
It's been about human psychology
212
678878
2503
사람의 심리와 공감,
11:21
and empathy and how we relate to others.
213
681405
2603
우리가 다른 사람과
관련짓는 방법입니다.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
아이들이 Roomba에게 친절할 때,
11:29
when a soldier tries to save
a robot on the battlefield,
215
689262
4015
한 병사가 전장에서
로봇을 구하려 노력할 때나
11:33
or when a group of people refuses
to harm a robotic baby dinosaur,
216
693301
3638
사람들이 아기 공룡을
다치게 하지 않으려 할 때
11:38
those robots aren't just motors
and gears and algorithms.
217
698248
3191
이런 로봇들은 단지 모터,
기어, 알고리즘이 아닙니다.
11:42
They're reflections of our own humanity.
218
702501
1905
그들은 우리의 인류애가
반영된 것입니다.
11:45
Thank you.
219
705523
1151
감사합니다.
11:46
(Applause)
220
706698
3397
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.