What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Yoonkeun Ji 검토: 고운 최
00:12
You only get one chance to make a first impression,
0
12760
2656
첫 인상을 남길 기회는 단 한 번 밖에 없죠.
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
그리고 그것은 당신이 로봇이라 하여도 마찬가지입니다.
00:18
The first time that I met one of these robots
2
18640
3016
제가 그런 로봇을 처음 만난 건
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
2008년에 윌로우 개러지라는 곳에서였습니다.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
그곳에서 제 담당자 분을 따라 건물 안으로 들어가던 중에
00:27
and we met this little guy.
5
27640
1576
이 작은 로봇을 만났습니다.
00:29
He was rolling into the hallway,
6
29240
1656
이 로봇은 복도를 돌아다니다가
00:30
came up to me, sat there,
7
30920
1816
제게 다가와서 잠시 멈추고
00:32
stared blankly past me,
8
32760
2256
저를 멍하니 보더니
00:35
did nothing for a while,
9
35040
1656
잠시 그대로 있다가
00:36
rapidly spun his head around 180 degrees
10
36720
1936
재빠르게 머리를 180도로 돌려서
00:38
and then ran away.
11
38680
1536
휙 가버리더군요.
00:40
And that was not a great first impression.
12
40240
2176
그다지 좋은 첫인상은 아니었죠.
00:42
The thing that I learned about robots that day
13
42440
2176
제가 그날 로봇에 대해서 배운 건
00:44
is that they kind of do their own thing,
14
44640
2176
그들은 사람들을 의식하지 않고
00:46
and they're not totally aware of us.
15
46840
2136
제 할 일만 한다는 거였죠.
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
그리고 우리가 앞으로 이런 로봇에 대해 연구하다보면
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
결국에는 우리 자신에 대해 더 알게 될 거라고 생각합니다.
00:54
as opposed to just these machines.
18
54960
1656
단지 로봇뿐만 아니고 말이죠.
00:56
And what I learned that day
19
56640
1336
그리고 제가 그날 깨달은 것은
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
제가 그 작은 로봇에 꽤나 많은 기대를 걸고 있었다는 것입니다.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
그 로봇은 물리적인 공간을 차지하고 있을 뿐만 아니라
01:04
but also be able to navigate my social world --
22
64640
2656
저의 사회적 공간을 차지하기도 한다는 것이었습니다.
01:07
he's in my space; it's a personal robot.
23
67320
2176
제 공간에 있는, 제 개인로봇이
01:09
wWhy didn't it understand me?
24
69520
2016
어째서 저를 이해하지 못하겠어요?
01:11
My host explained to me,
25
71560
1256
저를 담당하는 분이 말하길
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
"뭐, 그 로봇은 A 지점에서 B 지점으로 가려는데
01:16
and you were an obstacle in his way,
27
76040
1776
당신은 그 길의 장애물이었던 거예요.
01:17
so he had to replan his path,
28
77840
2016
그래서 그 로봇은 경로를 다시 짜서
01:19
figure out where to go,
29
79880
1256
어디로 갈지 알아내고
01:21
and then get there some other way,"
30
81160
1696
다른 길로 위치를 찾아가는 거예요."
01:22
which was actually not a very efficient thing to do.
31
82880
2456
이러한 방식은 효율적이지는 않죠.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
만약 그 로봇이 제가 의자가 아닌 사람이라는 걸 알아챘다면
01:28
and that I was willing to get out of its way
33
88640
2096
또 제가 비켜주려고 했다는 걸 알았다면
01:30
if it was trying to get somewhere,
34
90760
1656
만약 어딘가로 가는 중이었다면
01:32
then it actually would have been more efficient
35
92440
2216
로봇은 더 효율적으로 움직여
01:34
at getting its job done
36
94680
1256
임무를 완수했을 것입니다.
01:35
if it had bothered to notice that I was a human
37
95960
2216
만약 제가 사람이라는 걸 인식하고
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
의자나 벽과는 다른 행동을 보일 거라는 걸 알았다면 말이죠.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
우리는 이러한 로봇들을
다른 세상, 먼 미래 또는 공상과학소설의 존재로 생각합니다.
01:45
and from the future and from science fiction,
40
105040
2136
어느 정도 사실이기는 하지만
01:47
and while that could be true,
41
107200
1416
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
저는 그런 로봇들이 이미 존재하고
01:51
and they live and work amongst us right now.
43
111320
2776
지금도 우리와 함께 생활하고 일하고 있다고 말씀드리고 싶습니다.
01:54
These are two robots that live in my home.
44
114120
2856
저희 집에는 두 대의 로봇이 있는데요.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
하나는 매일 바닥 청소를 하고
하나는 매일 잔디 깎기를 합니다.
01:59
every single day,
46
119520
1216
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
실제로 제가 그 일을 할 때보다
02:04
and they probably do it better than I would, too.
48
124160
2336
저보다 훨씬 더 잘하죠.
02:06
This one actually takes care of my kitty.
49
126520
2496
이 로봇은 제 고양이를 돌봐주는데요.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
고양이가 용변을 볼 때마다 그걸 치워줍니다.
02:11
which is not something I'm willing to do,
51
131640
1976
제가 하기 싫어하는 일이죠.
02:13
and it actually makes his life better as well as mine.
52
133640
2576
실제로 이 로봇은 저뿐만 아니라 고양이에게도 더 나은 삶을 제공하죠.
02:16
And while we call these robot products --
53
136240
2416
우리는 이런 로봇 제품들을 부를 때
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
로봇 진공 청소기, 로봇 잔디 깎기
02:21
it's a robot littler box,"
55
141400
1495
고양이용 로봇 화장실이라고 하죠.
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
우리는 이미 알게 모르게 많은 로봇들을 사용하지만
02:27
that have just become so darn useful
57
147080
1856
너무나 유용하고
02:28
and so darn mundane
58
148960
1456
일상적으로 너무 익숙해서
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
그저 "식기세척기" 같은 평범한 이름으로 부릅니다.
02:32
They get new names.
60
152960
1216
새로운 이름을 갖게 되고 더는 로봇으로 불리지 않습니다.
02:34
They don't get called robot anymore
61
154200
1696
02:35
because they actually serve a purpose in our lives.
62
155920
2416
우리 삶에 영향을 끼치니까요.
비슷한 예로 자동 온도조절기가 있죠.
02:38
Similarly, a thermostat, right?
63
158360
1496
02:39
I know my robotics friends out there
64
159880
1776
로봇공학자인 제 친구들은
02:41
are probably cringing at me calling this a robot,
65
161680
2336
제가 이걸 로봇이라고 부르면 오히려 당황할지도 몰라요.
하지막 이 장치도 목표가 있죠.
02:44
but it has a goal.
66
164040
1256
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
실내 온도를 일정하게 유지하는 목표가 있고
02:48
and it senses the world.
68
168240
1256
바깥 세상을 감지하죠.
02:49
It knows it's a little bit cold,
69
169520
1576
조금 쌀쌀하다는 걸 알게 되면
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
계획을 세운 다음 물리적 세계에서 작동합니다.
02:53
It's robotics.
71
173760
1256
이것도 로봇 공학이죠.
비록 로봇 로지(Rosie) 같은 모습은 아니더라도
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
02:57
it's doing something that's really useful in my life
73
177640
2936
제 삶에 유용한 부분을 대신해주고 있죠.
03:00
so I don't have to take care
74
180600
1376
그 덕분에 제가 직접 온도를 올리고 내리고 하지 않아도 됩니다.
03:02
of turning the temperature up and down myself.
75
182000
2576
03:04
And I think these systems live and work amongst us now,
76
184600
3816
이런 시스템은 지금 우리 삶에 함께하죠.
03:08
and not only are these systems living amongst us
77
188440
2336
우리와 삶을 함께하는 이러한 시스템들뿐만 아니라
03:10
but you are probably a robot operator, too.
78
190800
2656
아마 로봇 운영자 역시 마찬가지일 겁니다.
03:13
When you drive your car,
79
193480
1256
여러분이 차를 몰 때
03:14
it feels like you are operating machinery.
80
194760
2216
기계를 조종하는 것 같은 느낌일 겁니다.
03:17
You are also going from point A to point B,
81
197000
2816
A 지점에서 B 지점으로 가고 있을 때
03:19
but your car probably has power steering,
82
199840
2216
아마도 여러분 차에는 동력 조향 장치가 있을 거고
03:22
it probably has automatic braking systems,
83
202080
2696
자동 제동 장치도 있겠죠.
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
또 자동 변속기와 적응식 속도 유지 장치도 달려 있을지 모릅니다.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
완전히 자동화된 자동차는 아닐지라도
03:31
it has bits of autonomy,
86
211520
1296
상당 부분이 자동화되어 있습니다.
03:32
and they're so useful
87
212840
1336
유용한 기능을 제공하고 더 안전하게 운전할 수 있게 해주죠.
03:34
and they make us drive safer,
88
214200
1816
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
기계의 도움을 받고 있는지도 모릅니다.
03:39
So when you're driving your car,
90
219720
1576
따라서 운전을 한다기보다
03:41
you should just feel like you're going from one place to another.
91
221320
3096
단순히 이곳에서 저곳으로 이동할 뿐이라고 느끼게 되죠.
자동차를 다루고 작동하고 여러가지를 조작하는 것이 어렵지 않게 느껴집니다.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
03:48
and use these controls
93
228200
1256
왜냐하면 운전을 배우는 데 많은 시간을 들였고
03:49
because we spent so long learning how to drive
94
229480
2176
03:51
that they've become extensions of ourselves.
95
231680
2696
덕분에 차가 마치 우리 몸의 일부로 느껴지기 때문일 겁니다.
03:54
When you park that car in that tight little garage space,
96
234400
2696
비좁은 공간에 차를 주차할 때도 어디로 들어가야 하는지 잘 알죠.
03:57
you know where your corners are.
97
237120
1576
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
하지만 만약 렌탈카를 운전하거나 운전 경험이 없을 경우에는
새로운 차량에 적응하는 데 시간이 좀 필요합니다.
04:02
it takes some time to get used to your new robot body.
99
242000
3056
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
이는 다른 종류의 로봇을 조종하는 사람들에게도 마찬가지입니다
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
이에 관해서 몇 가지 이야기를 들려드리고 싶은데요.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
원거리 협업에 관한 문제입니다.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
윌로우 개러지에 있을 때 댈러스라는 동료가 있었는데요.
04:17
and Dallas looked like this.
104
257200
1576
이렇게 생긴 사람입니다.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
우리 회사는 캘리포니아에 있는 반면 댈러스의 집은 인디애나주였어요.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
대부분의 회의에서 댈러스는 탁자 위 기계 상자 속의 목소리로 존재했죠.
04:25
which was kind of OK except that, you know,
107
265840
2215
그래도 별 문제 없었어요.
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
토론이 격해져서 그의 말이 듣기 싫을 때
04:31
we might just hang up on him.
109
271480
1416
연결을 끊어버릴 때만 빼고는요.
04:32
(Laughter)
110
272920
1015
(웃음)
04:33
Then we might have a meeting after that meeting
111
273959
2217
그리고 그 싸움 이후 다시 미팅을 진행한다면
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
결정은 복도에서 내리게 되겠죠. 거기엔 댈러스가 없으니까요.
04:38
when he wasn't there anymore.
113
278920
1416
댈러스에게는 결코 좋은 상황이 아니죠.
04:40
So that wasn't so great for him.
114
280360
1576
04:41
And as a robotics company at Willow,
115
281960
1736
윌로우에 위치한 로봇공학 회사로서
04:43
we had some extra robot body parts laying around,
116
283720
2336
로봇 몸체 부품의 일부가 여기저기 널려 있는데요
댈러스와 그의 친구 커트는 그걸 모아서 뭔가를 만들었고
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
바퀴 달린 막대에 스카이프를 연결해 놓는다거나
04:51
which seems like a techy, silly toy,
119
291560
1736
나름 첨단의 바보 같은 장난감으로 재탄생했습니다.
04:53
but really it's probably one of the most powerful tools
120
293320
2776
하지만 실은 원거리 협업에 필요한 도구로서
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
제가 본 중에 가장 효과적인 것일지도 모르겠습니다.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
지금은 만약 제가 댈러스의 이메일에 답하지 않는다면
05:02
he could literally roll into my office,
123
302680
2216
댈러스가 제 사무실로 굴러 들어와서
05:04
block my doorway and ask me the question again --
124
304920
2576
입구를 막고 서서 대답을 요구할 거예요.
05:07
(Laughter)
125
307520
1016
(웃음)
05:08
until I answered it.
126
308560
1216
제가 답할 때까지요.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
그렇다고 그 장치를 끄지는 않아요. 무례한 행동이니까요.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
이는 일대일 의사소통에 탁월할 뿐만 아니라
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
회사의 전체 회의에서도 활용할 수 있습니다.
05:18
Getting your butt in that chair
130
318480
1696
의자에 앉아서
05:20
and showing people that you're present and committed to your project
131
320200
3216
자신도 참석했음을 보여주고
프로젝트에 헌신하는 모습을 보여주는 건 중요합니다.
05:23
is a big deal
132
323440
1256
05:24
and can help remote collaboration a ton.
133
324720
2176
또한 원거리 협업에도 큰 도움이 될 수 있죠.
05:26
We saw this over the period of months and then years,
134
326920
2856
그리고 지난 몇 년 동안 이 로봇이 우리 회사뿐만 아니라
05:29
not only at our company but at others, too.
135
329800
2160
다른 회사에서도 도움이 된다는 것을 알 수 있었습니다.
05:32
The best thing that can happen with these systems
136
332720
2336
이 시스템의 가장 큰 장점은
현장에 있는 듯한 느낌을 받는다는 것입니다.
05:35
is that it starts to feel like you're just there.
137
335080
2336
05:37
It's just you, it's just your body,
138
337440
1696
로봇이 우리 자신, 우리의 몸이 되는 거죠.
05:39
and so people actually start to give these things personal space.
139
339160
3096
사람들도 이 로봇을 하나의 개인으로 대하기 사작합니다.
05:42
So when you're having a stand-up meeting,
140
342280
1976
모두 일어서서 회의를 할 때도 로봇 주위에 사람들이 모이겠죠.
05:44
people will stand around the space
141
344280
1656
05:45
just as they would if you were there in person.
142
345960
2216
여러분이 직접 그곳에 있는 것처럼요.
로봇이 고장나기 전까지는 괜찮겠죠.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
05:50
People, when they first see these robots,
144
350800
1976
사람들이 처음 로봇과 마주할 때
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
"부품들이 어디 달려 있지? 카메라가 여기 있을텐데" 하면서
얼굴을 빤히 쳐다보다가
05:56
and they start poking your face.
146
356400
1576
"말소리가 너무 작아. 좀 키워야겠어."라고 합니다.
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
그런데, 직장 동료가 여러분에게 와서
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
"네 말소리가 너무 작은데. 얼굴을 좀 높여야겠어"
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
이렇게는 말하지 않겠죠. 뭔가 이상해요.
06:06
That's awkward and not OK,
150
366520
1256
06:07
and so we end up having to build these new social norms
151
367800
2616
그래서 우리는 이 시스템을 이용하는 데 필요한
06:10
around using these systems.
152
370440
2216
새로운 사회적 규칙을 만들게 되었습니다.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
이와 비슷하게, 로봇이 내 신체의 일부라고 느끼는 시점부터
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
여러분은 "내 로봇은 좀 작은 거 같아"라는 식으로 느끼게 됩니다.
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
댈러스가 저에게 그렇게 말했죠. 댈러스는 180cm거든요.
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
그리고 로봇에 접속한 댈러스를 데리고 칵테일 파티 같은 곳에 데려갔죠
우리들이 보통 하는 것처럼요.
06:26
as you do,
157
386000
1216
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
로봇의 키는 150cm였고 제 키랑 비슷하죠.
06:30
And he would tell me,
159
390600
1216
댈러스는 저에게 말했습니다.
06:31
"You know, people are not really looking at me.
160
391840
2536
"사람들이 날 제대로 쳐다보지 않아.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
온통 어깨만 보이잖아.
06:37
and it's just -- we need a taller robot."
162
397120
1976
좀 더 키가 큰 로봇을 만들어야겠어"
06:39
And I told him,
163
399120
1256
그래서 저는 이렇게 말헀죠.
06:40
"Um, no.
164
400400
1296
"아니.
06:41
You get to walk in my shoes for today.
165
401720
1936
오늘은 내 입장에서 한번 살아봐.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
키가 작은 사람의 입장에서 보는 세상이 어떤지 한번 느껴봐."
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
실제로 댈러스는 그날의 경험을 통해 저 같은 사람을 더 잘 이해하게 됐죠.
06:50
which was kind of great.
168
410640
1256
정말 좋은 일이죠.
06:51
So when he'd come visit in person,
169
411920
1656
그래서 댈러스가 저를 직접 찾아왔을 때 이전처럼 제 옆에 서서 이야기하지 않고
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
앉아서 제 눈을 바라보며 이야기하게 됐어요.
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
06:58
which was kind of a beautiful thing.
172
418160
1736
이런 변화는 정말 멋진 일이었어요.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
그레서 저희는 실제로 이 부분을 살펴보기로 했습니다.
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
로봇의 키가 다른 경우에 어떤 변화가 나타나는지 봤죠.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
연구진의 절반은 키가 작은 로봇을 썼고
07:09
half of the people in our study used a taller robot
176
429160
2416
나머지 절반은 키가 큰 로봇을 사용했어요.
07:11
and we actually found that the exact same person
177
431600
2256
그 결과, 똑같은 인물이
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
같은 신체를 갖고, 같은 말을 하는데도
더 큰 로봇을 이용할 때 좀 더 설득력을 갖고 믿을만한 인물로
07:17
is more persuasive and perceived as being more credible
179
437240
2616
07:19
if they're in a taller robot form.
180
439880
1656
여긴다는 것을 발견했습니다.
07:21
It makes no rational sense,
181
441560
1816
논리적으로는 말이 안되지만
07:23
but that's why we study psychology.
182
443400
1696
그래서 심리학이 필요한 거죠.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
클리프 나스가 주장하던 것도
07:28
is that we're having to deal with these new technologies
184
448000
3016
우리가 낡은 두뇌를 가지고 있음에도 불구하고
07:31
despite the fact that we have very old brains.
185
451040
2736
최첨단 기술을 다룰 수 있어야 한다는 것이었죠.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
인간심리학의 발전 속도는 기술 발전과는 다르잖아요.
07:36
and so we're always playing catch-up,
187
456800
1816
그래서 기술 발전 속도를 따라잡아야 하고
07:38
trying to make sense of this world
188
458640
1656
자동화 기계들이 굴러다니는 세계를 이해하려 노력해야 하는 것이죠.
07:40
where these autonomous things are running around.
189
460320
2336
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
보통 말을 하는 것은 사람이지 기계가 아닙니다, 그렇죠?
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
그래서 우리는 로봇의 키 같은 여러가지 부분에 의미를 둡니다.
07:50
not a person,
192
470040
1256
사람이 아니구요.
07:51
and attribute that to the person using the system.
193
471320
2360
그리고 그것을 그 시스템을 사용하는 사람과 결부시키죠.
07:55
You know, this, I think, is really important
194
475120
2216
저는 로봇공학을 이야기할 때 이 점이 굉장히 중요하다고 생각합니다.
07:57
when you're thinking about robotics.
195
477360
1736
로봇공학은 인간을 재발명하는 것이 아니라
07:59
It's not so much about reinventing humans,
196
479120
2096
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
우리 자신을 어떻게 더 확장하는지 그 방법을 찾는 것입니다.
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
하지만 그 결과를 보고 우리는 놀라게 되죠.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
로봇은 팔이 없기 때문에 당구 게임을 할 수는 없지만
08:11
but they can heckle the guys who are playing pool
200
491680
2336
당구를 하고 있는 사람들에게 야유를 퍼부을 수는 있죠.
08:14
and that can be an important thing for team bonding,
201
494040
3176
이는 팀 유대가 중요하다는 면에서 어느 정도 필요하죠.
08:17
which is kind of neat.
202
497240
1296
08:18
People who get really good at operating these systems
203
498560
2496
기계를 정말 잘 다루는 사람이라면 새로운 게임을 만들 수도 있을 겁니다.
08:21
will even do things like make up new games,
204
501080
2056
한밤중에 주변에 휴지통들을 두고 로봇 축구를 한다든지 말이죠.
08:23
like robot soccer in the middle of the night,
205
503160
2136
08:25
pushing the trash cans around.
206
505320
1456
08:26
But not everyone's good.
207
506800
1576
하지만 모두가 능숙하진 않겠죠.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
많은 사람들이 로봇을 사용하는 데 어려움을 겪습니다.
08:30
This is actually a guy who logged into the robot
209
510920
2256
지금 이 로봇에 로그인 한 남자는
로봇 눈이 왼쪽으로 90도 돌아가 있는데도 전혀 알아채지 못했어요.
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
08:35
He didn't know that,
211
515600
1256
그래서 사무실 여기저기에 부딪혔죠.
08:36
so he ended up just bashing around the office,
212
516880
2176
책상으로 돌진하기도 해서 엄청나게 당황하기도 했고요.
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
그걸 보고 크게 웃었을 때는 또 소리가 너무 컸어요.
08:41
laughing about it -- his volume was way too high.
214
521720
2336
그때 여기 사진 속의 남성이 제게 말하더군요.
08:44
And this guy here in the image is telling me,
215
524080
2136
"로봇에게도 음소거 버튼이 필요해요."
08:46
"We need a robot mute button."
216
526240
2096
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
한 마디로 다른 사람들에게 불편을 주고 싶지 않다는 거였죠.
08:51
So as a robotics company,
218
531880
1616
그래서 우리 회사는
08:53
we added some obstacle avoidance to the system.
219
533520
2456
이 로봇에 장애물 회피 기능을 추가했습니다.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
작은 레이저 탐지기로 장애물을 탐지하고
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
제가 만약 로봇을 조종하면서 의자를 향해 돌진하라고 명령을 내리면
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
그 명령에 따르지 않고 우회로를 찾아가는 겁니다.
09:04
which seems like a good idea.
223
544760
1856
멋진 발상이죠.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
이 탐지기 덕분에 사무실 내 사물과 부딪히는 횟수가 줄어든 것은 사실이지만
09:09
but actually, for some of the people,
225
549840
2096
또한 일부에게는
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
이 시스템에 적응하는 데 더 많은 시간이 걸렸어요.
09:14
and we wanted to know why.
227
554840
1560
어째서였을까요?
09:17
It turns out that there's this important human dimension --
228
557080
3056
이는 우리 인간의 공간 인식 문제가 원인이었습니다.
09:20
a personality dimension called locus of control,
229
560160
2296
개인마다 "통제 소재"라는 공간 개념이 있는데 요.
09:22
and people who have a strong internal locus of control,
230
562480
3136
강력한 내부 통제 소재를 갖고 있는 사람들은
09:25
they need to be the masters of their own destiny --
231
565640
3056
자기 운명을 스스로 통제하고 싶어 합니다.
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
자동화 기기를 자신의 의지대로 움직이고 싶어 하죠.
09:31
so much so that they will fight the autonomy;
233
571840
2136
그래서 종종 충돌이 일어납니다.
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
"내가 의자를 들이받고 싶을 때 들이받게 할 거야"
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
그래서 이들은 자동화 기기의 도움을 받는 것을 성가시게 여깁니다.
09:40
which is an important thing for us to know
236
580760
2576
우리 연구자들에게는 중요한 연구 항목이죠.
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
우리는 이전보다 훨씬 자동화된 자동차를 만드는 중이니까요.
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
통제권을 잃었을 떄 사람마다 어떻게 대처할 것인가에 관한 문제죠.
09:50
It's going to be different depending on human dimensions.
239
590880
2696
개인의 통제 소재에 따라 다를 겁니다.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
인간은 하나의 획일화된 기준으로 접근할 수 있는 대상이 아니니까요.
09:57
We vary by personality, by culture,
241
597120
2416
각자의 인격과, 문화
09:59
we even vary by emotional state moment to moment,
242
599560
2456
매 순간 우리의 감정에 따라 달라지죠.
10:02
and being able to design these systems,
243
602040
1976
이렇게 인간과 로봇이 상호작용하는 시스템을 만들기 위해서는
10:04
these human-robot interaction systems,
244
604040
2296
10:06
we need to take into account the human dimensions,
245
606360
2736
단순히 기술적인 면뿐만 아니라
인간의 입장에서도 충분히 고려를 해봐야 합니다.
10:09
not just the technological ones.
246
609120
1720
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
힘에는 책임이 따르는 법이죠.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
만일 여러분이 이 시스템의 사용자였다면
10:18
this is what the interface would look like.
249
618840
2056
그 인터페이스는 이런 모습일 것입니다.
10:20
It looks a little bit like a video game,
250
620920
1936
비디오 게임과 좀 비슷하죠.
10:22
which can be good because that's very familiar to people,
251
622880
2976
사람들에게 매우 친숙하기 때문에 장점이 되는 반면
10:25
but it can also be bad
252
625880
1216
단점이 될 수도 있습니다.
10:27
because it makes people feel like it's a video game.
253
627120
2456
왜냐하면 사람들에게는 정말 비디오 게임으로 느껴질 수 있거든요.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
우리 연구소가 있는 스탠포드 근처의 멘로 공원에서 한 무리의 아이들이
우리가 만든 시스템을 이용해 로봇을 조종한 적이 있었는데요.
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
10:34
and the kids started saying things like,
256
634960
1936
아이들이 이렇게 말 하더군요.
"저 남자를 맞추면 10점, 이 남자를 맞추면 20점이야!"
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
그러면서 복도로 로봇을 몰아 목표를 쫓아 가더라고요.
10:40
And they would chase them down the hallway.
258
640120
2016
10:42
(Laughter)
259
642160
1016
(웃음)
10:43
I told them, "Um, those are real people.
260
643200
1936
제가 말했어요. "얘들아 저 사람들은 진짜야.
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
로봇으로 들이받으면 피를 흘리고 아파할 거야."
10:48
And they'd be like, "OK, got it."
262
648480
1616
그러자 아이들이 "알았어요." 라고 헀지만
10:50
But five minutes later, they would be like,
263
650120
2056
5분 뒤에는 다시
"저 남자를 맞추면 20점이야! 한 번 때려주고 싶게 생겼거든."
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
영화 "엔더스 게임" 같죠?
화면 반대편은 현실세계인 것이죠.
10:58
There is a real world on that other side
266
658000
1936
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
로봇 인터페이스를 개발하는 디자이너로서 우리의 책임은
11:03
to help people remember
268
663400
1256
사람들로 하여금 자신의 행동에 실제로 어떤 결과가 따르는지 알게 하고
11:04
that there's real consequences to their actions
269
664680
2256
11:06
and to feel a sense of responsibility
270
666960
2296
책임감을 갖도록 하는 겁니다.
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
사람들이 앞으로 더욱 많은 자동화 기기들을 다루게 될 테니까요.
11:13
These are kind of a great example
272
673840
2296
로봇공학이 가져올 미래에 일어날 법한 훌륭한 예시가 하나 있는데요.
11:16
of experimenting with one possible robotic future,
273
676160
3256
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
저는 로봇을 통해 우리 자신을 확장하고
11:23
and learn about the ways that we extend ourselves
275
683320
2336
그 방법을 배우는 일이 멋지다고 생각합니다.
11:25
into these machines
276
685680
1216
11:26
while at the same time being able to express our humanity
277
686920
2696
그와 동시에 우리 인간성과 개성을 표현하는 것도 중요하다고 생각해요.
11:29
and our personality.
278
689640
1216
11:30
We also build empathy for others
279
690880
1576
타인을 동정할 줄 알아야 합니다.
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
크거나, 작거나, 빠르거나, 느리거나
11:35
and maybe even armless,
281
695720
1416
심지어 팔이 없더라도 말이죠.
11:37
which is kind of neat.
282
697160
1336
근사한 일이죠.
11:38
We also build empathy for the robots themselves.
283
698520
2536
또한 로봇 그 자체에 대해서도 감정이입을 할 수 있겠죠.
11:41
This is one of my favorite robots.
284
701080
1656
이 녀석은 제가 좋아하는 로봇입니다. 트윈봇(Tweenbot)이라고 하죠.
11:42
It's called the Tweenbot.
285
702760
1456
11:44
And this guy has a little flag that says,
286
704240
1976
이 녀석에겐 이런 말이 적힌 깃발이 달려있어요.
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
"난 맨해튼에 있는 교차로에 가고 싶어"
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
이 귀여운 로봇은 앞으로 전진만 할 줄 압니다.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
지도를 만들지도 않고, 바깥 세상도 보지 못해요.
단지 사람들의 도움을 청하죠.
11:55
it just asks for help.
290
715120
1256
11:56
The nice thing about people
291
716400
1336
사람들이 가진 좋은 점 중 하나는
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
타인의 선의에 기댈 수 있도록 도와준다는 점입니다.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
제 로봇은 실제로 맨해튼의 반대편까지 가는데 성공했습니다.
12:04
which is pretty great --
294
724800
1256
정말 대단하죠.
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
사람들이 로봇을 집어서 방향을 제대로 잡게 도와줬거든요.
(웃음)
12:09
(Laughter)
296
729560
936
12:10
And that's great, right?
297
730520
1256
정말 놀랍지 않나요?
12:11
We're trying to build this human-robot world
298
731800
2696
우리는 인간과 로봇의 세상을 만들려고 합니다
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
서로 협력하고 공존하는 사회 말이죠.
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
완전히 자동화될 필요는 없어요. 다만 우리 할 일을 하면 되는 거죠.
12:21
We actually do things together.
301
741360
1496
실제로 같이 하고 있기도 하고요.
12:22
And to make that happen,
302
742880
1256
이를 현실화하려면 예술가와 디자이너의 도움이 필요합니다.
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
정치인들, 법학자들
12:27
the policy makers, the legal scholars,
304
747440
1856
심리학자, 사회학자, 인류학자 같은 사람들의 도움이 필요해요
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
12:31
we need more perspectives in the room
306
751560
1816
보다 다양한 관점이 필요합니다.
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
스투 카드가 언급한 대로
우리가 살고 싶어하는 미래를 창조하길 원한다면 말이죠.
12:36
which is invent the future that we actually want to live in.
308
756400
3936
12:40
And I think we can continue to experiment
309
760360
2656
그리고 저는 우리가 로봇과 함께하는 다양한 미래를 향해서
12:43
with these different robotic futures together,
310
763040
2176
계속 도전할 수 있다고 생각합니다.
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
그 과정에서 우리는 우리 자신에 대해 더 많이 배울 수 있을 것입니다.
12:50
Thank you.
312
770720
1216
감사합니다.
12:51
(Applause)
313
771960
2440
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7