아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Han-Me Kim
검토: Ian Park
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
오늘 저는 여러분께 로봇이 얼마나 다양한 모습으로, 다양한 시간대에
00:23
at multiple levels, over multiple timescales.
1
23330
3000
우리의 삶에 밀어닥칠 것인지에 대한 제 견해를 말씀드리고자 합니다.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
500년 뒤의 미래를 상상해보면
00:30
where we don't have robots everywhere.
3
30330
2000
로봇이 사용되지 않는 곳이 있는 세상을 상상 할 수 없습니다.
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
우리 미래에 대한 많은 비관적인 예측들을 배제하고, 여전히 인간이 존재한다면,
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
로봇이 대중화 되지 않은 세상은 상상 할 수 없습니다.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
만약 그렇다면, 로봇이 500년 안에 그렇게 대중화가 될 수 있다고 한다면,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
500년보다 더 빨리 이뤄질 수는 없을까요?
00:46
Are they going to be around in 50 years?
8
46330
2000
앞으로 50년 안에 로봇을 우리 주변 곳곳에서 볼 수는 없을까요?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
네. 저는 멀지않은 미래에 로봇이 우리 삶 곳곳에 쓰여질 것이며
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
그 시기가 우리의 예측보다 훨씬 빨리 이뤄질 것이라고 생각합니다.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
저는 지금 우리가 로봇이 점차 일반화되기 시작하는 시점에 있다고 생각합니다.
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
개인용 컴퓨터 시대와 비교했을 때, 처음으로 몇몇 로봇이 나타나기 시작한 지금은
01:04
where the first few robots are starting to appear.
13
64330
3000
1978년 혹은 1980년과 비슷한 상황인 것이죠.
01:07
Computers sort of came around through games and toys.
14
67330
4000
컴퓨터는 처음 게임이나 장난감 형태로 세상에 나타나기 시작했습니다.
01:11
And you know, the first computer most people had in the house
15
71330
3000
여러분들도 아시다시피, 대부분의 사람들이 처음 집에 가지고 있었던 컴퓨터는
01:14
may have been a computer to play Pong,
16
74330
2000
작은 마이크로프로세서 내장한
01:16
a little microprocessor embedded,
17
76330
2000
"퐁(Pong, 초창기 아케이드 게임)" 게임기였습니다.
01:18
and then other games that came after that.
18
78330
3000
그리고, 그 이후로 다른 게임들이 나타나기 시작했죠.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
지금 화면을 보시면 처음 컴퓨터와 똑같은 형태의 로봇들을 보실 수 있습니다.
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
레고의 마인드 스톰, 퍼비.. 여기 퍼비를 가져보신 분 계신가요?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
네, 전세계적으로 3천8백만대가 팔렸었죠.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
퍼비는 몇개의 센서를 가지고, 간단한 동작을 할 수 있는
01:33
a simple robot with some sensors,
23
93330
2000
아주 작고 단순한 로봇으로
01:35
a little bit of processing actuation.
24
95330
2000
거의 대중적으로 인기를 끌었었죠.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
그 오른쪽에는 몇년전에 구입할 수 있었던 다른 로봇 인형도 보실 수 있습니다.
01:40
And just as in the early days,
26
100330
2000
그리고, 컴퓨터를 통한 많은 아마추어 활동이 있었던
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
초창기 개인용 컴퓨터 시대 때와 같이, 로봇과 관련해서도
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
어떻게 해킹을 할 수 있는지를 설명하는 책들과 도구들을 구할 수 있습니다.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
그리고, 화면 왼쪽에 보이는 것은 Evolution Robotics에서 만든 플랫폼으로
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
PC를 장착하고, 그래픽 사용자 인터페이스를 통해
01:58
to wander around your house and do various stuff.
31
118330
3000
집안을 돌아다니거나, 여러가지 일들을 하도록 프로그램 할 수 있습니다.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
그리고, 여기에 고가의 장난감 로봇들이 있는데
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
소니의 "아이보"와 오른쪽에는 NEC에서 개발한 것으로
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
"파페로"라는 로봇인데, 시장에 출시될 것 같지는 않습니다.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
그렇지만, 이러한 장난감 로봇들이 현재 판매, 개발되고 있는 것은 분명합니다.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
그리고, 우리는 2~3년 전부터 잔디깍이 로봇들을 보아왔습니다.
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
아래의 것이 "허스크바나"이고, 위에 것이 이스라엘 회사 Friendly Robotics입니다.
02:24
And then in the last 12 months or so
38
144330
2000
그리고, 대략 1년전부터는,
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
많은 종류의 청소 로봇들이 출시되고 있습니다.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
먼저 좌측 상단에는 영국의 다이슨이란 회사에서 만든
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
매우 좋은 성능의 청소 로봇이 있습니다.
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
하지만, 3천5백달러나 하는 비싼 가격으로 출시되지 않았죠.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
하지만, 좌측 하단의 일렉트로룩스 제품은 현재 판매되고 있습니다.
02:42
Another one from Karcher.
44
162330
2000
그리고, 카처에서 만든 제품도 있고
02:44
At the bottom right is one that I built in my lab
45
164330
2000
우측 하단의 것은 약 10년전 쯤에 저희 연구실에서 개발한 것입니다.
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
그리고, 현재는 제품으로 상용화가 되었죠.
02:49
And let me just show you that.
47
169330
2000
그럼 직접 그 제품을 시연하도록 하겠습니다.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
먼저 크리스가 말한 것처럼 이 강연 이후에 더 보실 수 있도록 하겠습니다.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
이 청소 로봇은 현재 시중에서 사실 수 있는 것으로, 바닥 청소를 해줍니다.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
처음 시작하면 이 로봇은 점점 늘어나는 원형 형태로 움직이다가
03:10
If it hits something -- you people see that?
51
190330
4000
지금 보시는 것과 같이 어느 곳에 부딪히면
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
지금 제 발 주위로 움직이는 것처럼 벽을 따라 움직이면서
03:17
to clean up around me. Let's see, let's --
53
197330
4000
그 주변을 청소합니다.
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
어, 누가 내 과자를 훔쳐갔죠? 로봇들이 내 쌀과자를 훔쳐갔다 보군요!
03:26
(Laughter)
55
206330
6000
(웃음)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
그냥 두세요. 괜찮아요. 그거 로봇이에요. 똑똑하다고요.
03:35
(Laughter)
57
215330
3000
(웃음)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
여기 세살짜리 꼬맹이들도 전혀 걱정안하고 있잖아요.
03:42
It's grown-ups that get really upset.
59
222330
2000
어른들이나 이런거에 신경을 곤두세우지요.
03:44
(Laughter)
60
224330
1000
(웃음)
03:45
We'll just put some crap here.
61
225330
2000
자 여기에 과자를 한번 뿌려볼까요?
03:47
(Laughter)
62
227330
4000
(웃음)
03:51
Okay.
63
231330
2000
자 됐습니다.
03:53
(Laughter)
64
233330
4000
(웃음)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
보이실런지 모르겠지만, 이곳에 과자를 좀 뿌렸고,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
동전도 좀 놓았습니다. 그럼 로봇을 동작시켜 어떻게 청소를 하는지 보도록하죠.
04:10
Yeah, OK. So --
67
250330
2000
네, 좋습니다.
04:12
we'll leave that for later.
68
252330
4000
나중에 더 보여드리도록 하지요.
04:16
(Applause)
69
256330
5000
(박수)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
까다로웠던 것 중 하나는 좀 더 효과적인 청소용 기구물을 제작하는 것이었습니다.
04:26
the intelligence on board was fairly simple.
71
266330
4000
사용된 인공지능은 의외로 간단했죠.
04:30
And that's true with a lot of robots.
72
270330
2000
이것은 다른 많은 로봇 개발에도 적용되는 사실입니다.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
제 생각에는 우리가 언젠가부터 컴퓨터의 맹신자가 된 것 같은데
04:36
and think that computation is everything,
74
276330
2000
그래서, 컴퓨터면 모든 것이 다 된다고 생각하는 경향이 있죠.
04:38
but the mechanics still matter.
75
278330
2000
그러나, 사실은 기구물들이 여전히 핵심 기술입니다.
04:40
Here's another robot, the PackBot,
76
280330
3000
여기에 우리가 몇년에 걸쳐 개발하고 있는
04:43
that we've been building for a bunch of years.
77
283330
2000
"팩봇"이라는 또 하나의 로봇이 있습니다.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
이것은 군사용 감시 로봇으로써, 예를들어
04:51
looking at caves, for instance.
79
291330
3000
군인들보다 먼저 동굴에 들어가 위험 여부를 확인하는 등의 임무를 수행합니다.
04:54
But we had to make it fairly robust,
80
294330
2000
우리는 이 로봇을 이제까지 개발했던 어떤 로봇보다
04:56
much more robust than the robots we build in our labs.
81
296330
7000
더 강하게 만들어야 했습니다.
05:03
(Laughter)
82
303330
3000
(웃음)
05:12
On board that robot is a PC running Linux.
83
312330
4000
이 로봇 자체는 리눅스로 운영되는 컴퓨터이고
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
400G 충격을 견딜 수 있도록 만들어졌습니다.
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
그리고, 이 로봇은 인공지능을 가지고 있어서 혼자 뒤집을 수도 있고,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
스스로 통신지역으로 이동하거나, 층계를 올라가는 등의 일을 할 수 있습니다
05:38
Okay, so it's doing local navigation there.
87
338330
4000
네, 여기서는 로봇이 로컬 네비게이션을 수행하고 있는 것을 보여주고 있는데요.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
군인이 층계를 올라가라고 명령을 하면, 그대로 수행을 합니다.
05:49
That was not a controlled descent.
89
349330
3000
보시는것처럼 가끔 말썽을 부리기도 하지만 말이지요.
05:52
(Laughter)
90
352330
2000
(웃음)
05:54
Now it's going to head off.
91
354330
2000
자 이제 스스로 다시 움직이는군요.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
이 로봇이 수행한 가장 큰 작전 중 하나는 9월11일 그날에 있었습니다.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
그날 저녁 우리는 국제 무역 센터로 이 로봇을 가지고 갔습니다.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
그 거대한 잔해속에서 할 수 있는 것도 별로 없었고
06:08
things were just too -- there was nothing left to do.
95
368330
3000
정말 아무것도 남아 있는 것도 없었지만
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
우리는 이미 소개된 그 주변의 모든 건물들에 들어가
06:16
and searched for possible survivors in the buildings
97
376330
3000
있을지도 모를 생존자 수색을 했습니다.
06:19
that were too dangerous to go into.
98
379330
2000
사람이 들어가기에는 너무 위험한 그곳에 이 로봇을 이용해서 말이죠.
06:21
Let's run this video.
99
381330
2000
이 영상 하나를 보도록 하겠습니다.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
리포터: ... 전쟁의 위험을 낮추는데 도움이 되고 있습니다.
06:26
Nick Robertson has that story.
101
386330
3000
닉 로버트슨 기자입니다.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
로드니 부룩스: 이런 것 하나 더 얻을 수 있을까요?
06:38
Okay, good.
103
398330
2000
네, 좋네요.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
여기에 나오는 이 군인은 2주정도 앞서 이 로봇에 대한 교육을 받았고
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
현재 동굴 내부를 살펴보기 위해 로봇을 동굴 안으로 보냈습니다.
06:52
The robot's being totally autonomous.
106
412330
2000
이제부터 이 로봇은 완전히 자동으로 동작합니다.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
지금까지 이 동굴에서 작전 중 발생한 가장 안좋았던 사건은
06:58
was one of the robots fell down ten meters.
108
418330
3000
로봇중 하나가 10미터 아래로 떨어졌던 것이었죠.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
1년전만 하더라도 미군은 이러한 로봇을 가지고 있지 않았습니다.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
하지만, 지금은 아프가니스탄에서 매일 그들의 임무를 수행하고 있습니다.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
이것이 우리 주변에서 로봇이 쓰이기 시작했다고 말하는 이유중 하나입니다.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
현재 로봇 기술이 어떻게, 어떤 방향으로 발전해나갈지에 대한 큰 변화가 일어나고 있습니다.
07:20
Thanks.
113
440330
2000
감사합니다.
07:23
And over the next couple of months,
114
443330
2000
그리고, 몇달 뒤에 우리는
07:25
we're going to be sending robots in production
115
445330
3000
향후 몇년동안 석유를 채취 할 유정(油井) 건설에 사용될
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
로봇을 생산 할 계획입니다.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
이 로봇은 섭씨 150도가 넘고, 10,000 PSI인 매우 혹독한 환경의
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
땅속으로 내려가 그 임무를 수행하게 될 것입니다.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
현재 이러한 로봇들은 프로그램하기가 좀 어렵습니다.
07:43
How, in the future, are we going to program our robots
120
463330
2000
그럼 미래에 우리는 어떻게 우리의 로봇들을 프로그램할까요?
07:45
and make them easier to use?
121
465330
2000
어떻게 그들을 더욱 사용하기 쉽게 말들 수 있을까요?
07:47
And I want to actually use a robot here --
122
467330
3000
이해하기 쉽도록 여기있는 크리스를 로봇이라 가정하고 보여드리겠습니다.
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
크리스, 일어나세요. 네 좋습니다.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
이리로 오세요. 지금 크리스가 움직이는 것을 보시면
08:01
He sort of does that. But I'm going to --
125
481330
3000
크리스는 로봇이라면 딱딱하게 움직여야 한다고 생각하고 그렇게 움직입니다.
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
난 그냥 영국인이라서 그래요.
08:06
(Laughter)
127
486330
2000
(웃음)
08:08
(Applause)
128
488330
2000
(박수)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
전 지금 이 로봇에게 매우 복잡한 작업을 하나 보여주려고 합니다.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
지금 보시면 이 로봇은 끄덕이면서 저에게 반응을 보입니다.
08:16
he was understanding the flow of communication.
131
496330
3000
그는 지금 대화의 흐름을 이해하고 있는 것이죠.
08:19
And if I'd said something completely bizarre
132
499330
2000
그리고, 만약 제가 전혀 이상한 것을 얘기하면
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
그는 저를 이상하게 쳐다보고 대화를 바꾸려고 할 것입니다.
08:24
So now I brought this up in front of him.
134
504330
3000
자, 지금처럼 제가 이렇게 물병 하나를 들어보이면서, 이 로봇의 시선을 보면
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
이 로봇이 지금 이 물병 뚜껑을 바라보고 있는 것을 알수 있습니다.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
그리고, 저는 이 로봇이 계속 주시하는 동안 이러한 동작을 보여줍니다.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
그러면, 로봇은 눈을 위, 아래로 움직이면서, 내가 현재 쳐다보고 있는 것을 확인하죠.
08:36
so we've got shared attention.
138
516330
2000
이런 식으로 우리는 서로에게 주시를 합니다.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
이렇게 내가 작업을 수행하고, 그가 쳐다보고, 다음에는 무엇이 진행될지 확인하기 위해
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
저를 쳐다보죠. 그런 다음 저는 물병을 로봇에게 건냅니다.
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
그럼 이 로봇이 똑같은 동작을 할 수 있는지 보도록하지요. 할 수 있어요?
08:47
(Laughter)
142
527330
3000
(웃음)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
네, 아주 잘하고 있습니다. 매우 좋아요.
08:54
I didn't show you how to do that.
144
534330
2000
난 그런 동작을 보여주지 않았어요.
08:56
Now see if you can put it back together.
145
536330
2000
그럼 다시 이 뚜껑을 닫을 수 있는지 봅시다.
08:58
(Laughter)
146
538330
2000
(웃음)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
크리스는 로봇이 정말 천천히 움직여야 된다고 생각하나보네요.
09:01
Good robot, that's good.
148
541330
2000
잘했어요 로봇. 아주 잘했어요.
09:03
So we saw a bunch of things there.
149
543330
2000
자 우리는 지금까지 여러가지를 보았습니다.
09:06
We saw when we're interacting,
150
546330
3000
우리는 서로 상호 작용을 할 때,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
어떤 것을 어떻게 하는지를 보여주면서, 그들의 시각적 주의를 이끌었죠.
09:13
The other thing communicates their internal state to us,
152
553330
4000
다른 것으로는 그들의 내부 상태를 저희에게 알려주는 것이 있고
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
정말 이해하고 했는지 아닌지는 모르겠지만, 사회적 상호 작용을 제어했고,
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
같은 것을 바라보면서 서로에게 주시했죠.
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
그리고, 마지막에는 사회적 의사 소통을 인식하고 강화했습니다.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
그래서, 우리 연구실에서는 이와 같은 것들을 로봇에 넣으려고 노력해왔습니다.
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
왜냐하면, 이러한 방법들이 미래에 우리가 원하는 로봇과의 의사 소통 방법이라고 생각했기 때문입니다.
09:33
I just want to show you one technical diagram here.
158
573330
2000
여기 기술적인 다이어그램 하나를 보여드리려고 합니다.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
우리가 상호 작용을 할 수 있는 로봇을 개발하는데 가장 중요한 것은
09:39
is its visual attention system.
160
579330
2000
로봇의 비주얼 어텐션 시스템입니다.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
왜냐하면, 어떤 것에 집중한다는 것은 그것을 보고 있다는 뜻이고,
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
그것과 상호 작용을 한다는 것이며, 그것이 무엇을 하고 있는지를 이해한다는 뜻이기 때문입니다.
09:47
So in the videos I'm about to show you,
163
587330
3000
그래서, 제가 곧 보여드릴 비디오에서
09:50
you're going to see a visual attention system on a robot
164
590330
4000
여러분은 로봇의 비쥬얼 어텐션 시스템을 보시게 될 것입니다.
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
HSV 컬러 모델에서
09:58
so it works across all human colorings.
166
598330
4000
인체색에 해당하는 피부색을 찾아내고
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
장난감 영역에 해당하는 색이 높게 포화된 영역을 찾아냅니다.
10:04
And it looks for things that move around.
168
604330
2000
또, 영상에서 움직이는 영역들을 찾아냅니다.
10:06
And it weights those together into an attention window,
169
606330
3000
그리고, 이 모든 것들에 가중치를 더해 어텐션 윈도우에 넣고,
10:09
and it looks for the highest-scoring place --
170
609330
2000
그중에서 가장 높게 매겨진 영역을
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
가장 관심있는 영역이라 생각하고 찾는 것이죠.
10:13
and that is what its eyes then segue to.
172
613330
4000
그리고, 그 영역을 로봇의 눈이
10:17
And it looks right at that.
173
617330
2000
쳐다보게 되는 것입니다.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
그리고 동시에, 다른 접근 방식으로
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
로봇은 스스로 외롭다고 생각하고 피부색을 찾을 수도 있고,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
혹은, 심심하다고 생각되어 가지고 놀 장난감을 찾을 수도 있습니다.
10:28
And so these weights change.
177
628330
2000
그러면, 이러한 가중치들이 변하게되죠.
10:30
And over here on the right,
178
630330
2000
그리고, 맨 오른쪽의 그림
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
우리는 이것을 스티븐 스필버그 메모리얼 모듈이라고 부르는데
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
여기 영화 AI를 보신분 계신가요? 청중: 네.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
네, 정말 별로인 영화였죠, 하지만
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
작은 로봇 역활을 했던 할리 조엘 오스먼트가 파란색 요정을
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
2천년동안 한시도 눈을 떼지 않고 바라본 것을 기억하시나요?
10:47
Well, this gets rid of that,
184
647330
2000
이것이 그런 현상을 없앨 수 있습니다.
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
왜냐하면, 이것은 음수를 가지는 습관화 가우시안으로써,
10:53
and more and more intense as it looks at one thing.
186
653330
3000
로봇이 한 곳을 바라보면 그 부분의 강도가 점점 세어지도록 되어 있습니다.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
그러므로, 로봇이 지루함을 느끼게 할 수 있고, 다른 흥미로운 것을 찾게 할 수 있지요.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
그러면, 이러한 개념들을 가지고, 여기에 현재 장남감을 찾고 있는
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
"키스멧"이라고 부르는 로봇을 보도록 하겠습니다.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
카메라를 감싸고 있는 로봇 눈의 방향을 가지고, 현재 로봇이 어디를 바라보고 있는지 알 수 있습니다.
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
그러므로, 우리는 로봇이 저 장난감을 바라볼 때를 알 수 있고,
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
작은 감정 표현을 하는 것도 볼 수 있네요.
11:17
(Laughter)
193
677330
1000
(웃음)
11:18
But it's still going to pay attention
194
678330
2000
그러나, 좀 더 중요한 것이 자신의 시각에 나타나면
11:20
if something more significant comes into its field of view --
195
680330
4000
그것으로 주의를 돌릴 수 있습니다.
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
지금 오른쪽에 나타난 이 로봇의 개발자 신디아 브리지얼을 쳐다보는 것처럼 말이죠.
11:28
It sees her, pays attention to her.
197
688330
5000
네, 지금 로봇이 그녀를 쳐다보며, 그녀를 주시하고 있네요.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
키스멧은 감정적 벡터 영역인
11:37
a vector space, of where it is emotionally.
199
697330
3000
3차원 감정 영역을 가지고 있습니다.
11:40
And at different places in that space, it expresses --
200
700330
5000
각각 다른 영역에서 그것이 표현하는 감정들이죠.
11:46
can we have the volume on here?
201
706330
2000
볼륨을 좀 더 높일 수 있나요?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
네, 맨 뒤에까지 잘 들리세요? 청충: 네.
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
키스멧: 정말 그렇게 생각하세요? 정말 그렇게 생각해?
11:57
Do you really think so?
204
717330
2000
정말 그렇게 생각하니?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
이렇게 로봇은 자신의 얼굴과 목소리의 변화를 통해서
12:03
and the prosody in its voice.
206
723330
2000
자신의 감정을 표현합니다.
12:05
And when I was dealing with my robot over here,
207
725330
4000
그리고, 제가 조금 전에 크리스란 로봇을 보여드렸을 때
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
크리스가 제 목소리의 억양을 감지할 수 있었던 것처럼
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
우리 어머니들이 말귀를 알아듣지 못하는 아기들에게 하는
12:17
that mothers give their children pre-linguistically.
210
737330
4000
기본적인 4가지 메세지를 인식하는 로봇을 보여드리도록 하겠습니다
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
먼저 로봇을 칭찬하는 것을 보도록 하죠.
12:26
Voice: Nice robot.
212
746330
2000
잘했어요.
12:29
You're such a cute little robot.
213
749330
2000
너 참 작고 귀여운 로봇이구나.
12:31
(Laughter)
214
751330
2000
(웃음)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
그러면, 로봇은 적절하게 반응을 하죠.
12:35
Voice: ...very good, Kismet.
216
755330
4000
아주 좋았어, 키스멧.
12:40
(Laughter)
217
760330
2000
(웃음)
12:42
Voice: Look at my smile.
218
762330
2000
내 웃는 모습을 좀 봐.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
로봇이 미소를 짓고, 그녀가 그 미소를 따라하고 있습니다. 이러한 상황은 자주 일어나죠.
12:49
These are naive subjects.
220
769330
2000
이것은 아주 간단한 것들이었고요.
12:51
Here we asked them to get the robot's attention
221
771330
3000
다음으로 우리는 실험에 참여한 사람들에게 로봇의 주의를 끌어보고
12:54
and indicate when they have the robot's attention.
222
774330
3000
성공했을 때를 나타내보라고 요구했습니다.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
야 키스멧, 이제 나를 쳐다보는구나.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
이렇게 그녀는 로봇이 자신을 쳐다보고 있다는 것을 알죠.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
키스멧, 너 저 장난감 좋아하니? 그렇구나.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
자 그러면, 로봇을 야단치는 것을 보도록 하겠습니다.
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
여기 첫번째 나오는 여성분은 정말 감정적으로 몰아세우고 있습니다.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
안돼! 안돼! 그러면 못써! 안돼!
13:24
(Laughter)
229
804330
3000
(웃음)
13:27
Not appropriate. No. No.
230
807330
6000
그것은 나쁜거야. 하지마. 하지마.
13:33
(Laughter)
231
813330
3000
(웃음)
13:36
RB: I'm going to leave it at that.
232
816330
2000
그럼 여기까지 하도록 하고요.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
이 모든 것을 포함한 완전한 대화를 보도록 하겠습니다.
13:40
When we talk to someone, we talk.
234
820330
3000
우리는 누군가와 대화를 할 때
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
눈썹을 치켜올린다던지, 눈을 움직인다든지 하면서
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
상대방에게 얘기 할 차례라는 것은 암시하고는 합니다.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
그러면, 그 사람이 얘기를 하고, 다시 상대방에게 넘기고 받고 하면서 대화를 하지요.
13:54
So we put this in the robot.
238
834330
2000
그래서, 우리는 로봇이 이러한 것들을 할 수 있도록 했습니다.
13:56
We got a bunch of naive subjects in,
239
836330
2000
위에서 보여드린 여러가지 간단한 것들을 로봇에 프로그램을 한 후
13:58
we didn't tell them anything about the robot,
240
838330
2000
실험자들에게 로봇에 대해 아무런 얘기를 해주지않고
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
그냥 로봇 앞에 앉아서 로봇과 대화를 나누라고 했습니다.
14:02
Now what they didn't know was,
242
842330
2000
즉, 실험자들은
14:04
the robot wasn't understanding a word they said,
243
844330
2000
로봇이 자신들의 말을 이해하지 못한다는 것과
14:06
and that the robot wasn't speaking English.
244
846330
3000
로봇이 영어로 말을 하는 것이 아니라
14:09
It was just saying random English phonemes.
245
849330
2000
임의의 영어 글자들을 소리낸다는 것을 알지 못했습니다.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
이 비디오 시작 부분을 주의깊게 살펴보시길 바랍니다.
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
여기 리치라는 사람이 나와서 25분동안 로봇과 얘기를 하는데
14:17
(Laughter)
248
857330
2000
(웃음)
14:19
-- says, "I want to show you something.
249
859330
2000
이 사람이 "나 너에게 보여주고 싶은 것이 있어"
14:21
I want to show you my watch."
250
861330
2000
"내 시계 좀 봐바"라고 로봇에게 말을 하면서
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
자신의 시계를 로봇의 시선 가운데로 가지고 옵니다.
14:28
points to it, gives it a motion cue,
252
868330
2000
그리고, 그 시계를 손가락으로 가르키면서 움직임으로 힌트를 주지요.
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
그러면, 로봇은 아주 성공적으로 그 시계를 바라봅니다.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
우리는 그 사람이 이 로봇을 이해했는지 안했는지는 모릅니다.
14:36
Notice the turn-taking.
255
876330
2000
서로 주고받는 대화를 주의깊게 보세요.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
리치: 너에게 보여줄 것이 있어.
14:41
that my girlfriend gave me.
257
881330
3000
이 시계 내 여자친구가 준거다.
14:44
Robot: Oh, cool.
258
884330
2000
로봇: 오, 멋진데.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
리치: 응, 봐바, 작은 파란 불도 나온다. 이번 주에 하마터면 잃어버릴뻔했어.
14:51
(Laughter)
260
891330
4000
(웃음)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
로봇이 지금 저 사람과 눈을 마주치고 있고, 그의 시선을 따라 봅니다.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
너도 똑같이 할 수 있어? 응, 그럼.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
이렇게 그들은 대화를 성공적으로 주고 받습니다.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
그리고, 이번에는 아까 크리스와 함께 보여드린 것처럼
15:06
This is another robot, Cog.
265
906330
2000
여기 "코그"라는 로봇이
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
크리스티와 눈을 마주보고 있다가, 크리스티가 장난감을 쳐다보면
15:14
the robot estimates her gaze direction
267
914330
2000
그녀가 바라보고 있는 곳을 짐작하여
15:16
and looks at the same thing that she's looking at.
268
916330
2000
그녀와 같은 곳을 바라보는 것을 보실 수 있습니다.
15:18
(Laughter)
269
918330
1000
(웃음)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
우리는 향후 몇년동안 이와 같은 로봇들을
15:22
over the next few years in labs.
271
922330
2000
점점 더 많이 접하게 될 것입니다.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
사람들이 저에게 2가지 질문을 가장 많이 합니다.
15:29
if we make these robots more and more human-like,
273
929330
2000
첫번째로는, 만약 우리가 점점 더 사람과 같은 로봇을 만든다면
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
우리가 그들을 받아들일 수 있을까요? 결국 그들도 사람과 같은 권리가 필요할까요?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
그리고 두번째 질문으로는. 그들이 우리 인간을 지배하게 될까요?
15:39
(Laughter)
276
939330
1000
(웃음)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
그럼 먼저 첫번째 질문, 그와 같은 얘기는 그동안 많은 헐리우드 영화의 테마가 됐었습니다.
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
여기 화면에 나오는 로봇 케릭터들이 익숙하실텐데요.
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
여기있는 모든 로봇들은 인간들이 좀 더 자기를 존중해주길 바랬습니다.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
글쎄요, 우리가 로봇을 존중해야 할 필요가 있을까요?
15:54
They're just machines, after all.
281
954330
2000
그냥 그들은 우리가 만든 기계일뿐인데요.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
그러나, 저는 우리 인간도 기계와 같은 존재일 수도 있다는 것을 인정해야한다고 생각합니다.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
이것은 현대 분자 생물학에서 주장하는 것인데요.
16:05
You don't see a description of how, you know,
284
965330
3000
이것이 어떻게 가능한지 볼 수는 없지만
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
A라는 분자가 다른 분자와 결합한 후
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
여러가지 변화 과정을 거쳐 진화를 하게 되고
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
결국, 이러한 분자들이 영혼과 결합하여 인간이 된다.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
이 모든 것들은 기계적이며, 결국 인간도 기계의 일종일 수도 있다는 주장입니다.
16:22
If we are machines, then in principle at least,
289
982330
3000
만약 이 설명처럼 우리 인간도 기계의 일종이라면, 최소한 이론적으로
16:25
we should be able to build machines out of other stuff,
290
985330
4000
우리 인간과 같은 생명적인 요소들은 뺀
16:29
which are just as alive as we are.
291
989330
4000
로봇을 개발 할 수 있다는 얘기입니다.
16:33
But I think for us to admit that,
292
993330
2000
그러나, 우리가 이러한 것들을 받아들이려면
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
우리는 인간이 특별한 존재라는 것을 포기해야겠지요.
16:38
And we've had the retreat from special-ness
294
998330
2000
과거를 돌아보면, 우리는 지난 몇백년동안
16:40
under the barrage of science and technology many times
295
1000330
3000
과학 기술의 발전에 의해
16:43
over the last few hundred years, at least.
296
1003330
2000
인간 중심적인 많은 이론들을 포기해왔습니다.
16:45
500 years ago we had to give up the idea
297
1005330
2000
예를들면, 500년 전에 우리는
16:47
that we are the center of the universe
298
1007330
3000
지구가 태양 주의를 돈다는 것을 발견하면서
16:50
when the earth started to go around the sun;
299
1010330
2000
지구가 우주의 중심이라는 생각을 버려야했었죠.
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
그리고, 150년 전에는 다윈에 의해서 인간은 동물과 다른 존재라는 생각을 버려야했고요.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
정말 받아들이기 힘들지만 상상해보죠.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
최근 인간의 창조론조차 없었던 것이라는 주장에
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
많은 사람들이 그 주장을 싫어했었고,
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
우리 인간이 겨우 35,000개의 유전자밖에 가지지 않았다는 주장도
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
많은 사람들이 정말 싫어했습니다.
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
우리 인간은 그보다 많은 유전자를 가지고 있다고 하면서 말이죠.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
이렇게 우리는 인간의 특수성을 포기하기 싫어합니다.
17:17
having the idea that robots could really have emotions,
308
1037330
2000
이러한 생각들을 가지고, 로봇이 감정을 가지게 된다?
17:19
or that robots could be living creatures --
309
1039330
2000
또는 로봇이 살아있는 생명체가 된다?
17:21
I think is going to be hard for us to accept.
310
1041330
2000
제 생각에는 이러한 것들이 받아들여지기는 무척 힘들꺼라고 생각합니다.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
그러나, 우리들은 향후 50년 동안 이러한 것들을 받아들여야 할지도 모르죠.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
다음으로 두번째 질문을 생각해보죠. 기계들이 우리 인간을 지배하게될까요?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
여기에 유명한 시나리오가 있습니다. 우리가 이런 로봇들을 개발하고,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
이들이 우리 인간들에 의해 점점 진화 하다가
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
어느 순간부터 우리 인간들이 느려터지고, 지루한 존재라고 생각하기 시작하고
17:42
They want to take over from us.
316
1062330
2000
결국엔 우리 인간들을 정복하려고 한다.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
이런 시나리오는 10대 자녀를 두신 분이라면 더욱 잘 아실꺼라 생각합니다.
17:47
(Laughter)
318
1067330
1000
(웃음)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
헐리우드에서는 이런 시나리오를 로봇에게 적용하여 많은 영화를 만들고있죠.
17:51
And the question is, you know,
320
1071330
3000
자, 여러분들에게 한번 묻겠습니다.
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
어느 누군가가 우연히 우리를 정복할 로봇을 만들게 될까요?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
어떤 외로운 남자가 자신의 뒷 마당에서
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
"앗! 내가 우연히 747호를 만들었어!!" 라고 하는 그런 경우 말이죠.
18:04
I don't think that's going to happen.
324
1084330
2000
아시다시피, 그럴일은 없을겁니다.
18:06
And I don't think --
325
1086330
2000
그리고, 저는
18:08
(Laughter)
326
1088330
1000
(웃음)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
그리고, 저는 인류에게 좋은 영향을 끼치는
18:12
that we're uncomfortable with.
328
1092330
2000
로봇들만 만들어질 거라고 믿습니다.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
음.. 그 로봇들이 스스로 악당로봇이 되어 나타나지는 못할겁니다.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
악당로봇이 되려면 우선 꽤 못된 로봇으로 진화해야 하고,
18:19
and before that a not so bad robot.
331
1099330
2000
그보다 먼저 약간 삐뚤어진 로봇이 먼저 되어야 하는데,
18:21
(Laughter)
332
1101330
1000
(웃음)
18:22
And we're just not going to let it go that way.
333
1102330
2000
로봇들이 그렇게 삐뚤어지도록 놔두면 당연히 안되겠지요?
18:24
(Laughter)
334
1104330
1000
(웃음)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
그럼, 저는 로봇이 대중화되는 시대가 다가오고 있다는 것을 말씀드리며 이 강연을 마칠까합니다.
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
너무 걱정하실 필요는 없습니다. 오히려 재미있는 일들이 많을꺼에요.
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
여기 계신 모든 분들께서 앞으로의 그 50년을 충분히 즐기실 수 있기를 바랍니다.
18:38
(Applause)
338
1118330
2000
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.