The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,450 views ・ 2011-02-08

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: J J LEE 검토: Seongsu JEONG
00:15
Ever since I was a little girl
0
15260
3000
어릴적 "스타워즈"를
00:18
seeing "Star Wars" for the first time,
1
18260
2000
처음 봤던 이후로 계속
00:20
I've been fascinated by this idea
2
20260
2000
저는 개인용 로봇의 아이디어에
00:22
of personal robots.
3
22260
2000
매료되었습니다.
00:24
And as a little girl,
4
24260
2000
그리고 어린 소녀로서,
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
우리와 소통하고, 매우 유용하며 믿을 수 있는 친구 같은
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
로봇의 아이디어를 너무 좋아했습니다.
00:31
something that would delight us, enrich our lives
7
31260
2000
그런 것이 우리를 즐겁게 만들고, 우리 삶을 풍요롭게 하며,
00:33
and help us save a galaxy or two.
8
33260
3000
우리가 은하계 한두개를 구할 수 있도록 도와줍니다.
00:37
I knew robots like that didn't really exist,
9
37260
3000
그런 로봇이 실제로 존재하지 않는다는건 알았지만,
00:40
but I knew I wanted to build them.
10
40260
2000
제가 그것을 만들어 보고 싶어 한다는 걸 깨달았습니다.
00:42
So 20 years pass --
11
42260
2000
20년이 지났습니다.
00:44
I am now a graduate student at MIT
12
44260
2000
저는 이제 인공지능을 연구하고 있는
00:46
studying artificial intelligence,
13
46260
2000
MIT 대학원생입니다.
00:48
the year is 1997,
14
48260
2000
1997년은
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
나사가 화성에 첫 로봇을 착륙시킨 해였습니다.
00:53
But robots are still not in our home, ironically.
16
53260
3000
하지만 아이러니하게도 로봇은 아직 우리들의 집에는 없습니다.
00:56
And I remember thinking about
17
56260
2000
그리고 왜 그것이 문제인가의
00:58
all the reasons why that was the case.
18
58260
2000
모든 이유들에 대해서 생각한 것을 기억합니다.
01:00
But one really struck me.
19
60260
2000
그러다 갑자기 떠오른 생각이 있었습니다.
01:02
Robotics had really been about interacting with things,
20
62260
3000
로봇공학은 사물들과의 상호작용에 대한 것이지,
01:05
not with people --
21
65260
2000
인간과의 상호작용에 관한게 아니었습니다.
01:07
certainly not in a social way that would be natural for us
22
67260
2000
우리에게 자연스럽고, 사람들이 로봇을 우리의 일상에
01:09
and would really help people accept robots
23
69260
2000
로봇을 받아들이도록 하는 사회적 방법은
01:11
into our daily lives.
24
71260
2000
확실히 아니었습니다.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
제게 그것은 빈칸이었고, 로봇이 아직까지 할 수 없는 것이었습니다.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
그래서 그 해, 저는 세계 최초의 사회적 로봇인
01:19
the world's first social robot.
27
79260
3000
이 키즈맷을 만들기 시작했습니다.
01:22
Three years later --
28
82260
2000
3년 후에,
01:24
a lot of programming,
29
84260
2000
수 많은 프로그래밍과
01:26
working with other graduate students in the lab --
30
86260
2000
연구실에 있는 다른 대학원생들과의 협업을 통해
01:28
Kismet was ready to start interacting with people.
31
88260
2000
키즈맷은 사람들과 상호소통을 시작할 준비가 되었습니다.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(영상) 과학자: 뭔가 보여줄게.
01:32
Kismet: (Nonsense)
33
92260
2000
키즈맷: (아무 의미 없는 말)
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
과학자: 내 여자친구가 준 시계야.
01:37
Kismet: (Nonsense)
35
97260
2000
키즈맷: (아무 의미 없는 말)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
과학자: 그래, 봐봐, 파란 불빛도 나온다.
01:41
I almost lost it this week.
37
101260
3000
이번 주에 잃어버릴뻔 했어.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
신시아 브리질: 자, 키즈맷은 정말 최초의 형태였기 때문에
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
말을 시작하기 전의 아이처럼 사람과 상호소통하는 것이
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
어울린다고 생각했습니다.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
언어를 말하지 못했지만 문제되지 않았습니다.
01:55
This little robot was somehow able
42
115260
2000
이 작은 로봇은 어떻게든 우리 내부의
01:57
to tap into something deeply social within us --
43
117260
3000
깊이 사회적인 것에 다가설 수 있었습니다.
02:00
and with that, the promise of an entirely new way
44
120260
2000
그리고 그것이 우리가 로봇과 상호소통할 수 있다는
02:02
we could interact with robots.
45
122260
2000
완전히 새로운 방식의 가능성입니다.
02:04
So over the past several years
46
124260
2000
그래서 지난 몇 년 동안,
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
미디어 랩에서, 매우 재능있는 학생들로 이루어진 제 팀과 함께
02:08
now at the media lab
48
128260
2000
로봇의 이런 대인관계적 측면을
02:10
with my own team of incredibly talented students.
49
130260
2000
계속해서 탐구해왔습니다.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
제가 제일 좋아하는 로봇은 레오나르도입니다.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
우리는 스탠 윈스톤 스튜디오와 협력하여 레오나르도를 개발했습니다.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
여러분께 레오나르도와 관련해 제게 특별했던 순간을 보여드리고 싶습니다.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
이 사람은 레오와 상호소통하고
02:23
introducing Leo to a new object.
54
143260
2000
레오에게 새로운 것을 소개하는 맷 베를린입니다.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
새로운 걸 소개했기 때문에, 레오는 무엇을 해야할지 전혀 모릅니다.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
하지만 우리와 유사하게, 레오는 맷의 반응을 관찰하여
02:30
from watching Matt's reaction.
57
150260
3000
학습할 수 있습니다.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(영상) 맷 베를린: 안녕, 레오.
02:38
Leo, this is Cookie Monster.
59
158260
3000
레오, 이것은 쿠키 몬스터야.
02:44
Can you find Cookie Monster?
60
164260
3000
쿠키 몬스터를 찾을 수 있겠어?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
레오, 쿠키 몬스터는 매우 나빠.
02:56
He's very bad, Leo.
62
176260
2000
아주 나쁘지, 레오.
03:00
Cookie Monster is very, very bad.
63
180260
3000
쿠키 몬스터는 아주 아주 나빠.
03:07
He's a scary monster.
64
187260
2000
무시무시한 괴물이지.
03:09
He wants to get your cookies.
65
189260
2000
그건 네 쿠키를 뺏어가고 싶어해.
03:12
(Laughter)
66
192260
2000
(웃음)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
CB: 좋습니다. 그래서 레오와 쿠키는
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
첫 만남이 조금은 힘들게 시작한 것 같지만,
03:19
but they get along great now.
69
199260
3000
지금은 아주 잘 지내고 있습니다.
03:22
So what I've learned
70
202260
2000
자, 제가 이 시스템을
03:24
through building these systems
71
204260
2000
개발하면서 배운 것은,
03:26
is that robots are actually
72
206260
2000
로봇이 실제로 매우 흥미로운
03:28
a really intriguing social technology,
73
208260
2000
사회적 기술이라는 것입니다.
03:30
where it's actually their ability
74
210260
2000
실제로 우리의 사회적 버튼을 누르고
03:32
to push our social buttons
75
212260
2000
우리와 파트너처럼
03:34
and to interact with us like a partner
76
214260
2000
상호소통 하는 로봇의 능력은
03:36
that is a core part of their functionality.
77
216260
3000
로봇 기능의 핵심 부분입니다.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
그리고 그 생각의 변화로, 우리는 이제
03:41
new questions, new possibilities for robots
79
221260
3000
달리 생각 못해 봤었을지도 모를
03:44
that we might not have thought about otherwise.
80
224260
3000
로봇에 대한 새로운 문제와 새로운 가능성을 상상할 수 있습니다.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
제가 "사회적 버튼을 누른다"고 했을 때 무엇을 의미하는 것일까요?
03:49
Well, one of the things that we've learned
82
229260
2000
자, 우리가 배워온 것들 중 하나는
03:51
is that, if we design these robots to communicate with us
83
231260
2000
우리가 동일한 바디 랭귀지와
03:53
using the same body language,
84
233260
2000
사람들이 사용하는 동일한 비언어적 신호를 사용하여
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
우리와 의사소통하도록 이 로봇들을 디자인 한다면,
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
-- 여기 작동하고 있는 휴머노이드 로봇 넥시 같이 말입니다. --
04:00
what we find is that people respond to robots
87
240260
2000
우리가 발견한 것은 사람들이 사람들에게 반응하는 것과
04:02
a lot like they respond to people.
88
242260
2000
매우 유사하게 로봇에게 반응한다는 것입니다.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
사람들은 누군가가 얼마나 설득력 있고, 얼마나 호감이 가는지,
04:07
how likable, how engaging,
90
247260
2000
얼마나 매력적인가, 얼마나 신뢰할 수 있을지를
04:09
how trustworthy.
91
249260
2000
결정하기 위해서 이 신호를 이용합니다.
04:11
It turns out it's the same for robots.
92
251260
2000
로봇에게도 동일하다는 것이 나타나고 있습니다.
04:13
It's turning out now
93
253260
2000
로봇이 인간의 행위를 이해하는데
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
사실 정말 흥미로운 새 과학적 도구가 되고 있음이
04:18
to understand human behavior.
95
258260
2000
지금 나타나고 있습니다.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
그런 질문에 답을 하기 위해서, 짧은 만남에서
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
다른 사람을 얼마나 신뢰할 수 있을지 어떻게 평가할 수 있을까요?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
흉내는 것을 통해서라고 여겨집니다. 하지만 어떻게요?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
중요한 특정 동작을 흉내내는 것일까요?
04:32
It turns out it's really hard
100
272260
2000
사람들을 관찰하는 것에서
04:34
to learn this or understand this from watching people
101
274260
2000
이를 학습하거나 이해하는 것은 정말 어려운 일입니다.
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
우리가 상호소통할 때, 신호들을 무의식적으로 실행하기 때문입니다.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
잠재의식적인 것이기 때문에, 우리는 그것들을 세심하게 통제할 수 없습니다.
04:41
But with the robot, you can.
104
281260
2000
하지만 로봇으로는 가능합니다.
04:43
And so in this video here --
105
283260
2000
여기 보시는 영상에서,
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
이 영상은 노스이스턴 대학, 데이비드 데스테노의 연구실에서 찍은 영상입니다.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
그는 우리가 함께 일했던 심리학자입니다.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
이 질문을 연구할 수 있도록 넥시의 신호를
04:53
to be able to study this question.
109
293260
3000
주의 깊게 조절했던 과학자가 실제로 있습니다.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
그리고 결국, 이런 일을 하는 이유는
04:58
because it turns out people just behave like people
111
298260
2000
사람들이 로봇과 상호소통할 때도
05:00
even when interacting with a robot.
112
300260
3000
사람인 것처럼 행동한다는 것을 밝혀내기 때문입니다.
05:03
So given that key insight,
113
303260
2000
그래서 핵심 견해를 고려해볼 때,
05:05
we can now start to imagine
114
305260
2000
우리는 이제 새로운 방식의
05:07
new kinds of applications for robots.
115
307260
3000
로봇 활용을 상상할 수 있습니다.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
예를 들어, 로봇이 우리의 비언어적 신호에 반응한다면,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
멋지고 새로운 의사소통 기술이 될 것입니다.
05:17
So imagine this:
118
317260
2000
자, 이것을 상상해보세요.
05:19
What about a robot accessory for your cellphone?
119
319260
2000
여러분 휴대폰을 위한 로봇 악세사리는 어떤가요?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
여러분은 친구에게 전화를 합니다. 그녀는 송수화기를 로봇에 올려 놓습니다.
05:23
and, bam! You're a MeBot --
121
323260
2000
그리고 짠! 여러분은 이제 '미봇'입니다.
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
여러분은 시선을 맞출 수도 있고, 친구들과 대화를 나눌 수도 있습니다.
05:28
you can move around, you can gesture --
123
328260
2000
돌아다니고, 몸짓을 할 수도 있습니다.
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
아마도 실제 그 자리에 같이 있는 것 다음으로 좋은 것이 아닐까요?
05:33
To explore this question,
125
333260
2000
이 질문을 탐구하기 위해서
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
제 학생인 '시기 아댈기어슨'은
05:38
where we brought human participants, people, into our lab
127
338260
3000
원격의 협력자와 협업을 할 수 있도록
05:41
to do a collaborative task
128
341260
2000
연구실로 데려온 참여자들을
05:43
with a remote collaborator.
129
343260
2000
연구했습니다.
05:45
The task involved things
130
345260
2000
그 과제는 탁자 위에 놓인
05:47
like looking at a set of objects on the table,
131
347260
2000
일련의 물체들을 바라보고,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
그것의 중요성과 특정 작업 수행과의 관련성에 대해 토론하며,
05:52
this ended up being a survival task --
133
352260
2000
-- 이것은 서바이벌 과제가 되었습니다. --
05:54
and then rating them in terms
134
354260
2000
그들이 그 물체들이 얼마나 가치있고 중요하다고
05:56
of how valuable and important they thought they were.
135
356260
2000
생각하는지에 대한 등급을 매기는 것을 포함합니다.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
원격 협력자는 참가자들과 상호작용하기 위해
06:01
who used one of three different technologies
137
361260
2000
세 가지의 다른 기술 중 하나를 사용하는
06:03
to interact with the participants.
138
363260
2000
저희 그룹의 실험자들이었습니다.
06:05
The first was just the screen.
139
365260
2000
첫 번째 기술은 그냥 화면입니다.
06:07
This is just like video conferencing today.
140
367260
3000
이것은 오늘날의 비디오 화상회의와 유사합니다.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
다음 기술은 이동성을 더하는 것입니다. 화면을 모바일 기반으로 만듭니다.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
여러분이 오늘날의 텔레프레전스 로봇 같은 것에 익숙하다면,
06:16
this is mirroring that situation.
143
376260
3000
이것은 그 환경을 반영하고 있습니다.
06:19
And then the fully expressive MeBot.
144
379260
2000
그리고 나서 아주 표현적인 미봇이 있습니다.
06:21
So after the interaction,
145
381260
2000
그래서 상호작용 후에,
06:23
we asked people to rate their quality of interaction
146
383260
3000
우리는 사람들에게 기술과,
06:26
with the technology, with a remote collaborator
147
386260
2000
원격 협력자와의 상호작용 품질을
06:28
through this technology, in a number of different ways.
148
388260
3000
평가하도록 요청합니다.
06:31
We looked at psychological involvement --
149
391260
2000
다른 사람에게 얼마나 공감을 느꼈는지
06:33
how much empathy did you feel for the other person?
150
393260
2000
심리적 관여를 살펴봅니다.
06:35
We looked at overall engagement.
151
395260
2000
우리는 전반적인 참여를 살펴봅니다.
06:37
We looked at their desire to cooperate.
152
397260
2000
그들이 협력하고자 하는 욕구를 살펴봅니다.
06:39
And this is what we see when they use just the screen.
153
399260
3000
이것이 화면만을 사용할 때 확인한 것입니다.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
이동성을 더했을 때, --테이블 이리저리로 이동할 수 있는 능력이죠.--
06:45
you get a little more of a boost.
155
405260
2000
조금 더 증가하는 것을 볼 수 있습니다.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
그리고 충분한 표현력을 더했을 때, 더 증가하게 되죠.
06:50
So it seems like this physical, social embodiment
157
410260
2000
그래서 물리적인 사회적 체현이
06:52
actually really makes a difference.
158
412260
2000
실제로 차이를 만드는 것 같습니다.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
이제, 이것을 약간의 맥략에 대입해보기로 하죠.
06:57
Today we know that families are living further and further apart,
160
417260
3000
오늘날 가족들이 서로 멀리 떨어져 살고 있고,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
그것이 가족 관계에 큰 타격을 주고 있으며,
07:02
and family bonds over distance.
162
422260
2000
가족의 결속은 멀어지고 있다는 것을 알고 있습니다.
07:04
For me, I have three young boys,
163
424260
2000
저는 아들 셋이 있습니다.
07:06
and I want them to have a really good relationship
164
426260
2000
그리고 저는 아이들이 할아버지, 할머니와
07:08
with their grandparents.
165
428260
2000
정말 좋은 관계를 가지기 원합니다.
07:10
But my parents live thousands of miles away,
166
430260
2000
하지만 우리 부모님은 수 천 마일을 떨어져 살고 계시고,
07:12
so they just don't get to see each other that often.
167
432260
2000
그래서 서로 자주 보지 못하게 되죠.
07:14
We try Skype, we try phone calls,
168
434260
2000
우리는 스카이프나 전화를 이용하지만,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
제 아이들은 어려서 대화를 하기 보다는
07:18
they want to play.
170
438260
2000
그냥 놀기를 바라죠.
07:20
So I love the idea of thinking about robots
171
440260
2000
아이들은 새로운 종류의 원거리 놀이 기술로서
07:22
as a new kind of distance-play technology.
172
442260
3000
로봇에 대해 생각하는 아이디어를 좋아합니다.
07:25
I imagine a time not too far from now --
173
445260
3000
자, 저는 멀지 않을 미래를 상상합니다.
07:28
my mom can go to her computer,
174
448260
2000
저희 어머니는 컴퓨터로 가서
07:30
open up a browser and jack into a little robot.
175
450260
2000
브라우저를 열고, 작은 로봇에 접속할 수 있습니다.
07:32
And as grandma-bot,
176
452260
3000
그리고 할머니-봇으로서
07:35
she can now play, really play,
177
455260
2000
그녀는 손자들과 함께
07:37
with my sons, with her grandsons,
178
457260
2000
손자의 실제 장난감을 가지고
07:39
in the real world with his real toys.
179
459260
3000
실제 세상에서 같이 놀 수 있습니다.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
저는 손녀딸이나 친구들과 함께 사회적 놀이를 할 수 있고,
07:44
with their granddaughters, with their friends,
181
464260
2000
잠 잘 때의 동화를 나누는 것 같이
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
온갖 집에서의 다른 활동들을 나눌 수 있는
07:48
like sharing a bedtime story.
183
468260
2000
할머니들을 상상할 수 있습니다.
07:50
And through this technology,
184
470260
2000
그리고 이 기술을 통해서,
07:52
being able to be an active participant
185
472260
2000
오늘날에는 가능하지 않은 방식으로
07:54
in their grandchildren's lives
186
474260
2000
그들 손자들의 삶에
07:56
in a way that's not possible today.
187
476260
2000
적극적인 참여자가 될 수 있습니다.
07:58
Let's think about some other domains,
188
478260
2000
건강과 같은 다른 영역들에 대해서도
08:00
like maybe health.
189
480260
2000
생각해보도록 하죠.
08:02
So in the United States today,
190
482260
2000
오늘날 미국에서는,
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
65% 이상의 사람들이 과체중이거나 비만이고,
08:07
and now it's a big problem with our children as well.
192
487260
2000
이제 우리 아이들에게도 큰 문제입니다.
08:09
And we know that as you get older in life,
193
489260
2000
그리고 여러분이 어릴 때 비만이었다면,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
어릴 때 비만이었다면, 우리 삶의 질을 감소시킬 뿐만 아니라
08:14
that not only reduce your quality of life,
195
494260
2000
우리의 건강관리 시스템에 엄청난 경제적 부담이 되는
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
만성 질병으로 이어질 수 있다는 것을 알고 있습니다.
08:19
But if robots can be engaging,
197
499260
2000
하지만 로봇이 매력적이라면,
08:21
if we like to cooperate with robots,
198
501260
2000
우리가 로봇과 협력하기는걸 좋아한다면,
08:23
if robots are persuasive,
199
503260
2000
로봇이 설득력을 발휘할 수 있다면,
08:25
maybe a robot can help you
200
505260
2000
아마도 로봇은 여러분이
08:27
maintain a diet and exercise program,
201
507260
2000
다이어트와 운동을 유지하도록,
08:29
maybe they can help you manage your weight.
202
509260
3000
체중을 관리하도록 도울 수 있을 것입니다.
08:32
Sort of like a digital Jiminy --
203
512260
2000
일종의 디지털 지미니 같이,
08:34
as in the well-known fairy tale --
204
514260
2000
-- 유명한 동화에서 처럼 말이죠. --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
옳은 방법, 적절한 시간에 옳은 결정을 내리도록,
08:38
to be able to help you make the right decision
206
518260
2000
여러분이 건강한 습관을 만들도록
08:40
in the right way at the right time
207
520260
2000
도와줄 수 있게 언제나 그곳에 있는
08:42
to help you form healthy habits.
208
522260
2000
우호적으로 도와주는 존재입니다.
08:44
So we actually explored this idea in our lab.
209
524260
2000
우리는 실제로 우리 실험실에서 이 아이디어를 탐구했습니다.
08:46
This is a robot, Autom.
210
526260
2000
이 로봇은 오톰입니다.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
코리 키드가 박사학위 작품으로 이 로봇을 개발했습니다.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
이 로봇은 다이어트와 운동 코치로 디자인 되었습니다.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
그것은 몇 가지 단순한 비언어적 기능을 가지고 있습니다.
08:56
It could make eye contact with you.
214
536260
2000
여러분과 눈을 맞출 수도 있고,
08:58
It could share information looking down at a screen.
215
538260
2000
화면에 내려다 보는 정보를 공유할 수도 있습니다.
09:00
You'd use a screen interface to enter information,
216
540260
2000
여러분은 그 날 섭취한 칼로리가 얼마인지,
09:02
like how many calories you ate that day,
217
542260
2000
운동량은 얼마나 되는지 같은 정보를 입력하는
09:04
how much exercise you got.
218
544260
2000
화면 인터페이스를 사용할 것입니다.
09:06
And then it could help track that for you.
219
546260
2000
그리고 나서 여러분을 위해 그 정보를 추척하도록 해줍니다.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
그리고 로봇은 여러분이 트레이너와
09:10
to engage you in a coaching dialogue
221
550260
2000
환자 등을 모델로 삼아 구성된
09:12
modeled after trainers
222
552260
2000
코칭 문답에 참여하도록
09:14
and patients and so forth.
223
554260
2000
합성된 음성으로 말합니다.
09:16
And it would build a working alliance with you
224
556260
2000
그리고 그 문답을 통해 여러분과
09:18
through that dialogue.
225
558260
2000
기본적인 협조를 이룰 것입니다.
09:20
It could help you set goals and track your progress,
226
560260
2000
목표를 설정하고, 그 과정을 추적하도록 도울 수 있으며,
09:22
and it would help motivate you.
227
562260
2000
여러분에게 동기를 부여할 것입니다.
09:24
So an interesting question is,
228
564260
2000
흥미로운 질문은 다음과 같습니다.
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
사회적 체현이 정말 중요할까요? 로봇이라는 것이 중요할까요?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
권고와 정보의 질이 정말 중요할까요?
09:32
To explore that question,
231
572260
2000
그 문제를 풀기 위해서,
09:34
we did a study in the Boston area
232
574260
2000
몇 주 동안 보스턴 지역에서
09:36
where we put one of three interventions in people's homes
233
576260
3000
여러 가정에 세 가지 중 하나의 개입 방법을
09:39
for a period of several weeks.
234
579260
2000
적용해봤습니다.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
하나의 경우가 여러분이 봤던 로봇, 오톰입니다.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
또 다른 하나는 동일한 터치 스크린 인터페이스를 갖추고,
09:47
ran exactly the same dialogues.
237
587260
2000
동일한 문답이 나타나는 컴퓨터였습니다.
09:49
The quality of advice was identical.
238
589260
2000
권고의 질은 동일했습니다.
09:51
And the third was just a pen and paper log,
239
591260
2000
세 번째는 그냥 펜과 종이 기록이었습니다.
09:53
because that's the standard intervention you typically get
240
593260
2000
여러분이 다이어트와 운동 프로그램을 시작할 때,
09:55
when you start a diet-and-exercise program.
241
595260
3000
그것이 전형적으로 얻게 되는 표준 간섭이기 때문입니다.
09:58
So one of the things we really wanted to look at
242
598260
3000
우리가 진짜 살펴보기 원했던 것 중 하나는
10:01
was not how much weight people lost,
243
601260
3000
사람들이 얼마나 체중을 줄였는가가 아니라,
10:04
but really how long they interacted with the robot.
244
604260
3000
얼마나 오랫동안 로봇과 상호작용 하는가였습니다.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
과제는 체중을 줄이는 것이 아니라 비만을 방지하는 것입니다.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
그리고 이 조정 중 하나와 오랫동안 상호작용하면 할 수록,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
더 긴 기간의 성공이 잠재적으로 나타납니다.
10:16
So the first thing I want to look at is how long,
248
616260
2000
그래서 제가 살펴보기 원한 첫 번째 것은
10:18
how long did people interact with these systems.
249
618260
2000
사람들이 얼마나 오랫동안 이 시스템과 상호작용 하는가입니다.
10:20
It turns out that people interacted with the robot
250
620260
2000
권고의 질이 컴퓨터와 동일했음에도 불구하고
10:22
significantly more,
251
622260
2000
사람들은 로봇과
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
더 많이 상호작용 했음이 밝혀졌습니다.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
기본적인 협조의 질에 대해서 평가하도록 요청받았을 때,
10:31
people rated the robot higher
254
631260
2000
사람들은 로봇에 더 높은 점수를 줬고,
10:33
and they trusted the robot more.
255
633260
2000
로봇을 더 신뢰했습니다.
10:35
(Laughter)
256
635260
2000
(웃음)
10:37
And when you look at emotional engagement,
257
637260
2000
그리고 여러분이 감정적 참여를 살펴볼 때,
10:39
it was completely different.
258
639260
2000
그것은 완전히 다릅니다.
10:41
People would name the robots.
259
641260
2000
사람들은 로봇에 이름을 붙일 것입니다.
10:43
They would dress the robots.
260
643260
2000
로봇에 옷도 입힐 것이구요.
10:45
(Laughter)
261
645260
2000
(웃음)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
심지어 연구가 종류되고, 로봇 수거를 위해 사람들을 방문할 때,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
그들은 자동차까지 나와서 로봇에서 작별 인사를 할 것입니다.
10:52
They didn't do this with a computer.
264
652260
2000
컴퓨터에게는 그렇게 하지 않았죠.
10:54
The last thing I want to talk about today
265
654260
2000
오늘 마지막으로 말씀드리고 싶은 것은
10:56
is the future of children's media.
266
656260
2000
아이들이 사용하는 매체의 미래입니다.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
오늘날 아이들은 그것이 텔레비전이던 컴퓨터 게임이던 뭐든간에
11:01
whether it's television or computer games or whatnot.
268
661260
3000
수 많은 시간을 화면 뒤에서 보내고 있다는 것을 우리는 알고 있습니다.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
제 아들들은 화면을 좋아합니다. 화면을 정말 좋아하죠.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
하지만 엄마로서 저는 아이들이
11:10
like, real-world play.
271
670260
2000
현실 세계의 놀이와 같이 놀기를 바랍니다.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
그래서 저는 오늘 여러분께 보여드리고 싶은,
11:15
called Playtime Computing
273
675260
2000
'플레이타임 컴퓨팅'이라는 새로운 프로젝트가 있습니다.
11:17
that's really trying to think about how we can take
274
677260
2000
그것은 디지털 미디어에 대해
11:19
what's so engaging about digital media
275
679260
2000
무엇이 매력적인가와 그것을 문자 그대로
11:21
and literally bring it off the screen
276
681260
2000
화면에서 꺼내 아이들의 현실 세계로
11:23
into the real world of the child,
277
683260
2000
가져오는 것을 생각하려는 것입니다.
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
그것은 현실 세계 놀이의 많은 특성들을 적용할 수 있습니다.
11:29
So here's the first exploration of this idea,
279
689260
4000
여기 이 아이디어의 첫 번째 탐구가 있습니다.
11:33
where characters can be physical or virtual,
280
693260
3000
캐릭터가 물리적 또는 가상적으로 존재할 수 있고,
11:36
and where the digital content
281
696260
2000
디지털 콘텐츠가 문자 그대로
11:38
can literally come off the screen
282
698260
2000
화면에서 현실로 빠져나왔다
11:40
into the world and back.
283
700260
2000
다시 들어갈 수 있습니다.
11:42
I like to think of this
284
702260
2000
저는 이 혼합된 현실 게임을
11:44
as the Atari Pong
285
704260
2000
'아타리 퐁'으로
11:46
of this blended-reality play.
286
706260
2000
생각하고 싶습니다.
11:48
But we can push this idea further.
287
708260
2000
하지만 우리는 이 아이디어를 좀더 진행해볼 수 있습니다.
11:50
What if --
288
710260
2000
만일
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(게임) 네이슨: 여기 간다. 야호!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
CB: 캐릭터 자체가 여러분의 실제 세상으로 나온다면 어떨까요?
11:58
It turns out that kids love it
291
718260
2000
캐릭터가 현실이 되고
12:00
when the character becomes real and enters into their world.
292
720260
3000
그들의 세상으로 나올 때, 아이들이 너무 좋아한다는 것입니다.
12:03
And when it's in their world,
293
723260
2000
그리고 그것이 그들의 세상에 있을 때,
12:05
they can relate to it and play with it in a way
294
725260
2000
아이들은 그것과 관계를 형성하고, 함께 놉니다.
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
그것은 화면으로 노는 것과는 근본적으로 다릅니다.
12:09
Another important idea is this notion
296
729260
2000
또 다른 중요한 아이디어는
12:11
of persistence of character across realities.
297
731260
3000
현실을 가로질러 캐릭터가 지속하는 개념입니다.
12:14
So changes that children make in the real world
298
734260
2000
그래서 현실 세상에서 아이들이 만들어 내는 변화는
12:16
need to translate to the virtual world.
299
736260
2000
가상 세계로 옮겨져야할 필요가 있습니다.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
자 여기서, 네이슨은 문자 A를 숫자 2로 바꿨습니다.
12:21
You can imagine maybe these symbols
301
741260
2000
이런 심볼들이 가상 세계로 갈 때,
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
캐릭터들에게 특별한 능력을 부여한다고 상상할 수 있을 것입니다.
12:26
So they are now sending the character back into that world.
303
746260
3000
자, 아이들은 이제 캐릭터를 가상 세계로 돌려보냅니다.
12:29
And now it's got number power.
304
749260
3000
그리고 그것은 숫자의 능력을 얻었습니다.
12:32
And then finally, what I've been trying to do here
305
752260
2000
그리고 나서 마지막으로, 여기서 시도한 것은
12:34
is create a really immersive experience for kids,
306
754260
3000
아이들이 그 이야기, 그 경험의 일부분이
12:37
where they really feel like they are part of that story,
307
757260
3000
된 것처럼 느끼는, 둘러 싸는 듯한 경험을
12:40
a part of that experience.
308
760260
2000
창조하는 것입니다.
12:42
And I really want to spark their imaginations
309
762260
2000
"스타워즈"를 보는 작은 소녀로 제 상상력이
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
일깨워졌던 것처럼, 아이들의 상상력을 정말 일깨우고 싶습니다.
12:47
But I want to do more than that.
311
767260
2000
하지만 저는 그것보다 더 나아가고 싶습니다.
12:49
I actually want them to create those experiences.
312
769260
3000
저는 사실 그들이 그 경험들을 창조하기 원합니다.
12:52
I want them to be able to literally build their imagination
313
772260
2000
저는 그들이 문자 그대로 그들의 상상력을 이 경험들로
12:54
into these experiences and make them their own.
314
774260
2000
만들어낼 수 있고, 그들만의 것으로 만들 수 있기를 원합니다.
12:56
So we've been exploring a lot of ideas
315
776260
2000
자, 저는 아이들이 그들의 생각을
12:58
in telepresence and mixed reality
316
778260
2000
다른 아이들과 상호작용하며
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
구축할 수 있는 공간에 투영할 수 있도록 만드는
13:03
where other kids can interact with them
318
783260
2000
텔레프레전스와 혼합된 현실에서의
13:05
and build upon them.
319
785260
2000
수 많은 아이디어를 탐구해왔습니다.
13:07
I really want to come up with new ways of children's media
320
787260
3000
저는 창조성, 학습, 혁신을 기를 수 있는
13:10
that foster creativity and learning and innovation.
321
790260
3000
어린이 매체의 새로운 방식을 제시하고 싶습니다.
13:13
I think that's very, very important.
322
793260
3000
저는 그것이 아주 아주 중요하다고 생각합니다.
13:16
So this is a new project.
323
796260
2000
자, 이것은 새로운 프로젝트입니다.
13:18
We've invited a lot of kids into this space,
324
798260
2000
우리는 수 많은 아이들을 여기로 초대했고,
13:20
and they think it's pretty cool.
325
800260
3000
아이들은 그게 아주 멋지다고 생각하죠.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
하지만 저는 그들이 제일 좋아하는 것이
13:25
is the robot.
327
805260
2000
로봇이라고 말할 수 있습니다.
13:27
What they care about is the robot.
328
807260
3000
그들이 관심을 가지는 것은 로봇입니다.
13:30
Robots touch something deeply human within us.
329
810260
3000
로봇은 우리 안에 깊이 존재하는 인간적인 것을 어루만집니다.
13:33
And so whether they're helping us
330
813260
2000
그리고 로봇이 우리가 창조적이고
13:35
to become creative and innovative,
331
815260
2000
혁신적이 되도록 하던지
13:37
or whether they're helping us
332
817260
2000
우리가 거리에도 불구하고
13:39
to feel more deeply connected despite distance,
333
819260
2000
보다 깊이 연결되었다고 느끼도록 하던지,
13:41
or whether they are our trusted sidekick
334
821260
2000
우리가 최고와 최선의 자아가 되는데 있어
13:43
who's helping us attain our personal goals
335
823260
2000
우리의 개인적 목표들을 성취할 수 있도록
13:45
in becoming our highest and best selves,
336
825260
2000
돕는 신뢰할 수 있는 친구가 되던지 간에,
13:47
for me, robots are all about people.
337
827260
3000
제게는 로봇이 사람들에게 최고입니다.
13:50
Thank you.
338
830260
2000
감사합니다.
13:52
(Applause)
339
832260
5000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7