The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Cynthia Breazeal: Sự ra đời của robot cá nhân

159,450 views

2011-02-08 ・ TED


New videos

The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Cynthia Breazeal: Sự ra đời của robot cá nhân

159,450 views ・ 2011-02-08

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Jade Le Reviewer: Huyen Bui
00:15
Ever since I was a little girl
0
15260
3000
Từ khi tôi còn là một cô bé
00:18
seeing "Star Wars" for the first time,
1
18260
2000
khi xem phim "Chiến tranh giữa các vì sao" (Star Wars) lần đầu tiên,
00:20
I've been fascinated by this idea
2
20260
2000
tôi đã bị cuốn hút bởi ý tưởng
00:22
of personal robots.
3
22260
2000
về robot cá nhân.
00:24
And as a little girl,
4
24260
2000
Khi còn là một cô bé,
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
tôi đã rất thích cái ý tưởng về một con robot có thể giao lưu với chúng ta
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
như một người bạn hữu ích và đáng tin cậy --
00:31
something that would delight us, enrich our lives
7
31260
2000
đem lại niềm vui và làm giàu cuộc sống của chúng ta
00:33
and help us save a galaxy or two.
8
33260
3000
và giúp chúng ta cứu một vài dải thiên hà.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Vâng, tôi biết là robot như vậy thật sự không tồn tại,
00:40
but I knew I wanted to build them.
10
40260
2000
nhưng tôi biết tôi muốn tạo nên chúng.
00:42
So 20 years pass --
11
42260
2000
Và 20 năm đã trôi qua,
00:44
I am now a graduate student at MIT
12
44260
2000
bây giờ tôi đã là một nghiên cứu sinh tại trường MIT
00:46
studying artificial intelligence,
13
46260
2000
tôi nghiên cứu trí tuệ nhân tạo,
00:48
the year is 1997,
14
48260
2000
vào năm 1997,
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
NASA vừa đưa lên sao Hỏa con robot đầu tiên.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Nhưng trớ trêu thay, chúng ta vẫn chưa có robot ở trong nhà.
00:56
And I remember thinking about
17
56260
2000
Tôi còn nhớ
00:58
all the reasons why that was the case.
18
58260
2000
tôi đã suy nghĩ mãi về những lý do cho việc này.
01:00
But one really struck me.
19
60260
2000
Và một lý do làm tôi giật mình.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Từ xưa đến nay người máy luôn được tạo ra để giao lưu với đồ vật,
01:05
not with people --
21
65260
2000
không phải với con người --
01:07
certainly not in a social way that would be natural for us
22
67260
2000
và tất nhiên là không phải giao tiếp theo chuẩn mực bình thường của xã hội loài người
01:09
and would really help people accept robots
23
69260
2000
và không phải theo cái cách mà sẽ giúp mọi người chấp nhận robot
01:11
into our daily lives.
24
71260
2000
trong cuộc sống hàng ngày.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Đối với tôi, điều này là một lỗ hổng, là điều mà robot chưa thể làm được.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
Và thế là năm đó, tôi bắt tay vào việc xây dựng con robot này, Kismet,
01:19
the world's first social robot.
27
79260
3000
con robot mang tính xã hội đầu tiên trên thế giới.
01:22
Three years later --
28
82260
2000
3 năm sau,
01:24
a lot of programming,
29
84260
2000
sau vô số các lập trình,
01:26
working with other graduate students in the lab --
30
86260
2000
sau vô số những giờ làm việc với những nghiên cứu sinh khác tai phòng thí nghiệm
01:28
Kismet was ready to start interacting with people.
31
88260
2000
Kismet cuối cùng cũng sẵn sàng để giao tiếp với con người.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Video) Nhà khoa học: Tôi muốn cho bạn xem một thứ.
01:32
Kismet: (Nonsense)
33
92260
2000
Kismet: (nói linh tinh không có nghĩa)
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Nhà khoa học: Đây là cái đồng hồ mà bạn gái tôi đã tặng tôi.
01:37
Kismet: (Nonsense)
35
97260
2000
Kismet: (nói linh tinh không có nghĩa)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Nhà khoa học: Ừ! Nhìn này! Nó có một chút màu xanh này!
01:41
I almost lost it this week.
37
101260
3000
Tuần rồi, suýt nữa là tôi đánh mất nó đấy.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Cynthia Breazeal: Kismet giao lưu với con người
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
như một đứa trẻ chưa biết hoặc sắp biết nói,
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
mà cũng có lý thôi vì nó là con robot đầu tiên của thể loại này
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Nó không nói một thứ tiếng nào hết. Nhưng điều đấy không quan trọng.
01:55
This little robot was somehow able
42
115260
2000
Con robot nhỏ bé này đã có thể
01:57
to tap into something deeply social within us --
43
117260
3000
chạm đến điều gì đó mang đậm tính xã hội trong mỗi chúng ta.
02:00
and with that, the promise of an entirely new way
44
120260
2000
Điều này mở ra hy vọng cho một phương cách hoàn toàn mới
02:02
we could interact with robots.
45
122260
2000
để chúng ta có thể giao tiếp với robot.
02:04
So over the past several years
46
124260
2000
Vì vậy, vài năm trở lại đây
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
tôi tiếp tục tìm hiểu về lĩnh vực giao tiếp giữa các cá nhân với nhau cho robot,
02:08
now at the media lab
48
128260
2000
bây giờ ở phòng thí nghiệm về các phương tiện truyền thông
02:10
with my own team of incredibly talented students.
49
130260
2000
với một nhóm sinh viên rất tài năng.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Một trong những người máy tôi thích nhất là Leonardo.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Chúng tôi đã hợp tác với Stan Winston Studio để tạo ra Leonardo
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
Và tôi muốn cho các bạn xem một khoảnh khắc của Leo mà tôi thấy rất đặc biệt.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Matt Berlin đang giao tiếp với Leo.
02:23
introducing Leo to a new object.
54
143260
2000
anh ấy đang giới thiệu Leo cho một đối tượng mới.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
Vì nó mới, nên Leo chẳng biết phản ứng thế nào với nó.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Nhưng mà như con người, Leo có thể học cách phản ứng
02:30
from watching Matt's reaction.
57
150260
3000
trong khi theo dõi Matt Berlin.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Video) Matt Berlin: Xin chào, Leo!
02:38
Leo, this is Cookie Monster.
59
158260
3000
Leo ơi, đây là "Cookie Monster".
02:44
Can you find Cookie Monster?
60
164260
3000
Leo có thể tìm thấy "Cookie Monster" không?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Leo ơi, "Cookie Monster" là kẻ xấu.
02:56
He's very bad, Leo.
62
176260
2000
Hắn rất xấu, Leo ạ.
03:00
Cookie Monster is very, very bad.
63
180260
3000
"Cookie Monster" rất độc ác.
03:07
He's a scary monster.
64
187260
2000
Nó là một con quái vật đáng sợ.
03:09
He wants to get your cookies.
65
189260
2000
Và nó muốn ăn bánh của Leo.
03:12
(Laughter)
66
192260
2000
(cười)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
(CB): Vâng, Leo và "Cookie Monster"
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
có vẻ khởi đầu không suôn sẻ cho lắm,
03:19
but they get along great now.
69
199260
3000
nhưng mà hai đứa bây giờ đã thích nhau hơn nhiều.
03:22
So what I've learned
70
202260
2000
Và tôi đã học được
03:24
through building these systems
71
204260
2000
sau khi xây dựng những hệ thống này
03:26
is that robots are actually
72
206260
2000
rằng robot thật ra
03:28
a really intriguing social technology,
73
208260
2000
là một công nghệ xã hội rất đáng kinh ngạc.
03:30
where it's actually their ability
74
210260
2000
Thật ra robot có khả năng
03:32
to push our social buttons
75
212260
2000
bật lên công tác xã hội của chúng ta
03:34
and to interact with us like a partner
76
214260
2000
và giao tiếp với chúng ta như một đối tác
03:36
that is a core part of their functionality.
77
216260
3000
đấy chính là điểm hữu dụng của robot.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
Với cách suy nghĩ mới mẻ đấy, chúng ta có thể tưởng tượng ra
03:41
new questions, new possibilities for robots
79
221260
3000
những câu hỏi, những khả năng mới cho robot
03:44
that we might not have thought about otherwise.
80
224260
3000
mà trước đây chúng ta chưa từng nghĩ đến.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Vậy ý tôi là gì khi tôi nói "bật lên cái công tác xã hội"?
03:49
Well, one of the things that we've learned
82
229260
2000
Vâng, một trong những điều tôi đã học được là
03:51
is that, if we design these robots to communicate with us
83
231260
2000
nếu chúng ta chế tạo nên robot để giao tiếp với chúng ta
03:53
using the same body language,
84
233260
2000
và sử dụng cùng một thứ ngôn ngữ hình thể,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
và cùng một kiểu cử chỉ --
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
giống như Nexi, robot hình người ở đây --
04:00
what we find is that people respond to robots
87
240260
2000
chúng tôi thấy cách con người phản ứng với robot
04:02
a lot like they respond to people.
88
242260
2000
rất giống cách con người phản ứng với con người.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Con người dựa vào những cử chỉ để đo tính thuyết phục,
04:07
how likable, how engaging,
90
247260
2000
để xem ai đó có dễ gần không, có thu hút không,
04:09
how trustworthy.
91
249260
2000
có đáng tin cậy không.
04:11
It turns out it's the same for robots.
92
251260
2000
Và robot cũng hoạt động như vây.
04:13
It's turning out now
93
253260
2000
Chúng tôi nhận thấy
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
rằng robot thực chất đang dần trở thành một công cụ rất hay cho khoa học
04:18
to understand human behavior.
95
258260
2000
để nghiên cứu hành vi của con người.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Để trả lời những câu hỏi như, làm thế nào, mà sau một lần gặp gỡ ngắn ngủi,
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
chúng ta đều có thể ước tính được độ đáng tin cậy của người kia.
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Có thể là nhờ sự bắt chước, nhưng mà như thế nào?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Có phải là sự bắt chước của một số cử chỉ nhất định mang tính quyết định không?
04:32
It turns out it's really hard
100
272260
2000
Thật ra rất khó nói
04:34
to learn this or understand this from watching people
101
274260
2000
vì chúng ta không thể biết và hiểu điều này chỉ qua quan sát con người
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
vì khi giao tiếp, chúng ta ứng xử một cách vô thức.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Chúng ta không thể kiểm soát bản thân vì nó nằm trong tiềm thức.
04:41
But with the robot, you can.
104
281260
2000
Nhưng mà với robot thì chúng ta có thể.
04:43
And so in this video here --
105
283260
2000
Và trong đoạn phim này --
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
video clip này được quay ở phòng thí nghiệm của giáo sư David DeSteno tại trường Đại học Northeastern.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Anh ấy là một nhà tâm lý học mà chúng tôi đang hợp tác cùng.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
Trên thực tế, một nhà khoa học đang kiểm soát một cách chặt chẽ những ứng xử của Nexi
04:53
to be able to study this question.
109
293260
3000
để nghiên cứu được vấn đề này.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
Và điểm mấu chốt là -- lí do điều này thực hiện được là --
04:58
because it turns out people just behave like people
111
298260
2000
chúng tôi nhận thấy rằng con người vẫn xử sự như một con người
05:00
even when interacting with a robot.
112
300260
3000
kể cả khi chúng ta đang giao tiếp với robot.
05:03
So given that key insight,
113
303260
2000
Dựa vào phát hiện quan trọng đó,
05:05
we can now start to imagine
114
305260
2000
chúng ta có thể bắt đầu tưởng tượng
05:07
new kinds of applications for robots.
115
307260
3000
một loại ứng dụng mới cho robot
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Ví dụ như là nếu robot phản ứng với tín hiệu không lời của chúng ta,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
thì chúng sẽ có một công nghệ liên lạc rất mới mẻ và hay ho.
05:17
So imagine this:
118
317260
2000
Các bạn hãy tưởng tượng:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Nếu bạn có một con robot làm phụ kiện cho điện thoại di động
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Bạn gọi cho một người bạn, và cô ấy sẽ gắn cái điện thoại vào robot,
05:23
and, bam! You're a MeBot --
121
323260
2000
và, tèn ten! Bạn trở thành MeBot --
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
bạn có thể trao đổi bằng mắt, bạn có thể nói chuyện với bạn bè,
05:28
you can move around, you can gesture --
123
328260
2000
bạn có thể đi lại, có thể làm các động tác --
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
chẳng khác gì bạn đang có mặt thực sự ở đó, phải không?
05:33
To explore this question,
125
333260
2000
Để tìm hiểu câu hỏi này
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
học trò của tôi, Siggy Adalgeirsson, đã làm một cuộc điều tra
05:38
where we brought human participants, people, into our lab
127
338260
3000
trong đó chúng tôi mời những người tham gia vào phòng thí nghiệm
05:41
to do a collaborative task
128
341260
2000
và đề nghị họ cùng hợp tác làm một việc gì đó
05:43
with a remote collaborator.
129
343260
2000
với một cộng tác viên từ xa.
05:45
The task involved things
130
345260
2000
Công việc bao gồm những việc như là
05:47
like looking at a set of objects on the table,
131
347260
2000
nhìn một số đồ vật để trên bàn
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
và bàn xem chúng có quan trọng và phù hợp để thực hiện một công việc nào đó không --
05:52
this ended up being a survival task --
133
352260
2000
công việc cuối cùng trở thành việc cần làm để sống sót--
05:54
and then rating them in terms
134
354260
2000
và chúng tôi đề nghị họ đánh giá
05:56
of how valuable and important they thought they were.
135
356260
2000
xem những độ vật này quan trọng và có giá trị đến mức nào.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
Cộng tác viên từ xa là một nhà thí nghiệm của nhóm chúng tôi
06:01
who used one of three different technologies
137
361260
2000
họ dùng 1 trong 3 công nghệ khác nhau
06:03
to interact with the participants.
138
363260
2000
để giao tiếp với những người tham gia bài thí nghiệm.
06:05
The first was just the screen.
139
365260
2000
Người thứ nhất chỉ dùng màn hình
06:07
This is just like video conferencing today.
140
367260
3000
giống như là nói chuyện qua video như chúng ta có hiện nay.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Người tiếp theo, để tăng thêm sự chuyển động, dùng màn hình được đặt trên một chân đế di chuyển được.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Trường hợp này cũng giống như khái niệm "hội họp từ xa" --
06:16
this is mirroring that situation.
143
376260
3000
đã trở nên quen thuộc với nhiều người.
06:19
And then the fully expressive MeBot.
144
379260
2000
Và cuối cùng là MeBot với khả năng biểu cảm một cách đầy đủ.
06:21
So after the interaction,
145
381260
2000
Sau buổi giao lưu,
06:23
we asked people to rate their quality of interaction
146
383260
3000
chúng tôi nhờ những người tham gia cho điểm về chất lượng của cuộc nói chuyện
06:26
with the technology, with a remote collaborator
147
386260
2000
với công nghệ, với cộng tác viên từ xa
06:28
through this technology, in a number of different ways.
148
388260
3000
thông qua công nghệ này bằng nhiều hình thức khác nhau.
06:31
We looked at psychological involvement --
149
391260
2000
Chúng tôi đánh giá sự cuốn hút về tâm lý --
06:33
how much empathy did you feel for the other person?
150
393260
2000
Bạn đồng cảm như thế nào đối với người kia?
06:35
We looked at overall engagement.
151
395260
2000
Chúng tôi đánh giá sự tham gia nói chung.
06:37
We looked at their desire to cooperate.
152
397260
2000
Chúng tôi đánh giá sự ham muốn cho việc hợp tác của những người tham gia.
06:39
And this is what we see when they use just the screen.
153
399260
3000
Và đây là nhưng gì chúng tôi nhìn thấy khi chỉ dùng đến màn hình
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Hóa ra khi bạn chuyển động thêm -- khả năng đi vòng vòng quanh bàn--
06:45
you get a little more of a boost.
155
405260
2000
bạn có thêm một chút động lực.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
Và bạn có thêm động lực khi bạn bổ sung sự biểu cảm.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Có vẻ sự thể hiện xã hội vật lý
06:52
actually really makes a difference.
158
412260
2000
thật ra làm nên một sự thay đổi đáng kể.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Bây giờ chúng ta thử đặt tình huống này vào chút ít khung cảnh.
06:57
Today we know that families are living further and further apart,
160
417260
3000
Hiện nay, chúng ta đều biết rằng các gia đình đang ngày càng sống tách biệt nhau,
07:00
and that definitely takes a toll on family relationships
161
420260
2000
và điều này chắc chắn gióng chuông cảnh báo về mối quan hệ gia đình
07:02
and family bonds over distance.
162
422260
2000
và sự gắn bó giữa các thành viên gia đình qua khoảng cách không gian.
07:04
For me, I have three young boys,
163
424260
2000
Giống như tôi, tôi có ba cậu con trai
07:06
and I want them to have a really good relationship
164
426260
2000
và tôi muốn chúng nó có một quan hệ tốt
07:08
with their grandparents.
165
428260
2000
với ông bà chúng.
07:10
But my parents live thousands of miles away,
166
430260
2000
Nhưng bố mẹ tôi lại sống rất xa chúng tôi,
07:12
so they just don't get to see each other that often.
167
432260
2000
nên tôi không thể cho 3 đứa gặp ông bà thường xuyên được.
07:14
We try Skype, we try phone calls,
168
434260
2000
Chúng tôi thử dùng Skype, nói chuyện điện thoại,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
nhưng mà 3 thằng đều rất nhỏ, chúng nó đâu có thích nói chuyện,
07:18
they want to play.
170
438260
2000
chúng nó chỉ thích chơi thôi.
07:20
So I love the idea of thinking about robots
171
440260
2000
Chúng nó rất thích ý tưởng về robot
07:22
as a new kind of distance-play technology.
172
442260
3000
như là loại hình công nghệ vui chơi từ xa mới.
07:25
I imagine a time not too far from now --
173
445260
3000
Vì thế tôi tưởng tượng là, trong một tương lai gần
07:28
my mom can go to her computer,
174
448260
2000
mẹ tôi có thể ngồi trước máy tính,
07:30
open up a browser and jack into a little robot.
175
450260
2000
mở ra một trình duyệt và cắm vào robot nhỏ.
07:32
And as grandma-bot,
176
452260
3000
Và thông qua robot-bà ngoại,
07:35
she can now play, really play,
177
455260
2000
bà có thể chơi, thật sự chơi
07:37
with my sons, with her grandsons,
178
457260
2000
với những đứa cháu của bà,
07:39
in the real world with his real toys.
179
459260
3000
trong thế giới thật, với những đồ chơi thật của chúng nó.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Tôi có thể hình dung các bà có thể chơi trò chơi xã hội
07:44
with their granddaughters, with their friends,
181
464260
2000
với đám cháu gái và bạn bè của chúng,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
và có thể chia sẻ tất cả các hoạt động khác nhau quanh nhà,
07:48
like sharing a bedtime story.
183
468260
2000
giống như kể chuyện đêm khuya.
07:50
And through this technology,
184
470260
2000
Và thông qua công nghệ này,
07:52
being able to be an active participant
185
472260
2000
ông bà có thể tham gia một cách chủ động
07:54
in their grandchildren's lives
186
474260
2000
vào cuộc sống của những đứa cháu họ.
07:56
in a way that's not possible today.
187
476260
2000
theo cách dường như không thể hiện nay.
07:58
Let's think about some other domains,
188
478260
2000
Hãy nghĩ về một số lĩnh vực khác,
08:00
like maybe health.
189
480260
2000
chẳng hạn như sức khỏe.
08:02
So in the United States today,
190
482260
2000
Tại Hoa Kỳ ngày nay,
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
hơn 65% dân số thừa cân hoặc béo phì,
08:07
and now it's a big problem with our children as well.
192
487260
2000
và hiện giờ cũng là vấn đề lớn với con cái chúng ta.
08:09
And we know that as you get older in life,
193
489260
2000
Và chúng ta biết rằng chúng ta sẽ dần dần già đi,
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
nếu như bạn bị bệnh béo phì khi bạn trẻ, sẽ dẫn đến các căn bệnh mãn tính
08:14
that not only reduce your quality of life,
195
494260
2000
và sẽ không chỉ làm giảm chất lượng cuộc sống,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
mà còn là gánh nặng kinh tế to lớn cho hệ thống chăm sóc sức khỏe của chúng ta.
08:19
But if robots can be engaging,
197
499260
2000
Nếu robot có thể tham gia
08:21
if we like to cooperate with robots,
198
501260
2000
nếu chúng ta thích hợp tác với robot
08:23
if robots are persuasive,
199
503260
2000
nếu robot có sức thuyết phục
08:25
maybe a robot can help you
200
505260
2000
có lẽ robot có thể giúp đỡ bạn
08:27
maintain a diet and exercise program,
201
507260
2000
duy trì chương trình tập luyện và ăn kiêng,
08:29
maybe they can help you manage your weight.
202
509260
3000
chúng có thể giúp bạn kiểm soát cân nặng.
08:32
Sort of like a digital Jiminy --
203
512260
2000
Đại loại như Jiminy kỹ thuật số --
08:34
as in the well-known fairy tale --
204
514260
2000
trong câu chuyện cổ tích nổi tiếng --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
một kiểu hiện diện hỗ trợ thân thiện luôn luôn sẵn sàng
08:38
to be able to help you make the right decision
206
518260
2000
để có thể giúp bạn đưa ra quyết định đúng đắn
08:40
in the right way at the right time
207
520260
2000
đúng cách, đúng lúc,
08:42
to help you form healthy habits.
208
522260
2000
giúp bạn hình thành thói quen lành mạnh.
08:44
So we actually explored this idea in our lab.
209
524260
2000
Chúng tôi thực sự nghiên cứu ý tưởng này trong phòng thí nghiệm.
08:46
This is a robot, Autom.
210
526260
2000
Và đây là người máy Autom.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Cory Kidd tạo ra robot này trong công trình tiến sỹ của anh ta.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
Và đã tạo ra một người máy huấn luyện viên thể dục và ăn kiêng.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
Nó có thể thực hiện một vài kỹ năng không lời đơn giản.
08:56
It could make eye contact with you.
214
536260
2000
Có thể ra hiệu bằng mắt với bạn.
08:58
It could share information looking down at a screen.
215
538260
2000
Có thể chia sẻ thông tin bằng nhìn xuống màn hình.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Bạn sẽ sử dụng giao diện màn hình để điền thông tin
09:02
like how many calories you ate that day,
217
542260
2000
như là bao nhiêu calo bạn đã ăn trong ngày
09:04
how much exercise you got.
218
544260
2000
bạn tập thể dục nhiều như thế nào.
09:06
And then it could help track that for you.
219
546260
2000
Và sau đó, nó có thể giúp theo dõi hộ bạn.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
Và robot nói chuyện với một giọng nói nhận tạo
09:10
to engage you in a coaching dialogue
221
550260
2000
để bạn tham gia vào một cuộc đối thoại huấn luyện
09:12
modeled after trainers
222
552260
2000
được mô phỏng theo các luấn luyện viên thật
09:14
and patients and so forth.
223
554260
2000
và các bệnh nhân, vân vân.
09:16
And it would build a working alliance with you
224
556260
2000
Và nó sẽ xây dựng mối liên minh công việc với bạn
09:18
through that dialogue.
225
558260
2000
thông qua hội thoại đó.
09:20
It could help you set goals and track your progress,
226
560260
2000
Nó có thể giúp bạn đặt mục tiêu và theo dõi sự tiến bộ của bạn,
09:22
and it would help motivate you.
227
562260
2000
và nó sẽ khuyến khích bạn.
09:24
So an interesting question is,
228
564260
2000
Và một câu hỏi thú vị là,
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
liệu sự liên hệ xã hội có thực sự quan trọng? Liệu có vấn đề gì nếu đó chỉ là robot?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Hay chỉ có chất lượng lời khuyên và thông tin mới là vấn đề?
09:32
To explore that question,
231
572260
2000
Để trả lời câu hỏi này
09:34
we did a study in the Boston area
232
574260
2000
chúng tôi đã thực hiện một nghiên cứu ở khu vực Boston
09:36
where we put one of three interventions in people's homes
233
576260
3000
nơi chúng tôi đặt ba biện pháp can thiệp trong nhà người dân
09:39
for a period of several weeks.
234
579260
2000
trong vài tuần.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
Một trường hợp là robot Autom như ở đây.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
Một trường hợp khác là máy tính chạy cùng một giao diện màn hình cảm ứng,
09:47
ran exactly the same dialogues.
237
587260
2000
đưa ra cùng một nội dung hội thoại, không khác chữ nào.
09:49
The quality of advice was identical.
238
589260
2000
Chất lượng các lời tư vấn giống y như nhau.
09:51
And the third was just a pen and paper log,
239
591260
2000
Và trường hợp thứ ba chỉ là bút và thời khóa biểu trên giấy,
09:53
because that's the standard intervention you typically get
240
593260
2000
bởi vì đó là sự can thiệp chuẩn mực/truyền thống mà bạn thường có
09:55
when you start a diet-and-exercise program.
241
595260
3000
khi bạn bắt đầu một chương trình ăn kiêng và luyện tập.
09:58
So one of the things we really wanted to look at
242
598260
3000
Một trong những thứ mà chúng tôi muốn xem xét
10:01
was not how much weight people lost,
243
601260
3000
không phải là người ta giảm bao nhiêu cân,
10:04
but really how long they interacted with the robot.
244
604260
3000
mà là người ta giao tiếp với robot bao lâu.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Bởi vì thách thức không phải là giảm cân, mà thực chất là giữ cho không bị tăng cân.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
Bạn giao tiếp càng lâu với một trong những sự can thiệp này,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
thì nó thực sự là thành công lâu dài, hiển nhiên, chắc chắn.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Điều đầu tiên tôi muốn đánh giá là bao lâu,
10:18
how long did people interact with these systems.
249
618260
2000
người ta giao tiếp bao lâu với những hệ thống này.
10:20
It turns out that people interacted with the robot
250
620260
2000
Hóa ra người ta giao tiếp với robot
10:22
significantly more,
251
622260
2000
nhiều hơn một cách đáng kể,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
thậm chí cả khi chất lượng tư vấn trên máy tính hoàn toàn tương tự.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Khi người ta được yêu cầu đánh giá về chất lượng của liên minh công việc,
10:31
people rated the robot higher
254
631260
2000
người ta đánh giá robot cao hơn
10:33
and they trusted the robot more.
255
633260
2000
và họ tin tưởng robot nhiều hơn.
10:35
(Laughter)
256
635260
2000
(cười)
10:37
And when you look at emotional engagement,
257
637260
2000
Khi bạn nhìn vào mối dây liên kết tình cảm,
10:39
it was completely different.
258
639260
2000
nó hoàn toàn khác biệt.
10:41
People would name the robots.
259
641260
2000
Người ta đặt tên cho người máy.
10:43
They would dress the robots.
260
643260
2000
Người ta mặc quần áo cho người máy.
10:45
(Laughter)
261
645260
2000
(cười)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
và thậm chí khi chúng tôi đến lấy robot khi kết thúc nghiên cứu,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
họ đi ra xe và chào tạm biệt robot.
10:52
They didn't do this with a computer.
264
652260
2000
Họ không làm thế với cái máy tính.
10:54
The last thing I want to talk about today
265
654260
2000
Điều cuối tôi muốn nói ngày hôm nay
10:56
is the future of children's media.
266
656260
2000
là tương lai của phương tiện truyền thông của trẻ em.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Chúng ta biết rằng trẻ em ngày nay dành rất nhiều thời gian trước màn hình máy tính,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
đó có thể là trò chơi TV hay trò chơi máy tính hoặc là không gì cả.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Các con trai tôi, chúng yêu màn hình. Chúng yêu màn hình.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Nhưng tôi muốn chúng chơi, là một người mẹ, tôi muốn chúng chơi
11:10
like, real-world play.
271
670260
2000
giống như thế giới trò chơi thực.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
Và tôi có một dự án mới trong nhóm mà tôi muốn trình bày tới các bạn hôm nay
11:15
called Playtime Computing
273
675260
2000
gọi là Playtime Computing (Giờ ra chơi được lập trình)
11:17
that's really trying to think about how we can take
274
677260
2000
hãy thử tưởng tượng
11:19
what's so engaging about digital media
275
679260
2000
những đặc điểm hấp dẫn của phương tiện truyền thông kỹ thuật số
11:21
and literally bring it off the screen
276
681260
2000
và thực sự đem chúng ra khỏi màn hình,
11:23
into the real world of the child,
277
683260
2000
đem chúng vào thế giới thực của trẻ,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
nơi mà chúng có thể đảm nhận nhiều vai trò của trò chơi trong thế giới thực.
11:29
So here's the first exploration of this idea,
279
689260
4000
Đây là khám phá đầu tiên của sáng kiến này,
11:33
where characters can be physical or virtual,
280
693260
3000
nơi mà nhân vật có thể là thực hoặc ảo,
11:36
and where the digital content
281
696260
2000
và nơi nội dung kỹ thuật số
11:38
can literally come off the screen
282
698260
2000
có thể thực sự rời khỏi màn hình
11:40
into the world and back.
283
700260
2000
đi vào thế giới thực rồi quay trở lại.
11:42
I like to think of this
284
702260
2000
Tôi thích nghĩ về điều này
11:44
as the Atari Pong
285
704260
2000
như là trò Atari Pong
11:46
of this blended-reality play.
286
706260
2000
giữa hai thế giới thực và ảo.
11:48
But we can push this idea further.
287
708260
2000
Nhưng chúng ta có thể thúc đẩy sáng kiến này xa hơn.
11:50
What if --
288
710260
2000
Liệu điều gì xảy ra --
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(Trò chơi) Nathan: Đến rồi đây. Yay!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
CB: -- nếu nhân vật tự mình đi vào thế giới của bạn?
11:58
It turns out that kids love it
291
718260
2000
Lũ trẻ thực sự thích thú
12:00
when the character becomes real and enters into their world.
292
720260
3000
khi nhân vật trở thành thực và đi vào thế giới của chúng.
12:03
And when it's in their world,
293
723260
2000
Và khi ở trong thế giới của chúng,
12:05
they can relate to it and play with it in a way
294
725260
2000
chúng có thể kết nối và chơi với nó theo cách
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
hoàn toàn khác biệt với cách mà chúng chơi trên màn hình.
12:09
Another important idea is this notion
296
729260
2000
Một ý tưởng quan trọng khác là khái niệm này
12:11
of persistence of character across realities.
297
731260
3000
về sự nhất quán của nhân vật khi chuyển hóa giữa các hiện thực.
12:14
So changes that children make in the real world
298
734260
2000
Những thay đổi mà trẻ em làm trong thế giới thực
12:16
need to translate to the virtual world.
299
736260
2000
cần được chuyển vào thế giới ảo.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Vì thế, Nathan đã thay đổi chữ A thành số 2.
12:21
You can imagine maybe these symbols
301
741260
2000
Bạn có thể tưởng tượng là các biểu tượng này
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
cho nhân vật những năng lượng đặc biệt khi chúng đi vào thế giới ảo.
12:26
So they are now sending the character back into that world.
303
746260
3000
Vì thế chúng đưa nhân vật trở về thế giới ảo.
12:29
And now it's got number power.
304
749260
3000
Và bây giờ nó đã có "năng lượng số", thay vì "năng lượng chữ".
12:32
And then finally, what I've been trying to do here
305
752260
2000
Cuối cùng, điều tôi cố gắng làm ở đây
12:34
is create a really immersive experience for kids,
306
754260
3000
là tạo ra một trải nghiệm nhập vai thực sự cho trẻ em,
12:37
where they really feel like they are part of that story,
307
757260
3000
nơi mà chúng cảm thấy như được trở thành một phần của câu chuyện đó,
12:40
a part of that experience.
308
760260
2000
một phần của trải nghiệm đó.
12:42
And I really want to spark their imaginations
309
762260
2000
Và tôi muốn thắp sáng trí tưởng tượng của chúng
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
như trí tưởng tượng của tôi lúc bé đã từng được khai sáng khi xem "Chiến tranh giữa các vì sao"
12:47
But I want to do more than that.
311
767260
2000
Nhưng tôi muốn làm nhiều hơn thế.
12:49
I actually want them to create those experiences.
312
769260
3000
Tôi thực sự muốn chúng tạo ra những trải nghiệm này.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Tôi muốn chúng phát triển trí tưởng tượng của chúng một cách đúng nghĩa
12:54
into these experiences and make them their own.
314
774260
2000
theo cách trải nghiệm riêng của chúng.
12:56
So we've been exploring a lot of ideas
315
776260
2000
Vì thế chúng tôi đang nghiên cứu phát triển nhiều ý tưởng
12:58
in telepresence and mixed reality
316
778260
2000
về "hội họp từ xa" (telepresence) và "hiện thực hỗn hợp" (mixed reality)
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
mà thực sự cho phép lũ trẻ đưa ra dự án ý tưởng vào không gian này
13:03
where other kids can interact with them
318
783260
2000
nơi mà những đứa trẻ khác có thể giao tiếp với chúng
13:05
and build upon them.
319
785260
2000
xây dựng dựa trên chúng.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Tôi thực sự muốn đến với những cách thức mới của phương tiện truyền thông của trẻ em
13:10
that foster creativity and learning and innovation.
321
790260
3000
mà nuôi dưỡng tính sáng tạo, sự ham hỏi và sự đổi mới.
13:13
I think that's very, very important.
322
793260
3000
Điều này rất quan trọng.
13:16
So this is a new project.
323
796260
2000
Đây là dự án mới.
13:18
We've invited a lot of kids into this space,
324
798260
2000
Chúng tôi mời nhiều trẻ em tham gia vào không gian này,
13:20
and they think it's pretty cool.
325
800260
3000
và bọn chúng cho rằng khá thú vị.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Nhưng tôi cho rằng, điều mà chúng thích nhất
13:25
is the robot.
327
805260
2000
là robot.
13:27
What they care about is the robot.
328
807260
3000
Điều chúng quan tâm đến là robot.
13:30
Robots touch something deeply human within us.
329
810260
3000
Robot đã chạm vào cái gì đó mang tính nhân bản sâu sắc trong mỗi chúng ta.
13:33
And so whether they're helping us
330
813260
2000
Và nếu chúng giúp đỡ chúng ta
13:35
to become creative and innovative,
331
815260
2000
trở nên sáng tạo và đổi mới,
13:37
or whether they're helping us
332
817260
2000
hay chúng đang giúp đỡ ta
13:39
to feel more deeply connected despite distance,
333
819260
2000
cảm nhận sâu sắc hơn mối liên hệ bất kể khoảng cách,
13:41
or whether they are our trusted sidekick
334
821260
2000
hoặc chúng trở thành bạn tri kỷ đáng tin cậy của chúng ta
13:43
who's helping us attain our personal goals
335
823260
2000
người giúp đỡ chúng ta đạt được mục tiêu cá nhân
13:45
in becoming our highest and best selves,
336
825260
2000
để trở thành những "cái tôi" vĩ đại và tốt nhất,
13:47
for me, robots are all about people.
337
827260
3000
đối với tôi, robot là để phục vụ cho con người.
13:50
Thank you.
338
830260
2000
Cám ơn
13:52
(Applause)
339
832260
5000
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7