Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Khoa Nguyễn Reviewer: Yung Phuong
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
Điều mà tôi muốn nói ngày hôm nay là cách mà tôi nhận thấy sự chế ngự của robot trong cuộc sống chúng ta
00:23
at multiple levels, over multiple timescales.
1
23330
3000
ở nhiều mức độ, nhiều khoảng thời gian.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
Và khi tôi nhìn vào tương lai, tôi không thể tưởng tượng được một thế giới
500 năm sau mà không có robot ở mọi nơi.
00:30
where we don't have robots everywhere.
3
30330
2000
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
Giả sử -- mặc cho những dự đoán nghiêm trọng về tương lai từ rất nhiều người --
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
giả sử rằng chúng ta còn tồn tại, tôi không thể tưởng tượng được một thế giới thiếu robots.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
Và rồi câu hỏi sẽ là, vâng, nếu chúng sẽ tồn tại trong 500 năm nữa,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
vậy chúng sẽ tràn ngập mọi nơi sớm hơn thế hay không?
00:46
Are they going to be around in 50 years?
8
46330
2000
Chúng sẽ có mặt xung quanh ta trong vòng 50 năm nữa hay không?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Vâng, tôi nghĩ điều đó rất có thể xảy ra -- sẽ có vô số robots ở mọi nơi.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
Và thực tế thì tôi nghĩ rằng điều đó sẽ xảy ra sớm hơn thế.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
Tôi nghĩ rằng chúng ta đang ở đỉnh điểm khi robots trở nên phổ biến hơn,
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
và tôi nghĩ chúng ta đang ở khoảng 1978-1980 trong những năm của máy tính cá nhân,
01:04
where the first few robots are starting to appear.
13
64330
3000
khi những robot đầu tiên bắt đầu xuất hiện.
01:07
Computers sort of came around through games and toys.
14
67330
4000
Máy tính trở nên phổ biến qua games và đồ chơi.
01:11
And you know, the first computer most people had in the house
15
71330
3000
Và bạn biết không, chiếc máy tính đầu tiên mà hầu hết người dân có trong nhà
01:14
may have been a computer to play Pong,
16
74330
2000
có thể là một chiếc máy tính để chơi trò Pong,
01:16
a little microprocessor embedded,
17
76330
2000
một bộ vi xử lý gắn bên trong,
01:18
and then other games that came after that.
18
78330
3000
và sau đó thì nhiều trò chơi khác ra đời.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
Và chúng ta bắt đầu thấy robot cũng như vậy:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGO Mindstorms, Furbies - ai ở đây có một con Furby?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Vâng, có 38 triệu con Furbies được bán trên toàn thế giới.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Chúng khá phổ biến. Và chúng là những con robot nhỏ xíu,
01:33
a simple robot with some sensors,
23
93330
2000
loại robot với vài cảm biến,
01:35
a little bit of processing actuation.
24
95330
2000
một chút năng lực xử lý thông tin.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
Ở góc phải là một con búp bê robot, thứ mà bạn có thể mua vài năm trước đây.
01:40
And just as in the early days,
26
100330
2000
Và cũng như những ngày đầu,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
khi có nhiều sự tương tác giữa những người nghiệp dư trên máy tính,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
bạn có thể mua nhiều bộ công cụ hack, những cuốn sách dạy hack.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
Và ở phía bên trái là một nền tảng từ Evolution Robotics,
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
nơi bạn có thể cài đặt trên máy tính, và viết chương trình với một giao diện đồ họa
01:58
to wander around your house and do various stuff.
31
118330
3000
cho nó chạy vòng quanh nhà và làm nhiều trò khác.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
Và có những loại robot đồ chơi đắt tiền hơn,
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
như Sony Aibo. Và ở bên phải là một robot mà NEC phát triển,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
con PaPeRo. Tuy nhiên tôi không nghĩ họ sẽ đưa nó ra thị trường.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Nhưng dù sao thì những thứ như thế này đang ở ngoài kia.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
Và chúng ta đã thấy trong 2-3 năm trở lại đây, những con robot cắt cỏ,
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
Husqvarna ở phía dưới, Friendly Robotics ở phía trên, một công ty của Israel.
02:24
And then in the last 12 months or so
38
144330
2000
Và trong vòng 12 tháng trở lại đây
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
chúng ta đã bắt đầu thấy những robot dọn nhà xuất hiện.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
Ở góc trên bên trái là một robot lau dọn nhà khá tốt,
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
từ một công ty tên Dyson ở Anh. Chỉ có điều, nó quá đắt --
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
$3,500 -- họ không đưa nó ra thị trường.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Nhưng ở phía dưới bên trái là Electrolux, đang được bán trên thị trường.
02:42
Another one from Karcher.
44
162330
2000
Một robot khác từ Karcher.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
Ở phía dưới bên phải là con robot mà tôi tạo ra trong phòng thí nghiệm của tôi
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
khoảng 10 năm trước, và chúng tôi biến nó thành một sản phẩm.
02:49
And let me just show you that.
47
169330
2000
Và hãy để tôi cho các bạn xem.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
Chúng tôi sẽ cho nó đi sau buổi nói chuyện, Chris nói vậy.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Đây là một robot bạn có thể mua, và nó sẽ lau nhà cho bạn.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
Và nó bắt đầu bằng cách đi theo vòng tròn ngày một to dần.
03:10
If it hits something -- you people see that?
51
190330
4000
Nếu nó tông vào thứ gì đó -- bạn thấy không?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Bây giờ nó đang đi dọc theo tường, nó đang đi vòng quanh chân của tôi
03:17
to clean up around me. Let's see, let's --
53
197330
4000
để lau sàn nhà xung quanh tôi. Để xem nào,
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
ô, ai lấy Rice Krispies của tôi vậy? Họ ăn trộm Rice Krispies của tôi!
03:26
(Laughter)
55
206330
6000
(Cười)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Đừng lo, thư giãn đi nào, nó là một robot, nó thông minh mà!
03:35
(Laughter)
57
215330
3000
(Cười)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Thấy không, những đứa trẻ 3 tuổi, chúng không lo lắng về điều đó.
03:42
It's grown-ups that get really upset.
59
222330
2000
Chỉ người lớn mới lo [con robot rớt xuống].
03:44
(Laughter)
60
224330
1000
(Cười).
03:45
We'll just put some crap here.
61
225330
2000
Chúng ta sẽ để một ít rác ở đây.
03:47
(Laughter)
62
227330
4000
(Cười).
03:51
Okay.
63
231330
2000
Được rồi.
03:53
(Laughter)
64
233330
4000
(Cười).
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Tôi không biết là các bạn có thấy được hay không -- tôi để một ít Rice Krispies ở đây,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
một vài đồng xu, chỉ cần chụp hình tại đó, xem thử nó có lau dọn sạch không.
04:10
Yeah, OK. So --
67
250330
2000
Vâng, được rồi. Xem nào --
04:12
we'll leave that for later.
68
252330
4000
chúng ta sẽ để đó sau.
04:16
(Applause)
69
256330
5000
(Vỗ tay).
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
Một phần của kỹ thuật này là xây dựng một cơ chế lau dọn tốt hơn, thực ra
04:26
the intelligence on board was fairly simple.
71
266330
4000
phần 'thông minh' của robot khá đơn giản.
04:30
And that's true with a lot of robots.
72
270330
2000
Và điều đó thì đúng với khá nhiều robot.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
Tôi nghĩ hầu hết chúng ta là những người quá tin vào tính toán,
04:36
and think that computation is everything,
74
276330
2000
và nghĩ rằng năng lực tính toán là tất cả,
04:38
but the mechanics still matter.
75
278330
2000
nhưng phần cơ khí vẫn rất quan trọng.
04:40
Here's another robot, the PackBot,
76
280330
3000
Đây là một robot khác, con PackBot,
04:43
that we've been building for a bunch of years.
77
283330
2000
mà chúng tôi đã làm việc với nó nhiều năm.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Nó là một robot do thám quân sự, dùng để đi trước những người lính --
04:51
looking at caves, for instance.
79
291330
3000
ví dụ như kiểm tra các hang động.
04:54
But we had to make it fairly robust,
80
294330
2000
Nhưng chúng tôi phải làm cho nó linh hoạt,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
linh hoạt hơn những robot khác chúng tôi có trong phòng thí nghiệm.
05:03
(Laughter)
82
303330
3000
(Cười)
05:12
On board that robot is a PC running Linux.
83
312330
4000
mạch chủ của con robot đó là một máy tính chạy hệ điều hành Linux.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
Nó có thể chịu được một cú sốc 400G. Con robot có trí thông minh nhân tạo:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
nó có thể tự lật thẳng lại, có thể đưa bản thân vào vùng liên lạc,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
có thể tự mình đi lên cầu thang, v.v.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
Nó đang tự định hướng khu vực xung quanh.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Một người lính cho nó một câu lệnh để đi lên cầu thang, và nó đi.
05:49
That was not a controlled descent.
89
349330
3000
Và đó không phải là một cú đáp xuống được điều khiển.
05:52
(Laughter)
90
352330
2000
(Cười)
05:54
Now it's going to head off.
91
354330
2000
Bây giờ nó chuẩn bị rời đi.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
Và sự bứt phá của những con robot này thực sự là vụ 11/9.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
Chúng tôi đưa lũ robot tới Trung tâm Thương mại Thế giới chiều tối hôm đó.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Không thể làm gì nhiều trong đống đổ nát chính,
06:08
things were just too -- there was nothing left to do.
95
368330
3000
mọi thứ quá -- không còn gì để làm cả.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Nhưng chúng tôi vào những toà nhà xung quanh đã được di tản,
06:16
and searched for possible survivors in the buildings
97
376330
3000
và tìm kiếm những người sống sót trong những toà nhà
06:19
that were too dangerous to go into.
98
379330
2000
quá nguy hiểm cho con người để vào.
06:21
Let's run this video.
99
381330
2000
Hãy bắt đầu đoạn video này.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Phóng viên: ...Những phụ tá chiến trường đang giúp giảm thiểu rủi ro.
06:26
Nick Robertson has that story.
101
386330
3000
Sau đây là câu chuyện của Nick Robertson.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Rodney Brooks: Chúng ta có thể thêm một cái nữa được không?
06:38
Okay, good.
103
398330
2000
Được rồi, tốt.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Đây là một hạ sĩ đã làm việc với một robot hai tuần vừa qua.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
Anh ta đưa những con robot vào các hang động, xem thử có gì đang diễn ra.
06:52
The robot's being totally autonomous.
106
412330
2000
Con robot đang hoàn toàn tự điều khiển .
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Điều tệ nhất xảy ra trong cái hang tính tới nay,
06:58
was one of the robots fell down ten meters.
108
418330
3000
là việc một trong những con robot rớt xuống từ độ cao 10m.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Một năm trước, quân đội Mỹ không có những con robot như thế này.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Bây giờ chúng đang thực hiện nhiệm vụ ở Afghanistan hằng ngày.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
Và đó là một trong những lý do người ta nói một cuộc xâm lấn bằng robot đang xảy ra.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
Có một biển thay đổi diễn ra ngay lúc này -- cái đích công nghệ đang hướng tới.
07:20
Thanks.
113
440330
2000
Xin cảm ơn.
07:23
And over the next couple of months,
114
443330
2000
Và trong vài tháng tới,
07:25
we're going to be sending robots in production
115
445330
3000
chúng tôi sẽ gửi robot đang trong quá trình sản xuất
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
xuống những giếng dầu để lấy được những thùng dầu cuối cùng khỏi mặt đất.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Những môi trường cực kỳ khắc nghiệt, 150˚ C, 10,000 PSI.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Robot tự động đi xuống, làm những việc đại loại thế.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Nhưng robot như vậy thì hơi khó lập trình.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Làm thế nào để trong tương lai, chúng ta có thể lập trình robot
07:45
and make them easier to use?
121
465330
2000
và khiến chúng dễ sử dụng hơn?
07:47
And I want to actually use a robot here --
122
467330
3000
Và tôi muốn thực sự dùng một robot ở đây -
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
con robot tên là Chris -- đứng lên nào. Đúng rồi.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Đi lại đây nào. Hãy chú ý, anh ta nghĩ là robot phải hơi cứng đơ như vậy.
08:01
He sort of does that. But I'm going to --
125
481330
3000
Anh ta làm đại loại thế. Nhưng tôi sẽ --
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Chris Anderson: Tôi chỉ là người Anh. Rodney Brooks: Oh.
08:06
(Laughter)
127
486330
2000
(Cười)
08:08
(Applause)
128
488330
2000
(Vỗ tay)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Tôi sẽ đưa ra một nhiệm vụ cho robot này. Nó khá là phức tạp đấy.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Các bạn thấy không, anh ta gật đầu, ra hiệu cho tôi là
08:16
he was understanding the flow of communication.
131
496330
3000
anh ta hiểu được điều tôi đang giao tiếp.
08:19
And if I'd said something completely bizarre
132
499330
2000
Và nếu tôi nói gì đó hoàn toàn kỳ cục,
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
anh ta sẽ nhìn tôi ngờ vực, và điều chỉnh lại cuộc hội thoại.
08:24
So now I brought this up in front of him.
134
504330
3000
Bây giờ tôi đưa ra thứ này trước mặt anh ta.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
Tôi nhìn vào mắt anh ta, và tôi thấy là mắt anh ta cũng nhìn vào cái chai này.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
Và tôi đang làm việc này, và anh ta đang quan sát.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Mắt anh ta nhìn qua nhìn lại tôi, để thấy những gì tôi thấy --
08:36
so we've got shared attention.
138
516330
2000
vậy nên chúng tôi có cùng sự chú ý.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
Và tôi làm việc này, và anh ta nhìn, và anh ta nhìn tôi
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
để thấy cái gì sẽ diễn ra tiếp theo. Và bây giờ tôi sẽ đưa anh ta cái chai,
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
và hãy xem thử anh ta có làm được không. Anh có làm được không?
08:47
(Laughter)
142
527330
3000
(Cười)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Được rồi. Anh ta khá là giỏi. Tốt, tốt, tốt.
08:54
I didn't show you how to do that.
144
534330
2000
Tôi chưa từng chỉ anh làm việc đó.
08:56
Now see if you can put it back together.
145
536330
2000
Hãy xem thử anh có thể lắp nó lại không.
08:58
(Laughter)
146
538330
2000
(Cười)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
Và anh ta nghĩ là robot thì phải thật chậm.
09:01
Good robot, that's good.
148
541330
2000
Robot ngoan, tốt lắm.
09:03
So we saw a bunch of things there.
149
543330
2000
Chúng ta vừa thấy một số thứ ở đây.
09:06
We saw when we're interacting,
150
546330
3000
Chúng ta thấy khi chúng ta giao tiếp,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
khi chúng ta cố dạy ai đó cách làm gì đó, chúng ta điều khiển sự chú ý bằng mắt của họ.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Những thứ khác cho ta thấy tình trạng bên trong của họ,
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
ví dụ như anh ta có hiểu hay không, điều khiển sự tương tác xã hội.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
Có sự chú ý tương đồng khi nhìn vào cùng một thứ,
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
và cuối cùng nhận thức sự hỗ trợ được giao tiếp một cách xã hội.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
Và chúng tôi đã cố gắng đưa điều đó vào robot thí nghiệm của mình
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
bởi vì chúng tôi nghĩ rằng đó là cách bạn muốn giao tiếp với robot trong tương lai.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Tôi chỉ muốn cho các bạn thấy một bản vẽ kỹ thuật ở đây.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Điều quan trọng nhất khi xây dựng một robot mà bạn có thể giao tiếp xã hội cùng
09:39
is its visual attention system.
160
579330
2000
là hệ thống chú ý bằng mắt của nó.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Bởi cái mà nó chú ý tới là cái mà nó thấy
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
và tương tác cùng, và đó là cái mà bạn hiểu là nó đang làm.
09:47
So in the videos I'm about to show you,
163
587330
3000
Trong những đoạn video mà tôi chuẩn bị cho các bạn xem,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
bạn sẽ thấy một hệ thống chú ý bằng mắt trên một con robot --
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
nó tìm màu da trong không gian HSV,
09:58
so it works across all human colorings.
166
598330
4000
vì vậy nó tìm kiếm trên mọi màu da.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Nó tìm những màu bão hoà, từ đồ chơi.
10:04
And it looks for things that move around.
168
604330
2000
Và nó tìm những thứ đang di chuyển xung quanh.
10:06
And it weights those together into an attention window,
169
606330
3000
Và nó tính những thứ đó chung lại trong một cửa sổ chú ý,
10:09
and it looks for the highest-scoring place --
170
609330
2000
và nó tìm nơi có điểm số cao nhất --
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
nơi mà thứ thú vị nhất đang diễn ra --
10:13
and that is what its eyes then segue to.
172
613330
4000
và đó là cái mà mắt của nó di chuyển đến.
10:17
And it looks right at that.
173
617330
2000
Và nó nhìn thẳng vào đó.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
Cùng lúc đó, một vài thứ kiểu định hướng
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
có thể quyết định là nó đang cô đơn và tìm màu da,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
hoặc là nó đang chán và tìm một thứ đồ chơi để chơi.
10:28
And so these weights change.
177
628330
2000
Và những yếu tố này sẽ thay đổi trọng lượng trong tính toán của nó.
10:30
And over here on the right,
178
630330
2000
Và ở bên phải,
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
là một thứ chúng ta gọi là bộ phận ký ức Steven Spielberg.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
Các bạn đã xem bộ phim "AI" chưa? Khán giả: Rồi.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
Vâng, nó khá tệ, nhưng --
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
các bạn có nhớ cái cảnh Haley Joel Osment, con robot nhỏ
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
nhìn vào nàng tiên xanh suốt 2000 năm mà không rời mắt?
10:47
Well, this gets rid of that,
184
647330
2000
Vâng, chúng tôi loại bỏ điều đó,
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
vì đây là một thói quen Gaussian khá tiêu cực,
10:53
and more and more intense as it looks at one thing.
186
653330
3000
và ngày càng gay gắt hơn khi nó nhìn vào một thứ.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
Và nó trở nên chán, nên nó sẽ nhìn một thứ khác.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Vây nên, khi bạn hiểu điều đó -- và đây là một robot, Kismet,
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
nhìn xung quanh tìm đồ chơi. Bạn có thể nhận ra thứ mà nó đang nhìn vào.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Bạn có thể ước tính hướng nhìn của nó từ những con mắt giả che cái camera của nó,
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
và bạn có thể nhận ra khi nó thực sự nhìn thấy món đồ chơi.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
Và nó có một ít phản ứng cảm xúc ở đây.
11:17
(Laughter)
193
677330
1000
(Cười)
11:18
But it's still going to pay attention
194
678330
2000
Nhưng nó vẫn sẽ chú ý đến
11:20
if something more significant comes into its field of view --
195
680330
4000
thứ gì đó quan trọng hơn di chuyển vào tầm nhìn của nó --
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
ví dụ như Cynthia Breazeal, mẹ đẻ của nó, từ bên phải.
11:28
It sees her, pays attention to her.
197
688330
5000
Nó thấy cô ấy, chú ý đến cô ấy.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismet có một khoảng không gian cảm xúc 3 chiều ở bên trong,
11:37
a vector space, of where it is emotionally.
199
697330
3000
một không gian vector cho cảm xúc của nó.
11:40
And at different places in that space, it expresses --
200
700330
5000
Và ở những điểm khác nhau trong không gian đó, nó thể hiện --
11:46
can we have the volume on here?
201
706330
2000
chúng ta có thể vặn âm thanh to hơn không?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Các bạn có nghe được chưa? (Khán giả: Được)
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Kismet: Bạn thực sự nghĩ vậy à?
11:57
Do you really think so?
204
717330
2000
Bạn thực sự nghĩ vậy à?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
Nó thể hiện cảm xúc qua khuôn mặt
12:03
and the prosody in its voice.
206
723330
2000
và âm điệu trong giọng nói của nó.
12:05
And when I was dealing with my robot over here,
207
725330
4000
Và khi tôi làm việc với con robot của tôi ở đây, Chris,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
con robot ấy cũng nghe âm điệu trong giọng nói của tôi,
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
và chúng ta khiến robot đo được âm điệu cho 4 tín hiệu cơ bản
12:17
that mothers give their children pre-linguistically.
210
737330
4000
mà các bà mẹ đưa ra cho trẻ con trước khi chúng biết nói.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Ở đây chúng ta có những người ngây thơ khen ngợi robot:
12:26
Voice: Nice robot.
212
746330
2000
Giọng nói: Robot giỏi.
12:29
You're such a cute little robot.
213
749330
2000
Bạn là một con robot rất dễ thương.
12:31
(Laughter)
214
751330
2000
(Cười)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
Và con robot phản ứng đúng mực.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Giọng nói: ...tốt lắm, Kismet.
12:40
(Laughter)
217
760330
2000
(Cười)
12:42
Voice: Look at my smile.
218
762330
2000
Giọng nói: Nhìn vào nụ cười của tôi này.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
Nó cười. Cô ấy cười.
12:49
These are naive subjects.
220
769330
2000
Họ là những người ngây thơ.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Ở đây chúng tôi bảo họ cố gắng chiếm được sự chú ý của con robot
12:54
and indicate when they have the robot's attention.
222
774330
3000
và cho chúng tôi biết khi họ đã có sự chú ý của nó.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Giọng nói: Này Kismet, à, nó kìa.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
RB: Cô ấy nhận ra là cô ấy có được sự chú ý của con robot.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Giọng nói: Kismet, bạn có thích đồ chơi này không? Oh.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
RB: Bây giờ, họ được bảo phải ngăn con robot lại,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
và người phụ nữ đầu tiên này thực sự đẩy con robot vào đường cùng về mặt cảm xúc.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Giọng nói: Không. Bạn không được làm vậy. Không.
13:24
(Laughter)
229
804330
3000
(Cười)
13:27
Not appropriate. No. No.
230
807330
6000
Không đúng. Không.
13:33
(Laughter)
231
813330
3000
(Cười)
13:36
RB: I'm going to leave it at that.
232
816330
2000
RB: Tôi sẽ dừng tại đó.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Chúng ta tạo ra [cuộc nói chuyện]. Sau đó chúng ta nói theo lượt.
13:40
When we talk to someone, we talk.
234
820330
3000
Khi chúng ta nói chuyện với ai đó, chúng ta nói.
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
Sau đó chúng ta đại loại nhíu lông mày, di chuyển mắt,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
cho người kia biết là tới lượt họ nói.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
Và họ nói, rồi chúng ta cứ theo lượt như thế.
13:54
So we put this in the robot.
238
834330
2000
Chúng tôi đưa điều này vào con robot.
13:56
We got a bunch of naive subjects in,
239
836330
2000
Chúng tôi có một số đối tượng thí nghiệm ngây thơ,
13:58
we didn't tell them anything about the robot,
240
838330
2000
không nói gì với họ về con robot,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
đặt họ ngồi trước con robot và nói, nói chuyện với con robot đi.
14:02
Now what they didn't know was,
242
842330
2000
Cái mà họ không biết là,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
con robot không hiểu một từ nào mà họ nói,
14:06
and that the robot wasn't speaking English.
244
846330
3000
và con robot không nói tiếng Anh.
14:09
It was just saying random English phonemes.
245
849330
2000
Nó chỉ nói những từ tiếng Anh ngẫu nhiên.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
Và tôi muốn các bạn xem kỹ phần đầu của đoạn video này,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
khi Ritchie, người ngồi nói chuyện với con robot trong 25 phút --
14:17
(Laughter)
248
857330
2000
(Cười)
14:19
-- says, "I want to show you something.
249
859330
2000
-- nói, "Tôi muốn cho bạn xem cái này.
14:21
I want to show you my watch."
250
861330
2000
Tôi muốn cho bạn xem đồng hồ của tôi."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
Và anh ta đưa cái mặt đồng hồ vào tầm nhìn của con robot,
14:28
points to it, gives it a motion cue,
252
868330
2000
chỉ vào đó, cho nó một dấu hiệu cử chỉ,
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
và con robot nhìn vào cái đồng hồ một cách khá thành công.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
Chúng ta không biết rằng liệu anh ta hiểu được hay không rằng con robot --
14:36
Notice the turn-taking.
255
876330
2000
-- chú ý sự lần lượt.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ritchie: OK, tôi muốn cho bạn xem cái này. OK, đây là một cái đồng hồ
14:41
that my girlfriend gave me.
257
881330
3000
mà bạn gái tặng cho tôi.
14:44
Robot: Oh, cool.
258
884330
2000
Robot: Oh, tuyệt.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ritchie: Nhìn này, nó có một cái đèn màu xanh bên trong nữa. Tôi suýt mất nó tuần này.
14:51
(Laughter)
260
891330
4000
(Cười)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
RB: Nó đang tiếp xúc bằng ánh mắt với anh ta, nhìn theo mắt anh ta.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ritchie: Bạn có làm được như vậy không? Robot: Được thôi.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
RB: Và họ tha2h công khi có được sự giao tiếp đó.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
Và đây là một khía cạnh khác của việc mà Chris và tôi vừa làm.
15:06
This is another robot, Cog.
265
906330
2000
Đây là một robot khác, Cog.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Họ giao tiếp bằng mắt trước, rồi sau đó, khi Christie nhìn vào món đồ chơi này,
15:14
the robot estimates her gaze direction
267
914330
2000
con robot ước tính hướng nhìn của cô ấy
15:16
and looks at the same thing that she's looking at.
268
916330
2000
và cùng nhìn vào thứ mà cô ấy đang nhìn.
15:18
(Laughter)
269
918330
1000
(Cười)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
Chúng ta sẽ thấy ngày càng nhiều hơn loại robot như thế này
15:22
over the next few years in labs.
271
922330
2000
trong vòng vài năm tới trong các phòng thí nghiệm.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
Nhưng khi đó, hai câu hỏi lớn mà người ta hay hỏi tôi là:
15:29
if we make these robots more and more human-like,
273
929330
2000
nếu chúng ta tạo ra những robot ngày càng giống con người,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
chúng ta có thể chấp nhận chúng không, chúng có cần các quyền con người không?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
Và câu hỏi thứ 2 là, có khi nào chúng muốn lật đổ chúng ta không?
15:39
(Laughter)
276
939330
1000
(Cười)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
Và câu hỏi đầu tiên -- nó là một chủ đề rất Hollywood
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
với khá nhiều bộ phim. Các bạn có thể nhận ra những nhân vật ở đây --
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
-- trong từng trường hợp ở đây, các con robot muốn được tôn trọng nhiều hơn.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Bạn có bao giờ cần phải tôn trọng robot không?
15:54
They're just machines, after all.
281
954330
2000
Suy cho cùng, chúng chỉ là những cái máy.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Nhưng tôi nghĩ rằng, chúng ta cũng cần chấp nhận rằng chính chúng ta cũng chỉ là những cái máy.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
Suy cho cùng, đó là cái mà sinh học hiện đại nói về chúng ta.
16:05
You don't see a description of how, you know,
284
965330
3000
Bạn không thấy một bản mô tả làm thế nào
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
mà phân tử A liên kết với một phân tử khác.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
Và nó di chuyển tới trước, được đẩy bằng nhiều lực khác nhau,
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
và sau đó linh hồn bước vào và vặn vẹo các phân tử đó để chúng liên kết.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Tất cả điều đó thuộc về cơ khí. Chúng ta là những chiếc máy.
16:22
If we are machines, then in principle at least,
289
982330
3000
Nếu chúng ta là máy móc, thì ít nhất trên lý thuyết,
16:25
we should be able to build machines out of other stuff,
290
985330
4000
chúng ta có thể xây dựng máy móc từ những thứ khác.
16:29
which are just as alive as we are.
291
989330
4000
Chúng cũng sống như chúng ta.
16:33
But I think for us to admit that,
292
993330
2000
Nhưng tôi nghĩ nếu chúng ta thừa nhận điều đó,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
chúng ta phải từ bỏ sự đặc biệt của mình theo một cách nào đó.
16:38
And we've had the retreat from special-ness
294
998330
2000
Và chúng ta đã có sự rút lui từ sự đặc biệt
16:40
under the barrage of science and technology many times
295
1000330
3000
dưới rào cản của khoa học và công nghệ khá nhiều lần
16:43
over the last few hundred years, at least.
296
1003330
2000
trong vòng vài trăm năm trở lại đây.
16:45
500 years ago we had to give up the idea
297
1005330
2000
500 năm trước chúng ta phải từ bỏ ý nghĩ
16:47
that we are the center of the universe
298
1007330
3000
rằng chúng ta là trung tâm của vũ trụ
16:50
when the earth started to go around the sun;
299
1010330
2000
khi Trái đất bắt đầu quay xung quanh Mặt trời;
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
150 năm trước, với Darwin, chúng ta phải từ bỏ ý nghĩ rằng chúng ta khác các loài vật.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
Và cứ tưởng tượng -- các bạn thấy đấy, nó khá khó cho chúng ta.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
Gần đây chúng ta đang đập vỡ ý nghĩ rằng có lẽ
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
chúng ta còn không có sự kiến tạo của riêng mình trên Trái đất.
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
Nhiều người không hề thích thế. và sau đó thì bộ gene của người nói,
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
có lẽ chúng ta chỉ có 35,000 gene. Và đó thực sự là --
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
nhiều người không thích thế, chúng ta có nhiều gene hơn thế chứ.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
Chúng ta không thích từ bỏ sự đặc biệt của chính mình, nên các bạn thấy đó,
17:17
having the idea that robots could really have emotions,
308
1037330
2000
cái ý kiến rằng robot có thể có cảm xúc,
17:19
or that robots could be living creatures --
309
1039330
2000
hoặc rằng robot có thể là sinh vật sống,
17:21
I think is going to be hard for us to accept.
310
1041330
2000
tôi nghĩ sẽ khá khó cho chúng ta chấp nhận điều đó.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Nhưng chúng ta sẽ chấp nhận nó trong vòng 50 năm tới.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
Và câu hỏi thứ 2 là, robot có muốn lật đổ chúng ta không?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
Và ở đây kịch bản thường là chúng ta tạo ra những thứ này,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
chúng phát triển, chúng ta nuôi dưỡng chúng, chúng học hỏi từ chúng ta,
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
và sau đó chúng quyết định rằng chúng ta khá chậm và nhàm chán.
17:42
They want to take over from us.
316
1062330
2000
Chúng muốn lật đổ chúng ta.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
Và nếu bạn có con tuổi vị thành niên thì các bạn sẽ hiểu nó giống như thế nào.
17:47
(Laughter)
318
1067330
1000
(Cười)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Nhưng Hollywood mở rộng điều đó tới lũ robot.
17:51
And the question is, you know,
320
1071330
3000
Và câu hỏi là, bạn biết đấy,
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
có khi nào ai đó vô tình tạo ra một robot có thể lật đổ chúng ta không?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Và điều đó giống như một anh chàng cô độc ở sân sau,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
bạn biết đấy -- "Tôi vô tình tạo ra một chiếc 747."
18:04
I don't think that's going to happen.
324
1084330
2000
Tôi không nghĩ rằng điều đó sẽ xảy ra.
18:06
And I don't think --
325
1086330
2000
Và tôi không nghĩ --
18:08
(Laughter)
326
1088330
1000
(Cười)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
-- Tôi không nghĩ chúng ta sẽ cố tình tạo ra những robot
18:12
that we're uncomfortable with.
328
1092330
2000
mà chúng ta không cảm thấy dễ chịu khi sống cùng.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
Chúng ta sẽ không có một con robot cực kỳ độc ác.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Trước đó phải có một con robot độc ác vừa vừa,
18:19
and before that a not so bad robot.
331
1099330
2000
và trước đó phải có một con robot không độc ác mấy.
18:21
(Laughter)
332
1101330
1000
(Cười)
18:22
And we're just not going to let it go that way.
333
1102330
2000
Và chúng ta sẽ không để chúng đi theo con đường đó.
18:24
(Laughter)
334
1104330
1000
(Cười)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Thế nên, tôi nghĩ tôi nên dừng ở đây: thời đại robots đang tới,
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
chúng ta không phải lo quá nhiều về nó, nó sẽ mang lại nhiều sự vui thích,
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
và tôi hi vọng tất cả các bạn tận hưởng cuộc hành trình qua 50 năm tới.
18:38
(Applause)
338
1118330
2000
(Vỗ tay).
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7