Rodney Brooks: How robots will invade our lives
ロドニー・ブルックス「ロボットは我々の生活を侵略する」
60,794 views ・ 2008-10-10
下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Shungo Haraguchi
校正: Akiko Hicks
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
本日お話ししたいのは
様々なレベルや時間尺度おいて
00:23
at multiple levels, over multiple timescales.
1
23330
3000
ロボットが私たちの生活を
侵略していることついての私見です
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
今から500年後の未来を考えると
00:30
where we don't have robots everywhere.
3
30330
2000
至る所にロボットが存在する
世界しか想像できません
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
人類の運命に関する
悲観的な予測は別として
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
我々がこの世に存在しているとすれば
ロボットもたくさんいるはずです
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
疑問は500年後に
この様に存在するであろうロボットが
00:44
are they going to be everywhere sooner than that?
7
44330
2000
それ以前に
至る所に存在するようになるか
00:46
Are they going to be around in 50 years?
8
46330
2000
50年後にでも
既にそうなるかということです
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
十分にありえると思います
ロボットはそこらじゅうに存在し
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
実際 もっと早い時期に
そうなると考えています
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
現在はロボット普及の
「幕開け」であるとも言えます
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
丁度 1978年から1980年あたりの
パソコンがそうであったように
01:04
where the first few robots are starting to appear.
13
64330
3000
ロボットが徐々に登場し始めると
思っています
01:07
Computers sort of came around through games and toys.
14
67330
4000
コンピューターは はじめ
ゲームや玩具を通してやってきました
01:11
And you know, the first computer most people had in the house
15
71330
3000
家庭に一番先にやってきたのは
01:14
may have been a computer to play Pong,
16
74330
2000
「Pong」が遊べる
コンピューターだったかもしれません
01:16
a little microprocessor embedded,
17
76330
2000
小さなマイクロプロセッサー内蔵のものです
01:18
and then other games that came after that.
18
78330
3000
他のゲームも次々に登場しました
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
ロボットでも同じような事が
起こっています
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGOマインドストームやファービー
ファービーを持っていた人は?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
いますね
全世界で3800万個も売れました
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
結構 流行っていました
これは とても小さな
01:33
a simple robot with some sensors,
23
93330
2000
センサー数個の シンプルなロボットで
01:35
a little bit of processing actuation.
24
95330
2000
ちょっとした情報処理や動きをします
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
右側は数年前に売られていた
別の人形ロボットです
01:40
And just as in the early days,
26
100330
2000
コンピューターの初期
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
マニアの人たちが
コンピューターをいじっていた頃のように
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
様々なハッキング・キットや本も売っています
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
左側はEvolution Robotics社の
プラットフォームです
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
PCをのせGUIでプログラムし
01:58
to wander around your house and do various stuff.
31
118330
3000
家の中をウロウロさせて
いろんな事ができます
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
もっと高額な
ロボット玩具のようなものもあって
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
ソニーのアイボ
右側はNECの開発した
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
PaPeRoです
発売はされないと思いますが
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
でも こういったものが存在しています
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
ここ数年 芝刈りロボットも出てきました
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
下はHusqvarna社製
上はイスラエルのFriendly Robotics社製
02:24
And then in the last 12 months or so
38
144330
2000
そして 昨年あたりから
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
たくさんの 家庭用掃除ロボットを
見るようになりました
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
左上は とても素晴らしい
家庭用掃除ロボットで
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
イギリスのDyson社製です
ただ とても高額で
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3,500ドルです
市場には出ませんでしたが
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
でも左下のElectrolux社製のものは
販売されています
02:42
Another one from Karcher.
44
162330
2000
Karcher社製の また別のものもあって
02:44
At the bottom right is one that I built in my lab
45
164330
2000
右下は 私の研究室で
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
10年ほど前に作ったもので
最近製品化されました
02:49
And let me just show you that.
47
169330
2000
これをお見せしましょう
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
後でこれは誰かに差し上げるとか
クリスは言っています
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
これは皆さんも購入できるロボットで
床を掃除します
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
だんだん円を大きく描きながら動き
03:10
If it hits something -- you people see that?
51
190330
4000
何かにぶつかると…見えました?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
壁に沿って移動したり
私の足に沿って
03:17
to clean up around me. Let's see, let's --
53
197330
4000
周りを掃除してくれています
ではここで...
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
あれ?誰か僕のシリアルを盗みました?
シリアルが盗まれてしまいました!
03:26
(Laughter)
55
206330
6000
(笑)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
心配しないで 大丈夫ですよ
ロボットだから賢いんです!
03:35
(Laughter)
57
215330
3000
(笑)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
3歳の子供は心配しないんですよね
03:42
It's grown-ups that get really upset.
59
222330
2000
大人だけが取り乱すんです
03:44
(Laughter)
60
224330
1000
(笑)
03:45
We'll just put some crap here.
61
225330
2000
では「ゴミ」を少しここに置いて
03:47
(Laughter)
62
227330
4000
(笑)
03:51
Okay.
63
231330
2000
はい
03:53
(Laughter)
64
233330
4000
(笑)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
見えにくいですが
ここにたくさんシリアルを置きました
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
硬貨もいくつか置いて あれに向かって
動かしてみましょう 掃除するかどうか
04:10
Yeah, OK. So --
67
250330
2000
はい 大丈夫ですね では…
04:12
we'll leave that for later.
68
252330
4000
これはひとまず置いておきましょう
04:16
(Applause)
69
256330
5000
(拍手)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
難しかったのは 良い掃除メカニズムの
デザインでした
04:26
the intelligence on board was fairly simple.
71
266330
4000
中の頭脳はかなり単純なものです
04:30
And that's true with a lot of robots.
72
270330
2000
概してこれは他のロボットでも同じです
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
私たちはある意味で
コンピュータ優位論者であるようで
04:36
and think that computation is everything,
74
276330
2000
コンピュータ処理が全てと考えがちです
04:38
but the mechanics still matter.
75
278330
2000
でも 機械部も大切なんです
04:40
Here's another robot, the PackBot,
76
280330
3000
これは 別のロボット
PacBotというもので
04:43
that we've been building for a bunch of years.
77
283330
2000
ここ何年も作っているものです
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
軍事用の偵察ロボットで
兵隊に先立って
04:51
looking at caves, for instance.
79
291330
3000
例えば 洞窟を偵察したりするものですが
04:54
But we had to make it fairly robust,
80
294330
2000
かなり頑丈に作る必要がありました
04:56
much more robust than the robots we build in our labs.
81
296330
7000
研究室で普段作るロボットよりも
かなり頑丈にね
05:03
(Laughter)
82
303330
3000
(笑)
05:12
On board that robot is a PC running Linux.
83
312330
4000
ロボットの頭脳はLinux搭載のPCでして
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
400Gの衝撃に耐えることができます
ロボット自身が知能を持っていて
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
自分を反転させたり 通信域に移動したり
05:28
can go upstairs by itself, et cetera.
86
328330
3000
自力で階段を昇ったりすることなどができます
05:38
Okay, so it's doing local navigation there.
87
338330
4000
ここでは 現場でのナビゲーションを
行っています
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
兵士が階段を昇る指令を出すと
それに従います
05:49
That was not a controlled descent.
89
349330
3000
今のは意図的な落下ではありませんが…
05:52
(Laughter)
90
352330
2000
(笑)
05:54
Now it's going to head off.
91
354330
2000
今度は回避します
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
これらのロボットの大きな転換点は
9・11の多発テロでした
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
あの夜遅く ワールドトレードセンターに
出動させましたが
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
中心の瓦礫の山では
大したことは出来ませんでした
06:08
things were just too -- there was nothing left to do.
95
368330
3000
全てがとても…
できることはありませんでした
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
しかし 避難済みの周囲の建物に
全て入って行って
06:16
and searched for possible survivors in the buildings
97
376330
3000
危険すぎて入ることができない建物の中で
06:19
that were too dangerous to go into.
98
379330
2000
生存者の探索を行うことができました
06:21
Let's run this video.
99
381330
2000
この映像をご覧ください
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
戦場の友が
戦闘リスクの軽減に役立っています
06:26
Nick Robertson has that story.
101
386330
3000
ニック・ロバートソンの報告です
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
ロドニー:これをもうひとつもらえますか?
06:38
Okay, good.
103
398330
2000
ありがとう
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
これは2週間前に
ロボットをはじめて見た伍長です
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
ロボットを洞窟に送り込み
状況を確認しています
06:52
The robot's being totally autonomous.
106
412330
2000
ロボットは完全に自律して動きます
06:54
The worst thing that's happened in the cave so far
107
414330
4000
過去 洞窟内で起きた最悪の出来事は
06:58
was one of the robots fell down ten meters.
108
418330
3000
ロボットの1つが10m落下したことでした
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
米軍がこの様なロボットを
使うようになって まだ一年ですが
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
現在アフガニスタンで
毎日のように活躍しています
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
ロボットの侵略が起きていると
言われる理由のひとつです
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
テクノロジーの未来もどんどん
変わって来ています
07:20
Thanks.
113
440330
2000
ありがとう
07:23
And over the next couple of months,
114
443330
2000
数ヶ月先には
07:25
we're going to be sending robots in production
115
445330
3000
私達はロボットを油田に送り出し
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
地中に残った数年分の石油を取り出すために
地下産出を行う予定です
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
150℃ 圧力も10,000psiという
とても過酷な環境です
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
自律型ロボットが地中に潜り
この種の仕事を行うのです
07:40
But robots like this, they're a little hard to program.
119
460330
3000
しかし このようなロボットの制御は多少難しく
07:43
How, in the future, are we going to program our robots
120
463330
2000
将来 どの様にプログラムし
07:45
and make them easier to use?
121
465330
2000
ロボットを使いやすくするかが
課題になります
07:47
And I want to actually use a robot here --
122
467330
3000
ここで 実際にロボットを見てみましょう
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
クリスという名前のロボットです
立ち上がって はい OK
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
こっちへ来て ロボットだから 堅苦しく
しなくてはと思っているようですね
08:01
He sort of does that. But I'm going to --
125
481330
3000
そんな風に見えますが
ここで...
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
単にイギリス人だからですよ
なるほど
08:06
(Laughter)
127
486330
2000
(笑)
08:08
(Applause)
128
488330
2000
(拍手)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
このロボットにタスク(作業)を見せます
とても複雑なタスクです
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
頷きましたね
ここで何かを私に伝えているわけです
08:16
he was understanding the flow of communication.
131
496330
3000
コミュニケーションの流れを
理解したのだとわかります
08:19
And if I'd said something completely bizarre
132
499330
2000
私が突拍子もないことを言ったとすると
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
顔をしかめて
会話を調整したでしょう
08:24
So now I brought this up in front of him.
134
504330
3000
ここで これを彼の前にかざしてみます
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
彼の目を見て ボトルの頭を見たと
確認します
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
そしてここでタスクを行い
彼はそれを見ています
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
彼は 私の目と 私の見ているものを
交互に見ています
08:36
so we've got shared attention.
138
516330
2000
つまり 注意を共有しているわけです
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
タスクを置こうなうと
それ見ると同時に 私のことも見て
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
次に何が起こるか理解しようとしています
ここでボトルを渡します
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
ここでタスクができるでしょうか
できますか?
08:47
(Laughter)
142
527330
3000
(笑)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
OK 上手ですね
はい 上手 上手
08:54
I didn't show you how to do that.
144
534330
2000
それは教えてないよ
08:56
Now see if you can put it back together.
145
536330
2000
では 元に戻せるか見てみましょう
08:58
(Laughter)
146
538330
2000
(笑)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
ロボットはゆっくり動くと
思っているみたいですね
09:01
Good robot, that's good.
148
541330
2000
いいロボットだ よくできました
09:03
So we saw a bunch of things there.
149
543330
2000
さあ これでいろいろ解りました
09:06
We saw when we're interacting,
150
546330
3000
相互のやりとりでは
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
何かやり方を見せるとき
相手の視線の注意を引きます
09:13
The other thing communicates their internal state to us,
152
553330
4000
相手は自分の状態を伝え
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
理解したかどうかとか
対話を調整します
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
同じものを見ることで
注意が共有され
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
最後には対話で
褒められたのを認識するのもわかりました
09:26
And we've been trying to put that into our lab robots
156
566330
3000
現在 これを研究室のロボットに
取り入れようとしています
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
これが将来ロボットとやりとりする
望ましい方法だと思います
09:33
I just want to show you one technical diagram here.
158
573330
2000
ここで技術的な図をひとつお見せします
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
対話できるロボットをつくる上で最も重要なのが
09:39
is its visual attention system.
160
579330
2000
視覚的な注意喚起システムです
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
なぜなら 注意を払っている対象は
それが見たり
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
関連している対象であり
ロボットの行動を理解するものだからです
09:47
So in the videos I'm about to show you,
163
587330
3000
今からお見せする映像では
09:50
you're going to see a visual attention system on a robot
164
590330
4000
ロボットの視覚的な注意喚起システムを
ご覧いただきます
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
これは…HSV色空間で
肌色を探すので
09:58
so it works across all human colorings.
166
598330
4000
全ての人種の色に対応していてます
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
玩具の鮮やかなを見つけ出したり
10:04
And it looks for things that move around.
168
604330
2000
動くものを探します
10:06
And it weights those together into an attention window,
169
606330
3000
それらを視野の中で比較し
10:09
and it looks for the highest-scoring place --
170
609330
2000
最も高いスコアの箇所を見つけます
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
最も興味深い出来事が起きている箇所に
10:13
and that is what its eyes then segue to.
172
613330
4000
そして そこに目をすみやかに移し
10:17
And it looks right at that.
173
617330
2000
それを注視します
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
同時に トップダウン的に
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
寂しいので 肌色を探そうと判断したり
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
退屈なので 遊ぶための玩具を
探そうと判断したりするので
10:28
And so these weights change.
177
628330
2000
ウエイトがかわります
10:30
And over here on the right,
178
630330
2000
そして この右側は
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
私達がスティーブン・スピルバーグの
記念モジュールと呼ぶ…
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
「AI」という映画をご覧になりました?
(観客:はい)
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
ひどい映画でしたが
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
特に ハーレイ・ジョエル・オスメントの扮した
小さなロボットが
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
ひと時も目を離さずに 青い妖精を
2000年もの間 見続けたのも
10:47
Well, this gets rid of that,
184
647330
2000
これは それに対処する答えです
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
なぜなら これは負に作用する
ガウス的な馴化でありまして
10:53
and more and more intense as it looks at one thing.
186
653330
3000
一つのものを見続けると
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
結果的に 飽きてしまい
何か他のものを見るようになります
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
簡単な説明でしたが
これがロボットの Kismetです
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
おもちゃを探しています
何を見ているかわかりますね
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
カメラを覆っている目玉から
目線の方向を推測できます
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
おもちゃを見つける様子が
わかります
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
ちょっと感情的な反応を示しましたね
11:17
(Laughter)
193
677330
1000
(笑)
11:18
But it's still going to pay attention
194
678330
2000
しかし 注意は継続しています
11:20
if something more significant comes into its field of view --
195
680330
4000
もし もっと面白いものが視野に入れば
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
例えば右にいる このロボットの
生みの親であるシンシア・ブリジールなどに
11:28
It sees her, pays attention to her.
197
688330
5000
気づくと そちらに注意を払います
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismetは内的な3次元の感情空間を持っていて
11:37
a vector space, of where it is emotionally.
199
697330
3000
それは感情の位置を示すベクトル空間で
11:40
And at different places in that space, it expresses --
200
700330
5000
その空間のどこにいるかを表現します
11:46
can we have the volume on here?
201
706330
2000
音声を出してもらえますか?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
聞こえますか?(観客:はい)
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
本当にそう思う?本当にそう思う?
11:57
Do you really think so?
204
717330
2000
本当にそう思う?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
表情と声の調子を通して
12:03
and the prosody in its voice.
206
723330
2000
感情を表現するのです
12:05
And when I was dealing with my robot over here,
207
725330
4000
ここで私がロボットとやりとりしていた際
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
ロボットのクリスが私の声の調子を
測っていたように
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
声の調子で表現される
4種の基本メッセージを測るようにしました
12:17
that mothers give their children pre-linguistically.
210
737330
4000
これは言葉以前に
母親が子供に伝えるものです
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
ここでは事前情報のない被験者が
ロボットを褒めています
12:26
Voice: Nice robot.
212
746330
2000
いいロボットね
12:29
You're such a cute little robot.
213
749330
2000
小さくてかわいいロボットね
12:31
(Laughter)
214
751330
2000
(笑)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
そして ロボットは適切に反応しています
12:35
Voice: ...very good, Kismet.
216
755330
4000
よくできたわ Kismet
12:40
(Laughter)
217
760330
2000
(笑)
12:42
Voice: Look at my smile.
218
762330
2000
私の笑顔を見て
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
笑顔になります 笑顔を真似するんです
これは頻繁に起こります
12:49
These are naive subjects.
220
769330
2000
これらは事前情報のない被験者です
12:51
Here we asked them to get the robot's attention
221
771330
3000
ロボットの気を引いて
12:54
and indicate when they have the robot's attention.
222
774330
3000
ロボットの気が引けたら
知らせるように頼みました
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Kismet はい そうね
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
彼女はロボットの注意が
得られたとわかりました
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
おもちゃが好き?
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
さて ここではロボットを咎めるよう
頼みました
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
この最初の女性はほんとうにロボットを
感情的に追い詰めます
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
だめ だめ
やっちゃいけません だめ
13:24
(Laughter)
229
804330
3000
(笑)
13:27
Not appropriate. No. No.
230
807330
6000
そんなのだめ だめ だめ
13:33
(Laughter)
231
813330
3000
(笑)
13:36
RB: I'm going to leave it at that.
232
816330
2000
これくらいにしておきましょう
13:38
We put that together. Then we put in turn taking.
233
818330
2000
これらを組み合わせ
順番交替を追加しました
13:40
When we talk to someone, we talk.
234
820330
3000
誰かと話す際 まず話して
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
次に 眉を上げたり 目を動かしたりして
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
相手に会話の順番が来たと気づかせます
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
そうして相手が話し そして交互に
かわるがわる話します
13:54
So we put this in the robot.
238
834330
2000
これをロボットに組み込みました
13:56
We got a bunch of naive subjects in,
239
836330
2000
何も知らない被験者を
何人も用意して
13:58
we didn't tell them anything about the robot,
240
838330
2000
ロボットのことは何も教えず
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
ロボットの前に座らせ
会話をしてもらいました
14:02
Now what they didn't know was,
242
842330
2000
彼らが知らないのは
14:04
the robot wasn't understanding a word they said,
243
844330
2000
ロボットは実は言葉を全く理解せず
14:06
and that the robot wasn't speaking English.
244
846330
3000
話しているのも英語ではない
という事です
14:09
It was just saying random English phonemes.
245
849330
2000
ランダムな英語の音素を話すだけです
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
この冒頭の部分を
良く見て頂きたいのですが
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
この方 リッチーはロボットと
25分も会話をしました
14:17
(Laughter)
248
857330
2000
(笑)
14:19
-- says, "I want to show you something.
249
859330
2000
「見せたいものがあるんだ
14:21
I want to show you my watch."
250
861330
2000
この時計を見せたいんだ」と言って
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
彼は時計をロボットの
視界の中心に持ってきて
14:28
points to it, gives it a motion cue,
252
868330
2000
指さし 動かして示し
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
ロボットに時計を見せる事に成功します
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
気が付いていたかわかりませんが
14:36
Notice the turn-taking.
255
876330
2000
ロボットは順番交替もしています
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
「見せたいものがあるんだ
これは時計
14:41
that my girlfriend gave me.
257
881330
3000
僕の彼女がくれたんだ」
14:44
Robot: Oh, cool.
258
884330
2000
「あら、いい」
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
「そうだろ 見て 中に青いライトも
あるんだ 先週失くしそうになったよ」
14:51
(Laughter)
260
891330
4000
(笑)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
彼の目を追いかけて
彼とアイ・コンタクトをとっています
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
「まねできる?」
「ええ もちろん」
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
こんな具合で
コミュニケーションに成功しました
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
クリスと私がやった
また別のこともお見せします
15:06
This is another robot, Cog.
265
906330
2000
これは別の「コグ」というロボットで
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
最初にアイ・コンタクトをして
次に クリスティーが玩具に目をやると
15:14
the robot estimates her gaze direction
267
914330
2000
ロボットは彼女の視線を推測して
15:16
and looks at the same thing that she's looking at.
268
916330
2000
彼女が見ているのと同じ物を見ます
15:18
(Laughter)
269
918330
1000
(笑)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
この種のロボットが さらに多く
15:22
over the next few years in labs.
271
922330
2000
研究されるようになるでしょ
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
そこで大きな疑問が出てきます
私が聞かれる2つの大きな疑問は
15:29
if we make these robots more and more human-like,
273
929330
2000
これらのロボットが更にもっと
人間に近づいたら
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
彼らを受け入れられるでしょうか?
将来 彼らにも権利が必要になるでしょうか?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
もう一つ良く訊かれるのが
ロボットは人間にとって代わろうとするか?
15:39
(Laughter)
276
939330
1000
(笑)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
最初の疑問は
ハリウッドの映画によくある
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
テーマです
これらのキャラクターはお馴染みですが
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
いずれの場合も
ロボット達は尊厳を求めています
15:50
Well, do you ever need to give robots respect?
280
950330
3000
ロボットに権利を与える必要があるでしょうか?
15:54
They're just machines, after all.
281
954330
2000
たかが機械です
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
でも 良く考えれば
私たちだって機械です
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
分子科学者の目でみると
そうなります
16:05
You don't see a description of how, you know,
284
965330
3000
例えば「A」という分子がやってきて
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
他の分子と結合するなんて
説明はありませんが
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
いろいろな力がはたらいて
進んできて
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
そこに魂がやってきて分子が
きちんとつながる様になっている
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
全て機械的なのです
私たちは機械です
16:22
If we are machines, then in principle at least,
289
982330
3000
もし我々が機械なら
少なくとも原則的には
16:25
we should be able to build machines out of other stuff,
290
985330
4000
他のものから機械を作って
16:29
which are just as alive as we are.
291
989330
4000
私たちの様に生きてるものを
作れるはずです
16:33
But I think for us to admit that,
292
993330
2000
でも それを認めるには
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
自分たちが 特別な存在である事を
あきらめなければなりません
16:38
And we've had the retreat from special-ness
294
998330
2000
これまでも この特別性から
後退してきました
16:40
under the barrage of science and technology many times
295
1000330
3000
少なくとも過去数百年渡り
科学と技術の攻撃を受け何度もです
16:43
over the last few hundred years, at least.
296
1003330
2000
少なくとも過去数百年渡り
科学と技術の攻撃を受け何度もです
16:45
500 years ago we had to give up the idea
297
1005330
2000
500年前には宇宙の中心であるという考えを
16:47
that we are the center of the universe
298
1007330
3000
捨てなければなりませんでした
16:50
when the earth started to go around the sun;
299
1010330
2000
地球が太陽の中心を周りはじめたときにです
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
150年前には ダーウィンによって
他の動物と違うという考えを
捨てなければなりませんでした
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
そして想像するに…いつもながら厳しいことですが
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
近年 こんな考えもつきつけられています
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
我々は地球で生まれたのでは
ないかもしれない
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
これは皆嫌います
そして人間の遺伝子は
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
3500個しかないなんて言われると
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
そんなはずでない
もっとあるはずだと感じるものです
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
このように人間の特別性を
あきらめたくないので
17:17
having the idea that robots could really have emotions,
308
1037330
2000
ロボットが本当に感情を持つ可能性や
17:19
or that robots could be living creatures --
309
1039330
2000
生き物と考えられるとなると
17:21
I think is going to be hard for us to accept.
310
1041330
2000
受け入れがたいものになるでしょう
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
でも ここ50年ぐらいで
これを受け入れるようになるでしょう
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
次の疑問は 機械が我々に
とって代わるかということですが
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
一般的なシナリオとしては
我々が彼らを創造し
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
彼らが育ち 我々が育成し
彼らが我々から多くを学習し
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
いつかしら我々をのろまで
退屈だと判断するようになる
17:42
They want to take over from us.
316
1062330
2000
我々にとって代わりたいとなるわけです
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
10代のお子さんをお持ちなら
よくわかると思います
17:47
(Laughter)
318
1067330
1000
(笑)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
ハリウッドでは この感情を
ロボットに延長するわけですが
17:51
And the question is, you know,
320
1071330
3000
でも ここで不思議に思うのは
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
一体誰が 人間をのっとる
ロボットを間違って作るかということです
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
庭で一人でゴチャゴチャやって
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
「間違って747を作っちまった!」という感じで
18:04
I don't think that's going to happen.
324
1084330
2000
それは起きないでしょう
18:06
And I don't think --
325
1086330
2000
そして…
18:08
(Laughter)
326
1088330
1000
(笑)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
故意に危険なロボットを作るということは
18:12
that we're uncomfortable with.
328
1092330
2000
あり得ないでしょう
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
すごく悪いロボットが登場する前に
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
なんとなく悪いロボットが登場するはずですし
18:19
and before that a not so bad robot.
331
1099330
2000
その前には大して悪くはないロボットが
いるはずです
18:21
(Laughter)
332
1101330
1000
(笑)
18:22
And we're just not going to let it go that way.
333
1102330
2000
だから これを放っておくわけありません
18:24
(Laughter)
334
1104330
1000
(笑)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
結論としては ロボットはやってきます
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
でも心配する程の事はありません
楽しいものになるでしょう
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
これからの50年の旅を
楽しみましょう
18:38
(Applause)
338
1118330
2000
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。