下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Yoshika Taso
校正: Natsuhiko Mizutani
00:12
You only get one chance
to make a first impression,
0
12760
2656
ロボットにも 人間にも言えることですが
00:15
and that's true if you're a robot
as well as if you're a person.
1
15440
3176
第一印象は 相手に一度限りしか
与えることができません
00:18
The first time that I met
one of these robots
2
18640
3016
私がこんなロボットと
初めて出会ったのは2008年ー
00:21
was at a place
called Willow Garage in 2008.
3
21680
2896
ウィロー・ガレージという所でした
00:24
When I went to visit there,
my host walked me into the building
4
24600
3016
受け入れ担当者に導かれて建物に入ると
00:27
and we met this little guy.
5
27640
1576
この小さな物体に出くわしたのです
00:29
He was rolling into the hallway,
6
29240
1656
彼は廊下を移動していましたが
00:30
came up to me, sat there,
7
30920
1816
私に近づくと そこで立ち止まって
00:32
stared blankly past me,
8
32760
2256
ぼんやりと私の方を見ていました
00:35
did nothing for a while,
9
35040
1656
しばらくじっとしていましたが
00:36
rapidly spun his head around 180 degrees
10
36720
1936
急にくるりと向きを変えると
00:38
and then ran away.
11
38680
1536
走り去って行きました
00:40
And that was not a great first impression.
12
40240
2176
あまり良い第一印象ではありませんでした
00:42
The thing that I learned
about robots that day
13
42440
2176
あの日 私がロボットについて学んだのは
00:44
is that they kind of do their own thing,
14
44640
2176
彼らはある程度の自律行動が
できるけれども
00:46
and they're not totally aware of us.
15
46840
2136
人間をまったく認識できない
ということでした
00:49
And I think as we're experimenting
with these possible robot futures,
16
49000
3239
私たちが将来のロボットを見据えて
実験する中で学ぶことも
00:52
we actually end up learning
a lot more about ourselves
17
52263
2673
結局のところ ロボット本体よりも
人間についての方が多いと思います
00:54
as opposed to just these machines.
18
54960
1656
00:56
And what I learned that day
19
56640
1336
あの日私はこの小さな機械に
00:58
was that I had pretty high
expectations for this little dude.
20
58000
3416
かなり高い期待を抱いていたのでした
01:01
He was not only supposed to be able
to navigate the physical world,
21
61440
3176
彼は物理世界の自律移動だけでなく
01:04
but also be able
to navigate my social world --
22
64640
2656
私の社会性にも対応できると
思っていました
01:07
he's in my space; it's a personal robot.
23
67320
2176
私のスペースに入ってくる
パーソナルロボットなのです
01:09
wWhy didn't it understand me?
24
69520
2016
どうして私を理解できないのでしょう?
01:11
My host explained to me,
25
71560
1256
担当者がこう説明しましたー
01:12
"Well, the robot is trying
to get from point A to point B,
26
72840
3176
「つまり あのロボットは
A地点からB地点へ行く途中で
01:16
and you were an obstacle in his way,
27
76040
1776
あなたが障害物になったのだ
01:17
so he had to replan his path,
28
77840
2016
だから経路を考え直し
01:19
figure out where to go,
29
79880
1256
どちらに進むべきか判断し
01:21
and then get there some other way,"
30
81160
1696
別の経路を選んだのだ」
01:22
which was actually
not a very efficient thing to do.
31
82880
2456
そういうやり方は
あまり効率的とは言えません
01:25
If that robot had figured out
that I was a person, not a chair,
32
85360
3256
私が椅子ではなく人間で
どこかに向かっているロボットには
喜んで道を譲るものだと
01:28
and that I was willing
to get out of its way
33
88640
2096
01:30
if it was trying to get somewhere,
34
90760
1656
ロボット自身が気づいたなら
01:32
then it actually
would have been more efficient
35
92440
2216
その任務を果たす効率的な方法は
01:34
at getting its job done
36
94680
1256
01:35
if it had bothered
to notice that I was a human
37
95960
2216
あえて 私が人間だと認識し
01:38
and that I have different affordances
than things like chairs and walls do.
38
98200
3576
椅子や壁とは違う扱い方をすることなのです
01:41
You know, we tend to think of these robots
as being from outer space
39
101800
3216
私たちはロボットのことを
宇宙や未来やSF小説からやって来ると
01:45
and from the future
and from science fiction,
40
105040
2136
とかく考えがちです
01:47
and while that could be true,
41
107200
1416
そういう面もありますが
01:48
I'd actually like to argue
that robots are here today,
42
108640
2656
ロボットはもうすでに実在していて
01:51
and they live and work
amongst us right now.
43
111320
2776
今まさに我々と共に活動しているという
お話をします
01:54
These are two robots that live in my home.
44
114120
2856
この2台のロボットは私の家にいて
01:57
They vacuum the floors
and they cut the grass
45
117000
2496
掃除機をかけたり庭の芝刈りを
01:59
every single day,
46
119520
1216
毎日行います
02:00
which is more than I would do
if I actually had time to do these tasks,
47
120760
3376
時間があっても
私はそんなに多くはやりませんし
02:04
and they probably
do it better than I would, too.
48
124160
2336
仕上がりも私より上手です
02:06
This one actually takes care of my kitty.
49
126520
2496
このロボットは子猫の世話をします
02:09
Every single time
he uses the box, it cleans it,
50
129040
2576
子猫がトイレを使うたびに
毎回 掃除します
02:11
which is not something I'm willing to do,
51
131640
1976
それは 私が喜んですることではないので
02:13
and it actually makes
his life better as well as mine.
52
133640
2576
子猫だけでなく私の生活も向上しています
02:16
And while we call these robot products --
53
136240
2416
こういう「ロボット」を冠した製品―
02:18
it's a "robot vacuum cleaner,
it's a robot lawnmower,
54
138680
2696
“ロボット掃除機”
“ロボット芝刈機”
02:21
it's a robot littler box,"
55
141400
1495
“猫用ロボットトイレ”
だけでなく
02:22
I think there's actually a bunch
of other robots hiding in plain sight
56
142919
4137
他にも色々なロボットが
目立たずに活躍しています
02:27
that have just become so darn useful
57
147080
1856
非常に役立つけれど
02:28
and so darn mundane
58
148960
1456
ありきたりのやつは
02:30
that we call them things
like, "dishwasher," right?
59
150440
2496
食洗機なんて呼ばれています
02:32
They get new names.
60
152960
1216
新しい名前も与えられ
02:34
They don't get called robot anymore
61
154200
1696
ロボットと呼ばれないのは
02:35
because they actually
serve a purpose in our lives.
62
155920
2416
暮らしに役立つ存在になっているからです
02:38
Similarly, a thermostat, right?
63
158360
1496
自動温度調節器もそうです
02:39
I know my robotics friends out there
64
159880
1776
私がこれをロボットと呼ぶと
02:41
are probably cringing
at me calling this a robot,
65
161680
2336
その筋の人は恐らく
いやな顔をするでしょうが
02:44
but it has a goal.
66
164040
1256
目的が与えられた機器です
02:45
Its goal is to make my house
66 degrees Fahrenheit,
67
165320
2896
私の家の中を19℃に保つという目的のため
02:48
and it senses the world.
68
168240
1256
周囲の世界を計測しています
02:49
It knows it's a little bit cold,
69
169520
1576
少し気温が下がると
02:51
it makes a plan and then
it acts on the physical world.
70
171120
2616
計画を立て 物理世界に働きかけます
02:53
It's robotics.
71
173760
1256
まさにロボット工学です
02:55
Even if it might not
look like Rosie the Robot,
72
175040
2576
「ロボットのロージー」のキャラとは
似ていなくても
02:57
it's doing something
that's really useful in my life
73
177640
2936
私の生活に非常に役立っています
03:00
so I don't have to take care
74
180600
1376
わざわざ自分で室内温度を
03:02
of turning the temperature
up and down myself.
75
182000
2576
上げ下げする必要がありませんから
03:04
And I think these systems
live and work amongst us now,
76
184600
3816
このようなシステムは
今や私たちの生活の一部です
03:08
and not only are these systems
living amongst us
77
188440
2336
こんなシステムが暮らしに
入り込んでいるだけでなく
03:10
but you are probably
a robot operator, too.
78
190800
2656
みなさんはおそらく
ロボットの操縦もしています
03:13
When you drive your car,
79
193480
1256
車を運転しているときに
03:14
it feels like you are operating machinery.
80
194760
2216
機械を操縦しているような感じですね
03:17
You are also going
from point A to point B,
81
197000
2816
A地点からB地点に行こうとするだけですが
03:19
but your car probably has power steering,
82
199840
2216
車にはパワーステアリングや
03:22
it probably has automatic braking systems,
83
202080
2696
自動ブレーキ
03:24
it might have an automatic transmission
and maybe even adaptive cruise control.
84
204800
3736
オートマや適応走行制御システムが
装備されています
03:28
And while it might not be
a fully autonomous car,
85
208560
2936
完全自律走行車ではないかも知れませんが
03:31
it has bits of autonomy,
86
211520
1296
ある程度の自律性を有して
03:32
and they're so useful
87
212840
1336
とても役立っています
03:34
and they make us drive safer,
88
214200
1816
運転を安全にする機能ですが
03:36
and we just sort of feel
like they're invisible-in-use, right?
89
216040
3656
使っていても 空気のような存在ですよね
03:39
So when you're driving your car,
90
219720
1576
車を運転するときには
03:41
you should just feel like
you're going from one place to another.
91
221320
3096
別の場所への移動だけを考えればよいのです
自分で判断して操作しなければいけない
厄介な仕事だと感じることがないのは
03:44
It doesn't feel like it's this big thing
that you have to deal with and operate
92
224440
3736
03:48
and use these controls
93
228200
1256
運転の仕方を長い時間をかけて身につけ
03:49
because we spent so long
learning how to drive
94
229480
2176
03:51
that they've become
extensions of ourselves.
95
231680
2696
拡張された自分自身と感じられるほどに
なっているからです
03:54
When you park that car
in that tight little garage space,
96
234400
2696
車庫の狭く限られたスペースに
駐車するときでも
車体の端がどこにあるかわかりますよね
03:57
you know where your corners are.
97
237120
1576
03:58
And when you drive a rental car
that maybe you haven't driven before,
98
238720
3256
レンタカーを借りた時
初めて運転する車種ならば
04:02
it takes some time
to get used to your new robot body.
99
242000
3056
新しいロボットの機体に慣れるまで
少し時間がかかりますね
04:05
And this is also true for people
who operate other types of robots,
100
245080
3976
別の種類のロボットを操作する人にも
同じことがいえるのです
04:09
so I'd like to share with you
a few stories about that.
101
249080
2600
それについて
少しお話をしたいと思います
04:12
Dealing with the problem
of remote collaboration.
102
252240
2336
まずは遠隔共同作業という課題を
どう扱うかです
04:14
So, at Willow Garage
I had a coworker named Dallas,
103
254600
2576
ウィロー・ガレージには
ダラスという同僚がいて
04:17
and Dallas looked like this.
104
257200
1576
こんな感じです
04:18
He worked from his home in Indiana
in our company in California.
105
258800
4056
会社はカリフォルニアにありますが
彼はインディアナにある自宅から働いています
04:22
He was a voice in a box
on the table in most of our meetings,
106
262880
2936
彼が卓上にある音声機材で
会議に参加するのは
04:25
which was kind of OK
except that, you know,
107
265840
2215
概ね問題はありませんが ただ
04:28
if we had a really heated debate
and we didn't like what he was saying,
108
268079
3377
議論が白熱して
ダラスの意見が気に入らないときには
04:31
we might just hang up on him.
109
271480
1416
途中で回線を切ってしまうこともあります
(笑)
04:32
(Laughter)
110
272920
1015
04:33
Then we might have a meeting
after that meeting
111
273959
2217
あるいは 会議を繰り返すようなときには
04:36
and actually make the decisions
in the hallway afterwards
112
276200
2696
意思決定は
実は後で廊下で行われたりするのですが
04:38
when he wasn't there anymore.
113
278920
1416
ダラスはそこにいないのです
04:40
So that wasn't so great for him.
114
280360
1576
彼にとっては面白くありません
04:41
And as a robotics company at Willow,
115
281960
1736
私たちの会社には
04:43
we had some extra
robot body parts laying around,
116
283720
2336
いくつかロボットの部品の余りがあり
04:46
so Dallas and his buddy Curt
put together this thing,
117
286080
2496
ダラスと友人のカートは部品を組み合わせ
04:48
which looks kind of
like Skype on a stick on wheels,
118
288600
2936
棒にスカイプ画面と車輪を取り付けました
04:51
which seems like a techy, silly toy,
119
291560
1736
技術オタクの
ふざけたおもちゃみたいですが
04:53
but really it's probably
one of the most powerful tools
120
293320
2776
恐らく今までに見た遠隔共同作業用の
ツールの中で
04:56
that I've seen ever made
for remote collaboration.
121
296120
2480
最も強力なものです
04:59
So now, if I didn't answer
Dallas' email question,
122
299160
3496
それからというもの
ダラスからのメールに返信しないと
05:02
he could literally roll into my office,
123
302680
2216
彼は私のオフィスに 文字通り転がり込んで
05:04
block my doorway
and ask me the question again --
124
304920
2576
入口に立ちふさがり 返答を求め続けます
05:07
(Laughter)
125
307520
1016
(笑)
05:08
until I answered it.
126
308560
1216
こちらが回答するまでです
05:09
And I'm not going to turn him off, right?
That's kind of rude.
127
309800
2976
電源を切ることはできないですよね
失礼だから
05:12
Not only was it good
for these one-on-one communications,
128
312800
2696
こういう1対1の
コミュニケーションだけでなく
05:15
but also for just showing up
at the company all-hands meeting.
129
315520
2936
全社会議に参加するのにも使えます
05:18
Getting your butt in that chair
130
318480
1696
自宅オフィスの席に陣取りながらも
05:20
and showing people that you're present
and committed to your project
131
320200
3216
見える形で全社会議に参加して
プロジェクトへの貢献を示すのは
05:23
is a big deal
132
323440
1256
とても大切なことで
05:24
and can help remote collaboration a ton.
133
324720
2176
遠隔共同作業の効率も上がります
05:26
We saw this over the period
of months and then years,
134
326920
2856
遠隔参加は何カ月もそして何年も継続し
05:29
not only at our company
but at others, too.
135
329800
2160
他の会社でも目にするようになりました
05:32
The best thing that can happen
with these systems
136
332720
2336
このようなシステムの最大の長所は
05:35
is that it starts to feel
like you're just there.
137
335080
2336
同じ空間を共有していると
感じ始めることです
05:37
It's just you, it's just your body,
138
337440
1696
それはその人―
その人の体であり
05:39
and so people actually start
to give these things personal space.
139
339160
3096
その人のためのスペースも
用意されるようになります
05:42
So when you're having a stand-up meeting,
140
342280
1976
スタンドアップ・ミーティングでは
05:44
people will stand around the space
141
344280
1656
あたかも その人がその場にいるように
05:45
just as they would
if you were there in person.
142
345960
2216
参加者はそのロボットの周りに集まります
05:48
That's great until
there's breakdowns and it's not.
143
348200
2576
いいことだけでなく
うまく行かない面もあります
05:50
People, when they first see these robots,
144
350800
1976
初めてこのロボットに出会った人は
05:52
are like, "Wow, where's the components?
There must be a camera over there,"
145
352800
3576
「わぁ!どうなっているの?
ここにカメラがあるに違いない」と
05:56
and they start poking your face.
146
356400
1576
顔のあたりをつつき始めます
05:58
"You're talking too softly,
I'm going to turn up your volume,"
147
358000
2936
「声が小さすぎるよ
ボリュームを上げよう」
06:00
which is like having a coworker
walk up to you and say,
148
360960
2616
これは同僚が近づいてきて
こう言うようなもの
06:03
"You're speaking too softly,
I'm going to turn up your face."
149
363600
2896
「声が小さすぎるわ
顔を上向きにするわよ」
06:06
That's awkward and not OK,
150
366520
1256
これはマズイですね
06:07
and so we end up having to build
these new social norms
151
367800
2616
そこでこういったシステムに関して
06:10
around using these systems.
152
370440
2216
新しい社会規範を作り上げないと
いけなくなりました
06:12
Similarly, as you start
feeling like it's your body,
153
372680
3416
また 本人がロボットを
自分の本体と感じ始めると同時に
06:16
you start noticing things like,
"Oh, my robot is kind of short."
154
376120
3696
こんなことに気づくのです
「あれ ロボット版の自分は背が低いな」と
06:19
Dallas would say things to me --
he was six-foot tall --
155
379840
2656
ダラスも私にそう言いました
彼は180センチだったからです
06:22
and we would take him via robot
to cocktail parties and things like that,
156
382520
3456
ですからロボットを介して
カクテル・パーティーに連れて行くと
06:26
as you do,
157
386000
1216
こんな感じです
06:27
and the robot was about five-foot-tall,
which is close to my height.
158
387240
3336
ロボットは150センチほどで私と同じ位です
06:30
And he would tell me,
159
390600
1216
ダラスはこう言いました
06:31
"You know, people are not
really looking at me.
160
391840
2536
「どうやら みんな僕の顔を見ていないな
06:34
I feel like I'm just looking
at this sea of shoulders,
161
394400
2696
肩また肩の並びしか見えないんだ
06:37
and it's just -- we need a taller robot."
162
397120
1976
長身ロボットが欲しいな」
06:39
And I told him,
163
399120
1256
でも私の答えはこうでした
06:40
"Um, no.
164
400400
1296
「いいえ 要らないわ
06:41
You get to walk in my shoes for today.
165
401720
1936
今日 私の立場がわかったでしょ
06:43
You get to see what it's like
to be on the shorter end of the spectrum."
166
403680
3536
背が低い人たちの視界で見ているだけよ」
06:47
And he actually ended up building
a lot of empathy for that experience,
167
407240
3376
そして彼自身その経験を通して
気遣いもできるようになりました
06:50
which was kind of great.
168
410640
1256
ありがたいことです
06:51
So when he'd come visit in person,
169
411920
1656
ダラス本人が会社を訪れた時も
06:53
he no longer stood over me
as he was talking to me,
170
413600
2416
彼はもはや私を見下ろすことはなく
椅子に腰掛けて
06:56
he would sit down
and talk to me eye to eye,
171
416040
2096
同じ目線で話してくれるようになりました
06:58
which was kind of a beautiful thing.
172
418160
1736
素敵ですよね
06:59
So we actually decided
to look at this in the laboratory
173
419920
2656
そこで私たちは ロボットの
背の高さみたいなことで
07:02
and see what others kinds of differences
things like robot height would make.
174
422600
3656
どのような違いが生まれるのか
実験することにしました
07:06
And so half of the people in our study
used a shorter robot,
175
426280
2856
私たちの研究では
半数の人は背の低いロボットを使用し
07:09
half of the people in our study
used a taller robot
176
429160
2416
半数の人は背の高いロボットを
使用しました
07:11
and we actually found
that the exact same person
177
431600
2256
そして同一人物が
07:13
who has the exact same body
and says the exact same things as someone,
178
433880
3336
同じ身体を画面に映して
同じ事を誰かに言ったときに
07:17
is more persuasive
and perceived as being more credible
179
437240
2616
背の高いロボットを使った方が
説得力があり
07:19
if they're in a taller robot form.
180
439880
1656
信頼感を与えることが判明しました
07:21
It makes no rational sense,
181
441560
1816
合理的な意味づけはできませんが
07:23
but that's why we study psychology.
182
443400
1696
だからこそ心理学があるわけです
07:25
And really, you know,
the way that Cliff Nass would put this
183
445120
2856
クリフ・ナス教授だったら
こんな言い方をしたことでしょう
07:28
is that we're having to deal
with these new technologies
184
448000
3016
私たちはこういう新しい技術に対して
07:31
despite the fact
that we have very old brains.
185
451040
2736
昔からの古い頭脳で対応しなければなりません
07:33
Human psychology is not changing
at the same speed that tech is
186
453800
2976
人間の心理は技術のような
速さでは変わりませんが
07:36
and so we're always playing catch-up,
187
456800
1816
自律型機器が動き回る世界を
07:38
trying to make sense of this world
188
458640
1656
きちんと理解するためには
07:40
where these autonomous things
are running around.
189
460320
2336
追いつかないといけないことだらけです
07:42
Usually, things that talk are people,
not machines, right?
190
462680
2736
大概 人は話しますが機械は話しません
07:45
And so we breathe a lot of meaning
into things like just height of a machine,
191
465440
4576
人ではなく ただの機械の背丈に
多くの意味を与えてしまい
その意味付けをシステムの利用者にも
あてはめてしまうのです
07:50
not a person,
192
470040
1256
07:51
and attribute that
to the person using the system.
193
471320
2360
07:55
You know, this, I think,
is really important
194
475120
2216
ロボット工学を考えるときに
07:57
when you're thinking about robotics.
195
477360
1736
重要なのは
07:59
It's not so much about reinventing humans,
196
479120
2096
人間を再発明するようなことを
考えるのではなく
08:01
it's more about figuring out
how we extend ourselves, right?
197
481240
3136
私たち人間がどれだけ可能性を広げられるか
見極めていくことでないでしょうか?
08:04
And we end up using things
in ways that are sort of surprising.
198
484400
2976
結局 こういうものを使っているうちに
驚くような事態も生じました
08:07
So these guys can't play pool
because the robots don't have arms,
199
487400
4256
このロボットには腕がないので
ビリヤードができませんでしたが
08:11
but they can heckle the guys
who are playing pool
200
491680
2336
ビリヤードをする人をヤジることはでき
08:14
and that can be an important thing
for team bonding,
201
494040
3176
それはチームが団結するために重要なことで
08:17
which is kind of neat.
202
497240
1296
素晴らしいことでした
08:18
People who get really good
at operating these systems
203
498560
2496
ロボットのシステム操作が得意な人は
08:21
will even do things
like make up new games,
204
501080
2056
新しい遊びを考えたりしました
深夜にゴミ箱を押して廻って
ロボット・サッカーをするのです
08:23
like robot soccer
in the middle of the night,
205
503160
2136
08:25
pushing the trash cans around.
206
505320
1456
08:26
But not everyone's good.
207
506800
1576
しかし 誰もが
操作が得意な訳ではなく
08:28
A lot of people have trouble
operating these systems.
208
508400
2496
システム操作に苦労する人も多いのです
08:30
This is actually a guy
who logged into the robot
209
510920
2256
ある人はロボットにログインした時
08:33
and his eyeball was turned
90 degrees to the left.
210
513200
2376
視野が90度左にずれていましたが
08:35
He didn't know that,
211
515600
1256
それに気づかず
08:36
so he ended up just bashing
around the office,
212
516880
2176
移動する度にあちこちぶつかり
08:39
running into people's desks,
getting super embarrassed,
213
519080
2616
人の机に突っ込んだりと
非常に恥ずかしい目にあい
08:41
laughing about it --
his volume was way too high.
214
521720
2336
それを笑っていました
その声も大きすぎでした
08:44
And this guy here
in the image is telling me,
215
524080
2136
それでこの画面の人はこう言いました
08:46
"We need a robot mute button."
216
526240
2096
「ロボットに消音ボタンを取り付けよう」
08:48
And by that what he really meant
was we don't want it to be so disruptive.
217
528360
3496
つまり 周りの人を邪魔しない為の機能です
08:51
So as a robotics company,
218
531880
1616
私たちはロボットの会社として
08:53
we added some obstacle
avoidance to the system.
219
533520
2456
システムに障害物回避機能を取り付けました
08:56
It got a little laser range finder
that could see the obstacles,
220
536000
3056
レーザー測距システムを導入し
障害物が分かるようにしたのです
08:59
and if I as a robot operator
try to say, run into a chair,
221
539080
3136
例えば私がロボットを操縦していて
椅子にぶつりそうになっても
09:02
it wouldn't let me,
it would just plan a path around,
222
542240
2496
ロボットは衝突を避け
回避経路を探すのです
09:04
which seems like a good idea.
223
544760
1856
良い考えに思えます
09:06
People did hit fewer obstacles
using that system, obviously,
224
546640
3176
このシステムを使えば
明らかに 障害に衝突しなくなります
09:09
but actually, for some of the people,
225
549840
2096
しかし その一方で何人かは
09:11
it took them a lot longer
to get through our obstacle course,
226
551960
2856
障害コースを通過するのに
ずっと長い時間がかかる人もいました
09:14
and we wanted to know why.
227
554840
1560
その理由を調べたところ
09:17
It turns out that there's
this important human dimension --
228
557080
3056
それは人間の重要な側面である
09:20
a personality dimension
called locus of control,
229
560160
2296
「統制の所在」と言われる
人格側面が関与していて
09:22
and people who have
a strong internal locus of control,
230
562480
3136
内的統制の強い人は
09:25
they need to be the masters
of their own destiny --
231
565640
3056
自分の力で目的地まで行こうとします
09:28
really don't like giving up control
to an autonomous system --
232
568720
3096
主導権を自律システムに譲ろうとせず
09:31
so much so that they will
fight the autonomy;
233
571840
2136
自律システムと戦わんとする勢いでした
09:34
"If I want to hit that chair,
I'm going to hit that chair."
234
574000
3096
「僕が椅子にぶつかりたいときは
ぶつからないと」という具合です
09:37
And so they would actually suffer
from having that autonomous assistance,
235
577120
3616
そういう人は自律型システムの支援のせいで
かえって苦戦するのです
09:40
which is an important thing for us to know
236
580760
2576
こういうことを知るのは大事です
09:43
as we're building increasingly
autonomous, say, cars, right?
237
583360
3296
自律性をさらに高めて 自動車などを
作ろうとしている時代なのですから
09:46
How are different people going
to grapple with that loss of control?
238
586680
3360
制御を委ねるという課題に
多様な人々がどう対処していくのでしょうか?
09:50
It's going to be different
depending on human dimensions.
239
590880
2696
それぞれの人間的側面によって異なります
09:53
We can't treat humans
as if we're just one monolithic thing.
240
593600
3496
私たちは人間を一枚岩のように
扱うことはできません
09:57
We vary by personality, by culture,
241
597120
2416
その人の人格や文化や
09:59
we even vary by emotional state
moment to moment,
242
599560
2456
刻々と変わる情動状態も異なるため
10:02
and being able to design these systems,
243
602040
1976
こういうシステム―
10:04
these human-robot interaction systems,
244
604040
2296
HRIシステムをデザインするには
10:06
we need to take into account
the human dimensions,
245
606360
2736
技術の側面だけでなく
10:09
not just the technological ones.
246
609120
1720
人間の側面を考慮する必要があります
10:11
Along with a sense of control
also comes a sense of responsibility.
247
611640
4296
コントロール感と共に
責任感も問題となります
10:15
And if you were a robot operator
using one of these systems,
248
615960
2856
この制御システムを使って
ロボットを操作するときの
10:18
this is what the interface
would look like.
249
618840
2056
インターフェースはこうなっています
10:20
It looks a little bit like a video game,
250
620920
1936
まるでビデオゲームのようで
10:22
which can be good because
that's very familiar to people,
251
622880
2976
誰にとっても馴染み深いという利点とともに
10:25
but it can also be bad
252
625880
1216
ビデオゲームだと錯覚してしまうという
欠点があります
10:27
because it makes people feel
like it's a video game.
253
627120
2456
10:29
We had a bunch of kids
over at Stanford play with the system
254
629600
2856
スタンフォード大学には
システムを操作する大勢の学生がいて
10:32
and drive the robot
around our office in Menlo Park,
255
632480
2456
メンロパークの事務所の周辺で
ロボットを操縦しながら
10:34
and the kids started saying things like,
256
634960
1936
こんなことを言うのです
10:36
"10 points if you hit that guy over there.
20 points for that one."
257
636920
3176
「向こうの男にぶつけたら10点
あいつに当てたら20点」
そして人々を廊下で追いかけたりします
10:40
And they would
chase them down the hallway.
258
640120
2016
10:42
(Laughter)
259
642160
1016
(笑)
10:43
I told them, "Um, those are real people.
260
643200
1936
私が「えっと あの人たちは
生身の人間だから
10:45
They're actually going to bleed
and feel pain if you hit them."
261
645160
3296
もしぶつけたら
出血して痛いと思うわ」と言うと
10:48
And they'd be like, "OK, got it."
262
648480
1616
納得したような返事をしますが
10:50
But five minutes later,
they would be like,
263
650120
2056
5分後には
こんな話をしています
10:52
"20 points for that guy over there,
he just looks like he needs to get hit."
264
652200
3616
「向こうにいるあの男に当てたら20点
あの人 ぶつけてほしいんじゃないかな」
10:55
It's a little bit
like "Ender's Game," right?
265
655840
2136
『エンダーのゲーム』みたいですね
10:58
There is a real world on that other side
266
658000
1936
向こう側も現実世界であり
10:59
and I think it's our responsibility
as people designing these interfaces
267
659960
3416
こういうインターフェースを
設計する側としては
11:03
to help people remember
268
663400
1256
利用者に
11:04
that there's real consequences
to their actions
269
664680
2256
行動には現実の結果が伴うということと
11:06
and to feel a sense of responsibility
270
666960
2296
ますます自律的になる
機械を操縦するときは
11:09
when they're operating
these increasingly autonomous things.
271
669280
3280
責任感を持つよう促す
必要があると思います
11:13
These are kind of a great example
272
673840
2296
ここまでの内容は
ロボットと共に迎える未来を
11:16
of experimenting with one
possible robotic future,
273
676160
3256
想定した実験の好例と言えるでしょう
11:19
and I think it's pretty cool
that we can extend ourselves
274
679440
3856
我々が自己を拡張できることや
11:23
and learn about the ways
that we extend ourselves
275
683320
2336
こういう機械を用いて
自己を拡張する方法を学び
11:25
into these machines
276
685680
1216
11:26
while at the same time
being able to express our humanity
277
686920
2696
その時同時に 自分たちの
人間性や個性を表現できるのは
11:29
and our personality.
278
689640
1216
素晴らしいことです
11:30
We also build empathy for others
279
690880
1576
また「背が低い」「高い」
「足が速い」「遅い」とか
11:32
in terms of being
shorter, taller, faster, slower,
280
692480
3216
それに「腕がない」など
相手の状況に
11:35
and maybe even armless,
281
695720
1416
共感することを学べたのも
11:37
which is kind of neat.
282
697160
1336
素敵なことです
11:38
We also build empathy
for the robots themselves.
283
698520
2536
私たち人間はロボット本体にも共感します
11:41
This is one of my favorite robots.
284
701080
1656
これは私のお気に入りのロボットで
11:42
It's called the Tweenbot.
285
702760
1456
トゥイーンボットといいます
11:44
And this guy has a little flag that says,
286
704240
1976
このロボットには小さな旗がついていて
11:46
"I'm trying to get
to this intersection in Manhattan,"
287
706240
2576
「僕はマンハッタンの交差点に
行きたいんだ」
11:48
and it's cute and rolls
forward, that's it.
288
708840
2776
そう書いてあり
前にだけ進む 可愛いロボットです
11:51
It doesn't know how to build a map,
it doesn't know how to see the world,
289
711640
3456
このロボットはマップ構築の仕方も
世界を認識する方法も知らないので
人々の助けが必要です
11:55
it just asks for help.
290
715120
1256
11:56
The nice thing about people
291
716400
1336
実はロボットも
11:57
is that it can actually depend
upon the kindness of strangers.
292
717760
3096
見知らぬ人の善意に頼ることができるのです
12:00
It did make it across the park
to the other side of Manhattan --
293
720880
3896
公園を横切り
マンハッタンの向こう側まで行けたのは―
12:04
which is pretty great --
294
724800
1256
すごいことでしょ―
12:06
just because people would pick it up
and point it in the right direction.
295
726080
3456
みんなが正しい向きに
直してくれるお陰です
(笑)
12:09
(Laughter)
296
729560
936
12:10
And that's great, right?
297
730520
1256
すごいと思いませんか?
12:11
We're trying to build
this human-robot world
298
731800
2696
私たちは人間とロボットが共存し
12:14
in which we can coexist
and collaborate with one another,
299
734520
3416
お互いが協力できる社会を
実現しようとしています
12:17
and we don't need to be fully autonomous
and just do things on our own.
300
737960
3376
完全に自律にする必要も
物事を人間だけで行う必要もありません
12:21
We actually do things together.
301
741360
1496
人間とロボットとで一緒にやるのです
12:22
And to make that happen,
302
742880
1256
実現には
芸術家やデザイナー 政策立案者や法学者
12:24
we actually need help from people
like the artists and the designers,
303
744160
3256
12:27
the policy makers, the legal scholars,
304
747440
1856
心理学者 社会学者ー
12:29
psychologists, sociologists,
anthropologists --
305
749320
2216
そして人類学者の力が必要です
12:31
we need more perspectives in the room
306
751560
1816
スチュアート・カードの言う
私たちがすべきこと―
12:33
if we're going to do the thing
that Stu Card says we should do,
307
753400
2976
すなわち私たちが望む世界を
築き上げていくためには
12:36
which is invent the future
that we actually want to live in.
308
756400
3936
もっと多様な見方を結集することが必要です
12:40
And I think we can continue to experiment
309
760360
2656
さまざまなロボットの未来に向けた研究を
12:43
with these different
robotic futures together,
310
763040
2176
今後も共に重ねていくことで
12:45
and in doing so, we will end up
learning a lot more about ourselves.
311
765240
4680
私たち自身を
深く理解することができるでしょう
12:50
Thank you.
312
770720
1216
ありがとうございました
12:51
(Applause)
313
771960
2440
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。