下の英語字幕をダブルクリックすると動画を再生できます。
00:00
Translator: Joseph Geni
Reviewer: Krystian Aparta
0
0
7000
翻訳: Yasushi Aoki
校正: Kazunori Akashi
00:13
There was a day, about 10 years ago,
1
13047
2508
10年くらい前のことですが
00:15
when I asked a friend to hold
a baby dinosaur robot upside down.
2
15579
3944
赤ちゃん恐竜ロボットを
逆さに持ってみてと友達に言ったんです
00:21
It was this toy called a Pleo
that I had ordered,
3
21889
3446
「プレオ」というオモチャを手に入れ
はしゃいでいました
00:25
and I was really excited about it
because I've always loved robots.
4
25359
4401
ロボットは昔から
大好きでしたので
00:29
And this one has really cool
technical features.
5
29784
2279
このロボットには
いろいろすごい機能があり
00:32
It had motors and touch sensors
6
32087
2119
モーターや 接触センサーや
00:34
and it had an infrared camera.
7
34230
2244
赤外線カメラなんかに加え
00:36
And one of the things it had
was a tilt sensor,
8
36498
2763
傾斜センサーが入っていて
00:39
so it knew what direction it was facing.
9
39285
2318
体の向きが
分かるようになっていました
00:42
And when you held it upside down,
10
42095
2134
そして逆さにしてやると
00:44
it would start to cry.
11
44253
1572
泣き出すんです
00:46
And I thought this was super cool,
so I was showing it off to my friend,
12
46527
3496
これはすごいと感心し
友達にも見せてやろうと思ったわけです
00:50
and I said, "Oh, hold it up by the tail.
See what it does."
13
50047
2805
「ちょっと これの尻尾を持ってみて
どうなるか」
00:55
So we're watching
the theatrics of this robot
14
55268
3625
そして このロボットが
もがき泣く姿を見ていましたが
00:58
struggle and cry out.
15
58917
2199
01:02
And after a few seconds,
16
62767
2047
少しして
なんか嫌な気がしてきて
01:04
it starts to bother me a little,
17
64838
1972
01:07
and I said, "OK, that's enough now.
18
67744
3424
「ねえ もういいでしょう
下に置いてあげて」と言い
01:11
Let's put him back down."
19
71930
2305
01:14
And then I pet the robot
to make it stop crying.
20
74259
2555
ロボットが泣き止むように
撫でてやりました
01:18
And that was kind of
a weird experience for me.
21
78973
2452
私にとって 奇妙な体験でした
01:22
For one thing, I wasn't the most
maternal person at the time.
22
82084
4569
当時の私は そんなに母性的な
人間ではありませんでしたから
01:26
Although since then I've become
a mother, nine months ago,
23
86677
2731
でも9ヶ月前に
私も母親になって
01:29
and I've learned that babies also squirm
when you hold them upside down.
24
89432
3433
逆さに持つと 赤ん坊も
もがきまわるのが分かりました
01:32
(Laughter)
25
92889
1563
(笑)
01:35
But my response to this robot
was also interesting
26
95023
2358
このロボットに対する
自分の反応が興味深かったのは
01:37
because I knew exactly
how this machine worked,
27
97405
4101
その機械的な仕組みは
理解していたのに
01:41
and yet I still felt
compelled to be kind to it.
28
101530
3262
優しくしてあげなきゃと
感じたからです
01:46
And that observation sparked a curiosity
29
106450
2707
その時の観察が
この10年追い続けてきた
好奇心に火を付けたのです
01:49
that I've spent the past decade pursuing.
30
109181
2832
01:52
Why did I comfort this robot?
31
112911
1793
なぜ自分はこのロボットを
いたわったのか?
01:56
And one of the things I discovered
was that my treatment of this machine
32
116228
3579
ひとつ分かったのは
このロボットへの対応というのは
01:59
was more than just an awkward moment
in my living room,
33
119831
3701
うちの居間で起きた
気まずい瞬間にとどまるものではなく
02:03
that in a world where we're increasingly
integrating robots into our lives,
34
123556
5420
生活の中にロボットがますます
組み込まれつつある世の中で
このような感覚は 様々な結果を
もたらしうるということでした
02:09
an instinct like that
might actually have consequences,
35
129000
3126
02:13
because the first thing that I discovered
is that it's not just me.
36
133452
3749
私だけじゃないことが
分かったんです
02:19
In 2007, the Washington Post
reported that the United States military
37
139249
4802
2007年にワシントンポスト紙が
米軍の実験している
地雷処理ロボットについて報じました
02:24
was testing this robot
that defused land mines.
38
144075
3230
02:27
And the way it worked
was it was shaped like a stick insect
39
147329
2912
それはナナフシみたいな
姿をしていて
02:30
and it would walk
around a minefield on its legs,
40
150265
2651
脚を使って地雷原を歩き回り
02:32
and every time it stepped on a mine,
one of the legs would blow up,
41
152940
3206
地雷を踏むごとに
脚の1つが吹き飛ばされますが
02:36
and it would continue on the other legs
to blow up more mines.
42
156170
3057
歩き続けて地雷を爆発させていく
というものでした
02:39
And the colonel who was in charge
of this testing exercise
43
159251
3786
責任者だった大佐は
実験を中止させました
02:43
ends up calling it off,
44
163061
2118
02:45
because, he says, it's too inhumane
45
165203
2435
傷ついたロボットが地雷原を
這い回るのを見ているのは非人間的だからと
02:47
to watch this damaged robot
drag itself along the minefield.
46
167662
4516
02:54
Now, what would cause
a hardened military officer
47
174978
3897
筋金入りの軍人や
02:58
and someone like myself
48
178899
2043
私みたいな人間に
03:00
to have this response to robots?
49
180966
1857
そういう反応をさせたものは
何だったのか?
03:03
Well, of course, we're primed
by science fiction and pop culture
50
183537
3310
SFや大衆文化によって
こういったものを擬人化することに
馴れているというのもありますが
03:06
to really want to personify these things,
51
186871
2579
03:09
but it goes a little bit deeper than that.
52
189474
2789
これはもっと根が深いもので
03:12
It turns out that we're biologically
hardwired to project intent and life
53
192287
5309
生物学的に私達は
自律的に動くものに対し
03:17
onto any movement in our physical space
that seems autonomous to us.
54
197620
4766
意思や生命を見ようと
するようにできているんです
03:23
So people will treat all sorts
of robots like they're alive.
55
203214
3465
人がロボットを生き物のように
扱うのはそのためです
03:26
These bomb-disposal units get names.
56
206703
2683
こういう爆発物処理ロボットに
名前が付けられ
03:29
They get medals of honor.
57
209410
1682
勲章が授与され
03:31
They've had funerals for them
with gun salutes.
58
211116
2325
礼砲付きの葬礼が
行われたりします
03:34
And research shows that we do this
even with very simple household robots,
59
214380
3833
相手が単純な家庭用ロボットでも
人はそう反応することが分かっています
03:38
like the Roomba vacuum cleaner.
60
218237
2135
掃除ロボットの
ルンバでさえも
03:40
(Laughter)
61
220396
1291
(笑)
03:41
It's just a disc that roams
around your floor to clean it,
62
221711
3089
ただの円盤形をしていて
床の上を動き回って掃除をしますが
03:44
but just the fact it's moving
around on its own
63
224824
2306
自分で動き回る
というところが
03:47
will cause people to name the Roomba
64
227154
2167
持ち主に名前を付けさせたり
03:49
and feel bad for the Roomba
when it gets stuck under the couch.
65
229345
3182
ソファの下に引っかかっているのを
可愛そうと思わせたりするんです
03:52
(Laughter)
66
232551
1865
(笑)
03:54
And we can design robots
specifically to evoke this response,
67
234440
3340
そういう反応を引き起こすべく
ロボットをデザインすることもできます
03:57
using eyes and faces or movements
68
237804
3461
目や顔を付けたり
人が無意識に
感情と結び付けるような
04:01
that people automatically,
subconsciously associate
69
241289
3259
04:04
with states of mind.
70
244572
2020
動作をさせることによって
04:06
And there's an entire body of research
called human-robot interaction
71
246616
3293
そういった現象について研究する
「ヒューマン-ロボット・インタラクション」
という分野もあります
04:09
that really shows how well this works.
72
249933
1826
04:11
So for example, researchers
at Stanford University found out
73
251783
3126
たとえばスタンフォード大の研究者が
発見したことですが
04:14
that it makes people really uncomfortable
74
254933
2001
ロボットであっても
陰部に触れるよう言われると
04:16
when you ask them to touch
a robot's private parts.
75
256958
2472
人はすごく気まずく
感じるんです
04:19
(Laughter)
76
259454
2120
(笑)
04:21
So from this, but from many other studies,
77
261598
2023
多くの研究から
04:23
we know, we know that people
respond to the cues given to them
78
263645
4223
こういう生き物のように
見えるロボットが出す合図に対し
04:27
by these lifelike machines,
79
267892
2022
人間は作り物だと
知りながら
04:29
even if they know that they're not real.
80
269938
2017
反応することが
分かっています
04:33
Now, we're headed towards a world
where robots are everywhere.
81
273654
4056
私達はロボットが至るところに
いるような世界へと向かっています
04:37
Robotic technology is moving out
from behind factory walls.
82
277734
3065
ロボット技術は
もはや工場の中だけのものではなく
04:40
It's entering workplaces, households.
83
280823
3013
オフィスや家庭へと
進出しています
04:43
And as these machines that can sense
and make autonomous decisions and learn
84
283860
6209
そういった場所へと
入ってくる
知覚し 自律的に決断し
学ぶことのできる機械に対して
04:50
enter into these shared spaces,
85
290093
2552
04:52
I think that maybe the best
analogy we have for this
86
292669
2496
最善のアナロジーとなるのは
04:55
is our relationship with animals.
87
295189
1935
動物との関係かもしれません
04:57
Thousands of years ago,
we started to domesticate animals,
88
297523
3888
数千年前に人類は
動物を家畜化するようになり
05:01
and we trained them for work
and weaponry and companionship.
89
301435
4045
労働や戦争のため また遊び相手として
飼い慣らしてきました
05:05
And throughout history, we've treated
some animals like tools or like products,
90
305504
4985
歴史を通して
ある動物は道具や商品として扱われ
05:10
and other animals,
we've treated with kindness
91
310513
2174
ある動物は
思いやりをもって扱われ
05:12
and we've given a place in society
as our companions.
92
312711
3078
社会の中で 人間の仲間としての
位置を与えられました
05:15
I think it's plausible we might start
to integrate robots in similar ways.
93
315813
3849
ロボットもまた同じように取り込まれて
いくというのは ありそうなことです
05:21
And sure, animals are alive.
94
321484
3096
もちろん動物は生きており
05:24
Robots are not.
95
324604
1150
ロボットは生きてはいません
05:27
And I can tell you,
from working with roboticists,
96
327626
2580
ロボット研究者と一緒に
働いている経験から言えますが
05:30
that we're pretty far away from developing
robots that can feel anything.
97
330230
3522
感情を持つロボットができるのは
随分先の話です
05:35
But we feel for them,
98
335072
1460
でも人間はロボットに同情し
05:37
and that matters,
99
337835
1207
そこが重要なんです
05:39
because if we're trying to integrate
robots into these shared spaces,
100
339066
3627
ロボットを社会に
取り込んでいくのであれば
05:42
we need to understand that people will
treat them differently than other devices,
101
342717
4628
人はロボットに対し
他の機械とは違った扱いをすることを
理解しておく必要があります
05:47
and that in some cases,
102
347369
1844
05:49
for example, the case of a soldier
who becomes emotionally attached
103
349237
3172
たとえば兵士が
一緒に働くロボットに
05:52
to the robot that they work with,
104
352433
2047
愛着を抱く場合などには
05:54
that can be anything
from inefficient to dangerous.
105
354504
2504
非効率さや危険をもたらす
可能性もあります
05:58
But in other cases,
it can actually be useful
106
358551
2138
でも他の場合には
ロボットへの感情的な繋がりを
育むことが 有用であり得ます
06:00
to foster this emotional
connection to robots.
107
360713
2623
06:04
We're already seeing some great use cases,
108
364184
2134
すでに素晴らしい実例が
知られています
06:06
for example, robots working
with autistic children
109
366342
2604
たとえば自閉症の子供が
ロボット相手に
06:08
to engage them in ways
that we haven't seen previously,
110
368970
3634
これまで見られなかった
反応を見せるとか
06:12
or robots working with teachers to engage
kids in learning with new results.
111
372628
4000
教師がロボットを使い 子供の学習で
新たな結果が得られているとか
06:17
And it's not just for kids.
112
377433
1381
またこれは
子供に限った話ではなく
06:19
Early studies show that robots
can help doctors and patients
113
379750
3223
医療現場でロボットが
医師や患者の助けに
なり得ることが示されています
06:22
in health care settings.
114
382997
1427
06:25
This is the PARO baby seal robot.
115
385535
1810
これは「パロ」という
赤ちゃんアザラシのロボットで
06:27
It's used in nursing homes
and with dementia patients.
116
387369
3285
養護施設や認知症患者のケアに
使われていて
06:30
It's been around for a while.
117
390678
1570
結構前からあるものです
06:32
And I remember, years ago,
being at a party
118
392272
3325
よく覚えていますが
何年も前にパーティーで
このロボットの話をしたところ
06:35
and telling someone about this robot,
119
395621
2571
相手がこう言ったんです
06:38
and her response was,
120
398216
2126
06:40
"Oh my gosh.
121
400366
1262
「それひどくないですか
06:42
That's horrible.
122
402508
1188
人間じゃなくロボットに
世話をさせるなんて信じられない」
06:45
I can't believe we're giving people
robots instead of human care."
123
405056
3397
06:50
And this is a really common response,
124
410540
1875
これは ごく一般的な反応で
06:52
and I think it's absolutely correct,
125
412439
2499
まったくもって
正しいと思います
06:54
because that would be terrible.
126
414962
2040
もしそうなら
酷い話ですから
06:57
But in this case,
it's not what this robot replaces.
127
417795
2484
でもこの場合 人間がロボットに
置き換わるわけではありません
07:00
What this robot replaces is animal therapy
128
420858
3120
置き換わるのは
動物介在療法で
07:04
in contexts where
we can't use real animals
129
424002
3198
本物の動物が
使えない場合に
ロボットを使うんです
07:07
but we can use robots,
130
427224
1168
07:08
because people will consistently treat
them more like an animal than a device.
131
428416
5230
人はロボットを機械よりは
動物のように扱いますから
07:15
Acknowledging this emotional
connection to robots
132
435502
2380
このロボットに対する感情的な
繋がりが分かっていれば
07:17
can also help us anticipate challenges
133
437906
1969
ロボットがより身近な存在に
なったときに起きる問題も
07:19
as these devices move into more intimate
areas of people's lives.
134
439899
3451
予期できるように
なるでしょう
07:24
For example, is it OK
if your child's teddy bear robot
135
444111
3404
たとえば子供の
テディベアロボットが
私的な会話を録音するのは
良いのかとか
07:27
records private conversations?
136
447539
2237
07:29
Is it OK if your sex robot
has compelling in-app purchases?
137
449800
4063
セックスロボットがApp内課金を促すのを
認めて良いのかとか
07:33
(Laughter)
138
453887
1396
(笑)
07:35
Because robots plus capitalism
139
455307
2501
ロボットと資本主義の
組み合わせには
07:37
equals questions around
consumer protection and privacy.
140
457832
3705
消費者保護やプライバシーの問題が
からんできますから
07:42
And those aren't the only reasons
141
462549
1612
でも機械に対する人間の振る舞いが
問題になりうるのは
07:44
that our behavior around
these machines could matter.
142
464185
2570
そういう理由ばかり
ではありません
07:48
A few years after that first
initial experience I had
143
468747
3270
あの赤ちゃん恐竜ロボットでの
07:52
with this baby dinosaur robot,
144
472041
2311
最初の経験から数年後に
07:54
I did a workshop
with my friend Hannes Gassert.
145
474376
2501
私は友人のハネス・ガッサートと
ワークショップを開きました
07:56
And we took five
of these baby dinosaur robots
146
476901
2897
赤ちゃん恐竜ロボットを
5体用意し
07:59
and we gave them to five teams of people.
147
479822
2453
それぞれ5つのグループに渡し
08:02
And we had them name them
148
482299
1697
名前を付けて
08:04
and play with them and interact with them
for about an hour.
149
484020
3809
1時間くらい
それで遊んでもらいました
08:08
And then we unveiled
a hammer and a hatchet
150
488707
2206
それからハンマーと
斧を出して
08:10
and we told them to torture
and kill the robots.
151
490937
2278
ロボットを痛め付けて
殺すように言いました
08:13
(Laughter)
152
493239
3007
(笑)
08:16
And this turned out to be
a little more dramatic
153
496857
2294
これは予期していたよりも
少しばかりショックを与えたようで
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants
would even so much as strike
155
500477
3072
参加者の誰も
赤ちゃん恐竜ロボットを
叩こうとさえしません
08:23
these baby dinosaur robots,
156
503573
1307
08:24
so we had to improvise a little,
and at some point, we said,
157
504904
5150
それでもっと後押ししなければ
ならなくなって 言いました
08:30
"OK, you can save your team's robot
if you destroy another team's robot."
158
510078
4437
「他のチームのロボットを壊せば
自分のチームのロボットは壊さなくていいです」
08:34
(Laughter)
159
514539
1855
(笑)
08:36
And even that didn't work.
They couldn't do it.
160
516839
2195
それでもうまくいかず
みんな手をこまねいています
08:39
So finally, we said,
161
519058
1151
最後には
こう言いました
08:40
"We're going to destroy all of the robots
162
520233
2032
「誰かが斧を手に取って
どれか1つに振り下ろさないなら
08:42
unless someone takes
a hatchet to one of them."
163
522289
2285
ロボットをみんな壊します」
08:45
And this guy stood up,
and he took the hatchet,
164
525586
3579
それで1人が立ち上がって
斧を手にし
08:49
and the whole room winced
as he brought the hatchet down
165
529189
2706
ロボットの首に
斧を振り下ろすと
08:51
on the robot's neck,
166
531919
1780
部屋にいたみんなが
ギクッとしました
08:53
and there was this half-joking,
half-serious moment of silence in the room
167
533723
6338
そして半分冗談 半分真剣な
しばしの沈黙が
倒れたロボットに
捧げられました
09:00
for this fallen robot.
168
540085
1698
09:01
(Laughter)
169
541807
1406
(笑)
09:03
So that was a really
interesting experience.
170
543237
3694
すごく面白い経験でした
09:06
Now, it wasn't a controlled
study, obviously,
171
546955
2459
これは対照試験では
ありませんでしたが
09:09
but it did lead to some
later research that I did at MIT
172
549438
2850
後に私がパラッシュ・ナンディーと
シンシア・ブリジールと一緒に
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
MITで行った研究に
繋がりました
09:14
where we had people come into the lab
and smash these HEXBUGs
174
554564
3627
実験室に来てもらった人たちに
この昆虫みたいな
09:18
that move around in a really
lifelike way, like insects.
175
558215
3087
生き物のように動き回る
HEXBUGを潰してもらいました
09:21
So instead of choosing something cute
that people are drawn to,
176
561326
3134
可愛くて惹かれる
ようなものではなく
09:24
we chose something more basic,
177
564484
2093
もっと簡素なロボットを
使ったんですが
09:26
and what we found
was that high-empathy people
178
566601
3480
共感力の強い人ほど
HEXBUGを潰すことに
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
ためらいを感じることが
分かりました
09:33
Now this is just a little study,
180
573575
1564
これはちっぽけな研究ですが
09:35
but it's part of a larger body of research
181
575163
2389
ずっと大きな研究領域の一部で
09:37
that is starting to indicate
that there may be a connection
182
577576
2944
人の共感傾向とロボットに対する
振る舞いの間には
09:40
between people's tendencies for empathy
183
580544
2373
09:42
and their behavior around robots.
184
582941
1976
繋がりがあることが
示されつつあります
09:45
But my question for the coming era
of human-robot interaction
185
585721
3627
来るべき人とロボット共生の
時代への疑問は
09:49
is not: "Do we empathize with robots?"
186
589372
3055
「人はロボットに共感するのか?」
ではなく
09:53
It's: "Can robots change
people's empathy?"
187
593211
2920
「ロボットは人の共感性を変えられるのか?」
ということです
09:57
Is there reason to, for example,
188
597489
2287
たとえばロボット犬を
蹴らないよう
09:59
prevent your child
from kicking a robotic dog,
189
599800
2333
子供をしつけることに
効果はあるのか—
10:03
not just out of respect for property,
190
603228
2914
物を大事にする
という点だけでなく
10:06
but because the child might be
more likely to kick a real dog?
191
606166
2953
本物の犬を蹴るような人間に
ならないようにするために
10:10
And again, it's not just kids.
192
610507
1883
これも子供に限ったこと
ではありません
10:13
This is the violent video games question,
but it's on a completely new level
193
613564
4056
暴力的ゲームの問題と同じに聞こえますが
まったく別次元の話で
10:17
because of this visceral physicality
that we respond more intensely to
194
617644
4760
画面上のイメージよりも
形あるものに対して
私たちはより強く
反応するからです
10:22
than to images on a screen.
195
622428
1547
10:25
When we behave violently towards robots,
196
625674
2578
特に生き物に似せてデザインされた
ロボットに対して
10:28
specifically robots
that are designed to mimic life,
197
628276
3120
暴力的に振る舞うのは
10:31
is that a healthy outlet
for violent behavior
198
631420
3892
暴力性に対する
健全なはけ口になるのか
10:35
or is that training our cruelty muscles?
199
635336
2544
それとも暴力性を
強めることになるのか?
10:39
We don't know ...
200
639511
1150
分かりません
10:42
But the answer to this question has
the potential to impact human behavior,
201
642622
3945
でもこの問いへの答えは
人間の行動や社会規範に
影響する可能性があり
10:46
it has the potential
to impact social norms,
202
646591
2768
10:49
it has the potential to inspire rules
around what we can and can't do
203
649383
3849
ロボットに対して何ができ
何ができないかという
ルールに繋がる
可能性があります
10:53
with certain robots,
204
653256
1151
10:54
similar to our animal cruelty laws.
205
654431
1848
ちょうど動物虐待防止法のように—
10:57
Because even if robots can't feel,
206
657228
2864
ロボットは何も感じないとしても
ロボットに対する振る舞いは
私たち自身に影響するかもしれないんです
11:00
our behavior towards them
might matter for us.
207
660116
3080
11:04
And regardless of whether
we end up changing our rules,
208
664889
2855
そして法律を変えることに
なるかどうかにかかわらず
11:08
robots might be able to help us
come to a new understanding of ourselves.
209
668926
3556
ロボットは人間についての
新たな理解をもたらすかもしれません
11:14
Most of what I've learned
over the past 10 years
210
674276
2316
この10年で私の
学んできたことの多くは
11:16
has not been about technology at all.
211
676616
2238
テクノロジーに
関することではなく
11:18
It's been about human psychology
212
678878
2503
人間の心理 共感
他人との関わり方についてです
11:21
and empathy and how we relate to others.
213
681405
2603
11:25
Because when a child is kind to a Roomba,
214
685524
2365
子供がルンバに対して
優しく接するとき
11:29
when a soldier tries to save
a robot on the battlefield,
215
689262
4015
兵士が戦場でロボットを
救おうとするとき
11:33
or when a group of people refuses
to harm a robotic baby dinosaur,
216
693301
3638
人々が赤ちゃん恐竜ロボットを
傷つけることを拒むとき
11:38
those robots aren't just motors
and gears and algorithms.
217
698248
3191
ロボットはモーターと歯車と
プログラムだけのものではありません
11:42
They're reflections of our own humanity.
218
702501
1905
私達自身の人間性の
反映なのです
11:45
Thank you.
219
705523
1151
ありがとうございました
11:46
(Applause)
220
706698
3397
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。