How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


下の英語字幕をダブルクリックすると動画を再生できます。

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
翻訳: Hiroshi Uchiyama 校正: Masaki Yanagishita
00:13
I consider myself one part artist and one part designer.
1
13760
4680
私は自分をある意味では芸術家であり ある意味ではデザイナーだと思っています
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
私の勤め先は ある人工知能研究所です
00:22
We're trying to create technology
3
22720
1696
私たちが創造しようとしているのは
00:24
that you'll want to interact with in the far future.
4
24440
3296
遠い将来に皆さんが 交流したくなるような技術です
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
これから6ヶ月という将来ではなく 何年も何十年も先の将来です
00:33
And we're taking a moonshot
6
33120
1616
人がコンピュータと
00:34
that we'll want to be interacting with computers
7
34760
2456
深い感情のこもった交流を したくなる未来を目指すという
00:37
in deeply emotional ways.
8
37240
2120
壮大な取り組みです
00:40
So in order to do that,
9
40280
1456
それが実現する技術は
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
人工でありながら人間らしさも 備えていなくてはならず
00:46
It has to get you.
11
46920
2256
人を理解しなくてはなりません
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
ほら 親友と二人で 笑い転げてしまうような
00:52
on the floor, cracking up.
13
52560
1936
内輪ネタの冗談だったり
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
何キロ離れていても感じ取れる 失望の表情だったりです
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
私は人間と機械のギャップを取り持つためには 芸術が役立つと見ています
01:07
to figure out what it means to get each other
16
67280
3136
相互に理解するということが 何かを見いだせれば
01:10
so that we can train AI to get us.
17
70440
2760
私たちを理解する方法を AIに訓練できます
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
実体的な体験を 実体のないアイデアや感覚や感情に
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
付け加える方法の1つが 芸術だと私は思います
01:21
And I think it's one of the most human things about us.
20
81800
2600
人間らしさが最も現れるのが 芸術だと思うのです
01:25
See, we're a complicated and complex bunch.
21
85480
2936
私たちは複雑で複合的な集団です
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
限り無く広がる感情を 私たちは持っており
01:31
and to top it off, we're all different.
23
91600
2496
なおその上 誰もが みな違うのです
01:34
We have different family backgrounds,
24
94120
2296
異なる家庭環境があり
01:36
different experiences and different psychologies.
25
96440
3080
異なる経験をして 異なる心理を持っています
01:40
And this is what makes life really interesting.
26
100240
2720
だからこそ人生は実に面白いのですが
01:43
But this is also what makes working on intelligent technology
27
103440
3496
一方で この多様性があるからこそ 人工知能技術に取り組むのは
01:46
extremely difficult.
28
106960
1600
この上なく困難なのです
01:49
And right now, AI research, well,
29
109640
3456
現在人工知能の研究は
01:53
it's a bit lopsided on the tech side.
30
113120
2016
技術的側面に偏っています
01:55
And that makes a lot of sense.
31
115160
2136
それはその通りなのです
01:57
See, for every qualitative thing about us --
32
117320
2456
私たちに関する 定性的なものを―
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
私たちの感情的、動的 主観的な部分ですが―
02:04
we have to convert it to a quantitative metric:
34
124280
3136
すべて定量的な形に 変換しなければなりません
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
事実や数字やコンピュータプログラム等に 表せるものに変換するのです
02:13
The issue is, there are many qualitative things
36
133000
3376
これらの中には どうしても扱いきれない
02:16
that we just can't put our finger on.
37
136400
1960
多くの定性的な物が あることが問題です
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
あなたのお気に入りの曲を 最初に聞いたときのことを考えて下さい
02:25
What were you doing?
39
145200
1200
何をしている時でしたか?
どんな感じがしましたか?
02:28
How did you feel?
40
148000
1200
02:30
Did you get goosebumps?
41
150720
1360
鳥肌が立ちましたか?
02:33
Or did you get fired up?
42
153240
1640
情熱が燃え上がりましたか?
02:36
Hard to describe, right?
43
156400
1200
表現しにくいでしょう?
02:38
See, parts of us feel so simple,
44
158800
2096
感覚はとても単純です
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
でも 表面下には 膨大な複雑さが存在しています
02:44
And translating that complexity to machines
46
164600
2936
その複雑さを機械向きに翻訳するのは
02:47
is what makes them modern-day moonshots.
47
167560
2856
現代版 「月ロケット打ち上げ」 (壮大な取り組み)なのです
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
このような深い質問に 1と0の組み合わせだけで答えられるか
02:54
with just ones and zeros alone.
49
174640
1480
確信はありません
02:57
So, in the lab, I've been creating art
50
177120
1936
私は最先端技術の体験を改善する—
02:59
as a way to help me design better experiences
51
179080
2456
設計に役立てる方法として
03:01
for bleeding-edge technology.
52
181560
2096
研究所で芸術作品を作ってきました
03:03
And it's been serving as a catalyst
53
183680
1736
それはコンピュータが私たちに
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
より人間的に関わる方法を強化する 触媒のように作用してきました
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
芸術を介して 例えば「感じる」とは どういう意味かといったような
03:12
like what does it really mean to feel?
56
192720
2360
答えに窮する質問の意味を 教えています
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
あるいは 人はどのように関わり合い 触れ合う方法を知るのか?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
そして 直感はどのように 私たちの交流に影響するのか?
03:26
So, take for example human emotion.
59
206440
2056
人間の感情を例に取ってみましょう
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
現時点でコンピュータは 私たちの基礎的な感情
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
喜び、悲しみ、怒り、恐怖 それから嫌悪感といったものを
03:35
by converting those characteristics to math.
62
215520
3000
その性質を数式に変換することで 理解できます
03:39
But what about the more complex emotions?
63
219400
2536
ではさらに複雑な感情では どうでしょうか?
03:41
You know, those emotions
64
221960
1216
互いに説明するのに
03:43
that we have a hard time describing to each other?
65
223200
2376
苦労するような感情のことです
03:45
Like nostalgia.
66
225600
1440
例えばノスタルジアとかです
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
これを探求するため 人々に記憶を共有するような
03:51
that asked people to share a memory,
68
231600
2096
ちょっとした芸術 ちょっとした体験を作り
03:53
and I teamed up with some data scientists
69
233720
2136
データ科学者とチームを組んで
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
高度に主観的な感情を 数学的に正確なものに
03:59
and convert it into something mathematically precise.
71
239480
3200
変換する方法を考案しようとしました
04:03
So, we created what we call a nostalgia score
72
243840
2136
「ノスタルジア指標」というものを作り
04:06
and it's the heart of this installation.
73
246000
2216
これがこの装置の要となります
04:08
To do that, the installation asks you to share a story,
74
248240
3056
指標の計算のために この装置は 体験談の共有を求めてきます
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
コンピュータは より単純な感情の集合として分析し
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
過去時制の使用傾向を調べると同時に
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
ノスタルジアによく関連付けられる単語
04:20
like "home," "childhood" and "the past."
78
260640
3040
たとえば「故郷」 「子供の頃」 「過去」などの単語を探します
04:24
It then creates a nostalgia score
79
264760
2056
そして その話がどのくらい ノスタルジックかという
04:26
to indicate how nostalgic your story is.
80
266840
2736
ノスタルジア指標をはじき出します
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
その指標こそが この光を使った芸術作品の核心で
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
実体を持って表現された形として あなたの気持ちを代弁するのです
04:37
And the higher the score, the rosier the hue.
83
277680
3216
点数が高くなるほど 濃いバラ色になります
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
バラ色のメガネを通して 世界を見ているようなものです
04:44
So, when you see your score
85
284880
2616
出てきた自分の指標や
04:47
and the physical representation of it,
86
287520
2656
それを実体化した表現を見た時
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
結果に同意できることもあれば できないこともあるかもしれません
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
話した体験から生まれた感情を あたかも理解しているように思えたり
04:57
But other times it gets tripped up
89
297400
2216
逆に 見当違いの答えを出して あなたを全然理解していないと
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
思うこともあるでしょう
05:02
But the piece really serves to show
91
302680
1896
でもこの作品から はっきりわかるのです
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
人同士でさえ お互いの感情を 説明するのに苦労するのならば
05:08
how can we teach a computer to make sense of them?
93
308680
2360
機械に感情を理解する方法を 教えるのがどれだけ難しいか
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
人間らしさの中で比較的客観的な要素でさえ 説明するのは難しいのです
05:15
Like, conversation.
95
315960
1240
例えば会話です
05:17
Have you ever really tried to break down the steps?
96
317880
2736
会話の段階を分析したことはありますか?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
喫茶店で友達と 他愛もない話をしていると
05:23
and just having small talk.
98
323320
1320
想像してください
05:25
How do you know when to take a turn?
99
325160
1720
自分が話す番だと どうやって見極めるか?
05:27
How do you know when to shift topics?
100
327440
1840
話題を変えるタイミングは?
05:29
And how do you even know what topics to discuss?
101
329960
2720
そもそも どんな話題にしようか?
05:33
See, most of us don't really think about it,
102
333560
2096
ほとんどの人はそんなことを考えませんね
05:35
because it's almost second nature.
103
335680
1656
習慣化しているからです
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
誰かのことをもっと知ろうという時 まず 何が相手の興味を引くかを知り
05:40
and then we learn what topics we can discuss.
105
340880
2376
そうして何を話題にするかがわかります
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
しかしAIに人間との交流方法を 教えるとなると
05:46
we have to teach them step by step what to do.
107
346960
2856
何をすべきか段階を踏んで 教えなければなりません
05:49
And right now, it feels clunky.
108
349840
3496
現在はまだ ぎこちないですよね
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
アレクサ、シリ、グーグルアシスタントなどと 話したことがある方は
05:57
you can tell that it or they can still sound cold.
110
357520
4200
どれも まだまだ冷淡な話し方をすると お分かりだと思います
06:02
And have you ever gotten annoyed
111
362440
1656
そして あなたの言ったことを
06:04
when they didn't understand what you were saying
112
364120
2256
理解できないと言われてイラついたり
音楽を流すために 20回も言い換えるはめに なったりしたことはありませんか?
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
設計者の名誉のために言えば 自然な コミュニケーションは本当に難しいのです
06:16
And there's a whole branch of sociology,
115
376360
2136
社会学のれっきとした一部門である
06:18
called conversation analysis,
116
378520
1936
会話分析と呼ばれる分野では
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
いろいろなタイプの会話の 設計図を作ろうとしています
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
カスタマーサービス、カウンセリングや 教育といったタイプです
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
私は研究所で会話分析家と協働して
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
AIがもっと自然な会話ができるような 支援を試みています
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
この方法ならスマホの チャットボットや
06:39
or a voice-based system in the car,
122
399760
1856
車内音声システムとの会話に
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
冷淡さや支離滅裂さが減り より人間らしく響くようになります
06:46
So I created a piece of art
124
406360
1336
そこで芸術作品を作りました
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
ロボットっぽくぎこちない会話を あえて目立たせて
06:50
to help us understand, as designers,
126
410560
1976
なぜ人間らしく聞こえないのか
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
それに対して何をすればいいかについて 私たち設計者の理解を促す作品です
06:57
The piece is called Bot to Bot
128
417160
1456
Bot to Bot(ボットからボットへ) という作品で
06:58
and it puts one conversational system against another
129
418640
2936
チャットボット同士で会話させ
07:01
and then exposes it to the general public.
130
421600
2536
その内容を一般に公開するシステムです
07:04
And what ends up happening is that you get something
131
424160
2496
チャットボットは 人間の会話を
07:06
that tries to mimic human conversation,
132
426680
1896
模倣しようと試みますが
07:08
but falls short.
133
428600
1896
何か物足りないものになります
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
時々はうまく行きますが 時々は
07:13
loops of misunderstanding.
135
433280
1536
誤解の連鎖が起こるのです
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
機械と機械の会話が 文法上正しく
07:17
grammatically and colloquially,
137
437960
2016
口語として意味をなしたとしても
07:20
it can still end up feeling cold and robotic.
138
440000
3216
まだ冷淡でロボットぽく なることがあります
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
条件は満たしているのですが 会話に魂が宿りません
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
人間らしい 偶発性もないのです
07:30
So while it might be grammatically correct
141
450440
2056
文法的には正しいものであって
07:32
and uses all the right hashtags and emojis,
142
452520
2656
正しいハッシュタグや 絵文字を使っていても
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
機械的に聞こえたり 気味の悪いものになったりします
07:39
And we call this the uncanny valley.
144
459360
2336
「不気味の谷現象」と呼んでおり
07:41
You know, that creepiness factor of tech
145
461720
1936
科学技術の気味悪さです
07:43
where it's close to human but just slightly off.
146
463680
2856
人間に近づいているのですが 何か違和感があるのです
07:46
And the piece will start being
147
466560
1456
そしてその作品は
07:48
one way that we test for the humanness of a conversation
148
468040
3216
会話の人間らしさと 翻訳によって失われる部分を評価する
07:51
and the parts that get lost in translation.
149
471280
2160
ひとつの手法になろうとしています
07:54
So there are other things that get lost in translation, too,
150
474560
2856
翻訳で失われるものは他にもあって
07:57
like human intuition.
151
477440
1616
たとえば 人間の直感です
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
現在コンピュータが 自立し始めていて
08:01
They can take care of things for us,
153
481880
1736
私たちの好みに会わせた 家の温度調節や
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
高速道路での運転の補助まで
08:06
and even help us drive on the freeway.
155
486840
2160
身の回りの世話を任せることができます
08:09
But there are things that you and I do in person
156
489560
2496
でも 人と人が 直接会ってすることの中には
08:12
that are really difficult to translate to AI.
157
492080
2760
AIに対する翻訳が 本当に難しいものもあります
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
昔のクラスメイトや同僚に 最後に会った時のことを思い出してください
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
ハグしましたか? それとも握手しましたか?
08:24
You probably didn't think twice
160
504800
1496
いちいち迷いませんでしたよね
08:26
because you've had so many built up experiences
161
506320
2336
なぜなら あなたに ハグか握手かを選択させる
08:28
that had you do one or the other.
162
508680
2000
多くの経験の蓄積があるからです
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
芸術家として感じているのは 人の直感に訴え
08:34
your unconscious knowing,
164
514920
1416
無意識の認知に訴えることが
08:36
is what helps us create amazing things.
165
516360
3056
素晴らしい創造活動の 手助けになるということです
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
人間の意識内にある 抽象的で 非線形な部分から生まれる壮大なアイデアは
08:43
that is the culmination of all of our experiences.
167
523520
2960
積み重なる経験の賜物なのです
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
コンピュータに私たちの気持ちを理解させ 創造力を増幅する助けになってほしいなら
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
どうしたらコンピュータに直感力を 与えられるかを考え始める必要があります
08:56
So I wanted to explore how something like human intuition
170
536440
3096
人間の直感のようなものを どうやって
08:59
could be directly translated to artificial intelligence.
171
539560
3456
AIに直接翻訳できるかを 探求したいと思い
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
コンピュータが生み出す直感を 物理的な空間の中で探求する作品を
09:06
in a physical space.
173
546280
1320
製作しました
09:08
The piece is called Wayfinding,
174
548480
1696
「道程探求(Wayfinding)」という作品で
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
4つの動的彫刻を持つ 象徴的なコンパスとして制作されました
09:14
Each one represents a direction,
176
554160
2056
それぞれの部分が方位を表します
09:16
north, east, south and west.
177
556240
2120
北、東、南、西です
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
4つの彫刻の頂上部に あなたとの距離を計測する
09:21
that capture how far away you are from them.
179
561800
2256
センサーが取り付けられています
09:24
And the data that gets collected
180
564080
1816
計測されたデータは
09:25
ends up changing the way that sculptures move
181
565920
2136
その彫刻の動きと コンパスの向きに
09:28
and the direction of the compass.
182
568080
2040
反映されます
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
ただし この作品は 正面に歩いて行くと開くだけの
09:35
that just opens when you walk in front of it.
184
575040
2656
自動ドアのセンサーの様な ものではありません
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
あなたの関与はその作品が収集する 実体験の一部でしかないのです
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
そのような体験すべてが 作品の動きに影響します
09:46
So when you walk in front of it,
187
586880
1736
正面に歩いて行くと
09:48
it starts to use all of the data
188
588640
1976
これまで出してきた展示会で 取り込んだデータ全て
09:50
that it's captured throughout its exhibition history --
189
590640
2616
09:53
or its intuition --
190
593280
1816
というか「直感」を活用し始め
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
他の人々から学んだことを踏まえて 機械的な動きであなたに反応します
09:59
And what ends up happening is that as participants
192
599480
2536
こうして参加者としての私たちは
10:02
we start to learn the level of detail that we need
193
602040
2816
人間と機械両方の期待を 裏切らないためには
10:04
in order to manage expectations
194
604880
2016
どの程度の具体性が必要なのか
10:06
from both humans and machines.
195
606920
2776
理解し始めます
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
あらゆるデータが頭の中で処理されていく その様子が目に浮かび
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
人の直感の働きがコンピュータにより 再現される様子が見えるかのようです
10:17
My hope is that this type of art
198
617560
1656
このような芸術は
10:19
will help us think differently about intuition
199
619240
2416
直感についての 違った見方を提供し そして
10:21
and how to apply that to AI in the future.
200
621680
2280
それを将来のAIに適用できると 期待しています
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
これらの作品は人工知能の デザイナーかつ研究者である私が
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
芸術作品を仕事に使う ほんのいくつかの例ですが
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
イノベーションを推進する 極めて重要な方法であると考えています
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
現在 AIに関しては極端な面が 多くあるからです
10:39
Popular movies show it as this destructive force
205
639480
2816
大衆映画では 破壊兵器として描かれる一方で
10:42
while commercials are showing it as a savior
206
642320
3056
宣伝広告では 世界の最も複雑な問題を解決する—
10:45
to solve some of the world's most complex problems.
207
645400
2936
救世主であるかのように 取り扱っています
10:48
But regardless of where you stand,
208
648360
2536
しかし 皆さんがどうお考えであろうが
10:50
it's hard to deny that we're living in a world
209
650920
2176
毎秒毎秒 デジタル化が 進行している世界で
10:53
that's becoming more and more digital by the second.
210
653120
2576
暮らしていることは否定できません
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
私たちの生活はデバイスや スマート機器などを中心に廻っています
11:01
And I don't think this will let up any time soon.
212
661400
2320
このような状況が落ち着くことは しばらくないでしょう
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
だからこそ始めから人間味を 埋め込みたいと思うのです
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
芸術をAI研究の手法に取り込むことが まさにその道筋だと
11:13
is a way to do just that.
215
673320
1896
予感しているのです
11:15
Thank you.
216
675240
1216
ありがとう
11:16
(Applause)
217
676480
2280
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7