How we can build AI to help humans, not hurt us | Margaret Mitchell

81,080 views ・ 2018-03-12

TED


下の英語字幕をダブルクリックすると動画を再生できます。

校正: Masaki Yanagishita
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
コンピュータが 私たちの周りの世界について 情報交換する研究をしています
00:17
There are a lot of ways to do this,
1
17754
1793
やり方はたくさんありますが
00:19
and I like to focus on helping computers
2
19571
2592
中でも私が力を入れているのは
00:22
to talk about what they see and understand.
3
22187
2874
コンピュータが見て 理解したものを 語らせることです
00:25
Given a scene like this,
4
25514
1571
こんなシーンがあると
00:27
a modern computer-vision algorithm
5
27109
1905
最近のコンピュータビジョンの アルゴリズムは
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
女性と犬が映っていて
00:32
It can tell you that the woman is smiling.
7
32157
2706
女性が笑顔だ と教えてくれます
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
またその犬がとてもかわいいとも 教えてくれるかもしれません
00:38
I work on this problem
9
38784
1349
私はこの研究にあたって
00:40
thinking about how humans understand and process the world.
10
40157
4212
人間がどのように世界を理解し 処理するのか考えます
00:45
The thoughts, memories and stories
11
45577
2952
このようなシーンを見た時に
00:48
that a scene like this might evoke for humans.
12
48553
2818
人間が引き起こす 思考や記憶、物語などです
00:51
All the interconnections of related situations.
13
51395
4285
関係するシチュエーションのすべてを お互いにつなぎ合わせることです
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
みなさんもこれまでに こんな犬を見たことがあるでしょう
00:58
or you've spent time running on a beach like this one,
15
58854
2969
こんなビーチで 走ったことがあるかもしれません
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
休暇のときに考えたことや記憶
01:06
past times to the beach,
17
66649
1920
ビーチで過ごした時間
01:08
times spent running around with other dogs.
18
68593
2603
別の犬と走り回った思い出なども 思い起こしたかもしれません
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
私の基本理念の一つは
01:16
what it's like to have these experiences,
20
76919
2896
このような経験の意味を コンピュータに理解させたり
01:19
to understand what we share and believe and feel,
21
79839
5176
私たちが共有し 信じ 感じたものを 理解させたりすることで
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
私たち自身の経験を補完する方向に コンピュータ技術を進化させるという
01:30
in a way that's complementary with our own experiences.
23
90428
4587
重要な役割を担うということです
01:35
So, digging more deeply into this,
24
95539
3387
さらに深堀りしていきましょう
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
数年前 私はある研究を始めました 一連の画像からコンピュータに
01:44
from sequences of images.
26
104879
1666
人間らしい物語を作らせる試みです
01:47
So, one day,
27
107427
1904
ある日のこと
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
オーストラリア旅行のことを考えるよう コンピュータに尋ねました
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
画像の中から コアラを見つけました
01:58
It didn't know what the koala was,
30
118236
1643
コアラが何なのか コンピュータは知りません
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
でも「コアラが 面白い外見の動物だ」 と言ったのです
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
また 家が焼け落ちる一連の画像を 見せたこともありました
02:09
It took a look at the images and it said,
33
129704
3285
それを見てコンピュータはこう言いました
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
「これはすごい光景だ!壮観だ!」
02:17
It sent chills down my spine.
35
137450
2095
私の背筋が凍りました
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
コンピュータが見たものは 命の危険を 伴うような恐ろしい出来事ですが
02:25
and thought it was something positive.
37
145579
2382
何か良いことのように 解釈しているのです
02:27
I realized that it recognized the contrast,
38
147985
3441
画像からコントラストや
02:31
the reds, the yellows,
39
151450
2699
赤や黄色を認識し
02:34
and thought it was something worth remarking on positively.
40
154173
3078
なにか良いことと解釈するに値すると 思ったのです
02:37
And part of why it was doing this
41
157928
1615
そしてコンピュータがそう思ったのは
02:39
was because most of the images I had given it
42
159577
2945
与えた画像のほとんどが 肯定的なものだったせいもあるでしょう
02:42
were positive images.
43
162546
1840
02:44
That's because people tend to share positive images
44
164903
3658
実際 私たちが自分の経験を 人に話すときは
02:48
when they talk about their experiences.
45
168585
2190
肯定的な画像を共有しようとしますよね
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
お葬式での自撮り写真なんか 見たことがありますか?
02:55
I realized that, as I worked on improving AI
47
175434
3095
AIの研究をしていて 気づいたことがあります
02:58
task by task, dataset by dataset,
48
178553
3714
数々の課題やデータセットを扱う中で
03:02
that I was creating massive gaps,
49
182291
2897
コンピュータが理解できるものの中に
03:05
holes and blind spots in what it could understand.
50
185212
3999
大きな飛躍 欠落 盲点を 生み出していました
03:10
And while doing so,
51
190307
1334
またその過程で
03:11
I was encoding all kinds of biases.
52
191665
2483
あらゆる種類の先入観を 埋め込んでいました
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
限定された観点による先入観
03:18
limited to a single dataset --
54
198371
2261
単一のデータセットによる先入観
03:21
biases that can reflect human biases found in the data,
55
201283
3858
データ中の 人間の先入観を 反映することもあります
03:25
such as prejudice and stereotyping.
56
205165
3104
偏見や固定観念などです
03:29
I thought back to the evolution of the technology
57
209554
3057
私をその日まで導いた
03:32
that brought me to where I was that day --
58
212635
2502
テクノロジーの進化を振り返ってみました
03:35
how the first color images
59
215966
2233
初めての カラー画像の色合いは
03:38
were calibrated against a white woman's skin,
60
218223
3048
白人女性の皮膚の色を基準に 調整されていました
03:41
meaning that color photography was biased against black faces.
61
221665
4145
黒人の顔は 基準から外れるという意味です
03:46
And that same bias, that same blind spot
62
226514
2925
また 同様の先入観や盲点が
03:49
continued well into the '90s.
63
229463
1867
90年代に入ってもずっと続きました
03:51
And the same blind spot continues even today
64
231701
3154
同じような盲点が今日までも 続いていて
03:54
in how well we can recognize different people's faces
65
234879
3698
異なる人間の顔を いかに区別して 認識するかを研究する
03:58
in facial recognition technology.
66
238601
2200
顔認識技術の分野に見られます
04:01
I though about the state of the art in research today,
67
241323
3143
今日の研究の最先端について思うのは
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
1つのデータセット 1つの課題に 考えを限定しがちで
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
そのせいで さらに盲点や 先入観を生み出し
04:14
that the AI could further amplify.
70
254593
2277
AIがさらにそれを 増幅する可能性があることです
04:17
I realized then that we had to think deeply
71
257712
2079
だから当時私たちは 今研究しているテクノロジーが
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
5年後 10年後にどう見えているかを 深く考えなければならないと思いました
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
人間はゆっくり進化し その間に 人間同士の関係や
04:29
in the interaction of humans and their environment.
74
269156
3534
周囲の環境について 問題を是正する時間があります
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
一方 人工知能は 信じられないほどの速さで 進化しています
04:39
And that means that it really matters
76
279013
1773
だから私たちは なおさら
04:40
that we think about this carefully right now --
77
280810
2317
今すぐ このことを慎重に検討し
04:44
that we reflect on our own blind spots,
78
284180
3008
私たち自身の盲点や先入観について
04:47
our own biases,
79
287212
2317
よく考えなければなりません
04:49
and think about how that's informing the technology we're creating
80
289553
3857
また それらが私たちのテクノロジーに どのように情報を供与するかを考え
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
今日のテクノロジーが 明日どのような 意味を持つのか議論しなければなりません
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
企業のトップや科学者は 自分たちの考えた
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
来るべき未来の人工知能技術に 力を注いできました
05:05
Stephen Hawking warns that
84
305157
1618
スティーブン・ホーキングは
05:06
"Artificial intelligence could end mankind."
85
306799
3007
「人工知能が人類を滅ぼす可能性がある」と 警鐘を鳴らしています
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
イーロン・マスクは 人工知能を
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
私たちの文明が直面する 存亡に関わる 最大級の脅威だと警告します
05:17
Bill Gates has made the point,
88
317665
1452
ビル・ゲイツも
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
「なぜ皆が心配しないのか 理解できない」と指摘しています
05:23
But these views --
90
323412
1318
しかしそれらの見方は
05:25
they're part of the story.
91
325618
1734
ほんの一部の意見です
05:28
The math, the models,
92
328079
2420
数学やモデルなど
05:30
the basic building blocks of artificial intelligence
93
330523
3070
人工知能の基本的な構成要素は
05:33
are something that we call access and all work with.
94
333617
3135
誰でもアクセスして 利用できるものです
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
機械学習・人工知能向けの オープンソース・ツールがあり
05:40
that we can contribute to.
96
340585
1734
私たちが貢献することもできます
05:42
And beyond that, we can share our experience.
97
342919
3340
さらに個人の経験も共有できます
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
技術についての経験や それがどのように自分たちに関係し
05:50
and how it excites us.
99
350252
1467
興奮させるかを共有できます
05:52
We can discuss what we love.
100
352251
1867
大好きなものについて 意見交換ができます
05:55
We can communicate with foresight
101
355244
2031
技術的な側面のうち
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
時間が経つにつれて 次第に有益になる面や 問題を生み出す面について
06:02
or could be more problematic over time.
103
362180
2600
私たちは展望を持って 話し合うことができます
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
もし私たち皆が未来への展望をもって AIに関する議論の輪を
06:09
with foresight towards the future,
105
369966
1809
広げることに注目すれば
06:13
this will help create a general conversation and awareness
106
373093
4270
現在のAIはどのようなものか
06:17
about what AI is now,
107
377387
2513
これからどのようになりえるのか
06:21
what it can become
108
381212
2001
そして自分たちに最適な 最終結果を得るために
06:23
and all the things that we need to do
109
383237
1785
しなければならないことについて
06:25
in order to enable that outcome that best suits us.
110
385046
3753
一般的な議論や認識が高まるでしょう
06:29
We already see and know this in the technology that we use today.
111
389490
3674
私たちは このことを 現在のテクノロジーを見て知っています
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
スマートフォン、デジタルアシスタント そして「ルンバ」などです
06:38
Are they evil?
113
398457
1150
それらは悪でしょうか?
06:40
Maybe sometimes.
114
400268
1547
時にはそうかもしれません
06:42
Are they beneficial?
115
402664
1333
では有益なものでしょうか?
06:45
Yes, they're that, too.
116
405005
1533
そうともいえます
06:48
And they're not all the same.
117
408236
1761
そして すべてが同じではありません
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
また 未来に輝くものが すでに見えます
06:54
The future continues on from what we build and create right now.
119
414942
3619
私たちが今作り上げているものが 未来へと続きます
06:59
We set into motion that domino effect
120
419165
2642
AIの進化の道すじを切り開く
07:01
that carves out AI's evolutionary path.
121
421831
2600
ドミノ効果を作動させます
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
今この時 私たちは明日のAIを 形作っているのです
07:08
Technology that immerses us in augmented realities
123
428566
3699
過去の世界を 拡張現実として蘇らせ
07:12
bringing to life past worlds.
124
432289
2566
人間を夢中にさせる技術
07:15
Technology that helps people to share their experiences
125
435844
4312
また コミュニケーションが難しい時でも
07:20
when they have difficulty communicating.
126
440180
2262
経験を共有するのに役立つ技術もあります
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
常に変化する「ストリーミング」の性質を持つ 視覚世界の理解を基礎にした技術は
07:27
used as technology for self-driving cars.
128
447879
3079
自動運転車に使われます
07:32
Technology built on understanding images and generating language,
129
452490
3413
画像を理解し 言葉を生み出す技術は
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
視覚障害者が 視覚世界にアクセスすることを
07:40
be better able to access the visual world.
131
460014
2800
支援する技術へと進化しています
07:42
And we also see how technology can lead to problems.
132
462838
3261
同時に そうした技術が引き起こす 問題もあります
07:46
We have technology today
133
466885
1428
現在 ヒト生来の身体的な特徴
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
たとえば 皮膚の色や 顔の外見などを
07:52
such as the color of our skin or the look of our face --
135
472196
3272
解析する技術があり
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
それで 犯罪者やテロリストかどうかを 識別しようとします
07:59
We have technology that crunches through our data,
137
479688
2905
ローンの承認審査のために
08:02
even data relating to our gender or our race,
138
482617
2896
性別や人種に関わるデータまで含めて
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
大量のデータを処理する技術があります
08:09
All that we see now
140
489494
1579
現在私たちが見ているものは
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
進化し続けるAIの 一瞬をとらえたものにすぎません
08:15
Because where we are right now,
142
495763
1778
なぜなら 私たちは 今まさに
08:17
is within a moment of that evolution.
143
497565
2238
AI進化の途上にあるからです
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
つまり 私たちが今やったことが 将来起こることに
08:24
and in the future.
145
504516
1200
影響するということです
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
もし人間に役立つよう AIを進化させたいなら
08:30
then we need to define the goals and strategies
147
510038
2801
今 ゴールと戦略を明確にして
08:32
that enable that path now.
148
512863
1733
道筋をつけなければなりません
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
私が期待するのは
08:39
with our culture and with the environment.
150
519442
2800
人間やその文化 そして環境に よくなじむAIです
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
神経疾患などの障害を抱えていても 誰もが同じように
08:47
or other disabilities
152
527943
1721
やりがいを感じて生きることを
08:49
in order to make life equally challenging for everyone.
153
529688
3216
補助してくれる技術です
08:54
Technology that works
154
534097
1421
その人の属性や 皮膚の色によらず
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
うまく機能する技術です
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
そして今日 私がお話ししてきたのは 明日へ そして10年後へと
09:05
and for 10 years from now.
157
545149
1733
つながる技術です
09:08
AI can turn out in many different ways.
158
548530
2634
AIは 様々な方向に進む可能性がありますが
09:11
But in this case,
159
551688
1225
それらは 目的地のない
09:12
it isn't a self-driving car without any destination.
160
552937
3328
自動運転車ではありません
09:16
This is the car that we are driving.
161
556884
2400
まさに私たちが運転している車なのです
09:19
We choose when to speed up and when to slow down.
162
559953
3595
いつ加速するか ブレーキを踏むか
09:23
We choose if we need to make a turn.
163
563572
2400
いつ曲がるか それを私たちが選ぶのです
09:26
We choose what the AI of the future will be.
164
566868
3000
そして 未来のAIがどうなるかについても 私たちが選ぶのです
09:31
There's a vast playing field
165
571186
1337
AIがなれるものの可能性は広大です
09:32
of all the things that artificial intelligence can become.
166
572547
2965
09:36
It will become many things.
167
576064
1800
いろいろなものに発展するでしょう
09:39
And it's up to us now,
168
579694
1732
どうなるかは私たち次第です
09:41
in order to figure out what we need to put in place
169
581450
3061
どうか考えてみてください AIのもたらすものが
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
私たちすべてにとって よりよいものになるよう
09:48
are the ones that will be better for all of us.
171
588366
3066
今何をすべきかを
09:51
Thank you.
172
591456
1150
ありがとうございました
09:52
(Applause)
173
592630
2187
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7