The moral bias behind your search results | Andreas Ekström

145,897 views ・ 2015-12-07

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yuko Yoshida 校正: Masako Kigami
00:13
So whenever I visit a school and talk to students,
0
13087
2493
学校で生徒たちに話す機会があると
00:15
I always ask them the same thing:
1
15604
2143
必ず聞くことがあります
00:18
Why do you Google?
2
18754
1434
「なぜGoogle検索するの?
00:20
Why is Google the search engine of choice for you?
3
20624
3397
なぜ検索エンジンにGoogleしか選ばないの?」
00:24
Strangely enough, I always get the same three answers.
4
24855
2552
不思議と 返ってくる答えは 決まってこの3つです
00:27
One, "Because it works,"
5
27431
2039
1つ目は「うまく検索できるから」
00:29
which is a great answer; that's why I Google, too.
6
29494
2906
ご名答です 私も同じ理由でGoogleを使っています
00:32
Two, somebody will say,
7
32424
2033
2つ目は―
00:34
"I really don't know of any alternatives."
8
34481
2640
「ほかの検索エンジンを知らないから」
00:37
It's not an equally great answer and my reply to that is usually,
9
37708
3128
ちょっと惜しい たいてい 私はこう返します
00:40
"Try to Google the word 'search engine,'
10
40860
1921
「Googleで『検索エンジン』を
00:42
you may find a couple of interesting alternatives."
11
42805
2402
検索してごらん ほかにも面白いのがあるよ」
00:45
And last but not least, thirdly,
12
45231
2095
そして トリとなる3つ目です
00:47
inevitably, one student will raise her or his hand and say,
13
47350
3310
必ず 手を挙げて 満を持して言う子がいるんです
00:50
"With Google, I'm certain to always get the best, unbiased search result."
14
50684
5183
「Googleを使うと 絶対に 常に最高で公正な検索結果が得られるから」
00:57
Certain to always get the best, unbiased search result.
15
57157
6506
絶対に 常に最高で公正な 検索結果が得られる―
01:05
Now, as a man of the humanities,
16
65091
2390
これを耳にするたび デジタル世代とはいえ
01:07
albeit a digital humanities man,
17
67505
2181
人類のひとりとして
01:09
that just makes my skin curl,
18
69710
1738
虫唾(むしず)が走ります
01:11
even if I, too, realize that that trust, that idea of the unbiased search result
19
71472
4886
みんながGoogleを愛し 大事にしているからこそ
01:16
is a cornerstone in our collective love for and appreciation of Google.
20
76382
3855
「公正な検索結果」と信じ 考えるのだと わかっていてもです
01:20
I will show you why that, philosophically, is almost an impossibility.
21
80658
4258
公正な結果など 哲学的にほぼありえません なぜかご説明しましょう
01:24
But let me first elaborate, just a little bit, on a basic principle
22
84940
3254
でも まず検索の基本原理について 少しだけお話しさせてください
01:28
behind each search query that we sometimes seem to forget.
23
88218
3113
みんな 忘れてしまいがちなことです
01:31
So whenever you set out to Google something,
24
91851
2080
Googleで何かを検索するとき
01:33
start by asking yourself this: "Am I looking for an isolated fact?"
25
93955
3927
まず考えるべきは 「個別の事実を知りたいのか?」
01:38
What is the capital of France?
26
98334
3161
フランスの首都はどこか
01:41
What are the building blocks of a water molecule?
27
101519
2425
水分子の構成元素は何か といったものです
01:43
Great -- Google away.
28
103968
2341
この場合は ぜひGoogle検索しましょう
01:46
There's not a group of scientists who are this close to proving
29
106333
3120
科学者といえども 答えは「ロンドン」と「H30」だなんて
01:49
that it's actually London and H30.
30
109477
1997
証明できやしませんから
01:51
You don't see a big conspiracy among those things.
31
111498
2371
ここに何の陰謀もありません
01:53
We agree, on a global scale,
32
113893
1533
こうした個別の事実については
01:55
what the answers are to these isolated facts.
33
115450
2725
世界全体で 答えが何か 一致しているのです
01:58
But if you complicate your question just a little bit and ask something like,
34
118199
5302
でも 質問をほんの少し複雑にして こんな風にしたらどうでしょう
02:03
"Why is there an Israeli-Palestine conflict?"
35
123525
2683
「なぜパレスチナ問題が起こっているのか?」
02:06
You're not exactly looking for a singular fact anymore,
36
126978
2640
もはや 求めているのは ただ一つの「事実」ではなく
02:09
you're looking for knowledge,
37
129642
1833
「知識」ということになります
02:11
which is something way more complicated and delicate.
38
131499
2578
知識は はるかに複雑で繊細なものです
02:14
And to get to knowledge,
39
134600
1549
そうした知識を得るには
02:16
you have to bring 10 or 20 or 100 facts to the table
40
136173
3031
10 、20 または100の事実を集め 自分のものにし
02:19
and acknowledge them and say, "Yes, these are all true."
41
139228
2976
「これらは すべて真実だ」と 言えないといけません
02:22
But because of who I am,
42
142228
1674
でも ひとは
02:23
young or old, black or white, gay or straight,
43
143926
2270
年齢や人種、性的趣向に関わらず
02:26
I will value them differently.
44
146220
1611
違う価値観を持っています
02:27
And I will say, "Yes, this is true,
45
147855
1688
ですから「確かに これは真実だけど
02:29
but this is more important to me than that."
46
149567
2114
こっちのほうが重要だ」となります
02:31
And this is where it becomes interesting,
47
151705
1990
ここからが面白いのです
02:33
because this is where we become human.
48
153719
2146
私たちが人間らしさを発揮するからです
02:35
This is when we start to argue, to form society.
49
155889
2996
私たちは互いに議論し 社会を形成し始めます
02:38
And to really get somewhere, we need to filter all our facts here,
50
158909
3357
本当に答えを出すには まず事実をすべて ふるいにかけます
02:42
through friends and neighbors and parents and children
51
162290
2556
友だちやご近所さん 両親、子どもたち、同僚
02:44
and coworkers and newspapers and magazines,
52
164870
2032
そして新聞や雑誌を通じて ふるいにかけ
02:46
to finally be grounded in real knowledge,
53
166926
3080
真の知識にたどりつくのです
02:50
which is something that a search engine is a poor help to achieve.
54
170030
4047
ここで検索エンジンは あまり役に立ちません
02:55
So, I promised you an example just to show you why it's so hard
55
175284
6328
さきほど 真に純粋で客観的な知識を 手にするのが なぜ難しいか
03:01
to get to the point of true, clean, objective knowledge --
56
181636
3404
例をお見せするとお話ししました
03:05
as food for thought.
57
185064
1468
皆さんにお考えいただきましょう
03:06
I will conduct a couple of simple queries, search queries.
58
186556
3893
まず いくつか簡単な検索をしてみます
03:10
We'll start with "Michelle Obama,"
59
190473
4040
まずは「ミシェル・オバマ」
03:14
the First Lady of the United States.
60
194537
1804
アメリカのファーストレディです
03:16
And we'll click for pictures.
61
196365
1729
「画像」をクリックします
03:19
It works really well, as you can see.
62
199007
2272
ご覧のとおり うまく行っていますね
03:21
It's a perfect search result, more or less.
63
201303
3028
まあ 完ぺきな検索結果です
03:24
It's just her in the picture, not even the President.
64
204355
2750
写真には ミシェル一人だけ 大統領さえいません
03:27
How does this work?
65
207664
1313
どうなっているんでしょう
03:29
Quite simple.
66
209837
1372
とてもシンプルです
03:31
Google uses a lot of smartness to achieve this, but quite simply,
67
211233
3215
Googleは 色々頭を使っていますが 簡単に言うと
03:34
they look at two things more than anything.
68
214472
2060
2つのことに着目しています
03:36
First, what does it say in the caption under the picture on each website?
69
216556
5156
1つは 各ウェブサイトの写真の下にある キャプションの内容です
03:41
Does it say "Michelle Obama" under the picture?
70
221736
2215
写真の下に「ミシェル・オバマ」とあれば
03:43
Pretty good indication it's actually her on there.
71
223975
2356
彼女の写真の可能性が高いですね
03:46
Second, Google looks at the picture file,
72
226355
2386
つぎにGoogleが見るのは 写真ファイル
03:48
the name of the file as such uploaded to the website.
73
228765
3032
ウェブサイトにアップロードされた ファイルの名前です
03:51
Again, is it called "MichelleObama.jpeg"?
74
231821
2669
「MichellObama.jpeg」というファイルなら
03:54
Pretty good indication it's not Clint Eastwood in the picture.
75
234839
2922
クリント・イーストウッドの写真 ということはないでしょう
03:57
So, you've got those two and you get a search result like this -- almost.
76
237785
4265
この2つを手がかりにすると こんな検索結果になるんです―普通は
04:02
Now, in 2009, Michelle Obama was the victim of a racist campaign,
77
242074
6603
さて2009年 ミシェル・オバマに 人種差別攻撃の矛先が向きました
04:08
where people set out to insult her through her search results.
78
248701
4015
検索結果を通じて侮辱されたのです
04:13
There was a picture distributed widely over the Internet
79
253430
2702
ある写真がばらまかれ インターネットを席巻します
04:16
where her face was distorted to look like a monkey.
80
256156
2644
彼女の顔が サルのように ゆがめられた写真です
04:18
And that picture was published all over.
81
258824
3169
写真は インターネット上の あらゆるところに掲載されました
04:22
And people published it very, very purposefully,
82
262017
3761
しかも 検索結果の上位に表示されるよう
04:25
to get it up there in the search results.
83
265802
1971
非常に意図的な形でネット掲載されました
04:27
They made sure to write "Michelle Obama" in the caption
84
267797
2955
キャプションには必ず 「ミシェル・オバマ」と書かれ
04:30
and they made sure to upload the picture as "MichelleObama.jpeg," or the like.
85
270776
4177
ファイル名も 「MichelleObama.jpeg」などとされたのです
04:34
You get why -- to manipulate the search result.
86
274977
2367
そう 検索結果を操作するためです
04:37
And it worked, too.
87
277368
1295
確かに それは成功し
04:38
So when you picture-Googled for "Michelle Obama" in 2009,
88
278687
2720
Googleで「ミシェル・オバマ」を 画像検索すると
04:41
that distorted monkey picture showed up among the first results.
89
281431
3387
2009年当時 サル顔に変形された写真が 結果上位に表示されました
04:44
Now, the results are self-cleansing,
90
284842
3566
さて 検索結果には自浄作用があります
04:48
and that's sort of the beauty of it,
91
288432
1753
そこが素晴らしいところでもあり
04:50
because Google measures relevance every hour, every day.
92
290209
3403
Googleは 毎日 毎時間 関連度を測っているのです
04:53
However, Google didn't settle for that this time,
93
293636
2714
でも このときGoogleは 黙ってはいませんでした
04:56
they just thought, "That's racist and it's a bad search result
94
296374
3124
「これは人種差別的で 悪い検索結果だから
04:59
and we're going to go back and clean that up manually.
95
299522
3135
自らの手で きれいにしないといけない
05:02
We are going to write some code and fix it,"
96
302681
2932
プログラムを書いて修正するんだ」と考え
05:05
which they did.
97
305637
1247
実際にそうしました
05:07
And I don't think anyone in this room thinks that was a bad idea.
98
307454
3742
皆さんのなかで これが悪いことと 思う方はいないでしょう
05:11
Me neither.
99
311789
1164
私も そう思いません
05:14
But then, a couple of years go by,
100
314802
3032
それから2年ほどして
05:17
and the world's most-Googled Anders,
101
317858
2984
世界で最もGoogle検索されたアンネシュ
05:20
Anders Behring Breivik,
102
320866
2279
アンネシュ・ベーリン・ブレイヴィークは
05:23
did what he did.
103
323169
1706
こんなことをしました
05:24
This is July 22 in 2011,
104
324899
2001
2011年7月22日
05:26
and a terrible day in Norwegian history.
105
326924
2649
ノルウェー史上 悲惨な日となったこの日
05:29
This man, a terrorist, blew up a couple of government buildings
106
329597
3787
この男―テロリストは 政府庁舎を爆破しました
05:33
walking distance from where we are right now in Oslo, Norway
107
333408
2883
ここ ノルウェー・オスロの会場から 徒歩圏内の場所です
05:36
and then he traveled to the island of Utøya
108
336315
2051
その後 彼はウトヤ島に渡り
05:38
and shot and killed a group of kids.
109
338390
2223
子どもたちを銃撃し殺しました
05:41
Almost 80 people died that day.
110
341113
1728
その日 80人近くの命が失われました
05:44
And a lot of people would describe this act of terror as two steps,
111
344397
4559
多くの場合 このテロ行為には 2つの段階があったと語られます
05:48
that he did two things: he blew up the buildings and he shot those kids.
112
348980
3411
つまり 建物爆破と 子どもの銃殺 という2つの段階です
05:52
It's not true.
113
352415
1165
実は違うのです
05:54
It was three steps.
114
354326
2143
3つの段階があったんです
05:56
He blew up those buildings, he shot those kids,
115
356493
2214
彼は建物を爆破し 子どもたちを銃殺し
05:58
and he sat down and waited for the world to Google him.
116
358731
3644
そして世界が彼を Google検索するのを待ったのです
06:03
And he prepared all three steps equally well.
117
363227
2627
彼は この3つの段階すべてを 周到に準備していました
06:06
And if there was somebody who immediately understood this,
118
366544
2790
彼の意図をすぐに見破ったのが
06:09
it was a Swedish web developer,
119
369358
1524
スウェーデンのウェブ開発者で
06:10
a search engine optimization expert in Stockholm, named Nikke Lindqvist.
120
370906
3623
検索エンジン適正化の専門家 ストックホルムのニック・リンドクヴィストです
06:14
He's also a very political guy
121
374553
1588
自らも非常に政治的なニックは
06:16
and he was right out there in social media, on his blog and Facebook.
122
376165
3276
ブログやFacebookなど ソーシャルメディアを通じて
06:19
And he told everybody,
123
379465
1206
みんなに訴えかけました
06:20
"If there's something that this guy wants right now,
124
380695
2455
「こいつが今ほしいものがあるとしたら
06:23
it's to control the image of himself.
125
383174
2459
自分のイメージをコントロールすることだ
06:26
Let's see if we can distort that.
126
386760
1960
みんなで それを崩そうじゃないか
06:29
Let's see if we, in the civilized world, can protest against what he did
127
389490
3977
文明社会のみんなの力をあわせて 彼の行為に対して抗議するんだ
06:33
through insulting him in his search results."
128
393491
3317
検索結果を通して彼を侮辱するんだ」
06:36
And how?
129
396832
1187
でも どうやって?
06:38
He told all of his readers the following,
130
398797
2056
彼は以下のことをするよう呼びかけました
06:40
"Go out there on the Internet,
131
400877
1864
インターネットで
06:42
find pictures of dog poop on sidewalks --
132
402765
2895
道端の犬のフンの写真を探し―
06:46
find pictures of dog poop on sidewalks --
133
406708
2174
道端の犬のフンの写真を探し―
06:48
publish them in your feeds, on your websites, on your blogs.
134
408906
3470
それをフィードやウェブサイト ブログに掲載するのです
06:52
Make sure to write the terrorist's name in the caption,
135
412400
2921
そのとき必ず キャプションにはテロリストの名前を書き
06:55
make sure to name the picture file "Breivik.jpeg."
136
415345
4487
ファイル名を「Breivik.jpeg」とするのです
06:59
Let's teach Google that that's the face of the terrorist."
137
419856
3801
Googleに これがテロリストの顔だと 教えるのです
07:05
And it worked.
138
425552
1278
効果てき面でした
07:07
Two years after that campaign against Michelle Obama,
139
427853
2898
ミシェル・オバマ事件の2年後
07:10
this manipulation campaign against Anders Behring Breivik worked.
140
430775
3266
アンネシュ・ベーリン・ブレイヴィークの 検索結果が操作されました
07:14
If you picture-Googled for him weeks after the July 22 events from Sweden,
141
434065
4462
7月22日事件以降の数週間 スウェーデンから彼をGoogleで画像検索すると
07:18
you'd see that picture of dog poop high up in the search results,
142
438551
4327
検索結果の上位に犬のフンの写真が 表示されるに至りました
07:22
as a little protest.
143
442902
1444
小さな抗議行動です
07:25
Strangely enough, Google didn't intervene this time.
144
445425
4132
奇妙なことに このとき Googleは介入しませんでした
07:30
They did not step in and manually clean those search results up.
145
450494
4272
人為的に検索結果をきれいにしようとは しなかったのです
07:35
So the million-dollar question,
146
455964
1716
さて ここで難しい質問です
07:37
is there anything different between these two happenings here?
147
457704
3368
これら2つの現象は何が違うんでしょうか?
07:41
Is there anything different between what happened to Michelle Obama
148
461096
3193
ミシェル・オバマに起こったことと
07:44
and what happened to Anders Behring Breivik?
149
464313
2065
アンネシュに起こったことは違いますか?
07:46
Of course not.
150
466402
1284
もちろん違いません
07:48
It's the exact same thing,
151
468861
1471
まったく同じ事象です
07:50
yet Google intervened in one case and not in the other.
152
470356
2864
でも Googleは片方には介入し 他方にはしませんでした
07:53
Why?
153
473244
1253
なぜでしょう
07:55
Because Michelle Obama is an honorable person, that's why,
154
475283
3300
それはミシェル・オバマが 尊敬に値する人物である一方
07:58
and Anders Behring Breivik is a despicable person.
155
478607
2916
アンネシュ・ベーリン・ブレイヴィークが 卑劣な人間だからです
08:02
See what happens there?
156
482142
1535
ご覧いただいたとおり
08:03
An evaluation of a person takes place
157
483701
3255
ここには 人に対する評価が介在しています
08:06
and there's only one power-player in the world
158
486980
3786
世界には 重要人物を決める権力を持つ―
08:10
with the authority to say who's who.
159
490790
2480
唯一の権力者がいるのです
08:13
"We like you, we dislike you.
160
493882
1741
「君は好き 君は嫌い
08:15
We believe in you, we don't believe in you.
161
495647
2039
君は信じる 君は信じない
08:17
You're right, you're wrong. You're true, you're false.
162
497710
2547
君は正しい 君は間違っている 君は真実 君は嘘
08:20
You're Obama, and you're Breivik."
163
500281
1805
君はオバマで 君はブレイヴィーク」
08:22
That's power if I ever saw it.
164
502791
2000
これが力というものです
08:27
So I'm asking you to remember that behind every algorithm
165
507206
3652
ですから覚えておいてください どんなアルゴリズムでも
08:30
is always a person,
166
510882
1777
その後ろには 必ず人間がいるんです
08:32
a person with a set of personal beliefs
167
512683
2495
人間は それぞれ価値観を持っていて プログラムで
08:35
that no code can ever completely eradicate.
168
515202
2525
その影響を 完全に消し去ることはできません
08:37
And my message goes out not only to Google,
169
517751
2434
私はこのメッセージを Googleだけではなく
08:40
but to all believers in the faith of code around the world.
170
520209
2810
プログラムに信頼を寄せる 世界中のすべての人に伝えたい
08:43
You need to identify your own personal bias.
171
523043
2976
自らの偏見をしっかり認識し
08:46
You need to understand that you are human
172
526043
2013
人間であることを自覚し
08:48
and take responsibility accordingly.
173
528080
2491
責任を持たなければいけません
08:51
And I say this because I believe we've reached a point in time
174
531891
2938
このことを伝えたいのは 結束を今一度
08:54
when it's absolutely imperative
175
534853
1555
強くしなければいけない
08:56
that we tie those bonds together again, tighter:
176
536432
3217
そんなときが来ていると 信じているからです
08:59
the humanities and the technology.
177
539673
2368
人類と技術のつながり
09:02
Tighter than ever.
178
542483
1805
この結束を 今以上に強くするのです
09:04
And, if nothing else, to remind us that that wonderfully seductive idea
179
544312
3339
少なくとも 心地よい魅惑的に聞こえる―
09:07
of the unbiased, clean search result
180
547675
2668
公正で きれいな検索結果というものは
09:10
is, and is likely to remain, a myth.
181
550367
2767
神話に過ぎず これからもそうだと 心に留めるべきです
09:13
Thank you for your time.
182
553984
1159
ありがとうございました
09:15
(Applause)
183
555167
2432
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7