How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views

2017-07-28 ・ TED


New videos

How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Natsuhiko Mizutani 校正: Moe Shoji
00:12
I want you to imagine
0
12960
1200
想像してください
00:15
walking into a room,
1
15000
1200
ある部屋に入っていくと
00:17
a control room with a bunch of people,
2
17480
2136
そこは大勢が働くコントロール室です
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
小さなダイヤルの並んだ 制御卓に向かう100人の人がいて
00:23
and that that control room
4
23280
1520
そのコントロール室が
00:25
will shape the thoughts and feelings
5
25680
3696
10億人の思考と感情を 形作っています
00:29
of a billion people.
6
29400
1240
00:32
This might sound like science fiction,
7
32560
1880
SF みたいな話ですが
00:35
but this actually exists
8
35320
2216
これは いま現在の 本当の話なのです
00:37
right now, today.
9
37560
1200
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
こう言えるのは 私自身が そんなコントロール室にいたからです
00:44
I was a design ethicist at Google,
11
44159
2297
私は Google で設計倫理を担当し
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
いかに倫理的に人の思考を操作できるかを 研究していました
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
一握りのテック企業で働く
00:53
working at a handful of technology companies
14
53480
2536
一握りの人による選択によって
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
10億の人が考えることが どれほど左右されるかは語られていません
01:02
Because when you pull out your phone
16
62400
1736
携帯を手にしたときの挙動や 表示される内容は設計されたもので
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
意識の中で ある一定の時間を占有します
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
通知を目にすると 考えようとも思っていなかったことを
01:13
that maybe you didn't intend to have.
20
73680
2040
考えるよう仕向けられます
01:16
If you swipe over that notification,
21
76400
2616
通知をスワイプしたら
01:19
it schedules you into spending a little bit of time
22
79040
2381
関わるつもりもなかったことに
01:21
getting sucked into something
23
81445
1381
ちょっとした時間を
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
吸い取られることになります
01:27
When we talk about technology,
25
87320
1520
テクノロジーと言えば
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
無限の可能性ばかりが語られます
01:32
It could go any direction.
27
92760
1480
どんな方向にも進めるのだと
01:35
And I want to get serious for a moment
28
95400
1856
でも 少しきちんと見てみると
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
なぜ テクノロジーが 特定の方向に進むのかが分かります
01:40
Because it's not evolving randomly.
30
100840
2200
進化はランダムではないのです
01:44
There's a hidden goal driving the direction
31
104000
2016
我々の作るテクノロジー全ては ある隠れた目標に向かっています
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
その目標とは 「注意」の獲得です
01:52
Because every news site,
34
112840
2736
どのニュースサイトも
01:55
TED, elections, politicians,
35
115600
2736
TEDも 選挙も 政治家も
01:58
games, even meditation apps
36
118360
1976
ゲームも 瞑想アプリだって
02:00
have to compete for one thing,
37
120360
1960
獲得しなければならないあるもの―
02:03
which is our attention,
38
123160
1736
それは 私たちの「注意」です
02:04
and there's only so much of it.
39
124920
1600
注意とはそれほどのものなのです
02:08
And the best way to get people's attention
40
128440
2416
人々の注意をできるだけ集めたいなら
02:10
is to know how someone's mind works.
41
130880
2440
人の心の仕組みを知ることです
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
人を操る技術には多様な種類があり
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
私は大学の Persuasive Technology 研究室で
02:19
to get people's attention.
44
139680
1600
「注意」をひく技術を学びました
02:21
A simple example is YouTube.
45
141880
1480
簡単な例は YouTube です
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
YouTube は視聴時間が できるだけ長くなるようにします
02:26
And so what do they do?
47
146960
1200
それで何をするかといえば
02:28
They autoplay the next video.
48
148840
2280
次のビデオを自動再生するのです
02:31
And let's say that works really well.
49
151760
1816
それが とても有効だったら
02:33
They're getting a little bit more of people's time.
50
153600
2416
YouTube は時間を もう少し獲得できます
では Netflix は それを見てどう考えるか
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
これは 我が社のシェアを低下させる
02:38
well, that's shrinking my market share,
52
158440
1858
こちらも次のエピソードを 自動再生してやろう
02:40
so I'm going to autoplay the next episode.
53
160322
2000
02:43
But then if you're Facebook,
54
163320
1376
すると Facebook は
02:44
you say, that's shrinking all of my market share,
55
164720
2336
自分のマーケットシェアが どんどん減っていくから
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
ニュースフィードのビデオは全部 再生ボタンを押さなくても
02:49
before waiting for you to click play.
57
169760
1762
自動再生してしまおう
02:52
So the internet is not evolving at random.
58
172320
3160
そう インターネットは ランダムに進化してはいないのです
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
私たちが 今のインターネットに 飲み込まれそうに感じるのは
03:00
is because of this race for attention.
60
180760
2376
この「注意」獲得競争のせいです
03:03
We know where this is going.
61
183160
1416
その行く末も見えています
03:04
Technology is not neutral,
62
184600
1520
テクノロジーは中立ではありません
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
脳幹の奥底を目指す競争―
03:10
of who can go lower to get it.
64
190760
2200
誰が一番奥まで進めるか という競争になっています
03:13
Let me give you an example of Snapchat.
65
193920
2336
Snapchat を例にとりましょう
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
実は Snapchat は アメリカの ティーンの間ではナンバー1の
03:20
that teenagers in the United States communicate.
67
200000
2256
コミュニケーション手段になっています
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
私たちが メッセージ機能で 連絡を取るように
03:26
Snapchat is that for teenagers,
69
206480
1776
ティーンは Snapchat で連絡します
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
利用者は1億人ぐらいいます
そしてストリークという機能が 考案されました
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
これは2人のやりとりが 何日の間 連続したかを示すものです
03:33
which shows the number of days in a row
72
213240
1896
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
言い換えれば こうして
03:39
is they gave two people something they don't want to lose.
75
219680
2960
2人の間に 失いたくない何かを 作り出して与えたのです
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
ティーンの若者なら 150日連続という記録があれば
03:47
you don't want that to go away.
77
227480
1976
それを ふいにしたくないので
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
そのために少し時間を割くことが 意識に刷りこまれます
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
想定ではなく実例として 家族で休暇に出かける間
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
自分ではやりとりできないときにも ストリークを維持しようとして
03:59
to keep their Snapstreaks going,
81
239800
2216
多い場合には5人もの相手に 自分のパスワードを
04:02
even when they can't do it.
82
242040
2016
伝えていることが 明らかになっています
04:04
And they have, like, 30 of these things,
83
244080
1936
ストリークが 30くらいはあるので
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
それをただ続けるためだけに 毎日 壁や天井の写真を撮ったりもします
04:09
or ceilings just to get through their day.
85
249440
2480
04:13
So it's not even like they're having real conversations.
86
253200
2696
実際の会話とは 似ても似つかないものです
04:15
We have a temptation to think about this
87
255920
1936
我々 大人たちは こう考えます
04:17
as, oh, they're just using Snapchat
88
257880
2696
若者の Snapchat は たぶん
04:20
the way we used to gossip on the telephone.
89
260600
2016
自分たちが電話で 無駄話してたようなもので
04:22
It's probably OK.
90
262640
1200
問題ないはずだ と
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
ただ 見逃されているのは
04:26
when you were just gossiping on the telephone,
92
266760
2615
皆さんが電話で無駄話していた 1970 年代には
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
画面の背後に控える100人の技術者が
04:32
who knew exactly how your psychology worked
94
272440
2056
人の心理の働きを理解した上で
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
互いに束縛し合うよう仕向けては いなかったということです
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
この話で少々怒りを覚えたとしたら
04:42
notice that that thought just comes over you.
97
282680
2576
その怒りが急にやってきたことに 注目してください
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
怒りも「注意」を獲得する上で とても上手い方法なのです
04:49
because we don't choose outrage.
99
289880
1576
怒りは選択するものではなく
04:51
It happens to us.
100
291480
1416
生じるものです
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Facebook が望もうが望むまいが
04:54
whether you'd want to or not,
102
294800
1416
「怒り」はニュースフィードにとって メリットがあります
04:56
you actually benefit when there's outrage.
103
296240
2736
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
怒りに対する反応によって
05:01
in emotional time, space, for you.
105
301960
2880
みなさんの時間と空間を 獲得できるだけではありません
05:05
We want to share that outrage with other people.
106
305440
2416
生じた怒りは 他の人に伝えたくなります
05:07
So we want to hit share and say,
107
307880
1576
「シェアする」をクリックして
05:09
"Can you believe the thing that they said?"
108
309480
2040
「こんな話 信じられる?」と書きます
05:12
And so outrage works really well at getting attention,
109
312520
3376
「注意」を集める上では怒りは このように効果的なので
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
Facebook が 怒りのフィードと 穏やかなフィードとで選ぶとしたら
05:19
and a calm newsfeed,
111
319840
1320
05:22
they would want to show you the outrage feed,
112
322120
2136
誰かが意図的に選んだからではなく
05:24
not because someone consciously chose that,
113
324280
2056
注意を獲得する上で より有効だという理由で
05:26
but because that worked better at getting your attention.
114
326360
2680
怒りのフィードを 見せようとすることでしょう
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
ニュースフィードのコントロール室が 何をしているか我々には開示されません
05:37
It's only accountable to maximizing attention.
116
337040
2296
最大限の注意を獲得することだけが 考慮されます
05:39
It's also accountable,
117
339360
1216
また 広告のビジネスモデルなので
05:40
because of the business model of advertising,
118
340600
2376
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
コントロール室に乗り込んだ顧客が 多額のお金を支払うならば
05:46
and say, "That group over there,
120
346360
1576
「そこのグループに向けて
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
これこれの考えを送り届けてくれ」と 依頼できます
05:51
So you can target,
122
351760
1200
ターゲットを絞った上で
05:54
you can precisely target a lie
123
354040
1936
もっとも影響されやすい人たちに
05:56
directly to the people who are most susceptible.
124
356000
2920
嘘を送り届けられるのです
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
これが営利事業なので 事態はさらに悪くなります
06:05
So I'm here today
126
365040
1800
私が今日この話をしているのは
06:08
because the costs are so obvious.
127
368160
2000
何が犠牲になっているか 明白だからです
06:12
I don't know a more urgent problem than this,
128
372280
2136
これ以上に緊急の問題を 私は知りません
06:14
because this problem is underneath all other problems.
129
374440
3120
全ての問題の背後には この問題があります
06:18
It's not just taking away our agency
130
378720
3176
私たちが何に注意を向けるか どんな人生を望むかを決める―
06:21
to spend our attention and live the lives that we want,
131
381920
2600
主体性が妨げられるだけでなく
06:25
it's changing the way that we have our conversations,
132
385720
3536
私たちの間の会話を変質させ
06:29
it's changing our democracy,
133
389280
1736
私たちの民主主義を変質させ
06:31
and it's changing our ability to have the conversations
134
391040
2616
互いに会話をして望ましい関係を 築く能力も変質させつつあります
06:33
and relationships we want with each other.
135
393680
2000
06:37
And it affects everyone,
136
397160
1776
これは あらゆる人に影響します
06:38
because a billion people have one of these in their pocket.
137
398960
3360
10億人がポケットに 携帯を持っているのですから
06:45
So how do we fix this?
138
405360
1400
これに どう対処できるでしょうか?
06:49
We need to make three radical changes
139
409080
2936
テクノロジーと社会について 3つの根本的な変化が必要です
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
まず第一に 私たちは容易に操られうるのだと 認識する必要があります
07:00
Once you start understanding
142
420840
1376
自分で選ばなくても
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
心に小さな考えを受け入れたり
07:05
or little blocks of time that you didn't choose,
144
425040
2576
少しの時間を割り当ててしまうのです
07:07
wouldn't we want to use that understanding
145
427640
2056
そう理解することで そんな状況を
07:09
and protect against the way that that happens?
146
429720
2160
回避することは できないものでしょうか
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
自分たちを まったく違った見方で 捉える必要があると思います
07:15
It's almost like a new period of human history,
148
435920
2216
人類の歴史における まったく新しい時代のようなものです
07:18
like the Enlightenment,
149
438160
1216
啓蒙時代と似ていますが
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
ただ 自己認識についての啓蒙時代として
07:21
that we can be persuaded,
151
441640
2080
自分は操られうる存在であり
07:24
and there might be something we want to protect.
152
444320
2240
それから守りたいものがあると 認識する時代です
07:27
The second is we need new models and accountability systems
153
447400
4576
第二に 新しいモデルと 説明のシステムが必要です
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
世界が良くなり さらに人が操られるようになるにつれ―
07:35
because it's only going to get more persuasive --
155
455520
2336
これからますます 操られるようになります―
07:37
that the people in those control rooms
156
457880
1856
コントロール室にいる人たちが
07:39
are accountable and transparent to what we want.
157
459760
2456
私たちの求めるものに責任を負い 透明性を保つシステムです
07:42
The only form of ethical persuasion that exists
158
462240
2696
倫理的に人を操ることが許されるのは
07:44
is when the goals of the persuader
159
464960
1936
操る人と操られる人とが
07:46
are aligned with the goals of the persuadee.
160
466920
2200
同じゴールを目指しているときだけです
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
広告のビジネスモデル等の大前提に 疑問を呈することになる論点です
07:54
Lastly,
162
474720
1576
最後に
07:56
we need a design renaissance,
163
476320
1680
デザインにはルネサンスが必要です
07:59
because once you have this view of human nature,
164
479080
3056
このように人の性質を理解し
08:02
that you can steer the timelines of a billion people --
165
482160
2976
10億人のタイムラインが操られていると 分かってみると
08:05
just imagine, there's people who have some desire
166
485160
2736
人々に何をさせたいとか
08:07
about what they want to do and what they want to be thinking
167
487920
2856
何を考えさせたいとか 何を感じさせたいとか
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
どう情報を伝えたいといった 欲望を持つ人の意図によって
08:13
and we're all just tugged into these other directions.
169
493960
2536
我々は見当違いの方向に 引き寄せられているわけです
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
10億人の人が見当違いな方向に 引き寄せられています
デザインの根底からのルネサンスによって
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
的確で もっとも力づけられるような 時間の有効な使い方を
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
10億人のタイムラインに 提供することを目指すとしたらどうでしょう
08:28
And that would involve two things:
174
508600
1656
2つのことが伴うはずです
08:30
one would be protecting against the timelines
175
510280
2136
1つは経験したくないタイムラインや
08:32
that we don't want to be experiencing,
176
512440
1856
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
考えたくないことが 発生しないように保護することです
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
突発事項などで 注意をそらされないようにします
2つ目は 自らが望むタイムラインで ずっと過ごせるよう力を与えることです
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
具体的な例を示しましょう
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
今日 友達との夕食の約束が
08:48
and you are feeling a little bit lonely.
182
528760
3775
キャンセルされて 少し寂しい気分になったとしましょう
08:52
And so what do you do in that moment?
183
532559
1817
そうしたら何をしますか?
08:54
You open up Facebook.
184
534400
1279
Facebook を開きます
08:56
And in that moment,
185
536960
1696
その瞬間に
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
コントロール室のデザイナーが させたいことは ただ一つ
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
その画面で過ごす時間を 最大限 長引かせることです
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
さて そうではなく デザイナーが 別のタイムラインを創って―
09:10
that was the easiest way, using all of their data,
189
550560
3496
彼らの保持するデータを使えば 容易なことですが―
09:14
to actually help you get out with the people that you care about?
190
554080
3096
あなたが大事な人たちと出かけるのを 支援するのはどうでしょう
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
考えてみてください 社会における寂しさを和らげることを
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
Facebook がタイムラインを通じて 成しとげようとしているとしたらどうか
09:26
Or imagine a different conversation.
193
566160
1715
また 別の例を考えましょう
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
何か極めて議論を呼びそうな内容を Facebook に投稿したいとします
09:31
which is a really important thing to be able to do,
195
571240
2416
それを実行できることも 議論を呼ぶ内容を語れることも
09:33
to talk about controversial topics.
196
573680
1696
大変重要なことです
09:35
And right now, when there's that big comment box,
197
575400
2336
今でも大きなコメント欄がありますが
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
あたかも「何を入力しますか」と 尋ねているかのようです
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
言い換えれば その会話を
09:44
you're going to continue to do on the screen.
200
584000
2136
画面上で続けるように仕向けるのです
09:46
And imagine instead that there was another button there saying,
201
586160
2976
もし その代わりに こんなボタンがあったらどうでしょう
「どんな時間の過ごし方を希望しますか?」
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
「夕食会を開催」をクリックすると その下に表示されるのが
09:52
And right there underneath the item it said,
204
592840
2096
「夕食会を開催」をクリックすると その下に表示されるのが
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
「誰か夕食会に来ない?」だったら?
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
そうすれば 何か議論を呼ぶ会話が できるという点は同じですが
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
人生のタイムラインの中でも もっとも力づけられる場所が舞台となります
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
つまり その晩自宅に 友達が何人も集まって
10:06
to talk about it.
209
606760
1200
その話をするという展開です
10:09
So imagine we're running, like, a find and replace
210
609000
3160
今のタイムライン全体に 「検索と置換」を行って
10:13
on all of the timelines that are currently steering us
211
613000
2576
画面の前で過ごす時間を
10:15
towards more and more screen time persuasively
212
615600
2560
ますます長引かせようとするタイムラインを
10:19
and replacing all of those timelines
213
619080
2536
我々が人生に真に望む事柄に
10:21
with what do we want in our lives.
214
621640
1640
置き換えることができたらどうでしょう
10:26
It doesn't have to be this way.
215
626960
1480
現状は変えられるはずです
10:30
Instead of handicapping our attention,
216
630360
2256
私たちの「注意」の 足をひっぱるのではなく
10:32
imagine if we used all of this data and all of this power
217
632640
2816
あらゆるデータと 全ての力と
人の性質についての新しい理解を用いて
10:35
and this new view of human nature
218
635480
1616
10:37
to give us a superhuman ability to focus
219
637120
2856
超人的な集中力や
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
本当に気にかけている事柄に 注意を向ける超人的な能力や
10:44
and a superhuman ability to have the conversations
221
644160
2616
民主主義のために 必要となる対話を持つための
10:46
that we need to have for democracy.
222
646800
2000
超人的能力を 手にできるとしたらどうでしょう
10:51
The most complex challenges in the world
223
651600
2680
世界のもっとも複雑な課題の数々に 立ち向かうには
10:56
require not just us to use our attention individually.
224
656280
3120
個々が注意を向けるだけでは不十分です
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
そういった課題には 我々の注意を 協調して向けなければなりません
11:04
Climate change is going to require that a lot of people
226
664440
2816
地球温暖化には 多くの人々が
11:07
are being able to coordinate their attention
227
667280
2096
もっとも力を発揮できるような形で
11:09
in the most empowering way together.
228
669400
1896
共に注意を向けることが必要でしょう
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
それを可能にする超人的能力を 作り出すことを考えてみてください
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
あるいは 世界の最重要かつ喫緊の課題は
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
今はまだ想定だけの これから 生じるべき問題ではないかもしれません
11:28
Sometimes the most pressing problems
232
688560
1736
もっとも差し迫っている問題は
11:30
are the ones that are right underneath our noses,
233
690320
2336
目と鼻の先にあるもので
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
すでに10億人の人間の思考を 方向付けているものかもしれないのです
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
新しい拡張現実や仮想現実や
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
これから実現するかもしれない 素敵な何かに夢中になっても
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
今と同じ 注意をめぐる競争に 振り回されるのがおちでしょう
11:46
if we could fix the race for attention
238
706640
2176
でも すでに10億人の ポケットにある物における―
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
注意をめぐる競争を 変えられたらどうでしょう
11:52
Maybe instead of getting excited
240
712040
1576
もしかすると
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
素晴らしく良くできた新しい 教育アプリに夢中になるよりも
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
若者の心が操られて 中身のないやりとりを続ける状況を
12:00
into sending empty messages back and forth.
243
720760
2480
変えられたらどうでしょう
12:04
(Applause)
244
724040
4296
(拍手)
12:08
Maybe instead of worrying
245
728360
1256
ある目標を追求するあまりに
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
AIが暴走する未来の可能性を 恐れる代わりに
12:13
that are maximizing for one goal,
247
733440
1880
12:16
we could solve the runaway artificial intelligence
248
736680
2656
AIの暴走によって すでに生じている問題を
12:19
that already exists right now,
249
739360
2056
解決してはどうでしょうか
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
ひとつの目的に最適化した ニュースフィードが まさにそれです
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
地球を捨てて 新しい惑星に植民する代わりに
12:29
we could fix the one that we're already on.
252
749920
2056
今いる惑星を修繕するようなものです
12:32
(Applause)
253
752000
4120
(拍手)
12:40
Solving this problem
254
760040
1776
この問題を解決することは
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
その他のあらゆる問題を解決するために 欠くことのできない基盤となります
12:46
There's nothing in your life or in our collective problems
256
766600
4016
みなさんの人生や 集団としての問題において
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
気にかけるものに注意を払う能力を 必要としないものはありません
12:55
At the end of our lives,
258
775800
1240
突き詰めれば
12:58
all we have is our attention and our time.
259
778240
2640
人生には 注意と時間しかないのです
13:01
What will be time well spent for ours?
260
781800
1896
その時間を何に使うのが有効でしょうか
13:03
Thank you.
261
783720
1216
ありがとうございました
13:04
(Applause)
262
784960
3120
(拍手)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
(クリス・アンダーソン)トリスタン ありがとう 少し残ってください
13:20
First of all, thank you.
264
800720
1336
まずは お礼を言います
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
このトークは 直前にお願いしたので
13:24
and you've had quite a stressful week
266
804880
2216
話をまとめるために
13:27
getting this thing together, so thank you.
267
807120
2440
大変な一週間を過ごしたことでしょう
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
ここで問題とされたのは 依存症であり
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
仕掛けは 実に面白いじゃないかという 見解もあるでしょう
デザイン上の意思決定によって
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
すばらしく興味深いユーザーコンテンツが 生まれているのも面白い
13:42
The world's more interesting than it ever has been.
272
822600
2416
世界はいまだかつてなく面白い
13:45
What's wrong with that?
273
825040
1256
何が問題なんだ と
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
(トリスタン・ハリス) それは実に興味深いと思います
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
一つの見方は 例えば YouTube だけを考えれば
13:52
you want to always show the more interesting next video.
276
832640
2656
いつも もっと面白い動画を 次に見せようとします
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
次の動画を提案する上での 改善を続けます
ただ誰もが見たくなるような 完璧な次の動画を
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
提案できたとしても
結果としてユーザを画面に縛り付けるのが 巧くなるだけです
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
ここで考慮されていないのは
14:05
So what's missing in that equation
281
845880
1656
どこが限度かということです
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
YouTube には 例えば睡眠についても 考慮してほしいのです
Netflix の CEO は 最近
14:12
The CEO of Netflix recently said,
284
852960
1616
「Facebook と YouTube と睡眠が 競合相手だ」と言いました
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
人間には構造上の限界があり
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
人生には ある種の制約とか 様々な側面があり
14:24
that we want to be honored and respected,
288
864840
1976
これを大事にし 尊重すべきです
14:26
and technology could help do that.
289
866840
1816
テクノロジーは これを支援できます
14:28
(Applause)
290
868680
2616
(拍手)
14:31
CA: I mean, could you make the case
291
871320
1696
(クリス)人の性質についての
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
単純なモデルが採用されていることが 問題でもある点を説明してもらえますか
14:39
So much of this is justified in terms of human preference,
293
879120
2736
問題の大半が 選好の問題として片づけられますが
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
人の選好に見事に適応できる アルゴリズムがあるときに
14:44
of optimizing for human preference,
295
884520
1696
14:46
but which preference?
296
886240
1336
どの選好に適合するのか
14:47
There's the preferences of things that we really care about
297
887600
3496
本当に気にかけていることについての 選好であることもあれば
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
本能的にクリックしてしまう選好もあります
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
人の性質についての もっと繊細な見方を あらゆるデザインに反映できれば
15:00
would that be a step forward?
301
900280
1456
それは進歩なんでしょうか
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
(トリスタン)その通りです
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
現在 全てのテクノロジーは 我々の本能的な部分にだけ問いかけ
15:07
what's the best way to just impulsively get you to do
304
907280
2496
次のわずかな行動を 衝動的に起こさせて
15:09
the next tiniest thing with your time,
305
909800
2136
時間を使わせる 最適な方法を求めています
15:11
instead of asking you in your life
306
911960
1656
人生における最良の時間の使い方を 問う代わりにです
15:13
what we would be most time well spent for you?
307
913640
2176
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
後に何かが残るような 完璧なタイムラインとは何かを考えるのは
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
ここ TED で過ごす最後の日を 有意義に過ごさせるものでしょう
(クリス)Facebook や Google や 皆の優先事項として
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
「内省的頭脳と本能的頭脳 どちらに最適化すればよいのか
15:28
or your lizard brain? You choose."
312
928280
1656
選んでください」
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
(トリスタン)ええ そういう手もあります
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
(クリス)説得性という言葉を 使っていたのも面白いと思いました
15:37
because to me there's two different types of persuadability.
315
937240
2856
そこには2種類があると思うのです
15:40
There's the persuadability that we're trying right now
316
940120
2536
今まさに実践しているように 推論や思考や
15:42
of reason and thinking and making an argument,
317
942680
2176
議論から成るような説得性も ありますが
15:44
but I think you're almost talking about a different kind,
318
944880
2696
トークでは別の種類の 説得性について話していました
15:47
a more visceral type of persuadability,
319
947590
1906
もっと直観的なタイプの説得で
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
考えていると気づかぬうちに 操られているというものです
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
(トリスタン)その通りです この問題をこれほどに問題視する理由は
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
私が学んだスタンフォード大の Persuasive Technology 研究室で
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
これらのテクニックに 気づく方法を教わったからです
人々の注意を引くための 秘密の方法を教える
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
学会やワークショップが 多くありました
16:07
And it's because most people don't know that that exists
326
967120
2656
ただ大半の方は そんなものが 存在することも知らないので
16:09
that this conversation is so important.
327
969800
1896
この対話が大変重要なのです
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
(クリス)トリスタン あなたも私も こういう企業の人をたくさん知っています
16:15
There are actually many here in the room,
329
975520
1976
この会場にも たくさんいます
16:17
and I don't know about you, but my experience of them
330
977520
2477
お考えはわかりませんが 私の経験からすると
16:20
is that there is no shortage of good intent.
331
980021
2075
善意の足りない人たち ということはありません
16:22
People want a better world.
332
982120
2176
より良い世界を求める人たちで
16:24
They are actually -- they really want it.
333
984320
3520
心から それを願っています
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
あなたのお話でも これらの人々が 悪人だというのではなく
16:32
It's a system where there's these unintended consequences
335
992520
3696
システムによって 意図せぬ結果が生まれ
16:36
that have really got out of control --
336
996240
1856
手に負えなくなったのだと―
16:38
TH: Of this race for attention.
337
998120
1496
(トリスタン)注意をめぐる競争ですね
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
注意を獲得するための競争は 「底辺への競争」の典型であり
16:42
and it's so tense.
339
1002840
1216
とても苛烈です
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
より多くを獲得しようとしたら 脳幹の奥底に進み
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
怒りを掻き立て 感情を煽り
16:49
to go lower into the lizard brain.
342
1009280
1696
本能的な脳に 到達しなければなりません
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
(クリス)この問題に関する 知見を紹介してくれたのは
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
トリスタン・ハリスでした ありがとう (トリスタン)ありがとう
16:57
(Applause)
345
1017280
2240
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7