How we need to remake the internet | Jaron Lanier

430,004 views ・ 2018-05-03

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Eriko T 校正: Tomoyuki Suzuki
00:12
Back in the 1980s, actually, I gave my first talk at TED,
0
12944
4009
1980年代に私は初めて TEDで講演しましたが
00:16
and I brought some of the very, very first public demonstrations
1
16977
4262
世界で最初のVR(仮想現実)のデモを
00:21
of virtual reality ever to the TED stage.
2
21263
4234
TEDの舞台でいくつか披露しました
00:26
And at that time, we knew that we were facing a knife-edge future
3
26375
6867
当時 私たちは 未来は危うい状況にあり
00:33
where the technology we needed,
4
33266
5201
私たちが必要とし
00:38
the technology we loved,
5
38491
1851
愛したテクノロジーが
00:40
could also be our undoing.
6
40366
2047
私たちを破滅に導くかもしれないと 気づいていました
00:43
We knew that if we thought of our technology
7
43266
4091
私たちは もしテクノロジーを
00:47
as a means to ever more power,
8
47381
3254
権力を手にする道具だと考え 権力を握ること自体が目的化したら
00:50
if it was just a power trip, we'd eventually destroy ourselves.
9
50659
3707
人類は自滅するだろうと わかっていました
00:54
That's what happens
10
54390
1181
権力だけを追求すると
00:55
when you're on a power trip and nothing else.
11
55595
2787
そうなるものです
00:59
So the idealism
12
59509
3389
当時のデジタル・カルチャーの 理想は
01:02
of digital culture back then
13
62922
4809
01:07
was all about starting with that recognition of the possible darkness
14
67755
4739
何よりもまず この闇へ陥る可能性を認識した上で
01:12
and trying to imagine a way to transcend it
15
72518
3350
それを美や創造性で乗り越える方法を
01:15
with beauty and creativity.
16
75892
2578
模索することだったのです
01:19
I always used to end my early TED Talks with a rather horrifying line, which is,
17
79033
6507
私はいつも自分のTEDトークを やや恐怖感を煽る文句で締めくくりました
01:26
"We have a challenge.
18
86478
3866
「私たちには課題があります
01:30
We have to create a culture around technology
19
90368
4024
テクノロジーの周辺に
01:34
that is so beautiful, so meaningful,
20
94416
3968
美しく 意義深く
01:38
so deep, so endlessly creative,
21
98408
2541
深淵で 終わりなき創造性と
01:40
so filled with infinite potential
22
100973
3016
無限の可能性に溢れた カルチャーを生み出し
01:44
that it draws us away from committing mass suicide."
23
104013
3253
我々を自滅の道から救わなければ」
01:48
So we talked about extinction as being one and the same
24
108519
5588
つまり 我々の絶滅と 魅惑的で無限の創造性に満ちた—
01:54
as the need to create an alluring, infinitely creative future.
25
114131
4830
未来を創る必要性を 表裏一体のものとして語ったんです
01:59
And I still believe that that alternative of creativity
26
119639
5382
今でも 人類の滅亡にとって代わるものが
02:05
as an alternative to death
27
125045
1974
創造性であるという考えは
02:07
is very real and true,
28
127043
1969
とても現実的であり 正しい考えだと思っています
02:09
maybe the most true thing there is.
29
129036
1983
これはおそらく最も確かな真実でしょう
02:11
In the case of virtual reality --
30
131870
2095
VRに関しては
02:13
well, the way I used to talk about it
31
133989
2282
私はこんな風に言っていたものです
02:16
is that it would be something like
32
136295
2635
「人類が言葉を発見したときのようなことが 起こるだろう」
02:18
what happened when people discovered language.
33
138954
2850
02:21
With language came new adventures, new depth, new meaning,
34
141828
4675
言葉のお陰で 新しい冒険や 新たな深み、新しい意味
02:26
new ways to connect, new ways to coordinate,
35
146527
2080
新しい交流の方法 新しい協力の方法
02:28
new ways to imagine, new ways to raise children,
36
148631
4034
想像の方法や 子供を育てる方法が生まれましたが
02:32
and I imagined, with virtual reality, we'd have this new thing
37
152689
4262
VRによって 会話のようなものでありつつも
02:36
that would be like a conversation
38
156975
1593
02:38
but also like waking-state intentional dreaming.
39
158592
3344
覚醒しながら意識的に夢を見るような 新たなものが生まれると想像していました
02:41
We called it post-symbolic communication,
40
161960
2653
それをこう呼びました 「ポスト記号的コミュニケーション」
02:44
because it would be like just directly making the thing you experienced
41
164637
4358
記号を使って何かを間接的に 言い表す代わりに
02:49
instead of indirectly making symbols to refer to things.
42
169019
3619
VRは 体験を直接表現する ようなものだからです
02:53
It was a beautiful vision, and it's one I still believe in,
43
173466
4338
それは美しいビジョンで 私は今もそれを信じています
02:57
and yet, haunting that beautiful vision
44
177828
3215
ですが その美しいビジョンを 脅かしたのは
03:01
was the dark side of how it could also turn out.
45
181067
3150
そのビジョンが陥る可能性のある 暗黒面でした
03:04
And I suppose I could mention
46
184241
5048
ある先駆的コンピューター・ サイエンティストについて
03:09
from one of the very earliest computer scientists,
47
189313
3064
お話ししてみようと思います
03:12
whose name was Norbert Wiener,
48
192401
2135
ノーバート・ウィナーという人で
03:14
and he wrote a book back in the '50s, from before I was even born,
49
194560
3754
私が生まれる前の1950年代に
03:18
called "The Human Use of Human Beings."
50
198338
2658
『人間機械論』という本を 著しました
03:21
And in the book, he described the potential
51
201779
4172
その中で彼は
03:25
to create a computer system that would be gathering data from people
52
205975
6181
人々からデータを収集し 即時にフィードバックをする
03:32
and providing feedback to those people in real time
53
212180
3572
コンピューター・システムを作る 可能性を述べていました
03:35
in order to put them kind of partially, statistically, in a Skinner box,
54
215776
5135
これは行動主義者が考え出した装置 スキナー箱に人々を入れるようなものですが
03:40
in a behaviorist system,
55
220935
2444
データは統計学的に分析されます
03:43
and he has this amazing line where he says,
56
223403
2501
彼が言った卓越した一節に こういうものがあります
03:45
one could imagine, as a thought experiment --
57
225928
2738
「思考実験として こう想像できる—」
03:48
and I'm paraphrasing, this isn't a quote --
58
228690
2461
これは引用ではなく 私が言い換えていますが
03:51
one could imagine a global computer system
59
231175
3080
「世界規模の コンピューター・システムを想像できる
03:54
where everybody has devices on them all the time,
60
234279
2842
そこでは誰もが常時デバイスを身につけ
03:57
and the devices are giving them feedback based on what they did,
61
237145
3272
デバイスが彼らの行動に基づき フィードバックを与える
04:00
and the whole population
62
240441
1875
そして全人類が
04:02
is subject to a degree of behavior modification.
63
242340
3576
ある程度の行動変容をさせられるようになる
04:05
And such a society would be insane,
64
245940
3546
そして そのような社会は狂っていて
04:09
could not survive, could not face its problems.
65
249510
3097
存続も 社会問題の解決も ままならないだろう」
04:12
And then he says, but this is only a thought experiment,
66
252631
2621
そしてこう続きます 「しかしこれは思考実験に過ぎず
04:15
and such a future is technologically infeasible.
67
255276
3420
そんな未来は技術的に実現不可能である」
04:18
(Laughter)
68
258720
1092
(笑)
04:19
And yet, of course, it's what we have created,
69
259836
3002
でも もちろん そんな技術を 作り出してしまったのですから
04:22
and it's what we must undo if we are to survive.
70
262862
3277
人類の存続のために 取り消さなければならないのです
04:27
So --
71
267457
1151
つまり
04:28
(Applause)
72
268632
3540
(拍手)
04:32
I believe that we made a very particular mistake,
73
272631
5977
人類は 非常に特殊な間違いを
04:38
and it happened early on,
74
278632
2234
初期の頃に犯してしまったのだと 思います
04:40
and by understanding the mistake we made,
75
280890
2074
そして犯してしまった間違いを 理解することで
04:42
we can undo it.
76
282988
1859
それを正すことができます
04:44
It happened in the '90s,
77
284871
2559
その間違いは1990年代に起こり
04:47
and going into the turn of the century,
78
287454
2742
まさに世紀末に差し掛かる頃でした
04:50
and here's what happened.
79
290220
1388
こういうことです
04:53
Early digital culture,
80
293200
1374
黎明期のデジタル・カルチャーには
04:54
and indeed, digital culture to this day,
81
294598
4972
― 実のところ 現在もそうですが ―
04:59
had a sense of, I would say, lefty, socialist mission about it,
82
299594
6309
左派的、社会主義的使命感が あったと思います
05:05
that unlike other things that have been done,
83
305927
2160
それは本の発明などの
05:08
like the invention of books,
84
308111
1434
他の発明には無かったもので
05:09
everything on the internet must be purely public,
85
309569
3413
インターネット上の全てのものは 大衆に自由に公開され
05:13
must be available for free,
86
313006
2325
無料で提供されるべきだというものです
05:15
because if even one person cannot afford it,
87
315355
3388
なぜなら 経済的な原因で アクセスできない人が一人でもいれば
05:18
then that would create this terrible inequity.
88
318767
2572
それが甚だしい不平等を 生み出すからです
05:21
Now of course, there's other ways to deal with that.
89
321912
2524
さてもちろん それを解消するには他にも方法があります
05:24
If books cost money, you can have public libraries.
90
324460
3016
本が高価なら 図書館に行けば良い
05:27
And so forth.
91
327500
1174
などなどです
05:28
But we were thinking, no, no, no, this is an exception.
92
328698
2618
でも私たちは 「いやいや これは特別なもので
05:31
This must be pure public commons, that's what we want.
93
331340
4605
純粋に共有空間にすべきなんだ」と 考えていました
05:35
And so that spirit lives on.
94
335969
2634
その精神は今も生きていて
05:38
You can experience it in designs like the Wikipedia, for instance,
95
338627
3715
ウィキペディアや多くのものの仕組みに
05:42
many others.
96
342366
1341
それを見ることができます
05:43
But at the same time,
97
343731
1874
ですが同時に
05:45
we also believed, with equal fervor,
98
345629
2588
私たちは同じ程度の情熱で
05:48
in this other thing that was completely incompatible,
99
348241
3937
これとは完全に相入れないものを もう一つ信じていました
05:52
which is we loved our tech entrepreneurs.
100
352202
3627
テクノロジー起業家達です
05:55
We loved Steve Jobs; we loved this Nietzschean myth
101
355853
3739
私たちはスティーブ・ジョブズを崇め
05:59
of the techie who could dent the universe.
102
359616
3468
技術オタクが世界に風穴を開けるという ニーチェ的神話を愛しました
06:03
Right?
103
363108
1318
そうでしたね?
06:04
And that mythical power still has a hold on us, as well.
104
364450
5848
その神秘的な力は 未だに影響を及ぼし続けています
06:10
So you have these two different passions,
105
370322
4459
そう これらの2つの異なるものへの 情熱があるのです
06:14
for making everything free
106
374805
1937
「あらゆるものを無料に」
06:16
and for the almost supernatural power of the tech entrepreneur.
107
376766
5166
「まるで超自然的な力を持つテック起業家」
06:21
How do you celebrate entrepreneurship when everything's free?
108
381956
4352
全てが無料だとしたら 起業家精神は どのような報酬で報いられるのでしょう?
06:26
Well, there was only one solution back then,
109
386332
3125
その当時は広告モデルしか その方法が無かったんです
06:29
which was the advertising model.
110
389481
2087
06:31
And so therefore, Google was born free, with ads,
111
391592
4003
それでGoogleが無料サービスとして 広告モデルを携えて誕生しました
06:35
Facebook was born free, with ads.
112
395619
3682
Facebookも然り
06:39
Now in the beginning, it was cute,
113
399325
3865
初めは— それはごく初期のGoogleのように
06:43
like with the very earliest Google.
114
403214
1960
カワイイものでした
06:45
(Laughter)
115
405198
1286
(笑)
06:46
The ads really were kind of ads.
116
406508
2897
それはごく当たり前の広告で
06:49
They would be, like, your local dentist or something.
117
409429
2485
地域の歯医者さんの宣伝なんかでした
06:51
But there's thing called Moore's law
118
411938
1920
しかし「ムーアの法則」 というものに従い
06:53
that makes the computers more and more efficient and cheaper.
119
413882
3142
コンピューターの性能がどんどん上がり 価格は下がっていきます
06:57
Their algorithms get better.
120
417048
1858
アルゴリズムも向上していきます
06:58
We actually have universities where people study them,
121
418930
2596
大学の研究者によって
07:01
and they get better and better.
122
421550
1628
アルゴリズムはどんどん進化します
07:03
And the customers and other entities who use these systems
123
423202
4452
システムを使う顧客や企業などは
07:07
just got more and more experienced and got cleverer and cleverer.
124
427678
4127
経験値を高め 知恵をつけていきました
07:11
And what started out as advertising
125
431829
2397
そうして単なるネットの広告だったものは
07:14
really can't be called advertising anymore.
126
434250
2477
もはやそう呼べないものに進化し
07:16
It turned into behavior modification,
127
436751
2912
行動変容装置へと進化しました
07:19
just as Norbert Wiener had worried it might.
128
439687
4493
ノーバート・ウィーナーが 憂慮したとおりのことが起きたのです
07:24
And so I can't call these things social networks anymore.
129
444204
4620
もはや これは 「ソーシャル・ネットワーク」と呼べず
07:28
I call them behavior modification empires.
130
448848
3814
私は「行動変容帝国」と呼んでいます
07:32
(Applause)
131
452686
2235
(拍手)
07:34
And I refuse to vilify the individuals.
132
454945
4214
特定の個人を非難する気はありません
07:39
I have dear friends at these companies,
133
459183
2271
テック企業には大事な友人がいるんです
07:41
sold a company to Google, even though I think it's one of these empires.
134
461478
4760
Googleに会社を売却したりして— それも帝国の一つですが
07:46
I don't think this is a matter of bad people who've done a bad thing.
135
466262
5060
これは「悪人たちが悪事を働いた」 といったようなことではなく
07:51
I think this is a matter of a globally tragic,
136
471346
4576
世界的規模で起きた 悲劇的で
07:55
astoundingly ridiculous mistake,
137
475946
4572
驚くほど馬鹿げた 間違いだと思っています
08:00
rather than a wave of evil.
138
480542
4129
悪の波が押し寄せた なんてものではありません
08:04
Let me give you just another layer of detail
139
484695
2682
この特殊な間違いの仕組みを
08:07
into how this particular mistake functions.
140
487401
3103
もう一段 詳しく説明しましょう
08:11
So with behaviorism,
141
491337
2707
行動主義の考えに従い
08:14
you give the creature, whether it's a rat or a dog or a person,
142
494068
5064
ネズミであれ 犬であれ 人であれ 生き物に対し
08:19
little treats and sometimes little punishments
143
499156
2840
ちょっとしたご褒美や 時には罰を
08:22
as feedback to what they do.
144
502020
1817
行動へのフィードバックとして与えます
08:24
So if you have an animal in a cage, it might be candy and electric shocks.
145
504710
5912
檻に入った動物だったら キャンディーや電気ショックを与えますが
08:30
But if you have a smartphone,
146
510646
2524
スマートフォンをもった人に対しては
08:33
it's not those things, it's symbolic punishment and reward.
147
513194
6926
そういうものの代わりに 罰や報酬を象徴で与えます
08:40
Pavlov, one of the early behaviorists,
148
520144
2443
初期の行動主義者だったパブロフは
08:42
demonstrated the famous principle.
149
522611
2952
有名な原理を証明しました
08:45
You could train a dog to salivate just with the bell, just with the symbol.
150
525587
3961
ベルを鳴らすだけで犬に涎を 垂らさせたのです 象徴への反応です
08:49
So on social networks,
151
529572
1586
ソーシャル・ネットワークでは
08:51
social punishment and social reward function as the punishment and reward.
152
531182
5080
社会的賞罰が 報酬や罰として機能します
08:56
And we all know the feeling of these things.
153
536286
2077
皆さんがご存知の あの気持ちです
08:58
You get this little thrill --
154
538387
1451
皆さんはこんなスリルを感じます
08:59
"Somebody liked my stuff and it's being repeated."
155
539862
2350
「誰かが私の投稿をいいねした いいねが伸びてる!」
09:02
Or the punishment: "Oh my God, they don't like me,
156
542236
2334
あるいは罰の方 「ああ 私は人気が無い
09:04
maybe somebody else is more popular, oh my God."
157
544594
2239
もっと人気のある人がいるんだな」
09:06
So you have those two very common feelings,
158
546857
2226
皆に共通する このような2つの感情が
09:09
and they're doled out in such a way that you get caught in this loop.
159
549107
3564
少しずつ与えられ 皆さんはループに囚われてしまいます
09:12
As has been publicly acknowledged by many of the founders of the system,
160
552695
4095
これはシステムの創始者たちの多くが 公に認めていることです
09:16
everybody knew this is what was going on.
161
556814
2341
誰もがこの事態を理解しています
09:19
But here's the thing:
162
559871
1619
しかし
09:21
traditionally, in the academic study of the methods of behaviorism,
163
561514
5294
行動主義の学術研究においては 伝統的に
09:26
there have been comparisons of positive and negative stimuli.
164
566832
5436
ネガティブとポジティブ刺激を 比較してきました
09:32
In this setting, a commercial setting,
165
572292
2364
ところが この商業的環境では
09:34
there's a new kind of difference
166
574680
1596
学問の世界では しばらく注目されてこなかった
09:36
that has kind of evaded the academic world for a while,
167
576300
2769
2種の刺激についての 新たな見方が生まれています
09:39
and that difference is that whether positive stimuli
168
579093
4048
学問的な見方と違う点は ポジティブな刺激が
09:43
are more effective than negative ones in different circumstances,
169
583165
3309
状況によっては ネガティブな刺激よりも効果があるにせよ
09:46
the negative ones are cheaper.
170
586498
2104
ネガティブな刺激は 安上がりだということです
09:48
They're the bargain stimuli.
171
588626
2056
ネガティブな刺激は お手頃なんです
09:50
So what I mean by that is it's much easier
172
590706
5703
つまり 信頼を築くよりも
09:56
to lose trust than to build trust.
173
596433
3116
信頼失う方が 簡単に起きるということです
09:59
It takes a long time to build love.
174
599573
3172
愛を築くには長い時間がかかりますが
10:02
It takes a short time to ruin love.
175
602769
2606
壊れるのはあっという間です
10:05
Now the customers of these behavior modification empires
176
605399
4588
この行動変容帝国の顧客たちは
10:10
are on a very fast loop.
177
610011
1423
超高速のループにいます
10:11
They're almost like high-frequency traders.
178
611458
2045
まるで高頻度取引トレーダーのようです
10:13
They're getting feedbacks from their spends
179
613527
2024
購入者からフィードバックを受けたり
10:15
or whatever their activities are if they're not spending,
180
615575
2802
購入でなければ ユーザーの行動から フィードバックを受けたりすることで
10:18
and they see what's working, and then they do more of that.
181
618401
3270
企業側は何が効果があるか理解し それを更に提供します
10:21
And so they're getting the quick feedback,
182
621695
2040
つまり フィードバックを 即座に受けることとは
10:23
which means they're responding more to the negative emotions,
183
623759
3040
より頻繁にネガティブな感情に 反応しています
10:26
because those are the ones that rise faster, right?
184
626823
3937
何故ならそれらがより素早く 生じる感情だからです そうでしょう?
10:30
And so therefore, even well-intentioned players
185
630784
3548
ですから 善意の企業が
10:34
who think all they're doing is advertising toothpaste
186
634356
2865
自分たちは ただ歯磨き粉を 宣伝しているだけと思っていたとしても
10:37
end up advancing the cause of the negative people,
187
637245
3031
ネガティブな人々
10:40
the negative emotions, the cranks,
188
640300
2334
ネガティブな気持ちの人 気分屋
10:42
the paranoids,
189
642658
1444
偏執症患者
10:44
the cynics, the nihilists.
190
644126
3080
皮肉屋やニヒリストの主張を 宣伝する羽目に陥ってしまいます
10:47
Those are the ones who get amplified by the system.
191
647230
3493
そういう人々が このシステムによって増長するのです
10:50
And you can't pay one of these companies to make the world suddenly nice
192
650747
5651
このような企業にお金を払って 急に世界を良い場所に変えたり
10:56
and improve democracy
193
656422
1151
民主主義を改善したりするのは
10:57
nearly as easily as you can pay to ruin those things.
194
657597
3841
お金を払って こうしたものを 壊すほどには簡単にできません
11:01
And so this is the dilemma we've gotten ourselves into.
195
661462
3719
つまりこれが私たちが自らを追い込んだ ジレンマというわけです
11:05
The alternative is to turn back the clock, with great difficulty,
196
665856
5232
別の手段は 骨を折って時間を巻き戻し
11:11
and remake that decision.
197
671112
2841
選択をやり直すことです
11:13
Remaking it would mean two things.
198
673977
4038
それは2つの事を意味します
11:18
It would mean first that many people, those who could afford to,
199
678039
3928
まず経済的に余裕のある多くの人々が
11:21
would actually pay for these things.
200
681991
2207
こうしたサービスに代金を支払うことです
11:24
You'd pay for search, you'd pay for social networking.
201
684222
4407
サーチ・エンジンやSNSの 利用料金を支払うんです
11:28
How would you pay? Maybe with a subscription fee,
202
688653
3461
支払いの方法は 購読料や
11:32
maybe with micro-payments as you use them.
203
692138
2738
利用しただけ支払う マイクロ・ペイメントが考えられます
11:34
There's a lot of options.
204
694900
1802
他にも色々な選択肢が考えられます
11:36
If some of you are recoiling, and you're thinking,
205
696726
2397
もし皆さんの中には ひるんでしまい
11:39
"Oh my God, I would never pay for these things.
206
699147
2366
「まさか こんなものに金を出すなんて考えられない
11:41
How could you ever get anyone to pay?"
207
701537
2095
支払う人なんているだろうか?」 と考える方がいたら
11:43
I want to remind you of something that just happened.
208
703656
3239
最近起こった事を思い出して欲しいのですが
11:46
Around this same time
209
706919
2054
Google や Facebookといった会社が
11:48
that companies like Google and Facebook were formulating their free idea,
210
708997
5707
無料サービスに基づくビジネス構想を 練り上げていた同じ頃
11:54
a lot of cyber culture also believed that in the future,
211
714728
4504
サイバー・カルチャー界隈の人々の多くは
11:59
televisions and movies would be created in the same way,
212
719256
3022
将来テレビや映画が ウィキペディアと同じような仕組みで
12:02
kind of like the Wikipedia.
213
722302
1755
作られるようになると信じていました
12:04
But then, companies like Netflix, Amazon, HBO,
214
724456
5064
ところが Netflix、Amazon、HBOなどが
12:09
said, "Actually, you know, subscribe. We'll give you give you great TV."
215
729544
3739
「購読すれば 素晴らしい番組を 提供しますよ」と言ったんです
12:13
And it worked!
216
733307
1373
そして成功しました!
12:14
We now are in this period called "peak TV," right?
217
734704
3874
私たちは現在この「テレビの黄金時代」に 生きていますよね?
12:18
So sometimes when you pay for stuff, things get better.
218
738602
4198
だから 代金を払ったら 良いこともあるんですよ
12:22
We can imagine a hypothetical --
219
742824
2286
仮に「ソーシャルメディア黄金時代」を
12:25
(Applause)
220
745134
4671
(拍手)
12:29
We can imagine a hypothetical world of "peak social media."
221
749829
3659
仮に「ソーシャルメディア黄金時代」を 想像してみましょう
12:33
What would that be like?
222
753512
1349
それはどんなものになるでしょうか?
12:34
It would mean when you get on, you can get really useful,
223
754885
2770
ログインすると ゴミのような情報ではなく
12:37
authoritative medical advice instead of cranks.
224
757679
3095
信頼できる情報源からの とても有益な医療アドバイスが得られ
12:41
It could mean when you want to get factual information,
225
761143
3310
事実に基づいた情報を探す時
12:44
there's not a bunch of weird, paranoid conspiracy theories.
226
764477
3254
そこには奇妙で偏執的な 陰謀論は存在しません
12:47
We can imagine this wonderful other possibility.
227
767755
4235
この素晴らしいもう一つの世界も 想像することができます
12:52
Ah.
228
772014
1261
ああ!
12:53
I dream of it. I believe it's possible.
229
773299
2130
私はそれを夢見て それが実現可能だと信じています
12:55
I'm certain it's possible.
230
775453
3302
実現できると確信しています
12:58
And I'm certain that the companies, the Googles and the Facebooks,
231
778779
4747
そして GoogleやFacebookなどの企業は
13:03
would actually do better in this world.
232
783550
2312
そのような世界で もっと成功するだろうと信じています
13:05
I don't believe we need to punish Silicon Valley.
233
785886
3166
私はシリコン・バレーが 罰を受けるべきだとは思いません
13:09
We just need to remake the decision.
234
789076
2253
私たちは単に選択し直せばいいんです
13:12
Of the big tech companies,
235
792702
1882
大テクノロジー企業の中で
13:14
it's really only two that depend on behavior modification and spying
236
794608
5563
ビジネスプランが 行動変容とスパイ行為に依存しているのは
13:20
as their business plan.
237
800195
1257
実は2社しかありません
13:21
It's Google and Facebook.
238
801476
1759
Google と Facebookです
13:23
(Laughter)
239
803259
1310
(笑)
13:24
And I love you guys.
240
804593
1691
私は彼らが好きですよ
13:26
Really, I do. Like, the people are fantastic.
241
806308
2721
本当です 社員は素晴らしい人ばかりです
13:30
I want to point out, if I may,
242
810371
3182
ただ 言わせてもらえば
13:33
if you look at Google,
243
813577
1151
例えばGoogleでは
13:34
they can propagate cost centers endlessly with all of these companies,
244
814752
5087
コストセンターをこれらの会社と共に 際限無く増やしていくことができますが
13:39
but they cannot propagate profit centers.
245
819863
2048
プロフィットセンターは 増やせません
13:41
They cannot diversify, because they're hooked.
246
821935
3181
彼らは病みつきになっていて ビジネスモデルの多様化ができません
13:45
They're hooked on this model, just like their own users.
247
825140
2627
ユーザー達と共に このビジネスモデルに夢中になっているのです
13:47
They're in the same trap as their users,
248
827791
2298
ユーザー達と同じ罠に嵌ってしまっています
13:50
and you can't run a big corporation that way.
249
830113
2504
そのようなやり方では 大企業の経営はできません
13:52
So this is ultimately totally in the benefit of the shareholders
250
832641
3603
ですからこのモデルは 究極的には 株主 さらにはこうした会社の
13:56
and other stakeholders of these companies.
251
836268
2445
他の利害関係者たちの利益にも なるんです
13:58
It's a win-win solution.
252
838737
2350
双方の利益になるソリューションです
14:01
It'll just take some time to figure it out.
253
841111
2515
ただ問題解決には 時間を要するでしょう
14:03
A lot of details to work out,
254
843650
2262
膨大な細部を見直さなければなりませんが
14:05
totally doable.
255
845936
1830
当然やってのけられますよ
14:07
(Laughter)
256
847790
2415
(笑)
14:10
I don't believe our species can survive unless we fix this.
257
850229
3834
人類はこの間違いを正さない限り 生き延びられないだろうと思います
14:14
We cannot have a society
258
854087
2290
2人の人間が
14:16
in which, if two people wish to communicate,
259
856401
2961
お互いに会話をしたい時 その唯一の手段が
14:19
the only way that can happen is if it's financed by a third person
260
859386
3440
彼らを意のままに操りたいと考える 第三者の経済的支援無くしては
14:22
who wishes to manipulate them.
261
862850
2346
成り立たないような社会には住めないのです
14:25
(Applause)
262
865220
6238
(拍手)
(拍手が鳴りやむ)
14:35
(Applause ends)
263
875077
1151
14:36
In the meantime, if the companies won't change,
264
876942
2945
もし企業が変わらなければ
14:39
delete your accounts, OK?
265
879911
1666
アカウントを消しましょう いいですね?
14:41
(Laughter)
266
881601
1269
(笑)
14:42
(Applause)
267
882894
1046
(拍手)
14:43
That's enough for now.
268
883964
1509
これ位にしておきましょう
14:45
Thank you so much.
269
885497
1151
ありがとうございます
14:46
(Applause)
270
886672
6804
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7