下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Eriko T
校正: Tomoyuki Suzuki
00:12
Back in the 1980s, actually,
I gave my first talk at TED,
0
12944
4009
1980年代に私は初めて
TEDで講演しましたが
00:16
and I brought some of the very,
very first public demonstrations
1
16977
4262
世界で最初のVR(仮想現実)のデモを
00:21
of virtual reality ever to the TED stage.
2
21263
4234
TEDの舞台でいくつか披露しました
00:26
And at that time, we knew
that we were facing a knife-edge future
3
26375
6867
当時 私たちは
未来は危うい状況にあり
00:33
where the technology we needed,
4
33266
5201
私たちが必要とし
00:38
the technology we loved,
5
38491
1851
愛したテクノロジーが
00:40
could also be our undoing.
6
40366
2047
私たちを破滅に導くかもしれないと
気づいていました
00:43
We knew that if we thought
of our technology
7
43266
4091
私たちは もしテクノロジーを
00:47
as a means to ever more power,
8
47381
3254
権力を手にする道具だと考え
権力を握ること自体が目的化したら
00:50
if it was just a power trip,
we'd eventually destroy ourselves.
9
50659
3707
人類は自滅するだろうと
わかっていました
00:54
That's what happens
10
54390
1181
権力だけを追求すると
00:55
when you're on a power trip
and nothing else.
11
55595
2787
そうなるものです
00:59
So the idealism
12
59509
3389
当時のデジタル・カルチャーの
理想は
01:02
of digital culture back then
13
62922
4809
01:07
was all about starting with
that recognition of the possible darkness
14
67755
4739
何よりもまず
この闇へ陥る可能性を認識した上で
01:12
and trying to imagine
a way to transcend it
15
72518
3350
それを美や創造性で乗り越える方法を
01:15
with beauty and creativity.
16
75892
2578
模索することだったのです
01:19
I always used to end my early TED Talks
with a rather horrifying line, which is,
17
79033
6507
私はいつも自分のTEDトークを
やや恐怖感を煽る文句で締めくくりました
01:26
"We have a challenge.
18
86478
3866
「私たちには課題があります
01:30
We have to create
a culture around technology
19
90368
4024
テクノロジーの周辺に
01:34
that is so beautiful, so meaningful,
20
94416
3968
美しく 意義深く
01:38
so deep, so endlessly creative,
21
98408
2541
深淵で 終わりなき創造性と
01:40
so filled with infinite potential
22
100973
3016
無限の可能性に溢れた
カルチャーを生み出し
01:44
that it draws us away
from committing mass suicide."
23
104013
3253
我々を自滅の道から救わなければ」
01:48
So we talked about extinction
as being one and the same
24
108519
5588
つまり 我々の絶滅と
魅惑的で無限の創造性に満ちた—
01:54
as the need to create an alluring,
infinitely creative future.
25
114131
4830
未来を創る必要性を
表裏一体のものとして語ったんです
01:59
And I still believe
that that alternative of creativity
26
119639
5382
今でも
人類の滅亡にとって代わるものが
02:05
as an alternative to death
27
125045
1974
創造性であるという考えは
02:07
is very real and true,
28
127043
1969
とても現実的であり
正しい考えだと思っています
02:09
maybe the most true thing there is.
29
129036
1983
これはおそらく最も確かな真実でしょう
02:11
In the case of virtual reality --
30
131870
2095
VRに関しては
02:13
well, the way I used to talk about it
31
133989
2282
私はこんな風に言っていたものです
02:16
is that it would be something like
32
136295
2635
「人類が言葉を発見したときのようなことが
起こるだろう」
02:18
what happened when people
discovered language.
33
138954
2850
02:21
With language came new adventures,
new depth, new meaning,
34
141828
4675
言葉のお陰で 新しい冒険や
新たな深み、新しい意味
02:26
new ways to connect,
new ways to coordinate,
35
146527
2080
新しい交流の方法
新しい協力の方法
02:28
new ways to imagine,
new ways to raise children,
36
148631
4034
想像の方法や
子供を育てる方法が生まれましたが
02:32
and I imagined, with virtual reality,
we'd have this new thing
37
152689
4262
VRによって
会話のようなものでありつつも
02:36
that would be like a conversation
38
156975
1593
02:38
but also like waking-state
intentional dreaming.
39
158592
3344
覚醒しながら意識的に夢を見るような
新たなものが生まれると想像していました
02:41
We called it post-symbolic communication,
40
161960
2653
それをこう呼びました
「ポスト記号的コミュニケーション」
02:44
because it would be like just directly
making the thing you experienced
41
164637
4358
記号を使って何かを間接的に
言い表す代わりに
02:49
instead of indirectly
making symbols to refer to things.
42
169019
3619
VRは 体験を直接表現する
ようなものだからです
02:53
It was a beautiful vision,
and it's one I still believe in,
43
173466
4338
それは美しいビジョンで
私は今もそれを信じています
02:57
and yet, haunting that beautiful vision
44
177828
3215
ですが その美しいビジョンを
脅かしたのは
03:01
was the dark side
of how it could also turn out.
45
181067
3150
そのビジョンが陥る可能性のある
暗黒面でした
03:04
And I suppose I could mention
46
184241
5048
ある先駆的コンピューター・
サイエンティストについて
03:09
from one of the very earliest
computer scientists,
47
189313
3064
お話ししてみようと思います
03:12
whose name was Norbert Wiener,
48
192401
2135
ノーバート・ウィナーという人で
03:14
and he wrote a book back in the '50s,
from before I was even born,
49
194560
3754
私が生まれる前の1950年代に
03:18
called "The Human Use of Human Beings."
50
198338
2658
『人間機械論』という本を
著しました
03:21
And in the book,
he described the potential
51
201779
4172
その中で彼は
03:25
to create a computer system
that would be gathering data from people
52
205975
6181
人々からデータを収集し
即時にフィードバックをする
03:32
and providing feedback
to those people in real time
53
212180
3572
コンピューター・システムを作る
可能性を述べていました
03:35
in order to put them kind of partially,
statistically, in a Skinner box,
54
215776
5135
これは行動主義者が考え出した装置
スキナー箱に人々を入れるようなものですが
03:40
in a behaviorist system,
55
220935
2444
データは統計学的に分析されます
03:43
and he has this amazing line
where he says,
56
223403
2501
彼が言った卓越した一節に
こういうものがあります
03:45
one could imagine,
as a thought experiment --
57
225928
2738
「思考実験として こう想像できる—」
03:48
and I'm paraphrasing,
this isn't a quote --
58
228690
2461
これは引用ではなく
私が言い換えていますが
03:51
one could imagine a global computer system
59
231175
3080
「世界規模の
コンピューター・システムを想像できる
03:54
where everybody has devices
on them all the time,
60
234279
2842
そこでは誰もが常時デバイスを身につけ
03:57
and the devices are giving them
feedback based on what they did,
61
237145
3272
デバイスが彼らの行動に基づき
フィードバックを与える
04:00
and the whole population
62
240441
1875
そして全人類が
04:02
is subject to a degree
of behavior modification.
63
242340
3576
ある程度の行動変容をさせられるようになる
04:05
And such a society would be insane,
64
245940
3546
そして そのような社会は狂っていて
04:09
could not survive,
could not face its problems.
65
249510
3097
存続も 社会問題の解決も
ままならないだろう」
04:12
And then he says, but this is
only a thought experiment,
66
252631
2621
そしてこう続きます
「しかしこれは思考実験に過ぎず
04:15
and such a future
is technologically infeasible.
67
255276
3420
そんな未来は技術的に実現不可能である」
04:18
(Laughter)
68
258720
1092
(笑)
04:19
And yet, of course,
it's what we have created,
69
259836
3002
でも もちろん そんな技術を
作り出してしまったのですから
04:22
and it's what we must undo
if we are to survive.
70
262862
3277
人類の存続のために
取り消さなければならないのです
04:27
So --
71
267457
1151
つまり
04:28
(Applause)
72
268632
3540
(拍手)
04:32
I believe that we made
a very particular mistake,
73
272631
5977
人類は 非常に特殊な間違いを
04:38
and it happened early on,
74
278632
2234
初期の頃に犯してしまったのだと
思います
04:40
and by understanding the mistake we made,
75
280890
2074
そして犯してしまった間違いを
理解することで
04:42
we can undo it.
76
282988
1859
それを正すことができます
04:44
It happened in the '90s,
77
284871
2559
その間違いは1990年代に起こり
04:47
and going into the turn of the century,
78
287454
2742
まさに世紀末に差し掛かる頃でした
04:50
and here's what happened.
79
290220
1388
こういうことです
04:53
Early digital culture,
80
293200
1374
黎明期のデジタル・カルチャーには
04:54
and indeed, digital culture to this day,
81
294598
4972
― 実のところ 現在もそうですが ―
04:59
had a sense of, I would say,
lefty, socialist mission about it,
82
299594
6309
左派的、社会主義的使命感が
あったと思います
05:05
that unlike other things
that have been done,
83
305927
2160
それは本の発明などの
05:08
like the invention of books,
84
308111
1434
他の発明には無かったもので
05:09
everything on the internet
must be purely public,
85
309569
3413
インターネット上の全てのものは
大衆に自由に公開され
05:13
must be available for free,
86
313006
2325
無料で提供されるべきだというものです
05:15
because if even one person
cannot afford it,
87
315355
3388
なぜなら 経済的な原因で
アクセスできない人が一人でもいれば
05:18
then that would create
this terrible inequity.
88
318767
2572
それが甚だしい不平等を
生み出すからです
05:21
Now of course, there's other ways
to deal with that.
89
321912
2524
さてもちろん
それを解消するには他にも方法があります
05:24
If books cost money,
you can have public libraries.
90
324460
3016
本が高価なら 図書館に行けば良い
05:27
And so forth.
91
327500
1174
などなどです
05:28
But we were thinking, no, no, no,
this is an exception.
92
328698
2618
でも私たちは
「いやいや これは特別なもので
05:31
This must be pure public commons,
that's what we want.
93
331340
4605
純粋に共有空間にすべきなんだ」と
考えていました
05:35
And so that spirit lives on.
94
335969
2634
その精神は今も生きていて
05:38
You can experience it in designs
like the Wikipedia, for instance,
95
338627
3715
ウィキペディアや多くのものの仕組みに
05:42
many others.
96
342366
1341
それを見ることができます
05:43
But at the same time,
97
343731
1874
ですが同時に
05:45
we also believed, with equal fervor,
98
345629
2588
私たちは同じ程度の情熱で
05:48
in this other thing
that was completely incompatible,
99
348241
3937
これとは完全に相入れないものを
もう一つ信じていました
05:52
which is we loved our tech entrepreneurs.
100
352202
3627
テクノロジー起業家達です
05:55
We loved Steve Jobs;
we loved this Nietzschean myth
101
355853
3739
私たちはスティーブ・ジョブズを崇め
05:59
of the techie who could dent the universe.
102
359616
3468
技術オタクが世界に風穴を開けるという
ニーチェ的神話を愛しました
06:03
Right?
103
363108
1318
そうでしたね?
06:04
And that mythical power
still has a hold on us, as well.
104
364450
5848
その神秘的な力は
未だに影響を及ぼし続けています
06:10
So you have these two different passions,
105
370322
4459
そう これらの2つの異なるものへの
情熱があるのです
06:14
for making everything free
106
374805
1937
「あらゆるものを無料に」
06:16
and for the almost supernatural
power of the tech entrepreneur.
107
376766
5166
「まるで超自然的な力を持つテック起業家」
06:21
How do you celebrate entrepreneurship
when everything's free?
108
381956
4352
全てが無料だとしたら 起業家精神は
どのような報酬で報いられるのでしょう?
06:26
Well, there was only
one solution back then,
109
386332
3125
その当時は広告モデルしか
その方法が無かったんです
06:29
which was the advertising model.
110
389481
2087
06:31
And so therefore, Google
was born free, with ads,
111
391592
4003
それでGoogleが無料サービスとして
広告モデルを携えて誕生しました
06:35
Facebook was born free, with ads.
112
395619
3682
Facebookも然り
06:39
Now in the beginning, it was cute,
113
399325
3865
初めは—
それはごく初期のGoogleのように
06:43
like with the very earliest Google.
114
403214
1960
カワイイものでした
06:45
(Laughter)
115
405198
1286
(笑)
06:46
The ads really were kind of ads.
116
406508
2897
それはごく当たり前の広告で
06:49
They would be, like,
your local dentist or something.
117
409429
2485
地域の歯医者さんの宣伝なんかでした
06:51
But there's thing called Moore's law
118
411938
1920
しかし「ムーアの法則」
というものに従い
06:53
that makes the computers
more and more efficient and cheaper.
119
413882
3142
コンピューターの性能がどんどん上がり
価格は下がっていきます
06:57
Their algorithms get better.
120
417048
1858
アルゴリズムも向上していきます
06:58
We actually have universities
where people study them,
121
418930
2596
大学の研究者によって
07:01
and they get better and better.
122
421550
1628
アルゴリズムはどんどん進化します
07:03
And the customers and other entities
who use these systems
123
423202
4452
システムを使う顧客や企業などは
07:07
just got more and more experienced
and got cleverer and cleverer.
124
427678
4127
経験値を高め 知恵をつけていきました
07:11
And what started out as advertising
125
431829
2397
そうして単なるネットの広告だったものは
07:14
really can't be called
advertising anymore.
126
434250
2477
もはやそう呼べないものに進化し
07:16
It turned into behavior modification,
127
436751
2912
行動変容装置へと進化しました
07:19
just as Norbert Wiener
had worried it might.
128
439687
4493
ノーバート・ウィーナーが
憂慮したとおりのことが起きたのです
07:24
And so I can't call these things
social networks anymore.
129
444204
4620
もはや これは
「ソーシャル・ネットワーク」と呼べず
07:28
I call them behavior modification empires.
130
448848
3814
私は「行動変容帝国」と呼んでいます
07:32
(Applause)
131
452686
2235
(拍手)
07:34
And I refuse to vilify the individuals.
132
454945
4214
特定の個人を非難する気はありません
07:39
I have dear friends at these companies,
133
459183
2271
テック企業には大事な友人がいるんです
07:41
sold a company to Google, even though
I think it's one of these empires.
134
461478
4760
Googleに会社を売却したりして—
それも帝国の一つですが
07:46
I don't think this is a matter
of bad people who've done a bad thing.
135
466262
5060
これは「悪人たちが悪事を働いた」
といったようなことではなく
07:51
I think this is a matter
of a globally tragic,
136
471346
4576
世界的規模で起きた
悲劇的で
07:55
astoundingly ridiculous mistake,
137
475946
4572
驚くほど馬鹿げた
間違いだと思っています
08:00
rather than a wave of evil.
138
480542
4129
悪の波が押し寄せた
なんてものではありません
08:04
Let me give you
just another layer of detail
139
484695
2682
この特殊な間違いの仕組みを
08:07
into how this particular
mistake functions.
140
487401
3103
もう一段 詳しく説明しましょう
08:11
So with behaviorism,
141
491337
2707
行動主義の考えに従い
08:14
you give the creature,
whether it's a rat or a dog or a person,
142
494068
5064
ネズミであれ 犬であれ
人であれ 生き物に対し
08:19
little treats and sometimes
little punishments
143
499156
2840
ちょっとしたご褒美や
時には罰を
08:22
as feedback to what they do.
144
502020
1817
行動へのフィードバックとして与えます
08:24
So if you have an animal in a cage,
it might be candy and electric shocks.
145
504710
5912
檻に入った動物だったら
キャンディーや電気ショックを与えますが
08:30
But if you have a smartphone,
146
510646
2524
スマートフォンをもった人に対しては
08:33
it's not those things,
it's symbolic punishment and reward.
147
513194
6926
そういうものの代わりに
罰や報酬を象徴で与えます
08:40
Pavlov, one of the early behaviorists,
148
520144
2443
初期の行動主義者だったパブロフは
08:42
demonstrated the famous principle.
149
522611
2952
有名な原理を証明しました
08:45
You could train a dog to salivate
just with the bell, just with the symbol.
150
525587
3961
ベルを鳴らすだけで犬に涎を
垂らさせたのです 象徴への反応です
08:49
So on social networks,
151
529572
1586
ソーシャル・ネットワークでは
08:51
social punishment and social reward
function as the punishment and reward.
152
531182
5080
社会的賞罰が
報酬や罰として機能します
08:56
And we all know
the feeling of these things.
153
536286
2077
皆さんがご存知の あの気持ちです
08:58
You get this little thrill --
154
538387
1451
皆さんはこんなスリルを感じます
08:59
"Somebody liked my stuff
and it's being repeated."
155
539862
2350
「誰かが私の投稿をいいねした
いいねが伸びてる!」
09:02
Or the punishment:
"Oh my God, they don't like me,
156
542236
2334
あるいは罰の方
「ああ 私は人気が無い
09:04
maybe somebody else
is more popular, oh my God."
157
544594
2239
もっと人気のある人がいるんだな」
09:06
So you have those two
very common feelings,
158
546857
2226
皆に共通する
このような2つの感情が
09:09
and they're doled out in such a way
that you get caught in this loop.
159
549107
3564
少しずつ与えられ
皆さんはループに囚われてしまいます
09:12
As has been publicly acknowledged
by many of the founders of the system,
160
552695
4095
これはシステムの創始者たちの多くが
公に認めていることです
09:16
everybody knew this is what was going on.
161
556814
2341
誰もがこの事態を理解しています
09:19
But here's the thing:
162
559871
1619
しかし
09:21
traditionally, in the academic study
of the methods of behaviorism,
163
561514
5294
行動主義の学術研究においては
伝統的に
09:26
there have been comparisons
of positive and negative stimuli.
164
566832
5436
ネガティブとポジティブ刺激を
比較してきました
09:32
In this setting, a commercial setting,
165
572292
2364
ところが この商業的環境では
09:34
there's a new kind of difference
166
574680
1596
学問の世界では
しばらく注目されてこなかった
09:36
that has kind of evaded
the academic world for a while,
167
576300
2769
2種の刺激についての
新たな見方が生まれています
09:39
and that difference
is that whether positive stimuli
168
579093
4048
学問的な見方と違う点は
ポジティブな刺激が
09:43
are more effective than negative ones
in different circumstances,
169
583165
3309
状況によっては
ネガティブな刺激よりも効果があるにせよ
09:46
the negative ones are cheaper.
170
586498
2104
ネガティブな刺激は
安上がりだということです
09:48
They're the bargain stimuli.
171
588626
2056
ネガティブな刺激は
お手頃なんです
09:50
So what I mean by that is it's much easier
172
590706
5703
つまり 信頼を築くよりも
09:56
to lose trust than to build trust.
173
596433
3116
信頼失う方が
簡単に起きるということです
09:59
It takes a long time to build love.
174
599573
3172
愛を築くには長い時間がかかりますが
10:02
It takes a short time to ruin love.
175
602769
2606
壊れるのはあっという間です
10:05
Now the customers of these
behavior modification empires
176
605399
4588
この行動変容帝国の顧客たちは
10:10
are on a very fast loop.
177
610011
1423
超高速のループにいます
10:11
They're almost like
high-frequency traders.
178
611458
2045
まるで高頻度取引トレーダーのようです
10:13
They're getting feedbacks
from their spends
179
613527
2024
購入者からフィードバックを受けたり
10:15
or whatever their activities are
if they're not spending,
180
615575
2802
購入でなければ ユーザーの行動から
フィードバックを受けたりすることで
10:18
and they see what's working,
and then they do more of that.
181
618401
3270
企業側は何が効果があるか理解し
それを更に提供します
10:21
And so they're getting the quick feedback,
182
621695
2040
つまり フィードバックを
即座に受けることとは
10:23
which means they're responding
more to the negative emotions,
183
623759
3040
より頻繁にネガティブな感情に
反応しています
10:26
because those are the ones
that rise faster, right?
184
626823
3937
何故ならそれらがより素早く
生じる感情だからです そうでしょう?
10:30
And so therefore,
even well-intentioned players
185
630784
3548
ですから 善意の企業が
10:34
who think all they're doing
is advertising toothpaste
186
634356
2865
自分たちは ただ歯磨き粉を
宣伝しているだけと思っていたとしても
10:37
end up advancing the cause
of the negative people,
187
637245
3031
ネガティブな人々
10:40
the negative emotions, the cranks,
188
640300
2334
ネガティブな気持ちの人
気分屋
10:42
the paranoids,
189
642658
1444
偏執症患者
10:44
the cynics, the nihilists.
190
644126
3080
皮肉屋やニヒリストの主張を
宣伝する羽目に陥ってしまいます
10:47
Those are the ones who get
amplified by the system.
191
647230
3493
そういう人々が
このシステムによって増長するのです
10:50
And you can't pay one of these companies
to make the world suddenly nice
192
650747
5651
このような企業にお金を払って
急に世界を良い場所に変えたり
10:56
and improve democracy
193
656422
1151
民主主義を改善したりするのは
10:57
nearly as easily as you can pay
to ruin those things.
194
657597
3841
お金を払って こうしたものを
壊すほどには簡単にできません
11:01
And so this is the dilemma
we've gotten ourselves into.
195
661462
3719
つまりこれが私たちが自らを追い込んだ
ジレンマというわけです
11:05
The alternative is to turn back the clock,
with great difficulty,
196
665856
5232
別の手段は
骨を折って時間を巻き戻し
11:11
and remake that decision.
197
671112
2841
選択をやり直すことです
11:13
Remaking it would mean two things.
198
673977
4038
それは2つの事を意味します
11:18
It would mean first that many people,
those who could afford to,
199
678039
3928
まず経済的に余裕のある多くの人々が
11:21
would actually pay for these things.
200
681991
2207
こうしたサービスに代金を支払うことです
11:24
You'd pay for search,
you'd pay for social networking.
201
684222
4407
サーチ・エンジンやSNSの
利用料金を支払うんです
11:28
How would you pay?
Maybe with a subscription fee,
202
688653
3461
支払いの方法は 購読料や
11:32
maybe with micro-payments as you use them.
203
692138
2738
利用しただけ支払う
マイクロ・ペイメントが考えられます
11:34
There's a lot of options.
204
694900
1802
他にも色々な選択肢が考えられます
11:36
If some of you are recoiling,
and you're thinking,
205
696726
2397
もし皆さんの中には
ひるんでしまい
11:39
"Oh my God, I would never pay
for these things.
206
699147
2366
「まさか
こんなものに金を出すなんて考えられない
11:41
How could you ever get anyone to pay?"
207
701537
2095
支払う人なんているだろうか?」
と考える方がいたら
11:43
I want to remind you
of something that just happened.
208
703656
3239
最近起こった事を思い出して欲しいのですが
11:46
Around this same time
209
706919
2054
Google や Facebookといった会社が
11:48
that companies like Google and Facebook
were formulating their free idea,
210
708997
5707
無料サービスに基づくビジネス構想を
練り上げていた同じ頃
11:54
a lot of cyber culture
also believed that in the future,
211
714728
4504
サイバー・カルチャー界隈の人々の多くは
11:59
televisions and movies
would be created in the same way,
212
719256
3022
将来テレビや映画が
ウィキペディアと同じような仕組みで
12:02
kind of like the Wikipedia.
213
722302
1755
作られるようになると信じていました
12:04
But then, companies
like Netflix, Amazon, HBO,
214
724456
5064
ところが Netflix、Amazon、HBOなどが
12:09
said, "Actually, you know, subscribe.
We'll give you give you great TV."
215
729544
3739
「購読すれば 素晴らしい番組を
提供しますよ」と言ったんです
12:13
And it worked!
216
733307
1373
そして成功しました!
12:14
We now are in this period
called "peak TV," right?
217
734704
3874
私たちは現在この「テレビの黄金時代」に
生きていますよね?
12:18
So sometimes when you pay for stuff,
things get better.
218
738602
4198
だから 代金を払ったら
良いこともあるんですよ
12:22
We can imagine a hypothetical --
219
742824
2286
仮に「ソーシャルメディア黄金時代」を
12:25
(Applause)
220
745134
4671
(拍手)
12:29
We can imagine a hypothetical world
of "peak social media."
221
749829
3659
仮に「ソーシャルメディア黄金時代」を
想像してみましょう
12:33
What would that be like?
222
753512
1349
それはどんなものになるでしょうか?
12:34
It would mean when you get on,
you can get really useful,
223
754885
2770
ログインすると
ゴミのような情報ではなく
12:37
authoritative medical advice
instead of cranks.
224
757679
3095
信頼できる情報源からの
とても有益な医療アドバイスが得られ
12:41
It could mean when you want
to get factual information,
225
761143
3310
事実に基づいた情報を探す時
12:44
there's not a bunch of weird,
paranoid conspiracy theories.
226
764477
3254
そこには奇妙で偏執的な
陰謀論は存在しません
12:47
We can imagine this wonderful
other possibility.
227
767755
4235
この素晴らしいもう一つの世界も
想像することができます
12:52
Ah.
228
772014
1261
ああ!
12:53
I dream of it. I believe it's possible.
229
773299
2130
私はそれを夢見て
それが実現可能だと信じています
12:55
I'm certain it's possible.
230
775453
3302
実現できると確信しています
12:58
And I'm certain that the companies,
the Googles and the Facebooks,
231
778779
4747
そして
GoogleやFacebookなどの企業は
13:03
would actually do better in this world.
232
783550
2312
そのような世界で
もっと成功するだろうと信じています
13:05
I don't believe we need
to punish Silicon Valley.
233
785886
3166
私はシリコン・バレーが
罰を受けるべきだとは思いません
13:09
We just need to remake the decision.
234
789076
2253
私たちは単に選択し直せばいいんです
13:12
Of the big tech companies,
235
792702
1882
大テクノロジー企業の中で
13:14
it's really only two that depend
on behavior modification and spying
236
794608
5563
ビジネスプランが
行動変容とスパイ行為に依存しているのは
13:20
as their business plan.
237
800195
1257
実は2社しかありません
13:21
It's Google and Facebook.
238
801476
1759
Google と Facebookです
13:23
(Laughter)
239
803259
1310
(笑)
13:24
And I love you guys.
240
804593
1691
私は彼らが好きですよ
13:26
Really, I do. Like, the people
are fantastic.
241
806308
2721
本当です 社員は素晴らしい人ばかりです
13:30
I want to point out, if I may,
242
810371
3182
ただ 言わせてもらえば
13:33
if you look at Google,
243
813577
1151
例えばGoogleでは
13:34
they can propagate cost centers
endlessly with all of these companies,
244
814752
5087
コストセンターをこれらの会社と共に
際限無く増やしていくことができますが
13:39
but they cannot propagate profit centers.
245
819863
2048
プロフィットセンターは
増やせません
13:41
They cannot diversify,
because they're hooked.
246
821935
3181
彼らは病みつきになっていて
ビジネスモデルの多様化ができません
13:45
They're hooked on this model,
just like their own users.
247
825140
2627
ユーザー達と共に
このビジネスモデルに夢中になっているのです
13:47
They're in the same trap as their users,
248
827791
2298
ユーザー達と同じ罠に嵌ってしまっています
13:50
and you can't run
a big corporation that way.
249
830113
2504
そのようなやり方では
大企業の経営はできません
13:52
So this is ultimately totally
in the benefit of the shareholders
250
832641
3603
ですからこのモデルは 究極的には
株主 さらにはこうした会社の
13:56
and other stakeholders of these companies.
251
836268
2445
他の利害関係者たちの利益にも
なるんです
13:58
It's a win-win solution.
252
838737
2350
双方の利益になるソリューションです
14:01
It'll just take some time
to figure it out.
253
841111
2515
ただ問題解決には
時間を要するでしょう
14:03
A lot of details to work out,
254
843650
2262
膨大な細部を見直さなければなりませんが
14:05
totally doable.
255
845936
1830
当然やってのけられますよ
14:07
(Laughter)
256
847790
2415
(笑)
14:10
I don't believe our species
can survive unless we fix this.
257
850229
3834
人類はこの間違いを正さない限り
生き延びられないだろうと思います
14:14
We cannot have a society
258
854087
2290
2人の人間が
14:16
in which, if two people
wish to communicate,
259
856401
2961
お互いに会話をしたい時
その唯一の手段が
14:19
the only way that can happen
is if it's financed by a third person
260
859386
3440
彼らを意のままに操りたいと考える
第三者の経済的支援無くしては
14:22
who wishes to manipulate them.
261
862850
2346
成り立たないような社会には住めないのです
14:25
(Applause)
262
865220
6238
(拍手)
(拍手が鳴りやむ)
14:35
(Applause ends)
263
875077
1151
14:36
In the meantime,
if the companies won't change,
264
876942
2945
もし企業が変わらなければ
14:39
delete your accounts, OK?
265
879911
1666
アカウントを消しましょう
いいですね?
14:41
(Laughter)
266
881601
1269
(笑)
14:42
(Applause)
267
882894
1046
(拍手)
14:43
That's enough for now.
268
883964
1509
これ位にしておきましょう
14:45
Thank you so much.
269
885497
1151
ありがとうございます
14:46
(Applause)
270
886672
6804
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。