下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Yuko Yoshida
校正: Natsuhiko Mizutani
00:13
Is it just me,
0
13373
1744
これは私だけなのか
00:15
or are there other people here
1
15141
2332
それとも皆さんもでしょうかー
00:17
that are a little bit
disappointed with democracy?
2
17497
2344
民主主義に
少々失望しているのは?
00:20
(Applause)
3
20986
2336
(拍手)
00:24
So let's look at a few numbers.
4
24141
2071
ちょっとデータを見てみましょう
00:26
If we look across the world,
5
26934
2173
世界各地の
00:29
the median turnout
in presidential elections
6
29131
3892
過去30年における
大統領選挙の平均投票率は
00:33
over the last 30 years
7
33047
1651
00:34
has been just 67 percent.
8
34722
2622
たったの67%です
00:38
Now, if we go to Europe
9
38329
1973
ヨーロッパでは
00:40
and we look at people that participated
in EU parliamentary elections,
10
40326
4428
欧州議会議員選挙に着目すると
00:44
the median turnout in those elections
11
44778
2071
その平均投票率は
00:46
is just 42 percent.
12
46873
2104
たった42%です
00:50
Now let's go to New York,
13
50125
1669
ニューヨークで
00:51
and let's see how many people voted
in the last election for mayor.
14
51818
4681
直近の市長選の投票者数を見ると
00:56
We will find that only
24 percent of people showed up to vote.
15
56523
3817
投票に行ったのは24%に過ぎません
01:01
What that means is that,
if "Friends" was still running,
16
61063
3095
つまり『フレンズ』のメンバーで言うなら
01:04
Joey and maybe Phoebe
would have shown up to vote.
17
64182
3348
投票に行くのは ジョーイと
せいぜいフィービーというところなのです
01:07
(Laughter)
18
67554
1290
(笑)
01:09
And you cannot blame them
because people are tired of politicians.
19
69434
4426
だからと言って責められません
皆 政治家には うんざりなんです
01:13
And people are tired of other people
using the data that they have generated
20
73884
3887
友だちや家族との やり取りの
データが他人に使われて
01:17
to communicate with
their friends and family,
21
77795
2198
政治宣伝の標的にされることにも
01:20
to target political propaganda at them.
22
80017
2094
うんざりしています
01:22
But the thing about this
is that this is not new.
23
82519
2728
でも 実はこれは
今に始まったことではありません
01:25
Nowadays, people use likes
to target propaganda at you
24
85271
3225
今でこそ「いいね」した情報を元に
その人に合わせた政治宣伝がされていますが
01:28
before they use your zip code
or your gender or your age,
25
88520
3373
以前は郵便番号や性別 年齢で
同じことがされていました
01:31
because the idea of targeting people
with propaganda for political purposes
26
91917
3570
対象に応じて政治宣伝するという発想は
01:35
is as old as politics.
27
95511
1592
政治と同じくらい古いものなのです
01:37
And the reason why that idea is there
28
97530
2278
なぜそんな考えが
生まれるのかといえば
01:39
is because democracy
has a basic vulnerability.
29
99832
3472
民主主義には元々
脆弱性があるからです
01:43
This is the idea of a representative.
30
103710
1932
これは代表制を図示したものです
01:46
In principle, democracy is the ability
of people to exert power.
31
106049
3944
原則として 民主主義は
人民が権力を行使できるようにするものですが
01:50
But in practice, we have to delegate
that power to a representative
32
110017
3818
実際には私たちは
自らの代表者にその権力を移譲し
01:53
that can exert that power for us.
33
113859
2255
代表者が私たちのために
権力を行使します
01:56
That representative is a bottleneck,
34
116561
1825
その代表者こそが
ボトルネックであり
01:58
or a weak spot.
35
118410
1297
弱点なのです
01:59
It is the place that you want to target
if you want to attack democracy
36
119731
3949
民主主義を攻撃するなら
攻めどころは そこでしょう
02:03
because you can capture democracy
by either capturing that representative
37
123704
3489
民主主義を掌握するには
その代表者を掌握するか
02:07
or capturing the way
that people choose it.
38
127217
2148
代表者の選任法を掌握するかの
いずれかなのです
ここで持ち上がる大きな疑問が
02:10
So the big question is:
39
130065
1416
02:11
Is this the end of history?
40
131505
1704
これは「歴史の終わり」なのか
ということです
02:13
Is this the best that we can do
41
133989
3103
これが最善のことなのか
02:17
or, actually, are there alternatives?
42
137878
3067
それとも実は これに取って代わるものが
あるのでしょうか?
02:22
Some people have been thinking
about alternatives,
43
142130
2354
これに代わるものを
考えている人もいます
02:24
and one of the ideas that is out there
is the idea of direct democracy.
44
144508
3679
その1つが直接民主主義です
02:28
This is the idea of bypassing
politicians completely
45
148790
2479
この考えでは
政治家を完全に通り越して
02:31
and having people vote directly on issues,
46
151293
2403
様々な問題や法案について
人々が直接投票します
02:33
having people vote directly on bills.
47
153720
2265
02:36
But this idea is naive
48
156415
1336
でも これは単純すぎます
02:37
because there's too many things
that we would need to choose.
49
157775
3171
決めないといけないことが
多すぎるからです
02:40
If you look at the 114th US Congress,
50
160970
2782
例えば第114回の米国議会では
02:43
you will have seen that
the House of Representatives
51
163776
2487
下院は6千件以上の法案を審議し
02:46
considered more than 6,000 bills,
52
166287
2889
02:49
the Senate considered
more than 3,000 bills
53
169200
2656
上院は3千件以上の法案を審議
02:51
and they approved more than 300 laws.
54
171880
2808
両院が可決した法案は3百件以上です
[毎週3件相当]
02:54
Those would be many decisions
55
174712
1579
これだけの決定を
02:56
that each person would have to make a week
56
176315
2187
各人が毎週するとなると
多すぎるでしょう
02:58
on topics that they know little about.
57
178526
2142
しかも ほとんど知らない分野のことです
03:01
So there's a big cognitive
bandwidth problem
58
181229
2281
ですから実際に
直接民主主義で置き換えるには
03:03
if we're going to try to think about
direct democracy as a viable alternative.
59
183534
3992
人の認知処理能力が大きな課題となります
03:08
So some people think about the idea
of liquid democracy, or fluid democracy,
60
188205
4435
また 「リキッド・デモクラシー」
流動体民主主義という考えもあります
03:12
which is the idea that you endorse
your political power to someone,
61
192664
3776
自らの政治的決定を誰かに委ね
その人がまた誰かに委任するという風に
03:16
who can endorse it to someone else,
62
196464
1700
03:18
and, eventually, you create
a large follower network
63
198188
2541
委任関係を重ねていくことで
03:20
in which, at the end, there's a few people
that are making decisions
64
200753
3294
最終的には 少数の人が
自分の委任者や
委任者の委任者を代理して
決定を下すというものです
03:24
on behalf of all of their followers
and their followers.
65
204071
3143
03:28
But this idea also doesn't solve
the problem of the cognitive bandwidth
66
208326
4129
でも この考えにおいても
認知処理能力の問題は解決しないし
03:32
and, to be honest, it's also quite similar
to the idea of having a representative.
67
212479
3877
正直なところ 代表者を立てるという考えと
大差がありません
03:36
So what I'm going to do today is
I'm going to be a little bit provocative,
68
216795
3468
そこで今日は
私はちょっと挑発的に
03:40
and I'm going to ask you, well:
69
220277
2300
こんな問いを
投げかけたいと思います
03:42
What if, instead of trying
to bypass politicians,
70
222601
6562
政治家を介するのを
やめようとする代わりに
03:49
we tried to automate them?
71
229187
2200
政治家を自動化したらどうでしょう?
03:57
The idea of automation is not new.
72
237871
2926
自動化という考え自体は
新しくありません
04:00
It was started more than 300 years ago,
73
240821
2080
3百年以上前に
04:02
when French weavers decided
to automate the loom.
74
242925
3068
フランスの織工が
織機を自動化したのが始まりです
04:06
The winner of that industrial war
was Joseph-Marie Jacquard.
75
246820
4360
その産業戦争を制したのは
ジョゼフ・マリー・ジャカールでした
04:11
He was a French weaver and merchant
76
251204
1751
彼はフランスの機織りで商人であり
04:12
that married the loom
with the steam engine
77
252979
2440
織機を蒸気機関と合体させ
04:15
to create autonomous looms.
78
255443
2190
自動織機を作り出しました
04:17
And in those autonomous looms,
he gained control.
79
257657
2753
その自動織機で
自在な織り方が可能になり
04:20
He could now make fabrics that were
more complex and more sophisticated
80
260434
3885
人手で織れる布よりも
より複雑でより洗練されたものを
04:24
than the ones they
were able to do by hand.
81
264343
2128
作れるようになりました
04:27
But also, by winning that industrial war,
82
267193
2632
また その産業戦争に勝つことで
04:29
he laid out what has become
the blueprint of automation.
83
269849
3524
自動化の設計図となるものも作ったのです
04:34
The way that we automate things
for the last 300 years
84
274135
2870
ここ3百年の間
物事を自動化する方法は
04:37
has always been the same:
85
277029
1382
ずっと同じでした
04:39
we first identify a need,
86
279006
2509
まずはニーズを特定し
04:41
then we create a tool
to satisfy that need,
87
281539
3184
そのニーズを満たすツールを作ります
04:44
like the loom, in this case,
88
284747
2040
先ほどのケースでは織機です
04:46
and then we study how people use that tool
89
286811
2391
そして 人がそのツールを
どうやって使うか観察し
04:49
to automate that user.
90
289226
1485
その人の仕事を自動化するのです
04:51
That's how we came
from the mechanical loom
91
291242
3061
こうして機械織機を経て
04:54
to the autonomous loom,
92
294327
1896
自動織機にまでなりました
04:56
and that took us a thousand years.
93
296247
2120
ここまで千年かかりましたが
04:58
Now, it's taken us only a hundred years
94
298391
2071
同じやり方を使い
今は たった百年で
05:00
to use the same script
to automate the car.
95
300486
3211
車の運転を自動化するに至りました
05:05
But the thing is that, this time around,
96
305286
2452
ここで肝心なのは 今回の自動化が
05:07
automation is kind of for real.
97
307762
2129
徹底しているということです
05:09
This is a video that a colleague of mine
from Toshiba shared with me
98
309915
3321
こちらは 東芝から来た同僚が
提供してくれたビデオで
05:13
that shows the factory
that manufactures solid state drives.
99
313260
3259
半導体ディスクドライブを
生産する工場の様子です
05:16
The entire factory is a robot.
100
316543
2018
工場全体が1つのロボットになっており
05:18
There are no humans in that factory.
101
318585
1925
工場内には人がいません
ほどなく ロボットは工場を離れ
05:21
And the robots are soon
to leave the factories
102
321033
2221
05:23
and become part of our world,
103
323278
2022
私たちの世界の一部になり
05:25
become part of our workforce.
104
325324
1835
労働力の一部になるでしょう
05:27
So what I do in my day job
105
327183
1773
私が本業でやっているのは
05:28
is actually create tools that integrate
data for entire countries
106
328980
3992
国全体の種々のデータを統合するツールを
作り出すことで
05:32
so that we can ultimately have
the foundations that we need
107
332996
3466
将来 そういうマシンを
管理することが求められたときに
05:36
for a future in which we need
to also manage those machines.
108
336486
3687
必要となる基盤を準備しています
05:41
But today, I'm not here
to talk to you about these tools
109
341195
2906
でも ここで
国全体のデータを統合するツールについて
05:44
that integrate data for countries.
110
344125
1824
お話しするつもりはありません
05:46
But I'm here to talk to you
about another idea
111
346463
2622
今日お話ししたいのは
別の構想についてです
05:49
that might help us think about how to use
artificial intelligence in democracy.
112
349109
4865
民主主義における人工知能の活用法を
考えるのに役立つかもしれないことです
05:53
Because the tools that I build
are designed for executive decisions.
113
353998
4733
私が作っている あのツールは
最終決定をするためのものです
05:58
These are decisions that can be cast
in some sort of term of objectivity --
114
358755
3842
公共投資の決定など
ある種の客観性を持つ決定です
06:02
public investment decisions.
115
362621
1745
06:04
But there are decisions
that are legislative,
116
364885
2631
でも 決定には
立法にかかわるものもあります
06:07
and these decisions that are legislative
require communication among people
117
367540
3787
立法のための決定は
様々な視点を持った人たちの間で
06:11
that have different points of view,
118
371351
1700
コミュニケーションを図り
06:13
require participation, require debate,
119
373075
2613
皆が参加し討論し
06:15
require deliberation.
120
375712
1478
検討することが必要です
06:18
And for a long time,
we have thought that, well,
121
378241
2804
長い間 私たちは
民主主義を良くするには
06:21
what we need to improve democracy
is actually more communication.
122
381069
3460
コミュニケーションがもっと必要だと
考えてきました
06:24
So all of the technologies that we have
advanced in the context of democracy,
123
384553
3709
だから民主主義の流れで
進歩した技術というのは
06:28
whether they are newspapers
or whether it is social media,
124
388286
2778
新聞であれ
ソーシャルメディアであれ
私たちのコミュニケーションを
増やそうとするものでした
06:31
have tried to provide us
with more communication.
125
391088
2382
06:34
But we've been down that rabbit hole,
126
394103
1822
でも すでに経験したとおり
06:35
and we know that's not
what's going to solve the problem.
127
395949
2748
それでは問題は解決しないと
分かっています
06:38
Because it's not a communication problem,
128
398721
1996
これはコミュニケーションの問題ではなく
06:40
it's a cognitive bandwidth problem.
129
400741
1748
認知処理能力の問題だからです
06:42
So if the problem is one
of cognitive bandwidth,
130
402513
2366
問題が認知処理能力にあるなら
06:44
well, adding more communication to people
131
404903
2587
コミュニケーションを増やしても
06:47
is not going to be
what's going to solve it.
132
407514
2744
解決にはなりません
06:50
What we are going to need instead
is to have other technologies
133
410282
3113
代わりに必要なのは
私たちに さばききれない
コミュニケーションの処理を
06:53
that help us deal with
some of the communication
134
413419
3046
06:56
that we are overloaded with.
135
416489
2242
手助けしてくれる技術です
06:58
Think of, like, a little avatar,
136
418755
1699
小さなアバターか
07:00
a software agent,
137
420478
1339
ソフトウェア・エージェントか
07:01
a digital Jiminy Cricket --
138
421841
1878
デジタル版ジミニー・クリケット
みたいなものでー
07:03
(Laughter)
139
423743
1238
(笑)
07:05
that basically is able
to answer things on your behalf.
140
425005
4012
自分の代わりに答えてくれるものを
考えるのです
07:09
And if we had that technology,
141
429759
1787
そんな技術があれば
07:11
we would be able to offload
some of the communication
142
431570
2478
今あるコミュニケーションの
重荷から少し解放され
07:14
and help, maybe, make better decisions
or decisions at a larger scale.
143
434072
4147
より良い決定や 大局的な決定が
できるようになるかもしれません
07:18
And the thing is that the idea
of software agents is also not new.
144
438860
3719
ソフトウェアエージェントの考えも
新しいものではありません
07:22
We already use them all the time.
145
442603
2109
今でも しょっちゅう使っています
07:25
We use software agents
146
445216
1521
ソフトウェアエージェントを使い
07:26
to choose the way that we're going
to drive to a certain location,
147
446761
3675
目的地への運転経路を選んだり
07:31
the music that we're going to listen to
148
451070
2101
どんな音楽を聴くか選んだり
07:33
or to get suggestions
for the next books that we should read.
149
453758
3021
次に読む本の候補を絞ったりしています
07:37
So there is an obvious idea
in the 21st century
150
457994
2574
そんな21世紀に
至極もっともな構想があります
07:40
that was as obvious as the idea
151
460592
2643
ジャカールの時代に
蒸気機関と織機を組み合わせたのと
07:43
of putting together a steam engine
with a loom at the time of Jacquard.
152
463259
5581
同じくらいに
もっともなものです
07:49
And that idea is combining
direct democracy with software agents.
153
469538
4456
直接民主主義を ソフトウェアエージェントと
組み合わせるのです
07:54
Imagine, for a second, a world
154
474849
2121
こんな世界を想像してみてください
07:56
in which, instead of having
a representative that represents you
155
476994
3166
自分や ほかの何百万もの人の
代表者を立てる代わりに
08:00
and millions of other people,
156
480184
1574
08:01
you can have a representative
that represents only you,
157
481782
3036
自分に固有の政治的見解を備えた
自分だけの代表者を
立てることができるのです
08:05
with your nuanced political views --
158
485504
2254
08:07
that weird combination
of libertarian and liberal
159
487782
3344
それはリバタリアンとリベラルの
奇妙な組み合わせで
08:11
and maybe a little bit
conservative on some issues
160
491150
2392
ある問題にはちょっと保守的で
08:13
and maybe very progressive on others.
161
493566
2108
別の問題では大いに進歩主義的かも
しれません
08:15
Politicians nowadays are packages,
and they're full of compromises.
162
495698
3267
現在の政治家はいわばパッケージで
多くの妥協をしなければなりません
08:18
But you might have someone
that can represent only you,
163
498989
3634
でも 代表は人間でなければ
という考えを捨てさえすれば
08:22
if you are willing to give up the idea
164
502647
1852
自分だけの代表を
立てられるかもしれません
08:24
that that representative is a human.
165
504523
2249
08:27
If that representative
is a software agent,
166
507229
2082
もしソフトウェアエージェントが
代表であれば
08:29
we could have a senate that has
as many senators as we have citizens.
167
509335
4170
市民と同じ数の議員で
議会を構成することができます
08:33
And those senators are going to be able
to read every bill
168
513529
2858
それらの議員は
すべての法案に目を通し
08:36
and they're going to be able
to vote on each one of them.
169
516411
2747
すべてに投票をすることができます
08:39
So there's an obvious idea
that maybe we want to consider.
170
519822
2956
これは検討に値する
至極もっともな構想でしょう
08:42
But I understand that in this day and age,
171
522802
2422
でも この時代にあって
08:45
this idea might be quite scary.
172
525248
1889
こんな考えは怖く感じるかもしれません
08:48
In fact, thinking of a robot
coming from the future
173
528391
3440
実際 未来からロボットがやってきて
私たちの政府運営を手助けするとしたら
08:51
to help us run our governments
174
531855
1673
08:53
sounds terrifying.
175
533552
1631
恐ろしいことに聞こえます
08:56
But we've been there before.
176
536223
1651
でも これはもう経験しています
08:57
(Laughter)
177
537898
1273
(笑)
08:59
And actually he was quite a nice guy.
178
539195
2495
事実 彼はすごく良い人でしたよね
09:03
So what would the Jacquard loom
version of this idea look like?
179
543677
6434
さて この構想は
どんな形で実現できるでしょうか?
09:10
It would be a very simple system.
180
550135
1901
とてもシンプルなシステムです
09:12
Imagine a system that you log in
and you create your avatar,
181
552060
3458
システムにログインして
自分のアバターを作り
09:15
and then you're going
to start training your avatar.
182
555542
2456
アバターの訓練を始めます
09:18
So you can provide your avatar
with your reading habits,
183
558022
2682
アバターに自分の読書傾向を教え
09:20
or connect it to your social media,
184
560728
1861
ソーシャルメディアの情報を与え
09:22
or you can connect it to other data,
185
562613
2408
心理テストを受けるなどして
09:25
for example by taking
psychological tests.
186
565045
2272
その他のデータも与えます
09:27
And the nice thing about this
is that there's no deception.
187
567341
2968
これが良いのは
だまし討ちがないことです
09:30
You are not providing data to communicate
with your friends and family
188
570333
3339
友だちや家族との
やり取りのデータが
09:33
that then gets used in a political system.
189
573696
3151
政治システムに
使われたりはしません
09:36
You are providing data to a system
that is designed to be used
190
576871
3704
皆さんがデータを提供するのは
自分の代理として政治的決定をするよう
設計されたシステムなのです
09:40
to make political decisions
on your behalf.
191
580599
2116
09:43
Then you take that data and you choose
a training algorithm,
192
583264
3980
皆さんは そのデータを用意し
訓練アルゴリズムを選びます
09:47
because it's an open marketplace
193
587268
1563
この部分は開かれた
市場になっており
09:48
in which different people
can submit different algorithms
194
588855
2786
提供データから その人の
投票行動を推定するアルゴリズムは
09:51
to predict how you're going to vote,
based on the data you have provided.
195
591665
4394
誰でも作ることができます
システム自体オープンで 特定の人が
アルゴリズムをコントロールすることもありません
09:56
And the system is open,
so nobody controls the algorithms;
196
596083
3455
09:59
there are algorithms
that become more popular
197
599562
2112
人気のあるアルゴリズムもあれば
10:01
and others that become less popular.
198
601698
1723
人気がないものも出てきます
最終的に システムを監査して
10:03
Eventually, you can audit the system.
199
603445
1807
自分のアバターがどう動くか確認でき
10:05
You can see how your avatar is working.
200
605276
1881
それで良ければ
任せきりにするもよし
10:07
If you like it,
you can leave it on autopilot.
201
607181
2152
もう少し自分で制御したいと思えば
10:09
If you want to be
a little more controlling,
202
609357
2062
何か判断するときは必ず
10:11
you can actually choose that they ask you
203
611443
1968
自分に問い合わせるよう
指定でき
10:13
every time they're going
to make a decision,
204
613435
2068
どこかその中間にしても
構いません
10:15
or you can be anywhere in between.
205
615527
1635
民主主義があまり活用されていないのは
10:17
One of the reasons
why we use democracy so little
206
617186
2405
10:19
may be because democracy
has a very bad user interface.
207
619615
3568
ユーザインターフェイスが
まずいせいも あるかもしれません
10:23
And if we improve the user
interface of democracy,
208
623207
2483
民主主義のユーザインターフェイスを
改善すれば
10:25
we might be able to use it more.
209
625714
2127
もっと使われるように
なるかもしれません
10:28
Of course, there's a lot of questions
that you might have.
210
628452
3207
もちろん たくさんの疑問がおありでしょう
10:32
Well, how do you train these avatars?
211
632473
2161
どうやってアバターを訓練するのか?
10:34
How do you keep the data secure?
212
634658
1894
データの安全性は?
10:36
How do you keep the systems
distributed and auditable?
213
636576
3248
どうやってシステムを普及させ
検証可能にするのか?
10:39
How about my grandmother,
who's 80 years old
214
639848
2062
インターネットすら使えない
80歳の祖母は
10:41
and doesn't know how to use the internet?
215
641946
1960
どうなるのか?
10:44
Trust me, I've heard them all.
216
644262
2221
そういう疑問はすべて
聞いてきました
10:46
So when you think about an idea like this,
you have to beware of pessimists
217
646507
4560
こんな構想を考えるときには
悲観主義者に注意しないといけません
10:51
because they are known to have
a problem for every solution.
218
651091
4319
どんな解決策にも
文句のある人たちですから
10:55
(Laughter)
219
655434
1825
(笑)
10:57
So I want to invite you to think
about the bigger ideas.
220
657283
3040
皆さんには もっと高い視座で
考えていただきたいのです
11:00
The questions I just showed you
are little ideas
221
660347
3626
先ほど示した疑問というのは
細かいことです
11:03
because they are questions
about how this would not work.
222
663997
2902
全部 これが機能しない理由についてですから
11:07
The big ideas are ideas of:
223
667502
1981
高い視座というのは
11:09
What else can you do with this
224
669507
1807
もしこれが機能したら
11:11
if this would happen to work?
225
671338
1889
ほかに何ができるか
考えるということです
11:13
And one of those ideas is,
well, who writes the laws?
226
673774
3445
例えば 誰が法律を書くかです
11:17
In the beginning, we could have
the avatars that we already have,
227
677854
4223
最初は 今あるアバターで
11:22
voting on laws that are written
by the senators or politicians
228
682101
3497
今いる議員や政治家が書いた法律について
11:25
that we already have.
229
685622
1351
投票をします
11:27
But if this were to work,
230
687491
1714
でも これがうまく行ったら
11:29
you could write an algorithm
231
689902
2350
ある程度の賛同が得られそうな
法律を書くアルゴリズムを作って
11:32
that could try to write a law
232
692276
2150
11:34
that would get a certain
percentage of approval,
233
694450
2421
11:36
and you could reverse the process.
234
696895
1782
このプロセスを逆にもできます
11:38
Now, you might think that this idea
is ludicrous and we should not do it,
235
698701
3512
こんな考えは馬鹿げていて
適切ではないと思われるかもしれませんが
11:42
but you cannot deny that it's an idea
that is only possible
236
702237
2786
直接民主主義とソフトウェアエージェントが
政治参加の可能な形態である世界で
11:45
in a world in which direct democracy
and software agents
237
705047
3020
はじめて可能になる案だということは
否定できないでしょう
11:48
are a viable form of participation.
238
708091
2656
11:52
So how do we start the revolution?
239
712596
2753
では この革命を
どうやって始めましょう?
11:56
We don't start this revolution
with picket fences or protests
240
716238
3310
ピケを張ったり
抗議行動をしたり
11:59
or by demanding our current politicians
to be changed into robots.
241
719572
4190
今の政治家をロボットに置き換えるよう
要求したりするのではありません
12:03
That's not going to work.
242
723786
1549
それでは うまく行きません
12:05
This is much more simple,
243
725359
1612
もっとシンプルに
12:06
much slower
244
726995
1159
もっとゆっくり
12:08
and much more humble.
245
728178
1414
もっと控えめにやります
12:09
We start this revolution by creating
simple systems like this in grad schools,
246
729616
4349
この仕組みを持つ
簡単なシステムを
大学院や図書館 非営利組織に
導入するところから革命を始めます
12:13
in libraries, in nonprofits.
247
733989
2094
12:16
And we try to figure out
all of those little questions
248
736107
2654
先ほどの小さな疑問や
小さな問題のすべてについて
12:18
and those little problems
249
738785
1221
解決していきます
12:20
that we're going to have to figure out
to make this idea something viable,
250
740030
3901
この構想を実行可能にし
信頼できるものにするために
12:23
to make this idea something
that we can trust.
251
743955
2351
いずれ解決しなければ
ならないことですから
12:26
And as we create those systems that have
a hundred people, a thousand people,
252
746330
3635
百人、千人、1万人が
政治に関わらないような問題で
12:29
a hundred thousand people voting
in ways that are not politically binding,
253
749989
3770
投票するシステムを作ることで
12:33
we're going to develop trust in this idea,
254
753783
2018
この構想への信頼が高まり
12:35
the world is going to change,
255
755825
1519
世界が変わっていくでしょう
12:37
and those that are as little
as my daughter is right now
256
757368
2875
そして 今はこれくらいの小さな私の娘世代が
12:40
are going to grow up.
257
760267
1337
大人になって
12:42
And by the time my daughter is my age,
258
762580
2369
私の年になるころには
12:44
maybe this idea, that I know
today is very crazy,
259
764973
4436
今はクレイジーなこの構想も
もしかしたら
12:49
might not be crazy to her
and to her friends.
260
769433
4134
娘たちにはクレイジーでは
なくなっているかもしれません
12:53
And at that point,
261
773956
1837
そのときには
12:55
we will be at the end of our history,
262
775817
2603
私たちの歴史は終わりを迎えますが
12:58
but they will be
at the beginning of theirs.
263
778444
2821
彼らの歴史が幕を開けているでしょう
13:01
Thank you.
264
781646
1183
ありがとうございました
13:02
(Applause)
265
782853
3042
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。