A bold idea to replace politicians | César Hidalgo

400,532 views ・ 2019-04-03

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Svitlana Zapolskykh Утверджено: Khrystyna Romashko
00:13
Is it just me,
0
13373
1744
Тільки я,
00:15
or are there other people here
1
15141
2332
чи може ще хтось
00:17
that are a little bit disappointed with democracy?
2
17497
2344
розчарувався у демократії?
00:20
(Applause)
3
20986
2336
(Оплески)
00:24
So let's look at a few numbers.
4
24141
2071
Звернемось до статистики.
00:26
If we look across the world,
5
26934
2173
У всьому світі
00:29
the median turnout in presidential elections
6
29131
3892
у середньому явка на президентські вибори
00:33
over the last 30 years
7
33047
1651
за останні 30 років
00:34
has been just 67 percent.
8
34722
2622
складає 60 відсотків.
00:38
Now, if we go to Europe
9
38329
1973
У Європі
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
відсоток людей, які взяли участь у парламентських виборах ЄС,
00:44
the median turnout in those elections
11
44778
2071
в середньому складає
00:46
is just 42 percent.
12
46873
2104
усього 42 відсотки.
00:50
Now let's go to New York,
13
50125
1669
На прикладі Нью-Йорку
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
подивимось, скільки осіб голосувало на виборах мера.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
Виявляється, що лише 24 відсотки з’явилися на вибори.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
Що це означає? Якщо б серіал «Друзі» ще показували,
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
то тільки Джоуі, і можливо, Фібі прийшли б на вибори.
01:07
(Laughter)
18
67554
1290
(Сміх)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
Ви не можете звинувачувати їх, населення втомилося від політиків.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
Люди втомилися від інших людей, які використовують їхні дані,
01:17
to communicate with their friends and family,
21
77795
2198
що призначались для спілкування з друзями та сім’єю,
01:20
to target political propaganda at them.
22
80017
2094
аби зробити їх мішенями політичної пропаганди.
01:22
But the thing about this is that this is not new.
23
82519
2728
Але справа в тому, що ця історія не нова.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
Люди використовують «лайки», щоб спрямувати пропаганду на вас,
01:28
before they use your zip code or your gender or your age,
25
88520
3373
потім привласнюють ваш поштовий індекс, стать, вік.
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
Ідея впливу на людей з політичних причин
01:35
is as old as politics.
27
95511
1592
така ж давня, як і політика.
01:37
And the reason why that idea is there
28
97530
2278
Причиною тривалого існування цієї ідеї
01:39
is because democracy has a basic vulnerability.
29
99832
3472
є вразливість демократії.
01:43
This is the idea of a representative.
30
103710
1932
А саме – ідеї представництва.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
Як правило, демократія – це можливість людей впливати на владу.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
Але на практиці, ми змушені передати цю владу представникам,
01:53
that can exert that power for us.
33
113859
2255
які здійснюють керівництво від нашого імені.
01:56
That representative is a bottleneck,
34
116561
1825
Представництво – це проблема,
01:58
or a weak spot.
35
118410
1297
слабке місце.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
Якщо вразити саме сюди, демократію буде зруйновано.
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
Можна захопити демократію шляхом захоплення представника
02:07
or capturing the way that people choose it.
38
127217
2148
або способу його вибору.
02:10
So the big question is:
39
130065
1416
Отже, головне питання:
02:11
Is this the end of history?
40
131505
1704
це кінець історії?
02:13
Is this the best that we can do
41
133989
3103
Це все, що ми можемо зробити,
02:17
or, actually, are there alternatives?
42
137878
3067
чи існують альтернативи?
02:22
Some people have been thinking about alternatives,
43
142130
2354
Люди давно замислювалися над альтернативами.
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
Однією з них – є ідея прямої демократії.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
Ця ідея – у тому, щоб обійтися без політиків,
02:31
and having people vote directly on issues,
46
151293
2403
дати людям можливість безпосередньо вирішувати,
02:33
having people vote directly on bills.
47
153720
2265
прямо голосувати за прийняття законів.
02:36
But this idea is naive
48
156415
1336
Але ця ідея є наївною,
02:37
because there's too many things that we would need to choose.
49
157775
3171
існує величезна кількість питань, які необхідно вирішити.
02:40
If you look at the 114th US Congress,
50
160970
2782
На 114 Конгресі США
02:43
you will have seen that the House of Representatives
51
163776
2487
Палата представників
02:46
considered more than 6,000 bills,
52
166287
2889
розглянула більш, ніж 6000 законопроектів,
02:49
the Senate considered more than 3,000 bills
53
169200
2656
Сенат – більше 3000,
02:51
and they approved more than 300 laws.
54
171880
2808
і прийняли більше 300 законів.
02:54
Those would be many decisions
55
174712
1579
Це забагато рішень
02:56
that each person would have to make a week
56
176315
2187
для кожної пересічної людини,
02:58
on topics that they know little about.
57
178526
2142
яка не дуже розуміється у цьому.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
Таким чином, існує велика проблема,
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
яка стосується прямої демократії як ефективного інструменту.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
Тому з’явилася ідея «ліквідної» демократії,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
що дозволяє передати свою політичну владу іншому,
03:16
who can endorse it to someone else,
62
196464
1700
який може довірити її ще комусь.
03:18
and, eventually, you create a large follower network
63
198188
2541
Таким чином, ви створюєте велику мережу,
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
в якій тільки декілька людей приймають рішення
03:24
on behalf of all of their followers and their followers.
65
204071
3143
від імені решти.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
Ця ідея також не вирішує проблему,
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
і, чесно кажучи, це дуже схоже на ідею представництва.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
Я пропоную радикальне рішення
03:40
and I'm going to ask you, well:
69
220277
2300
і запитую вас:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
чи можна замість усунення політиків
03:49
we tried to automate them?
71
229187
2200
автоматизувати їх?
03:57
The idea of automation is not new.
72
237871
2926
Концепція автоматизації не нова.
04:00
It was started more than 300 years ago,
73
240821
2080
Автоматизація почалася ще 300 років тому,
04:02
when French weavers decided to automate the loom.
74
242925
3068
коли французькі ткалі вирішили автоматизувати верстати.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
Переможцем у цій індустріальній боротьбі став Джозеф Марі Джакард.
04:11
He was a French weaver and merchant
76
251204
1751
Французький ткач і купець
04:12
that married the loom with the steam engine
77
252979
2440
обладнав ткацький верстат паровим двигуном,
04:15
to create autonomous looms.
78
255443
2190
щоб зробити його автономним.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
Ця автономність дала йому величезну перевагу.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
Йому вдалося створити більш складні та витончені тканини,
04:24
than the ones they were able to do by hand.
81
264343
2128
ніж ті, які виготовляли до цього.
04:27
But also, by winning that industrial war,
82
267193
2632
Його індустріальна перемога
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
заклала основи автоматизації.
04:34
The way that we automate things for the last 300 years
84
274135
2870
Спосіб автоматизації за останні 300 років
04:37
has always been the same:
85
277029
1382
не змінився:
04:39
we first identify a need,
86
279006
2509
ми спочатку визначаємо потребу,
04:41
then we create a tool to satisfy that need,
87
281539
3184
потім, щоб задовольнити цю потребу, створюємо прилад
04:44
like the loom, in this case,
88
284747
2040
на кшталт ткацького верстату,
04:46
and then we study how people use that tool
89
286811
2391
вивчаємо, як люди використовують його,
04:49
to automate that user.
90
289226
1485
і автоматизуємо цей процес.
04:51
That's how we came from the mechanical loom
91
291242
3061
Ось так ми перейшли від механічного ткацького верстата
04:54
to the autonomous loom,
92
294327
1896
до автоматичного,
04:56
and that took us a thousand years.
93
296247
2120
і для цього нам знадобилася тисяча років.
04:58
Now, it's taken us only a hundred years
94
298391
2071
Нам потрібно було лише сто років,
05:00
to use the same script to automate the car.
95
300486
3211
щоб так само автоматизувати автомобіль.
05:05
But the thing is that, this time around,
96
305286
2452
Але річ у тім, що на сьогодні
05:07
automation is kind of for real.
97
307762
2129
автоматизація – це наша реальність.
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
Моя колега з компанії «Toshiba» поділилась зі мною відео
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
про фабрику, яка виробляє твердотільні накопичувачі.
05:16
The entire factory is a robot.
100
316543
2018
Уся фабрика роботизована.
05:18
There are no humans in that factory.
101
318585
1925
Там не працюють люди.
05:21
And the robots are soon to leave the factories
102
321033
2221
Та скоро роботи вийдуть за межі фабрик,
05:23
and become part of our world,
103
323278
2022
стануть частиною нашого буття,
05:25
become part of our workforce.
104
325324
1835
частиною робочої сили.
05:27
So what I do in my day job
105
327183
1773
У моїй повсякденній роботі
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
я створюю інструменти, що інтегрують інформацію для всіх країн,
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
врешті- решт ми будемо мати базу, яка нам потрібна
05:36
for a future in which we need to also manage those machines.
108
336486
3687
для того, щоб у майбутньому управляти цими машинами.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
Але я тут не для того, щоб говорити з вами про інструменти,
05:44
that integrate data for countries.
110
344125
1824
які створюють цю базу.
05:46
But I'm here to talk to you about another idea
111
346463
2622
Я пропоную вам іншу ідею,
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
яка допоможе використати штучний інтелект у демократії.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
Мої інструменти призначені для виконання рішень.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
Вони базуються на об'єктивності,
06:02
public investment decisions.
115
362621
1745
це – суспільні рішення.
06:04
But there are decisions that are legislative,
116
364885
2631
Є й такі, які приймають на законодавчому рівні.
06:07
and these decisions that are legislative require communication among people
117
367540
3787
Ці рішення потребують спілкування між людьми,
06:11
that have different points of view,
118
371351
1700
які мають різні точки зору,
06:13
require participation, require debate,
119
373075
2613
вимагають участі, обговорення,
06:15
require deliberation.
120
375712
1478
обмірковування.
06:18
And for a long time, we have thought that, well,
121
378241
2804
І довгий час ми вважали,
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
що для покращення демократії нам потрібно більше спілкування.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
Тому всі новітні технології, пов’язані з демократією,
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
незалежно від того, чи це газети, чи ЗМІ,
06:31
have tried to provide us with more communication.
125
391088
2382
намагалися забезпечити більше спілкування.
06:34
But we've been down that rabbit hole,
126
394103
1822
Але ми вже маємо певний досвід,
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
і знаємо, що це не вирішить проблеми.
06:38
Because it's not a communication problem,
128
398721
1996
Тому, що це не комунікативна проблема,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
а масштабна когнітивна.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
А якщо так,
06:44
well, adding more communication to people
131
404903
2587
то більше комунікації
06:47
is not going to be what's going to solve it.
132
407514
2744
не допоможе вирішити її.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
Замість цього нам потрібні інші технології,
06:53
that help us deal with some of the communication
134
413419
3046
які допоможуть упорядкувати комунікацію,
06:56
that we are overloaded with.
135
416489
2242
якою ми перенавантажені.
06:58
Think of, like, a little avatar,
136
418755
1699
Уявіть собі маленького аватара,
07:00
a software agent,
137
420478
1339
програмного агента,
07:01
a digital Jiminy Cricket --
138
421841
1878
цвіркуна-балакуна з Піноккіо,
07:03
(Laughter)
139
423743
1238
(Сміх)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
здатного висловлюватися від вашого імені.
07:09
And if we had that technology,
141
429759
1787
Якби в нас була така технологія,
07:11
we would be able to offload some of the communication
142
431570
2478
ми б змогли позбутися надлишку комунікації,
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
приймати правильні і більш масштабні рішення.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
Ідея програмних агентів також не нова.
07:22
We already use them all the time.
145
442603
2109
Ми використовуємо їх кожен день.
07:25
We use software agents
146
445216
1521
Програмні агенти допомагають
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
знайти шлях до потрібного місця на карті,
07:31
the music that we're going to listen to
148
451070
2101
підібрати музику до вподоби,
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
обрати цікаві для нас книги.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
Наразі у 21 столітті це є очевидним,
07:40
that was as obvious as the idea
151
460592
2643
так само, як ідея
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
обладнати ткацький станок паровим двигуном за часів Джакарда.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
Ця ідея – поєднати пряму демократію з програмними агентами.
07:54
Imagine, for a second, a world
154
474849
2121
Уявіть собі світ,
07:56
in which, instead of having a representative that represents you
155
476994
3166
де замість політиків, які представляють ваші інтереси
08:00
and millions of other people,
156
480184
1574
та інтереси мільйонів людей,
08:01
you can have a representative that represents only you,
157
481782
3036
у вас буде особистий представник,
08:05
with your nuanced political views --
158
485504
2254
який враховує тонкощі ваших політичних поглядів,
08:07
that weird combination of libertarian and liberal
159
487782
3344
наприклад, поєднання лібертаріанства з лібералізмом,
08:11
and maybe a little bit conservative on some issues
160
491150
2392
трохи консерватизму у певних питаннях,
08:13
and maybe very progressive on others.
161
493566
2108
та прогресивні уявлення щодо інших.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
Сьогодні політики – це сукупність компромісів.
08:18
But you might have someone that can represent only you,
163
498989
3634
А ви зможете обрати того, хто буде захищати саме ваші інтереси,
08:22
if you are willing to give up the idea
164
502647
1852
якщо ви відмовитесь від ідеї
08:24
that that representative is a human.
165
504523
2249
звичного людського представництва.
08:27
If that representative is a software agent,
166
507229
2082
Якщо б нас представляли програмні агенти,
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
то кількість сенаторів дорівнювала б кількості громадян.
08:33
And those senators are going to be able to read every bill
168
513529
2858
Ці сенатори могли б розглянути усі законопроекти,
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
приділити увагу кожному з них.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
Я вважаю, ця концепція варта нашої уваги.
08:42
But I understand that in this day and age,
171
522802
2422
Але я розумію, що в наші дні
08:45
this idea might be quite scary.
172
525248
1889
ця ідея може відлякувати.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
Сама думка про робота з майбутнього,
08:51
to help us run our governments
174
531855
1673
який допоможе керувати державою,
08:53
sounds terrifying.
175
533552
1631
звучить жахливо.
08:56
But we've been there before.
176
536223
1651
Але ми це вже проходили.
08:57
(Laughter)
177
537898
1273
(Сміх)
08:59
And actually he was quite a nice guy.
178
539195
2495
І він непогано впорався.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
Яке втілення матиме ідея автоматизації ткацького верстата Джакарда цього разу?
09:10
It would be a very simple system.
180
550135
1901
Це буде дуже проста система.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
Уявіть систему, де ви реєструєтесь, створюєте свій аватар,
09:15
and then you're going to start training your avatar.
182
555542
2456
потім завантажуєте інформацію.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
Ви можете додати свої літературні уподобання,
09:20
or connect it to your social media,
184
560728
1861
приєднатися до соцмережі,
09:22
or you can connect it to other data,
185
562613
2408
або до інших даних,
09:25
for example by taking psychological tests.
186
565045
2272
наприклад, до результатів психологічного тесту.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
І перевага у тому, що вас ніхто не обманює.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
Ви не надаєте дані для спілкування з вашими друзями та родиною,
09:33
that then gets used in a political system.
189
573696
3151
дані, якими можна скористатися у політиці.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
Ви довіряєте дані системі, яка створена,
09:40
to make political decisions on your behalf.
191
580599
2116
щоб приймати рішення від вашого імені.
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
Після цього потрібно обрати алгоритм
09:47
because it's an open marketplace
193
587268
1563
в умовах ринкових відносин,
09:48
in which different people can submit different algorithms
194
588855
2786
за яких люди можуть запропонувати різні алгоритми,
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
щоб передбачити, як ви будете голосувати, на основі наданих вами даних.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
Система відкрита, ніхто не контролює алгоритми;
09:59
there are algorithms that become more popular
197
599562
2112
одні з них стають більш популярними,
10:01
and others that become less popular.
198
601698
1723
інші – менш.
10:03
Eventually, you can audit the system.
199
603445
1807
Систему можна перевіряти.
10:05
You can see how your avatar is working.
200
605276
1881
Ви бачите, як працює ваш аватар.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
Можете залишити його на автопілоті.
10:09
If you want to be a little more controlling,
202
609357
2062
А якщо хочете більше контролювати,
10:11
you can actually choose that they ask you
203
611443
1968
увімкніть функцію сповіщень
10:13
every time they're going to make a decision,
204
613435
2068
про прийняття рішень,
10:15
or you can be anywhere in between.
205
615527
1635
або як вам до вподоби.
10:17
One of the reasons why we use democracy so little
206
617186
2405
Ми недостатньо користуємось демократією,
10:19
may be because democracy has a very bad user interface.
207
619615
3568
можливо тому, що їй бракує зручного інтерфейсу користувача.
10:23
And if we improve the user interface of democracy,
208
623207
2483
Якщо ми покращимо інтерфейс демократії,
10:25
we might be able to use it more.
209
625714
2127
ми зможемо користуватися нею ефективніше.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
Звісно, у вас ще багато питань.
10:32
Well, how do you train these avatars?
211
632473
2161
Як удосконалювати аватари?
10:34
How do you keep the data secure?
212
634658
1894
Як уберегти безпеку даних?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
Як забезпечити дистрибуцію та аудит системи?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
Як щодо моєї 80-річної бабусі,
10:41
and doesn't know how to use the internet?
215
641946
1960
яка не знає, як користуватися інтернетом?
10:44
Trust me, I've heard them all.
216
644262
2221
Повірте мені, я все це чув.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
Коли з’являється нова ідея, остерігайтесь песимістів,
10:51
because they are known to have a problem for every solution.
218
651091
4319
вони здатні зіпсувати будь-яке рішення.
10:55
(Laughter)
219
655434
1825
(Сміх)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
Тому я пропоную вам замислитися над серйозними проблемами.
11:00
The questions I just showed you are little ideas
221
660347
3626
Питання, які я вам показав, несуттєві,
11:03
because they are questions about how this would not work.
222
663997
2902
вони не вирішують проблему.
11:07
The big ideas are ideas of:
223
667502
1981
Важливі питання такі:
11:09
What else can you do with this
224
669507
1807
Що ще потрібно робити,
11:11
if this would happen to work?
225
671338
1889
коли система запрацює?
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
І одне з питань: хто пише закони?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
Можна використати створені нами аватари,
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
голосувати за закони, запропоновані нашими сенаторами і політиками,
11:25
that we already have.
229
685622
1351
які є чинними.
11:27
But if this were to work,
230
687491
1714
Якщо це спрацює,
11:29
you could write an algorithm
231
689902
2350
можна написати алгоритм,
11:32
that could try to write a law
232
692276
2150
який напише закон,
11:34
that would get a certain percentage of approval,
233
694450
2421
який отримає певний відсоток схвалення,
11:36
and you could reverse the process.
234
696895
1782
і процес піде у зворотному напрямку.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
Ця ідея може здатися смішною і непотрібною,
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
але вона єдина з можливих
11:45
in a world in which direct democracy and software agents
237
705047
3020
у світі, де пряма демократія і програмні агенти
11:48
are a viable form of participation.
238
708091
2656
забезпечать ефективне представництво.
11:52
So how do we start the revolution?
239
712596
2753
Як розпочати цю революцію?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
Барикади та протести,
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
спроби замінити чинних політиків на роботів
12:03
That's not going to work.
242
723786
1549
точно не спрацюють.
12:05
This is much more simple,
243
725359
1612
Потрібно діяти простіше,
12:06
much slower
244
726995
1159
повільніше,
12:08
and much more humble.
245
728178
1414
делікатніше.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
Революцію можна розпочати створюючи такі прості системи у школах,
12:13
in libraries, in nonprofits.
247
733989
2094
бібліотеках, неприбуткових організаціях.
12:16
And we try to figure out all of those little questions
248
736107
2654
Тоді ми вирішимо усі незначні питання
12:18
and those little problems
249
738785
1221
і маленькі проблеми,
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
які забезпечать життєздатність системи
12:23
to make this idea something that we can trust.
251
743955
2351
і нашу довіру.
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
Ці новостворені системи з сотнями, тисячами,
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
сотнями тисяч людей, які приймають незалежні політичні рішення,
12:33
we're going to develop trust in this idea,
254
753783
2018
будуть варті довіри,
12:35
the world is going to change,
255
755825
1519
і світ зміниться,
12:37
and those that are as little as my daughter is right now
256
757368
2875
як моя дочка, яка зараз маленька,
12:40
are going to grow up.
257
760267
1337
колись подорослішає.
12:42
And by the time my daughter is my age,
258
762580
2369
Моя донька досягне мого віку,
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
і, можливо, те, що нам здається божевільним,
12:49
might not be crazy to her and to her friends.
260
769433
4134
для неї та її друзів буде звичним.
12:53
And at that point,
261
773956
1837
І це буде
12:55
we will be at the end of our history,
262
775817
2603
кінцем нашої історії,
12:58
but they will be at the beginning of theirs.
263
778444
2821
і тільки початком їхньої.
13:01
Thank you.
264
781646
1183
Дякую.
13:02
(Applause)
265
782853
3042
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7