A bold idea to replace politicians | César Hidalgo

400,966 views ・ 2019-04-03

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Peter van de Ven
00:13
Is it just me,
0
13373
1744
Ligt het aan mij
00:15
or are there other people here
1
15141
2332
of zijn er hier nog anderen
00:17
that are a little bit disappointed with democracy?
2
17497
2344
die een beetje teleurgesteld zijn in de democratie?
00:20
(Applause)
3
20986
2336
(Applaus)
00:24
So let's look at a few numbers.
4
24141
2071
Laten we eens kijken naar wat cijfers.
00:26
If we look across the world,
5
26934
2173
Als we over de hele wereld kijken,
00:29
the median turnout in presidential elections
6
29131
3892
dan was de gemiddelde opkomst bij presidentsverkiezingen
00:33
over the last 30 years
7
33047
1651
in de afgelopen 30 jaar
00:34
has been just 67 percent.
8
34722
2622
slechts 67 procent.
00:38
Now, if we go to Europe
9
38329
1973
Als we in Europa kijken
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
naar de mensen die deelnamen aan de parlementsverkiezingen van de EU,
00:44
the median turnout in those elections
11
44778
2071
dan was de gemiddelde opkomst bij deze verkiezingen
00:46
is just 42 percent.
12
46873
2104
slechts 42 procent.
00:50
Now let's go to New York,
13
50125
1669
Laten we nu eens naar New York gaan
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
en kijken hoeveel mensen stemden
voor de laatste verkiezingen voor een burgemeester.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
We zien dat slechts 24% van de mensen kwamen opdagen om te stemmen.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
Dat zou betekenen dat als ‘Friends’ nog zou lopen,
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
Joey en misschien Phoebe zouden zijn gaan stemmen.
01:07
(Laughter)
18
67554
1290
(Gelach)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
Je kunt het ze niet kwalijk nemen, want de mensen zijn politici beu.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
En de mensen zijn het beu
dat hun communicatie met vrienden en familie door anderen gebruikt wordt
01:17
to communicate with their friends and family,
21
77795
2198
om politieke propaganda naar hen te versturen.
01:20
to target political propaganda at them.
22
80017
2094
01:22
But the thing about this is that this is not new.
23
82519
2728
Maar dat is geenszins nieuw.
Tegenwoordig gebruiken ze nog eerder ‘likes’ om propaganda naar je te versturen
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
01:28
before they use your zip code or your gender or your age,
25
88520
3373
dan dat ze gebruik maken van je postcode, geslacht of leeftijd,
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
omdat het idee om naar mensen propaganda voor politieke doeleinden te sturen
01:35
is as old as politics.
27
95511
1592
zo oud is als de politiek zelf.
01:37
And the reason why that idea is there
28
97530
2278
En dat komt
01:39
is because democracy has a basic vulnerability.
29
99832
3472
omdat de democratie een fundamentele kwetsbaarheid heeft.
01:43
This is the idea of a representative.
30
103710
1932
Dat is het idee van de vertegenwoordiger.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
In principe is democratie het vermogen van mensen om macht uit te oefenen.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
Maar in de praktijk delegeren we die macht aan een vertegenwoordiger
01:53
that can exert that power for us.
33
113859
2255
die die macht uitoefent voor ons.
01:56
That representative is a bottleneck,
34
116561
1825
Die vertegenwoordiger is een pijnpunt,
01:58
or a weak spot.
35
118410
1297
een zwakke plek.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
Daarop richt je je als je de democratie wil aanvallen,
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
want democratie kan je controleren ofwel via deze vertegenwoordiger,
02:07
or capturing the way that people choose it.
38
127217
2148
ofwel door de manier waarop mensen kiezen.
02:10
So the big question is:
39
130065
1416
Dus is de grote vraag:
02:11
Is this the end of history?
40
131505
1704
Is dit het einde van de geschiedenis?
02:13
Is this the best that we can do
41
133989
3103
Is dit het beste dat we kunnen
02:17
or, actually, are there alternatives?
42
137878
3067
of zijn er nog alternatieven?
02:22
Some people have been thinking about alternatives,
43
142130
2354
Sommige dachten na over alternatieven
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
en een van de ideeën is die van directe democratie:
02:28
This is the idea of bypassing politicians completely
45
148790
2479
het idee om politici te passeren
02:31
and having people vote directly on issues,
46
151293
2403
en mensen direct te laten stemmen over kwesties,
02:33
having people vote directly on bills.
47
153720
2265
om mensen rechtstreeks over wetten te laten stemmen.
02:36
But this idea is naive
48
156415
1336
Maar dit idee is naïef,
02:37
because there's too many things that we would need to choose.
49
157775
3171
omdat we over te veel dingen zouden moeten stemmen.
02:40
If you look at the 114th US Congress,
50
160970
2782
Als je kijkt naar het 114e Amerikaanse Congres,
02:43
you will have seen that the House of Representatives
51
163776
2487
zie je dat het Huis van Afgevaardigden
02:46
considered more than 6,000 bills,
52
166287
2889
meer dan 6.000
en de Senaat meer dan 3.000 wetsvoorstellen moest bekijken,
02:49
the Senate considered more than 3,000 bills
53
169200
2656
02:51
and they approved more than 300 laws.
54
171880
2808
en meer dan 300 wetten goedkeurde.
02:54
Those would be many decisions
55
174712
1579
Dat zouden veel beslissingen zijn
02:56
that each person would have to make a week
56
176315
2187
waar iedereen tijd in zou moeten steken
02:58
on topics that they know little about.
57
178526
2142
inzake kwesties waar ze weinig over weten.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
Dus is er een groot probleem van cognitieve bandbreedte
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
als we nadenken over directe democratie als levensvatbaar alternatief.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
Daarom denken sommigen na
over het idee van vloeibare democratie, of vloeistofdemocratie,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
waarbij je je politieke macht aan iemand doorgeeft,
die ze dan weer aan iemand anders doorgeeft,
03:16
who can endorse it to someone else,
62
196464
1700
03:18
and, eventually, you create a large follower network
63
198188
2541
en je uiteindelijk een groot volgersnetwerk creëert
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
waarbij aan het einde enkele mensen de beslissingen nemen
03:24
on behalf of all of their followers and their followers.
65
204071
3143
namens al hun volgelingen, en hún volgelingen.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
Maar dit idee lost ook niet het probleem van de cognitieve bandbreedte op
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
en, om eerlijk te zijn,
lijkt het ook behoorlijk veel op het idee van een vertegenwoordiger.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
Daarom ga ik vandaag een beetje provoceren
03:40
and I'm going to ask you, well:
69
220277
2300
en jullie vragen:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
wat als we nu eens in plaats van politici te omzeilen,
03:49
we tried to automate them?
71
229187
2200
we ze proberen te automatiseren?
03:57
The idea of automation is not new.
72
237871
2926
Het idee van automatisering is niet nieuw.
04:00
It was started more than 300 years ago,
73
240821
2080
Het ontstond meer dan 300 jaar geleden
04:02
when French weavers decided to automate the loom.
74
242925
3068
toen Franse wevers besloten om het weefgetouw te automatiseren.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
De winnaar van die industriële oorlog was Joseph-Marie Jacquard.
04:11
He was a French weaver and merchant
76
251204
1751
Hij was een Franse wever en handelaar
04:12
that married the loom with the steam engine
77
252979
2440
die het weefgetouw combineerde met de stoommachine
04:15
to create autonomous looms.
78
255443
2190
om autonome weefgetouwen te creëren.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
En die autonome weefgetouwen kon hij controleren.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
Hij kon nu complexere en geavanceerdere stoffen maken
04:24
than the ones they were able to do by hand.
81
264343
2128
dan degenen die dat manueel deden.
04:27
But also, by winning that industrial war,
82
267193
2632
Maar door het winnen van die industriële oorlog
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
legde hij ook de grondslagen van de automatisering.
04:34
The way that we automate things for the last 300 years
84
274135
2870
De manier waarop we de laatste 300 jaar dingen automatiseren,
04:37
has always been the same:
85
277029
1382
is altijd dezelfde gebleven:
04:39
we first identify a need,
86
279006
2509
eerst een behoefte identificeren,
04:41
then we create a tool to satisfy that need,
87
281539
3184
dan een werktuig creëren om aan die behoefte te voldoen,
04:44
like the loom, in this case,
88
284747
2040
zoals in dit geval het weefgetouw,
04:46
and then we study how people use that tool
89
286811
2391
en dan onderzoeken hoe mensen dat werktuig gebruiken
04:49
to automate that user.
90
289226
1485
om die gebruiker te automatiseren.
04:51
That's how we came from the mechanical loom
91
291242
3061
Zo ontstond het mechanische weefgetouw,
04:54
to the autonomous loom,
92
294327
1896
het autonome weefgetouw.
04:56
and that took us a thousand years.
93
296247
2120
Dat kostte ons zowat duizend jaar.
04:58
Now, it's taken us only a hundred years
94
298391
2071
Het kostte ons slechts honderd jaar
05:00
to use the same script to automate the car.
95
300486
3211
om op dezelfde manier de auto te automatiseren.
05:05
But the thing is that, this time around,
96
305286
2452
Maar dit keer is het wel echt automatiseren.
05:07
automation is kind of for real.
97
307762
2129
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
Dit is een video van een collega van me bij Toshiba,
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
over een fabriek die solid state drives produceert.
05:16
The entire factory is a robot.
100
316543
2018
De gehele fabriek is een robot.
05:18
There are no humans in that factory.
101
318585
1925
Er zijn geen mensen in die fabriek.
En de robots zullen al snel de fabrieken verlaten,
05:21
And the robots are soon to leave the factories
102
321033
2221
05:23
and become part of our world,
103
323278
2022
deel gaan uitmaken van onze wereld
05:25
become part of our workforce.
104
325324
1835
en medewerkers worden.
05:27
So what I do in my day job
105
327183
1773
Het is mijn werk
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
tools te creëren die gegevens voor hele landen integreren,
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
zodat we eindelijk de fundamenten krijgen die we nodig hebben
05:36
for a future in which we need to also manage those machines.
108
336486
3687
voor een toekomst waarin we ook die machines moeten beheren.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
Maar vandaag ga ik het niet hebben over tools
05:44
that integrate data for countries.
110
344125
1824
die gegevens integreren voor landen.
05:46
But I'm here to talk to you about another idea
111
346463
2622
Ik kom hier praten over een ander idee:
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
hoe we kunstmatige intelligentie kunnen gebruiken in de democratie.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
Omdat de tools die ik maak, ontworpen zijn voor uitvoeringsbesluiten.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
Dit zijn beslissingen met een zekere vorm van objectiviteit --
06:02
public investment decisions.
115
362621
1745
beslissingen over publieke investering.
06:04
But there are decisions that are legislative,
116
364885
2631
Maar er zijn beslissingen die wetgevend zijn
06:07
and these decisions that are legislative require communication among people
117
367540
3787
en die wetgevende besluiten vereisen communicatie tussen mensen
06:11
that have different points of view,
118
371351
1700
met verschillende perspectieven,
06:13
require participation, require debate,
119
373075
2613
vereisen participatie, vereisen debat,
06:15
require deliberation.
120
375712
1478
vereisen overleg.
06:18
And for a long time, we have thought that, well,
121
378241
2804
Lange tijd dachten we
dat we om de democratie te verbeteren gewoon meer communicatie nodig hebben.
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
Dus alle hulpmiddelen die belangrijk zijn geworden voor de democratie,
of het nu kranten of sociale media zijn,
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
zijn ons méér communicatie gaan verstrekken.
06:31
have tried to provide us with more communication.
125
391088
2382
06:34
But we've been down that rabbit hole,
126
394103
1822
Maar van dat vaatje hadden we al getapt
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
en we weten dat dat ons probleem niet gaat oplossen.
06:38
Because it's not a communication problem,
128
398721
1996
Omdat het geen communicatieprobleem is,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
maar een van cognitieve bandbreedte.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
Als het probleem er een is van cognitieve bandbreedte,
06:44
well, adding more communication to people
131
404903
2587
dan gaat méér communicatie met mensen
06:47
is not going to be what's going to solve it.
132
407514
2744
het niet oplossen.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
In plaats daarvan gaan we andere technologieën nodig hebben
06:53
that help us deal with some of the communication
134
413419
3046
om ons te helpen omgaan
06:56
that we are overloaded with.
135
416489
2242
met een teveel aan communicatie.
06:58
Think of, like, a little avatar,
136
418755
1699
Denk bijvoorbeeld aan een kleine avatar,
07:00
a software agent,
137
420478
1339
een software-agent,
07:01
a digital Jiminy Cricket --
138
421841
1878
een digitale Japie Krekel --
07:03
(Laughter)
139
423743
1238
(Gelach)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
die in principe in jouw plaats antwoorden kan geven.
07:09
And if we had that technology,
141
429759
1787
En als we die technologie hadden,
07:11
we would be able to offload some of the communication
142
431570
2478
konden we een deel van de communicatie delegeren
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
en misschien betere beslissingen of grotere beslissingen nemen.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
Dat idee van software-agenten is niet eens nieuw.
07:22
We already use them all the time.
145
442603
2109
We gebruiken ze al de hele tijd.
07:25
We use software agents
146
445216
1521
We gebruiken software-agenten
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
om ergens naartoe te rijden,
07:31
the music that we're going to listen to
148
451070
2101
om muziek uit te kiezen
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
of om suggesties voor boeken te krijgen.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
Dus het is voor de 21e eeuw vanzelfsprekend idee,
07:40
that was as obvious as the idea
151
460592
2643
net zo vanzelfsprekend
als het idee van het combineren van stoommachine en weefgetouw was
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
in de tijd van van Jacquard.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
Dat idee is het combineren
van directe democratie met software-agenten.
07:54
Imagine, for a second, a world
154
474849
2121
Stel je even een wereld voor
07:56
in which, instead of having a representative that represents you
155
476994
3166
waarbij in plaats van het hebben van een vertegenwoordiger
die jou en miljoenen anderen vertegenwoordigt,
08:00
and millions of other people,
156
480184
1574
08:01
you can have a representative that represents only you,
157
481782
3036
je er een kan hebben die alleen jou vertegenwoordigt,
08:05
with your nuanced political views --
158
485504
2254
met je eigen genuanceerde politieke opvattingen --
08:07
that weird combination of libertarian and liberal
159
487782
3344
die rare combinatie van libertair en liberaal
en misschien een beetje conservatief op sommige punten,
08:11
and maybe a little bit conservative on some issues
160
491150
2392
08:13
and maybe very progressive on others.
161
493566
2108
en op andere misschien zeer vooruitstrevend.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
Politici zijn tegenwoordig pakketten vol compromissen.
08:18
But you might have someone that can represent only you,
163
498989
3634
Maar iemand zou alleen jou kunnen vertegenwoordigen,
08:22
if you are willing to give up the idea
164
502647
1852
als je bereid bent het idee op te geven
08:24
that that representative is a human.
165
504523
2249
dat die vertegenwoordiger een mens is.
08:27
If that representative is a software agent,
166
507229
2082
Als die vertegenwoordiger een software-agent is,
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
kunnen we een senaat hebben
met evenveel senatoren als burgers.
08:33
And those senators are going to be able to read every bill
168
513529
2858
En die senatoren konden elk wetsvoorstel lezen
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
en over elk ervan stemmen.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
Dus een voor de hand liggend idee dat we misschien willen overwegen.
08:42
But I understand that in this day and age,
171
522802
2422
Maar ik begrijp dat op dit moment
08:45
this idea might be quite scary.
172
525248
1889
dit idee wel heel erg eng kan overkomen.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
Denken aan een robot uit de toekomst
08:51
to help us run our governments
174
531855
1673
om ons te helpen regeren
08:53
sounds terrifying.
175
533552
1631
klinkt nogal angstaanjagend.
08:56
But we've been there before.
176
536223
1651
Maar dat hebben we al gehad.
08:57
(Laughter)
177
537898
1273
(Gelach)
08:59
And actually he was quite a nice guy.
178
539195
2495
En eigenlijk was hij een heel aardige vent.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
Hoe zou de 'Jacquards weefgetouw'-versie van dit idee eruitzien?
09:10
It would be a very simple system.
180
550135
1901
Het zou een zeer eenvoudig systeem zijn.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
Stel je een systeem voor waarop je je aanmeldt en je avatar creëert,
09:15
and then you're going to start training your avatar.
182
555542
2456
waarna je begint je avatar te trainen.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
Je kan je avatar vertrouwd maken met jouw leesgedrag,
09:20
or connect it to your social media,
184
560728
1861
of hem aansluiten op jouw sociale media,
09:22
or you can connect it to other data,
185
562613
2408
of hem voorzien van andere gegevens,
09:25
for example by taking psychological tests.
186
565045
2272
bijvoorbeeld door het nemen van psychologische tests.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
En het leuke is dat er geen misleiding is.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
Je zit geen gegevens te verstrekken aan je vrienden en familie
09:33
that then gets used in a political system.
189
573696
3151
die vervolgens gebruikt worden in een politiek systeem.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
Je verstrekt gegevens aan een systeem dat is ontworpen
om politieke beslissingen namens jou te nemen.
09:40
to make political decisions on your behalf.
191
580599
2116
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
Dan kies je vanuit die gegevens voor een opleidingsalgoritme,
09:47
because it's an open marketplace
193
587268
1563
want het is een open markt
09:48
in which different people can submit different algorithms
194
588855
2786
waarin verschillende mensen verschillende algoritmen kunnen indienen
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
om te voorspellen hoe jij gaat stemmen
op basis van de gegevens die jij hebt verstrekt.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
Het systeem is open, zodat niemand de algoritmen beheert.
09:59
there are algorithms that become more popular
197
599562
2112
Sommige algoritmen worden steeds populairder,
10:01
and others that become less popular.
198
601698
1723
terwijl andere minder populair worden.
10:03
Eventually, you can audit the system.
199
603445
1807
Uiteindelijk controleer jij het systeem
10:05
You can see how your avatar is working.
200
605276
1881
en zie je hoe je avatar werkt.
Bevalt hij je, dan kan hij op de automatische piloot.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
10:09
If you want to be a little more controlling,
202
609357
2062
Wil je wat meer controle,
10:11
you can actually choose that they ask you
203
611443
1968
dan kun je ervoor kiezen dat ze je raadplegen
10:13
every time they're going to make a decision,
204
613435
2068
wanneer ze een beslissing gaan nemen --
10:15
or you can be anywhere in between.
205
615527
1635
of ergens daartussenin.
10:17
One of the reasons why we use democracy so little
206
617186
2405
Dat we de democratie zo weinig gebruiken
10:19
may be because democracy has a very bad user interface.
207
619615
3568
kan komen door de zeer slechte gebruikersinterface van de democratie.
10:23
And if we improve the user interface of democracy,
208
623207
2483
Als we de gebruikersinterface van de democratie verbeteren,
10:25
we might be able to use it more.
209
625714
2127
gaan we ze misschien meer gebruiken.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
Natuurlijk kan je hier een hoop vragen bij hebben.
10:32
Well, how do you train these avatars?
211
632473
2161
Hoe train je die avatars?
10:34
How do you keep the data secure?
212
634658
1894
Hoe beveilig je de data?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
Hoe houd je de systemen gedeeld en controleerbaar?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
Hoe moet het met mijn grootmoeder van 80,
10:41
and doesn't know how to use the internet?
215
641946
1960
die niet weet hoe het internet te gebruiken?
10:44
Trust me, I've heard them all.
216
644262
2221
Geloof me, ik heb ze allemaal gehoord.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
Als je denkt aan een idee als dit, moet je oppassen voor pessimisten,
10:51
because they are known to have a problem for every solution.
218
651091
4319
omdat ze voor elke oplossing wel een probleem hebben.
10:55
(Laughter)
219
655434
1825
(Gelach)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
Ik wil jullie graag uitnodigen om na te denken over de grotere ideeën.
11:00
The questions I just showed you are little ideas
221
660347
3626
De vragen die ik net liet zien, zijn kleine ideeën,
11:03
because they are questions about how this would not work.
222
663997
2902
omdat het vragen zijn over hoe dit niet zou werken.
11:07
The big ideas are ideas of:
223
667502
1981
De grote ideeën zijn ideeën over:
11:09
What else can you do with this
224
669507
1807
wat kan je hiermee
11:11
if this would happen to work?
225
671338
1889
als het zou blijken te werken?
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
En een van die ideeën is: wie gaat de wetten schrijven?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
In het begin zouden de avatars die we al hebben,
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
kunnen stemmen over wetten van de hand van de senatoren en politici
11:25
that we already have.
229
685622
1351
die we al hebben.
11:27
But if this were to work,
230
687491
1714
Maar als dit zou werken,
11:29
you could write an algorithm
231
689902
2350
kon je een algoritme schrijven
11:32
that could try to write a law
232
692276
2150
dat zou kunnen proberen om een wet te schrijven
11:34
that would get a certain percentage of approval,
233
694450
2421
die een bepaald percentage goedkeuring zou krijgen,
11:36
and you could reverse the process.
234
696895
1782
en kon je het proces omkeren.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
Nu kan je dit idee belachelijk vinden waar we maar beter niet aan beginnen,
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
maar je kunt niet ontkennen dat het alleen maar mogelijk is
11:45
in a world in which direct democracy and software agents
237
705047
3020
in een wereld waar directe democratie en software-agenten
11:48
are a viable form of participation.
238
708091
2656
een levensvatbare vorm van participatie zijn.
11:52
So how do we start the revolution?
239
712596
2753
Hoe beginnen we met de revolutie?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
We starten deze revolutie niet met hekken of protesten
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
of door te eisen dat onze huidige politici veranderd worden in robots.
12:03
That's not going to work.
242
723786
1549
Dat gaat niet werken.
12:05
This is much more simple,
243
725359
1612
Dit is veel eenvoudiger,
12:06
much slower
244
726995
1159
veel trager
12:08
and much more humble.
245
728178
1414
en veel bescheidener.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
We beginnen met simpele systemen, zoals in mastersopleidingen,
12:13
in libraries, in nonprofits.
247
733989
2094
in bibliotheken, in non-profitorganisaties.
12:16
And we try to figure out all of those little questions
248
736107
2654
We proberen om al die kleine vragen
en die kleine problemen te vinden
12:18
and those little problems
249
738785
1221
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
om uit te vissen hoe dit idee levensvatbaar te krijgen,
12:23
to make this idea something that we can trust.
251
743955
2351
om van dit idee iets betrouwbaars te maken.
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
En als we systemen creëren
met honderd, duizend, honderdduizend mensen
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
die stemmen zonder politiek bindend te zijn,
12:33
we're going to develop trust in this idea,
254
753783
2018
gaan we vertrouwen krijgen in dit idee.
12:35
the world is going to change,
255
755825
1519
De wereld gaat veranderen
12:37
and those that are as little as my daughter is right now
256
757368
2875
en wie zo jong is als mijn dochter nu
12:40
are going to grow up.
257
760267
1337
gaat ermee opgroeien.
12:42
And by the time my daughter is my age,
258
762580
2369
Tegen de tijd dat mijn dochter zo oud is als ik nu,
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
zal dit idee, dat vandaag heel gek klinkt,
12:49
might not be crazy to her and to her friends.
260
769433
4134
misschien niet zo gek klinken voor haar en aan haar vrienden.
12:53
And at that point,
261
773956
1837
Op dat punt
12:55
we will be at the end of our history,
262
775817
2603
komen we aan het einde van onze geschiedenis,
12:58
but they will be at the beginning of theirs.
263
778444
2821
maar begint die van hen.
13:01
Thank you.
264
781646
1183
Dank je.
13:02
(Applause)
265
782853
3042
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7