A bold idea to replace politicians | César Hidalgo

400,532 views ・ 2019-04-03

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Andi Vida Lektor: Gyöngyi Iris Czachesz
00:13
Is it just me,
0
13373
1744
Csak én csalódtam kicsit
00:15
or are there other people here
1
15141
2332
a demokráciában,
00:17
that are a little bit disappointed with democracy?
2
17497
2344
vagy mások is itt a teremben?
00:20
(Applause)
3
20986
2336
(Taps)
00:24
So let's look at a few numbers.
4
24141
2071
Nézzünk néhány számot.
00:26
If we look across the world,
5
26934
2173
Ha a világ adatait nézzük,
00:29
the median turnout in presidential elections
6
29131
3892
az elnökválasztásokon az átlagos részvételi arány
00:33
over the last 30 years
7
33047
1651
az elmúlt harminc évben
00:34
has been just 67 percent.
8
34722
2622
csupán 67 százalékos volt.
00:38
Now, if we go to Europe
9
38329
1973
Ha Európa adatait nézzük,
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
az európai parlamenti választások részvételi arányát,
00:44
the median turnout in those elections
11
44778
2071
ez átlagosan
00:46
is just 42 percent.
12
46873
2104
épp csak 42 százalék.
00:50
Now let's go to New York,
13
50125
1669
Nézzük New Yorkot,
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
hányan mentek el szavazni a legutóbbi polgármester-választáskor.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
Láthatjuk, hogy az állampolgároknak csak 24 százaléka vett részt.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
Ez azt jelenti, ha még menne a "Jóbarátok" sorozat,
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
csak Joey és esetleg Phoebe ment volna el szavazni.
01:07
(Laughter)
18
67554
1290
(Nevetés)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
Senki sem hibáztathatja őket, az embereknek elegük van a politikusokból.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
És abból, hogy miközben családjukkal és barátaikkal érintkeznek,
01:17
to communicate with their friends and family,
21
77795
2198
mások adatokat gyűjtenek róluk,
majd ezeket felhasználva politikai propagandát zúdítanak rájuk.
01:20
to target political propaganda at them.
22
80017
2094
01:22
But the thing about this is that this is not new.
23
82519
2728
De mindez nem újdonság.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
Manapság lájkokkal tolják az arcunkba a propagandát,
01:28
before they use your zip code or your gender or your age,
25
88520
3373
még mielőtt az irányítószámunkat, nemünket vagy korunkat firtatnák,
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
mert az emberek megkörnyékezése politikai célú propagandával
01:35
is as old as politics.
27
95511
1592
olyan régi, mint maga a politika.
01:37
And the reason why that idea is there
28
97530
2278
Politikai propaganda pedig azért létezik,
01:39
is because democracy has a basic vulnerability.
29
99832
3472
mert a demokráciának van egy gyenge pontja:
01:43
This is the idea of a representative.
30
103710
1932
a képviselet intézménye.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
A demokrácia tulajdonképpen a néphatalom gyakorlása.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
A valóságban azonban a hatalmat át kell ruháznunk egy képviselőre,
01:53
that can exert that power for us.
33
113859
2255
aki a mi nevünkben gyakorolja ezt a hatalmat.
01:56
That representative is a bottleneck,
34
116561
1825
A képviselő támadási felület,
01:58
or a weak spot.
35
118410
1297
vagyis gyenge pont.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
Ő a célpont, ha a demokráciát akarjuk támadni,
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
mivel a demokráciát vagy a képviselőn,
02:07
or capturing the way that people choose it.
38
127217
2148
vagy a képviselő-választáson keresztül ragadhatjuk meg.
02:10
So the big question is:
39
130065
1416
A nagy kérdés tehát ez:
02:11
Is this the end of history?
40
131505
1704
itt a történelem végállomása?
02:13
Is this the best that we can do
41
133989
3103
Vajon ez a legjobb, amit tehetünk,
02:17
or, actually, are there alternatives?
42
137878
3067
vagy van más lehetőség is?
02:22
Some people have been thinking about alternatives,
43
142130
2354
Egyesek elgondolkodtak más lehetőségeken is,
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
és az egyik ötlet a közvetlen demokrácia.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
Eszerint a nép, teljesen megkerülve a politikusokat
02:31
and having people vote directly on issues,
46
151293
2403
közvetlenül szavaz bizonyos ügyekről,
02:33
having people vote directly on bills.
47
153720
2265
illetve törvényjavaslatokról.
02:36
But this idea is naive
48
156415
1336
Az ötlet persze naiv,
02:37
because there's too many things that we would need to choose.
49
157775
3171
mert túl sok mindenről kéne döntenünk.
02:40
If you look at the 114th US Congress,
50
160970
2782
Nézzük az Egyesült Államok 114. kongresszusát:
02:43
you will have seen that the House of Representatives
51
163776
2487
láthatták, hogy a Képviselőház
02:46
considered more than 6,000 bills,
52
166287
2889
több mint 6000 törvényjavaslatot tárgyalt,
02:49
the Senate considered more than 3,000 bills
53
169200
2656
a Szenátus több mint háromezret,
02:51
and they approved more than 300 laws.
54
171880
2808
majd több mint 300 törvényt fogadtak el.
02:54
Those would be many decisions
55
174712
1579
Hetente sok döntést kéne hoznia
02:56
that each person would have to make a week
56
176315
2187
minden egyes embernek
02:58
on topics that they know little about.
57
178526
2142
olyan témákról, melyeket alig ismer.
A kognitív sávszélesség problémájával szembesülünk tehát,
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
ha a közvetlen demokrácia megvalósíthatóságát mérlegeljük.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
Mások a likvid, vagy folyékony demokráciában gondolkodnak,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
melyben ön átruházza a politikai hatalmat valakire,
03:16
who can endorse it to someone else,
62
196464
1700
aki átruházhatja azt másra,
03:18
and, eventually, you create a large follower network
63
198188
2541
így egy nagy követői hálózat alakul ki,
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
melyben végül néhány megbízott hoz döntéseket
03:24
on behalf of all of their followers and their followers.
65
204071
3143
a követőik és azok követői nevében.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
De ez az ötlet sem oldja meg a kognitív sávszélesség problémáját,
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
és őszintén szólva eléggé hasonlít arra, mintha képviselőink lennének.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
Ezért elhatároztam, hogy ma kissé provokatív leszek,
03:40
and I'm going to ask you, well:
69
220277
2300
és megkérdezem önöket:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
mi lenne, ha nem a politikusok kihagyásával próbálkoznánk,
03:49
we tried to automate them?
71
229187
2200
hanem önműködővé tennénk őket?
03:57
The idea of automation is not new.
72
237871
2926
Az automatizáció ötlete nem újdonság.
04:00
It was started more than 300 years ago,
73
240821
2080
Több mint 300 éve kezdődött,
04:02
when French weavers decided to automate the loom.
74
242925
3068
amikor francia takácsok a szövőszék gépesítésén gondolkodtak.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
Azt a versenyt Joseph-Marie Jacquard nyerte meg.
04:11
He was a French weaver and merchant
76
251204
1751
Selyemszövő és kereskedő volt,
04:12
that married the loom with the steam engine
77
252979
2440
aki a szövőszék és a gőzgép összeházasításával
04:15
to create autonomous looms.
78
255443
2190
önműködő szövőszéket alkotott.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
És ezzel átvette az irányítást.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
Sokkal bonyolultabb, összetettebb szöveteket tudott így szőni
04:24
than the ones they were able to do by hand.
81
264343
2128
a kéziszőtteseknél.
04:27
But also, by winning that industrial war,
82
267193
2632
Ám a verseny megnyerésével
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
egyúttal az automatizáció folyamatának modelljét is kialakította.
04:34
The way that we automate things for the last 300 years
84
274135
2870
Az azóta eltelt háromszáz év során
04:37
has always been the same:
85
277029
1382
a gépesítés folyamata változatlan maradt:
04:39
we first identify a need,
86
279006
2509
először meghatározunk egy szükségletet,
04:41
then we create a tool to satisfy that need,
87
281539
3184
aztán megalkotjuk az eszközt, ami ezt kielégíti –
04:44
like the loom, in this case,
88
284747
2040
mint például a szövőszéket –,
04:46
and then we study how people use that tool
89
286811
2391
majd megfigyeljük, hogyan használják az emberek,
04:49
to automate that user.
90
289226
1485
végül pedig gépesítjük a felhasználót.
04:51
That's how we came from the mechanical loom
91
291242
3061
Így jutottunk el a mechanikus szövőszéktől
04:54
to the autonomous loom,
92
294327
1896
az önműködő szövőszékig,
04:56
and that took us a thousand years.
93
296247
2120
és ehhez ezer év kellett.
04:58
Now, it's taken us only a hundred years
94
298391
2071
Később már csak száz évbe telt,
05:00
to use the same script to automate the car.
95
300486
3211
míg ugyanilyen lépésekben kifejlesztettük a gépkocsit.
05:05
But the thing is that, this time around,
96
305286
2452
De az a helyzet,
05:07
automation is kind of for real.
97
307762
2129
hogy az automatizáció mára valósággá vált.
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
Ezt a videót egy toshibás kollégám osztotta meg velem,
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
bemutatja a gyárat, ami szilárdtest-meghajtókat állít elő.
05:16
The entire factory is a robot.
100
316543
2018
Az egész gyár egy robot.
05:18
There are no humans in that factory.
101
318585
1925
Egyetlen ember sincs ott.
05:21
And the robots are soon to leave the factories
102
321033
2221
A robotok hamarosan kilépnek a gyárakból,
05:23
and become part of our world,
103
323278
2022
világunk része lesznek,
05:25
become part of our workforce.
104
325324
1835
munkaerővé válnak ők is.
05:27
So what I do in my day job
105
327183
1773
Munkám során olyan eszközöket hozok létre,
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
amik egész országok adatait integrálják,
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
hogy megteremtsük a szükséges alapokat
05:36
for a future in which we need to also manage those machines.
108
336486
3687
e gépek későbbi szabályozásához is.
Ma azonban nem azért jöttem ide, hogy azokról az eszközökről beszéljek,
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
05:44
that integrate data for countries.
110
344125
1824
amik országok adatait integrálják.
05:46
But I'm here to talk to you about another idea
111
346463
2622
Inkább egy másik ötletet mutatok be,
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
amivel átgondolhatjuk az MI alkalmazását a demokráciában.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
Az eszközök ugyanis, amiket fejlesztek, döntéshozatal céljára készülnek.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
E döntések bizonyos értelemben objektívnek tekinthetők –
06:02
public investment decisions.
115
362621
1745
állami beruházási döntések.
06:04
But there are decisions that are legislative,
116
364885
2631
Léteznek azonban törvényhozói döntések is.
06:07
and these decisions that are legislative require communication among people
117
367540
3787
Ez utóbbiaknál pedig fontos,
hogy az emberek elmondják róluk a véleményüket,
06:11
that have different points of view,
118
371351
1700
06:13
require participation, require debate,
119
373075
2613
fontos a részvétel, fontos a vita,
06:15
require deliberation.
120
375712
1478
fontos a mérlegelés.
06:18
And for a long time, we have thought that, well,
121
378241
2804
Régóta gondoljuk azt,
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
hogy a demokrácia tökéletesítéséhez több kommunikációra van szükség.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
Tehát a demokrácia érdekében kifejlesztett összes technológiánk,
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
akár az újságok, akár a közösségi média
06:31
have tried to provide us with more communication.
125
391088
2382
a kommunikáció növelését szolgálja.
06:34
But we've been down that rabbit hole,
126
394103
1822
Ezt is kipróbáltuk, és már tudjuk:
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
mindez nem jelent megoldást a problémára.
06:38
Because it's not a communication problem,
128
398721
1996
Ez ugyanis nem kommunikációs,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
hanem kognitív sávszélességi gond.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
Ha tehát a kognitív sávszélesség a gond,
06:44
well, adding more communication to people
131
404903
2587
a kommunikáció növelése
06:47
is not going to be what's going to solve it.
132
407514
2744
nem fogja megoldani a problémát.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
Másfajta technológiákra van szükség,
06:53
that help us deal with some of the communication
134
413419
3046
amik segítenek megküzdeni
a kommunikációáradat egy részével.
06:56
that we are overloaded with.
135
416489
2242
06:58
Think of, like, a little avatar,
136
418755
1699
Gondoljanak egy apró avatárra,
07:00
a software agent,
137
420478
1339
egy szoftverágensre,
07:01
a digital Jiminy Cricket --
138
421841
1878
egy digitális Beszélő Tücsökre,
07:03
(Laughter)
139
423743
1238
(Nevetés)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
ami alapvetően képes helyettünk kérdéseket megválaszolni.
07:09
And if we had that technology,
141
429759
1787
Ha lenne ilyen technológiánk,
07:11
we would be able to offload some of the communication
142
431570
2478
megszabadulhatnánk a kommunikáció egy részétől,
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
miközben egyrészt több, másrészt jobb döntéseket hozhatnánk.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
Egyébként a szoftverágens gondolata szintén nem újdonság.
07:22
We already use them all the time.
145
442603
2109
Nap mint nap használjuk.
07:25
We use software agents
146
445216
1521
Szoftver ágenseket használva döntjük el,
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
merre induljunk el úticélunk felé,
07:31
the music that we're going to listen to
148
451070
2101
kiválasztják, milyen zenét szeretnénk hallgatni,
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
vagy felajánlják, mi legyen a következő könyv, amit elolvasnánk.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
Van tehát egy kézenfekvő ötletünk a 21. században,
07:40
that was as obvious as the idea
151
460592
2643
ami éppen olyan kézenfekvő,
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
mint Jacquard korában volt a gőzgép és a szövőszék egyesítése.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
Ugyanígy egyesíthetnénk a közvetlen demokráciát a szoftverágensekkel.
07:54
Imagine, for a second, a world
154
474849
2121
Képzeljenek el egy világot,
07:56
in which, instead of having a representative that represents you
155
476994
3166
melyben nem olyan képviselőjük van,
aki önöket és milliónyi társukat egyszerre képviseli,
08:00
and millions of other people,
156
480184
1574
08:01
you can have a representative that represents only you,
157
481782
3036
hanem olyan, aki csak önöket képviseli,
08:05
with your nuanced political views --
158
485504
2254
csakis az önök egyedi politikai nézeteit:
08:07
that weird combination of libertarian and liberal
159
487782
3344
legyen az akár a liberalizmus és a libertárianizmus fura egyvelege,
08:11
and maybe a little bit conservative on some issues
160
491150
2392
bizonyos kérdésekben kissé konzervatív,
08:13
and maybe very progressive on others.
161
493566
2108
más kérdésekben nagyon is progresszív nézetekkel fűszerezve.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
Jelenlegi politikusaink "egységcsomagok", tele kompromisszumokkal.
08:18
But you might have someone that can represent only you,
163
498989
3634
Viszont lehet olyan képviselőm, aki csakis engem képvisel,
08:22
if you are willing to give up the idea
164
502647
1852
ha lemondok arról az elképzelésről,
08:24
that that representative is a human.
165
504523
2249
hogy egy képviselő csakis emberi lény lehet.
08:27
If that representative is a software agent,
166
507229
2082
Ha az a képviselő szoftverágens,
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
lehet olyan szenátusunk, ahol annyi szenátor van, ahány polgár.
08:33
And those senators are going to be able to read every bill
168
513529
2858
E szenátorok el tudnak olvasni minden törvényjavaslatot,
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
és szavazni tudnak mindegyikről.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
Ez tehát egy kézenfekvő ötlet, amit esetleg megfontolhatunk.
08:42
But I understand that in this day and age,
171
522802
2422
Tisztában vagyok azzal,
08:45
this idea might be quite scary.
172
525248
1889
hogy ez az elképzelés ma még félelmetesnek tűnhet.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
Igaz, ijesztően hangzik:
08:51
to help us run our governments
174
531855
1673
egy robot, aki felbukkan a jövőből azért,
08:53
sounds terrifying.
175
533552
1631
hogy segítse a kormányunkat.
08:56
But we've been there before.
176
536223
1651
De volt már ilyen.
08:57
(Laughter)
177
537898
1273
(Nevetés)
08:59
And actually he was quite a nice guy.
178
539195
2495
És egész helyes srác volt.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
Hogy is festene ötletünk Jacquard-szövőgépes változata?
09:10
It would be a very simple system.
180
550135
1901
Nagyon egyszerű rendszer lenne.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
Képzeljék el: bejelentkeznek, létrehozzák avatárukat,
09:15
and then you're going to start training your avatar.
182
555542
2456
aztán elkezdik őt kiképezni.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
Megismertetik vele olvasási szokásaikat,
09:20
or connect it to your social media,
184
560728
1861
hozzákapcsolják közösségi profiljukhoz
09:22
or you can connect it to other data,
185
562613
2408
vagy egyéb adataikhoz,
09:25
for example by taking psychological tests.
186
565045
2272
például pszichológiai tesztek kitöltésével.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
Ebben az a szép, hogy nincs benne csalás.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
Nem a barátainkkal, családtagjainkkal folytatott csevegések adatait
09:33
that then gets used in a political system.
189
573696
3151
használják fel politikai célokra.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
Kifejezetten e célra készült rendszerrel osztjuk meg adatainkat,
09:40
to make political decisions on your behalf.
191
580599
2116
hogy a megbízásunkból hozzon politikai döntéseket.
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
Ha megvannak az adatok, kiválasztunk egy tanító algoritmust.
09:47
because it's an open marketplace
193
587268
1563
Ez egy nyílt fórum,
09:48
in which different people can submit different algorithms
194
588855
2786
ahová különféle emberek olyan algoritmusokat tölthetnek fel,
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
melyek adataink alapján megjósolják szavazatunkat.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
A rendszer nyitott, senki sem felügyeli az algoritmusokat;
09:59
there are algorithms that become more popular
197
599562
2112
némelyik közülük népszerűbb,
10:01
and others that become less popular.
198
601698
1723
mások kevésbé népszerűek.
Végül pedig felülvizsgálhatjuk a rendszert.
10:03
Eventually, you can audit the system.
199
603445
1807
Ellenőrizhetjük, hogy működik avatárunk.
10:05
You can see how your avatar is working.
200
605276
1881
Akár robotpilóta-üzemmódba is állíthatjuk.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
Ha kevésbé bízunk benne,
10:09
If you want to be a little more controlling,
202
609357
2062
beállíthatjuk, hogy minden döntés előtt visszakérdezzen,
10:11
you can actually choose that they ask you
203
611443
1968
10:13
every time they're going to make a decision,
204
613435
2068
vagy beállíthatunk bármit
10:15
or you can be anywhere in between.
205
615527
1635
e két véglet között.
Hogy miért élünk oly kevéssé a demokráciával,
10:17
One of the reasons why we use democracy so little
206
617186
2405
10:19
may be because democracy has a very bad user interface.
207
619615
3568
annak egyik oka az lehet, hogy nagyon rossz a felhasználói felülete.
10:23
And if we improve the user interface of democracy,
208
623207
2483
Ha tehát ezt tökéletesítjük,
10:25
we might be able to use it more.
209
625714
2127
akkor hatékonyabban élhetünk vele.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
Természetesen számos kérdés felvetődhet.
10:32
Well, how do you train these avatars?
211
632473
2161
Hogyan tanítsuk be avatárjainkat?
10:34
How do you keep the data secure?
212
634658
1894
Hogyan őrizzük meg adataink biztonságát?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
Hogy tartsuk fenn rendszereink függetlenségét és ellenőrizhetőségét?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
Mi lesz a nyolcvanéves nagymamámmal,
10:41
and doesn't know how to use the internet?
215
641946
1960
aki nem tudja használni az internetet?
10:44
Trust me, I've heard them all.
216
644262
2221
Higgyék el, ismerem ezeket a kérdéseket.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
Amikor új ötleteken töprengünk, óvakodjunk a pesszimistáktól:
10:51
because they are known to have a problem for every solution.
218
651091
4319
arról híresek, hogy minden megoldásra van egy problémájuk.
10:55
(Laughter)
219
655434
1825
(Nevetés)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
Gondolkozzunk tehát nagyban.
11:00
The questions I just showed you are little ideas
221
660347
3626
Eddig kis ötletekről beszéltünk,
11:03
because they are questions about how this would not work.
222
663997
2902
azt kérdeztük, hogyan NEM működne mindez.
11:07
The big ideas are ideas of:
223
667502
1981
A nagy ötletek viszont arról szólnak,
11:09
What else can you do with this
224
669507
1807
mihez kezdhetnénk mindezzel,
11:11
if this would happen to work?
225
671338
1889
ha mégiscsak működne?
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
Az egyik téma ez lehetne: ki írja a törvényeket?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
Meglévő avatárjaink
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
eleinte olyan törvényekről szavaznának,
melyeket képviselőink vagy politikusaink írtak korábban.
11:25
that we already have.
229
685622
1351
11:27
But if this were to work,
230
687491
1714
Ha ez jól működne,
11:29
you could write an algorithm
231
689902
2350
kifejleszthetnénk egy algoritmust,
11:32
that could try to write a law
232
692276
2150
mellyel olyan törvényt írhatnánk,
11:34
that would get a certain percentage of approval,
233
694450
2421
ami egy bizonyos százalékú jóváhagyást kapna,
11:36
and you could reverse the process.
234
696895
1782
és ezzel megfordíthatóvá válna a folyamat.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
Most persze azt gondolhatják: nevetséges ötlet, nem kéne belevágnunk.
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
De tagadhatatlan, hogy ez az ötlet csakis olyan világban lehetséges,
11:45
in a world in which direct democracy and software agents
237
705047
3020
ahol a közvetlen demokrácia és a szoftverágensek
a közügyekben való részvétel járható útját jelentik.
11:48
are a viable form of participation.
238
708091
2656
11:52
So how do we start the revolution?
239
712596
2753
Hogy robbantsuk hát ki a forradalmat?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
Nem kell hozzá sem kordon, sem tüntetések,
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
nem kell azt követelni, hogy politikusaink robotokká változzanak.
12:03
That's not going to work.
242
723786
1549
Nem így fog működni.
12:05
This is much more simple,
243
725359
1612
Ennél sokkal egyszerűbben,
12:06
much slower
244
726995
1159
lassabban és szerényebben
12:08
and much more humble.
245
728178
1414
fog megvalósulni.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
Kezdetben egyszerű rendszereket telepítünk
12:13
in libraries, in nonprofits.
247
733989
2094
iskolákban, könyvtárakban, nonprofit szervezetekben.
12:16
And we try to figure out all of those little questions
248
736107
2654
Aztán igyekszünk megoldani
azokat a kis kérdéseket, problémákat,
12:18
and those little problems
249
738785
1221
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
melyeket meg kell oldanunk ahhoz,
hogy ötletünk megvalósítható, megbízható legyen.
12:23
to make this idea something that we can trust.
251
743955
2351
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
És ha e rendszerben már száz, ezer, százezer ember szavazhat
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
nem politikai kötődés mentén,
12:33
we're going to develop trust in this idea,
254
753783
2018
akkor kialakul a rendszer iránti bizalom,
12:35
the world is going to change,
255
755825
1519
megváltozik a világ,
12:37
and those that are as little as my daughter is right now
256
757368
2875
és akik most még olyan kicsik, mint a kislányom,
12:40
are going to grow up.
257
760267
1337
így fognak felnőni.
12:42
And by the time my daughter is my age,
258
762580
2369
És mire a lányom annyi idős lesz, mint én most,
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
ez az ötlet, ami – elismerem – ma még őrültségnek hangzik,
12:49
might not be crazy to her and to her friends.
260
769433
4134
neki és barátainak talán már nem fog annak tűnni.
12:53
And at that point,
261
773956
1837
És ha ezt elérjük,
12:55
we will be at the end of our history,
262
775817
2603
történelmünk végállomásához érünk,
12:58
but they will be at the beginning of theirs.
263
778444
2821
és elkezdődhet az ő történelmük.
13:01
Thank you.
264
781646
1183
Köszönöm.
13:02
(Applause)
265
782853
3042
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7