A bold idea to replace politicians | César Hidalgo

400,966 views ・ 2019-04-03

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Zeeva Livshitz עריכה: Ido Dekkers
00:13
Is it just me,
0
13373
1744
האם זה רק אני,
00:15
or are there other people here
1
15141
2332
או שיש כאן עוד אנשים
00:17
that are a little bit disappointed with democracy?
2
17497
2344
שמאוכזבים קצת מדמוקרטיה?
00:20
(Applause)
3
20986
2336
(מחיאות כפיים)
00:24
So let's look at a few numbers.
4
24141
2071
אז בואו ונסתכל על כמה מספרים.
00:26
If we look across the world,
5
26934
2173
אם נסתכל על העולם,
00:29
the median turnout in presidential elections
6
29131
3892
חציון ההשתתפות בבחירות לנשיאות
00:33
over the last 30 years
7
33047
1651
ב -30 השנים האחרונות
00:34
has been just 67 percent.
8
34722
2622
היה רק 67 אחוזים.
00:38
Now, if we go to Europe
9
38329
1973
ואם נלך לאירופה
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
ונסתכל על אנשים שהשתתפו בבחירות לפרלמנט האירופי,
00:44
the median turnout in those elections
11
44778
2071
חציון ההצבעה בבחירות אלה
00:46
is just 42 percent.
12
46873
2104
הוא רק 42 אחוזים.
00:50
Now let's go to New York,
13
50125
1669
עכשיו בואו ונלך לניו יורק,
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
ונראה כמה אנשים הצביעו בבחירות האחרונות לראשות העיר.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
נמצא שרק 24% מהאנשים הגיעו להצביע.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
פירוש הדבר הוא, שאם הסדרה"חברים" עדיין רצה,
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
ג'ואי ואולי פיבי היו מופיעים להצביע.
01:07
(Laughter)
18
67554
1290
(צחוק)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
ואתם לא יכולים להאשים אותם כי אנשים עייפים מפוליטיקאים.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
ואנשים עייפים מאנשים אחרים שמשתמשים בנתונים שיש בידם
01:17
to communicate with their friends and family,
21
77795
2198
כדי לתקשר עם חבריהם ובני משפחתם,
01:20
to target political propaganda at them.
22
80017
2094
ולכוון לתעמולה פוליטית אליהם.
01:22
But the thing about this is that this is not new.
23
82519
2728
אבל העניין הוא שזה לא חדש.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
כיום, אנשים משתמשים בלייקים כדי לכוון אליכם תעמולה
01:28
before they use your zip code or your gender or your age,
25
88520
3373
לפני שהם משתמשים במיקוד שלכם או במין שלכם או הגיל שלכם,
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
כי הרעיון לכוון לאנשים תעמולה פוליטית
01:35
is as old as politics.
27
95511
1592
הוא ישן כמו הפוליטיקה.
01:37
And the reason why that idea is there
28
97530
2278
והסיבה לכך שהרעיון הזה קיים
01:39
is because democracy has a basic vulnerability.
29
99832
3472
היא שהדמוקרטיה סובלת מפגיעות בסיסית.
01:43
This is the idea of a representative.
30
103710
1932
זהו הרעיון של נציג.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
עקרונית, הדמוקרטיה היא יכולתם של אנשים להפעיל כוח.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
אבל בפועל, אנחנו צריכים להאציל את הכוח הזה לנציג
01:53
that can exert that power for us.
33
113859
2255
שיכול להפעיל את הכוח עבורנו.
01:56
That representative is a bottleneck,
34
116561
1825
נציג זה הוא צוואר הבקבוק,
01:58
or a weak spot.
35
118410
1297
או נקודה חלשה.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
זה המקום שאליו אתם רוצים לכוון אם ברצונכם לתקוף את הדמוקרטיה
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
כי אתם יכולים ללכוד את הדמוקרטיה על ידי לכידת נציג זה
02:07
or capturing the way that people choose it.
38
127217
2148
או ללכוד את הדרך שאנשים בוחרים בזה.
02:10
So the big question is:
39
130065
1416
אז השאלה הגדולה היא:
02:11
Is this the end of history?
40
131505
1704
האם זו סופה של ההיסטוריה?
02:13
Is this the best that we can do
41
133989
3103
האם זה הכי טוב שאנחנו יכולים לעשות
02:17
or, actually, are there alternatives?
42
137878
3067
או, למעשה, האם יש חלופות?
02:22
Some people have been thinking about alternatives,
43
142130
2354
יש אנשים שחושבים על חלופות,
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
ואחד הרעיונות שעולים שם בחוץ הוא רעיון של דמוקרטיה ישירה.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
זה הרעיון של עקיפת הפוליטיקאים לחלוטין
02:31
and having people vote directly on issues,
46
151293
2403
ולאפשר לאנשים להצביע ישירות על סוגיות,
02:33
having people vote directly on bills.
47
153720
2265
לאפשר לאנשים להצביע ישירות על הצעות חוק.
02:36
But this idea is naive
48
156415
1336
אבל הרעיון הזה הוא תמים
02:37
because there's too many things that we would need to choose.
49
157775
3171
כי יש יותר מדי דברים שנצטרך לבחור.
02:40
If you look at the 114th US Congress,
50
160970
2782
אם תסתכלו על הקונגרס ה-114 של ארה"ב,
02:43
you will have seen that the House of Representatives
51
163776
2487
תיווכחו שבית הנבחרים
02:46
considered more than 6,000 bills,
52
166287
2889
שקל יותר מ 6,000 הצעות חוק,
02:49
the Senate considered more than 3,000 bills
53
169200
2656
הסנאט שקל יותר מ -3,000 הצעות חוק
02:51
and they approved more than 300 laws.
54
171880
2808
והם אישרו יותר מ -300 חוקים.
02:54
Those would be many decisions
55
174712
1579
אלו הן הרבה החלטות
02:56
that each person would have to make a week
56
176315
2187
שכל אדם יצטרך לקבל בשבוע
02:58
on topics that they know little about.
57
178526
2142
על נושאים שהם יודעים עליהם מעט.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
אז יש בעיה קוגניטיבית גדולה של רוחב פס
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
אם ננסה לחשוב על דמוקרטיה ישירה כעל אלטרנטיבה ברת קיימא
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
אז כמה אנשים חושבים על הרעיון של דמוקרטיה נוזלית, או דמוקרטיה גמישה,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
שזה הרעיון שאתה מסב את הכוח הפוליטי שלך למישהו,
03:16
who can endorse it to someone else,
62
196464
1700
שיכול להסב אותו למישהו אחר,
03:18
and, eventually, you create a large follower network
63
198188
2541
ובסופו של דבר, אתה יוצר רשת תומכים גדולה
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
שבה בסופו של דבר, ישנם מעט אנשים שמקבלים את ההחלטות
03:24
on behalf of all of their followers and their followers.
65
204071
3143
בשם כל תומכיהם והחסידים שלהם.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
אבל גם רעיון זה אינו פותר את בעיית רוחב הפס הקוגניטיבי
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
ולמען האמת, זה גם די דומה לרעיון של נציג.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
אז היום אני הולך להיות קצת פרובוקטיבי,
03:40
and I'm going to ask you, well:
69
220277
2300
ואני עומד לשאול אתכם, טוב:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
מה אם, במקום לנסות לעקוף פוליטיקאים,
03:49
we tried to automate them?
71
229187
2200
ננסה לאִטְמֵט אותם?
03:57
The idea of automation is not new.
72
237871
2926
הרעיון של אוטומציה אינו חדש.
04:00
It was started more than 300 years ago,
73
240821
2080
זה התחיל לפני יותר מ -300 שנה,
04:02
when French weavers decided to automate the loom.
74
242925
3068
כאשר האורגים הצרפתיים החליטו להפוך את הנול לאוטומטי.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
המנצח במלחמה התעשייתית היה ג'וזף-מארי ז'אקארד.
04:11
He was a French weaver and merchant
76
251204
1751
הוא היה אורג צרפתי וסוחר
04:12
that married the loom with the steam engine
77
252979
2440
ששידך את הנול עם מנוע הקיטור
04:15
to create autonomous looms.
78
255443
2190
כדי ליצור נולים אוטונומיים.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
ובנולים אוטונומיים אלה, הוא זכה לשליטה.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
עכשיו הוא יכול היה לייצר בדים מורכבים יותר ומתוחכמים יותר
04:24
than the ones they were able to do by hand.
81
264343
2128
מאשר אלה שהיו מסוגלים לייצר ביד.
04:27
But also, by winning that industrial war,
82
267193
2632
אבל גם, בעזרת נצחון המלחמה התעשייתית,
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
הוא יסד את מה שהפך להיות תוכנית האב של האוטומציה.
04:34
The way that we automate things for the last 300 years
84
274135
2870
האופן שבו אנו מְאֻטְמָטִים דברים ב-300 השנים האחרונות
04:37
has always been the same:
85
277029
1382
תמיד היה זהה:
04:39
we first identify a need,
86
279006
2509
תחילה אנו מזהים צורך,
04:41
then we create a tool to satisfy that need,
87
281539
3184
ואז אנחנו יוצרים כלי שיספק את הצורך,
04:44
like the loom, in this case,
88
284747
2040
כמו הנול, במקרה הזה,
04:46
and then we study how people use that tool
89
286811
2391
ואז אנו לומדים כיצד אנשים משתמשים בכלי זה
04:49
to automate that user.
90
289226
1485
כדי לאטמט את המשתמש הזה .
04:51
That's how we came from the mechanical loom
91
291242
3061
כך הגענו מהנול המכני
04:54
to the autonomous loom,
92
294327
1896
אל הנול האוטונומי,
04:56
and that took us a thousand years.
93
296247
2120
וזה לקח לנו אלף שנים.
04:58
Now, it's taken us only a hundred years
94
298391
2071
עכשיו, זה לקח לנו רק מאה שנים
05:00
to use the same script to automate the car.
95
300486
3211
כדי להשתמש באותו תסריט כדי להפוך את המכונית לאוטומטית.
05:05
But the thing is that, this time around,
96
305286
2452
אבל העניין הוא, שהפעם,
05:07
automation is kind of for real.
97
307762
2129
אוטומציה היא סוג של דבר אמיתי.
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
זהו וידאו שעמית שלי מטושיבה שיתף איתי
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
שמראה את המפעל שמייצר כוננים קשיחים שבביים
05:16
The entire factory is a robot.
100
316543
2018
כל המפעל הוא רובוט.
05:18
There are no humans in that factory.
101
318585
1925
אין בני אדם במפעל הזה.
05:21
And the robots are soon to leave the factories
102
321033
2221
והרובוטים יצאו בקרוב מהמפעלים
05:23
and become part of our world,
103
323278
2022
ויהפכו להיות חלק מהעולם שלנו,
05:25
become part of our workforce.
104
325324
1835
יהפכו להיות חלק מכוח העבודה שלנו.
05:27
So what I do in my day job
105
327183
1773
אז מה שאני עושה בעבודת יומי
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
זה למעשה יוצר כלים שישלבו נתונים עבור מדינות שלמות
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
כדי שבסופו של דבר יהיו לנו היסודות שאנחנו צריכים
05:36
for a future in which we need to also manage those machines.
108
336486
3687
עבור עתיד שבו נצטרך גם לנהל את המכונות האלו.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
אבל היום, אני לא כאן כדי לדבר איתכם על כלים אלה
05:44
that integrate data for countries.
110
344125
1824
שמשלבים נתונים עבור מדינות.
05:46
But I'm here to talk to you about another idea
111
346463
2622
אלא אני כאן כדי לדבר איתכם על רעיון אחר
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
שעשוי לעזור לנו לחשוב איך להשתמש בבינה מלאכותית בדמוקרטיה.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
משום שהכלים שאני בונה מעוצבים עבור החלטות מנהלים.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
אלו החלטות שניתן להטיל בסוג מסוים של אובייקטיביות --
06:02
public investment decisions.
115
362621
1745
החלטות בנושא השקעה ציבורית.
06:04
But there are decisions that are legislative,
116
364885
2631
אבל יש החלטות שהן תחוקתיות,
06:07
and these decisions that are legislative require communication among people
117
367540
3787
והחלטות תחוקתיות אלו מצריכות תקשורת בין אנשים
06:11
that have different points of view,
118
371351
1700
בעלי נקודות מבט שונות,
06:13
require participation, require debate,
119
373075
2613
ומצריכות השתתפות, מצריכות דיונים,
06:15
require deliberation.
120
375712
1478
מצריכות דיון מעמיק.
06:18
And for a long time, we have thought that, well,
121
378241
2804
ובמשך זמן רב, חשבנו,
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
שמה שנחוץ לנו כדי לשפר את הדמוקרטיה זה למעשה יותר תקשורת.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
אז כל הטכנולוגיות שקידמנו בהקשר של דמוקרטיה,
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
בין אם בעיתונים או במדיה חברתית,
06:31
have tried to provide us with more communication.
125
391088
2382
ניסו לספק לנו יותר תקשורת.
06:34
But we've been down that rabbit hole,
126
394103
1822
אך כבר היינו במורד מחילת הארנב
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
ואנחנו יודעים שזה לא מה שיפתור את הבעיה.
06:38
Because it's not a communication problem,
128
398721
1996
כי זה לא בעייה של תקשורת,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
זוהי בעיית רוחב פס קוגניטיבי.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
אז אם הבעיה היא של רוחב פס קוגניטיבי,
06:44
well, adding more communication to people
131
404903
2587
הוספה של יותר תקשורת לאנשים
06:47
is not going to be what's going to solve it.
132
407514
2744
לא הולכת לפתור אותה.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
מה שנצטרך במקום זה, שיהיו טכנולוגיות אחרות
06:53
that help us deal with some of the communication
134
413419
3046
שיעזרו לנו להתמודד עם חלק מהתקשורת
06:56
that we are overloaded with.
135
416489
2242
שאנחנו עמוסים איתה.
06:58
Think of, like, a little avatar,
136
418755
1699
חישבו על משהו במקצת כמו אווטאר,
07:00
a software agent,
137
420478
1339
סוכן תוכנה,
07:01
a digital Jiminy Cricket --
138
421841
1878
ג'ימיני הצרצר (מפינוקיו) דיגיטלי --
07:03
(Laughter)
139
423743
1238
(צחוק)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
שבעצם מסוגל לענות על דברים בשמכם.
07:09
And if we had that technology,
141
429759
1787
ואם היתה לנו הטכנולוגיה הזאת,
07:11
we would be able to offload some of the communication
142
431570
2478
היינו יכולים לפרוק מעלינו חלק מהתקשורת
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
שתעזור, אולי, לקבל החלטות טובות יותר או החלטות בקנה מידה גדול יותר.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
וגם הרעיון של סוכני תוכנה אינו חדש.
07:22
We already use them all the time.
145
442603
2109
אנחנו כבר משתמשים בהם כל הזמן.
07:25
We use software agents
146
445216
1521
אנו משתמשים בסוכני תוכנה
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
כדי לבחור את הדרך בה אנו רוצים לנסוע למקום מסוים,
07:31
the music that we're going to listen to
148
451070
2101
את המוזיקה שאנו רוצים להקשיב לה
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
או לקבל הצעות לספרים שאנו צריכים לקרוא.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
אז יש רעיון ברור במאה ה 21
07:40
that was as obvious as the idea
151
460592
2643
שהיה ברור כמו הרעיון
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
של שילוב מנוע קיטור עם נול בזמנו של ז'קארד.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
והרעיון הזה הוא שילוב דמוקרטיה ישירה עם סוכני תוכנה.
07:54
Imagine, for a second, a world
154
474849
2121
תארו לעצמכם לרגע, עולם
07:56
in which, instead of having a representative that represents you
155
476994
3166
שבו, במקום שיש נציג שמייצג אתכם
08:00
and millions of other people,
156
480184
1574
ומיליונים של אנשים אחרים,
08:01
you can have a representative that represents only you,
157
481782
3036
יכול להיות לכם נציג שמייצג רק אתכם
08:05
with your nuanced political views --
158
485504
2254
עם ההשקפה הפוליטית שלכם --
08:07
that weird combination of libertarian and liberal
159
487782
3344
הקומבינציה המוזרה של ליברטריאן וליברלי
08:11
and maybe a little bit conservative on some issues
160
491150
2392
ואולי מעט שמרן בנושאים מסוימים
08:13
and maybe very progressive on others.
161
493566
2108
ואולי מאוד פרוגרסיבי באחרים.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
פוליטיקאים היום הם מארזים, והם מלאים בפשרות.
08:18
But you might have someone that can represent only you,
163
498989
3634
אבל אולי יהיה לכם מישהו שמייצג רק אתכם,
08:22
if you are willing to give up the idea
164
502647
1852
אם תהיו מוכנים לוותר על הרעיון
08:24
that that representative is a human.
165
504523
2249
שהנציג הזה הוא אנושי.
08:27
If that representative is a software agent,
166
507229
2082
אם נציג זה הוא סוכן תוכנה,
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
היה יכול להיות לנו סנאט עם מס. סנטורים זהה למס. האזרחים.
08:33
And those senators are going to be able to read every bill
168
513529
2858
וסנטורים אלה יהיו מסוגלים לקרוא כל הצעת חוק
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
והם יהיו מסוגלים להצביע על כל אחת מהן.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
אז יש רעיון ברור שאולי נרצה לחשוב עליו.
08:42
But I understand that in this day and age,
171
522802
2422
אבל אני מבין שביום זה ובתקופה הזו,
08:45
this idea might be quite scary.
172
525248
1889
הרעיון הזה יכול להישמע די מפחיד.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
למעשה, לחשוב על רובוט שמגיע מהעתיד
08:51
to help us run our governments
174
531855
1673
לעזור לנו לנהל את הממשלות שלנו
08:53
sounds terrifying.
175
533552
1631
נשמע מפחיד.
08:56
But we've been there before.
176
536223
1651
אבל היינו שם כבר קודם.
08:57
(Laughter)
177
537898
1273
(צחוק)
08:59
And actually he was quite a nice guy.
178
539195
2495
ולמעשה הוא היה ברנש די נחמד.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
אז איך תיראה גרסת הנול של ז'קארד של הרעיון הזה?
09:10
It would be a very simple system.
180
550135
1901
זו תהיה מערכת מאוד פשוטה.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
דמיינו מערכת שאתם נכנסים אליה ויוצרים את האווטאר שלכם
09:15
and then you're going to start training your avatar.
182
555542
2456
ואז אתם תתחילו לאמן את האווטאר שלכם.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
כך תוכלו להקנות לאווטאר שלכם את הרגלי הקריאה שלכם,
09:20
or connect it to your social media,
184
560728
1861
או לחבר אותו למדיה החברתית שלכם,
09:22
or you can connect it to other data,
185
562613
2408
או שתוכלו לחבר אותו לנתונים אחרים,
09:25
for example by taking psychological tests.
186
565045
2272
למשל לעבור מבחנים פסיכולוגיים.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
והדבר היפה בזה הוא שאין כאן הונאה.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
אינכם מספקים נתונים כדי לתקשר עם חברים שלכם ובני משפחה
09:33
that then gets used in a political system.
189
573696
3151
שישמשו אחר כך במערכת פוליטית.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
אתם מספקים נתונים למערכת שנועדה לשמש
09:40
to make political decisions on your behalf.
191
580599
2116
כדי לקבל החלטות פוליטיות בשמכם.
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
ואז אתם לוקחים את הנתונים האלה ובוחרים אלגוריתם הדרכה,
09:47
because it's an open marketplace
193
587268
1563
משום שזה שוק פתוח
09:48
in which different people can submit different algorithms
194
588855
2786
שבו אנשים שונים יכולים להגיש אלגוריתמים שונים
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
כדי לחזות איך אתם הולכים להצביע בהתבסס על הנתונים שסיפקתם.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
והמערכת פתוחה, כך שאף אחד לא שולט באלגוריתמים;
09:59
there are algorithms that become more popular
197
599562
2112
יש אלגוריתמים שהופכים יותר פופולריים
10:01
and others that become less popular.
198
601698
1723
ואחרים שהופכים פחות פופולריים.
10:03
Eventually, you can audit the system.
199
603445
1807
בסופו של דבר, תוכלו לבדוק את המערכת
10:05
You can see how your avatar is working.
200
605276
1881
אתם יכולים לראות איך האווטאר שלכם עובד.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
אם תרצו תוכלו להשאיר אותו על טייס אוטומטי.
10:09
If you want to be a little more controlling,
202
609357
2062
אם אתם רוצים קצת יותר שליטה,
10:11
you can actually choose that they ask you
203
611443
1968
אתם יכולים למעשה לבחור שהם ישאלו אתכם
10:13
every time they're going to make a decision,
204
613435
2068
בכל פעם שהם עומדים לקבל החלטה,
10:15
or you can be anywhere in between.
205
615527
1635
או שתוכלו להיות במקום כלשהו באמצע.
10:17
One of the reasons why we use democracy so little
206
617186
2405
אחת הסיבות לכך שאנו משתמשים כל כך מעט בדמוקרטיה
10:19
may be because democracy has a very bad user interface.
207
619615
3568
יכולה להיות, כי לדמוקרטיה יש ממשק משתמש רע מאוד.
10:23
And if we improve the user interface of democracy,
208
623207
2483
ואם נשפר את ממשק המשתמש של הדמוקרטיה,
10:25
we might be able to use it more.
209
625714
2127
ייתכן שנוכל להשתמש בו יותר.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
כמובן שיכולות להיות לכם הרבה שאלות.
10:32
Well, how do you train these avatars?
211
632473
2161
ובכן, איך אתם מאמנים את האווטארים האלה?
10:34
How do you keep the data secure?
212
634658
1894
איך אתם שומרים את הנתונים מאובטחים?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
איך אתם שומרים את המערכות מבוזרות וניתנות לביקורת?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
מה עם סבתא שלי, בת ה-80
10:41
and doesn't know how to use the internet?
215
641946
1960
שאינה יודעת איך להשתמש באינטרנט?
10:44
Trust me, I've heard them all.
216
644262
2221
האמינו לי, שמעתי את כולם.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
אז כשחושבים על רעיון כזה, צריך להיזהר מפסימיסטים
10:51
because they are known to have a problem for every solution.
218
651091
4319
כי הם ידועים כמי שיש להם בעיה עבור כל פתרון.
10:55
(Laughter)
219
655434
1825
(צחוק)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
אז אני רוצה להזמין אתכם לחשוב על הרעיונות היותר גדולים.
11:00
The questions I just showed you are little ideas
221
660347
3626
השאלות שהצגתי בפניכם הן רעיונות קטנים
11:03
because they are questions about how this would not work.
222
663997
2902
כי הן שאלות על איך זה לא יעבוד.
11:07
The big ideas are ideas of:
223
667502
1981
הרעיונות הגדולים הם רעיונות של:
11:09
What else can you do with this
224
669507
1807
מה עוד תוכלו לעשות עם זה
11:11
if this would happen to work?
225
671338
1889
אם זה כן יוכל לעבוד?
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
ואחד הרעיונות האלה הוא, ובכן, מי כותב את החוקים?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
בהתחלה, יכלו האווטארים שיש לנו כבר
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
להצביע על חוקים שנכתבים על ידי הסנטורים או הפוליטיקאים
11:25
that we already have.
229
685622
1351
שכבר יש לנו.
11:27
But if this were to work,
230
687491
1714
אבל כדי שזה יעבוד,
11:29
you could write an algorithm
231
689902
2350
תוכלו לכתוב אלגוריתם
11:32
that could try to write a law
232
692276
2150
שיכול לנסות לכתוב חוק
11:34
that would get a certain percentage of approval,
233
694450
2421
שיקבל אחוז מסוים של אישורים,
11:36
and you could reverse the process.
234
696895
1782
ויכולתם להפוך את התהליך.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
עכשיו, אתם עשויים לחשוב שרעיון זה מגוחך ושאנחנו לא צריכים לעשות את זה,
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
אבל אתם לא יכולים להכחיש שזה רעיון שאפשרי רק
11:45
in a world in which direct democracy and software agents
237
705047
3020
בעולם שבו דמוקרטיה ישירה וסוכני תוכנה
11:48
are a viable form of participation.
238
708091
2656
הם צורה ישומית של השתתפות,
11:52
So how do we start the revolution?
239
712596
2753
אז איך אנחנו מתחילים את המהפכה?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
איננו מתחילים את המהפכה הזאת עם מחאות או השבתות
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
או בדרישה שהפוליטיקאים הנוכחיים שלנו יהפכו לרובוטים.
12:03
That's not going to work.
242
723786
1549
זה לא יעבוד.
12:05
This is much more simple,
243
725359
1612
זה הרבה יותר פשוט,
12:06
much slower
244
726995
1159
הרבה יותר איטי
12:08
and much more humble.
245
728178
1414
והרבה יותר צנוע.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
אנו מתחילים את המהפכה הזאת ביצירת מערכות פשוטות כמו זו
12:13
in libraries, in nonprofits.
247
733989
2094
בבתי"ס להשכלה גבוהה,בספריות, ובמלכ"רים.
12:16
And we try to figure out all of those little questions
248
736107
2654
ואנו מנסים להבין את כל השאלות הקטנות האלו
12:18
and those little problems
249
738785
1221
ואת הבעיות הקטנות האלו
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
שנצטרך להבין כדי להפוך את הרעיון הזה למשהו בר קיימא,
12:23
to make this idea something that we can trust.
251
743955
2351
כדי להפוך את הרעיון הזה למשהו שנוכל לסמוך עליו.
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
וכאשר אנו יוצרים אותן מערכות שיש להן מאה איש, אלף איש,
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
מאה אלף איש שמצביעים בדרכים שאינן מחייבות פוליטית,
12:33
we're going to develop trust in this idea,
254
753783
2018
אנו הולכים לפתח אמון ברעיון הזה,
12:35
the world is going to change,
255
755825
1519
העולם עומד להשתנות,
12:37
and those that are as little as my daughter is right now
256
757368
2875
ואלה שהם קטנים כמו הבת שלי עכשיו
12:40
are going to grow up.
257
760267
1337
יגדלו.
12:42
And by the time my daughter is my age,
258
762580
2369
וכאשר הבת שלי תהיה בגילי,
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
אולי הרעיון הזה, שאני יודע שהיום הוא מטורף מאוד,
12:49
might not be crazy to her and to her friends.
260
769433
4134
עשוי לא להיראות מטורף בעיניה ובעיני חבריה.
12:53
And at that point,
261
773956
1837
ובנקודה זו,
12:55
we will be at the end of our history,
262
775817
2603
אנחנו נהיה בסופה של ההיסטוריה שלנו,
12:58
but they will be at the beginning of theirs.
263
778444
2821
אבל הם יהיו בתחילת שלהם.
13:01
Thank you.
264
781646
1183
תודה.
13:02
(Applause)
265
782853
3042
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7