A bold idea to replace politicians | César Hidalgo

400,966 views ・ 2019-04-03

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Imad Aldoj المدقّق: mujtaba abdelwahab
00:13
Is it just me,
0
13373
1744
هل أنا وحدي؟
00:15
or are there other people here
1
15141
2332
أو أن أحداً منكم أيضاً
00:17
that are a little bit disappointed with democracy?
2
17497
2344
يجد الديمقراطيّة مخيبةً للآمال نوعاً ما؟
00:20
(Applause)
3
20986
2336
(تصفيق)
00:24
So let's look at a few numbers.
4
24141
2071
دعونا نطّلع على بعض الإحصائيّات
00:26
If we look across the world,
5
26934
2173
إذا نظرنا حول العالم،
00:29
the median turnout in presidential elections
6
29131
3892
فإنّ متوسط إقبال الناخبين في الانتخابات الرئاسيّة،
00:33
over the last 30 years
7
33047
1651
خلال الثلاثين عاماً الماضية
00:34
has been just 67 percent.
8
34722
2622
لم يتجاوز الـ 67%.
00:38
Now, if we go to Europe
9
38329
1973
وإذا ذهبنا لأوروبا،
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
وقمنا بإحصاء المشاركين في انتخابات البرلمان الأوربيّ،
00:44
the median turnout in those elections
11
44778
2071
فإنّ متوسط الإقبال في هذه الانتخابات هو 42% فقط.
00:46
is just 42 percent.
12
46873
2104
00:50
Now let's go to New York,
13
50125
1669
دعونا نذهب لنيويورك
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
ونرى كم شخصاً مارس حقّه الانتخابيّ في انتخابات العمدة الآخيرة.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
سنجد أنّ 24% فقط هم من شاركوا بالتصّويت.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
وما يعنيه هذا، هو لو أن مسلسل "فريندز" لا يزال يعرض
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
جوي وفيبي ربما، هم فقط من سيدلي بصوته.
01:07
(Laughter)
18
67554
1290
(ضحك)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
ولا يمكنك لوم الناس لأنّهم قد ضاقوا ذرعاً بالسّياسييّن.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
واستغلال بياناتهم الشخصيّة من قبل الآخرين،
01:17
to communicate with their friends and family,
21
77795
2198
البيانات المستخرجة من خلال تواصلهم مع عائلاتهم وأصدقائهم
01:20
to target political propaganda at them.
22
80017
2094
في الترويج لبروباجندا سياسية.
01:22
But the thing about this is that this is not new.
23
82519
2728
لكن هذه ليست مشكلة جديدة.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
في عصرنا التقني يتم استخدام "زر الإعجاب" لاستهدافك في حملة بروباجندا،
01:28
before they use your zip code or your gender or your age,
25
88520
3373
أمّا من قبل فكانوا يستخدمون رمزك البريديّ أو جنسك أو عمرك،
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
لأن فكرة استخدام البروباجندا لأغراض سياسيّة،
01:35
is as old as politics.
27
95511
1592
هي قديمة قدم السياسة نفسها
01:37
And the reason why that idea is there
28
97530
2278
والسبب وراء ذلك هو أن الديمقراطية لديها عيب بسيط،
01:39
is because democracy has a basic vulnerability.
29
99832
3472
01:43
This is the idea of a representative.
30
103710
1932
هذا هي فكرة النائب.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
من حيث المبدأ، فالديموقراطية هي قدرة الشعب على ممارسة السلطة.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
لكن عملياً فنحن نقوم بتفويض السلطة للنائب والذي يقوم بممارستها من أجلنا.
01:53
that can exert that power for us.
33
113859
2255
01:56
That representative is a bottleneck,
34
116561
1825
هذا النائب هو عنق الزجاجة أو نقطة الضعف.
01:58
or a weak spot.
35
118410
1297
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
إذا أردت زعزعة الديمقراطيّة فكل ما عليك هو أن تستهدفه،
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
لأنّه يمكنك سلب الديمقراطيّة بطريقتين: إما عن طريق التّحكم بهذا النّائب،
02:07
or capturing the way that people choose it.
38
127217
2148
أو التلاعب بطريقة انتخابه من قبل الشّعب.
02:10
So the big question is:
39
130065
1416
السؤال الحاسم هنا هو:
02:11
Is this the end of history?
40
131505
1704
هل هذه هي نهاية التّاريخ؟
02:13
Is this the best that we can do
41
133989
3103
هل هذا هو أفضل ما بوسعنا القيام به؟ أم هناك بدائل؟
02:17
or, actually, are there alternatives?
42
137878
3067
02:22
Some people have been thinking about alternatives,
43
142130
2354
بعض الناس كانت تفكر ببدائل بالفعل،
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
وأحد أفضل المقترحات هو مبدأ الديمقراطيّة المباشرة.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
هذه الفكرة تقوم على تجاوز السياسييّن تماماً
02:31
and having people vote directly on issues,
46
151293
2403
والسماح للناس بالتصويت مباشرةً في القضايا،
02:33
having people vote directly on bills.
47
153720
2265
التصويت المباشر في الفواتير.
02:36
But this idea is naive
48
156415
1336
لكن هذه الفكرة ساذجة،
02:37
because there's too many things that we would need to choose.
49
157775
3171
لأن هناك العديد من الأمور التي علينا التصويت عليها.
02:40
If you look at the 114th US Congress,
50
160970
2782
فلو ألقينا نظرةً على الكونجرس الأمريكي ال114،
02:43
you will have seen that the House of Representatives
51
163776
2487
ستجد أن مجلس النّواب قد ناقش أكثر من 6000 فاتورة،
02:46
considered more than 6,000 bills,
52
166287
2889
02:49
the Senate considered more than 3,000 bills
53
169200
2656
بينما مجلس الشّيوخ بدوره نظر إلى أكثر من 3000،
02:51
and they approved more than 300 laws.
54
171880
2808
وقاموا بالموافقة على أكثر من 300 قانون.
02:54
Those would be many decisions
55
174712
1579
هذه قراراتٌ كثيرة على كلّ فردٍ إتخاذها أسبوعيّاً،
02:56
that each person would have to make a week
56
176315
2187
02:58
on topics that they know little about.
57
178526
2142
في مواضيع لا يعرفون الكثير عنها.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
هذا يعني أن هناك مشكلةً كبيرة في اتساع حيز المعرفة،
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
لو كنا نفكر جديّاً بالديمقراطيّة المباشرة كبديلٍ فعليّ.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
بينما اتجه آخرون لفكرة الديمقراطية السائلة أو الديناميكية،
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
وهي تقوم على مبدأ توكيل السّلطة السياسيّة لشخصٍ ما،
03:16
who can endorse it to someone else,
62
196464
1700
والذي بدوره يوكلها لشخص آخر،
03:18
and, eventually, you create a large follower network
63
198188
2541
وينتهي بنا الأمر بشبكة كبيرة من الأتباع
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
حيث يقوم قلّةٌ فقط باتخاذ القرارات
03:24
on behalf of all of their followers and their followers.
65
204071
3143
بالنيابة عن مؤيّديهم وتابعي مؤيّديهم.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
لكنّ هذا الفكرة أيضاً لا تعالج مشكلة حيّز المعرفة،
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
وهي في الحقيقة لا تختلف كثيراً عن انتخاب النوّاب.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
لذا ما سأقوم به اليوم هو أن أكون مستفزّاً قليلاً وأطرح السّؤال التالي:
03:40
and I'm going to ask you, well:
69
220277
2300
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
ماذا لو بدلاً من التخّلص من السّياسييّن حاولنا أتمتتهم نوعاً ما؟
03:49
we tried to automate them?
71
229187
2200
(صوت آلةٍ ميكانيكيّة)
03:57
The idea of automation is not new.
72
237871
2926
فكرة الأتمتّة ليست جديدةً بحد ذاتها.
04:00
It was started more than 300 years ago,
73
240821
2080
فهي لتعود لأكثر من 3 قرون مضت،
04:02
when French weavers decided to automate the loom.
74
242925
3068
عندما قرر النّساجون الفرنسيّون أتمتة عمل المنوال.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
والفائز بهذه الحرب الصناعيّة كان "جوزيف ماري جاكارد"
04:11
He was a French weaver and merchant
76
251204
1751
وهو تاجر ونسّاج فرنسيّ،
04:12
that married the loom with the steam engine
77
252979
2440
والذي دمج بين المنوال ومحرّك البخار لينتج عنه منوال أوتوماتيكيّ.
04:15
to create autonomous looms.
78
255443
2190
04:17
And in those autonomous looms, he gained control.
79
257657
2753
وعن طريق المناويل الأتوماتيكيّة اكتسب القدرة على التحكم.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
وبهذا أصبح بإمكانه إنتاج نسيجٍ أكثر تعقيداً وتطوراً
04:24
than the ones they were able to do by hand.
81
264343
2128
من النّسيج اليدويّ.
04:27
But also, by winning that industrial war,
82
267193
2632
لكن بالإضافة لفوزه بالحرب الصناعيّة،
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
قام بوضع الأساس لما أصبح لاحقاً أساس عمليّة الأتمتة.
04:34
The way that we automate things for the last 300 years
84
274135
2870
مفهوم أتمتّة الأشياء لم يتغيّر لأكثر من 300 عام.
04:37
has always been the same:
85
277029
1382
04:39
we first identify a need,
86
279006
2509
في البداية نحدد الحاجة،
04:41
then we create a tool to satisfy that need,
87
281539
3184
ثم نخترع أداة تلبّي هذه الحاجة،
04:44
like the loom, in this case,
88
284747
2040
كالمنوال في هذا الحالة،
04:46
and then we study how people use that tool
89
286811
2391
ثم ندرس كيفيّة استخدام الناس للأداة لنقوم بأتمتّة العمليّة.
04:49
to automate that user.
90
289226
1485
04:51
That's how we came from the mechanical loom
91
291242
3061
وهكذا انتقلنا من المنوال اليدويّ للمنوال الأتوماتيكيّ.
04:54
to the autonomous loom,
92
294327
1896
04:56
and that took us a thousand years.
93
296247
2120
وهو ما استغرق منا 1000 عامٍ.
04:58
Now, it's taken us only a hundred years
94
298391
2071
والآن وبنفس الطريقة، استغرقنا 100 عام فقط لأتمتّة السّيارات.
05:00
to use the same script to automate the car.
95
300486
3211
05:05
But the thing is that, this time around,
96
305286
2452
لكن المميّز هذه المرة هو أن الأتمتّة كانت فعليّة نوعاً ما.
05:07
automation is kind of for real.
97
307762
2129
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
هذا مقطع فيديو قام بمشاركته معي صديقي في شركة توشيبا.
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
ويظهر في الفيديو معمل حيث تصنع وسائط تخزين SSD.
05:16
The entire factory is a robot.
100
316543
2018
المعمل بالكامل عبارة عن رجل آليّ.
05:18
There are no humans in that factory.
101
318585
1925
لا وجود للإنسان في هذا المعمل.
05:21
And the robots are soon to leave the factories
102
321033
2221
وقريباً لن تعود الروبوتات مقتصرةً على المعامل فقط،
05:23
and become part of our world,
103
323278
2022
بل ستصبخ جزءاً من عالمنا.
05:25
become part of our workforce.
104
325324
1835
ستصبح جزءاً من القوة العاملة.
05:27
So what I do in my day job
105
327183
1773
لذا ومن خلال عملي اليوميّ فأنا اخترع وسائل لدمج بيانات دولٍ كاملة،
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
لكي يكون لدينا في النهاية الأسس التي سنحتاجها في المستقبل
05:36
for a future in which we need to also manage those machines.
108
336486
3687
حيث سيكون علينا إدارة هذه الآلات بدورها.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
لكنني لست هنا اليوم للحديث عن الأدوات التي تقوم بجمع بيانات الدول.
05:44
that integrate data for countries.
110
344125
1824
05:46
But I'm here to talk to you about another idea
111
346463
2622
بل عن فكرة مختلفة،
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
والتي يمكن أن تساعدنا بالتّفكير بآليّة لتوظيف الذكاء الصنعيّ لخدمة الديمقراطيّة.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
لأنّ الأدوات التي أعمل عليها مصممّةٌ لقراراتٍ تنفيذيّة.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
هذه قراراتٌ يمكن أن تتسم بنوعٍ من الموضوعيّة،
06:02
public investment decisions.
115
362621
1745
كقرارات الاستثمار العام.
06:04
But there are decisions that are legislative,
116
364885
2631
لكن هناك قراراتٌ تشريعيّة،
06:07
and these decisions that are legislative require communication among people
117
367540
3787
وهذه القرارات التّشريعيّة تتطلب نقاشاً بين أشخاصٍ من مختلف وجهات النّظر،
06:11
that have different points of view,
118
371351
1700
06:13
require participation, require debate,
119
373075
2613
تتطلب المشاركة، تتطلب المناظرة،
06:15
require deliberation.
120
375712
1478
تتطلب المشورة.
06:18
And for a long time, we have thought that, well,
121
378241
2804
وكان اعتقادنا لوقت طويل
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
بأن ما نحتاجه لتحسين التجربة الديمقراطيّة هو في الحقيقة مزيدٌ من التّواصل.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
لذا فجميع التقنيّات التي طورّناها في سياق الديمقراطيّة
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
سواء كانت الصّحف أو شبكات التّواصل الاجتماعيّ،
06:31
have tried to provide us with more communication.
125
391088
2382
كانت تهدف لتوفير مزيدٍ من التّواصل.
06:34
But we've been down that rabbit hole,
126
394103
1822
لكننّا دخلنا هذا الجحر من قبل، ونعرف أنّه لن يحلّ المشكلة.
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
06:38
Because it's not a communication problem,
128
398721
1996
لأنّها وببساطة ليست مشكلة تواصل،
06:40
it's a cognitive bandwidth problem.
129
400741
1748
إنها مشكلة الحيّز المعرفيّ.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
هذا يعني إن كانت المشكلة هي حيّز المعرفة بالفعل،
06:44
well, adding more communication to people
131
404903
2587
فزيادة التّواصل لن يكون هو الحل.
06:47
is not going to be what's going to solve it.
132
407514
2744
06:50
What we are going to need instead is to have other technologies
133
410282
3113
ما نحن بحاجته الآن هو تقنيّاتٌ جديدة
06:53
that help us deal with some of the communication
134
413419
3046
لمساعدتنا في التّعامل مع ما نعانيه من إفراط التواصل.
06:56
that we are overloaded with.
135
416489
2242
06:58
Think of, like, a little avatar,
136
418755
1699
خذ على سبيل المثال: شخصيّةٌ صغيرة،
07:00
a software agent,
137
420478
1339
أو برنامج حاسوب،
07:01
a digital Jiminy Cricket --
138
421841
1878
كنسخة إلكترونيّة من شخصيّة "جيمني كريكت"
07:03
(Laughter)
139
423743
1238
(ضحك)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
ببساطة يقوم بالإجابة نيابةً عنك.
07:09
And if we had that technology,
141
429759
1787
ولو وصلنا لهذه التكنولوجيا بالفعل،
07:11
we would be able to offload some of the communication
142
431570
2478
فسنتخلّص من بعض أعباء التّواصل تلك،
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
وهو ما سيساعد ربما على اتخاذ قراراتٍ أفضل أو قراراتٍ على نطاقٍ أوسع.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
والمثير للاهتمام هو أنّ فكرة الوكيل البرمجيّ ليست جديدة أيضاً،
07:22
We already use them all the time.
145
442603
2109
نحن نستخدمهم بالفعل في حياتنا اليوميّة،
07:25
We use software agents
146
445216
1521
نستخدم وكلاء برمجيين
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
لاختيار الطريق الذي سنسلكه لوجهةٍ معيّنة،
07:31
the music that we're going to listen to
148
451070
2101
والموسيقى التي سنستمع إليها،
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
واقتراح الكتب التي علينا قراءتها تالياً.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
فنحن لدينا فكرةٌ واضحةٌ في القرن ال21
07:40
that was as obvious as the idea
151
460592
2643
كوضوح فكرة دمج المنوال مع محرّكٍ بخاريّ في زمن جاكارد.
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
وهذه الفكرة هي الدمج بين الديمقراطيّة المباشرة والوكيل الالكتروني
07:54
Imagine, for a second, a world
154
474849
2121
لنتخيّل للحظة عالماً حيث بدلاً من أن يكون هناك نائب يمثلك بالإضافة لملايين الأشخاص،
07:56
in which, instead of having a representative that represents you
155
476994
3166
08:00
and millions of other people,
156
480184
1574
08:01
you can have a representative that represents only you,
157
481782
3036
سيكون لديك نائبٌ شخصيٌّ لك،
08:05
with your nuanced political views --
158
485504
2254
يحمل توجّهاتك السّياسيّة الخاصّة
08:07
that weird combination of libertarian and liberal
159
487782
3344
والتي قد تجمع بشكلٍ فريدٍ بين حزبي اليمين واليسار،
08:11
and maybe a little bit conservative on some issues
160
491150
2392
وربما بشكلٍ محافظٍ في بعض القضايا،
08:13
and maybe very progressive on others.
161
493566
2108
ومتحررٍ في قضايا أخرى.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
ساسة اليوم هم صناديقٌ مليئةٌ بالتّسويات.
08:18
But you might have someone that can represent only you,
163
498989
3634
لكن سيكون لك نائبٌ شخصيّ
08:22
if you are willing to give up the idea
164
502647
1852
إن تقبّلت أن يكون هذا النائب ليس إنساناً بالضرورة.
08:24
that that representative is a human.
165
504523
2249
08:27
If that representative is a software agent,
166
507229
2082
إذا تحققّ ذلك الأمر وأصبح نائبك مجرد وكيل الكتروني،
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
فسيكون لدينا مجلس شيوخ يضمّ أعضاءً بعدد المواطنين،
08:33
And those senators are going to be able to read every bill
168
513529
2858
وهؤلاء الأعضاء سيكون بإمكانهم الإطلاع على كلّ فاتورةٍ،
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
والتصويت على كل منها.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
هذه فكرة جديّة علينا أخذها بعين الاعتبار،
08:42
But I understand that in this day and age,
171
522802
2422
لكننّي أتفهّم أنّه بهذا الوقت
08:45
this idea might be quite scary.
172
525248
1889
فكرة كهذه قد تكون مخيفةً نوعاً ما،
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
في الحقيقة فمجرد التفكير برجل آليّ
08:51
to help us run our governments
174
531855
1673
قادمٍ من المستقبل لمساعدتنا في إدارة حكوماتنا يبدو مرعباً.
08:53
sounds terrifying.
175
533552
1631
08:56
But we've been there before.
176
536223
1651
لكننّا رأينا بالفعل ما حدث...
08:57
(Laughter)
177
537898
1273
(ضحك)
08:59
And actually he was quite a nice guy.
178
539195
2495
وبصراحة كان رجلاً لطيفاً.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
ما الذي ستؤول إليه هذه الفكرة على غرار منوال جاكارد؟
09:10
It would be a very simple system.
180
550135
1901
سيكون نظاماً بسيطاً،
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
تخيّل نظاماً حيث يمكنك تسجيل الدخول وإنشاء شخصيّة،
09:15
and then you're going to start training your avatar.
182
555542
2456
وبعدها يمكنك البدأ بتدريبها
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
عن طريق تزويدها بعاداتك في القراءة،
09:20
or connect it to your social media,
184
560728
1861
أو توصلها بحساباتك على مواقع التواصل،
09:22
or you can connect it to other data,
185
562613
2408
أو تغذيتها ببيانات أخرى، بأخذ اختبارات نفسية على سبيل المثال.
09:25
for example by taking psychological tests.
186
565045
2272
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
والجميل في الأمر أنه ليس هناك خداع،
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
فانت لا تقدم بيانات تواصلك مع عائلتك وأصدقائك
09:33
that then gets used in a political system.
189
573696
3151
ثم يتم استغلالها لأجندة سياسية.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
أنت ببساطةٍ تقدّم هذه البيانات لنظام صممّ لاتخاذ قراراتٍ سياسيّة نيابةً عنك.
09:40
to make political decisions on your behalf.
191
580599
2116
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
ثم تأخذ هذه البيانات وتختار خوارزميّة تدريب،
09:47
because it's an open marketplace
193
587268
1563
لأنه سوق مفتوح حيث يقوم أفراد مختلفين بتقديم خوارزميّات مختلفة
09:48
in which different people can submit different algorithms
194
588855
2786
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
للتنبأ بالقرار الذي ستتخذه للتصويت اعتماداً على البيانات التي قدمتها.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
والنظام مفتوح لكي لا يتحكم أي أحد بالخوارزميات،
09:59
there are algorithms that become more popular
197
599562
2112
بعض الخوارزميات ستصبح شائعة وأخرى ستكون أقلّ شيوعاً.
10:01
and others that become less popular.
198
601698
1723
10:03
Eventually, you can audit the system.
199
603445
1807
في النّهاية يمكنك تدقيق النّظام ومراجعة طريقة عمل شخصيتك،
10:05
You can see how your avatar is working.
200
605276
1881
إذا كانت النتائج مرضيةً تتركها للتحكّم الآلي،
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
أو يمكنك أن تكون مسيطراً أكثر
10:09
If you want to be a little more controlling,
202
609357
2062
واختيار أن تعود إليك في كلّ مرة تكون على وشك اتخاذ قرارٍ ما،
10:11
you can actually choose that they ask you
203
611443
1968
10:13
every time they're going to make a decision,
204
613435
2068
أو أي حلٍّ وسطيّ بين الاثنين.
10:15
or you can be anywhere in between.
205
615527
1635
أحد الأسباب وراء استخدامنا الضئيل للديمقراطيّة
10:17
One of the reasons why we use democracy so little
206
617186
2405
10:19
may be because democracy has a very bad user interface.
207
619615
3568
ربما يعود إلى أن واجهة المستخدم فيها رديئةٌ جداً
10:23
And if we improve the user interface of democracy,
208
623207
2483
فلو قمنا بتحسين هذه الواجهة فسيزيد استخدامنا لها
10:25
we might be able to use it more.
209
625714
2127
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
بالطّبع قد يكون لديكم العديد من الأسئلة،
10:32
Well, how do you train these avatars?
211
632473
2161
أولاً، كيف ستقوم بتدريب هذه الشّخصيات؟
10:34
How do you keep the data secure?
212
634658
1894
كيف تضمن حماية البيانات؟
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
كيف ستنشر الأنظمة وتبقيها خاضعةً للرقابة؟
10:39
How about my grandmother, who's 80 years old
214
639848
2062
ماذا عن جدتي ذو ال80 عاماً ولا تجيد استخدام الانترنت؟
10:41
and doesn't know how to use the internet?
215
641946
1960
10:44
Trust me, I've heard them all.
216
644262
2221
ثقوا بي، لقد سمعت هذه الأسئلة من قبل
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
فعندما تفكر بشئٍ كهذا عليك الانتباه للمتشائمين،
10:51
because they are known to have a problem for every solution.
218
651091
4319
لأن لديهم مشكلةً لكلّ حل.
10:55
(Laughter)
219
655434
1825
(ضحك)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
أنا أدعوكم للتفكير بأفكارٍ أكثر أهميّة.
11:00
The questions I just showed you are little ideas
221
660347
3626
الأسئلة التي عرضتها قبل قليل ماهي إلا أفكار صغيرة،
11:03
because they are questions about how this would not work.
222
663997
2902
لأنها أسئلةٌ تركز على فشل هذا الاقتراح.
11:07
The big ideas are ideas of:
223
667502
1981
بينما الأفكار الأهم تكون مثل:
11:09
What else can you do with this
224
669507
1807
ما الذي يمكن أن تقوم به أيضاً في حال نجح الأمر؟
11:11
if this would happen to work?
225
671338
1889
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
وأحد هذه الأفكار هو من سيكتب القوانين؟
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
في البداية يمكن للشخصيّات المتوافرة لدينا
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
أن تصوّت على القوانين التي يضعها الشّيوخ والسياسيّون المتواجدون بالفعل.
11:25
that we already have.
229
685622
1351
11:27
But if this were to work,
230
687491
1714
لكن إن نجح هذا،
11:29
you could write an algorithm
231
689902
2350
فيمكننا برمجة خوارزمية لصياغة قانونٍ ما والحصول على نسبة معينة من الموافقة،
11:32
that could try to write a law
232
692276
2150
11:34
that would get a certain percentage of approval,
233
694450
2421
11:36
and you could reverse the process.
234
696895
1782
ويمكنك عكس هذه العمليّة.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
ربما تعتقد الآن أن هذه فكرةٌ سخيفة ويجب ألا نطبقها،
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
لكن لا يمكنك إنكار أنها فكرة ممكنة فقط في عالمٍ
11:45
in a world in which direct democracy and software agents
237
705047
3020
يسمح بمشاركة الديمقراطيّة المباشرة والوكلاء الالكترونيين.
11:48
are a viable form of participation.
238
708091
2656
11:52
So how do we start the revolution?
239
712596
2753
لكن كيف لنا أن نبدأ الثّورة؟
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
لن نبدأ هذه الثّورة باعتصاماتٍ أو مظاهرات،
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
أو المطالبة بإبدال السياسييّن الحالييّن برجال آليين،
12:03
That's not going to work.
242
723786
1549
فهذا ببساطة لن ينجح،
12:05
This is much more simple,
243
725359
1612
لكن هناك طريقةٌ أبسط وأبطئ وأكثر تواضعاً،
12:06
much slower
244
726995
1159
12:08
and much more humble.
245
728178
1414
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
وهي ان نبدأ الثّورة عن طريق إنشاء أنظمةٍ مصغّرة تعمل بهذا المبدأ
12:13
in libraries, in nonprofits.
247
733989
2094
في الجامعات والمكتبات والمنظمات غير الربحية،
12:16
And we try to figure out all of those little questions
248
736107
2654
ونحاول الإجابة على جميع هذه التساؤلات والعقبات الصغيرة،
12:18
and those little problems
249
738785
1221
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
والتي علينا معالجتها في سبيل جعل هذه الفكرة عمليّة.
12:23
to make this idea something that we can trust.
251
743955
2351
لجعل هذه الفكرة أهلاً للثقة.
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
وبينما ننشئ هذه الأنظمة التي يستخدمها مئة، وألف، ومئة آلف شخص
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
للتصويت بطرقٍ نعجز عنها في السّياسة.
12:33
we're going to develop trust in this idea,
254
753783
2018
عندها سنعزز ثقتنا بهذه الفكرة، وسيتغيّر العالم،
12:35
the world is going to change,
255
755825
1519
12:37
and those that are as little as my daughter is right now
256
757368
2875
ومن هم أطفالٌ الآن كابنتي سيكبرون،
12:40
are going to grow up.
257
760267
1337
12:42
And by the time my daughter is my age,
258
762580
2369
وعندما تصبح ابنتي بعمري
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
ربما هذه الفكرة التي تبدو لي جنونيّة اليوم لن تكون بهذه الغرابة لها ولأقرانها،
12:49
might not be crazy to her and to her friends.
260
769433
4134
12:53
And at that point,
261
773956
1837
وعندها سنكون قد وصلنا لنهاية تاريخنا،
12:55
we will be at the end of our history,
262
775817
2603
12:58
but they will be at the beginning of theirs.
263
778444
2821
لكنّها البداية بالنسبة لهم.
13:01
Thank you.
264
781646
1183
شكراً لكم.
13:02
(Applause)
265
782853
3042
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7