A bold idea to replace politicians | César Hidalgo

400,532 views ・ 2019-04-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: taha moosavi Reviewer: Leila Ataei
00:13
Is it just me,
0
13373
1744
آیا فقط من هستم
00:15
or are there other people here
1
15141
2332
یا کسان دیگری هم هستند
00:17
that are a little bit disappointed with democracy?
2
17497
2344
که کمی از دموکراسی ناامیدند؟
00:20
(Applause)
3
20986
2336
(تشویق)
00:24
So let's look at a few numbers.
4
24141
2071
پس بیایید نگاهی به آمارها بیندازیم.
00:26
If we look across the world,
5
26934
2173
اگر به جهان نگاه کنیم،
00:29
the median turnout in presidential elections
6
29131
3892
میانه مشارکت در انتخابات ریاست جمهوری
00:33
over the last 30 years
7
33047
1651
در سی سال گذشته
00:34
has been just 67 percent.
8
34722
2622
تنها ۶۷ درصد بوده است.
00:38
Now, if we go to Europe
9
38329
1973
حالا، اگر به اروپا برویم
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
و به مردمی که در انتخابات مجلس اتحادیه اروپا شرکت کرده‌اند نگاه کنیم،
00:44
the median turnout in those elections
11
44778
2071
میانه مشارکت در این انتخابات
00:46
is just 42 percent.
12
46873
2104
تنها ۴۲ درصد است.
00:50
Now let's go to New York,
13
50125
1669
حالا بیایید به نیویورک برویم
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
و ببینیم که در انتخابات شهرداری قبلی چند نفر رأی داده‌اند.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
می‌فهمیم که تنها ۲۴ درصد از مردم حاضر شدند تا رأی بدهند.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
این به این معنی است که اگر هنوز سریال «فرندز» پخش می‌شد،
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
«جویی» و شاید «فیبی» حاضرمی شدند رأی بدهند.
01:07
(Laughter)
18
67554
1290
(خنده)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
و نمی‌توانید آن‌ها را سرزنش کنید چون مردم از سیاستمداران خسته‌اند.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
و مردم از ایکه دیگران داده‌هایی تولیدی آن‌ها برای ارتباط با خانواده و دوستانشان
01:17
to communicate with their friends and family,
21
77795
2198
را استفاده می‌کنند تا پروپاگاندای سیاسی
01:20
to target political propaganda at them.
22
80017
2094
را بر روی آن‌ها نشانه روند خسته شده‌اند.
01:22
But the thing about this is that this is not new.
23
82519
2728
اما مسئله این است که این چیز جدیدی نیست.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
امروزه، از لایک برای هدف گرفتن پروپاگاندا بر شما استفاده می‌شود
01:28
before they use your zip code or your gender or your age,
25
88520
3373
قبلاً کد پستی، جنسیت یا سن‌ شما بود
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
چرا که ایده هدف قرار دادن افراد با تبلیغات برای اهداف سیاسی
01:35
is as old as politics.
27
95511
1592
قدمتی به اندازه سیاست دارد.
01:37
And the reason why that idea is there
28
97530
2278
و دلیل این‌که این ایده وجود دارد
01:39
is because democracy has a basic vulnerability.
29
99832
3472
این است که دموکراسی ضعفی اساسی دارد.
01:43
This is the idea of a representative.
30
103710
1932
آن ضعف، ایده نماینده است.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
در اصل، دموکراسی توانایی مردم برای اعمال قدرت است
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
اما در عمل، مجبوریم که قدرت را به نماینده‌ای تفویض کنیم
01:53
that can exert that power for us.
33
113859
2255
که می‌تواند برای ما قدرت اعمال کند
01:56
That representative is a bottleneck,
34
116561
1825
این نماینده یک گردنه بطری
01:58
or a weak spot.
35
118410
1297
یا نقطه‌ضعف است.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
جایی است که اگر بخواهید به دموکراسی حمله کنید آن را هدف قرار می‌دهید
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
چراکه می‌توانید دموکراسی را با کنترل آن فرد یا کنترل
02:07
or capturing the way that people choose it.
38
127217
2148
روشی که مردم آن را انتخاب کرده‌اند، تسخیر کنید
02:10
So the big question is:
39
130065
1416
پس سؤال مهم این است که:
02:11
Is this the end of history?
40
131505
1704
آیا این پایان تاریخ است؟
02:13
Is this the best that we can do
41
133989
3103
آیا این بهترین کاری است که می‌توانیم انجام دهیم؟
02:17
or, actually, are there alternatives?
42
137878
3067
یا درواقع، راه‌های جایگزینی هست؟
02:22
Some people have been thinking about alternatives,
43
142130
2354
بعضی‌ها روی راه‌های جایگزین فکر کرده‌اند
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
و یکی از ایده‌هایی که وجود داشته است، ایده دموکراسی مستقیم است.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
این ایده دور زدن کامل سیاست‌مداران است
02:31
and having people vote directly on issues,
46
151293
2403
و رأی دادن مستقیم مردم در مورد موضوعات،
02:33
having people vote directly on bills.
47
153720
2265
و رأی دادن مستقیم مردم به لوایح است
02:36
But this idea is naive
48
156415
1336
اما این ایده ساده‌لوحانه است
02:37
because there's too many things that we would need to choose.
49
157775
3171
چون چیزهای بسیاری هست که ممکن است نیاز پیدا کنیم تا انتخاب کنیم
02:40
If you look at the 114th US Congress,
50
160970
2782
اگر نگاهی به ۱۱۴امین کنگره آمریکا بیندازیم،
02:43
you will have seen that the House of Representatives
51
163776
2487
خواهید دید که خانه نمایندگان
02:46
considered more than 6,000 bills,
52
166287
2889
به بیش از شش هزار لایحه رسیدگی کرده است،
02:49
the Senate considered more than 3,000 bills
53
169200
2656
سنا به بیش از سه هزار لایحه رسیدگی کرده است
02:51
and they approved more than 300 laws.
54
171880
2808
و بیش از سیصد قانون را تصویب کرده‌اند.
02:54
Those would be many decisions
55
174712
1579
این‌ها تصمیمات بسیاری خواهند بود
02:56
that each person would have to make a week
56
176315
2187
که هر فرد باید در هفته بگیرد
02:58
on topics that they know little about.
57
178526
2142
در موضوعاتی که اطلاع کمی از آن دارند.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
اگر بخواهیم که به دموکراسی مستقیم
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
به‌عنوان جایگزین محتمل فکر کنیم مشکل محدودیت شناختی بزرگی وجود دارد
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
بعضی به ایده دموکراسی سیال یا دموکراسی روان فکر می‌کنند،
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
که به این معناست که قدرت سیاسی خود را به کسی محول می‌کنی که او نیز
03:16
who can endorse it to someone else,
62
196464
1700
آن را به شخص دیگری محول می‌کند،
03:18
and, eventually, you create a large follower network
63
198188
2541
و کم‌کم، شبکه دنبال کنندگان بزرگی می‌سازی
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
که در آن، درنهایت، افراد کمی تصمیمات را اخذ می‌کنند
03:24
on behalf of all of their followers and their followers.
65
204071
3143
به نمایندگی از دنبال کنندگانشان و دنبال کنندگان آن‌ها.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
اما این ایده مشکل محدودیت ذهنی را حل نمی‌کند
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
و صادقانه بگویم، کاملاً شبیه ایده نماینده داشتن است.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
پس امروز می‌خواهم کمی بحث‌برانگیز باشم،
03:40
and I'm going to ask you, well:
69
220277
2300
می‌خواهم از شما بپرسم:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
چه می‌شد اگر به‌جای تلاش برای دور زدن سیاستمداران
03:49
we tried to automate them?
71
229187
2200
خودکارشان می‌کردیم؟
03:57
The idea of automation is not new.
72
237871
2926
ایده خودکارسازی جدید نیست.
04:00
It was started more than 300 years ago,
73
240821
2080
بیش از۳۰۰ سال پیش شروع‌ شده است،
04:02
when French weavers decided to automate the loom.
74
242925
3068
وقتی بافندگان فرانسوی تصمیم گرفتند بافندگی را خودکار کنند.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
برنده این جنگ صنعتی «ژوزف ماریه جکوارد» بود.
04:11
He was a French weaver and merchant
76
251204
1751
او یک بازرگان و نساج فرانسوی بود
04:12
that married the loom with the steam engine
77
252979
2440
که دستگاه بافندگی را به موتور بخار متصل کرد
04:15
to create autonomous looms.
78
255443
2190
تا دستگاه بافندگی خودکار بسازد
04:17
And in those autonomous looms, he gained control.
79
257657
2753
و با آن بافندگی خودکار، او قدرت کنترل به دست آورد.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
حالا او می‌توانست الیافی بسازد که از آن‌هایی که می‌توانستند
04:24
than the ones they were able to do by hand.
81
264343
2128
با دست تولید کنند پیچیده تر و مرغوب‌تر بود.
04:27
But also, by winning that industrial war,
82
267193
2632
اما همچنین، با بردن آن جنگ صنعتی،
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
او چیزی را ارائه کرد که بعداً نقشه خودکارسازی شد.
04:34
The way that we automate things for the last 300 years
84
274135
2870
روش خودکارسازی چیزها در سیصد سال گذشته
04:37
has always been the same:
85
277029
1382
همیشه یکسان بوده است:
04:39
we first identify a need,
86
279006
2509
ابتدا نیازی را شناسایی می‌کنیم،
04:41
then we create a tool to satisfy that need,
87
281539
3184
سپس ابزاری را می‌سازیم تا آن نیاز را برطرف کنیم،
04:44
like the loom, in this case,
88
284747
2040
در این مورد، مثل دستگاه بافندگی،
04:46
and then we study how people use that tool
89
286811
2391
سپس روشی که مردم از آن استفاده می‌کنند را مطالعه می‌کنیم
04:49
to automate that user.
90
289226
1485
تا آن کاربر را خودکار کنیم.
04:51
That's how we came from the mechanical loom
91
291242
3061
این‌گونه بود که ما از دستگاه بافندگی مکانیکی
04:54
to the autonomous loom,
92
294327
1896
به دستگاه بافندگی خودکار رسیدیم،
04:56
and that took us a thousand years.
93
296247
2120
و این هزار سال طول کشید
04:58
Now, it's taken us only a hundred years
94
298391
2071
حالا، تنها صدسال طول کشیده است
05:00
to use the same script to automate the car.
95
300486
3211
تا همان روش را برای خودکارسازی خودرو استفاده کنیم
05:05
But the thing is that, this time around,
96
305286
2452
اما مسئله این است که این بار
05:07
automation is kind of for real.
97
307762
2129
خودکارسازی واقعی (جدی) است
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
این ویدیویی است که یکی از همکارانم از توشیبا در اختیارم قرار داده است
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
که کارخانه‌ای را نشان می‌دهد که حافظه SSD تولید می‌کند.
05:16
The entire factory is a robot.
100
316543
2018
تمام کارخانه یک روبات است.
05:18
There are no humans in that factory.
101
318585
1925
هیچ انسانی در کارخانه نیست.
05:21
And the robots are soon to leave the factories
102
321033
2221
به‌زودی روبات‌ها کارخانه ها را ترک خواهند کرد
05:23
and become part of our world,
103
323278
2022
و جزئی از جهان ما خواهند شد،
05:25
become part of our workforce.
104
325324
1835
بخشی از نیروی کار ما خواهند شد.
05:27
So what I do in my day job
105
327183
1773
کاری که در شغل هرروزه‌ام انجام می‌دهم
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
این است که ابزارهایی برای جمع‌آوری داده برای تمام کشورها بسازم
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
تا به معنای واقعی کلمه می‌توانیم شالوده‌ای را که نیاز داریم داشته باشیم
05:36
for a future in which we need to also manage those machines.
108
336486
3687
برای آینده‌ای که در آن ما نیاز به مدیریت ماشین‌ها نیز داریم.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
اما امروز، اینجا نیامدم تا در مورد این ابزارها با شما صحبت کنم
05:44
that integrate data for countries.
110
344125
1824
که داده‌ها را برای کشورها جمع‌ می‌کند.
05:46
But I'm here to talk to you about another idea
111
346463
2622
بلکه اینجا هستم تا با شما در مورد ایده دیگری صحبت کنم
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
که می‌تواند به ما کمک کند فکر کنیم که چطور از هوش مصنوعی در دموکراسی استفاده کنیم
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
چراکه ابزارهایی که من می‌سازم برای تصمیمات اجرایی طراحی‌شده‌اند
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
این‌ها تصمیماتی هستند که می‌توانند در قالبی عینی طبقه‌بندی شوند
06:02
public investment decisions.
115
362621
1745
تصمیمات مربوط به سرمایه‌گذاری عمومی.
06:04
But there are decisions that are legislative,
116
364885
2631
اما تصمیماتی هم وجود دارند که قانون‌گذار هستند
06:07
and these decisions that are legislative require communication among people
117
367540
3787
و این تصمیماتی که قانون‌گذار هستند نیازمند به ارتباط بین افرادی هستند
06:11
that have different points of view,
118
371351
1700
که دیدگاه‌های متفاوتی دارند
06:13
require participation, require debate,
119
373075
2613
نیازمند مشارکت و نیازمند بحث و مناظره هستند
06:15
require deliberation.
120
375712
1478
نیازمند مشورت هستند.
06:18
And for a long time, we have thought that, well,
121
378241
2804
و برای مدت طولانی، فکر می‌کرده‌ایم که
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
چیزی که برای بهبود دموکراسی نیاز داریم ارتباط بیشتر است.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
به این منظور تمام فناوری‌هایی که ما در بافتار دموکراسی رشد داده‌ایم
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
خواه روزنامه‌ها و خواه رسانه‌های اجتماعی، تلاش کرده‌اند
06:31
have tried to provide us with more communication.
125
391088
2382
که برای ما ارتباطات بیشتری فراهم کنند.
06:34
But we've been down that rabbit hole,
126
394103
1822
اما ما اشتباه می‌کرده‌ایم،
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
و می‌دانیم که این چیزی نیست که قرار است مشکل را حل کند.
06:38
Because it's not a communication problem,
128
398721
1996
چراکه مشکل ارتباطی وجود ندارد
06:40
it's a cognitive bandwidth problem.
129
400741
1748
مشکل محدودیت شناختی است.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
پس اگر مشکل یکی از محدودیت‌های ذهنی ما هست،
06:44
well, adding more communication to people
131
404903
2587
پس افزایش ارتباطات مردم
06:47
is not going to be what's going to solve it.
132
407514
2744
چیزی نخواهد بود که مشکل را حل کند.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
چیزی که نیاز خواهیم داشت این است که فناوری‌های دیگری داشته باشیم
06:53
that help us deal with some of the communication
134
413419
3046
که به ما کمک می‌کنند تا با ارتباطاتی که بیش‌ازحد
06:56
that we are overloaded with.
135
416489
2242
با آن درگیریم سروکله بزنیم.
06:58
Think of, like, a little avatar,
136
418755
1699
فکر کنید، به چیزی شبیه یک آواتار،
07:00
a software agent,
137
420478
1339
یک دستیار نرم‌افزاری،
07:01
a digital Jiminy Cricket --
138
421841
1878
یک وجدان دیجیتال--
07:03
(Laughter)
139
423743
1238
(خنده)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
که اساساً قادر است به‌جای شما به چیزها پاسخ دهد.
07:09
And if we had that technology,
141
429759
1787
و اگر آن فناوری را داشته باشیم،
07:11
we would be able to offload some of the communication
142
431570
2478
ما می‌توانیم بار ارتباطی را کم کنیم
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
و کمک کنیم، شاید تصمیمات بهتری بگیریم یا تصمیمات با مقیاس بزرگ‌تری بگیریم.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
و مسئله این است که ایده دستیار نرم‌افزاری نیز جدید نیست.
07:22
We already use them all the time.
145
442603
2109
ما هم‌اکنون همیشه از آن‌ها استفاده می‌کنیم.
07:25
We use software agents
146
445216
1521
ما از دستیارهای نرم‌افزاری
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
استفاده می‌کنیم تا راه را برای رسیدن به مقصد خاصی انتخاب کنیم،
07:31
the music that we're going to listen to
148
451070
2101
موسیقی که می‌خواهیم به آن گوش دهیم
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
و برای کتاب‌های بعدی که باید بخوانیم پیشنهاد بگیریم.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
پس ایده روشنی در قرن بیست و یکم وجود دارد
07:40
that was as obvious as the idea
151
460592
2643
که به‌اندازه ایده اتصال موتور بخار به دستگاه بافندگی
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
در زمان جکوارد روشن است.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
و این ایده ترکیب کردن دموکراسی مستقیم با دستیارهای نرم‌افزاری است.
07:54
Imagine, for a second, a world
154
474849
2121
برای یک‌لحظه جهانی را تصور کن که در آن
07:56
in which, instead of having a representative that represents you
155
476994
3166
به‌جای داشتن نماینده‌ای که شما را نمایندگی کند
08:00
and millions of other people,
156
480184
1574
و میلیون‌ها نفر دیگر را
08:01
you can have a representative that represents only you,
157
481782
3036
می‌توانید نماینده‌ای داشته باشید که تنها شما را نمایندگی کند،
08:05
with your nuanced political views --
158
485504
2254
با نظرات سیاسی خاص خودتان
08:07
that weird combination of libertarian and liberal
159
487782
3344
ترکیب عجیب لیبرالیسم و لیبرتاریانیسم (دو فلسفه سیاسی آزادیخواه)
08:11
and maybe a little bit conservative on some issues
160
491150
2392
و شاید در بعضی موارد کمی محافظه‌کار
08:13
and maybe very progressive on others.
161
493566
2108
و کمی ترقی‌خواه در موارد دیگر.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
امروزه سیاست‌مداران مانند بقچه هستند، پر از مصالحات.
08:18
But you might have someone that can represent only you,
163
498989
3634
اما می‌توانید کسی را داشته باشید که تنها نماینده شما باشد،
08:22
if you are willing to give up the idea
164
502647
1852
اگر دوست دارید که این اید
08:24
that that representative is a human.
165
504523
2249
که نماینده باید انسان باشد را رها کنید.
08:27
If that representative is a software agent,
166
507229
2082
اگر آن نماینده دستیار نرم‌افزاری باشد،
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
می‌توانیم سنایی داشته باشیم که به تعداد شهروندانمان سناتور داشته باشد.
08:33
And those senators are going to be able to read every bill
168
513529
2858
و این سناتورها قادر خواهند بود که هر لایحه‌ای را بخوانند
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
و آن‌ها قادر خواهند بود تا به تک‌تک آن‌ها رأی بدهند
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
پس ایده روشنی وجود دارد که شاید بخواهیم به آن توجه کنیم.
08:42
But I understand that in this day and age,
171
522802
2422
اما می‌فهمم که امروز و در این عصر،
08:45
this idea might be quite scary.
172
525248
1889
این ایده ممکن است کاملاً ترسناک باشد.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
در حقیقت، فکر کردن به روباتی که از آینده می‌آید
08:51
to help us run our governments
174
531855
1673
تا کمک کند دولت‌مان را اداره کنیم
08:53
sounds terrifying.
175
533552
1631
وهم‌انگیز به نظر می‌رسد
08:56
But we've been there before.
176
536223
1651
اما قبلاً مشابه آن را تجربه کردیم.
08:57
(Laughter)
177
537898
1273
(خنده)
08:59
And actually he was quite a nice guy.
178
539195
2495
و درواقع او شخص خوبی بود
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
نسخه ماشین جکوارد این ایده چگونه خواهد بود؟
09:10
It would be a very simple system.
180
550135
1901
سیستم ساده‌ای خواهد بود.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
سامانه‌ای را تصور کنید که وارد آن می‌شوید و آواتار خودتان را می‌سازید
09:15
and then you're going to start training your avatar.
182
555542
2456
و بعد شما آواتار خودتان را آموزش خواهید داد
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
می‌توانید به آواتارتان عادت‌های خواندنتان را بدهید
09:20
or connect it to your social media,
184
560728
1861
یا به شبکه‌های اجتماعی‌تان وصلش کنید
09:22
or you can connect it to other data,
185
562613
2408
یا می‌توانید آن را به داده‌های دیگری متصل کنید
09:25
for example by taking psychological tests.
186
565045
2272
مثلاً با دادن آزمون‌های روان‌شناختی
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
و نکته خوب در این مورد این است که در آن فریبی نیست
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
شما داده‌ای برای ارتباط برقرار کردن فراهم نمی‌کنید
09:33
that then gets used in a political system.
189
573696
3151
که بعداً در سیستم سیاسی استفاده شود
09:36
You are providing data to a system that is designed to be used
190
576871
3704
شما برای سامانه‌ای اطلاعات فراهم می‌کنید که طراحی‌شده تا به نمایندگی شما
09:40
to make political decisions on your behalf.
191
580599
2116
برای گرفتن تصمیمات سیاسی به کار گرفته شود.
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
سپس شما آن داده‌ها را برمی‌دارید و یک الگوریتم آموزشی انتخاب می‌کنید،
09:47
because it's an open marketplace
193
587268
1563
چراکه بازار آزادی وجود خواهد داشت
09:48
in which different people can submit different algorithms
194
588855
2786
که در آن افراد مختلف می‌توانند الگوریتم‌های متفاوت ارائه دهند
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
تا مبتنی بر داده‌هایی که فراهم کرده اید پیش‌بینی کند که چگونه رأی خواهید داد،
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
و این سیستم باز است، پس کسی نمی‌تواند الگوریتم‌ها را کنترل کند؛
09:59
there are algorithms that become more popular
197
599562
2112
در آن الگوریتم‌هایی هست که محبوب می‌شوند
10:01
and others that become less popular.
198
601698
1723
و بقیه‌ای که کمتر مشهور می‌شوند.
10:03
Eventually, you can audit the system.
199
603445
1807
درنهایت، می‌توانید سیستم را بازرسی کنید.
10:05
You can see how your avatar is working.
200
605276
1881
می‌توانید نحوه کار آواتارتان را ببینید.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
اگر دوستش داشتید، روی حالت خودکار بگذارید
10:09
If you want to be a little more controlling,
202
609357
2062
اگر می‌خواهید که کمی بیشتر کنترل‌گر باشید
10:11
you can actually choose that they ask you
203
611443
1968
می‌توانید انتخاب کنید که در هر بار
10:13
every time they're going to make a decision,
204
613435
2068
انتخابی که می‌کنند از شما بپرسند یا
10:15
or you can be anywhere in between.
205
615527
1635
چیزی بین این دو را انتخاب کنید.
10:17
One of the reasons why we use democracy so little
206
617186
2405
شاید یکی از دلایل بندرت استفاده کردن ما از دموکراسی
10:19
may be because democracy has a very bad user interface.
207
619615
3568
این باشد که رابط کاربری بسیار بدی دارد.
10:23
And if we improve the user interface of democracy,
208
623207
2483
و اگر ما رابط کاربری دموکراسی را بهتر کنیم
10:25
we might be able to use it more.
209
625714
2127
ممکن است بتوانیم بیشتر از آن استفاده کنیم
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
البته، ممکن است سؤالات بسیاری داشته باشید
10:32
Well, how do you train these avatars?
211
632473
2161
خب، چطور این آواتارها را آموزش می‌دهید؟
10:34
How do you keep the data secure?
212
634658
1894
چطور داده‌ها را امن نگاه می‌دارید؟
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
چطور سیستم را گسترده و قابل نظارت نگه می‌دارید؟
10:39
How about my grandmother, who's 80 years old
214
639848
2062
مادربزرگم چه می‌شود؛ او که هشتاد سال سن دارد
10:41
and doesn't know how to use the internet?
215
641946
1960
و نمی‌داند چطور از اینترنت استفاده کند؟
10:44
Trust me, I've heard them all.
216
644262
2221
باور کنید، همه‌شان را شنیده‌ام.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
وقتی به ایده‌ای مانند این فکر می‌کنید، باید از بدبینان بر حذر باشید
10:51
because they are known to have a problem for every solution.
218
651091
4319
چون آن‌ها به این شناخته‌شده‌اند که برای هر راه‌حل مشکلی دارند
10:55
(Laughter)
219
655434
1825
(خنده)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
می‌خواهم از شما دعوت کنم که به ایده‌های بزرگ‌تر فکر کنید.
11:00
The questions I just showed you are little ideas
221
660347
3626
سؤالاتی که به شما نشان دادم ایده‌های کوچکی هستند.
11:03
because they are questions about how this would not work.
222
663997
2902
چون آن‌ها سؤالاتی هستند در مورد این که چطور این (ایده) کار نخواهد کرد.
11:07
The big ideas are ideas of:
223
667502
1981
ایده‌های بزرگ ایده‌های این‌چنینی هستند:
11:09
What else can you do with this
224
669507
1807
اگر این ایده عملی شود،
11:11
if this would happen to work?
225
671338
1889
دیگر چه می‌توانید بکنید؟
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
و یکی از آن ایده‌ها این است که چه کسی قوانین را می‌نویسد؟
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
در ابتدا می‌توانیم آواتارهایی داشته باشیم که پیش‌ازاین داشته‌ایم
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
که به قوانینی رأی می‌دهند که بوسیله سناتورها و سیاستمدارانی تنظیم‌ شده‌اند
11:25
that we already have.
229
685622
1351
که پیش‌ازاین داشته‌ایم
11:27
But if this were to work,
230
687491
1714
اما اگر این عملی شود
11:29
you could write an algorithm
231
689902
2350
می‌توانید الگوریتمی را بنویسید
11:32
that could try to write a law
232
692276
2150
که سعی کند قانونی را بنویسد
11:34
that would get a certain percentage of approval,
233
694450
2421
که می‌تواند به سطح خاصی از مقبولیت برسد
11:36
and you could reverse the process.
234
696895
1782
و می‌توانید فرآیند را برعکس کنید.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
حالا، ممکن است فکر کنید که این ایده مضحک است و نباید آن را انجام دهیم
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
اما نمی‌توانید این را انکار کنید که این ایده‌ای است
11:45
in a world in which direct democracy and software agents
237
705047
3020
که تنها در جهانی که در آن دموکراسی مستقیم و دستیاران نرم‌افزاری
11:48
are a viable form of participation.
238
708091
2656
شکل محتملی از مشارکت هستند ممکن است.
11:52
So how do we start the revolution?
239
712596
2753
چطور باید این انقلاب را شروع کنیم؟
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
ما این انقلاب را با اعتراضات و نرده‌ها شروع نمی‌کنیم
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
یا با تقاضای تغییر سیاستمداران فعلی به روبات‌ها.
12:03
That's not going to work.
242
723786
1549
قابل ‌اجرا نیست.
12:05
This is much more simple,
243
725359
1612
بسیار ساده‌تر،
12:06
much slower
244
726995
1159
بسیار آرام تر،
12:08
and much more humble.
245
728178
1414
و بسیار فروتنانه‌تر است.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
این انقلاب را با ساختن سامانه‌های ساده‌ای مانند این در مدارس تحصیلات عالی
12:13
in libraries, in nonprofits.
247
733989
2094
در کتابخانه‌ها، سمن‌ها شروع می‌کنیم.
12:16
And we try to figure out all of those little questions
248
736107
2654
و تلاش می‌کنیم که به پاسخ همه آن سؤالات
12:18
and those little problems
249
738785
1221
و مشکلات کوچک برسیم.
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
می‌خواهیم و باید بتوانیم این ایده را به چیزی قابل‌اجرا تبدیل کنیم تا این ایده را
12:23
to make this idea something that we can trust.
251
743955
2351
به چیزی تبدیل کنیم که می‌توانیم به آن اعتماد کنیم.
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
و وقتی‌ که این سامانه‌ها را می‌سازیم که
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
که در آن صدها هزار نفر به چیزهایی رأی می‌دهند که به لحاظ سیاسی الزام‌آور نیستند،
12:33
we're going to develop trust in this idea,
254
753783
2018
کم‌کم به این ایده اعتماد خواهیم کرد،
12:35
the world is going to change,
255
755825
1519
جهان تغییر خواهد کرد،
12:37
and those that are as little as my daughter is right now
256
757368
2875
و کسانی که الآن به اندازه دختر من کوچک هستند
12:40
are going to grow up.
257
760267
1337
رشد خواهند کرد.
12:42
And by the time my daughter is my age,
258
762580
2369
و زمانی که دخترم هم سن من باشد،
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
شاید این ایده که میدانم امروزه دیوانه‌وار‌است.
12:49
might not be crazy to her and to her friends.
260
769433
4134
در نظر او و دوستانش دیوانه‌وار نباشد.
12:53
And at that point,
261
773956
1837
و در آن نقطه،
12:55
we will be at the end of our history,
262
775817
2603
ما در پایان تاریخ خودمان خواهیم بود،
12:58
but they will be at the beginning of theirs.
263
778444
2821
اما آن‌ها در آغاز تاریخشان خواهند بود.
13:01
Thank you.
264
781646
1183
متشکرم.
13:02
(Applause)
265
782853
3042
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7