A bold idea to replace politicians | César Hidalgo

400,532 views ・ 2019-04-03

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Gözde Alpçetin Gözden geçirme: Merve Kılıç
00:13
Is it just me,
0
13373
1744
Sadece ben miyim,
00:15
or are there other people here
1
15141
2332
yoksa demokrasiden biraz hayal kırıklığına uğramış başkaları da var mı?
00:17
that are a little bit disappointed with democracy?
2
17497
2344
00:20
(Applause)
3
20986
2336
(Alkış)
00:24
So let's look at a few numbers.
4
24141
2071
O zaman bazı rakamlara bir göz atalım.
00:26
If we look across the world,
5
26934
2173
Dünyaya bir bakacak olursak
00:29
the median turnout in presidential elections
6
29131
3892
son 30 yıldaki başkanlık seçimlerinde sandığa gitme oranı
00:33
over the last 30 years
7
33047
1651
00:34
has been just 67 percent.
8
34722
2622
yalnızca %67.
00:38
Now, if we go to Europe
9
38329
1973
Şimdi, Avrupa'ya gidersek
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
ve AB parlamento seçimlerinde katılım oranına bakacak olursak
00:44
the median turnout in those elections
11
44778
2071
ortalama oran sadece %42 olmuş.
00:46
is just 42 percent.
12
46873
2104
00:50
Now let's go to New York,
13
50125
1669
Şimdi, New York'a gidelim
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
ve son belediye başkanı seçimlerinde kaç kişi oy vermiş bir bakalım.
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
Görüyoruz ki seçmenlerin sadece %24'ü oy vermeye gitmiş.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
Bu demek oluyor ki "Friends" hala yayınlanıyor olsaydı
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
Joey ve belki bir de Phoebe oy vermeye gitmiş olacaktı.
01:07
(Laughter)
18
67554
1290
(Gülüşmeler)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
Onları suçlayamazsınız çünkü insanlar politikacılardan sıkıldı.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
Arkadaşları ve aileleri ile iletişim kurmak için oluşturdukları veriyi
01:17
to communicate with their friends and family,
21
77795
2198
siyasi propaganda hedefi yapmak için kullanan insanlardan sıkıldılar.
01:20
to target political propaganda at them.
22
80017
2094
01:22
But the thing about this is that this is not new.
23
82519
2728
Ancak mesele şu ki bu yeni bir şey değil.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
Bugünlerde posta kodunu, yaşını veya cinsiyetini kullanmadan önce
01:28
before they use your zip code or your gender or your age,
25
88520
3373
sizi propaganda hedefi yapmak için beğenileri kullanıyorlar,
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
çünkü siyasi amaçlar için insanları propaganda ile hedef gösterme düşüncesi
01:35
is as old as politics.
27
95511
1592
politika kadar eski.
01:37
And the reason why that idea is there
28
97530
2278
Bu düşüncenin olmasının sebebi ise
01:39
is because democracy has a basic vulnerability.
29
99832
3472
demokrasinin temel bir zafiyeti olması.
01:43
This is the idea of a representative.
30
103710
1932
Bu, bir temsilcinin olması düşüncesi.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
Prensip olarak demokrasi, insanların gücü kullanabilme becerisidir.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
Ancak uygulamada, bu gücü bizim için kullanacak
01:53
that can exert that power for us.
33
113859
2255
bir temsilciye devretmeliyiz.
01:56
That representative is a bottleneck,
34
116561
1825
Bu temsilci ise bir ayak bağı
01:58
or a weak spot.
35
118410
1297
veya bir zayıf nokta.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
Eğer demokrasiye saldırmak istiyorsanız hedef almak isteyeceğiniz bu yerdir,
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
çünkü ya temsilciyi ya da insanların onu seçtiği yolu ele geçirerek
02:07
or capturing the way that people choose it.
38
127217
2148
demokrasiyi ele geçirebilirsiniz.
02:10
So the big question is:
39
130065
1416
Bu yüzden asıl soru şu:
02:11
Is this the end of history?
40
131505
1704
Tarihin sonu bu mu?
02:13
Is this the best that we can do
41
133989
3103
Yapabileceğimiz en iyi şey bu mu,
02:17
or, actually, are there alternatives?
42
137878
3067
yoksa gerçekten de alternatifler var mı?
02:22
Some people have been thinking about alternatives,
43
142130
2354
Bazı insanlar alternatifler hakkında düşünüyor
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
ve düşüncelerinden birisi ise doğrudan demokrasi fikri.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
Bu, politikacıları tamamen atlama düşüncesi
02:31
and having people vote directly on issues,
46
151293
2403
ve insanların direkt olarak sorunlar, kanunlar hakkında oy vermesi.
02:33
having people vote directly on bills.
47
153720
2265
02:36
But this idea is naive
48
156415
1336
Ancak bu düşünce naif,
02:37
because there's too many things that we would need to choose.
49
157775
3171
çünkü seçmemiz gereken birçok şey var.
02:40
If you look at the 114th US Congress,
50
160970
2782
114. ABD Kongresi'ne bakarsanız
02:43
you will have seen that the House of Representatives
51
163776
2487
Temsilciler Meclisinin 6 binden fazla kanunu,
02:46
considered more than 6,000 bills,
52
166287
2889
Senatonun ise 3 binden fazla kanunu göz önünde bulundurduğunu
02:49
the Senate considered more than 3,000 bills
53
169200
2656
ve 300'den fazla kanunu onayladıklarını görüceksiniz.
02:51
and they approved more than 300 laws.
54
171880
2808
02:54
Those would be many decisions
55
174712
1579
Bunlar, çok az bildikleri konular üzerine
02:56
that each person would have to make a week
56
176315
2187
her insanın bir haftasını ayıracağı birçok karar olurdu.
02:58
on topics that they know little about.
57
178526
2142
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
Doğrudan demokrasiyi uygulanabilir bir alternatif olarak düşünecek olursak
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
bant aralığı geniş, büyük bilişsel bir problem var.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
Bazı insanlar delege demokrasisini düşünüyorlar,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
onun da başkasına devredeceği birine siyasi gücünüzü devrettiğiniz
03:16
who can endorse it to someone else,
62
196464
1700
ve en sonunda tüm destekçilerin adına karar veren birkaç insanın olduğu
03:18
and, eventually, you create a large follower network
63
198188
2541
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
daha geniş bir destekçi ağı yarattığınız bir düşünce.
03:24
on behalf of all of their followers and their followers.
65
204071
3143
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
Ancak bu düşünce bilişsel bant genişliği problemini çözmüyor
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
ve dürüst olmak gerekirse bir temsilcinin olması fikrine de oldukça benziyor.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
Bu yüzden bugün yapacağım şey biraz provokatif olmak olacak
03:40
and I'm going to ask you, well:
69
220277
2300
ve size şu soruyu soracağım:
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
Politikacıları es geçmek yerine
onları makineleştirsek ne olurdu?
03:49
we tried to automate them?
71
229187
2200
03:57
The idea of automation is not new.
72
237871
2926
Makineleştirme düşüncesi yeni değil.
04:00
It was started more than 300 years ago,
73
240821
2080
Fransız dokumacılar 300 yıl kadar önce
04:02
when French weavers decided to automate the loom.
74
242925
3068
dokuma tezgâhını makineleştirmeye karar verdiklerinde başlamıştı.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
Sanayi savaşının kazananı Joseph-Marie Jacquard'tı.
04:11
He was a French weaver and merchant
76
251204
1751
Otonom dokuma tezgâhları yaratmak için buhar makineli dokuma tezgâhı ile evlenen
04:12
that married the loom with the steam engine
77
252979
2440
04:15
to create autonomous looms.
78
255443
2190
Fransız bir dokumacı ve tüccardı.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
Otonom dokuma tezgâhlarıyla kontrolü eline aldı.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
Böylece elle yaptıklarından daha kompleks ve çok yönlü kumaşlar yapabiliyordu.
04:24
than the ones they were able to do by hand.
81
264343
2128
04:27
But also, by winning that industrial war,
82
267193
2632
Ancak aynı zamanda sanayi savaşını kazanarak
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
makineleşmenin şablonunu çıkardı.
04:34
The way that we automate things for the last 300 years
84
274135
2870
Son 300 yıldır nesneleri makineştirme şeklimiz
hep aynı oldu:
04:37
has always been the same:
85
277029
1382
04:39
we first identify a need,
86
279006
2509
İlk önce bir ihtiyacı tanımlıyoruz,
04:41
then we create a tool to satisfy that need,
87
281539
3184
daha sonrasında bu ihtiyacı giderecek bir alet yaratıyoruz,
04:44
like the loom, in this case,
88
284747
2040
bu durumda bir dokuma tezgâhı gibi,
04:46
and then we study how people use that tool
89
286811
2391
daha sonra makineleştirmek için
insanların bu aleti nasıl kullandıklarını inceliyoruz.
04:49
to automate that user.
90
289226
1485
04:51
That's how we came from the mechanical loom
91
291242
3061
İşte bu şekilde mekanik dokuma tezgâhından
04:54
to the autonomous loom,
92
294327
1896
otonom dokuma tezgâhına geçtik
04:56
and that took us a thousand years.
93
296247
2120
ve bu, bin yılımızı aldı.
Şimdi ise arabayı otomatikleştirmek için
04:58
Now, it's taken us only a hundred years
94
298391
2071
05:00
to use the same script to automate the car.
95
300486
3211
aynı senaryoyu kullanmak sadece yüz yılımızı aldı.
05:05
But the thing is that, this time around,
96
305286
2452
Ancak mesele şu ki bu sefer makineleşme adeta gerçek.
05:07
automation is kind of for real.
97
307762
2129
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
Bu, Toshiba'da çalışan iş arkadaşımın benimle paylaştığı
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
katı hal sürücüleri üreten fabrikayı gösteren bir video.
05:16
The entire factory is a robot.
100
316543
2018
Tüm fabrika bir robot.
05:18
There are no humans in that factory.
101
318585
1925
Bu fabrikada insan yok.
Robotlar yakında fabrikaları terk edecekler
05:21
And the robots are soon to leave the factories
102
321033
2221
05:23
and become part of our world,
103
323278
2022
ve dünyamızın bir parçası olucaklar,
05:25
become part of our workforce.
104
325324
1835
iş gücümüzün bir parçası olacaklar.
05:27
So what I do in my day job
105
327183
1773
Günlük olarak işimde yaptığım şey aslında
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
bu makineleri aynı zamanda idare etmemiz gereken bir gelecek için
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
nihayetinde ihtiyacımız olan temellere sahip olabilelim diye
05:36
for a future in which we need to also manage those machines.
108
336486
3687
tüm ülkeler için verileri birleştirecek aletler yaratmak.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
Ancak bugün size ülkeler için verileri birleştiren bu aletlerden
05:44
that integrate data for countries.
110
344125
1824
bahsetmek için burada değilim.
05:46
But I'm here to talk to you about another idea
111
346463
2622
Aksine, yapay zekanın demokraside nasıl kullanılacağını düşünmemize yardım edecek
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
başka bir fikirden bahsetmek için buradayım.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
Çünkü yaptığım aletler idari kararlar için tasarlandı.
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
Bunlar, bir çeşit tarafsızlık terimini paylaşabilen kararlar:
06:02
public investment decisions.
115
362621
1745
kamu yatırımı kararları.
06:04
But there are decisions that are legislative,
116
364885
2631
Ancak yasama kararları da var
06:07
and these decisions that are legislative require communication among people
117
367540
3787
ve kanun koyucu bu kararlar farklı bakış açılara sahip insanlar arasında
iletişimi, katılımı, tartışmayı, kafa yormayı
06:11
that have different points of view,
118
371351
1700
06:13
require participation, require debate,
119
373075
2613
gerektiriyor.
06:15
require deliberation.
120
375712
1478
Uzun bir zamandır şunu düşünüyorduk;
06:18
And for a long time, we have thought that, well,
121
378241
2804
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
demokrasiyi geliştirmek için gereken şey aslında daha fazla iletişim.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
Bu yüzden demokrasi bağlamı içinde geliştirdiğimiz tüm teknolojiler,
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
ister gazete ister sosyal medya olsun,
06:31
have tried to provide us with more communication.
125
391088
2382
bize daha fazla iletişim sağlamaya çalıştılar.
06:34
But we've been down that rabbit hole,
126
394103
1822
Ancak tavşan deliğine düştük
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
ve problemi çözecek şeyin o olmadığını biliyoruz.
06:38
Because it's not a communication problem,
128
398721
1996
Çünkü bir iletişim problemi değil,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
bilişsel bant genişliği problemi.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
O halde problem bilişsel bant genişliği ise
06:44
well, adding more communication to people
131
404903
2587
insanlara daha fazla iletişim sağlamak
06:47
is not going to be what's going to solve it.
132
407514
2744
problemi çözecek şey olmayacaktır.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
İhtiyacımız olan şey,
aşırı yüklendiğimiz bazı iletişimlerle baş etmemize yardımcı olacak
06:53
that help us deal with some of the communication
134
413419
3046
06:56
that we are overloaded with.
135
416489
2242
başka teknolojiler elde etmek.
06:58
Think of, like, a little avatar,
136
418755
1699
Küçük bir avatar gibi düşünün,
07:00
a software agent,
137
420478
1339
bir yazılım aracısı,
07:01
a digital Jiminy Cricket --
138
421841
1878
dijital bir Jiminy Cricket,
07:03
(Laughter)
139
423743
1238
(Gülüşmeler)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
temelde sizin adınıza cevaplayabilen bir şey.
07:09
And if we had that technology,
141
429759
1787
Eğer bu teknolojimiz olsaydı
07:11
we would be able to offload some of the communication
142
431570
2478
bazı iletişimlerin yüklerini boşaltabilir
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
ve belki de daha geniş kapsamda daha iyi kararlar verebilirdik.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
Durum şu ki yazılım aracısı düşüncesi yeni bile değil.
07:22
We already use them all the time.
145
442603
2109
Zaten onları her zaman kullanıyoruz.
07:25
We use software agents
146
445216
1521
Yazılım araçlarını belli bir konuma gideceğimiz yolu seçmek,
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
07:31
the music that we're going to listen to
148
451070
2101
dinleyeceğimiz müziği seçmek
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
veya okumamız gereken sonraki kitap için öneri almak için kullanıyoruz.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
Jacquard zamanında bir dokuma tezgâhıyla bir buhar makinesini birleştirmek kadar
07:40
that was as obvious as the idea
151
460592
2643
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
bariz bir düşünce 21. yüzyılda da var.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
Bu düşünce ise doğrudan demokrasiyi yazılım araçlarıyla birleştirmek.
07:54
Imagine, for a second, a world
154
474849
2121
Bir saniyeliğine düşünün,
07:56
in which, instead of having a representative that represents you
155
476994
3166
sizi ve diğer milyonlarca insanı temsil eden bir temsilci yerine
08:00
and millions of other people,
156
480184
1574
sadece sizi temsil eden bir temsilcinin olduğu bir dünyayı düşünün;
08:01
you can have a representative that represents only you,
157
481782
3036
08:05
with your nuanced political views --
158
485504
2254
incelikli siyasi görüşlerinizle birlikte,
08:07
that weird combination of libertarian and liberal
159
487782
3344
liberteryenizm ve liberalizmin garip birleşimi
08:11
and maybe a little bit conservative on some issues
160
491150
2392
ve belki de bazı sorunlara biraz muhafazakar
08:13
and maybe very progressive on others.
161
493566
2108
ve belki de diğerlerine oldukça ilerici tutum.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
Politikacılar bugünlerde paketler ve uzlaşmalarla dolular.
08:18
But you might have someone that can represent only you,
163
498989
3634
Ancak o temsilcinin insan olduğu düşüncesinden vazgeçmeye hazırsanız
08:22
if you are willing to give up the idea
164
502647
1852
sadece sizi temsil eden birine sahip olabilirsiniz.
08:24
that that representative is a human.
165
504523
2249
08:27
If that representative is a software agent,
166
507229
2082
Eğer o temsilci bir yazılım aracısıysa
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
vatandaş sayımız kadar senatörleri olan bir senatomuz olabilir.
08:33
And those senators are going to be able to read every bill
168
513529
2858
Bu senatörler her kanunu okuyabilecek
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
ve her biri için oy kullanabilecekler.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
Ayrıca göz önünde bulundurmak isteyeceğimiz bariz bir düşünce daha var.
08:42
But I understand that in this day and age,
171
522802
2422
Ancak bu günde ve çağda bu düşüncenin oldukça korkutucu olabileceğini anlıyorum.
08:45
this idea might be quite scary.
172
525248
1889
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
Aslında hükûmetlerimizi yönetmemize yardımcı olacak
08:51
to help us run our governments
174
531855
1673
gelecekten gelen bir robotun düşüncesi kulağa korkutucu geliyor.
08:53
sounds terrifying.
175
533552
1631
08:56
But we've been there before.
176
536223
1651
Ancak biz de bu yollardan geçtik.
08:57
(Laughter)
177
537898
1273
(Gülüşmeler)
08:59
And actually he was quite a nice guy.
178
539195
2495
Gerçekten de oldukça iyi bir adamdı.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
Bu düşüncenin Jacquard dokuma tezgâhı versiyonu nasıl olurdu?
09:10
It would be a very simple system.
180
550135
1901
Çok basit bir sistem olurdu.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
Giriş yaptığınız ve avatarınızı yarattığınız
09:15
and then you're going to start training your avatar.
182
555542
2456
ve sonra avatarınızı eğitmeye başladığınız bir sistem düşünün.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
Böylece avatarınıza okuma alışkanlıklarınızı sağlayabilir
09:20
or connect it to your social media,
184
560728
1861
veya sosyal medyanıza bağlayabilir
09:22
or you can connect it to other data,
185
562613
2408
veya başka bir veriye bağlayabilirsiniz,
09:25
for example by taking psychological tests.
186
565045
2272
örneğin psikolojik testler yapmaya.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
Bunda güzel olan şey şu ki aldatmaca yok.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
Arkadaşlarınızla ve ailenizle iletişim kurmak için verdiğiniz veri
09:33
that then gets used in a political system.
189
573696
3151
daha sonrasında siyasi bir sistemde kullanılmıyor.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
Sizin adınıza siyasi kararlar vermek için tasarlanan bir sisteme veri sağlıyorsunuz.
09:40
to make political decisions on your behalf.
191
580599
2116
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
Daha sonra o veriyi alıyor ve bir eğitim algoritması seçiyorsunuz
09:47
because it's an open marketplace
193
587268
1563
çünkü bu, farklı insanların verdiğiniz veriler bazında
09:48
in which different people can submit different algorithms
194
588855
2786
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
nasıl oy vereceğinizi tahmin eden farkı algoritmalara yüklediği açık bir pazar.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
Sistem açık, böylelikle de kimse algoritmaları kontrol etmiyor;
09:59
there are algorithms that become more popular
197
599562
2112
daha popüler olan algoritmalar da
10:01
and others that become less popular.
198
601698
1723
daha az popüler olanlar da var.
En sonunda sistemi denetleyebilirsiniz.
10:03
Eventually, you can audit the system.
199
603445
1807
Avatarınızın nasıl çalıştığını görebilir,
10:05
You can see how your avatar is working.
200
605276
1881
beğenirseniz otomatik pilotta bırakabilirsiniz.
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
Biraz daha fazla denetleyici olmak istiyorsanız
10:09
If you want to be a little more controlling,
202
609357
2062
bir karar verecekleri her seferinde size sormalarını seçebilirsiniz
10:11
you can actually choose that they ask you
203
611443
1968
10:13
every time they're going to make a decision,
204
613435
2068
veya arada bir yerde olabilirsiniz.
10:15
or you can be anywhere in between.
205
615527
1635
Demokrasiyi bu kadar az kullanmamızın nedenlerinden biri de
10:17
One of the reasons why we use democracy so little
206
617186
2405
10:19
may be because democracy has a very bad user interface.
207
619615
3568
demokrasinin çok kötü bir kullanıcı arayüzü olması olabilir.
10:23
And if we improve the user interface of democracy,
208
623207
2483
Eğer demokrasinin kullanıcı arayüzünü geliştirebilirsek
10:25
we might be able to use it more.
209
625714
2127
daha fazla kullanabiliriz.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
Tabii ki, çok sorunuz olabilir.
10:32
Well, how do you train these avatars?
211
632473
2161
Bu avatarları nasıl eğitirsiniz?
10:34
How do you keep the data secure?
212
634658
1894
Verileri nasıl güvenli tutarsınız?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
Sistemleri nasıl yayılmış ve denetlenebilir tutarsınız?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
Peki ya internetin nasıl kullanıldığını bilmeyen 80 yaşındaki büyükannem?
10:41
and doesn't know how to use the internet?
215
641946
1960
10:44
Trust me, I've heard them all.
216
644262
2221
Bana güvenin, hepsini duydum.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
Bunun gibi bir fikri düşündüğünüzde karamsarlara dikkat etmek zorundasınız,
10:51
because they are known to have a problem for every solution.
218
651091
4319
çünkü her çözümle bir problemi olmalarıyla bilinirler.
10:55
(Laughter)
219
655434
1825
(Gülüşmeler)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
Bu yüzden daha büyük fikirleri düşünmeye sizi davet etmek istiyorum.
11:00
The questions I just showed you are little ideas
221
660347
3626
Size gösterdiğim sorular küçük fikirler,
11:03
because they are questions about how this would not work.
222
663997
2902
çünkü onlar bunun nasıl işe yaramayacağı hakkında sorular.
11:07
The big ideas are ideas of:
223
667502
1981
Büyük fikirler şunlardır:
11:09
What else can you do with this
224
669507
1807
Eğer bu işe yaramazsa bununla başka ne yapabilirsin?
11:11
if this would happen to work?
225
671338
1889
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
Bu fikirlerden biri ise şu:
Kanunları kim yazıyor?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
Başlangıçta çoktan var olan senatörler veya politikacılar tarafından yazılmış
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
kanunlara oy veren avatarlarımız olabilir.
11:25
that we already have.
229
685622
1351
11:27
But if this were to work,
230
687491
1714
Ancak bunun işe yaraması için
11:29
you could write an algorithm
231
689902
2350
belli bir oranda onay alacak bir kanunu yazmaya çalışan bir algoritma yazabilir
11:32
that could try to write a law
232
692276
2150
11:34
that would get a certain percentage of approval,
233
694450
2421
11:36
and you could reverse the process.
234
696895
1782
ve süreci değiştirebilirsiniz.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
Bu düşüncenin saçma olduğunu ve yapmamamız gerektiğini düşünebilirsiniz
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
ancak doğrudan demokrasinin ve yazılım araçlarının
katılımın uygulanabilir bir formu olduğu bir dünyada
11:45
in a world in which direct democracy and software agents
237
705047
3020
bu düşüncenin mümkün olduğunu inkar edemezsiniz.
11:48
are a viable form of participation.
238
708091
2656
11:52
So how do we start the revolution?
239
712596
2753
Peki, devrimi nasıl başlatıyoruz?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
Protestolarla veya şu anki politikacıların robotlara dönüşmesini talep ederek
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
bu devrimi başlatmıyoruz.
12:03
That's not going to work.
242
723786
1549
Bu, işe yaramaz.
12:05
This is much more simple,
243
725359
1612
Bu, çok daha basit,
12:06
much slower
244
726995
1159
daha yavaş
12:08
and much more humble.
245
728178
1414
ve çok daha alçakgönüllü.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
Bu devrimi; yüksekokullar, kar amacı gütmeyen yerler, kütüphaneler gibi
12:13
in libraries, in nonprofits.
247
733989
2094
yerlerde basit sistemler yaratarak başlatıyoruz.
12:16
And we try to figure out all of those little questions
248
736107
2654
Bu düşünceyi uygulanabilir ve güvenilir yapmak için
12:18
and those little problems
249
738785
1221
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
bu küçük problemleri çözmeye çalışıyoruz.
12:23
to make this idea something that we can trust.
251
743955
2351
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
Yüzlerce, binlerce, yüz binlerce insanı siyasi olarak zorlamayan bir şekilde
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
oy verdikleri bu sistemleri yarattıkça
12:33
we're going to develop trust in this idea,
254
753783
2018
bu düşünceye karşı güven oluşturacağız,
12:35
the world is going to change,
255
755825
1519
dünya değişecek
12:37
and those that are as little as my daughter is right now
256
757368
2875
ve şu anda kızım kadar küçük olanlar büyüyecek.
12:40
are going to grow up.
257
760267
1337
12:42
And by the time my daughter is my age,
258
762580
2369
Kızım benim yaşıma gelene kadar
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
belki de bugün oldukça çılgın olduğunu bildiğim bu düşünce
12:49
might not be crazy to her and to her friends.
260
769433
4134
ona ve arkadaşlarına hiç de çılgınca gelmeyebilir.
12:53
And at that point,
261
773956
1837
Bu noktada
12:55
we will be at the end of our history,
262
775817
2603
tarihimizin sonunda olacağız
12:58
but they will be at the beginning of theirs.
263
778444
2821
ancak onlar, onlarınkinin başlangıcında olacaklar.
13:01
Thank you.
264
781646
1183
Teşekkür ederim.
13:02
(Applause)
265
782853
3042
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7