A bold idea to replace politicians | César Hidalgo

400,532 views ・ 2019-04-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Mijung Shin 검토: Jihyeon J. Kim
00:13
Is it just me,
0
13373
1744
오직 저 뿐 인가요,
00:15
or are there other people here
1
15141
2332
아니면 여기 계신분들 중
00:17
that are a little bit disappointed with democracy?
2
17497
2344
민주주의에 조금 실망한 사람들이 더 있나요?
00:20
(Applause)
3
20986
2336
(박수)
00:24
So let's look at a few numbers.
4
24141
2071
수치를 조금 살펴 보도록 하죠.
00:26
If we look across the world,
5
26934
2173
전 세계적으로
00:29
the median turnout in presidential elections
6
29131
3892
지난 30 년간의 대통령 선거에서 나타난
00:33
over the last 30 years
7
33047
1651
투표율의 중간값이
00:34
has been just 67 percent.
8
34722
2622
오직 67% 정도밖에 되지 않았습니다.
00:38
Now, if we go to Europe
9
38329
1973
유럽의 경우,
00:40
and we look at people that participated in EU parliamentary elections,
10
40326
4428
EU 의회 선거에 참가한 사람들을 살펴 보았을 때
00:44
the median turnout in those elections
11
44778
2071
선거율의 중간 값은
00:46
is just 42 percent.
12
46873
2104
42%에 불과했습니다.
00:50
Now let's go to New York,
13
50125
1669
그럼 뉴욕을 살펴 볼까요.
00:51
and let's see how many people voted in the last election for mayor.
14
51818
4681
저번 뉴욕 시장 선거에 사람들이 얼마나 투표에 참여했는지 보면
00:56
We will find that only 24 percent of people showed up to vote.
15
56523
3817
단 24%만이 투표하러 갔다는 사실을 알 수 있습니다.
01:01
What that means is that, if "Friends" was still running,
16
61063
3095
이 의미는 만약 "프렌즈"가 아직 방영 중이었다면
01:04
Joey and maybe Phoebe would have shown up to vote.
17
64182
3348
조이와 피비도 투표를 하러 왔을 거라는 거죠.
01:07
(Laughter)
18
67554
1290
(웃음)
01:09
And you cannot blame them because people are tired of politicians.
19
69434
4426
우리는 그들을 비난할 수 없어요. 사람들은 정치인들에게 지쳐있으니까요.
01:13
And people are tired of other people using the data that they have generated
20
73884
3887
사람들은 자신이 생성한 테이터를 이용해
01:17
to communicate with their friends and family,
21
77795
2198
친구, 가족과 소통하려 하며,
01:20
to target political propaganda at them.
22
80017
2094
정치적 선전을 선동하는 사람들에 지쳐있습니다.
01:22
But the thing about this is that this is not new.
23
82519
2728
하지만 여기서 요점은 이 문제가 새롭지 않다는 거죠.
01:25
Nowadays, people use likes to target propaganda at you
24
85271
3225
현재 사람들은 '좋아요'를 사용하여 정치적 선전을 여러분에게 선동하죠.
01:28
before they use your zip code or your gender or your age,
25
88520
3373
우리의 우편번호, 성별, 또는 나이를 사용하기 전에요.
01:31
because the idea of targeting people with propaganda for political purposes
26
91917
3570
정치적 목적으로 사람들에게 선전을 선동하는 것은
01:35
is as old as politics.
27
95511
1592
정치만큼 오래 되었기 때문이죠.
01:37
And the reason why that idea is there
28
97530
2278
그리고 이런 생각을 하는 이유는
01:39
is because democracy has a basic vulnerability.
29
99832
3472
민주주의가 근본적인 취약점을 지니고 있기 때문입니다.
01:43
This is the idea of a representative.
30
103710
1932
그것은 대표자의 생각입니다.
01:46
In principle, democracy is the ability of people to exert power.
31
106049
3944
원칙적으로 민주주의는 사람들이 권력을 행사할 수 있는 능력입니다.
01:50
But in practice, we have to delegate that power to a representative
32
110017
3818
하지만 실제로는 대표자에게 우리를 대신해 그 힘을 행사하도록 위임해야 합니다
01:53
that can exert that power for us.
33
113859
2255
01:56
That representative is a bottleneck,
34
116561
1825
그 대표는 극 소수이거나,
01:58
or a weak spot.
35
118410
1297
취약점이 되기도 합니다.
01:59
It is the place that you want to target if you want to attack democracy
36
119731
3949
민주주의를 공략할 때 겨냥하는 곳으로
02:03
because you can capture democracy by either capturing that representative
37
123704
3489
대표자 또는 대표자를 선택하는 방법을 억류하여
02:07
or capturing the way that people choose it.
38
127217
2148
민주주의 전체를 함락시킬 수 있기 때문입니다.
02:10
So the big question is:
39
130065
1416
여기서 중요한 질문은
02:11
Is this the end of history?
40
131505
1704
이것이 역사의 끝인가?
02:13
Is this the best that we can do
41
133989
3103
이것이 우리가 할 수 있는 최선인가,
02:17
or, actually, are there alternatives?
42
137878
3067
아니면 사실 대안책이 있는가?
02:22
Some people have been thinking about alternatives,
43
142130
2354
몇몇 사람들은 대안책에 대해 생각해왔고,
02:24
and one of the ideas that is out there is the idea of direct democracy.
44
144508
3679
그 중 한 가지는 바로 직접 민주주의 개념입니다.
02:28
This is the idea of bypassing politicians completely
45
148790
2479
정치인을 완전히 따돌리고
02:31
and having people vote directly on issues,
46
151293
2403
사람들이 문제에 대해 직접 투표를 하도록 함으로써
02:33
having people vote directly on bills.
47
153720
2265
법안에 대해 직접 투표할 수 있게 하는 개념입니다.
02:36
But this idea is naive
48
156415
1336
하지만 순진한 생각이죠.
02:37
because there's too many things that we would need to choose.
49
157775
3171
우리가 정해야 할 일들이 너무 많기 때문입니다.
02:40
If you look at the 114th US Congress,
50
160970
2782
제114차 미국 의회를 살펴 보자면
02:43
you will have seen that the House of Representatives
51
163776
2487
하원이 6,000개 이상의
02:46
considered more than 6,000 bills,
52
166287
2889
법안을 제안했고,
02:49
the Senate considered more than 3,000 bills
53
169200
2656
상원은 3,000개 이상의 법안을 제안했으며,
02:51
and they approved more than 300 laws.
54
171880
2808
300건 이상 승인되었습니다.
02:54
Those would be many decisions
55
174712
1579
많은 결정들은
02:56
that each person would have to make a week
56
176315
2187
사람들은 잘 알지 못하는 주제에 대해
02:58
on topics that they know little about.
57
178526
2142
일주일을 투자해 만들어진 것입니다.
03:01
So there's a big cognitive bandwidth problem
58
181229
2281
우리가 실행 가능한 대안으로서 직접 민주주의를 제안했을 때
03:03
if we're going to try to think about direct democracy as a viable alternative.
59
183534
3992
발생하는 큰 인식의 대역폭 문제가 있습니다.
03:08
So some people think about the idea of liquid democracy, or fluid democracy,
60
188205
4435
몇몇 사람들은 유동적인 민주주의를 실행할 것을 제안하는데,
03:12
which is the idea that you endorse your political power to someone,
61
192664
3776
이는 여러분이 누군가에게 자신의 정치적 권력을 위임하면
03:16
who can endorse it to someone else,
62
196464
1700
그 사람은 또 다시 그 권력을 다른 사람에게 위임할 수 있어서
03:18
and, eventually, you create a large follower network
63
198188
2541
결과적으로 큰 지지자 네트워크를 형성하게 되고,
03:20
in which, at the end, there's a few people that are making decisions
64
200753
3294
이 네트워크에서 마지막에는 그들의 지지자들의 대신하여
03:24
on behalf of all of their followers and their followers.
65
204071
3143
결정을 내리는 소수의 사람만 남게 되는 제도입니다.
03:28
But this idea also doesn't solve the problem of the cognitive bandwidth
66
208326
4129
하지만 이 개념 또한 인지적 대역폭의 문제를 해결하지는 못하며,
03:32
and, to be honest, it's also quite similar to the idea of having a representative.
67
212479
3877
또한, 솔직히 말해 이는 대표자를 뽑는 개념과도 유사합니다.
03:36
So what I'm going to do today is I'm going to be a little bit provocative,
68
216795
3468
따라서 오늘 전 약간 도발적인 행동을 하려 합니다.
03:40
and I'm going to ask you, well:
69
220277
2300
그리고 여러분께 묻고 싶은 것이 있습니다.
03:42
What if, instead of trying to bypass politicians,
70
222601
6562
만일 정치인들을 퇴각시키는 대신
03:49
we tried to automate them?
71
229187
2200
그들을 자동화한다면 어떨까요?
03:57
The idea of automation is not new.
72
237871
2926
자동화의 개념은 새로운 것이 아닙니다.
04:00
It was started more than 300 years ago,
73
240821
2080
300년도 더 전에
04:02
when French weavers decided to automate the loom.
74
242925
3068
프랑스의 방직공들은 방직기을 자동화하기로 결심했죠.
04:06
The winner of that industrial war was Joseph-Marie Jacquard.
75
246820
4360
그리고 그 산업 전쟁의 승자는 조제프-마리 자카르였습니다.
04:11
He was a French weaver and merchant
76
251204
1751
그는 프랑스인 방직공이자 상인이었으며
04:12
that married the loom with the steam engine
77
252979
2440
자동 방직기를 만들기 위해
04:15
to create autonomous looms.
78
255443
2190
방직기와 증기 기관을 결합하였습니다.
04:17
And in those autonomous looms, he gained control.
79
257657
2753
그리고 그는 자동 방직기의 통제권을 쥐었습니다.
04:20
He could now make fabrics that were more complex and more sophisticated
80
260434
3885
그는 이제 손으로 만든 것보다 더 복잡하고 정교한
04:24
than the ones they were able to do by hand.
81
264343
2128
천을 만들 수 있게 되었습니다.
04:27
But also, by winning that industrial war,
82
267193
2632
또한 산업 전쟁에서 승리함으로써
04:29
he laid out what has become the blueprint of automation.
83
269849
3524
무엇이 자동화의 청사진이 되었는지 제시하였습니다.
04:34
The way that we automate things for the last 300 years
84
274135
2870
지난 300년 간 사물을 자동화한 방식은
04:37
has always been the same:
85
277029
1382
언제나 같았습니다.
04:39
we first identify a need,
86
279006
2509
우리는 처음으로 필요성을 확인하고
04:41
then we create a tool to satisfy that need,
87
281539
3184
필요성을 충족시킬 도구를 만듭니다.
04:44
like the loom, in this case,
88
284747
2040
이 경우에는 방직기가 되겠죠.
04:46
and then we study how people use that tool
89
286811
2391
그 후 사용자를 자동화하기 위해
04:49
to automate that user.
90
289226
1485
사람들이 도구를 어떻게 사용할지 탐구했습니다.
04:51
That's how we came from the mechanical loom
91
291242
3061
이렇게 기계로 작동되는 방직기에서
04:54
to the autonomous loom,
92
294327
1896
자동 방직기로 발전하였고
04:56
and that took us a thousand years.
93
296247
2120
이것을 실천하는 데 천 년이 걸렸습니다.
04:58
Now, it's taken us only a hundred years
94
298391
2071
차를 자동화할 때 같은 스크립터를 사용하는데
05:00
to use the same script to automate the car.
95
300486
3211
고작 백년 밖에 걸리지 않았습니다.
05:05
But the thing is that, this time around,
96
305286
2452
하지만 중요한 점은
05:07
automation is kind of for real.
97
307762
2129
이제 자동화는 실제라는 것입니다.
05:09
This is a video that a colleague of mine from Toshiba shared with me
98
309915
3321
이 영상은 도시바에 다니는 저의 동료가 저와 공유한 것이며,
05:13
that shows the factory that manufactures solid state drives.
99
313260
3259
SSD를 만드는 공장을 보여 줍니다.
05:16
The entire factory is a robot.
100
316543
2018
공장 전체가 로봇이라고 할 수 있죠.
05:18
There are no humans in that factory.
101
318585
1925
저 공장에 사람은 없습니다.
05:21
And the robots are soon to leave the factories
102
321033
2221
그리고 저 로봇들은 곧 공장 밖으로 나와
05:23
and become part of our world,
103
323278
2022
우리 세상의 일부가 되고,
05:25
become part of our workforce.
104
325324
1835
우리 노동 인구의 일부가 될 것입니다.
05:27
So what I do in my day job
105
327183
1773
제가 본업으로 하는 일은
05:28
is actually create tools that integrate data for entire countries
106
328980
3992
사실 국가 전체의 테이터를 통합하는 도구를 만드는 것 입니다.
05:32
so that we can ultimately have the foundations that we need
107
332996
3466
그렇게 함으로써 우리가 미래에 이 기계들을
05:36
for a future in which we need to also manage those machines.
108
336486
3687
관리할 기반을 다질 수 있도록 하는 것입니다.
05:41
But today, I'm not here to talk to you about these tools
109
341195
2906
하지만 오늘 저는 국가들을 위해 데이터를 통합하는
05:44
that integrate data for countries.
110
344125
1824
도구에 대해 말하기 위해 이 자리에 선 것이 아닙니다.
05:46
But I'm here to talk to you about another idea
111
346463
2622
인공지능을 민주주의에 적용하는 것을 도와 줄 만한
05:49
that might help us think about how to use artificial intelligence in democracy.
112
349109
4865
다른 견해를 말씀드리기 위해 이 곳에 왔습니다.
05:53
Because the tools that I build are designed for executive decisions.
113
353998
4733
왜냐하면 제가 만든 도구가 행정상의 결정을 위해 만들어 졌고
05:58
These are decisions that can be cast in some sort of term of objectivity --
114
358755
3842
이 결정은 일종의 객관성 띠며 공공 투자 결정의 측면에서
06:02
public investment decisions.
115
362621
1745
제시될 수 있습니다.
06:04
But there are decisions that are legislative,
116
364885
2631
하지만 입법적 결정이 존재하고,
06:07
and these decisions that are legislative require communication among people
117
367540
3787
이 입법적 결정들은 서로 다른 시각을 가진
06:11
that have different points of view,
118
371351
1700
사람들 사이의 의사소통과,
06:13
require participation, require debate,
119
373075
2613
참여와 토론,
06:15
require deliberation.
120
375712
1478
심사숙고함을 요합니다.
06:18
And for a long time, we have thought that, well,
121
378241
2804
민주주의를 발전하기 위해 우리가 해야 할 일은
06:21
what we need to improve democracy is actually more communication.
122
381069
3460
사실 소통을 늘리는 것이라고 오랫동안 생각해 왔습니다.
06:24
So all of the technologies that we have advanced in the context of democracy,
123
384553
3709
따라서 민주주의라는 이름으로 발전한 모든 기술들은
06:28
whether they are newspapers or whether it is social media,
124
388286
2778
그것이 신문이든, 소셜미디어든 상관없이
06:31
have tried to provide us with more communication.
125
391088
2382
우리가 더 많은 소통을 할 수 있도록 도왔습니다.
06:34
But we've been down that rabbit hole,
126
394103
1822
하지만 우리는 혼돈에 빠져있고
06:35
and we know that's not what's going to solve the problem.
127
395949
2748
이것이 문제를 해결해 주지 않을 것이란 것을 알고 있습니다.
06:38
Because it's not a communication problem,
128
398721
1996
왜냐하면 이것이 소통의 문제가 아닌,
06:40
it's a cognitive bandwidth problem.
129
400741
1748
인지 대역폭의 문제이기 때문입니다.
06:42
So if the problem is one of cognitive bandwidth,
130
402513
2366
만약에 인지 대역폭이 문제라면,
06:44
well, adding more communication to people
131
404903
2587
사람들 간의 소통을 늘리는 것은
06:47
is not going to be what's going to solve it.
132
407514
2744
문제를 해결하는 방법이 되지 못할 것입니다.
06:50
What we are going to need instead is to have other technologies
133
410282
3113
대신 우리가 해야 할 일은 과부화된 소통의 일부를
06:53
that help us deal with some of the communication
134
413419
3046
처리하는 것을 도와줄 만한
06:56
that we are overloaded with.
135
416489
2242
기술을 가지는 것입니다.
06:58
Think of, like, a little avatar,
136
418755
1699
작은 아바타,
07:00
a software agent,
137
420478
1339
소프트웨어 에이전트,
07:01
a digital Jiminy Cricket --
138
421841
1878
디지털로 된 지미니 크리켓 을 떠올려보세요.
07:03
(Laughter)
139
423743
1238
(웃음)
07:05
that basically is able to answer things on your behalf.
140
425005
4012
여러분을 대신해 질문에 대답을 할 수 있는 것들이죠.
07:09
And if we had that technology,
141
429759
1787
그리고 만약 우리에게 그런 기술이 있었다면
07:11
we would be able to offload some of the communication
142
431570
2478
우리는 소통을 조금 줄일 수 있을 것이고
07:14
and help, maybe, make better decisions or decisions at a larger scale.
143
434072
4147
어쩌면 더 나은 결정을 내리거나 더 큰 규모의 결정을 내릴 수 있도록 돕겠죠.
07:18
And the thing is that the idea of software agents is also not new.
144
438860
3719
중요한 것은 소프트웨어 에이전트 또한 새로운 것이 아닙니다.
07:22
We already use them all the time.
145
442603
2109
우리는 이미 굉장히 자주 이용하고 있습니다.
07:25
We use software agents
146
445216
1521
우린 소프트웨어 에이전트를 통해
07:26
to choose the way that we're going to drive to a certain location,
147
446761
3675
어떠한 장소를 가기 위한 경로를 고르기도 하고,
07:31
the music that we're going to listen to
148
451070
2101
어떤 음악을 들을지 정하기도 하며,
07:33
or to get suggestions for the next books that we should read.
149
453758
3021
다음엔 무슨 책을 읽을 지 추천을 받기도 합니다.
07:37
So there is an obvious idea in the 21st century
150
457994
2574
이렇듯 21세기에도 마찬가지로
07:40
that was as obvious as the idea
151
460592
2643
자카르가 살던 시대에 증기기관과 방직기를
07:43
of putting together a steam engine with a loom at the time of Jacquard.
152
463259
5581
결합한 것만큼 명확한 발상이 있습니다.
07:49
And that idea is combining direct democracy with software agents.
153
469538
4456
그것은 바로 직접 민주주의와 소프트웨어 에이전트를 결합하는 것입니다.
07:54
Imagine, for a second, a world
154
474849
2121
잠시 상상해 보세요.
07:56
in which, instead of having a representative that represents you
155
476994
3166
여러분과 수많은 다른 사람들을 대신하는
08:00
and millions of other people,
156
480184
1574
대표자가 아니라
08:01
you can have a representative that represents only you,
157
481782
3036
오직 여러분만을 대신하는 대표자를 가지는 세상을요.
08:05
with your nuanced political views --
158
485504
2254
그 대표자는 여러분의 미묘한 정치관,
08:07
that weird combination of libertarian and liberal
159
487782
3344
즉 자유의지론과 진보주의의 이상한 결합,
08:11
and maybe a little bit conservative on some issues
160
491150
2392
그리고 몇몇 문제들에 대해선 보수적이고,
08:13
and maybe very progressive on others.
161
493566
2108
또 다른 문제들에 대해선 매우 진보적인 것을 대표할 것입니다.
08:15
Politicians nowadays are packages, and they're full of compromises.
162
495698
3267
오늘날의 정치인들은 일괄적이며, 온갖 타협들로 가득차 있습니다.
08:18
But you might have someone that can represent only you,
163
498989
3634
하지만 오직 여러분만을 대표하는 누군가가 있는 겁니다.
08:22
if you are willing to give up the idea
164
502647
1852
만약 여러분이 그 대표자가 사람일 것이라는 생각만 버린다면요.
08:24
that that representative is a human.
165
504523
2249
08:27
If that representative is a software agent,
166
507229
2082
만약 그 대표자가 소프트웨어 에이전트라면,
08:29
we could have a senate that has as many senators as we have citizens.
167
509335
4170
우리는 시민들 만큼 많은 상원 의원을 가진 상원을 가질 수 있죠.
08:33
And those senators are going to be able to read every bill
168
513529
2858
그리고 그 의원들은 모든 법안들을 읽을 수 있을 것이며,
08:36
and they're going to be able to vote on each one of them.
169
516411
2747
그 각각의 법안들에 대해 투표를 할 수도 있을 것입니다.
08:39
So there's an obvious idea that maybe we want to consider.
170
519822
2956
우리가 한 번쯤 고려해 볼 만한 발상이죠.
08:42
But I understand that in this day and age,
171
522802
2422
하지만 저는 현재, 이 시대에
08:45
this idea might be quite scary.
172
525248
1889
이 발상이 꽤나 무섭게 느껴질 것임을 이해합니다.
08:48
In fact, thinking of a robot coming from the future
173
528391
3440
사실 미래에서 온 로봇이 정부를 운영하는 것을
08:51
to help us run our governments
174
531855
1673
도와주는 것을 상상하는 것 만으로도
08:53
sounds terrifying.
175
533552
1631
겁이 나죠.
08:56
But we've been there before.
176
536223
1651
하지만 우리는 그곳에 가본 적이 있어요.
08:57
(Laughter)
177
537898
1273
(웃음)
08:59
And actually he was quite a nice guy.
178
539195
2495
그리고 실제로 그는 꽤 친절한 사람이었죠.
09:03
So what would the Jacquard loom version of this idea look like?
179
543677
6434
그럼 자카르 방직기 버전의 이 발상은 어떤 것 일까요?
09:10
It would be a very simple system.
180
550135
1901
그것은 아마도 아주 간단한 시스템일 겁니다.
09:12
Imagine a system that you log in and you create your avatar,
181
552060
3458
로그인을 한 뒤 아바타를 만들고.
09:15
and then you're going to start training your avatar.
182
555542
2456
그 아바타를 훈련시키는 시스템을 상상해 보세요.
09:18
So you can provide your avatar with your reading habits,
183
558022
2682
아바타에게 여러분의 독서 습관을 제공할 수 있고,
09:20
or connect it to your social media,
184
560728
1861
자신의 소셜미디어에 연결할 수도 있을 것이며,
09:22
or you can connect it to other data,
185
562613
2408
다른 데이터에 연결할 수도 있습니다.
09:25
for example by taking psychological tests.
186
565045
2272
예를 들어 심리테스트를 통해서요.
09:27
And the nice thing about this is that there's no deception.
187
567341
2968
그리고 이 시스템의 장점은 속일 수가 없다는 점입니다.
09:30
You are not providing data to communicate with your friends and family
188
570333
3339
친구, 가족과 소통하기 위해 정치 시스템에 사용되는 데이터를
09:33
that then gets used in a political system.
189
573696
3151
여러분은 제공하지 않을 것입니다.
09:36
You are providing data to a system that is designed to be used
190
576871
3704
여러분을 대신하여 정치적 결정을 내리도록 만들어진
09:40
to make political decisions on your behalf.
191
580599
2116
시스템에 데이터를 제공할 것입니다.
09:43
Then you take that data and you choose a training algorithm,
192
583264
3980
그리고 그 데이터를 가져가 훈련 알고리즘을 선택합니다.
09:47
because it's an open marketplace
193
587268
1563
여러분이 제공한 데이터를 바탕으로
09:48
in which different people can submit different algorithms
194
588855
2786
어떻게 투표할 것인지 예측하기 위해 서로 다른 사람이
09:51
to predict how you're going to vote, based on the data you have provided.
195
591665
4394
다른 알고리즘을 제출할 수 있는 열린 시장이기 때문이죠.
09:56
And the system is open, so nobody controls the algorithms;
196
596083
3455
그리고 그 시스템은 공개적이어서 아무도 알고리즘을 제어할 수 없죠.
09:59
there are algorithms that become more popular
197
599562
2112
더 인기 있는 알고리즘과
10:01
and others that become less popular.
198
601698
1723
그렇지 않은 알고리즘을 있지만요.
10:03
Eventually, you can audit the system.
199
603445
1807
궁극적으로 여러분은 그 시스템을 감시할 수 있습니다.
10:05
You can see how your avatar is working.
200
605276
1881
본인의 아바타가 어떻게 작동하고 있는지 볼 수 있고,
10:07
If you like it, you can leave it on autopilot.
201
607181
2152
만약 마음에 든다면, 아바타를 자동 상태로 둘 수 있으며,
10:09
If you want to be a little more controlling,
202
609357
2062
만약 약간의 통제를 원한다면,
10:11
you can actually choose that they ask you
203
611443
1968
사실 아바타들이 결정을 내릴 때마다
10:13
every time they're going to make a decision,
204
613435
2068
여러분에게 묻도록 선택할 수도 있고,
10:15
or you can be anywhere in between.
205
615527
1635
또는 그 중간 쯤으로 지정해 놓을 수 있습니다.
10:17
One of the reasons why we use democracy so little
206
617186
2405
우리가 민주주의를 잘 활용하지 않는 이유 중 하나는
10:19
may be because democracy has a very bad user interface.
207
619615
3568
아마 민주주의가 매우 열악한 사용자 인터페이스를 가지고 있기 때문입니다.
10:23
And if we improve the user interface of democracy,
208
623207
2483
만약 우리가 민주주의 사용자 인터페이스를 개선한다면
10:25
we might be able to use it more.
209
625714
2127
우리는 민주주의를 더 활용할 수도 있습니다.
10:28
Of course, there's a lot of questions that you might have.
210
628452
3207
물론 여러분은 많은 의문점이 있을 수도 있습니다.
10:32
Well, how do you train these avatars?
211
632473
2161
이 아바타들은 어떻게 훈련시켜야 하지?
10:34
How do you keep the data secure?
212
634658
1894
데이터는 어떻게 보안상태를 유지하지?
10:36
How do you keep the systems distributed and auditable?
213
636576
3248
이 시스템을 어떻게 분포하고 회계 감사되도록 유지하지?
10:39
How about my grandmother, who's 80 years old
214
639848
2062
그럼 80살에 인터넷도 쓰실 줄 모르는
10:41
and doesn't know how to use the internet?
215
641946
1960
우리 할머니는 어떡하지?
10:44
Trust me, I've heard them all.
216
644262
2221
절 믿으세요. 전 그 모든 질문을 들어봤습니다.
10:46
So when you think about an idea like this, you have to beware of pessimists
217
646507
4560
이러한 발상을 떠올릴 때는 비관주의자들을 주의해야 합니다.
10:51
because they are known to have a problem for every solution.
218
651091
4319
그들은 모든 해결책에 대해 문제를 제기하기로 유명하기 때문이죠.
10:55
(Laughter)
219
655434
1825
(웃음)
10:57
So I want to invite you to think about the bigger ideas.
220
657283
3040
저는 여러분이 더 크게 생각해 보셨으면 합니다.
11:00
The questions I just showed you are little ideas
221
660347
3626
제가 방금 언급한 질문들은 작은 생각입니다.
11:03
because they are questions about how this would not work.
222
663997
2902
어떻게 하면 작동하지 않는가에 대한 질문이기 때문이죠.
11:07
The big ideas are ideas of:
223
667502
1981
큰 생각이란 이런 것 입니다.
11:09
What else can you do with this
224
669507
1807
만약 이것이 정말 작동하게 된다면
11:11
if this would happen to work?
225
671338
1889
이걸 가지고 어떤 것을 더 할 수 있을까?
11:13
And one of those ideas is, well, who writes the laws?
226
673774
3445
또 다른 큰 생각은, 그럼 누가 법안을 작성하지?
11:17
In the beginning, we could have the avatars that we already have,
227
677854
4223
초기에 우리는 이미 가지고 있는 아바타를 통해
11:22
voting on laws that are written by the senators or politicians
228
682101
3497
상원 의원이나 정치인들이 작성한 법안에
11:25
that we already have.
229
685622
1351
투표를 할 수 있었습니다.
11:27
But if this were to work,
230
687491
1714
그러나 만약 이 발상이 현실이 된다면,
11:29
you could write an algorithm
231
689902
2350
우리는 법안을 작성할 수 있는
11:32
that could try to write a law
232
692276
2150
알고리즘을 만들어
11:34
that would get a certain percentage of approval,
233
694450
2421
특정 비율의 승인을 얻은 뒤,
11:36
and you could reverse the process.
234
696895
1782
절차를 뒤집을 수도 있습니다.
11:38
Now, you might think that this idea is ludicrous and we should not do it,
235
698701
3512
지금 여러분은 이 발상이 터무니 없으며 시행해서는 안된다고 생각할 수도 있지만,
11:42
but you cannot deny that it's an idea that is only possible
236
702237
2786
직접 민주주의와 소프트웨어 에이전트가
11:45
in a world in which direct democracy and software agents
237
705047
3020
성공적인 참여의 형태인 세상에서만 이 발상이
11:48
are a viable form of participation.
238
708091
2656
실현 가능하다는 것은 부정할 수 없을 것입니다.
11:52
So how do we start the revolution?
239
712596
2753
그럼 어떻게 하면 혁명을 일으킬 수 있을까요?
11:56
We don't start this revolution with picket fences or protests
240
716238
3310
우리는 피켓 울타리를 치거나 시위를 하거나
11:59
or by demanding our current politicians to be changed into robots.
241
719572
4190
현재 정치인을 로봇으로 바꾸라고 혁명을 시작하진 않을 것입니다.
12:03
That's not going to work.
242
723786
1549
이런 건 통하지 않을 테니까요.
12:05
This is much more simple,
243
725359
1612
대신 우리가 택하는 방식은 더 간단하고,
12:06
much slower
244
726995
1159
훨씬 느리고
12:08
and much more humble.
245
728178
1414
훨씬 더 변변찮습니다.
12:09
We start this revolution by creating simple systems like this in grad schools,
246
729616
4349
우리는 이 혁명을 대학원, 도서관, 비영리 단체와 같은
간단한 시스템을 만드는 것으로 시작합니다.
12:13
in libraries, in nonprofits.
247
733989
2094
12:16
And we try to figure out all of those little questions
248
736107
2654
이 발상을 실현 가능하게 만들고, 믿을 수 있도록
12:18
and those little problems
249
738785
1221
우리가 꼭 알아야 할
12:20
that we're going to have to figure out to make this idea something viable,
250
740030
3901
작은 질문과 문제들을
이해하도록 우리는 애써야 합니다.
12:23
to make this idea something that we can trust.
251
743955
2351
12:26
And as we create those systems that have a hundred people, a thousand people,
252
746330
3635
그리고 우리가 백 명, 천 명, 수십만 명의 사람들이
12:29
a hundred thousand people voting in ways that are not politically binding,
253
749989
3770
정치적으로 구속력이 없는 방법으로 선거하는 시스템을 개발한다면,
12:33
we're going to develop trust in this idea,
254
753783
2018
이 발상에 대한 믿음을 쌓게 될 것입니다.
12:35
the world is going to change,
255
755825
1519
그리고 세상은 바뀌고
12:37
and those that are as little as my daughter is right now
256
757368
2875
현재 제 딸만큼 작은 것들이
12:40
are going to grow up.
257
760267
1337
성장하게 될 것입니다.
12:42
And by the time my daughter is my age,
258
762580
2369
그리고 저의 딸이 제 나이가 되어 있을 즘에
12:44
maybe this idea, that I know today is very crazy,
259
764973
4436
지금은 굉장히 미친 소리로 들릴지 모를 이 발상이
12:49
might not be crazy to her and to her friends.
260
769433
4134
제 딸과 친구들에게는 미친 소리가 아닐지도 모르죠.
12:53
And at that point,
261
773956
1837
그리고 이 관점에서
12:55
we will be at the end of our history,
262
775817
2603
우리 역사의 마지막 시점에 남게 될 것입니다.
12:58
but they will be at the beginning of theirs.
263
778444
2821
하지만 다음 세대의 첫 걸음이 될 것입니다.
13:01
Thank you.
264
781646
1183
감사합니다.
13:02
(Applause)
265
782853
3042
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7