Why fascism is so tempting -- and how your data could power it | Yuval Noah Harari

770,252 views ・ 2018-06-08

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: JY Kang 검토: Won Jang
00:12
Hello, everyone.
0
12968
1150
안녕하세요, 여러분.
00:15
It's a bit funny, because I did write that humans will become digital,
1
15562
4936
재밌게도 저는 인간이 디지털화될 것이라는 글을 쓴 적이 있는데요.
00:20
but I didn't think it will happen so fast
2
20522
2714
그런데 그런 일이 이렇게 빨리 일어날 줄은 몰랐고
00:23
and that it will happen to me.
3
23260
1659
더군다나 제가 그렇게 될 줄도 몰랐습니다.
00:25
But here I am, as a digital avatar,
4
25649
2682
그런데 이제는 제가 여기에 디지털 아바타로 서 있네요.
00:28
and here you are, so let's start.
5
28355
2666
여러분은 거기에 계시구요. 자 그럼.. 시작하겠습니다.
00:32
And let's start with a question.
6
32070
2133
한 가지 질문으로 시작하죠.
00:34
How many fascists are there in the audience today?
7
34823
3534
오늘 청중 가운데에 파시스트는 몇 분이나 계신가요?
00:38
(Laughter)
8
38381
1450
(웃음)
00:39
Well, it's a bit difficult to say,
9
39855
2349
답하기 좀 어려울지 모르겠네요.
00:42
because we've forgotten what fascism is.
10
42228
3467
왜냐하면 우리는 파시즘의 의미를 잊어버렸기 때문입니다.
00:46
People now use the term "fascist"
11
46498
2579
요즘 사람들은 "파시스트"라는 말을
00:49
as a kind of general-purpose abuse.
12
49101
3008
광범위하게 남용하고 있습니다.
00:52
Or they confuse fascism with nationalism.
13
52133
3947
파시즘과 민족주의를 혼동하기도 하죠.
00:56
So let's take a few minutes to clarify what fascism actually is,
14
56863
5388
그래서 파시즘이 정확히 무엇인지 잠시 살펴보기로 하겠습니다.
01:02
and how it is different from nationalism.
15
62275
3120
민족주의와 어떻게 다른지도요.
01:05
The milder forms of nationalism have been among the most benevolent
16
65838
5041
온건한 형태의 민족주의는
인간이 만든 가장 자애로운 이념 중의 하나에 속합니다.
01:10
of human creations.
17
70903
1458
01:12
Nations are communities of millions of strangers
18
72990
4111
국가라는 공동체는
서로를 전혀 모르는 수많은 사람들로 구성됩니다.
01:17
who don't really know each other.
19
77125
1713
01:19
For example, I don't know the eight million people
20
79489
3405
예를 들어, 저도 모르는 800만 명의 사람들이
01:22
who share my Israeli citizenship.
21
82918
2556
저처럼 이스라엘 국적을 갖고 있죠.
01:26
But thanks to nationalism,
22
86109
2167
민족주의 덕분에
01:28
we can all care about one another and cooperate effectively.
23
88300
3806
우리는 서로 돌보고 효과적으로 협력합니다.
01:32
This is very good.
24
92450
1200
아주 긍정적인 측면이죠.
01:34
Some people, like John Lennon, imagine that without nationalism,
25
94093
5738
그런데 존 레논 같은 사람들은 민족주의가 없는 세상을 꿈꿉니다.
01:39
the world will be a peaceful paradise.
26
99855
3790
그러면 세상은 평화로운 낙원이 될 거라고 합니다.
01:44
But far more likely,
27
104010
1428
하지만 예상과는 달리
01:45
without nationalism, we would have been living in tribal chaos.
28
105462
4777
민족주의가 없으면 민족 분쟁의 혼돈 속에 살게 될지도 모릅니다.
01:50
If you look today at the most prosperous and peaceful countries in the world,
29
110684
5135
전 세계에서 가장 부유하고 평화로운 나라들을 한번 보세요.
01:55
countries like Sweden and Switzerland and Japan,
30
115843
4290
스웨덴이나 스위스, 일본 같은 나라를 살펴보면
02:00
you will see that they have a very strong sense of nationalism.
31
120157
4963
그 나라 국민들은 매우 강한 민족주의적 의식을 가지고 있음을 알 수 있습니다.
02:05
In contrast, countries that lack a strong sense of nationalism,
32
125750
4160
반면에, 강한 민족주의 의식이 부족한 국가들을 보면,
02:09
like Congo and Somalia and Afghanistan,
33
129934
3421
콩고나 소말리아, 아프가니스탄 같은 나라는
02:13
tend to be violent and poor.
34
133379
2174
폭력과 가난을 겪기 쉽니다.
02:16
So what is fascism, and how is it different from nationalism?
35
136855
4138
그럼 파시즘은 무엇이며, 민족주의와 어떻게 다를까요?
02:21
Well, nationalism tells me that my nation is unique,
36
141941
5403
민족주의가 의미하는 것은 우리나라는 특별하다는 것입니다.
02:27
and that I have special obligations towards my nation.
37
147368
3801
자신의 국가에 대해 특별한 의무감을 갖는 것이죠.
02:31
Fascism, in contrast, tells me that my nation is supreme,
38
151641
6206
반면에 파시즘이 의미하는 것은 우리나라가 최고다라는 것입니다.
02:37
and that I have exclusive obligations towards it.
39
157871
3912
자신의 국가에 대해 배타적인 의무감을 갖게 됩니다.
02:42
I don't need to care about anybody or anything other than my nation.
40
162895
4831
자국 외에는 그 누구, 그 무엇에도 관심을 두지 않는 것입니다.
02:48
Usually, of course, people have many identities
41
168465
3603
일반적으로, 사람들은 여러 신분을 갖고
02:52
and loyalties to different groups.
42
172092
2422
여러 집단들에 동시에 충성을 바치고 있습니다.
02:55
For example, I can be a good patriot, loyal to my country,
43
175036
4804
예를 들어, 저는 훌륭한 애국자로서 우리나라에 충성을 다합니다.
02:59
and at the same time, be loyal to my family,
44
179864
3238
그와 동시에 가족에게도 충성을 다하죠.
03:03
my neighborhood, my profession,
45
183126
2361
제 이웃, 제 직업에도 충성하고
03:05
humankind as a whole,
46
185511
1460
인류 전체와
03:06
truth and beauty.
47
186995
1604
진리, 아름다움에도 충성합니다.
03:09
Of course, when I have different identities and loyalties,
48
189370
4271
물론, 제가 다른 많은 신분과 충성의 대상을 가지고 있기 때문에
03:13
it sometimes creates conflicts and complications.
49
193665
3333
이들이 서로 충돌하거나 복잡한 문제가 일어나기도 합니다.
03:17
But, well, who ever told you that life was easy?
50
197506
3634
하지만 사는 게 어디 그렇게 쉬운가요?
03:21
Life is complicated.
51
201649
2040
인생은 복잡합니다.
03:23
Deal with it.
52
203713
1150
잘 극복해야죠.
03:26
Fascism is what happens when people try to ignore the complications
53
206331
6000
파시즘은 그런 복잡한 문제를 무시할 때 생겨납니다.
03:32
and to make life too easy for themselves.
54
212355
3109
자신의 삶을 쉽게 살려할 때 일어나죠.
03:36
Fascism denies all identities except the national identity
55
216128
5572
파시즘은 국민으로서의 신분을 제외한 모든 신분을 거부합니다.
03:41
and insists that I have obligations only towards my nation.
56
221724
5109
오직 자신의 국가에 대한 의무만을 강조하죠.
03:47
If my nation demands that I sacrifice my family,
57
227421
4104
만약 국가가 제 가족을 희생하도록 요구하면
03:51
then I will sacrifice my family.
58
231549
2436
저는 제 가족을 희생할 것입니다.
03:54
If the nation demands that I kill millions of people,
59
234009
4274
만약 국가가 수백만 명을 학살하도록 요구하면
03:58
then I will kill millions of people.
60
238307
2658
저는 수백만 명을 학살할 것입니다.
04:01
And if my nation demands that I betray truth and beauty,
61
241442
6075
만약 국가가 진리와 아름다움을 포기하라고 요구하면
04:07
then I should betray truth and beauty.
62
247541
3023
저는 진리와 아름다움을 저버려야 합니다.
04:11
For example, how does a fascist evaluate art?
63
251587
4526
예를 들어, 파시스트는 예술을 어떻게 평가할까요?
04:16
How does a fascist decide whether a movie is a good movie or a bad movie?
64
256615
5289
파시스트는 좋은 영화와 나쁜 영화를 어떻게 구분할까요?
04:22
Well, it's very, very, very simple.
65
262728
4172
아주, 아주 간단합니다.
04:27
There is really just one yardstick:
66
267260
1928
판단 기준은 단 하나입니다.
04:29
if the movie serves the interests of the nation,
67
269593
3476
만약 그 영화가 국가에 이득을 가져오면
04:33
it's a good movie;
68
273093
1444
좋은 영화입니다.
04:34
if the movie doesn't serve the interests of the nation,
69
274561
3183
국가의 이득에 상충하는 영화라면
04:37
it's a bad movie.
70
277768
1222
나쁜 영화인 것이죠.
04:39
That's it.
71
279014
1150
그게 전부입니다.
04:40
Similarly, how does a fascist decide what to teach kids in school?
72
280496
4888
마찬가지로, 파시스트는 학교에서 아이들에게 무엇을 가르칠까요?
04:45
Again, it's very simple.
73
285877
2087
이 또한 아주 간단합니다.
04:47
There is just one yardstick:
74
287988
1945
유일한 판단 기준이 있죠.
04:49
you teach the kids whatever serves the interests of the nation.
75
289957
4945
국가에 이득을 가져올 내용만을 아이들에게 가르칩니다.
04:55
The truth doesn't matter at all.
76
295323
2587
사실 여부는 중요하지 않죠.
05:00
Now, the horrors of the Second World War and of the Holocaust remind us
77
300372
5426
2차 세계대전과 홀로코스트의 공포를 떠올려보면
05:05
of the terrible consequences of this way of thinking.
78
305822
4133
이런 사고 방식이 가져오는 끔찍한 결과를 알 수 있습니다.
05:10
But usually, when we talk about the ills of fascism,
79
310508
4545
하지만 파시즘의 병폐를 이야기할 때
05:15
we do so in an ineffective way,
80
315077
2960
우리는 비효과적인 방법으로 논하게 됩니다.
05:18
because we tend to depict fascism as a hideous monster,
81
318061
4738
왜냐하면 파시즘을 무시무시한 괴물로 묘사하기 때문이죠.
05:22
without really explaining what was so seductive about it.
82
322823
3906
그것에 이끌리는 이유는 제대로 설명하지 않습니다.
05:27
It's a bit like these Hollywood movies that depict the bad guys --
83
327284
4714
그것은 할리우드 영화가 악당을 묘사하는 방식과 유사합니다.
05:32
Voldemort or Sauron or Darth Vader --
84
332022
4023
볼드모트나 사우론, 혹은 다스베이더를
05:36
as ugly and mean and cruel.
85
336069
2632
추악하고, 비열하고, 잔인하게 묘사하죠.
05:38
They're cruel even to their own supporters.
86
338725
2538
그들은 자신의 추종자들에게조차 잔인함을 보입니다.
05:41
When I see these movies, I never understand --
87
341670
3621
전 그런 영화를 보면서 이해가 되지 않았습니다.
05:45
why would anybody be tempted to follow a disgusting creep like Voldemort?
88
345315
6505
왜 볼드모트 같은 역겨운 인물에게 이끌려 따르는 사람이 있는 걸까요?
05:52
The problem with evil is that in real life,
89
352895
3516
실제 삶에서 그런 사악함이 갖는 문제는
05:56
evil doesn't necessarily look ugly.
90
356435
2891
사악하다고 해서 꼭 추악해 보이지는 않는다는 것이지요.
05:59
It can look very beautiful.
91
359688
1892
매우 아름다워 보일 수도 있습니다.
06:02
This is something that Christianity knew very well,
92
362354
2723
기독교는 그런 면을 아주 잘 알고 있습니다.
06:05
which is why in Christian art, as [opposed to] Hollywood,
93
365101
3706
할리우드와 달리, 기독교 미술에서는
06:08
Satan is usually depicted as a gorgeous hunk.
94
368831
3868
일반적으로 악마는 아주 멋진 남성으로 묘사됩니다.
06:13
This is why it's so difficult to resist the temptations of Satan,
95
373259
4596
악마의 유혹을 거부하기란 매우 어렵기 때문이죠.
06:17
and why it is also difficult to resist the temptations of fascism.
96
377879
4744
마찬가지로 파시즘의 유혹을 거부하는 것도 매우 어렵습니다.
06:22
Fascism makes people see themselves
97
382980
2722
파시즘은 사람들로 하여금
06:25
as belonging to the most beautiful and most important thing in the world --
98
385726
5243
세상에서 가장 아름답고, 가장 중요한 무언가에 속해있다고 믿게 만듭니다.
06:30
the nation.
99
390993
1302
바로 국가죠.
06:32
And then people think,
100
392319
1346
사람들은 이렇게 생각합니다.
06:33
"Well, they taught us that fascism is ugly.
101
393689
3189
"다들 파시즘은 추악하다고 말하지만
06:37
But when I look in the mirror, I see something very beautiful,
102
397442
3024
거울 속의 내 모습은 너무나 아름답잖아.
06:40
so I can't be a fascist, right?"
103
400490
2191
이런 내가 파시스트일리가 있어?"
06:43
Wrong.
104
403022
1151
그렇지 않습니다.
06:44
That's the problem with fascism.
105
404197
1547
파시즘의 문제가 바로 그것입니다.
06:45
When you look in the fascist mirror,
106
405768
2619
파시스트의 거울을 통해 보면
06:48
you see yourself as far more beautiful than you really are.
107
408411
4534
여러분 스스로가 실제보다 훨씬 아름다워 보이게 됩니다.
06:53
In the 1930s, when Germans looked in the fascist mirror,
108
413371
4293
1930년대에 파시스트의 거울에 비친 독일인들은
06:57
they saw Germany as the most beautiful thing in the world.
109
417688
4040
스스로를 세상에서 가장 아름답다고 생각했습니다.
07:02
If today, Russians look in the fascist mirror,
110
422244
3436
만약 오늘날, 러시아인들이 파시스트의 거울을 본다면
07:05
they will see Russia as the most beautiful thing in the world.
111
425704
3559
러시아가 세상에서 가장 아름답게 보일 것입니다.
07:09
And if Israelis look in the fascist mirror,
112
429577
3128
만약 이스라엘이 파시스트의 거울을 본다면
07:12
they will see Israel as the most beautiful thing in the world.
113
432729
4380
이스라엘이 세상에서 가장 아름답게 보이겠죠.
07:18
This does not mean that we are now facing a rerun of the 1930s.
114
438657
5057
그렇다고 우리가 1930년대로 돌아간다는 걸 의미하는 건 아닙니다.
07:24
Fascism and dictatorships might come back,
115
444304
3475
파시즘과 독재주의는 다시 나타날지도 모릅니다.
07:27
but they will come back in a new form,
116
447803
3239
하지만 이번에는 새로운 형태로 등장할 것입니다.
07:31
a form which is much more relevant
117
451066
2741
그 새로운 형태는
21세기의 새로운 기술적 세태에 크게 연관된 모습일 것입니다.
07:33
to the new technological realities of the 21st century.
118
453831
3809
07:38
In ancient times,
119
458538
1547
과거에는
07:40
land was the most important asset in the world.
120
460109
4160
영토가 가장 중요한 자산이었습니다.
07:44
Politics, therefore, was the struggle to control land.
121
464911
3864
따라서 정치는 영토를 다스리기 위한 싸움이었죠.
07:49
And dictatorship meant that all the land was owned by a single ruler
122
469141
5860
독재는 모든 영토를 한 사람의 통치자가 소유하거나
소수의 집권층이 갖는 걸 의미했습니다
07:55
or by a small oligarch.
123
475025
1872
07:57
And in the modern age, machines became more important than land.
124
477827
4819
근대에 와서는 기계가 영토보다 더 중요해졌습니다.
08:03
Politics became the struggle to control the machines.
125
483347
3600
정치는 기계를 통제하려는 싸움이 되었죠.
08:07
And dictatorship meant
126
487354
1996
독재의 의미는
08:09
that too many of the machines became concentrated
127
489374
3910
수많은 기계가
정부나 소수 엘리트 집단의 손안에 들어가게 되는 걸 뜻하게 되었습니다.
08:13
in the hands of the government or of a small elite.
128
493308
3280
08:17
Now data is replacing both land and machines
129
497109
4706
지금에 와서는 정보가 영토와 기계를 대신하여
08:21
as the most important asset.
130
501839
2111
가장 중요한 자산이 되었습니다.
08:24
Politics becomes the struggle to control the flows of data.
131
504600
5340
정치는 정보의 흐름을 통제하려는 싸움이 되었고
08:29
And dictatorship now means
132
509964
2708
지금 독재가 의미하는 바는
08:32
that too much data is being concentrated in the hands of the government
133
512696
5780
수많은 정보가
정부와 소수의 엘리트 집단의 손안에 집중된다는 걸 뜻합니다.
08:38
or of a small elite.
134
518500
1920
08:40
The greatest danger that now faces liberal democracy
135
520871
4912
자유 민주주의가 직면한 최대의 위험은
08:45
is that the revolution in information technology
136
525807
3270
정보 기술의 혁명으로
08:49
will make dictatorships more efficient than democracies.
137
529101
4790
민주주의보다 독재주의가 더 높은 효율성을 갖게 될 거라는 사실입니다.
08:54
In the 20th century,
138
534760
1619
20세기에는
08:56
democracy and capitalism defeated fascism and communism
139
536403
4960
민주주의와 자본주의가 파시즘과 공산주의를 물리쳤습니다.
09:01
because democracy was better at processing data and making decisions.
140
541387
5202
정보를 처리하고 결정을 내리기에는 민주주의가 훨씬 나았기 때문이죠.
09:07
Given 20th-century technology,
141
547319
2366
20세기의 기술 수준에서는
09:09
it was simply inefficient to try and concentrate too much data
142
549709
6035
넘쳐나는 정보와 권력을 한 곳에 집중시키는 것이
09:15
and too much power in one place.
143
555768
2759
지극히 비효율적이었습니다.
09:19
But it is not a law of nature
144
559244
4483
하지만 원칙이 정해져 있는 것은 아닙니다.
09:23
that centralized data processing is always less efficient
145
563751
5604
중앙 집중형 정보 처리가
분산형 정보 처리에 비해 항상 비효율이란 법은 없죠.
09:29
than distributed data processing.
146
569379
2547
09:32
With the rise of artificial intelligence and machine learning,
147
572605
3437
인공지능과 기계학습이 등장하면서
09:36
it might become feasible to process enormous amounts of information
148
576066
5837
엄청난 양의 정보를 처리할 수 있게 되었습니다.
09:41
very efficiently in one place,
149
581927
2610
매우 효율적으로 특정한 곳에서 말이죠.
09:44
to take all the decisions in one place,
150
584561
3191
특정한 곳에서 모든 결정이 이루어지고
09:47
and then centralized data processing will be more efficient
151
587776
4420
중앙 집중형 정보 처리가 더욱 효율적으로 이루어질 것입니다.
09:52
than distributed data processing.
152
592220
2200
분산형 정보 처리를 능가해서 말이죠.
09:55
And then the main handicap of authoritarian regimes
153
595053
3760
그리고 20세기에
권위주의 정권의 가장 큰 걸림돌이었던
09:58
in the 20th century --
154
598837
1637
10:00
their attempt to concentrate all the information in one place --
155
600498
4516
모든 정보를 한 곳에 집중시키려는 시도가
10:05
it will become their greatest advantage.
156
605038
3366
이제는 그들에게 가장 유리하게 작용할 것입니다.
10:10
Another technological danger that threatens the future of democracy
157
610768
4907
미래에 민주주의를 위협할 또 다른 기술적 위험은
10:15
is the merger of information technology with biotechnology,
158
615699
5159
정보 기술과 생명 공학의 만남입니다.
10:20
which might result in the creation of algorithms
159
620882
4005
그 결과로 탄생하는 새로운 알고리즘은
10:24
that know me better than I know myself.
160
624911
4316
저에 대해서 저보다 더 많이 알게 될 것입니다.
10:29
And once you have such algorithms,
161
629688
2080
그런 알고리즘을 갖기만 한다면
10:31
an external system, like the government,
162
631792
2849
정부 같은 외부 시스템은
10:34
cannot just predict my decisions,
163
634665
3524
저의 판단을 단순히 예측만 하는 것이 아니라
10:38
it can also manipulate my feelings, my emotions.
164
638213
3921
제 느낌과 감정까지도 조종할 수 있게 됩니다.
10:42
A dictator may not be able to provide me with good health care,
165
642641
5245
독재자는 저에게 질 좋은 의료시스템을 제공하지 못하면서도
10:47
but he will be able to make me love him
166
647910
3373
저로 하여금 자기를 따르게 만들고
10:51
and to make me hate the opposition.
167
651307
2667
반대파를 거부하게 만들 수 있습니다.
10:55
Democracy will find it difficult to survive such a development
168
655037
5463
민주주의는 이런 상황에서 살아남기가 쉽지 않습니다.
11:00
because, in the end,
169
660524
2150
왜냐하면, 따지고 보면
11:02
democracy is not based on human rationality;
170
662698
4127
민주주의는 인간의 이성에 기반을 두는 것이 아니라
11:06
it's based on human feelings.
171
666849
2420
인간의 감정에 기반을 두기 때문입니다.
11:10
During elections and referendums,
172
670355
2500
선거나 국민 투표가 있을 때
11:12
you're not being asked, "What do you think?"
173
672879
2696
우리는 "어떻게 생각하세요?"라는 질문을 받는 대신에
11:15
You're actually being asked, "How do you feel?"
174
675998
3396
실제로는 "어떤 느낌인가요?"라는 질문을 받습니다.
11:20
And if somebody can manipulate your emotions effectively,
175
680228
4627
따라서 만약 누군가가 여러분의 감정을 효과적으로 조종할 수 있게 되면
11:24
democracy will become an emotional puppet show.
176
684879
3753
민주주의는 감정의 꼭두각시 놀음이 될 것입니다.
11:30
So what can we do to prevent the return of fascism
177
690006
4515
그렇다면 어떻게 해야 파시즘의 부활을 막고
11:34
and the rise of new dictatorships?
178
694545
2650
신독재주의의 등장을 막을 수 있을까요?
11:37
The number one question that we face is: Who controls the data?
179
697990
6310
우리가 직면한 가장 큰 문제는 누가 정보를 통제하느냐는 것입니다.
11:44
If you are an engineer,
180
704823
1675
여러분이 기술자라면
11:46
then find ways to prevent too much data
181
706522
3968
수많은 정보가 소수의 통제하에 집중되는 것을
11:50
from being concentrated in too few hands.
182
710514
2825
막을 방법을 찾아야 합니다.
11:53
And find ways to make sure
183
713752
2944
그리고 정보 처리를 분산시키는 것이
11:56
the distributed data processing is at least as efficient
184
716720
4413
정보 처리를 한 곳에 집중시키는 것만큼이나
12:01
as centralized data processing.
185
721157
2396
효율적이라는 걸 믿게 만들어야 합니다.
12:04
This will be the best safeguard for democracy.
186
724077
3841
그것이 민주주의를 지킬 최선의 방법입니다.
12:07
As for the rest of us who are not engineers,
187
727942
3326
그리고 나머지 우리 같이 기술과 관련 없는 경우에
12:11
the number one question facing us
188
731292
3444
우리에게 있어서 가장 큰 문제는
12:14
is how not to allow ourselves to be manipulated
189
734760
4647
그렇게 정보를 통제하는 사람들에 의해
우리 스스로 조종당하지 않는 방법이 무엇이냐는 것입니다.
12:19
by those who control the data.
190
739431
2806
12:23
The enemies of liberal democracy, they have a method.
191
743387
4106
자유 민주주의의 반대 세력에게는 나름의 방법이 있습니다.
12:27
They hack our feelings.
192
747919
2372
우리 감정을 해킹하죠.
12:30
Not our emails, not our bank accounts --
193
750315
2452
이메일이나, 은행 계좌가 아니라 우리 감정을 해킹합니다.
12:32
they hack our feelings of fear and hate and vanity,
194
752791
5207
공포심, 증오심, 허영심 등을요.
12:38
and then use these feelings
195
758022
2428
그리고 그 감정을 이용해서
12:40
to polarize and destroy democracy from within.
196
760474
3952
사람들을 양극화시키고 민주주의를 안에서부터 무너뜨립니다.
12:44
This is actually a method
197
764903
1920
이런 방법은 실제로 존재합니다.
12:46
that Silicon Valley pioneered in order to sell us products.
198
766847
5049
실리콘밸리가 이런 방법으로 우리에게 제품을 판매했죠.
12:52
But now, the enemies of democracy are using this very method
199
772381
5022
하지만 이제는 민주주의의 적들이 바로 이 방법을 이용해서
12:57
to sell us fear and hate and vanity.
200
777427
3724
우리에게 공포와 증오 그리고 허영심을 팔고 있습니다.
13:01
They cannot create these feelings out of nothing.
201
781863
3659
그들은 아무것도 없는 상태에서 이런 감정을 만들어내지는 못합니다.
13:06
So they get to know our own preexisting weaknesses.
202
786212
3831
우리 안에 존재하는 약점을 알아야 하죠.
13:10
And then use them against us.
203
790403
2571
그리고 우리에게 그 약점을 이용하는 겁니다.
13:13
And it is therefore the responsibility of all of us
204
793482
3508
따라서 이 모든 것에 대한 책임은 우리 자신에게 있습니다.
13:17
to get to know our weaknesses
205
797014
2634
우리 약점을 알게 만들고
13:19
and make sure that they do not become a weapon
206
799672
3635
그것이 민주주의의 적들의 손 안에 들어가도
13:23
in the hands of the enemies of democracy.
207
803331
2883
그들의 무기가 되지 않을 거라고 믿은 우리의 책임이죠.
13:27
Getting to know our own weaknesses
208
807315
2548
우리도 우리 자신의 약점을 알면
13:29
will also help us to avoid the trap of the fascist mirror.
209
809887
5583
파시즘의 거울이라는 덫을 피할 수 있습니다.
13:36
As we explained earlier, fascism exploits our vanity.
210
816204
4151
방금 말씀드렸듯이 파시즘은 우리 허영심을 악용합니다.
13:40
It makes us see ourselves as far more beautiful than we really are.
211
820805
5746
우리의 실제 모습보다 훨씬 더 아름답다고 생각하게 만들죠.
13:46
This is the seduction.
212
826575
1467
여러분을 유혹하는 것입니다.
13:48
But if you really know yourself,
213
828424
2447
하지만 여러분 자신을 제대로 알면
13:50
you will not fall for this kind of flattery.
214
830895
3468
그런 아첨에 속지 않을 것입니다.
13:54
If somebody puts a mirror in front of your eyes
215
834879
4063
만약 누군가가 여러분의 눈 앞에 거울을 들이대고
13:58
that hides all your ugly bits and makes you see yourself
216
838966
5060
여러분의 추악한 부분을 감추고
여러분의 실제 모습보다 훨씬 더 아름답고
14:04
as far more beautiful and far more important
217
844050
4284
실제보다 더 대단하게 보이게 만든다면
14:08
than you really are,
218
848358
1591
14:09
just break that mirror.
219
849973
2864
그 거울을 그냥 깨버리세요.
14:13
Thank you.
220
853696
1151
감사합니다.
14:14
(Applause)
221
854871
6382
(박수)
14:22
Chris Anderson: Yuval, thank you.
222
862677
1632
크리스 앤더슨(CA): 감사합니다.
14:24
Goodness me.
223
864333
1151
이런 세상에..
14:25
It's so nice to see you again.
224
865958
1940
다시 만나서 반갑습니다.
14:27
So, if I understand you right,
225
867922
1591
제가 이해한 바로는
14:29
you're alerting us to two big dangers here.
226
869537
2667
두 가지 심각한 위험성을 경고하셨는데요.
14:32
One is the possible resurgence of a seductive form of fascism,
227
872228
4492
하나는 파시즘이 매력적인 모습을 띄고 다시 부활할 거라고 하셨습니다.
14:36
but close to that, dictatorships that may not exactly be fascistic,
228
876744
4254
그와 관련해서 독재주의는 파시즘 그대로의 형태가 아니라
14:41
but control all the data.
229
881022
2563
모든 정보를 통제하는 형태가 될 거라고 하셨죠.
14:43
I wonder if there's a third concern
230
883609
2096
제 생각에 거기에 하나 더 추가하자면
14:45
that some people here have already expressed,
231
885729
2118
몇몇 분들이 이미 말씀하셨지만
14:47
which is where, not governments, but big corporations control all our data.
232
887871
4897
정부가 아니라 거대 기업들이 우리 개인정보를 통제하고 있습니다.
14:52
What do you call that,
233
892792
1309
그 점은 어떻게 생각하시나요?
14:54
and how worried should we be about that?
234
894125
2387
그 부분을 우리가 걱정해야 할까요?
14:56
Yuval Noah Harari: Well, in the end, there isn't such a big difference
235
896536
3339
유발 하라리(YH): 결국에는 큰 차이는 없습니다.
14:59
between the corporations and the governments,
236
899899
2426
기업이나 정부나 마찬가지죠.
15:02
because, as I said, the questions is: Who controls the data?
237
902349
3420
왜냐하면, 말씀드렸듯이, 문제는 누가 정보를 통제하느냐는 것입니다.
15:05
This is the real government.
238
905793
1395
그 주체가 진짜 정부입니다.
15:07
If you call it a corporation or a government --
239
907212
2444
그것이 기업이든 정부이든
15:09
if it's a corporation and it really controls the data,
240
909680
3155
만약 기업이 실제로 정보를 통제한다면
15:12
this is our real government.
241
912859
1928
그 기업이 진짜 정부입니다.
15:14
So the difference is more apparent than real.
242
914811
3067
결과적으로는 사실 큰 차이가 없는 것이지요.
15:18
CA: But somehow, at least with corporations,
243
918529
2858
CA: 그런데, 최소한 기업의 경우에는
15:21
you can imagine market mechanisms where they can be taken down.
244
921411
3519
시장 구조의 기능이 있기 때문에 이들을 막을 수 도 있을 것 같은데
15:24
I mean, if consumers just decide
245
924954
1917
말하자면, 소비자가 스스로
15:26
that the company is no longer operating in their interest,
246
926895
2754
어느 기업이 소비자의 이익에 반한다고 판단하면
15:29
it does open the door to another market.
247
929673
1913
소비자는 다른 시장으로 눈을 돌리거나
15:31
It seems easier to imagine that
248
931610
1546
이런 것은 상상 할 수 있지 않을까요?
15:33
than, say, citizens rising up and taking down a government
249
933180
3151
시민들이 일어나서 모든 걸 통제하려는 정부를
15:36
that is in control of everything.
250
936355
1612
무너뜨리는 것보다는 쉽지않나요?
15:37
YNH: Well, we are not there yet,
251
937991
1555
YH: 음, 아직 그 이야기는 안했네요.
15:39
but again, if a corporation really knows you better than you know yourself --
252
939570
5158
하지만, 만약 기업이 여러분보다 더 여러분에 대해 잘 안다면
15:44
at least that it can manipulate your own deepest emotions and desires,
253
944752
5254
적어도 여러분 깊은 내면의 감정과 욕망을 조종할 수는 있을 겁니다.
15:50
and you won't even realize --
254
950030
1666
여러분은 그것도 모르고
15:51
you will think this is your authentic self.
255
951720
2579
그걸 자신의 진정한 자아로 여기게 될 겁니다.
15:54
So in theory, yes, in theory, you can rise against a corporation,
256
954768
4055
이론적으로는.. 네, 이론적으론 기업에 저항할 수는 있습니다.
15:58
just as, in theory, you can rise against a dictatorship.
257
958847
3733
이론적으로는 독재주의에 저항할 수 있는 것처럼요.
16:02
But in practice, it is extremely difficult.
258
962982
3283
하지만 실상은 너무나 어려운 일입니다.
16:07
CA: So in "Homo Deus," you argue that this would be the century
259
967281
4082
CA: 저서 "호모데우스"에서 언급하시기로는
21세기 내에 인간은 신과 같은 존재가 될 거라 하셨죠.
16:11
when humans kind of became gods,
260
971387
3411
16:14
either through development of artificial intelligence
261
974822
2993
인공지능의 발전이나
16:17
or through genetic engineering.
262
977839
2929
유전공학을 통해서 말이죠.
16:20
Has this prospect of political system shift, collapse
263
980792
5468
앞서 말하신 정치 시스템의 변화와 붕괴에 대한 전망이
16:26
impacted your view on that possibility?
264
986284
2664
그런 미래에 대한 견해에 영향을 미쳤나요?
16:29
YNH: Well, I think it makes it even more likely,
265
989553
3095
YH: 네, 그럴 가능성을 충분히 높여준다고 생각합니다.
16:32
and more likely that it will happen faster,
266
992672
2929
그런 미래가 더 빨리 다가오게 만들겠지요.
16:35
because in times of crisis, people are willing to take risks
267
995625
5023
왜냐하면 사람들은 위기의 상황에 처하면
다른 상황에서 그러지 않을 위험을 기꺼이 감수합니다.
16:40
that they wouldn't otherwise take.
268
1000672
1984
16:42
And people are willing to try
269
1002680
2818
사람들은 기꺼이
모든 고위험성 고부가가치의 기술들을 선택하려할 것입니다.
16:45
all kinds of high-risk, high-gain technologies.
270
1005522
3873
16:49
So these kinds of crises might serve the same function
271
1009760
4230
따라서 앞서 언급했던 위기들은
20세기에 있었던 두 번의 세계대전과 동일한 기능을 하게 될 것입니다.
16:54
as the two world wars in the 20th century.
272
1014014
3214
16:57
The two world wars greatly accelerated
273
1017252
3212
두 번의 세계대전을 거치며
17:00
the development of new and dangerous technologies.
274
1020488
3612
새롭지만 위험한 기술들이 급격하게 발전했죠.
17:04
And the same thing might happen in the 21st century.
275
1024124
3284
21세기에도 같은 일이 벌어질 것입니다.
17:07
I mean, you need to be a little crazy to run too fast,
276
1027721
3897
좀 미친 상태여야만 빨리 갈 수 있는 것 처럼 말입니다.
17:11
let's say, with genetic engineering.
277
1031642
2325
예를 들면, 유전 공학 분야가 그렇지요.
17:13
But now you have more and more crazy people
278
1033991
3110
하지만 이제는 점점 더 많은 미치광이들이
17:17
in charge of different countries in the world,
279
1037125
2681
세계 여러 나라에서 나타나고 있습니다.
17:19
so the chances are getting higher, not lower.
280
1039830
3067
따라서 가능성이 점점 높아지고 있죠. 낮아지는 것이 아니고요.
17:23
CA: So, putting it all together, Yuval, you've got this unique vision.
281
1043647
3365
CA: 그 모든 걸 고려해서 그런 특별한 시각을 갖게 되셨군요.
17:27
Roll the clock forward 30 years.
282
1047036
1587
30년 후를 한번 생각해보죠.
17:28
What's your guess -- does humanity just somehow scrape through,
283
1048647
3263
과연 어떻게 될까요? 어떻게든 당신이 예측하신 상황을 피하고
17:31
look back and say, "Wow, that was a close thing. We did it!"
284
1051934
3135
과거를 돌아보며 "와, 큰일날 뻔 했지만, 해냈어!"라고 할까요?
17:35
Or not?
285
1055093
1436
아니면 그 반대일까요?
17:36
YNH: So far, we've managed to overcome all the previous crises.
286
1056553
3848
YH: 지금까지 우리는 과거의 위기 상황들을 잘 극복해왔습니다.
17:40
And especially if you look at liberal democracy
287
1060425
2819
특히, 자유 민주주의를 생각해보면
17:43
and you think things are bad now,
288
1063268
2944
지금은 상황이 나빠진 것 같지만
17:46
just remember how much worse things looked in 1938 or in 1968.
289
1066236
6466
1938년이나 1968년에는 상황이 얼마나 나빴는지 생각해보세요.
17:52
So this is really nothing, this is just a small crisis.
290
1072726
2991
지금은 아무 것도 아니죠. 정말 보잘 것 없는 위기입니다.
17:56
But you can never know,
291
1076167
1969
하지만 어떻게 될지 모릅니다.
17:58
because, as a historian,
292
1078160
2131
역사학자인 제 입장에서는
18:00
I know that you should never underestimate human stupidity.
293
1080315
4774
인간의 멍청함을 절대로 과소평가해서는 안 된다고 생각해요.
18:05
(Laughter) (Applause)
294
1085113
1155
(웃음) (박수)
18:06
It is one of the most powerful forces that shape history.
295
1086292
4004
바로 그런 면이 강하게 작용해서 우리 역사를 만들어 왔습니다.
18:11
CA: Yuval, it's been an absolute delight to have you with us.
296
1091433
2865
CA: 유발, 모시게 되어서 정말 기뻤습니다.
18:14
Thank you for making the virtual trip.
297
1094322
1817
가상의 여행으로 찾아와 주셔서 고맙습니다.
18:16
Have a great evening there in Tel Aviv.
298
1096163
1873
텔 아비브에서 좋은 저녁 보내세요.
18:18
Yuval Harari!
299
1098060
1151
유발 하라리였습니다!
18:19
YNH: Thank you very much.
300
1099235
1376
YH: 감사합니다.
18:20
(Applause)
301
1100635
1150
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7