How to seek truth in the era of fake news | Christiane Amanpour

148,311 views ・ 2017-10-30

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sojeong KIM 검토: 정현 이
00:12
Chris Anderson: Christiane, great to have you here.
0
12931
2337
크리스 앤덜슨: 크리스티안, 와 주셔서 감사합니다.
당신은 놀라운 관점을 제시해왔어요.
00:15
So you've had this amazing viewpoint,
1
15292
1843
00:17
and perhaps it's fair to say that in the last few years,
2
17159
3060
최근 몇년동안
우려스러운 상황이 전개됐습니다.
00:20
there have been some alarming developments that you're seeing.
3
20243
3753
00:24
What's alarmed you most?
4
24020
1564
무엇이 당신을 가장 불안하게 하나요?
00:25
Christiane Amanpour: Well, just listening to the earlier speakers,
5
25608
3192
크리스티안 아만포: 앞서 발표하신 연사들의 강연에서,
00:28
I can frame it in what they've been saying:
6
28824
2472
전달하고자 내용을 머릿 속에 그릴 수 있었어요.
00:31
climate change, for instance -- cities, the threat to our environment
7
31320
3422
예를 들어 기후변화, 환경과 삶에 위협이 되는
00:34
and our lives.
8
34766
1260
도시들.
00:36
It basically also boils down to understanding the truth
9
36440
3894
모든 문제의 핵심은 진실을 이해하고
00:40
and to be able to get to the truth of what we're talking about
10
40358
3011
진실에 가까이 다가가는 데 있어요.
00:43
in order to really be able to solve it.
11
43393
2092
그래야만 진정한 문제 해결이 가능합니다.
00:45
So if 99.9 percent of the science on climate
12
45509
3927
기후와 관련된 99.9%의 증거가
00:49
is empirical, scientific evidence,
13
49460
3057
실증적이고 과학적이지만,
00:52
but it's competing almost equally with a handful of deniers,
14
52541
4895
소수의 거부자와 동등하게 경쟁하는 상황이라면,
00:57
that is not the truth;
15
57460
1227
그것은 진실이 아닙니다.
00:58
that is the epitome of fake news.
16
58711
2498
이것이 바로 가짜 뉴스의 전형입니다.
01:01
And so for me, the last few years -- certainly this last year --
17
61233
5102
최근 몇 년 동안, 특히 작년을 통해 확고하게 가짜뉴스의 개념을
01:06
has crystallized the notion of fake news in a way that's truly alarming
18
66359
4260
정리할 수 있었어요. 가짜뉴스는 매우 우려되는 수준으로
01:10
and not just some slogan to be thrown around.
19
70643
2659
단순한 슬로건과는 차원이 다릅니다.
01:13
Because when you can't distinguish between the truth and fake news,
20
73326
3811
진실과 가짜뉴스를 구분할 수 없게 되면,
01:17
you have a very much more difficult time trying to solve
21
77161
3891
현재 직면한 중대한 문제를 해결하는데
01:21
some of the great issues that we face.
22
81076
2451
더 큰 어려움이 따르기 때문입니다.
01:24
CA: Well, you've been involved in this question of,
23
84512
3421
크리스: 네, 당신은 그동안
01:27
what is balance, what is truth, what is impartiality,
24
87957
2912
보도 균형, 진실, 공평함에 관한 질문에
01:30
for a long time.
25
90893
1255
오랫동안 관여해오셨는데요.
01:32
You were on the front lines reporting the Balkan Wars 25 years ago.
26
92172
5870
25년 전 발칸 전쟁 당시 최전선에 계셨고요.
01:38
And back then, you famously said,
27
98066
3412
그 당시,유명한 말을 남기셨죠.
01:41
by calling out human right abuses,
28
101502
2621
인권 침해를 고발하며 이런 말을 남겼어요.
01:44
you said, "Look, there are some situations one simply cannot be neutral about,
29
104147
4329
"도저히 중립적일 수 없는 상황들이 존재한다.
01:48
because when you're neutral,
30
108500
1380
중립적인 태도가
01:49
you are an accomplice."
31
109904
1887
당신을 공범자로 만들기 때문입니다."
01:53
So, do you feel that today's journalists aren't heeding that advice
32
113243
4897
오늘날 언론인들이 보도 균형에 관한 이 충고에
01:58
about balance?
33
118164
1472
귀 기울이지 않는다고 느끼시나요?
01:59
CA: Well, look, I think for journalists, objectivity is the golden rule.
34
119660
4106
크리스티안: 기자에게 객관성은 황금률입니다.
02:03
But I think sometimes we don't understand what objectivity means.
35
123790
4416
그러나 객관성의 의미를 제대로 파악하지 못할 때가 있죠.
02:08
And I actually learned this very, very young in my career,
36
128230
2994
저는 그 의미를 발칸 전쟁을 보도했던
02:11
which was during the Balkan Wars.
37
131248
1572
기자 생활 초기에 배웠습니다.
02:12
I was young then.
38
132844
1216
저는 그때 젊었어요.
02:14
It was about 25 years ago.
39
134084
2539
거의 25년 전이니까요.
02:16
And what we faced was the wholesale violation, not just of human rights,
40
136647
5781
인권 침해뿐만 아니라, 인종 청소와 집단 학살 등
02:22
but all the way to ethnic cleansing and genocide,
41
142452
2979
대대적인 위법이 자행되고 있었습니다.
02:25
and that has been adjudicated in the highest war crimes court
42
145455
4006
세계 최고 전범 재판에서도 판결 내린
02:29
in the world.
43
149485
1164
위법사항이었습니다.
02:30
So, we know what we were seeing.
44
150673
1653
직접 우리 눈으로 마주한 상황을
02:32
Trying to tell the world what we were seeing
45
152350
2537
세계에 알리려고 했습니다.
02:34
brought us accusations of bias,
46
154911
2775
그러나 한쪽의 편을 들어
02:37
of siding with one side,
47
157710
1889
전체를 보지 못하는
02:39
of not seeing the whole side,
48
159623
1862
편향된 보도라는 비난이 돌아왔습니다.
02:41
and just, you know, trying to tell one story.
49
161509
2297
한쪽의 이야기만 전한다는 비난이요.
02:43
I particularly and personally was accused of siding with,
50
163830
4307
특히 제가 편향적이라는 비난을 샀습니다.
02:48
for instance, the citizens of Sarajevo --
51
168161
1982
사라예보 시민의 편만 든다는 식이었죠.
02:50
"siding with the Muslims,"
52
170167
1427
"무슬림을 두둔한다"
02:51
because they were the minority who were being attacked
53
171618
3052
그들이 분쟁지역에서
02:54
by Christians on the Serb side
54
174694
3738
세르비아 기독교인들에게 공격받은
02:58
in this area.
55
178456
1719
소수집단이었기 때문이었어요.
03:00
And it worried me.
56
180199
1342
그리고 걱정이 들더군요.
03:01
It worried me that I was being accused of this.
57
181565
2191
이런 비난의 대상이 되어 걱정스러웠죠.
03:03
I thought maybe I was wrong,
58
183780
1342
어쩌면 내 판단이 틀렸고,
03:05
maybe I'd forgotten what objectivity was.
59
185146
2348
객관성을 잊은 것은 아닌지 생각했어요.
03:07
But then I started to understand that what people wanted
60
187518
3007
그러나 곧 깨닫게 되었죠.
이 문제에 손대고 싶지 않았던 거였어요.
03:10
was actually not to do anything --
61
190549
1798
03:12
not to step in,
62
192371
1417
개입하지 않고,
03:13
not to change the situation,
63
193812
1570
상황을 바꾸고 싶어하지 않았어요.
03:15
not to find a solution.
64
195406
1449
해결책을 찾고 싶어하지 않았어요.
03:16
And so, their fake news at that time,
65
196879
2353
당시의 가짜뉴스와
03:19
their lie at that time --
66
199256
1382
거짓말은 이런 양상이었습니다.
03:20
including our government's, our democratically elected government's,
67
200662
3530
인권의 원칙과 가치에 따라 민주적으로 선출한
03:24
with values and principles of human rights --
68
204216
2272
우리 정부마저도 거짓말을 했습니다.
03:26
their lie was to say that all sides are equally guilty,
69
206512
3507
수백 년에 걸친 인종 혐오로 발생한 이 분쟁으로
03:30
that this has been centuries of ethnic hatred,
70
210043
2793
양측에 동등하게 책임이 있다고 거짓말했죠.
03:32
whereas we knew that wasn't true,
71
212860
1882
사실이 아니었어요.
03:34
that one side had decided to kill, slaughter and ethnically cleanse
72
214766
3647
사실은 한쪽이 다른 쪽을 죽이기로 결심하고
학살과 인종 청소를 자행했습니다.
03:38
another side.
73
218437
1157
03:39
So that is where, for me,
74
219618
1496
따라서 제게 객관성이란,
03:41
I understood that objectivity means giving all sides an equal hearing
75
221138
5306
모두의 이야기를 동등하게 듣고
03:46
and talking to all sides,
76
226468
2105
모두와 대화를 나누는 것이지,
03:48
but not treating all sides equally,
77
228597
3622
모두를 동등하게 대우하거나
03:52
not creating a forced moral equivalence or a factual equivalence.
78
232243
4788
강요된 도덕적, 사실적 등가성을 적용하는 것이 아닙니다.
03:57
And when you come up against that crisis point
79
237055
4479
국제인권법상 심각한 위법이 발생하였고
04:01
in situations of grave violations of international and humanitarian law,
80
241558
5671
당신이 최악의 국면에 마주했을 때,
04:07
if you don't understand what you're seeing,
81
247253
2342
직면한 상황을 이해하지 못하고
04:09
if you don't understand the truth
82
249619
2160
진실을 보지 못하여
04:11
and if you get trapped in the fake news paradigm,
83
251803
3513
가짜뉴스의 패러다임에 갇혀버린다면,
04:15
then you are an accomplice.
84
255340
1590
그때 당신은 공범이 됩니다.
04:17
And I refuse to be an accomplice to genocide.
85
257658
2997
저는 집단 학살의 공범이길 거부합니다.
04:20
(Applause)
86
260679
3283
(박수)
04:26
CH: So there have always been these propaganda battles,
87
266402
2778
크리스: 선전(propaganda) 싸움은 늘 존재했습니다.
04:29
and you were courageous in taking the stand you took back then.
88
269204
4026
당신은 그 때 용감하게 증인대에 섰었죠.
04:33
Today, there's a whole new way, though,
89
273652
3727
오늘날, 이 싸움은 완전히 새로운 양상이 되고 있습니다.
04:37
in which news seems to be becoming fake.
90
277403
2204
뉴스가 가짜가 되어가는 듯 보입니다.
04:39
How would you characterize that?
91
279631
1634
이를 어떻게 보시나요?
04:41
CA: Well, look -- I am really alarmed.
92
281289
2084
크리스티안: 매우 우려하고 있어요.
04:43
And everywhere I look,
93
283397
2202
가짜뉴스는 사방에 있어요.
04:45
you know, we're buffeted by it.
94
285623
1837
우리를 뒤흔들고 있습니다.
04:47
Obviously, when the leader of the free world,
95
287484
2202
자유 세계의 리더이자
04:49
when the most powerful person in the entire world,
96
289710
2473
전 세계에서 가장 영향력이 있는
04:52
which is the president of the United States --
97
292207
2246
미국의 대통령이 있습니다.
04:54
this is the most important, most powerful country in the whole world,
98
294477
4819
미국 대통령은 경제, 군사, 정치, 모든 면에서
04:59
economically, militarily, politically in every which way --
99
299320
4240
세계에서 가장 중요하고 영향력 있는 인물입니다.
05:04
and it seeks to, obviously, promote its values and power around the world.
100
304415
5017
대통령은 가치와 권위를 높이려하죠.
05:09
So we journalists, who only seek the truth --
101
309456
3976
그리고 진실을 좇는 언론인이 있습니다.
05:13
I mean, that is our mission --
102
313456
1521
언론인의 임무죠.
05:15
we go around the world looking for the truth
103
315001
2117
언론인은 국가를 벗어날 수 없는
05:17
in order to be everybody's eyes and ears,
104
317142
1973
많은 이들의 눈과 귀가 되어,
05:19
people who can't go out in various parts of the world
105
319139
2519
모두의 건강과 안보를 위해
05:21
to figure out what's going on about things that are vitally important
106
321682
3369
매우 중요한 사안을 파악하고,
05:25
to everybody's health and security.
107
325075
1956
진실을 찾아 세계 곳곳을 누빕니다.
05:27
So when you have a major world leader accusing you of fake news,
108
327055
6686
그런데 세계 최고의 리더가 언론인을 가짜 뉴스로 규탄한다면,
05:33
it has an exponential ripple effect.
109
333765
3843
이는 엄청난 파급효과를 가집니다.
05:37
And what it does is, it starts to chip away
110
337632
4272
언론인의 신뢰도를
05:42
at not just our credibility,
111
342472
2888
실추시킬 뿐 아니라,
05:45
but at people's minds --
112
345384
2029
사람들의 마음을 서서히 약화시킵니다.
05:48
people who look at us, and maybe they're thinking,
113
348372
2364
사람들은 언론인을 보며 아마 이런 생각을 하겠죠.
05:50
"Well, if the president of the United States says that,
114
350760
2669
"미국 대통령이 저런 말까지 한다면,
어쩌면 어딘가에 진실이 있을지도 몰라."
05:53
maybe somewhere there's a truth in there."
115
353453
2135
05:56
CH: Presidents have always been critical of the media --
116
356148
4184
크리스: 대통령은 항상 미디어에 비판적이었죠.
06:00
CA: Not in this way.
117
360356
1601
크리스티안: 이런 식은 아니었습니다.
06:01
CH: So, to what extent --
118
361981
1505
크리스: 어떤 정도까지는요.
06:03
(Laughter)
119
363510
1064
(웃음)
06:04
(Applause)
120
364598
3120
(박수)
06:07
CH: I mean, someone a couple years ago looking at the avalanche of information
121
367742
6896
크리스: 몇 년 전, 트위터, 페이스북 등을 통해 쏟아지는
06:14
pouring through Twitter and Facebook and so forth,
122
374662
3236
정보의 홍수를 본 어떤 사람이
06:17
might have said,
123
377922
1158
이렇게 말했을 수도 있습니다.
06:19
"Look, our democracies are healthier than they've ever been.
124
379104
2841
"민주주의는 과거보다 훨씬 건강해졌어.
06:21
There's more news than ever.
125
381969
1521
그 어느 때보다 많은 뉴스가 있어.
06:23
Of course presidents will say what they'll say,
126
383514
2211
물론 대통령들은 할 말을 하겠지.
06:25
but everyone else can say what they will say.
127
385749
2233
그래도 이젠 모두가 하고 싶은 말을 할 수 있잖아.
06:28
What's not to like? How is there an extra danger?"
128
388006
4155
나쁠 게 뭐가 있지? 무슨 더 큰 위험이 있다는 것일까?"
크리스티안: 저도 그 말이 진실이면 좋겠습니다.
06:32
CA: So, I wish that was true.
129
392185
1542
06:34
I wish that the proliferation of platforms upon which we get our information
130
394992
6093
우리가 정보를 입수하는 플랫폼의 확산이
06:41
meant that there was a proliferation of truth and transparency
131
401109
3878
진실과 투명성, 깊이와 정확성의 확산을 의미하면 좋겠죠.
06:45
and depth and accuracy.
132
405011
1868
06:46
But I think the opposite has happened.
133
406903
2455
반대의 상황이 발생했다고 생각해요.
06:49
You know, I'm a little bit of a Luddite,
134
409382
2090
솔직히 제게 러다이트 성향이 있어요. (Luddite: 신기술반대주의자)
06:51
I will confess.
135
411496
1196
인정할게요.
06:53
Even when we started to talk about the information superhighway,
136
413147
3384
아주 오래전, 초고속 정보통신망에 대해
06:56
which was a long time ago,
137
416555
1628
처음 논의가 될 시점, 오래 전인데요.
06:58
before social media, Twitter and all the rest of it,
138
418207
2651
트위터 등의 SNS 출현 전에도
07:00
I was actually really afraid
139
420882
1824
저는 사실 굉장히 두려웠습니다.
07:02
that that would put people into certain lanes and tunnels
140
422730
4021
인터넷이 사람을 특정 길, 터널로 이끌어
07:06
and have them just focusing on areas of their own interest
141
426775
4342
그들에게 큰 그림을 보는 대신,
개인의 관심 분야에만 집중하게 만들까봐요.
07:11
instead of seeing the broad picture.
142
431141
2333
07:13
And I'm afraid to say that with algorithms, with logarithms,
143
433498
4586
유감스럽게도 저는 알고리즘, 로가리즘과 같은
07:18
with whatever the "-ithms" are
144
438108
1648
온갖 '이즘(ithms)'이
07:19
that direct us into all these particular channels of information,
145
439780
4266
우리를 특정 정보 채널로 유인한다고 믿어요.
07:24
that seems to be happening right now.
146
444070
1870
그 현상이 지금 일어나고 있어요.
07:25
I mean, people have written about this phenomenon.
147
445964
2544
이 현상에 대해 사람들이 글을 썼어요.
07:28
People have said that yes, the internet came,
148
448532
2198
인터넷이 도래했고,
07:30
its promise was to exponentially explode our access to more democracy,
149
450754
5743
민주주의에 대한 접근이 폭발적으로 증가할 것으로 생각했다.
07:36
more information,
150
456521
1714
더 많은 정보를 얻고,
07:38
less bias,
151
458259
1892
편견을 덜어주고
07:40
more varied information.
152
460175
2389
다양한 정보를 줄 것이라고 믿었다.
07:42
And, in fact, the opposite has happened.
153
462588
2325
그러나 실제로는 그 반대가 일어났죠.
07:44
And so that, for me, is incredibly dangerous.
154
464937
4018
제가 보기에 인터넷은 매우 위험합니다.
07:48
And again, when you are the president of this country and you say things,
155
468979
4515
미국 대통령의 발언은
07:53
it also gives leaders in other undemocratic countries the cover
156
473518
5425
비민주적인 국가의 리더들에게
더 심한 모욕을 줘도 된다는 보장을 줍니다.
08:00
to affront us even worse,
157
480009
2306
08:02
and to really whack us -- and their own journalists --
158
482339
2860
가짜 뉴스를 유포해
자국 언론인들까지 큰 타격을 입게되죠.
08:05
with this bludgeon of fake news.
159
485223
1823
08:08
CH: To what extent is what happened, though,
160
488000
2184
크리스: 어떤 면에서는 맞는 말입니다만,
08:10
in part, just an unintended consequence,
161
490208
2066
그러나 의도치 않은 결과로도 볼 수 있는데요.
08:12
that the traditional media that you worked in
162
492298
2802
당신이 몸 담은 전통 미디어는
08:15
had this curation-mediation role,
163
495124
2080
큐레이션 및 조정 역할이 있었고
08:17
where certain norms were observed,
164
497228
2026
지켜야할 규칙이 있었죠.
08:19
certain stories would be rejected because they weren't credible,
165
499278
3153
신뢰할 수 없는 이야기는 거절했었어요.
08:22
but now that the standard for publication and for amplification
166
502455
6499
그러나 현재 기사 작성과 확산의 기준은
08:28
is just interest, attention, excitement, click,
167
508978
3328
흥미, 관심, 재미, 조회수에 달려있죠.
08:32
"Did it get clicked on?"
168
512330
1163
"클릭했나요?"
08:33
"Send it out there!"
169
513517
1155
"당장 기사를 보내요"
08:34
and that's what's -- is that part of what's caused the problem?
170
514696
3504
이런 세태가 문제의 원인일까요?
08:38
CA: I think it's a big problem, and we saw this in the election of 2016,
171
518224
3595
크리스티안: 심각한 문제에요. 2016 대선에서 경험했죠.
08:41
where the idea of "clickbait" was very sexy and very attractive,
172
521843
5107
"낚시기사"가 섹시하고 매력적인 아이디어로 비쳤어요.
08:46
and so all these fake news sites and fake news items
173
526974
4306
가짜뉴스 사이트와 가짜기사 역시
08:51
were not just haphazardly and by happenstance being put out there,
174
531304
4122
기묘한 우연으로 전파된게 아니었어요.
08:55
there's been a whole industry in the creation of fake news
175
535450
4451
산업전반에 걸쳐 가짜뉴스가 생성되었어요.
08:59
in parts of Eastern Europe, wherever,
176
539925
2990
동유럽 일부와 어디에서든요.
09:02
and you know, it's planted in real space and in cyberspace.
177
542939
3260
현실과 사이버공간 모두에 심겨 있죠.
09:06
So I think that, also,
178
546223
2359
제 생각하는 문제는,
09:08
the ability of our technology to proliferate this stuff
179
548606
5121
가짜뉴스를 음속, 광속으로
09:13
at the speed of sound or light, just about --
180
553751
3511
확산하는 기술발전을
09:17
we've never faced that before.
181
557286
1983
우리가 이전에 마주한 적이 없었다는데 있어요.
09:19
And we've never faced such a massive amount of information
182
559293
4867
이토록 방대한 양의 정보를 직면한 적도 없었습니다.
09:24
which is not curated
183
564184
1565
전문가가 선별하지 않았고 진실에 근거하지 않은,
09:25
by those whose profession leads them to abide by the truth,
184
565773
5296
사실 확인이 빠지고,
09:31
to fact-check
185
571093
1202
09:32
and to maintain a code of conduct and a code of professional ethics.
186
572319
4834
행동수칙과 직업윤리강령이 결여된 정보들입니다.
09:37
CH: Many people here may know people who work at Facebook
187
577177
3343
크리스: 여기 계신분들의 지인 중에
09:40
or Twitter and Google and so on.
188
580544
2324
페이스북, 트위터, 구글의 직원이 있을 수 있어요.
09:42
They all seem like great people with good intention --
189
582892
3132
좋은 의도를 가진 멋진 사람들같아요.
그렇다고 가정합시다.
09:46
let's assume that.
190
586048
1380
이 기업들의 리더와 대화하게 된다면,
09:47
If you could speak with the leaders of those companies,
191
587452
3675
무슨 말을 하고 싶나요?
09:51
what would you say to them?
192
591151
1291
09:52
CA: Well, you know what --
193
592466
1769
크리스티안: 글쎄요, 저는
09:54
I'm sure they are incredibly well-intentioned,
194
594259
2344
그들이 훌륭한 의도를 가졌다고 확신해요.
09:56
and they certainly developed an unbelievable, game-changing system,
195
596627
5218
판도를 바꿔놓은 놀라운 시스템을 개발했어요.
10:01
where everybody's connected on this thing called Facebook.
196
601869
3211
페이스북을 통해 모두가 연결되었어요.
10:05
And they've created a massive economy for themselves
197
605104
3801
페이스북은 거대한 경제를 낳았고,
10:08
and an amazing amount of income.
198
608929
2680
엄청난 수익도 올렸습니다.
10:11
I would just say,
199
611633
1180
이렇게 말할 것 같아요.
10:12
"Guys, you know, it's time to wake up and smell the coffee
200
612837
4234
"여러분, 이제 정신을 차리고 상황을 직시해요.
10:17
and look at what's happening to us right now."
201
617095
2702
지금 무슨 일이 일어나는지 보세요."
10:19
Mark Zuckerberg wants to create a global community.
202
619821
2932
마크 저커버그는 글로벌 커뮤니티를 만들고 싶어합니다.
10:22
I want to know: What is that global community going to look like?
203
622777
3219
그 글로벌 커뮤니티가 어떤 모습일지 궁금합니다.
10:26
I want to know where the codes of conduct actually are.
204
626020
4067
그 안에 행동수칙은 어디에 있는지 알고 싶어요.
10:30
Mark Zuckerberg said --
205
630111
1825
마크 저커버그가 말했죠.
10:31
and I don't blame him, he probably believed this --
206
631960
2718
그를 비난하는게 아니에요.
10:34
that it was crazy to think
207
634702
2356
러시아나 누구든 상관없이
페이스북에 손을 대고 마음대로 장난치는건
10:37
that the Russians or anybody else could be tinkering and messing around
208
637082
4109
미친짓이라고 그는 믿었던 것 같아요.
10:41
with this avenue.
209
641215
1243
10:42
And what have we just learned in the last few weeks?
210
642482
2482
그러나 몇 주간 우리가 알게된 것은 무엇인가요?
10:44
That, actually, there has been a major problem in that regard,
211
644988
2958
심각한 문제가 발생했고,
10:47
and now they're having to investigate it and figure it out.
212
647970
3118
그들은 진상 파악을 위해 조사 중이죠.
10:51
Yes, they're trying to do what they can now
213
651112
3279
그들은 가짜뉴스 방지를 위해
10:54
to prevent the rise of fake news,
214
654415
2158
현재 최대한 노력하고 있지만,
10:56
but, you know,
215
656597
1383
사실은
10:58
it went pretty unrestricted for a long, long time.
216
658004
5091
꽤 오랫동안 제약이 없었습니다.
11:03
So I guess I would say, you know,
217
663119
1900
저는 이런 말을 하고 싶네요.
11:05
you guys are brilliant at technology;
218
665043
2099
당신들은 기술에 뛰어나잖아요.
11:07
let's figure out another algorithm.
219
667166
1891
새로운 알고리즘을 찾아봅시다.
11:09
Can we not?
220
669081
1171
가능할까요?
11:10
CH: An algorithm that includes journalistic investigation --
221
670276
2887
크리스: 저널리스트적 조사가 포함된 알고리즘이요?
11:13
CA: I don't really know how they do it, but somehow, you know --
222
673187
3356
크리스티안: 어떻게 구현할지 모르겠지만요.
11:16
filter out the crap!
223
676567
1819
쓰레기를 걸러내는 거요.
11:18
(Laughter)
224
678410
1150
(웃음)
11:19
And not just the unintentional --
225
679584
2002
비단 무의식적 실수 외에도
11:21
(Applause)
226
681610
3254
(박수)
11:24
but the deliberate lies that are planted
227
684888
2206
수십 년 동안
11:27
by people who've been doing this as a matter of warfare
228
687118
4325
전투 수단으로 양산된
11:31
for decades.
229
691467
1302
고의적 거짓말을 걸러내야합니다.
11:32
The Soviets, the Russians --
230
692793
1933
구소련, 러시아인들은
11:34
they are the masters of war by other means, of hybrid warfare.
231
694750
5244
다른 수단에 의한 전쟁, 하이브리드 전투의 전문가입니다.
11:40
And this is a --
232
700618
1444
그들이 결심한 방식입니다.
11:42
this is what they've decided to do.
233
702689
2984
11:45
It worked in the United States,
234
705697
1605
미국에서는 통했고,
11:47
it didn't work in France,
235
707326
1321
프랑스에서는 통하지 않았습니다.
11:48
it hasn't worked in Germany.
236
708671
1673
아직 독일에서 통하지 않았어요.
11:50
During the elections there, where they've tried to interfere,
237
710368
2941
선거 당시 러시아가 개입하려 했지만
11:53
the president of France right now, Emmanuel Macron,
238
713333
2602
프랑스 에마뉘엘 마크롱 대통령은
11:55
took a very tough stand and confronted it head on,
239
715959
2523
강경한 태도로 정면으로 맞섰습니다.
11:58
as did Angela Merkel.
240
718506
1158
앙겔라 메르켈도 그랬고요.
11:59
CH: There's some hope to be had from some of this, isn't there?
241
719688
2985
크리스: 이런 사례를 통해 희망을 확인할 수 있나요?
12:02
That the world learns.
242
722697
1151
세상이 교훈을 얻은거죠.
12:03
We get fooled once,
243
723872
1318
우리는 한번 속았고,
12:05
maybe we get fooled again,
244
725214
1332
어쩌면 두번 속을지도 모르지만,
12:06
but maybe not the third time.
245
726570
1455
세 번째에는 속지 않는다고요.
12:08
Is that true?
246
728049
1168
그렇지 않나요?
크리스티안: 그러길 바랍니다.
12:09
CA: I mean, let's hope.
247
729241
1156
그러나 기술이 관여되어 있는 문제라,
12:10
But I think in this regard that so much of it is also about technology,
248
730421
3387
12:13
that the technology has to also be given some kind of moral compass.
249
733832
3445
기술 자체에 윤리기준을 적용해야합니다.
12:17
I know I'm talking nonsense, but you know what I mean.
250
737301
2816
터무니없는 소리지만, 제 뜻 이해하시죠?
12:20
CH: We need a filter-the-crap algorithm with a moral compass --
251
740141
3708
크리스: 윤리기준을 갖춘 쓰레기 뉴스 여과 알고리즘이 필요한 거네요.
12:23
CA: There you go.
252
743873
1157
크리스티안: 바로 그거에요.
12:25
CH: I think that's good.
253
745054
1152
크리스: 좋은 생각이군요.
12:26
CA: No -- "moral technology."
254
746230
1671
크리스티안: 그 보다 "도덕적 기술"이요.
12:27
We all have moral compasses -- moral technology.
255
747925
3106
윤리기준은 모두에게 있어요. 도덕적 기술로 하죠.
12:31
CH: I think that's a great challenge. CA: You know what I mean.
256
751055
2979
크리스: 어려운 도전과제네요. 크리스티안: 그렇죠.
리더십에 대해 잠깐 말해봅시다.
12:34
CH: Talk just a minute about leadership.
257
754058
1944
12:36
You've had a chance to speak with so many people across the world.
258
756026
3136
전 세계 수많은 사람을 만날 기회가 많으시잖아요.
12:39
I think for some of us --
259
759186
1239
많은 분들이,
12:40
I speak for myself, I don't know if others feel this --
260
760449
2692
다른 분들의 생각은 모르지만, 개인적으로는
12:43
there's kind of been a disappointment of:
261
763165
1996
약간의 실망감이 있어요.
12:45
Where are the leaders?
262
765185
1859
리더는 어디로 갔을까?
12:47
So many of us have been disappointed --
263
767068
2314
리더의 부재가 많은 이들에게 실망감을 남깁니다.
12:49
Aung San Suu Kyi, what's happened recently,
264
769406
2016
최근 아웅산 수치의 경우도 그랬어요.
12:51
it's like, "No! Another one bites the dust."
265
771446
2085
"안돼! 또 한명이 실패했군"
12:53
You know, it's heartbreaking.
266
773555
1599
가슴 아픈 일이에요.
12:55
(Laughter)
267
775178
1235
(웃음)
12:56
Who have you met
268
776437
2021
당신이 만난 사람 중,
12:58
who you have been impressed by, inspired by?
269
778482
2870
인상 깊고 감명 받았던 리더가 있나요?
13:01
CA: Well, you talk about the world in crisis,
270
781376
2504
크리스티안: 위기를 맞은 세계를 말씀하신다면
13:03
which is absolutely true,
271
783904
1354
전적으로 위기가 맞아요.
13:05
and those of us who spend our whole lives immersed in this crisis --
272
785282
4487
위기 속에서 삶을 살아왔죠.
13:09
I mean, we're all on the verge of a nervous breakdown.
273
789793
2993
우리 모두 신경쇠약 직전까지 왔어요.
13:12
So it's pretty stressful right now.
274
792810
2676
스트레스가 상당한 시기에요.
13:15
And you're right --
275
795510
1159
당신의 말에 동의해요.
13:16
there is this perceived and actual vacuum of leadership,
276
796693
3110
지금 모두가 느낄 수 있는 리더십의 공백이 있습니다.
13:19
and it's not me saying it, I ask all these --
277
799827
2850
저만의 의견이 아니라, 모든 인터뷰이에게
13:22
whoever I'm talking to, I ask about leadership.
278
802701
2453
리더십에 대해 질문하면 같은 답을 해요.
13:25
I was speaking to the outgoing president of Liberia today,
279
805178
4510
오늘 퇴임을 앞둔 라이베리아 대통령과 대화를 했어요.
13:29
[Ellen Johnson Sirleaf,]
280
809712
1810
[엘렌 존슨 설리프]
13:31
who --
281
811546
1154
그분은
13:32
(Applause)
282
812724
2215
(박수)
13:34
in three weeks' time,
283
814963
1542
3주 후,
13:36
will be one of the very rare heads of an African country
284
816529
3944
아프리카 국가 중 보기 드물게,
13:40
who actually abides by the constitution
285
820497
2178
헌법에 의거하여 정해진 임기를 마치고
13:42
and gives up power after her prescribed term.
286
822699
3612
퇴임을 하게 됩니다.
13:46
She has said she wants to do that as a lesson.
287
826335
3857
퇴임하여 교훈을 남기고 싶다고 하셨죠.
13:50
But when I asked her about leadership,
288
830216
2032
그녀에게 리더십을 질문하며
13:52
and I gave a quick-fire round of certain names,
289
832272
2683
속사포로 몇몇 이름을 거론했어요.
13:54
I presented her with the name of the new French president,
290
834979
2977
프랑스 새 대통령도 거론했어요.
13:57
Emmanuel Macron.
291
837980
1433
에마뉘엘 마크롱.
13:59
And she said --
292
839437
1336
14:00
I said, "So what do you think when I say his name?"
293
840797
2506
"이 사람은 어떻게 생각하세요?" 제가 물었죠.
14:03
And she said,
294
843327
1273
그녀는
14:05
"Shaping up potentially to be
295
845578
2325
"현재의 리더십 공백을 채울 수 있는
14:07
a leader to fill our current leadership vacuum."
296
847927
4066
리더로 성장해가고 있는 중"
14:12
I thought that was really interesting.
297
852017
1833
굉장히 흥미로웠어요.
14:13
Yesterday, I happened to have an interview with him.
298
853874
2456
어제 공교롭게 그를 인터뷰했어요.
자랑스럽게 말하고 싶은데요.
14:16
I'm very proud to say,
299
856354
1158
14:17
I got his first international interview. It was great. It was yesterday.
300
857536
3419
그의 첫 국제 인터뷰였어요. 훌륭했어요. 바로 어제요.
굉장히 인상 깊었어요.
14:20
And I was really impressed.
301
860979
1292
공개 토론회에서 말해도 되는지 모르겠지만,
14:22
I don't know whether I should be saying that in an open forum,
302
862295
2928
정말 인상 깊었어요.
14:25
but I was really impressed.
303
865247
1455
14:26
(Laughter)
304
866726
1218
(웃음)
첫 인터뷰라 그랬을 수도 있겠죠.
14:28
And it could be just because it was his first interview,
305
868867
2675
14:31
but -- I asked questions, and you know what?
306
871566
2095
그렇지만 제가 질문을 던지니,
14:33
He answered them!
307
873685
1208
모두 대답을 하더군요!
14:34
(Laughter)
308
874917
1933
(웃음)
14:36
(Applause)
309
876874
3269
(박수)
14:40
There was no spin,
310
880167
1593
돌려 말하지 않았고,
14:41
there was no wiggle and waggle,
311
881784
2391
흔들림이 없었어요
14:44
there was no spend-five-minutes- to-come-back-to-the-point.
312
884199
2829
5분을 허비하고 쟁점으로 돌아가지도 않았어요.
14:47
I didn't have to keep interrupting,
313
887052
1668
그의 말을 끊어 갈 필요도 없었어요.
14:48
which I've become rather renowned for doing,
314
888744
2083
제 질문에 인터뷰이가 답변하게 하려고,
14:50
because I want people to answer the question.
315
890851
2532
말을 끊기로 유명하잖아요.
14:53
And he answered me,
316
893407
2051
그는 대답을 하더군요.
14:55
and it was pretty interesting.
317
895482
2614
굉장히 흥미로웠어요.
14:58
And he said --
318
898120
1431
그가 말했죠.
14:59
CH: Tell me what he said.
319
899575
1778
크리스: 그가 무슨 말을 했나요?
15:01
CA: No, no, you go ahead.
320
901377
1220
크리스티안: 먼저 말씀하세요.
15:02
CH: You're the interrupter, I'm the listener.
321
902621
2228
크리스: 말씀하세요. 전 듣는 역할이니깐요.
15:04
CA: No, no, go ahead.
322
904873
1158
크리스티안: 아니요, 말씀하세요.
15:06
CH: What'd he say?
323
906055
1155
크리스: 그가 무슨 말을 했나요?
15:07
CA: OK. You've talked about nationalism and tribalism here today.
324
907234
3078
크리스티안: 오늘 민족주의와 신(新)부족주의를 논의하셨죠.
질문했습니다. "반세계화, 민족주의,포퓰리즘에
15:10
I asked him, "How did you have the guts to confront the prevailing winds
325
910336
3762
대항할 용기를 어떻게 가지셨어요?
15:14
of anti-globalization, nationalism, populism
326
914122
4535
15:18
when you can see what happened in Brexit,
327
918681
1962
브렉시트가 발생했고,
15:20
when you could see what happened in the United States
328
920667
2555
미국도 마찬가지였어요.
2017년 초기 유럽 국가 선거에서도
15:23
and what might have happened in many European elections
329
923246
2595
15:25
at the beginning of 2017?"
330
925865
1717
유사한 흐름이 있었어요."
15:27
And he said,
331
927606
1319
그가 답했습니다.
15:29
"For me, nationalism means war.
332
929597
3274
"저에게 민족주의란 전쟁을 의미합니다.
15:33
We have seen it before,
333
933486
1673
민족주의로 인한 전쟁을 본 적있고,
15:35
we have lived through it before on my continent,
334
935183
2258
유럽 대륙은 이미 전쟁을 겪었습니다.
15:37
and I am very clear about that."
335
937465
2686
제 생각은 매우 명확합니다."
15:40
So he was not going to, just for political expediency,
336
940175
3961
그는 정치적 편의만을 위해
15:44
embrace the, kind of, lowest common denominator
337
944160
3442
다른 정치 선거에서 포섭된
15:47
that had been embraced in other political elections.
338
947626
4005
대세에 편승하지 않았습니다.
15:51
And he stood against Marine Le Pen, who is a very dangerous woman.
339
951655
4441
그리고 매우 위험한 여성 정치인, 마린 르 펜에 반대하였어요.
15:56
CH: Last question for you, Christiane.
340
956928
2032
크리스: 마지막 질문 드릴게요.
16:00
TED is about ideas worth spreading.
341
960093
1998
공유할 만한 가치가 있는 아이디어를 말해주세요.
16:02
If you could plant one idea into the minds of everyone here,
342
962115
4647
한 가지 아이디어를 모두의 마음에 심어주고 싶다면,
16:06
what would that be?
343
966786
1197
무엇일까요?
16:08
CA: I would say really be careful where you get your information from;
344
968007
5114
크리스티안: 정보 원천을 잘 살피라고 말씀드리고 싶어요.
16:13
really take responsibility for what you read, listen to and watch;
345
973145
5322
읽고 듣고 보는 정보에 대한 책임감을 가져야해요.
16:18
make sure that you go to the trusted brands to get your main information,
346
978491
4887
주요 정보를 신뢰할 수 있는 브랜드에서 얻으세요.
16:23
no matter whether you have a wide, eclectic intake,
347
983402
4689
다방면에 걸쳐 폭넓게 정보를 접한다고 해도,
16:28
really stick with the brand names that you know,
348
988115
2995
이미 알고 있는 브랜드를 고수하세요.
16:31
because in this world right now, at this moment right now,
349
991134
3592
지금 이 순간, 오늘날의 세계는
16:34
our crises, our challenges, our problems are so severe,
350
994750
4339
심각한 위기와 도전, 문제를 겪고 있습니다.
16:39
that unless we are all engaged as global citizens
351
999113
3551
세계 시민으로서, 진실을 추구하고
16:42
who appreciate the truth,
352
1002688
1903
과학, 실증적 증거와 사실을 이해하며
16:44
who understand science, empirical evidence and facts,
353
1004615
4345
이 문제에 다함께 관여하지 않으면,
16:48
then we are just simply going to be wandering along
354
1008984
3499
그저 헤매다가
16:52
to a potential catastrophe.
355
1012507
1961
잠재적 재앙을 맞을지도 모릅니다.
16:54
So I would say, the truth,
356
1014492
1364
'진실'을 먼저 말하고 싶습니다.
16:55
and then I would come back to Emmanuel Macron
357
1015880
2256
다시 에마뉘엘 마크롱으로 돌아가
16:58
and talk about love.
358
1018160
1300
사랑에 대해 말하고 싶습니다.
17:00
I would say that there's not enough love going around.
359
1020022
4469
충분한 사랑이 부족한 시대지요.
17:04
And I asked him to tell me about love.
360
1024515
2692
그래서 그에게 사랑에 대해 물었어요.
17:07
I said, "You know, your marriage is the subject of global obsession."
361
1027231
3592
"당신의 결혼에 대해 전세계가 집착하고 있어요"
17:10
(Laughter)
362
1030847
1635
(웃음)
17:12
"Can you tell me about love?
363
1032506
1413
"사랑에 대해 말해줄 수 있나요?
17:13
What does it mean to you?"
364
1033943
1314
당신에게 사랑은 무슨 의미인가요?"
17:15
I've never asked a president or an elected leader about love.
365
1035281
2941
대통령이나 당선인에게 사랑에 대해 물어본 적 없었어요.
시도해보기로 했죠.
17:18
I thought I'd try it.
366
1038246
1158
17:19
And he said -- you know, he actually answered it.
367
1039428
3915
대답을 했어요 정말요.
17:23
And he said, "I love my wife, she is part of me,
368
1043367
4161
"저는 아내를 사랑합니다. 아내는 저의 일부입니다.
17:27
we've been together for decades."
369
1047552
1627
수십년간 함께 해왔어요."
17:29
But here's where it really counted,
370
1049203
1685
가장 중요한 말이 남았어요.
17:30
what really stuck with me.
371
1050912
1503
그 말이 뇌리에 박혔어요.
17:32
He said,
372
1052439
1241
그가 말했어요.
17:33
"It is so important for me to have somebody at home
373
1053704
3520
"집에 갔을 때, 저에게 진실을 말해줄
17:37
who tells me the truth."
374
1057248
1899
사람이 있다는 것은 저에게 매우 중요합니다."
17:40
So you see, I brought it home. It's all about the truth.
375
1060618
2712
이 말을 집으로 가져왔죠. 진실이 관건입니다.
(웃음)
17:43
(Laughter)
376
1063354
1006
크리스: 공유할 만한 가치가 있는 아이디어는 진실과 사랑이네요.
17:44
CH: So there you go. Truth and love. Ideas worth spreading.
377
1064384
2807
17:47
Christiane Amanpour, thank you so much. That was great.
378
1067215
2663
크리스티안 아만포 앵커, 감사합니다. 훌륭했어요.
17:49
(Applause)
379
1069902
1068
(박수)
17:50
CA: Thank you. CH: That was really lovely.
380
1070994
2334
CA: 감사합니다 CH: 좋은 시간이었어요.
17:53
(Applause)
381
1073352
1215
(박수)
17:54
CA: Thank you.
382
1074591
1165
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7