How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views

2017-07-28 ・ TED


New videos

How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: JY Kang 검토: Boram Cho
00:12
I want you to imagine
0
12960
1200
한번 상상해보세요.
00:15
walking into a room,
1
15000
1200
어떤 방에 들어갑니다.
00:17
a control room with a bunch of people,
2
17480
2136
사람들로 가득한 어느 조종실입니다.
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
작은 다이얼이 있는 책상에 100명의 사람들이 앉아 있습니다.
00:23
and that that control room
4
23280
1520
그 조종실에서 하는 일이
00:25
will shape the thoughts and feelings
5
25680
3696
10억 명 사람들의 생각과 감정을 조종하는 일이라고 상상해보세요.
00:29
of a billion people.
6
29400
1240
00:32
This might sound like science fiction,
7
32560
1880
공상 과학 소설 같은 얘기지만
00:35
but this actually exists
8
35320
2216
이런 곳이 실제로 존재합니다.
00:37
right now, today.
9
37560
1200
바로 지금, 오늘날 말이죠.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
제가 한때 그런 조종실에서 일했던 사람이라서 잘 압니다.
00:44
I was a design ethicist at Google,
11
44159
2297
저는 구글의 디자인 윤리학자였습니다.
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
윤리적 범위에서 사람들의 생각을 조종하는 방법을 연구했죠.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
여러분이 모르는 사실은
불과 극소수의 IT 기업에서 일하는 극소수의 사람들이
00:53
working at a handful of technology companies
14
53480
2536
오늘날 자그마치 10억 명 사람들의 생각을
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
그들 마음대로 조종하고 있다는 것입니다.
01:02
Because when you pull out your phone
16
62400
1736
스마트폰을 꺼내는 순간, 그 작동 방식과 알림 메세지는
01:04
and they design how this works or what's on the feed,
17
64160
3096
그들이 이미 설계한 대로 짧은 순간에 우리가 어떤 생각을 하도록 만듭니다.
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
알림 메세지를 보는 순간에
나도 모르게 어떤 생각을 하게 만들고,
01:13
that maybe you didn't intend to have.
20
73680
2040
01:16
If you swipe over that notification,
21
76400
2616
그 메세지를 밀어서 확인하는 순간
01:19
it schedules you into spending a little bit of time
22
79040
2381
거기에 빠져 잠깐이라도 시간을 허비하도록 만드는 거예요.
01:21
getting sucked into something
23
81445
1381
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
여러분이 그럴 의도가 없었다 해도 말이죠.
01:27
When we talk about technology,
25
87320
1520
보통 우리는 테크놀로지가
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
무한한 가능성의 기회를 준다고 말하곤 합니다.
01:32
It could go any direction.
27
92760
1480
어느 방향으로든 발전할 수 있다고 보죠.
01:35
And I want to get serious for a moment
28
95400
1856
그런데 제가 진지하게 말씀드리고 싶은 것은
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
기술이 아주 특정한 방향으로 나아가고 있다는 사실입니다.
01:40
Because it's not evolving randomly.
30
100840
2200
기술은 아무렇게나 진화하지 않습니다.
01:44
There's a hidden goal driving the direction
31
104000
2016
우리가 만드는 모든 기술은 한 가지 숨겨진 목적을 두고 발전해 나갑니다.
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
우리의 관심을 끌기 위해 경쟁하는 것이죠.
01:52
Because every news site,
34
112840
2736
모든 뉴스 웹사이트와
01:55
TED, elections, politicians,
35
115600
2736
TED, 선거, 정치인,
01:58
games, even meditation apps
36
118360
1976
게임, 심지어 명상 앱까지도
02:00
have to compete for one thing,
37
120360
1960
모두 단 한 가지를 위해 경쟁합니다.
02:03
which is our attention,
38
123160
1736
우리의 관심이죠.
02:04
and there's only so much of it.
39
124920
1600
그런데 인간의 관심은 한계가 있습니다.
02:08
And the best way to get people's attention
40
128440
2416
사람들의 관심을 끄는 최고의 방법은
02:10
is to know how someone's mind works.
41
130880
2440
인간의 사고방식을 이해하는 겁니다.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
그리고 거기에는 무수히 많은 설득 기술이 동원되죠.
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
제가 대학원 시절, 이른바 설득 기술 연구실에서 배운 것은
02:19
to get people's attention.
44
139680
1600
사람들의 관심을 끄는 기술이었습니다.
02:21
A simple example is YouTube.
45
141880
1480
간단한 예로 유튜브가 있죠.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
유튜브는 여러분이 최대한 오래 사이트에 머물러 있기를 바랍니다.
02:26
And so what do they do?
47
146960
1200
그래서 어떻게 했을까요?
02:28
They autoplay the next video.
48
148840
2280
다음 영상을 자동 재생합니다.
02:31
And let's say that works really well.
49
151760
1816
그게 아주 효과가 좋았다고 치죠. 사람들의 시간을 좀 더 뺐었어요.
02:33
They're getting a little bit more of people's time.
50
153600
2416
넷플릭스는 그걸 보고 이렇게 말할 겁니다.
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
"저러면 우리 시장 지분이 줄어들잖아."
02:38
well, that's shrinking my market share,
52
158440
1858
"우리도 다음 화를 자동 재생해야지."
02:40
so I'm going to autoplay the next episode.
53
160322
2000
02:43
But then if you're Facebook,
54
163320
1376
페이스북이라면 또 이럴 거예요.
02:44
you say, that's shrinking all of my market share,
55
164720
2336
"저게 우리 시장 지분을 다 뺏어가네."
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
"그럼 우린 게시글의 모든 영상을 클릭도 하기 전에 자동 재생해야지."
02:49
before waiting for you to click play.
57
169760
1762
02:52
So the internet is not evolving at random.
58
172320
3160
이렇게 인터넷은 아무렇게나 진화하지 않습니다.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
이런 식으로 우리가 인터넷에 중독되어 가는 느낌이 드는 이유는
03:00
is because of this race for attention.
60
180760
2376
바로 이 관심을 위한 경쟁 때문입니다.
03:03
We know where this is going.
61
183160
1416
이 방향으로 가고 있어요.
03:04
Technology is not neutral,
62
184600
1520
기술은 중립적이지 않습니다.
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
인간의 뇌 중심 깊은 곳까지 누가 먼저 도달할지 경쟁하는 거죠.
03:10
of who can go lower to get it.
64
190760
2200
03:13
Let me give you an example of Snapchat.
65
193920
2336
스냅챗의 예를 말씀드리겠습니다.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
아실지 모르겠지만
스냅챗은 미국 10대들이 가장 많이 쓰는 메신저입니다.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
저 같은 세대가 문자로 연락하듯이
03:26
Snapchat is that for teenagers,
69
206480
1776
10대 아이들은 스냅챗을 이용하죠. 약 1억 명이 사용하고 있습니다.
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
스냅챗은 '스냅 스트리크'라는 기술을 개발했습니다.
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
두 사람이 서로 매일 연락하며 대화를 유지한 기간을 보여주는 기능이죠.
03:33
which shows the number of days in a row
72
213240
1896
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
즉 스냅챗은 이 두 사람에게
03:39
is they gave two people something they don't want to lose.
75
219680
2960
잃고 싶지 않은 무언가를 만들어 준 거라고 할 수 있습니다.
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
왜냐면 여러분이 10대이고 누군가와 150일간 매일 대화했다면
03:47
you don't want that to go away.
77
227480
1976
그걸 계속 간직하고 싶거든요.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
그렇게 하루에도 여러 번 스냅챗을 붙잡도록 아이들의 마음을 조종하죠.
이론상으로만 그렇다는 게 아니에요.
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
아이들이 여행을 가야 할 때는 친구 다섯 명에게 비밀번호를 넘기고
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
03:59
to keep their Snapstreaks going,
81
239800
2216
연속 대화를 유지한다는 조사 결과도 있습니다.
04:02
even when they can't do it.
82
242040
2016
자기가 스냅챗을 못 하더라도요.
04:04
And they have, like, 30 of these things,
83
244080
1936
이런 걸 30개 정도 갖고 있으면서
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
벽이나 천장 사진 같은 걸 대충 찍어 올려서라도
04:09
or ceilings just to get through their day.
85
249440
2480
그날의 연속 대화를 이어가는 거죠.
04:13
So it's not even like they're having real conversations.
86
253200
2696
진짜 대화를 나누는 것도 아닙니다.
04:15
We have a temptation to think about this
87
255920
1936
이걸 우리는 쉽게 생각합니다.
04:17
as, oh, they're just using Snapchat
88
257880
2696
"옛날에 우리가 전화로 수다 떨듯이 요즘 애들은 스냅챗을 쓰는 거네."
04:20
the way we used to gossip on the telephone.
89
260600
2016
04:22
It's probably OK.
90
262640
1200
"별 문제 없겠지."
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
하지만 지금과 70년대는 다릅니다.
04:26
when you were just gossiping on the telephone,
92
266760
2615
여러분이 전화로 수다 떨 때는
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
화면 뒤에 숨은 100명의 기술자가
04:32
who knew exactly how your psychology worked
94
272440
2056
여러분의 심리를 정확하게 파악해서
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
누가 먼저 끊지 못하도록 조종하지는 않았으니까요.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
이 얘기에 조금 화가 나실 수도 있는데요.
04:42
notice that that thought just comes over you.
97
282680
2576
바로 그 감정이 자연스럽게 일어나는 것에 주목해보세요.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
분노 또한 사람의 관심을 끄는 아주 탁월한 방법입니다.
04:49
because we don't choose outrage.
99
289880
1576
분노는 선택할 수 있는 게 아니라 그냥 일어나는 감정이기 때문이죠.
04:51
It happens to us.
100
291480
1416
04:52
And if you're the Facebook newsfeed,
101
292920
1856
페이스북 뉴스피드 개발자라면
04:54
whether you'd want to or not,
102
294800
1416
사람들이 원하든 원하지 않든 그 분노로 이익을 얻는 겁니다.
04:56
you actually benefit when there's outrage.
103
296240
2736
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
왜냐면 분노는 여러분이 감정적으로 시간을 소비하게 할 뿐만 아니라
05:01
in emotional time, space, for you.
105
301960
2880
05:05
We want to share that outrage with other people.
106
305440
2416
그 분노를 다른 사람들과 나누고 싶게 만들기 때문입니다.
05:07
So we want to hit share and say,
107
307880
1576
공유하기 버튼을 누르는 거죠.
05:09
"Can you believe the thing that they said?"
108
309480
2040
"얘네가 이런 말을 했다니 말이 돼?"
05:12
And so outrage works really well at getting attention,
109
312520
3376
이런 식으로 분노는 관심을 끄는 데에 아주 용이합니다.
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
만약 페이스북에 여러분이 분노할 만한 소식과
05:19
and a calm newsfeed,
111
319840
1320
잔잔한 소식을 선택하라고 하면
05:22
they would want to show you the outrage feed,
112
322120
2136
분노할 만한 것을 고를 겁니다.
05:24
not because someone consciously chose that,
113
324280
2056
누군가의 의도적 선택이라기보다
05:26
but because that worked better at getting your attention.
114
326360
2680
그게 여러분의 관심을 끌기에 더 효과적이기 때문이죠.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
뉴스피드 조종실은 우리에 대한 책임이 없습니다.
05:37
It's only accountable to maximizing attention.
116
337040
2296
단지 관심을 최대한 끄는 것만 책임지죠.
05:39
It's also accountable,
117
339360
1216
광고를 통해 수익을 내는 구조이기 때문에 더욱 그렇습니다.
05:40
because of the business model of advertising,
118
340600
2376
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
돈 많은 사람이 조종실을 찾아와서 이렇게 말하는 거죠.
05:46
and say, "That group over there,
120
346360
1576
"저 사람들의 머릿속에서 이런 생각을 하게 만들어주세요."
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
05:51
So you can target,
122
351760
1200
속이기 쉬운 대상을 골라서 정확하게 거짓말로 속일 수도 있습니다.
05:54
you can precisely target a lie
123
354040
1936
05:56
directly to the people who are most susceptible.
124
356000
2920
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
이건 돈이 되는 장사라 점점 더 악화할 겁니다.
06:05
So I'm here today
126
365040
1800
제가 오늘 여기 온 이유도
06:08
because the costs are so obvious.
127
368160
2000
치뤄야 할 대가가 뻔히 보이기 때문입니다.
06:12
I don't know a more urgent problem than this,
128
372280
2136
이보다 더 시급한 문제는 없어요.
06:14
because this problem is underneath all other problems.
129
374440
3120
왜냐면 이건 다른 모든 문제의 밑바탕에 깔려있기 때문입니다.
06:18
It's not just taking away our agency
130
378720
3176
우리가 무엇에 관심을 두고 어떻게 살아갈지를 결정하는
06:21
to spend our attention and live the lives that we want,
131
381920
2600
우리의 주체성을 빼앗을 뿐 아니라
06:25
it's changing the way that we have our conversations,
132
385720
3536
우리가 서로 대화하는 방식을 바꿔버리고
06:29
it's changing our democracy,
133
389280
1736
민주주의를 변질시키고
06:31
and it's changing our ability to have the conversations
134
391040
2616
상대방과 대화하는 능력 및 대인 관계를 맺는 능력에도 영향을 미칩니다.
06:33
and relationships we want with each other.
135
393680
2000
06:37
And it affects everyone,
136
397160
1776
모든 사람에게 영향을 미치죠.
06:38
because a billion people have one of these in their pocket.
137
398960
3360
10억 명의 사람들의 호주머니에 이런 게 하나씩 있으니까요.
06:45
So how do we fix this?
138
405360
1400
이 문제를 어떻게 해결하죠?
06:49
We need to make three radical changes
139
409080
2936
세 가지 근본적인 변화가 필요합니다.
06:52
to technology and to our society.
140
412040
1800
기술과 우리 사회에 있어서 말이죠.
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
첫째는, 우리가 설득당하기 쉽다는 걸 인정하는 겁니다.
07:00
Once you start understanding
142
420840
1376
우리가 자기도 모르게 여기저기 시간을 빼앗기며 수많은 생각을 하도록
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
07:05
or little blocks of time that you didn't choose,
144
425040
2576
조종될 수 있다는 것을 인정하면
07:07
wouldn't we want to use that understanding
145
427640
2056
그 사실을 오히려 역이용해서
07:09
and protect against the way that that happens?
146
429720
2160
그런 일이 생기지 않게 자신을 보호하려 하지 않을까요?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
우리 자신을 바라보는 방식을 근본적으로 바꿔야 합니다.
07:15
It's almost like a new period of human history,
148
435920
2216
인류의 새 시대가 열린 것이죠. 계몽주의 시대처럼요.
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
하지만 스스로 깨달아야 하는 계몽주의 시대인 거죠.
07:21
that we can be persuaded,
151
441640
2080
우리가 설득당할 수 있음을 깨닫고
07:24
and there might be something we want to protect.
152
444320
2240
그 사실로부터 보호해야 할 것이 있다고 말이죠.
07:27
The second is we need new models and accountability systems
153
447400
4576
둘째로, 새로운 모델과 책임 시스템이 필요합니다.
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
세상은 시간이 갈수록 점점 더 발전하면서
07:35
because it's only going to get more persuasive --
155
455520
2336
더욱 강력하게 설득하려는 방향으로만 가기 때문에
07:37
that the people in those control rooms
156
457880
1856
조종실에 있는 사람들이 우리가 원하는 것에
07:39
are accountable and transparent to what we want.
157
459760
2456
투명하고 책임감을 갖게 하는 시스템이 필요합니다.
07:42
The only form of ethical persuasion that exists
158
462240
2696
윤리적인 설득은 설득하는 이들의 목적이
07:44
is when the goals of the persuader
159
464960
1936
설득당하는 이들의 목적과
07:46
are aligned with the goals of the persuadee.
160
466920
2200
같을 때만 성립하기 때문입니다.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
즉, 이 기업들의 광고 수익 구조를 과감하게 물어볼 수도 있어야 합니다.
07:54
Lastly,
162
474720
1576
마지막으로
07:56
we need a design renaissance,
163
476320
1680
이런 설계에 대한 변화가 필요합니다.
07:59
because once you have this view of human nature,
164
479080
3056
무려 10억 명의 생각을 조종할 수 있게 하는
인간의 본성을 생각해보세요.
08:02
that you can steer the timelines of a billion people --
165
482160
2976
08:05
just imagine, there's people who have some desire
166
485160
2736
내가 원하는 대로 어떤 걸 하고 싶고,
08:07
about what they want to do and what they want to be thinking
167
487920
2856
생각하고, 느끼고, 알고 싶은데
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
그런 개개인의 욕구는 다 무시당한 채 누군가에 의해
08:13
and we're all just tugged into these other directions.
169
493960
2536
엉뚱한 방향으로 조종당하는 사람들이 수십억 명이나 됩니다.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
그러나 설계 전반에 걸쳐 르네상스적인 혁명을 일으키면
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
10억 명이 각자 자신의 시간을 가장 값지게 사용할 수 있는
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
가장 효과적인 방법을 지휘할 수 있습니다.
08:28
And that would involve two things:
174
508600
1656
여기에는 두 가지 요소가 있습니다.
08:30
one would be protecting against the timelines
175
510280
2136
첫째, 원치 않게 시간을 낭비하게 만드는 요소를 막는 것입니다.
08:32
that we don't want to be experiencing,
176
512440
1856
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
그래야 그런 상황이 일어나도 거기에 정신이 팔리지 않죠.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
둘째, 우리가 원하는 방향으로 시간을 보내는 것이 가능하도록 하는 겁니다.
08:43
So let me give you a concrete example.
180
523760
1880
구체적인 예를 들어 볼게요.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
친구가 오늘 밤 저녁 약속을 취소했다고 치죠.
08:48
and you are feeling a little bit lonely.
182
528760
3775
그러면 여러분은 조금 외로워지겠죠?
08:52
And so what do you do in that moment?
183
532559
1817
그럴 때는 뭘 하죠? 페이스북에 접속하겠죠.
08:54
You open up Facebook.
184
534400
1279
08:56
And in that moment,
185
536960
1696
바로 그 순간
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
페이스북 조종실에 있는 디자이너에겐 단 하나의 목표가 있죠.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
여러분이 최대한 오래 페이스북에 머물게 하는 겁니다.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
그런데 디자이너가 목표를 완전히 바꿔서
09:10
that was the easiest way, using all of their data,
189
550560
3496
가진 정보를 총동원해서 가장 간단한 방법으로
09:14
to actually help you get out with the people that you care about?
190
554080
3096
여러분이 좋아하는 사람들과 시간을 보내도록 도와준다면요?
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
우리가 사회에서 느끼는 모든 외로움이 이런 식으로 사라진다고 생각해보세요.
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
페이스북이 사람들을 위해 그렇게만 해준다면 말이죠.
09:26
Or imagine a different conversation.
193
566160
1715
아니면 다른 상황을 생각해보죠.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
엄청난 논란을 일으킬 글을 페이스북에 올린다고 치죠.
09:31
which is a really important thing to be able to do,
195
571240
2416
어떤 쟁점을 두고 서로 토론할 수 있다는 것은 무척 중요해요.
09:33
to talk about controversial topics.
196
573680
1696
09:35
And right now, when there's that big comment box,
197
575400
2336
페이스북에 새 게시물을 입력하는 커다란 창을 보면
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
마치 내가 입력한 것을 키워드 삼아
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
또 한참을 페이스북에 머물게 하려는 것 같아요.
09:44
you're going to continue to do on the screen.
200
584000
2136
만약 옆에 다른 버튼이 있어서
09:46
And imagine instead that there was another button there saying,
201
586160
2976
"가장 의미 있는 시간을 보내려면 뭘 하고 싶은가요?" 라 묻고
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
'저녁 식사 초대'를 눌러 포스팅하면
09:52
And right there underneath the item it said,
204
592840
2096
바로 밑에 '저녁 식사에 참여하기' 버튼이 나온다 생각해보세요.
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
여러분은 여전히 논란거리가 될 만한 주제로 대화를 나누지만
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
원하는 시간과 장소에서 대화를 하는 거예요.
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
바로 친구가 저녁을 취소한 그 날
다른 많은 친구들과 함께 논란거리로 열띤 대화를 나누는 거죠.
10:06
to talk about it.
209
606760
1200
10:09
So imagine we're running, like, a find and replace
210
609000
3160
워드 문서를 작성할 때 쓰는 '찾아 바꾸기' 기능처럼
10:13
on all of the timelines that are currently steering us
211
613000
2576
우리를 점점 더 인터넷 중독으로 만드는 모든 게시물을 찾아내서
10:15
towards more and more screen time persuasively
212
615600
2560
10:19
and replacing all of those timelines
213
619080
2536
이것을 우리가 실제 삶에서 하고 싶은 것으로 모두 바꾼다고 생각해보세요.
10:21
with what do we want in our lives.
214
621640
1640
10:26
It doesn't have to be this way.
215
626960
1480
꼭 이런 방식이 아니어도 됩니다.
10:30
Instead of handicapping our attention,
216
630360
2256
우리의 관심을 엉뚱한 데 허비하는 대신
10:32
imagine if we used all of this data and all of this power
217
632640
2816
수많은 데이터와 그것을 통제할 힘과 설득당하기 쉬운 인간의 본성을 이용해
10:35
and this new view of human nature
218
635480
1616
10:37
to give us a superhuman ability to focus
219
637120
2856
우리가 정말 원하는 것에 집중할 수 있는 초인적인 힘과
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
10:44
and a superhuman ability to have the conversations
221
644160
2616
민주주의에 필요한 소통을 할 수 있는 초인적인 힘을 갖는다고 생각해보세요.
10:46
that we need to have for democracy.
222
646800
2000
10:51
The most complex challenges in the world
223
651600
2680
세상에서 가장 어려운 과제는
10:56
require not just us to use our attention individually.
224
656280
3120
개개인의 관심뿐만 아니라
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
공동체 전체의 관심이 모일 때 비로소 해결할 수 있습니다.
11:04
Climate change is going to require that a lot of people
226
664440
2816
기후 변화를 해결하려면 많은 사람의 관심을
11:07
are being able to coordinate their attention
227
667280
2096
가장 강력한 방법으로 모아 힘을 실어야 합니다.
11:09
in the most empowering way together.
228
669400
1896
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
이런 문제를 해결할 수 있는 초인적인 힘이 생긴다고 생각해보세요.
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
가장 시급하고 중요한 문제는
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
우리가 미래에 일으킬지도 모를 가상의 문제가 아닙니다.
11:28
Sometimes the most pressing problems
232
688560
1736
가장 시급하고 중요한 문제는 바로 우리 코앞에 있는
11:30
are the ones that are right underneath our noses,
233
690320
2336
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
이미 10억 명 사람들의 생각을 조종하고 있는 것들입니다.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
증강현실, 가상현실이나 앞으로 펼쳐질 놀라운 기술에 열광하는 대신에
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
우리 관심을 끌려고 경쟁할 게 뻔한 그런 것에 열광할 것이 아니라
11:46
if we could fix the race for attention
238
706640
2176
이미 10억 명의 주머니에 든 휴대폰에서
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
우리의 관심을 끌려고 경쟁하는 것을 바로잡아야 하지 않을까요.
11:52
Maybe instead of getting excited
240
712040
1576
가장 멋진 최신 교육용 앱에 열광할 것이 아니라
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
내용 없는 문자를 주고받도록 아이들의 마음이 조종당하는 상황을
12:00
into sending empty messages back and forth.
243
720760
2480
바로잡아야 할 것입니다.
12:04
(Applause)
244
724040
4296
(박수)
12:08
Maybe instead of worrying
245
728360
1256
한 가지 목표만 극대화하려는
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
인공지능을 통제할 수 없게 되는 가상의 미래를 걱정하는 대신
12:13
that are maximizing for one goal,
247
733440
1880
12:16
we could solve the runaway artificial intelligence
248
736680
2656
우리는 이미 존재하는 인공지능을 통제할 수 있어야 합니다.
12:19
that already exists right now,
249
739360
2056
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
바로 단 한 가지 목표인 우리의 관심을 끄는 것을 극대화하려는 뉴스피드를요.
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
새로운 행성을 식민지로 만들려고 밖으로만 나갈 것이 아니라
12:29
we could fix the one that we're already on.
252
749920
2056
우리가 살고 있는 이곳을 바로잡을 수 있어야 합니다.
12:32
(Applause)
253
752000
4120
(박수)
12:40
Solving this problem
254
760040
1776
이 문제의 해법이
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
다른 모든 문제를 해결할 수 있는 가장 중요한 기반이 될 것입니다.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
우리의 삶과 사회의 모든 문제는
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
우리가 정말 소중히 여기는 것에 관심을 둘 때만 해결할 수 있습니다.
12:55
At the end of our lives,
258
775800
1240
우리가 삶을 마감할 때
12:58
all we have is our attention and our time.
259
778240
2640
결국 남는 건 우리의 관심과 시간입니다.
13:01
What will be time well spent for ours?
260
781800
1896
우리는 어떤 시간을 보내야 할까요?
13:03
Thank you.
261
783720
1216
고맙습니다.
13:04
(Applause)
262
784960
3120
(박수)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: 트리스탄 씨. 고맙습니다. 잠시 얘기 나누실까요.
13:20
First of all, thank you.
264
800720
1336
우선, 고맙습니다.
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
제가 듣기로 갑자기 강연을 요청받으셨다고 하던데요.
13:24
and you've had quite a stressful week
266
804880
2216
강연 준비를 하시느라 힘든 한 주를 보내셨겠어요.
13:27
getting this thing together, so thank you.
267
807120
2440
감사합니다.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
중독에 관한 문제를 지적하셨는데요.
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
그런데 사람들이 실제로 즐기고 있다고 할 수도 있잖아요.
이런 건 사용자가 무척 흥미롭게 느낄 내용으로 설계가 되어 있어요.
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
13:42
The world's more interesting than it ever has been.
272
822600
2416
세상이 역사상 이렇게 재밌던 적은 없었는데, 무엇이 잘못된 걸까요?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: 좋은 질문이네요.
그걸 설명하는 한 가지 방법은, 예를 들어 유튜브를 보세요.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
13:52
you want to always show the more interesting next video.
276
832640
2656
흥미를 느낄 만한 다음 영상을 보여주고 더 흥미로운 다음 영상을 또 제시하죠.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
하지만 심지어 모두가 보고 싶어 하는 완벽한 다음 영상을 소개하더라도
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
계속해서 우릴 화면에 붙잡아야 유튜브엔 좋은 일이란 거죠.
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
그 공식에 빠진 게 있는데요.
14:05
So what's missing in that equation
281
845880
1656
그 끝이 어딘지 알아야 한다는 것이죠.
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
내가 졸린다는 걸 유튜브도 알아야 하잖아요.
넷플릭스 사장이 최근에 이런 말을 했는데요.
14:12
The CEO of Netflix recently said,
284
852960
1616
자신들의 최대 경쟁자는 페이스북, 유튜브, 그리고 졸음이라고 했죠.
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
우리가 알아야 할 것은, 인간의 구조에는 한계가 있다는 사실입니다.
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
우리 삶에는 일정한 경계와 공간이 있고
14:24
that we want to be honored and respected,
288
864840
1976
우리는 그 경계와 공간을 지키고 싶어 해요.
14:26
and technology could help do that.
289
866840
1816
기술이 그걸 도울 수 있습니다.
14:28
(Applause)
290
868680
2616
(박수)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: 그러니까 문제점 중의 하나가
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
인간 본성에 대한 모델이 너무 순진하다는 거죠?
14:39
So much of this is justified in terms of human preference,
293
879120
2736
인간이 선호한다는 이유로 대부분이 정당화되고
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
인간의 기호에 맞게 놀랍도록 최적화하는 알고리즘을 갖고 있는데
14:44
of optimizing for human preference,
295
884520
1696
14:46
but which preference?
296
886240
1336
선호한다는 게 다 같은 건 아니니까요.
14:47
There's the preferences of things that we really care about
297
887600
3496
곰곰이 생각해본 후 정말로 원해서 선택하는 것이 있고
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
반면에, 본능적으로 클릭하는 것도 선호하는 것이라고 할 수 있잖아요.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
인간 본성에 대한 그 미묘한 관점의 차이를 설계에 반영한다면
15:00
would that be a step forward?
301
900280
1456
진전이 있지 않을까요?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: 물론입니다. 제 생각에는
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
현재 기술은 기본적으로 우리의 본능만 건드리는 것 같습니다.
의미가 없더라도 충동적으로 1초라도 더 머물게 하려는
15:07
what's the best way to just impulsively get you to do
304
907280
2496
15:09
the next tiniest thing with your time,
305
909800
2136
가장 효과적인 방법이 무엇일까만 연구하죠.
15:11
instead of asking you in your life
306
911960
1656
인생에 주어진 시간을 어떻게 해야 가장 잘 보낼 수 있는지, 혹은
15:13
what we would be most time well spent for you?
307
913640
2176
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
TED 콘퍼런스의 마지막 날 콘퍼런스가 끝난 후를 포함해
어떻게 해야 시간을 완벽하게 잘 썼다고 할 수 있을지 묻는 대신에요.
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
CA: 그러니까 페이스북이나 구글 같은 데서
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
이런 메세지를 먼저 띄워야겠네요.
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"사고의 측면을 최적화할까요, 아니면 본능 측면을 최적화할까요?
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
선택하세요."
TH: 그렇습니다. 그것도 방법이죠.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA: 설득도 언급하셨는데요. 흥미로운 단어라고 생각합니다.
15:37
because to me there's two different types of persuadability.
315
937240
2856
왜냐면, 제가 보기엔 설득에는 두 종류가 있는 것 같은데요.
15:40
There's the persuadability that we're trying right now
316
940120
2536
설득의 하나는 지금도 우리가 하고 있는 거죠.
15:42
of reason and thinking and making an argument,
317
942680
2176
판단하고, 생각하고, 논쟁을 벌이죠.
15:44
but I think you're almost talking about a different kind,
318
944880
2696
그런데 강연에서는 다른 종류의 설득,
더 본능적인 설득을 말씀하신 것 같아요.
15:47
a more visceral type of persuadability,
319
947590
1906
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
생각할 새도 없이 설득당하는 건가요?
TH: 바로 그겁니다. 제가 그걸 문제로 삼는 이유가 있는데요.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
제가 있었던 스탠퍼드대의 설득 기술 연구실이라는 곳에서는
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
말씀하신 바로 그 기술을 가르쳤어요.
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
그 은밀한 기술을 알려주는 학술 대회와 워크숍도 있죠.
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
사람들의 관심을 끌고, 그들 삶을 조작하는 기술이죠.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
대부분의 사람은 그런 게 있는지도 모르기 때문에
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
이런 대화를 나누는 것이 의미가 있죠.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: 저나 트리스탄 씨나 이쪽 분야에 지인이 많은데요.
16:15
There are actually many here in the room,
329
975520
1976
이 강연장에도 많은 분이 계시고요.
16:17
and I don't know about you, but my experience of them
330
977520
2477
트리스탄 씨는 어떨지 모르지만 제가 경험한 바로는
모두 선의로 이 일을 하고 있어요.
16:20
is that there is no shortage of good intent.
331
980021
2075
16:22
People want a better world.
332
982120
2176
사람들은 더 나은 세상을 원하니까요.
16:24
They are actually -- they really want it.
333
984320
3520
다들 더 나은 세상을 진정으로 원합니다.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
트리스탄 씨도 강연에서 이들이 나쁜 사람이라고 말씀하신 것 같지는 않아요.
16:32
It's a system where there's these unintended consequences
335
992520
3696
통제하지 못할 정도로 의도하지 않은 결과를 만드는 시스템이 문제인 거죠.
16:36
that have really got out of control --
336
996240
1856
TH: 관심을 끌려는 경쟁이죠.
16:38
TH: Of this race for attention.
337
998120
1496
더 본능적인 것을 자극해 관심을 끌려는 전형적 방식이죠. 너무 치열해요.
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
16:42
and it's so tense.
339
1002840
1216
더 많은 관심을 얻는 유일한 방법은 뇌의 중심까지 파고드는 거예요.
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
우리의 분노와 감정까지 파고들어가고
16:49
to go lower into the lizard brain.
342
1009280
1696
우리 본능까지 자극하고 있습니다.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: 감사합니다. 덕분에 이 문제에 더 현명하게 대처할 수 있겠네요.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
CA: 트리스탄 해리 씨였습니다. TH: 감사합니다.
16:57
(Applause)
345
1017280
2240
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7