How we need to remake the internet | Jaron Lanier

430,989 views ・ 2018-05-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: JY Kang 검토: Noh kyua
00:12
Back in the 1980s, actually, I gave my first talk at TED,
0
12944
4009
1980년대에 제가 TED에서 처음으로 강연했을 때
00:16
and I brought some of the very, very first public demonstrations
1
16977
4262
최초로 가상 현실 기술을 공개 시연한 적이 있습니다.
00:21
of virtual reality ever to the TED stage.
2
21263
4234
이 TED 무대에서 처음으로 말이죠.
00:26
And at that time, we knew that we were facing a knife-edge future
3
26375
6867
우리는 그때 이미 불안한 미래와 직면했음을 알고 있었습니다.
00:33
where the technology we needed,
4
33266
5201
우리가 원했던 기술과
00:38
the technology we loved,
5
38491
1851
소중히 생각했던 기술 때문에
00:40
could also be our undoing.
6
40366
2047
파멸하게 될지 모를 미래 말이죠.
00:43
We knew that if we thought of our technology
7
43266
4091
우리가 깨닫게 된 것은
만약 우리의 기술을 더 강한 권력을 얻는 수단으로 생각하고
00:47
as a means to ever more power,
8
47381
3254
00:50
if it was just a power trip, we'd eventually destroy ourselves.
9
50659
3707
그 힘을 과시하다보면 결국 스스로 파멸하게 될 거란 사실이었습니다.
00:54
That's what happens
10
54390
1181
그렇게 될 겁니다.
00:55
when you're on a power trip and nothing else.
11
55595
2787
기술을 남용하기만 한다면 말이죠.
00:59
So the idealism
12
59509
3389
그 당시의 이상주의적인
01:02
of digital culture back then
13
62922
4809
디지털 문화는
01:07
was all about starting with that recognition of the possible darkness
14
67755
4739
기술이 가진 어두운 측면의 가능성을 파악하고
01:12
and trying to imagine a way to transcend it
15
72518
3350
그것을 뛰어넘을 방법을 찾고자 노력하는 것이었습니다.
01:15
with beauty and creativity.
16
75892
2578
미적 감각과 창의성을 통해서 말이죠.
01:19
I always used to end my early TED Talks with a rather horrifying line, which is,
17
79033
6507
제가 초기에 TED 강연을 할 때는 이런 무서운 말로 끝맺곤 했습니다.
01:26
"We have a challenge.
18
86478
3866
"우리에게는 한가지 숙제가 있습니다.
01:30
We have to create a culture around technology
19
90368
4024
우리는 기술을 둘러싼 문화를 창조해야 합니다.
01:34
that is so beautiful, so meaningful,
20
94416
3968
아름답고, 의미 있고
01:38
so deep, so endlessly creative,
21
98408
2541
깊이 있고, 무한히 창의적이고
01:40
so filled with infinite potential
22
100973
3016
무한한 잠재력을 가진 문화 말이죠.
01:44
that it draws us away from committing mass suicide."
23
104013
3253
그래야 집단 자살을 막을 수 있습니다."
01:48
So we talked about extinction as being one and the same
24
108519
5588
그래서 인류의 멸종에 대해서도 토론이 이루어졌습니다.
매혹적이고 무한한 창의성을 가진 미래의 필요성에 덧붙여서 말이죠.
01:54
as the need to create an alluring, infinitely creative future.
25
114131
4830
01:59
And I still believe that that alternative of creativity
26
119639
5382
그리고 여전히 제 생각에는
죽음 대신에 창의성을 선택하는 쪽이
02:05
as an alternative to death
27
125045
1974
02:07
is very real and true,
28
127043
1969
현실인 것 같습니다.
02:09
maybe the most true thing there is.
29
129036
1983
어쩌면 가장 사실적인 문제죠.
02:11
In the case of virtual reality --
30
131870
2095
가상 현실의 경우에는..
02:13
well, the way I used to talk about it
31
133989
2282
제가 이 주제로 얘기할 때마다
02:16
is that it would be something like
32
136295
2635
한가지 비유를 들곤 하는 것이
02:18
what happened when people discovered language.
33
138954
2850
인간이 언어를 발명했을 때입니다.
02:21
With language came new adventures, new depth, new meaning,
34
141828
4675
언어를 통해서 새로운 모험을 만나고, 새로운 깊이와 새로운 의미를 얻고
02:26
new ways to connect, new ways to coordinate,
35
146527
2080
새로운 연락 방법, 새로운 협력 수단
02:28
new ways to imagine, new ways to raise children,
36
148631
4034
새로운 생각 수단, 새로운 자녀 양육법이 생겼죠.
02:32
and I imagined, with virtual reality, we'd have this new thing
37
152689
4262
그리고 제가 상상했던 가상현실이 가져올 새로운 기술은
02:36
that would be like a conversation
38
156975
1593
일종의 대화 수단뿐만 아니라
02:38
but also like waking-state intentional dreaming.
39
158592
3344
의도적 몽유 상태가 되는 것이었습니다.
02:41
We called it post-symbolic communication,
40
161960
2653
"탈-기호화 소통"이라고 하는 것인데요.
02:44
because it would be like just directly making the thing you experienced
41
164637
4358
왜냐하면 여러분이 경험하는 대상을 직접 느끼도록 해주기 때문입니다.
02:49
instead of indirectly making symbols to refer to things.
42
169019
3619
그 대상을 직접적으로 기호화하는 대신에 말이죠.
02:53
It was a beautiful vision, and it's one I still believe in,
43
173466
4338
정말 멋진 생각이었습니다. 지금도 그렇게 생각해요.
02:57
and yet, haunting that beautiful vision
44
177828
3215
하지만 그 구상에서 떠오른 문제점은
03:01
was the dark side of how it could also turn out.
45
181067
3150
그 기술이 드러낼지 모를 어두운 면이었습니다.
03:04
And I suppose I could mention
46
184241
5048
한가지 언급하고 싶은 것은
03:09
from one of the very earliest computer scientists,
47
189313
3064
초기 컴퓨터 과학자들 중의 한 사람인
03:12
whose name was Norbert Wiener,
48
192401
2135
노버트 위너 박사의 주장인데요.
03:14
and he wrote a book back in the '50s, from before I was even born,
49
194560
3754
제가 태어나기도 전인 1950년대에 그분이 쓴 저서 하나가 있습니다.
03:18
called "The Human Use of Human Beings."
50
198338
2658
"인간의 인간적 활용"이란 책인데요.
03:21
And in the book, he described the potential
51
201779
4172
그 책에서 그분은 한가지 가능성에 대해서 설명했습니다.
03:25
to create a computer system that would be gathering data from people
52
205975
6181
어느 컴퓨터 시스템이 개발되어 사람들로부터 정보를 수집하고
03:32
and providing feedback to those people in real time
53
212180
3572
그 사람들에게 실시간으로 피드백을 제공함으로써
03:35
in order to put them kind of partially, statistically, in a Skinner box,
54
215776
5135
사람들을 부분적, 혹은 통계적인 실험용 상자에 넣을 거라고 했죠.
03:40
in a behaviorist system,
55
220935
2444
일종의 행동심리 시스템에 가두는 것입니다.
03:43
and he has this amazing line where he says,
56
223403
2501
그리고 이런 놀라운 말을 했습니다.
03:45
one could imagine, as a thought experiment --
57
225928
2738
사고 실험으로 상상해보면 --
03:48
and I'm paraphrasing, this isn't a quote --
58
228690
2461
아, 제 나름의 해석입니다. 책 내용을 그대로 옮기는 건 아니에요.
03:51
one could imagine a global computer system
59
231175
3080
전 세계적인 컴퓨터 시스템을 상상해보면
03:54
where everybody has devices on them all the time,
60
234279
2842
모든 사람들이 컴퓨터를 늘 지니고 다니고
03:57
and the devices are giving them feedback based on what they did,
61
237145
3272
그 장치는 사람의 행동에 따라 피드백을 줄 것입니다.
04:00
and the whole population
62
240441
1875
그리고 인류 전체가
04:02
is subject to a degree of behavior modification.
63
242340
3576
행동 수정을 당하는 상태가 될 것입니다.
04:05
And such a society would be insane,
64
245940
3546
그런 사회는 정상이 아닙니다.
04:09
could not survive, could not face its problems.
65
249510
3097
그 안에서는 살 수도 없고, 뭐가 문제인지도 모를 겁니다.
04:12
And then he says, but this is only a thought experiment,
66
252631
2621
하지만 그분은 이건 단지 사고 실험이고
04:15
and such a future is technologically infeasible.
67
255276
3420
그런 미래는 기술적으로 실현될 수 없다고 언급했죠.
04:18
(Laughter)
68
258720
1092
(웃음)
04:19
And yet, of course, it's what we have created,
69
259836
3002
하지만, 우리는 물론 그런 세상을 만들었고
04:22
and it's what we must undo if we are to survive.
70
262862
3277
그걸 되돌려야만 우리가 살아남을 수 있습니다.
04:27
So --
71
267457
1151
그래서..
04:28
(Applause)
72
268632
3540
(박수)
04:32
I believe that we made a very particular mistake,
73
272631
5977
저는 우리가 아주 특별한 실수를 저질렀다고 생각합니다.
04:38
and it happened early on,
74
278632
2234
일이 벌어진 지 초기 단계라
04:40
and by understanding the mistake we made,
75
280890
2074
우리가 어떤 실수를 저질렀는지 안다면
04:42
we can undo it.
76
282988
1859
다시 되돌릴 수 있을 겁니다.
04:44
It happened in the '90s,
77
284871
2559
이 일은 90년대에 벌어졌고
04:47
and going into the turn of the century,
78
287454
2742
이미 한 세기가 넘어가는 시점에 있습니다.
04:50
and here's what happened.
79
290220
1388
어떤 일이 있었는지 말씀드리죠.
04:53
Early digital culture,
80
293200
1374
초기의 디지털 문화와
04:54
and indeed, digital culture to this day,
81
294598
4972
그리고 사실.. 지금까지의 디지털 문화에는
04:59
had a sense of, I would say, lefty, socialist mission about it,
82
299594
6309
말하자면 일종의 좌편향의 사회주의적 임무가 있습니다.
05:05
that unlike other things that have been done,
83
305927
2160
인류가 이뤄온 다른 업적들, 예를 들어 책의 발명 같은 것과 달리
05:08
like the invention of books,
84
308111
1434
05:09
everything on the internet must be purely public,
85
309569
3413
인터넷 안의 모든 것들은 완전히 공개되어야 하고
05:13
must be available for free,
86
313006
2325
공짜로 쓸 수 있어야 한다는 거예요.
05:15
because if even one person cannot afford it,
87
315355
3388
단 한 명이라도 인터넷을 쓸 형편이 안되면다면
05:18
then that would create this terrible inequity.
88
318767
2572
그에게는 너무나 불공평하기 때문입니다.
05:21
Now of course, there's other ways to deal with that.
89
321912
2524
물론 그런 문제를 해결할 여러 방법이 있습니다.
05:24
If books cost money, you can have public libraries.
90
324460
3016
책을 살 돈이 없으면 공용 도서관을 찾는다거나
05:27
And so forth.
91
327500
1174
그 외 방법들이 있죠.
05:28
But we were thinking, no, no, no, this is an exception.
92
328698
2618
하지만 이걸 생각해보면.. 아니요. 여기엔 예외가 있어요.
05:31
This must be pure public commons, that's what we want.
93
331340
4605
인터넷은 순전히 공공의 것이어야 합니다.
우리도 그것을 원하고요.
05:35
And so that spirit lives on.
94
335969
2634
그 정신이 살아있는 부분도 있습니다.
05:38
You can experience it in designs like the Wikipedia, for instance,
95
338627
3715
예를 들면, 위키피디아 같은 사이트가 만들지는 것에서도 경험할 수 있고
05:42
many others.
96
342366
1341
다른 경우도 많죠.
05:43
But at the same time,
97
343731
1874
하지만 그와 동시에
05:45
we also believed, with equal fervor,
98
345629
2588
동일한 열정을 가지고 있지만
05:48
in this other thing that was completely incompatible,
99
348241
3937
완전히 상반된 다른 부분도 있습니다.
05:52
which is we loved our tech entrepreneurs.
100
352202
3627
우리가 좋아하는 기술 기업가들이죠.
05:55
We loved Steve Jobs; we loved this Nietzschean myth
101
355853
3739
우리는 스티브 잡스를 사랑하고
니체처럼 세상을 바꿀 기술 신화를 이뤄낸 이들도 사랑합니다.
05:59
of the techie who could dent the universe.
102
359616
3468
06:03
Right?
103
363108
1318
그렇죠?
06:04
And that mythical power still has a hold on us, as well.
104
364450
5848
그 신화적 능력이 여전히 우리를 지배하고 있기도 하고요.
06:10
So you have these two different passions,
105
370322
4459
따라서 이 전혀 다른 두 가지 열정을 가지고
06:14
for making everything free
106
374805
1937
모든 정보를 자유롭게 만들고
06:16
and for the almost supernatural power of the tech entrepreneur.
107
376766
5166
인터넷 기업들도 초월적 능력을 발휘해야 하는 것입니다.
06:21
How do you celebrate entrepreneurship when everything's free?
108
381956
4352
기업들이 모든 것을 공짜로 만든다면 얼마나 좋을까요?
06:26
Well, there was only one solution back then,
109
386332
3125
물론 그러려면 방법은 단 하나뿐입니다.
06:29
which was the advertising model.
110
389481
2087
광고 수익 모델이죠.
06:31
And so therefore, Google was born free, with ads,
111
391592
4003
그래서 구글이 광고 덕분에 무료 서비스로 출발했고
06:35
Facebook was born free, with ads.
112
395619
3682
페이스북도 광고 덕분에 무료로 시작했죠.
06:39
Now in the beginning, it was cute,
113
399325
3865
물론 처음에는 귀엽게 봐줄 만 했어요.
06:43
like with the very earliest Google.
114
403214
1960
초창기 구글은 그랬죠.
06:45
(Laughter)
115
405198
1286
(웃음)
06:46
The ads really were kind of ads.
116
406508
2897
그때의 광고는 그야말로 광고였습니다.
06:49
They would be, like, your local dentist or something.
117
409429
2485
예를 들면, 지역 치과 광고나 그 비슷한 거였죠.
06:51
But there's thing called Moore's law
118
411938
1920
하지만 무어의 법칙에 따라
06:53
that makes the computers more and more efficient and cheaper.
119
413882
3142
점점 컴퓨터 성능이 좋아지고 가격도 싸지면서
06:57
Their algorithms get better.
120
417048
1858
광고 알고리즘도 점차 발전했죠.
06:58
We actually have universities where people study them,
121
418930
2596
그 분야를 가르치는 대학도 있어서 기술이 갈수록 좋아졌습니다.
07:01
and they get better and better.
122
421550
1628
07:03
And the customers and other entities who use these systems
123
423202
4452
그리고 그 시스템을 이용하는 소비자나 다른 기업들도
07:07
just got more and more experienced and got cleverer and cleverer.
124
427678
4127
경험이 쌓여갈수록 점점 더 똑똑해졌죠.
07:11
And what started out as advertising
125
431829
2397
결국, 광고로 시작되었던 것들을
07:14
really can't be called advertising anymore.
126
434250
2477
더 이상 광고로 볼 수 없게 되었습니다.
07:16
It turned into behavior modification,
127
436751
2912
이용자의 행동을 수정하는 쪽으로 바뀌었죠.
07:19
just as Norbert Wiener had worried it might.
128
439687
4493
노버트 위너 박사가 걱정했던 그대로 된 것이죠.
07:24
And so I can't call these things social networks anymore.
129
444204
4620
그래서 이젠 더 이상 이것들을 소셜 네트워크라고 할 수 없습니다.
07:28
I call them behavior modification empires.
130
448848
3814
행동 수정의 제국이라고 해야 하죠.
07:32
(Applause)
131
452686
2235
(박수)
07:34
And I refuse to vilify the individuals.
132
454945
4214
관련된 개개인을 비난하는 건 아닙니다.
07:39
I have dear friends at these companies,
133
459183
2271
제 친한 친구들도 관련 회사에서 일하고 있고
07:41
sold a company to Google, even though I think it's one of these empires.
134
461478
4760
자기 회사를 구글에 판 경우도 있죠. 구글도 그 제국에 속하지만요.
07:46
I don't think this is a matter of bad people who've done a bad thing.
135
466262
5060
행위는 나쁘지만 사람이 나빠서 그런 건 아니라고 생각합니다.
07:51
I think this is a matter of a globally tragic,
136
471346
4576
오히려 전 세계적인 비극이라고 생각해요.
07:55
astoundingly ridiculous mistake,
137
475946
4572
너무나 터무니없는 실수이지
08:00
rather than a wave of evil.
138
480542
4129
악의 물결은 아닐 것입니다.
08:04
Let me give you just another layer of detail
139
484695
2682
좀 더 자세하게 설명드리겠습니다.
08:07
into how this particular mistake functions.
140
487401
3103
이 특정한 실수가 어떻게 작동하는지에 대해서요.
08:11
So with behaviorism,
141
491337
2707
행동주의 측면에서
08:14
you give the creature, whether it's a rat or a dog or a person,
142
494068
5064
여러분은 어떤 대상, 예를 들면 쥐나 개, 혹은 사람이 될 수 있겠죠.
08:19
little treats and sometimes little punishments
143
499156
2840
그 대상에게 작은 보상이나 때로는 벌을 줄 수도 있습니다.
08:22
as feedback to what they do.
144
502020
1817
그들 행동에 대응해서 말이죠.
08:24
So if you have an animal in a cage, it might be candy and electric shocks.
145
504710
5912
예를 들어, 우리에 가둬 둔 동물이라면
사탕을 주거나 전기 충격을 가하는 겁니다.
08:30
But if you have a smartphone,
146
510646
2524
그런데 스마트폰이라면
08:33
it's not those things, it's symbolic punishment and reward.
147
513194
6926
그런 형태가 아니라, 기호화된 벌과 보상을 줘야겠죠.
08:40
Pavlov, one of the early behaviorists,
148
520144
2443
초창기 행동심리학자인 파블로프가
08:42
demonstrated the famous principle.
149
522611
2952
실험했던 유명한 이론이 있습니다.
08:45
You could train a dog to salivate just with the bell, just with the symbol.
150
525587
3961
먹이 대신 기호화된 종소리를 듣고 개가 침을 흘리도록 훈련시킨 것이죠.
08:49
So on social networks,
151
529572
1586
소셜 네트워크에도
08:51
social punishment and social reward function as the punishment and reward.
152
531182
5080
마찬가지로 사회적 벌과 사회적 보상의 기능이 있습니다.
08:56
And we all know the feeling of these things.
153
536286
2077
다들 어떤 느낌인지 아실텐데요. 이럴 때 희열을 느끼죠.
08:58
You get this little thrill --
154
538387
1451
08:59
"Somebody liked my stuff and it's being repeated."
155
539862
2350
"누가 내 글에 '좋아요'를 누르고 공유하기까지 했어!"
아니면 벌은 이런 경우죠.
09:02
Or the punishment: "Oh my God, they don't like me,
156
542236
2334
"세상에, 다들 나는 별론가 봐. 다른 사람이 더 인기가 많아.."
09:04
maybe somebody else is more popular, oh my God."
157
544594
2239
09:06
So you have those two very common feelings,
158
546857
2226
일반적으로 이렇게 두 가지 감정이 있습니다.
09:09
and they're doled out in such a way that you get caught in this loop.
159
549107
3564
그렇게 상과 벌을 조금씩 나눠주면서 여러분을 그 감정의 순환에 가두는 거죠.
09:12
As has been publicly acknowledged by many of the founders of the system,
160
552695
4095
그 시스템 개발자들이 이 내용을 이미 공개적으로 밝혔기 때문에
09:16
everybody knew this is what was going on.
161
556814
2341
누구나 그 사실을 알고 있습니다.
09:19
But here's the thing:
162
559871
1619
그런데 문제가 있어요.
09:21
traditionally, in the academic study of the methods of behaviorism,
163
561514
5294
전통적으로, 학교에서 행동주의 기법을 가르칠 때는
09:26
there have been comparisons of positive and negative stimuli.
164
566832
5436
긍정적 자극과 부정적 자극을 비교해서 가르칩니다.
09:32
In this setting, a commercial setting,
165
572292
2364
그 내용을 광고에 적용해보면 전혀 다른 차이점을 보입니다.
09:34
there's a new kind of difference
166
574680
1596
09:36
that has kind of evaded the academic world for a while,
167
576300
2769
학계에서는 한동안 몰랐던 사실인데요.
09:39
and that difference is that whether positive stimuli
168
579093
4048
그 차이점은 이것입니다.
상황에 따라 긍정적 자극이 부정적 자극보다 더 효과적이긴 해도
09:43
are more effective than negative ones in different circumstances,
169
583165
3309
09:46
the negative ones are cheaper.
170
586498
2104
부정적 자극은 비용이 싸거든요.
09:48
They're the bargain stimuli.
171
588626
2056
그래서 대량으로 자극이 가해집니다.
09:50
So what I mean by that is it's much easier
172
590706
5703
이것이 의미하는 바는..
신뢰를 쌓기보다 무너뜨리기가 훨씬 쉽다는 것입니다.
09:56
to lose trust than to build trust.
173
596433
3116
09:59
It takes a long time to build love.
174
599573
3172
사랑을 만들어가는 데에는 오랜 시간이 걸리지만
10:02
It takes a short time to ruin love.
175
602769
2606
사랑을 깨버리는 건 금방이죠.
10:05
Now the customers of these behavior modification empires
176
605399
4588
이들 행동 수정의 제국을 이용하는 이용자들은 이제
10:10
are on a very fast loop.
177
610011
1423
급격한 감정의 순환을 겪습니다.
10:11
They're almost like high-frequency traders.
178
611458
2045
초단타 주식 매매를 하는 것과 마찬가지에요.
10:13
They're getting feedbacks from their spends
179
613527
2024
거래를 한 뒤에 반응을 살피고
10:15
or whatever their activities are if they're not spending,
180
615575
2802
혹은 거래를 하지 않아도 어떤 움직임을 보이나 살피죠.
10:18
and they see what's working, and then they do more of that.
181
618401
3270
움직임을 보고, 그에 따라서 추가적인 행동을 취합니다.
10:21
And so they're getting the quick feedback,
182
621695
2040
그런 식으로 그들은 빠르게 피드백을 받습니다.
10:23
which means they're responding more to the negative emotions,
183
623759
3040
그것은 부정적인 감정에 대해서 더 자주 대응하는 걸 의미합니다.
10:26
because those are the ones that rise faster, right?
184
626823
3937
왜냐하면 부정적 감정은 빨리 일어나니까요. 그렇죠?
10:30
And so therefore, even well-intentioned players
185
630784
3548
따라서 선의를 가진 사람이
10:34
who think all they're doing is advertising toothpaste
186
634356
2865
자신의 행위들을 치약 광고 정도로 생각하더라도
10:37
end up advancing the cause of the negative people,
187
637245
3031
결국 부정적인 사람들을 양산하는 쪽으로 발전하게 됩니다.
10:40
the negative emotions, the cranks,
188
640300
2334
부정적 감정과 짜증
10:42
the paranoids,
189
642658
1444
피해망상
10:44
the cynics, the nihilists.
190
644126
3080
냉소주의, 허무주의.
10:47
Those are the ones who get amplified by the system.
191
647230
3493
이런 감정들을 시스템이 증폭시키는 것입니다.
10:50
And you can't pay one of these companies to make the world suddenly nice
192
650747
5651
이들 기업에게 비용을 지불할 수는 없습니다.
갑자기 좋은 세상을 만들고 민주주의를 발전시키라고 말이죠.
10:56
and improve democracy
193
656422
1151
10:57
nearly as easily as you can pay to ruin those things.
194
657597
3841
그것을 무너뜨리라고 비용을 지불하는 것만큼이나 쉬운 일이 아닙니다.
11:01
And so this is the dilemma we've gotten ourselves into.
195
661462
3719
그것이 우리의 딜레마입니다.
11:05
The alternative is to turn back the clock, with great difficulty,
196
665856
5232
대안은 시간을 되돌리는 거예요. 대단히 어렵더라도 말이죠.
11:11
and remake that decision.
197
671112
2841
그리고 결정을 다시 해야 합니다.
11:13
Remaking it would mean two things.
198
673977
4038
다시 한다는 것에는 두 가지 의미가 있어요.
11:18
It would mean first that many people, those who could afford to,
199
678039
3928
첫번째 의미로는, 형편이 되는 사람들은
11:21
would actually pay for these things.
200
681991
2207
서비스에 대한 비용을 실제로 지불해야 한다는 것입니다.
11:24
You'd pay for search, you'd pay for social networking.
201
684222
4407
검색 비용을 지불하고, SNS 사용료를 지불하는 겁니다.
11:28
How would you pay? Maybe with a subscription fee,
202
688653
3461
어떻게 지불해야 할까요? 가입비로도 가능하고
11:32
maybe with micro-payments as you use them.
203
692138
2738
서비스를 사용할 때 소액결제를 할 수도 있겠죠.
11:34
There's a lot of options.
204
694900
1802
여러가지 방법이 있습니다.
11:36
If some of you are recoiling, and you're thinking,
205
696726
2397
누군가는 그것에 반발하며 이렇게 생각할 수도 있겠죠.
11:39
"Oh my God, I would never pay for these things.
206
699147
2366
"말도 안 돼. 난 여기에 절대로 돈 안 낼 거야.
11:41
How could you ever get anyone to pay?"
207
701537
2095
누가 여기에 돈을 내겠어?"
11:43
I want to remind you of something that just happened.
208
703656
3239
하지만 최근에 일어나는 일들을 생각해보세요.
11:46
Around this same time
209
706919
2054
요즘에 와서
11:48
that companies like Google and Facebook were formulating their free idea,
210
708997
5707
구글이나 페이스북 같은 기업은 무료 서비스를 구상하고 있고
11:54
a lot of cyber culture also believed that in the future,
211
714728
4504
인터넷 문화 대다수가 앞으로도 무료일 거라고 믿고 있습니다.
11:59
televisions and movies would be created in the same way,
212
719256
3022
TV와 영화도 위키피디아처럼 이용자가 참여하는 형태로
12:02
kind of like the Wikipedia.
213
722302
1755
만들어질지도 모릅니다.
12:04
But then, companies like Netflix, Amazon, HBO,
214
724456
5064
그런데 정반대로, 넷플릭스나 아마존, HBO 같은 기업은 이렇게 말하죠.
12:09
said, "Actually, you know, subscribe. We'll give you give you great TV."
215
729544
3739
"자, 유료가입하시면 엄청난 TV 서비스를 제공해 드리겠습니다."
12:13
And it worked!
216
733307
1373
그런데 그게 통했어요!
12:14
We now are in this period called "peak TV," right?
217
734704
3874
지금 우리는 TV의 전성기 시대를 살고 있잖아요. 그렇죠?
12:18
So sometimes when you pay for stuff, things get better.
218
738602
4198
따라서 때로는 댓가를 지불하면 더 나은 걸 얻게 됩니다.
12:22
We can imagine a hypothetical --
219
742824
2286
이런 걸 한번 상상해보면..
12:25
(Applause)
220
745134
4671
(박수)
12:29
We can imagine a hypothetical world of "peak social media."
221
749829
3659
"SNS의 전성기"라는 가상의 세계를 상상해본다면
12:33
What would that be like?
222
753512
1349
그 세상은 어떤 모습일까요?
12:34
It would mean when you get on, you can get really useful,
223
754885
2770
그런 세상을 만들기만 한다면 정말 유용할 것입니다.
12:37
authoritative medical advice instead of cranks.
224
757679
3095
짜증 대신에 권위있는 의사로부터 의료 상담도 받을 수 있겠죠.
12:41
It could mean when you want to get factual information,
225
761143
3310
원할 때 사실에 근거한 정보를 얻게 되고
12:44
there's not a bunch of weird, paranoid conspiracy theories.
226
764477
3254
말도 안되는 망상 같은 음모론들은 사라질 것입니다.
12:47
We can imagine this wonderful other possibility.
227
767755
4235
이런 엄청난 가능성을 상상할 수 있죠.
12:52
Ah.
228
772014
1261
아.
12:53
I dream of it. I believe it's possible.
229
773299
2130
전 그런 세상을 꿈꿉니다. 가능할 거라고 믿어요.
12:55
I'm certain it's possible.
230
775453
3302
분명 가능하리라 확신합니다.
12:58
And I'm certain that the companies, the Googles and the Facebooks,
231
778779
4747
확신하건대, 구글이나 페이스북 같은 기업도
13:03
would actually do better in this world.
232
783550
2312
더 나은 세상을 만들 수 있습니다.
13:05
I don't believe we need to punish Silicon Valley.
233
785886
3166
실리콘 밸리의 기업들에게 벌을 줄 필요는 없다고 생각해요.
13:09
We just need to remake the decision.
234
789076
2253
다른 결정이 필요할 뿐입니다.
13:12
Of the big tech companies,
235
792702
1882
거대 인터넷 기업들 중에서
13:14
it's really only two that depend on behavior modification and spying
236
794608
5563
실제로 단 두 개 기업만이 행동 수정과 개인정보 훔쳐보기를
13:20
as their business plan.
237
800195
1257
사업계획에 반영하고 있습니다.
13:21
It's Google and Facebook.
238
801476
1759
구글과 페이스북이에요.
13:23
(Laughter)
239
803259
1310
(웃음)
13:24
And I love you guys.
240
804593
1691
전 그 사람들도 좋아해요.
13:26
Really, I do. Like, the people are fantastic.
241
806308
2721
정말 좋아해요. 대단한 사람들이죠.
13:30
I want to point out, if I may,
242
810371
3182
제가 지적하고 싶은 것은
13:33
if you look at Google,
243
813577
1151
구글을 잘 살펴보면
13:34
they can propagate cost centers endlessly with all of these companies,
244
814752
5087
다른 회사를 인수하면서 비용이 드는 부서를 계속 확장해 나갑니다.
13:39
but they cannot propagate profit centers.
245
819863
2048
하지만 수익 부서는 늘리지 못해죠.
13:41
They cannot diversify, because they're hooked.
246
821935
3181
확장에만 심취해서 다양화는 하지 못해요.
13:45
They're hooked on this model, just like their own users.
247
825140
2627
그 사업 모델에만 심취해 있습니다. 자기 서비스의 이용자들처럼요.
13:47
They're in the same trap as their users,
248
827791
2298
이용자들과 함께 함정에 빠져있는 거죠.
13:50
and you can't run a big corporation that way.
249
830113
2504
그런 방식으로는 큰 기업을 운영할 수 없습니다.
13:52
So this is ultimately totally in the benefit of the shareholders
250
832641
3603
결국에는 주주들의 이익과 직결되고
13:56
and other stakeholders of these companies.
251
836268
2445
회사 이해 당사자들에게도 문제가 되죠.
13:58
It's a win-win solution.
252
838737
2350
이건 모두에게 유리한 해법입니다.
14:01
It'll just take some time to figure it out.
253
841111
2515
파악하는 데에 시간이 좀 걸리겠죠.
14:03
A lot of details to work out,
254
843650
2262
많은 세부 사항을 파악해야
14:05
totally doable.
255
845936
1830
완전히 실행할 수 있을 겁니다.
14:07
(Laughter)
256
847790
2415
(웃음)
14:10
I don't believe our species can survive unless we fix this.
257
850229
3834
이걸 해결하지 않고는 인류는 살아남지 못할 것입니다.
14:14
We cannot have a society
258
854087
2290
우리가 용납할 수 없는 사회는
14:16
in which, if two people wish to communicate,
259
856401
2961
두 사람이 서로 소통을 원할 때
14:19
the only way that can happen is if it's financed by a third person
260
859386
3440
그들을 조종하려는 다른 이가 돈을 대야 소통이 가능한 사회입니다.
14:22
who wishes to manipulate them.
261
862850
2346
14:25
(Applause)
262
865220
6238
(박수)
14:35
(Applause ends)
263
875077
1151
14:36
In the meantime, if the companies won't change,
264
876942
2945
그런데도 그 회사들이 바뀌지 않으면 계정을 삭제해버리세요. 알았죠?
14:39
delete your accounts, OK?
265
879911
1666
14:41
(Laughter)
266
881601
1269
(웃음)
14:42
(Applause)
267
882894
1046
(박수)
14:43
That's enough for now.
268
883964
1509
이번엔 이 정도로 해두죠. 감사합니다.
14:45
Thank you so much.
269
885497
1151
14:46
(Applause)
270
886672
6804
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7