How to be "Team Human" in the digital future | Douglas Rushkoff

116,980 views ・ 2019-01-14

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: TJ Kim 검토: Dahyun Ha
00:13
I got invited to an exclusive resort
0
13520
3880
언젠가 고급 리조트에 초대를 받아
00:17
to deliver a talk about the digital future
1
17440
2456
디지털 미래에 대한 강연을 하게 됐어요.
00:19
to what I assumed would be a couple of hundred tech executives.
2
19920
3576
기술전문회사 중역들이 한 200명 모여있을 거라 생각했죠.
00:23
And I was there in the green room, waiting to go on,
3
23520
2696
대기실에서 준비를 하고 있는데
00:26
and instead of bringing me to the stage, they brought five men into the green room
4
26240
5176
무대로 부르지 않고 사람 5명을 방으로 데려와
00:31
who sat around this little table with me.
5
31440
2056
작은 탁자를 놓고 제 옆으로 앉혔어요.
00:33
They were tech billionaires.
6
33520
2096
다들 억만장자들이었는데
00:35
And they started peppering me with these really binary questions,
7
35640
4536
예 아니오 질문을 제게 퍼붓기 시작했어요.
00:40
like: Bitcoin or Etherium?
8
40200
2000
예를 들어, 비트코인 아니면 이더리움?
00:43
Virtual reality or augmented reality?
9
43120
2656
가상현실 아니면 증강현실?
00:45
I don't know if they were taking bets or what.
10
45800
2496
자기들끼리 내기를 했던 건진 모르겠지만
00:48
And as they got more comfortable with me,
11
48320
2816
어느 정도 분위기가 무르익으면서
00:51
they edged towards their real question of concern.
12
51160
3216
정말 궁금했던 것들을 묻기 시작했죠.
00:54
Alaska or New Zealand?
13
54400
2240
알래스카 아니면 뉴질랜드?
00:57
That's right.
14
57760
1216
맞습니다.
00:59
These tech billionaires were asking a media theorist for advice
15
59000
2976
이 억만장자들이 미디어 이론가에게 최후의 그날을 대비한 벙커를
01:02
on where to put their doomsday bunkers.
16
62000
1880
어디에 지을지 묻고 있었던 거죠.
01:04
We spent the rest of the hour on the single question:
17
64600
3136
남은 시간 동안 이 얘기에만 매달렸어요.
01:07
"How do I maintain control of my security staff
18
67760
3616
"그 날이 오면 회사의 기밀을 담당하는 직원들을
01:11
after the event?"
19
71400
1320
어떻게 통제하죠?"
01:13
By "the event" they mean the thermonuclear war
20
73920
2736
이들이 말하는 "최후의 그날"은 세상에 종말을 가져 올
01:16
or climate catastrophe or social unrest that ends the world as we know it,
21
76680
4656
핵전쟁이나 기후 대재앙, 또는 사회 불안 등
01:21
and more importantly, makes their money obsolete.
22
81360
3280
더 정확하게, 그들의 돈이 휴지조각이 될 때를 말하죠.
01:26
And I couldn't help but think:
23
86200
2216
그 때 이런 생각이 들었어요.
01:28
these are the wealthiest, most powerful men in the world,
24
88440
4736
세상에서 가장 부유하고 힘을 가진 이들이
01:33
yet they see themselves as utterly powerless to influence the future.
25
93200
4656
미래의 문제에 대해선 너무나 무능하다는 거요.
01:37
The best they can do is hang on for the inevitable catastrophe
26
97880
4456
피할 수 없는 대재앙을 앞에 두고 그들이 생각하는 최선책이
01:42
and then use their technology and money to get away from the rest of us.
27
102360
3680
기술과 돈을 가지고 나머지 사람들로부터 벗어나려는 거죠.
01:47
And these are the winners of the digital economy.
28
107520
2536
바로 오늘날의 디지털 경제를 선도하는 자들입니다.
01:50
(Laughter)
29
110080
3416
(웃음)
01:53
The digital renaissance
30
113520
2776
디지털의 부흥은
01:56
was about the unbridled potential
31
116320
4256
인간의 집단적 상상의
02:00
of the collective human imagination.
32
120600
2416
구속받지 않는 잠재력에 관한 것입니다.
02:03
It spanned everything from chaos math and quantum physics
33
123040
5136
혼돈 이론과 퀀텀 물리,
02:08
to fantasy role-playing and the Gaia hypothesis, right?
34
128200
4176
공상적 역할 게임과 가이아 가설에 이르기까지 다양하죠.
02:12
We believed that human beings connected could create any future we could imagine.
35
132400
6720
인간들이 힘을 합치면 어떤 미래든 가능하다고 믿었어요.
02:20
And then came the dot com boom.
36
140840
2199
그리고 닷컴 붐이 찾아왔고
02:24
And the digital future became stock futures.
37
144600
3616
디지털 미래는 주식 선물로 전락하고 맙니다.
02:28
And we used all that energy of the digital age
38
148240
3016
디지털 시대의 모든 역량을
02:31
to pump steroids into the already dying NASDAQ stock exchange.
39
151280
4256
이미 사양길로 접어든 나스닥 증권 거래소에 퍼부었죠.
02:35
The tech magazines told us a tsunami was coming.
40
155560
3616
기술전문 잡지들은 엄청난 변화가 밀려오고 있고
02:39
And only the investors who hired the best scenario-planners and futurists
41
159200
4456
최고의 각본 기획자와 미래학자들을 고용한 투자자들만이
02:43
would be able to survive the wave.
42
163680
2520
살아남을 거라고 경고했어요.
02:47
And so the future changed from this thing we create together in the present
43
167160
5896
그래서 미래는 현재 우리가 함께 만들어 가는 것이 아닌
02:53
to something we bet on
44
173080
1496
승자가 독식하는 치열한 시합에
02:54
in some kind of a zero-sum winner-takes-all competition.
45
174600
3200
내기라도 걸고 있는 상황으로 바뀌어 버렸죠.
03:00
And when things get that competitive about the future,
46
180120
3136
미래에 대한 경쟁이 이렇게 치열해 진다면
03:03
humans are no longer valued for our creativity.
47
183280
3296
이제 그 가치를 인정받게 되는 건 인간의 창의성이 아닌
03:06
No, now we're just valued for our data.
48
186600
3136
우리들에 관한 데이터 뿐이에요.
03:09
Because they can use the data to make predictions.
49
189760
2376
데이터를 이용해 예측이 가능하니까요.
03:12
Creativity, if anything, that creates noise.
50
192160
2576
창의성은, 그게 뭐든, 잡음으로 들릴 거에요.
03:14
That makes it harder to predict.
51
194760
2216
예측하기만 힘들게 하니까요.
03:17
So we ended up with a digital landscape
52
197000
2416
결국 우리가 만든 디지털 환경은
03:19
that really repressed creativity, repressed novelty,
53
199440
3256
창의성과 참신함 같은 우리에게 가장
03:22
it repressed what makes us most human.
54
202720
2840
인간적인 면을 억누르고 있어요.
03:26
We ended up with social media.
55
206760
1456
소셜 미디어가 판을 치고 있는데
03:28
Does social media really connect people in new, interesting ways?
56
208240
3456
정말 새롭고 흥미로운 방식으로 사람들을 이어주고 있을까요?
03:31
No, social media is about using our data to predict our future behavior.
57
211720
5016
아니죠, 데이터를 통해 우리의 행동을 예측하는데 주로 쓰일 뿐이죠.
03:36
Or when necessary, to influence our future behavior
58
216760
2896
필요에 따라, 앞으로의 행동에 영향을 주기도 하는데
03:39
so that we act more in accordance with our statistical profiles.
59
219680
4040
통계적 개요에 맞게 행동하게 하려는 겁니다.
03:45
The digital economy -- does it like people?
60
225200
2216
디지털 경제는 ... 사람들에게 신경쓸까요?
03:47
No, if you have a business plan, what are you supposed to do?
61
227440
2896
아니죠, 또 사업계획을 가지고 뭘 합니까?
03:50
Get rid of all the people.
62
230360
1256
사람들을 자르는데 쓰잖아요.
03:51
Human beings, they want health care, they want money, they want meaning.
63
231640
3400
인간들은 건강보험, 월급, 보람 등을 요구하니까
03:56
You can't scale with people.
64
236360
1880
사업을 늘리기가 힘들죠.
03:59
(Laughter)
65
239360
1456
(웃음)
04:00
Even our digital apps --
66
240840
1216
앱도 마찬가지죠 ...
04:02
they don't help us form any rapport or solidarity.
67
242080
3216
친분을 쌓고 관계를 맺는데 도움을 주지 않습니다.
04:05
I mean, where's the button on the ride hailing app
68
245320
2416
제 말은, 차량공유서비스 앱에
04:07
for the drivers to talk to one another about their working conditions
69
247760
3496
일하는 환경에 대해 얘기하거나 노조를 결성하는
04:11
or to unionize?
70
251280
1200
기능은 없다는 거죠.
04:13
Even our videoconferencing tools,
71
253600
2016
화상회의를 통해서도
04:15
they don't allow us to establish real rapport.
72
255640
2376
유대감은 형성되지 않습니다.
04:18
However good the resolution of the video,
73
258040
3336
아무리 화질이 좋아도
04:21
you still can't see if somebody's irises are opening to really take you in.
74
261400
4016
상대방의 말을 경청하며 눈이 커지는 모습은 볼 수 없잖아요.
04:25
All of the things that we've done to establish rapport
75
265440
2576
우리들이 서로 관계를 맺는 방식들은
04:28
that we've developed over hundreds of thousands of years of evolution,
76
268040
3335
수십만 년의 진화를 거쳐 자리를 잡은 것인데
04:31
they don't work,
77
271399
1217
이젠 소용이 없죠.
04:32
you can't see if someone's breath is syncing up with yours.
78
272640
3016
서로 같은 생각을 하고 있는지 알 수 가 없어요.
04:35
So the mirror neurons never fire, the oxytocin never goes through your body,
79
275680
3656
반사신경은 꿈쩍도 않고, 몸에 옥시토신도 나오지 않아
04:39
you never have that experience of bonding with the other human being.
80
279360
3240
인간들 사이의 유대감을 전혀 느끼지 못합니다.
04:43
And instead, you're left like,
81
283360
1456
대신, 이런 생각이 들죠,
04:44
"Well, they agreed with me, but did they really,
82
284840
2256
"글쎄, 같은 생각인 것 같긴 한데
04:47
did they really get me?"
83
287120
1696
정말 이해한거야?"
04:48
And we don't blame the technology for that lack of fidelity.
84
288840
3376
하지만 이렇게 신뢰할 수 없는 기술이 아닌
04:52
We blame the other person.
85
292240
1480
사람들 탓만 하죠.
04:55
You know, even the technologies and the digital initiatives that we have
86
295320
4056
알다시피, 여러 기술과 디지털 정책들은
04:59
to promote humans,
87
299400
2176
인간을 위해 만들어 졌지만
05:01
are intensely anti-human at the core.
88
301600
2760
본질부터 너무나 비인간적이에요.
05:05
Think about the blockchain.
89
305600
2000
블록체인을 생각해 보세요.
05:08
The blockchain is here to help us have a great humanized economy? No.
90
308520
3616
거창한 인도적 경제의 구현을 위한 걸까요? 아니죠.
05:12
The blockchain does not engender trust between users,
91
312160
2696
블록체인은 사용자들 간의 신용을 이끌어 내는게 아니라
05:14
the blockchain simply substitutes for trust in a new,
92
314880
3536
단순히 신용을 대체하는 새로운 방식일 뿐이에요.
05:18
even less transparent way.
93
318440
2000
훨씬 덜 투명한 방식이죠.
05:21
Or the code movement.
94
321600
1816
코딩 바람은 또 어떻고요.
05:23
I mean, education is great, we love education,
95
323440
2176
교육 자체가 중요하고, 또 우리들이 좋아하니까
05:25
and it's a wonderful idea
96
325640
1456
생각 자체는 아주 훌륭하죠.
05:27
that we want kids to be able to get jobs in the digital future,
97
327120
3136
디지털 미래에 우리 아이들이 일하는데 필요할테니
05:30
so we'll teach them code now.
98
330280
1600
지금부터 코딩을 가르칩니다.
05:32
But since when is education about getting jobs?
99
332640
2480
그런데 언제부터 교육의 목적이 취업이 되버린 걸까요?
05:35
Education wasn't about getting jobs.
100
335920
1736
교육은 취업을 위한게 아니죠.
05:37
Education was compensation for a job well done.
101
337680
3976
교육은 일을 열심히 한 것에 대한 보상이었어요.
05:41
The idea of public education
102
341680
1576
공공 교육의 개념은
05:43
was for coal miners, who would work in the coal mines all day,
103
343280
3376
하루 종일 탄광에서 일하고 집에 오는 광부들이
05:46
then they'd come home and they should have the dignity
104
346680
2576
어느 정도의 품위는 지켜야 한다는 거였어요.
05:49
to be able to read a novel and understand it.
105
349280
2136
책을 읽으며 이해하고
05:51
Or the intelligence to be able to participate in democracy.
106
351440
2960
민주주의 시민으로서의 지성은 있어야 한다는 거였죠.
05:55
When we make it an extension of the job, what are we really doing?
107
355200
3216
취업의 연장으로만 여긴다면, 결국 우리가 하고 있는 일은 뭘까요?
05:58
We're just letting corporations really
108
358440
2536
기업들이 노골적으로
06:01
externalize the cost of training their workers.
109
361000
3120
직원들의 교육 비용을 표면화하게 할 뿐입니다.
06:05
And the worst of all really is the humane technology movement.
110
365520
4096
그 중 최악은 역시 인도적 기술의 바람이죠.
06:09
I mean, I love these guys, the former guys who used to take
111
369640
2816
정말 대단한 사람들인데요,
06:12
the algorithms from Las Vegas slot machines
112
372480
2936
라스베가스 슬롯머신의 알고리즘을 이용해
06:15
and put them in our social media feed so that we get addicted.
113
375440
2936
사람들을 소셜미디어에 중독시키는데 사용했어요.
06:18
Now they've seen the error of their ways
114
378400
1936
그 방식에 하자가 있다는 걸 알았고
06:20
and they want to make technology more humane.
115
380360
2456
지금은 좀 더 인도적인 차원에서 기술에 접근하고 있죠.
06:22
But when I hear the expression "humane technology,"
116
382840
2416
"인도적 기술"이란 표현을 듣게되면
06:25
I think about cage-free chickens or something.
117
385280
2856
방목하는 닭들이 생각납니다.
06:28
We're going to be as humane as possible to them,
118
388160
2256
최대한 인도적인 방법으로 사육하겠다는 거죠.
06:30
until we take them to the slaughter.
119
390440
1720
도살할 때 까지요.
06:33
So now they're going to let these technologies be as humane as possible,
120
393200
3416
지금 이들은 최대한 인도적으로 기술에 접근하고 있다고 주장하지만
06:36
as long as they extract enough data and extract enough money from us
121
396640
3216
우리들로부터 데이터와 돈을 충분히 긁어가
06:39
to please their shareholders.
122
399880
1400
주주들을 만족시키는게 우선이죠.
06:42
Meanwhile, the shareholders, for their part, they're just thinking,
123
402520
3176
한편, 주주들의 입장은 이렇습니다,
06:45
"I need to earn enough money now, so I can insulate myself
124
405720
2976
"당장 충분히 돈을 벌어서, 내 스스로를 지켜야지.
06:48
from the world I'm creating by earning money in this way."
125
408720
3056
이런 식으로 돈을 벌면서 만드는 세상으로부터 말이야."
06:51
(Laughter)
126
411800
2376
(웃음)
06:54
No matter how many VR goggles they slap on their faces
127
414200
4056
아무리 많은 가상현실 장비들을 이용해
06:58
and whatever fantasy world they go into,
128
418280
2256
어떤 환상의 세계로 들어가 봐도
07:00
they can't externalize the slavery and pollution that was caused
129
420560
3536
그런 것들을 생산하며 초래한 노예화와 환경오염은
07:04
through the manufacture of the very device.
130
424120
2976
표면화할 수 없습니다.
07:07
It reminds me of Thomas Jefferson's dumbwaiter.
131
427120
3176
토마스 제퍼슨의 '덤웨이터'가 생각나네요.
07:10
Now, we like to think that he made the dumbwaiter
132
430320
2336
자, 이렇게 말하는 사람들도 있죠.
07:12
in order to spare his slaves all that labor of carrying the food
133
432680
3656
식당까지 음식을 나르는 노예들의 수고를
07:16
up to the dining room for the people to eat.
134
436360
2776
덜어 주기 위해 만든 거라고요.
07:19
That's not what it was for, it wasn't for the slaves,
135
439160
2496
사실은 그렇지 않고
07:21
it was for Thomas Jefferson and his dinner guests,
136
441680
2336
그 자신과 손님들이 음식을 내오는 노예들을
07:24
so they didn't have to see the slave bringing the food up.
137
444040
3096
보지 않기 위해 만든 것이죠.
07:27
The food just arrived magically,
138
447160
1576
신기하게 음식들이 배달됐어요.
07:28
like it was coming out of a "Start Trek" replicator.
139
448760
3000
"스타트렉"에 나오는 '레플리케이터' 처럼요.
07:32
It's part of an ethos that says,
140
452720
2096
당시 상황이 그랬다고들 하지만
07:34
human beings are the problem and technology is the solution.
141
454840
4280
인간들이 문제고 기술이 그 해결책이어야 하는데
07:40
We can't think that way anymore.
142
460680
2056
더 이상 그렇게 여겨지지 않습니다.
07:42
We have to stop using technology to optimize human beings for the market
143
462760
5296
인간을 소비자로서 최대한 이용하기 위해 기술을 사용해선 안되고
07:48
and start optimizing technology for the human future.
144
468080
5040
인류의 미래를 위해 기술을 최적화해야죠.
07:55
But that's a really hard argument to make these days,
145
475080
2656
오늘날 아주 어려운 논지인데
07:57
because humans are not popular beings.
146
477760
4056
인간에 대해 크게 신경쓰지 않으니까요.
08:01
I talked about this in front of an environmentalist just the other day,
147
481840
3376
며칠 전, 한 환경문제 전문가와 이에 관한 대화를 나눴는데
08:05
and she said, "Why are you defending humans?
148
485240
2096
그 분이 이렇게 말했죠, "왜 인간 편을 드세요?
08:07
Humans destroyed the planet. They deserve to go extinct."
149
487360
2696
지구를 다 망가뜨렸는데, 멸종돼도 할말 없죠."
08:10
(Laughter)
150
490080
3456
(웃음)
08:13
Even our popular media hates humans.
151
493560
2576
대중적인 매체들 또한 인간들을 혐오합니다.
08:16
Watch television,
152
496160
1256
텔레비젼에 나오는
08:17
all the sci-fi shows are about how robots are better and nicer than people.
153
497440
3736
공상과학물들을 보면, 로봇들이 사람보다 더 낫고 착하게 나오잖아요.
08:21
Even zombie shows -- what is every zombie show about?
154
501200
2976
좀비가 나오는 것들도 마찬가지인데, 공통적인게 뭐가 있죠?
08:24
Some person, looking at the horizon at some zombie going by,
155
504200
3256
누군가 멀리 좀비가 지나가는 걸 바라봅니다.
08:27
and they zoom in on the person and you see the person's face,
156
507480
2896
가까이 확대되어 그 사람의 표정이 보이면
08:30
and you know what they're thinking:
157
510400
1736
무슨 생각을 하고 있는지 알게 되죠.
08:32
"What's really the difference between that zombie and me?
158
512160
2736
"내가 저 좀비하고 다른게 도대체 뭐야?
08:34
He walks, I walk.
159
514920
1536
쟤도 걷고, 나도 걷잖아.
08:36
He eats, I eat.
160
516480
2016
쟤도 먹고, 나도 먹잖아.
08:38
He kills, I kill."
161
518520
2280
쟤도 죽이고, 나도 죽이잖아."
08:42
But he's a zombie.
162
522360
1536
그래도 좀비잖아요.
08:43
At least you're aware of it.
163
523920
1416
적어도 그건 알잖아요.
08:45
If we are actually having trouble distinguishing ourselves from zombies,
164
525360
3696
좀비와 스스로를 구별하는데 어려움을 겪고 있다면
08:49
we have a pretty big problem going on.
165
529080
2176
앞날이 정말 걱정됩니다.
08:51
(Laughter)
166
531280
1216
(웃음)
08:52
And don't even get me started on the transhumanists.
167
532520
2936
'트랜스휴머니스트'에 대해선 말도 마세요.
08:55
I was on a panel with a transhumanist, and he's going on about the singularity.
168
535480
3816
같이 자문단에 있던 한 분이 인공지능의 '특이점'에 대해 말했죠,
08:59
"Oh, the day is going to come really soon when computers are smarter than people.
169
539320
3856
"곧 컴퓨터가 사람보다 더 똑똑해 질 때가 옵니다.
09:03
And the only option for people at that point
170
543200
2136
그 때 유일하게 사람들이 할 수 있는 건
09:05
is to pass the evolutionary torch to our successor
171
545360
3336
진화의 주도권을 넘겨주고
09:08
and fade into the background.
172
548720
1616
서서히 사라져 주는 겁니다.
09:10
Maybe at best, upload your consciousness to a silicon chip.
173
550360
3456
최선으로 할 수 있는 건, 실리콘 칩에 의식을 저장해 두고
09:13
And accept your extinction."
174
553840
1840
멸종을 받아들이는 거겠죠."
09:16
(Laughter)
175
556640
1456
(웃음)
09:18
And I said, "No, human beings are special.
176
558120
3376
전 이렇게 말했어요, "아니요, 인간은 특별한 존재죠.
09:21
We can embrace ambiguity, we understand paradox,
177
561520
3536
애매모호함을 알아 차리고, 모순을 이해하고,
09:25
we're conscious, we're weird, we're quirky.
178
565080
2616
지각이 있고, 묘하고, 별나기도 해요.
09:27
There should be a place for humans in the digital future."
179
567720
3336
디지털 미래에도 분명 인간이 설 자리는 있을 거에요."
09:31
And he said, "Oh, Rushkoff,
180
571080
1536
그 분이 말했어요, "에이, 러쉬코프 씨,
09:32
you're just saying that because you're a human."
181
572640
2296
당신도 사람이니까 그렇게 말할 뿐이예요."
09:34
(Laughter)
182
574960
1776
(웃음)
09:36
As if it's hubris.
183
576760
1600
오만이란 건가요.
09:39
OK, I'm on "Team Human."
184
579280
2800
맞아요, 전 "인간의 편"입니다.
09:43
That was the original insight of the digital age.
185
583200
3856
디지털 시대의 근본적인 통찰이죠.
09:47
That being human is a team sport,
186
587080
2216
인간은 단체경기에 참가해 있고
09:49
evolution's a collaborative act.
187
589320
2736
진화는 함께 이뤄내는 겁니다.
09:52
Even the trees in the forest,
188
592080
1416
숲 속의 나무들 조차
09:53
they're not all in competition with each other,
189
593520
2216
서로 경쟁하지 않고
09:55
they're connected with the vast network of roots and mushrooms
190
595760
3216
엄청난 양의 뿌리와 버섯들의 조직을 통해 서로 연결되어
09:59
that let them communicate with one another and pass nutrients back and forth.
191
599000
4536
소통하고 양분을 주고 받잖아요.
10:03
If human beings are the most evolved species,
192
603560
2136
인간이 가장 진화된 종인 이유는
10:05
it's because we have the most evolved ways of collaborating and communicating.
193
605720
4136
가장 진화된 방식으로 협력하고 소통하기 때문입니다.
10:09
We have language.
194
609880
1496
언어가 있습니다.
10:11
We have technology.
195
611400
1240
기술도 있어요.
10:14
It's funny, I used to be the guy who talked about the digital future
196
614120
4576
재밌는 건, 제가 전엔 디지털 미래에 대해 떠들고 다녔단 사실이죠.
10:18
for people who hadn't yet experienced anything digital.
197
618720
2680
전혀 디지털에 대해 모르는 사람들한테요.
10:22
And now I feel like I'm the last guy
198
622200
1816
지금은 세상에 저 혼자만이
10:24
who remembers what life was like before digital technology.
199
624040
2920
디지털 기술 이전의 삶에 대해 알고 있는 것 같아요.
10:28
It's not a matter of rejecting the digital or rejecting the technological.
200
628680
4216
디지털이나 그 기술의 진보를 거부하려는게 아니라
10:32
It's a matter of retrieving the values that we're in danger of leaving behind
201
632920
4096
자칫 놓칠 위험에 있는 그 진정한 가치를 되찾고
10:37
and then embedding them in the digital infrastructure for the future.
202
637040
3600
미래의 디지털 기반에 깊이 각인시켜야 한다는 거죠.
10:41
And that's not rocket science.
203
641880
2296
엄청나게 벅찬 과제가 아닙니다.
10:44
It's as simple as making a social network
204
644200
2096
간단하게 사회 연결망을 조직해
10:46
that instead of teaching us to see people as adversaries,
205
646320
3536
사람을 적으로 보게 끔 가르치는게 아니라
10:49
it teaches us to see our adversaries as people.
206
649880
3000
적도 사람으로 보게 끔 가르치면 되겠죠.
10:54
It means creating an economy that doesn't favor a platform monopoly
207
654240
4296
기반시설의 독점을 허용하지 않는 경제를 창조해
10:58
that wants to extract all the value out of people and places,
208
658560
3336
사람들과 지역들의 가치를 지켜주고
11:01
but one that promotes the circulation of value through a community
209
661920
3936
지역사회 간 가치의 순환을 촉진하며
11:05
and allows us to establish platform cooperatives
210
665880
2416
가능한 소유를 널리 분배하는
11:08
that distribute ownership as wide as possible.
211
668320
3816
기반을 다져야 합니다.
11:12
It means building platforms
212
672160
1656
어떤 발판이 필요한데
11:13
that don't repress our creativity and novelty in the name of prediction
213
673840
4656
예측의 용이성을 위해 창의성과 참신함을 억제하지 않고
11:18
but actually promote creativity and novelty,
214
678520
2576
창의성과 참신함을 장려함으로
11:21
so that we can come up with some of the solutions
215
681120
2336
해결책을 마련해
11:23
to actually get ourselves out of the mess that we're in.
216
683480
2680
실제로 이 곤경에서 우리 스스로를 구해내야겠죠.
11:27
No, instead of trying to earn enough money to insulate ourselves
217
687440
3056
돈을 충분히 벌어서 우리가 만들고 있는 세상으로부터
11:30
from the world we're creating,
218
690520
1496
보호막을 쌓는 대신
11:32
why don't we spend that time and energy making the world a place
219
692040
3056
그 시간과 노력을 도망칠 필요가 없는
11:35
that we don't feel the need to escape from.
220
695120
2040
세상을 만드는데 쓰면 어떨까요?
11:38
There is no escape, there is only one thing going on here.
221
698000
3200
도망갈 데가 없어요, 여기 하나 밖에 없잖아요.
11:42
Please, don't leave.
222
702680
2120
제발 떠나지 말고
11:45
Join us.
223
705640
1360
동참하세요.
11:47
We may not be perfect,
224
707800
1296
완벽하진 않지만
11:49
but whatever happens, at least you won't be alone.
225
709120
2440
무슨 일이 벌어지건, 적어도 혼자는 아니잖아요.
11:52
Join "Team Human."
226
712640
1520
"인간의 편"으로 오세요.
11:55
Find the others.
227
715160
2096
다른 사람들도 함께요.
11:57
Together, let's make the future that we always wanted.
228
717280
2960
다함께 우리가 늘 원하던 미래를 만듭시다.
12:01
Oh, and those tech billionaires who wanted to know
229
721560
2496
아, 그 억만장자들 있잖아요.
12:04
how to maintain control of their security force after the apocalypse,
230
724080
3256
종말 이후 보안 관계자들을 어떻게 관리할지 물었던 사람들이요.
12:07
you know what I told them?
231
727360
1896
제가 뭐라고 했는지 아세요?
12:09
"Start treating those people with love and respect right now.
232
729280
4216
"지금부터 당장 애정과 존경으로 그들을 대하시죠.
12:13
Maybe you won't have an apocalypse to worry about."
233
733520
2440
걱정처럼 종말이 오지 않을 수도 있으니까요."
12:16
Thank you.
234
736840
1216
감사합니다.
12:18
(Applause)
235
738080
4440
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7