Why you should get paid for your data | Jennifer Zhu Scott

79,447 views ・ 2020-03-19

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hosu Shin 검토: DK Kim
00:13
I grew up in the late '70s in rural China
0
13325
3896
저는 70년대 후반 중국 시골에서 자랐습니다.
00:17
during the final years of my country's pursuit of absolute equality
1
17245
4565
이 시기는 중국이 절대 평등을 좇으며
00:21
at the expense of liberty.
2
21834
2568
자유를 잃어가던 마지막 때였습니다.
00:24
At that time, everybody had a job,
3
24870
2324
당시에는 모두 직업이 있었지만
00:27
but everyone was struggling.
4
27218
2070
모두가 궁핍했습니다.
00:29
In the early '80s, my dad was an electrician,
5
29312
2876
80년대 초, 아버지는 전기공이었고
00:32
and my mom worked two shifts in the local hospital.
6
32212
2872
어머니는 지역 병원에서 2교대로 일을 했습니다.
00:35
But still, we didn't have enough food,
7
35790
2940
그러나 여전히 먹을 것은 충분하지 않았고
00:38
and our living conditions were dismal.
8
38754
2317
생활 환경은 비참했습니다.
00:41
We were undoubtedly equal --
9
41095
1991
우리는 분명히 동등했습니다.
00:43
we were equally poor.
10
43110
1539
동등하게 가난했습니다.
00:45
The state owned everything.
11
45114
2008
정부가 모든 걸 소유했고
00:47
We owned nothing.
12
47146
1456
우리에겐 아무것도 없었습니다.
00:49
The story I'm going to share with you is about my struggles
13
49309
3672
제가 해드릴 얘기는
역경을 이겨낸
00:53
of overcoming adversity
14
53005
2200
칠전팔기 정신 이야기입니다.
00:55
with my resilience, grit and sheer determination.
15
55229
5038
01:01
No, I'm just kidding, I'm not going to do that to you.
16
61151
2526
농담이에요. 그건 아니고요.
01:03
(Laughter)
17
63701
2369
(웃음)
01:06
Instead, I'm going to tell you,
18
66094
3950
대신 제가 드릴 말씀은
01:10
what I'm going to talk about today is about a new form of collective poverty
19
70068
4146
오늘 말씀드릴 주제는 집단적 빈곤의 새로운 형태입니다.
01:14
that many of us don't recognize
20
74238
1929
이는 많은 사람들이 잘 알지 못하나
01:16
and that urgently needs to be understood.
21
76191
2154
반드시 알아야 하는 것이지요.
01:18
I'm sure you've noticed that in the past 20 years,
22
78822
2458
여러분은 분명 지난 20년 동안
01:21
that asset has emerged.
23
81304
1776
한 자산이 떠올랐다는 것을 알고 있을 겁니다.
01:23
It's been generating wealth at a breakneck pace.
24
83104
3458
이는 위험할 정도로 빠르게 부를 창조했습니다.
01:26
As a tool, it has brought businesses deep customer insights,
25
86586
4077
이는 도구로써 사업에 있어 고객들에 대한 깊은 통찰력,
01:30
operational efficiency
26
90687
1638
운영상 효율,
01:32
and enormous top-line growth.
27
92349
2192
그리고 엄청난 성장을 가져왔습니다.
01:35
But for some,
28
95018
1628
하지만 몇몇 사람들에게는
01:36
it has also provided a device to manipulate a democratic election
29
96670
4797
이는 민주적 선거를 조작하는 도구,
01:41
or perform surveillance for profit or political purposes.
30
101491
5169
이익이나 정치적 목적을 위한 감시 도구로 쓰였습니다.
01:47
What is this miracle asset?
31
107287
2046
이 기적 같은 자산은 무엇일까요?
01:49
You've guessed it: it's data.
32
109357
1913
아마 눈치채셨을 텐데 바로 데이터입니다.
01:52
Seven out of the top 10 most valuable companies in the world are tech companies
33
112308
4566
세계에서 가장 가치 있는 회사들 10개 중 7개는 기술 회사입니다.
01:56
that either directly generate profit from data
34
116898
2967
데이터에서 직접 이익을 창출하거나
01:59
or are empowered by data from the core.
35
119889
2432
데이터로 큰 권한을 부여받았습니다.
02:03
Multiple surveys show
36
123352
1265
여러 설문을 보면
02:04
that the vast majority of business decision makers
37
124641
2486
대부분의 기업 결정권자가
02:07
regard data as an essential asset for success.
38
127151
3371
데이터를 성공에 필수적인 자산으로 여겼습니다.
02:10
We have all experienced how data is shifting this major paradigm shift
39
130546
5938
우리 모두는 데이터가
주요 패러다임을 어떻게 바꾸는지를 경험했습니다.
02:16
for our personal, economic and political lives.
40
136508
3885
개인적, 경제적, 정치적인 측면에서요.
02:20
Whoever owns the data owns the future.
41
140764
2351
누구든 데이터를 소유한 사람이 미래를 지배합니다.
02:23
But who's producing the data?
42
143553
1725
하지만 그 데이터는 누가 창출할까요?
저는 여기 여러분 모두 스마트폰을 가지고 있고,
02:26
I assume everyone in this room has a smartphone,
43
146004
2964
02:28
several social media accounts
44
148992
1492
여러 개의 SNS 계정이 있으며,
02:30
and has done a Google search or two in the past week.
45
150508
2950
최근에 구글 설문지를 작성해봤으리라고 생각합니다.
02:33
We are all producing data. Yes.
46
153966
2315
우리 모두가 데이터를 만들고 있습니다.
02:36
It is estimated that by 2030, 10 years from now,
47
156948
3408
2030년까지, 지금부터 10년 후에는
02:40
there will be about 125 billion connected devices in the world.
48
160380
4199
세상에 1250억 개의 기기가 연결되어 있을 거라고 예측합니다.
02:44
That's an average of about 15 devices per person.
49
164603
4424
한 사람 당 약 15개의 기기를 쓰는 것이지요.
02:49
We are already producing data every day.
50
169511
2027
우리는 이미 매일 데이터를 생성합니다.
02:51
We'll be producing exponentially more.
51
171562
3158
기하급수적으로 증가하겠지요.
02:55
Google, Facebook and Tencent's combined revenue in 2018
52
175529
4011
2018년 구글과 페이스북, 텐센트의 매출을 합하면
02:59
was 236 billion US dollars.
53
179564
3284
2360억 달러(약 270조 원)에 달합니다.
03:02
Now, how many of you have received payment from them
54
182872
2537
그렇다면 여러분 중 데이터를 만들고서
03:05
for the data you generate for them?
55
185433
1708
그들에게 대가를 받는 사람이 있나요?
없을 겁니다. 그렇죠?
03:07
None, right?
56
187165
1381
03:08
Data has immense value but is centrally controlled and owned.
57
188570
3961
데이터는 엄청난 가치가 있는데 기업에 의해 통제되고 있습니다.
03:12
You are all walking raw materials for those large data companies,
58
192555
4863
개인은 움직이는 원재료이지만
아무도 데이터 대기업으로부터 보상을 받지 않습니다.
03:17
but none of you are paid.
59
197442
1435
03:19
Not only that,
60
199703
1173
그뿐만 아니라,
03:20
you're not even considered as part of this equation for income.
61
200900
4370
개인은 이 수입 등식의 한 부분으로도 고려되지 않습니다.
03:25
So once again,
62
205651
1693
그러니 다시 한 번,
03:27
we are undoubtedly equal:
63
207368
1737
우리는 말할 필요 없이 동등하고
03:29
we're equally poor.
64
209129
1463
똑같이 가난하지요.
누군가는 모든 것을 소유하고, 우리는 아무것도 없습니다.
03:31
Somebody else owns everything, and we own nothing.
65
211004
3039
익숙한 말이지 않나요?
03:34
Sounds familiar, doesn't it?
66
214067
1553
03:36
So what should we do?
67
216747
1387
그렇다면 우리는 무엇을 해야 할까요?
03:38
There might be some clues in how my life turned out
68
218158
2413
그 어려운 시기 이후 제 삶이 어떻게 되었는지에서
03:40
after that difficult start.
69
220595
1338
분명히 단서를 찾을 수 있을 겁니다.
03:41
Things began to look up for my family in the '80s.
70
221957
2419
80년대에 들어서 우리 가족의 형편이 나아지기 시작했습니다.
03:44
The system evolved,
71
224400
1479
체계가 발전했고
03:45
and people began to be allowed to own a piece of what we created.
72
225903
3732
생산한 것들의 일부분을 소유하는 것이 점차 허가되었습니다.
'바다로 뛰어든 사람',
03:50
"People diving into the ocean,"
73
230118
1718
03:51
or "xia hai," the Chinese term,
74
231860
2348
혹은 '下海(시아 하이)'라는 중국말은
03:54
described those who left state-owned enterprise jobs
75
234232
3299
국영 기업 직원 자리를 포기하고
자신의 사업을 시작한 사람을 뜻합니다.
03:57
and started their own businesses.
76
237555
1775
03:59
Private ownership of a business
77
239814
1987
개인이 사업을 영위하면서
04:01
became personal ownership of cars,
78
241825
3080
각 개인들이
차, 재산, 음식, 옷 같은 것을 소유하게 되었습니다.
04:04
properties, food, clothes and things.
79
244929
3437
04:08
The economic machine started rolling,
80
248390
2871
경제라는 열차는 앞으로 나아가기 시작했고
사람들의 삶도 나아지기 시작했습니다.
04:11
and people's lives began to improve.
81
251285
2200
04:13
For the first time,
82
253509
1244
처음으로 부를 얻는다는 것이 영광스러운 일로 여겨졌습니다.
04:14
to get rich was glorious.
83
254777
2608
04:17
So in the '90s, when I went to study in Chengdu in west China,
84
257409
5063
그래서 1990년대에 제가 중국 서쪽 청두에서 공부할 때에
04:22
many young individuals like myself
85
262496
1628
제 또래의 많은 젊은이들은
04:24
were well-positioned to take advantage of the new system.
86
264148
2779
새로운 시스템의 장점을 받아들이기에 좋은 조건을 가지고 있었습니다.
04:27
After I graduated from my university,
87
267330
2704
대학을 졸업한 후에
저는 제 사업을 설립하였고 선전으로 갔습니다.
04:30
I cofounded my first business and moved to Shenzhen,
88
270058
3183
04:33
the brand-new special economic zone that used to be a fishing village.
89
273265
4479
과거에 어촌이었지만 지금은 떠오르는 경제특구죠.
04:37
Twenty years later,
90
277768
1169
12년 후에 선전은
04:38
Shenzhen has become a global innovation powerhouse.
91
278961
4405
국제적인 혁신의 심장이 되었습니다.
04:44
Private ownership was a form of liberty we didn't have before.
92
284667
4078
사유 재산은 전에 보지 못한 자유의 형태였습니다.
04:49
It created unprecedented opportunities for our generations,
93
289276
4923
이는 우리 세대에 전례없는 기회를 만들었고,
우리가 엄청나게 일하고 공부하는 동기를 부여했습니다.
04:54
motivating us to work and study incredibly hard.
94
294223
3628
04:58
The result was that more than 850 million people rose out of poverty.
95
298317
5886
그 결과, 8억 5천만 명 이상이 가난에서 벗어났습니다.
세계은행에 따르면
05:04
According to the World Bank,
96
304227
1968
제가 어릴 적, 1981년 중국의 극빈율은 88%였습니다.
05:06
China's extreme poverty rate in 1981, when I was a little kid, was 88 percent.
97
306219
6361
05:12
By 2015, 0.7 percent.
98
312604
3427
2015년은 0.7%죠.
05:16
I am a product of that success,
99
316832
1744
저는 그 성공의 결과물이고,
05:18
and I am very happy to share that today, I have my own AI business,
100
318600
4092
오늘날 저만의 AI 사업을 운영하고
05:22
and I lead a very worldly and dynamic life,
101
322716
2698
세계적이고 격동적인 삶을 산다는 것을 여러분과 함께하는 것이 기쁩니다.
05:25
a path that was unimaginable when I was a kid in west China.
102
325438
4045
어릴 적 중국 서쪽에 있었을 때는 상상할 수 없었던 일이죠.
물론, 이 번영의 대가는
05:30
Of course, this prosperity came with a trade-off,
103
330252
3844
05:34
with equality, the environment and freedom.
104
334120
4390
평등, 환경, 자유였죠.
05:38
And obviously I'm not here to argue that China has it all figured out.
105
338534
3733
중국이 이를 완전히 알고 있다고 주장하려는 것이 아닙니다.
05:42
We haven't.
106
342291
1206
그렇지 않아요.
05:43
Nor that data is fully comparable to physical assets.
107
343521
4186
데이터가 물적 자산과 비교할 정도도 아니고요.
05:47
It is not.
108
347731
1265
그렇지 않습니다.
05:49
But my life experience allowed me to see what's hiding in plain sight.
109
349726
4983
하지만 제 삶의 경험은 평범함 속에 숨겨진 것을 볼 수 있게 해줬습니다.
05:54
Currently, the public discourse
110
354733
1595
현재 사회적 분위기는
데이터의 소유를 생각할 때면
05:56
is so focused on the regulatory and privacy issue
111
356352
4007
규제와 개인 정보 보호 문제에 초점을 두고 있습니다.
06:00
when it comes to data ownership.
112
360383
1731
06:02
But I want to ask:
113
362138
1675
하지만 저는 묻고 싶어요.
06:03
What if we look at data ownership in completely different ways?
114
363837
3216
만약 우리가 데이터 소유에 대해서 완전히 다른 방식으로 본다면 어떨까요?
06:07
What if data ownership is, in fact,
115
367561
2655
만약 데이터 소유가
사실은 사적, 개인적, 경제적 범주에 속한다면요?
06:10
a personal, individual and economic issue?
116
370240
4328
06:15
What if, in the new digital economy,
117
375183
2354
만약, 새로운 디지털 경제에서
06:17
we are allowed to own a piece of what we create
118
377561
3056
우리가 만든 것을 소유하는 것이 가능하고
06:20
and give people the liberty of private data ownership?
119
380641
4140
사적 데이터 소유의 자유가 개인에게 있다면요?
06:26
The legal concept of ownership is when you can possess,
120
386111
4202
법적 개념으로서의 소유는
보유하고, 사용하고, 선물하고, 물려주거나 파기하는 것,
06:30
use, gift, pass on, destroy
121
390337
4311
06:34
or trade it or sell your asset
122
394672
3913
혹은 납득할 수 있는 가격에 거래하거나
06:38
at a price accepted by you.
123
398609
2012
팔 수 있다는 것을 뜻합니다.
06:41
What if we give that same definition to individuals' data,
124
401446
4099
만약 우리가 개인의 데이터에 이와 같은 정의를 적용하면
06:45
so individuals can use or destroy our data
125
405569
3458
개인이 자신의 데이터를 사용하고 파기하거나,
자신이 정한 가격에 거래할 수 있지 않을까요?
06:49
or we trade it at our chosen price?
126
409051
2480
이제 여러분은 이렇게 말할 것입니다.
06:52
Now, I know some of you might say,
127
412013
1674
06:53
"I would never, ever trade my data for any amount of money."
128
413711
3428
"나는 내 데이터를 그 어떤 값에도 안 팔 거야."
하지만, 다시 한 번 얘기하자면, 이게 바로 지금 벌어지는 일입니다.
06:57
But that, let me remind you, is exactly what you're doing now,
129
417163
3285
07:00
except you're giving your data away for free.
130
420472
2438
여러분이 무료제공을 하지 않았다면요.
07:03
Plus, privacy is a very personal and nuanced issue.
131
423576
4042
게다가 사생활은 매우 개인적이고 민감한 부분입니다.
07:07
You might have the privilege to prioritize your privacy over money,
132
427642
4391
여러분은 돈보다 개인의 사생활을 우선시할 수 있을지 모릅니다.
하지만 중국에 있는 수백만의 소규모 사업자들은
07:12
but for millions of small business owners in China
133
432057
3021
은행 대출을 쉽게 받을 수 없는데
07:15
who can't get bank loans easily,
134
435102
2339
AI 대출 심사로부터 대출 승인을 빨리 받기 위해 데이터를 사용하면
07:17
using their data to gain rapid loan approval from AI-powered lenders
135
437465
4763
그들의 급박한 필요를 메꿀 수 있습니다.
07:22
can answer their more pressing needs.
136
442252
2139
07:24
What's private to you
137
444867
1404
여러분에게 개인적인 것은
07:26
is different from what's private to others.
138
446295
2732
다른 이의 것과 종류가 조금 다릅니다.
지금 여러분에게 사적인 것은
07:29
What's private to you now
139
449051
2441
07:31
is different from what was private when you were in college.
140
451516
3525
여러분이 대학생일 때와 다를 거예요.
적어도 그러길 바라요.
07:35
Or, at least, I hope so.
141
455065
1398
07:36
(Laughter)
142
456487
1917
(웃음)
07:38
We are always, although often subconsciously,
143
458428
4201
우리는 항상, 종종 무의식적이지만
07:42
making such trade-offs
144
462653
1344
우리의 다양한 믿음, 삶의 우선 순위를 기반으로
07:44
based on our diverse personal beliefs and life priorities.
145
464021
4051
그러한 거래를 합니다.
이게 데이터를 소유하는 것이
07:48
That is why data ownership would be incomplete
146
468096
3921
가격 결정권이 없다면 불완전한 것이 되는 이유입니다.
07:52
without a pricing power.
147
472041
1759
07:54
By assigning pricing power to individuals,
148
474665
2670
개인에게 가격을 책정할 권한을 부여함으로써
우리는 개인적이고 민감한 선호를 반영할 수단을 갖게 됩니다.
07:57
we gain a tool to reflect our personal and nuanced preferences.
149
477359
4231
08:01
So, for example, you could choose to donate your data for free
150
481614
3439
예를 들면 어떤 의학적 연구에
08:05
if a contribution to a particular medical research
151
485077
3645
여러분의 데이터를 무료로 제공할 수도 있을 겁니다.
08:08
is very meaningful for you.
152
488746
1786
그 연구가 여러분에게 매우 의미가 있다면요.
08:11
Or, if we had the tools to set our behavior data
153
491068
2938
우리가 행동 데이터에
10만 달러를 책정할 방법이 있다면
08:14
at a price of, say, 100,000 US dollars,
154
494030
3283
08:17
I doubt any political group would be able to target
155
497337
2430
어떤 정치적인 단체가 개인의 표를 노리거나 조작할 수 없을 것입니다.
08:19
or manipulate your vote.
156
499791
1872
여러분이 통제하고
08:22
You control. You decide.
157
502131
2359
여러분이 결정합니다.
08:25
Now, I know this sounds probably implausible,
158
505403
2547
아마 타당하지 않게 들릴 것 같긴 하지만
08:27
but trends are already pointing to
159
507974
1680
추세는 이미 개인의 데이터 소유를 늘리고 강화하는 것입니다.
08:29
a growing and very powerful individual data ownership movement.
160
509678
4781
08:34
First, start-ups are already creating tools
161
514483
2464
첫째로, 스타트업 기업들은
어느 정도 데이터를 지배하게 하는 도구들을 이미 만들고 있습니다.
08:36
to allow us to take back some control.
162
516971
2366
08:39
A new browser called Brave
163
519361
3073
'브레이브'라는 새로운 인터넷 브라우저는
08:42
empowers users with "Brave Shields" -- they literally call it that --
164
522458
3512
사용자들에게 '브레이브 쉴드'를 주는데 글자 그대로입니다.
08:45
by aggressively blocking data-grabbing ads and trackers,
165
525994
5001
과도한 광고와 추적을 공격적으로 차단하고,
다른 브라우저와 같은 데이터의 누출을 막습니다.
08:51
and avoid leaking data like other browsers.
166
531019
2484
08:53
In return, users can take back some bargaining and pricing power.
167
533527
4943
그에 따라, 사용자들은 거래와 가격에 힘이 생깁니다.
08:58
When users opt in to accept ads,
168
538494
3210
사용자들이 광고를 허용한다면,
09:01
Brave rewards users with "basic attention tokens"
169
541728
3377
브레이브는 사용자들에게 토큰을 보상으로 주고
09:05
that can redeem content behind paywalls from publishers.
170
545129
4221
이것으로 유료 콘텐츠를 볼 수 있습니다.
09:10
And I've been using Brave for a few months.
171
550686
2053
저는 몇 달 동안 브레이브를 써봤습니다.
09:12
It has already blocked more than 200,000 ads and trackers
172
552763
3952
이는 20만 개 이상의 광고와 추적을 차단했고
09:16
and saved hours of my time.
173
556739
2627
저는 많은 시간을 절약했습니다.
09:19
Now, I know some of you interact with your browser
174
559695
2625
저는 여러분 중 일부는
애인보다 브라우저와 더 많은 시간을 보내는 걸 알아요.
09:22
more than with your partners, so --
175
562344
2216
09:24
(Laughter)
176
564584
1040
(웃음)
09:25
you should at least find one that doesn't waste your time and is not creepy.
177
565648
4653
최소한 여러분의 시간을 낭비하지 않는, 이상하지 않은 무언가를 찾아야 해요.
09:30
(Laughter)
178
570325
1618
(웃음)
09:34
Do you think Google is indispensable?
179
574110
2590
과연 구글이 필수적이라고 생각하세요?
09:37
Think again.
180
577351
1256
그렇다면 다시 생각해 보세요.
09:38
A search engine is indispensable.
181
578631
3019
검색 엔진은 필수적이에요.
09:41
Google just has the monopoly --
182
581674
1669
구글은 단지 독점을 하고 있어요.
09:43
for now.
183
583367
1153
지금은 말이죠.
09:44
A search engine called DuckDuckGo doesn't store your personal information
184
584544
4190
덕덕고라는 검색 엔진은 개인 정보를 저장하거나,
09:48
or follow you around with ads
185
588758
1519
여러분이 보는 화면에 광고를 띄우거나,
09:50
or track your personal browsing history.
186
590301
2659
여러분의 검색 기록을 추적하지 않습니다.
09:52
Instead, it gives all users the same search results
187
592984
2812
대신, 모든 사용자에게 동일한 검색 결과를 도출합니다.
09:55
instead of based on your personal browsing records.
188
595820
3895
개인의 검색 기록에 근거한 결과가 아닙니다.
10:00
In London, a company called digi.me
189
600565
2774
런던에 있는 디지미라는 회사는
10:03
offers an app you can download on your smartphone
190
603363
2878
스마트폰에 내려받을 수 있는 앱을 지원합니다.
10:06
that helps to import and consolidate your data generated by you
191
606265
4742
그 앱은 여러분이 생성한 데이터를 끌어 와서 통합합니다.
10:11
from your Fitbit, Spotify,
192
611031
2181
핏빗, 스포티파이, 그리고 다른 SNS 계정에서 가져오죠.
10:13
social media accounts ...
193
613236
1574
10:15
And you can choose where to store your data,
194
615405
3010
그렇게 여러분은 데이터를 어디에 저장할지를 결정하고
10:18
and digi.me will help you to make your data work for you
195
618439
4343
디지미는 여러분의 데이터가 여러분에게 이익이 되도록 돕습니다.
10:22
by providing insights that used to be exclusively accessible
196
622806
3161
대기업들이 독점적으로 갖던 통찰력을
10:25
by large data companies.
197
625991
1654
여러분에게 주는 거죠.
10:28
In DC, a new initiative called UBDI, U-B-D-I,
198
628584
4897
미국 워싱턴에서 새로 시작된 UBDI,
10:33
Universal Basic Data Income,
199
633505
2417
즉, 보편적 데이터 소득은
10:35
helps people to make money
200
635946
1989
사람들이 수입을 창출하게 합니다.
10:37
by sharing anonymous insights through their data
201
637959
4019
데이터를 통해 익명의 통찰력을 제공하여
10:42
for companies that can use them for market research.
202
642002
2675
기업들이 시장 조사에 사용하게 하는 것이죠.
10:45
And whenever a company purchases a study,
203
645562
2795
기업이 연구를 구입할 때마다
10:48
users get paid in cash and UBDI points to track their contribution,
204
648381
4088
사용자들은 현금과 기여도에 따른 UBDI 포인트를 받습니다.
10:52
potentially as much as 1,000 US dollars per year
205
652493
3146
연간 천 달러 정도 될 것이라는 게
10:55
per their estimation.
206
655663
2265
그들의 예상입니다.
10:59
UBDI could be a very feasible path for universal basic income
207
659420
3885
UBDI는 인공 지능 경제에 있어
보편적 기본 소득을 위한 실현 가능한 방식이 될 것입니다.
11:03
in the AI economy.
208
663329
1464
11:05
Further, individual awareness of privacy and data ownership
209
665642
5737
나아가서, 사생활 보호와 데이터 소유에 대한 인식은
11:11
is growing fast
210
671403
1238
빠르게 증가하고 있습니다.
11:13
as we all become aware of this monster we have unleashed in our pocket.
211
673424
4514
주머니에 들어 있는 이 괴물의 존재를 깨닫는 거죠.
11:18
I'm a mother of two preteen girls,
212
678684
2466
저는 어린 두 딸의 엄마입니다.
11:21
and trust me,
213
681174
1595
그러니 저를 믿어보세요.
11:22
the single biggest source of stress and anxiety as a parent,
214
682793
5195
부모로서 걱정과 스트레스의 가장 큰 원인은
11:28
for me, is my children's relationship with technology.
215
688012
3764
제 아이들과 기술의 관계입니다.
11:33
This is a three-page agreement my husband and I make them sign
216
693161
3839
이것은 아이들에게 첫 번째 핸드폰을 사주기 전에
11:37
before they receive their first [mobile phone].
217
697024
2277
남편과 만든 세 장 짜리 서약서입니다.
11:39
(Laughter)
218
699325
1668
(웃음)
11:41
We want to help them to become
219
701619
2318
우리 부부는 아이들이
(웃음)
11:45
digital citizens,
220
705191
2581
디지털 사회의 시민으로 성장하게 돕고 싶습니다.
11:47
but only if we can make them become smart and responsible ones.
221
707796
5693
아이들이 똑똑하고 책임감 있는 사람이 된다면 말이지요.
11:53
I help them to understand what kind of data should never be shared.
222
713513
4141
저는 아이들에게 어떠한 데이터가 공유되면 안되는지를 알려줍니다.
11:58
So if you Google me,
223
718931
1569
그러니까 여러분이 저를 구글 검색한다면
12:00
in fact -- actually, sorry -- if you DuckDuckGo me,
224
720524
3465
죄송합니다, 덕덕고에서 검색한다면
12:04
you will find maybe a lot about me and my work,
225
724013
3280
저와 제 작업에 대한 많은 정보를 찾아볼 수 있지만
12:07
but you may find no information about my daughters.
226
727317
2705
제 딸들에 대한 것은 없을 거예요.
12:10
When they grow up,
227
730710
1155
아이들이 커서
12:11
if they want to put themselves out there, it's their choice, not mine,
228
731889
3298
자신을 온라인에 노출하고 싶어한다면, 그건 제가 아닌 아이들의 선택입니다.
12:15
despite that I insist they're the most beautiful,
229
735211
2575
물론 저는 우리 아이들이 세상에서 가장 아름답고
12:17
smartest and most extraordinary kids in the world, of course.
230
737810
3951
똑똑하며, 가장 소중하지요.
(웃음)
12:23
And I know many people are having similar conversations
231
743474
2743
많은 사람들이 이런 비슷한 대화를 하고
12:26
and making similar decisions,
232
746241
1773
비슷한 결정을 함으로써
12:28
which gives me hope
233
748038
1293
진정한 데이터 풍요의 미래가 곧 온다는 희망을 저에게 줍니다.
12:29
that a truly smart data-rich future will be here soon.
234
749355
3123
12:33
But I want to highlight the Clause 6 of this agreement.
235
753592
3384
하지만 저는 이 서약서의 제6조를 강조하고 싶습니다.
12:37
It says, "I will never, ever search for any information online
236
757000
3634
"나는 도니 할머니가 본다면 부끄러워할
12:40
if I would be embarrassed if seen by Grandma Dawnie."
237
760658
3463
어떠한 정보도 온라인에서 찾지 않을 것이다."
12:44
(Laughter)
238
764145
1068
(웃음)
12:45
Try it. It's really effective.
239
765237
1865
한번 해 보시면 정말 효과가 있어요.
12:47
(Laughter)
240
767126
1375
(웃음)
12:49
Throughout history,
241
769588
1961
역사적으로
12:51
there has always been a trade-off between liberty and equality
242
771573
6015
번영을 추구하기 위한
12:57
in the pursuit of prosperity.
243
777612
2586
자유와 평등 간의 이율 배반은 항상 있었습니다.
13:00
The world has constantly been going through the circle of wealth accumulation
244
780657
6366
세상은 부의 축적과
13:07
to wealth redistribution.
245
787047
1947
재분배를 반복합니다.
13:09
As the tension between the haves and have-nots
246
789555
3118
가진 사람과 못 가진 사람의 관계는
13:12
is breaking so many countries,
247
792697
2195
많은 나라에서 붕괴되고 있고,
13:14
it is in everyone's interest,
248
794916
2411
데이터 대기업을 포함한 모든 이들에게
13:17
including the large data companies,
249
797351
2500
새로운 불평등의 형성을 배격하는 것은
13:19
to prevent this new form of inequality.
250
799875
3298
큰 관심사가 됩니다.
13:23
Of course, individual data ownership is not the perfect nor the complete answer
251
803997
5304
물론, 개인의 데이터 소유는
완벽하거나 완전한 결론이 아닙니다.
13:29
to this profoundly complex question
252
809325
2421
무엇이 좋은 디지털 사회를 만들어 내는가라는 문제는
13:31
of what makes a good digital society.
253
811770
4022
심오하고 복잡한 질문입니다.
13:36
But according to McKinsey,
254
816991
1560
하지만 맥킨지에 따르면,
13:40
AI will add 13 trillion US dollars of economic output in the next 10 years.
255
820321
6062
인공 지능은 10년 후에 13조 달러의 경제적 산출물을 만들 것입니다.
13:46
Data generated by individuals will no doubt contribute
256
826883
3213
개인이 만든 데이터는 이러한 큰 성장에
많은 기여를 할 것이 틀림없습니다.
13:50
to this enormous growth.
257
830120
2435
13:53
Shouldn't we at least consider an economic model
258
833716
2946
적어도 개인이 권한을 갖는
경제 모형을 생각해봐야 하지 않을까요?
13:56
that empowers the people?
259
836686
1870
13:59
And if private ownership helped to lift more than 850 million people
260
839055
4699
사유 재산이 8억 5천만 명 이상을
14:03
out of poverty,
261
843778
1928
가난에서 벗어나게 해줬다면,
14:05
it is our duty
262
845730
1997
우리의 의무이며
14:07
and we owe it to future generations
263
847751
3044
다음 세대에게 남겨야 할 것은
14:10
to create a more inclusive AI economy
264
850819
3516
기업뿐 아니라 사람들에게도 권한을 주는
14:14
that will empower the people in addition to businesses.
265
854359
4423
더 포괄적인 인공 지능 경제를 만드는 것입니다.
14:18
Thank you.
266
858806
1178
감사합니다.
14:20
(Applause)
267
860008
3144
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7