What tech companies know about your kids | Veronica Barassi

84,501 views ・ 2020-07-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
번역: soojin Lim 검토: NaYeun Kim
00:12
Every day, every week,
1
12792
2267
매일, 매주
00:15
we agree to terms and conditions.
2
15083
2185
우리는 이용약관에 동의합니다.
00:17
And when we do this,
3
17292
1476
우리는 이 행위를 함으로써
00:18
we provide companies with the lawful right
4
18792
2476
기업에게 법적 권한을 부여하게 됩니다.
00:21
to do whatever they want with our data
5
21292
3684
우리 정보를 맘대로 사용할 권한이죠.
00:25
and with the data of our children.
6
25000
2375
우리 아이들의 정보도 포함해서요.
00:28
Which makes us wonder:
7
28792
2976
그럼 우리는 이런 생각을 하게 되죠.
00:31
how much data are we giving away of children,
8
31792
2892
나는 아이들에 대한 정보를 얼마만큼이나 제공하고 있으며
00:34
and what are its implications?
9
34708
2000
그로 인한 결과는 무엇일까?
00:38
I'm an anthropologist,
10
38500
1393
저는 인류학자이자
00:39
and I'm also the mother of two little girls.
11
39917
2601
동시에 두 여자아이의 엄마입니다.
00:42
And I started to become interested in this question in 2015
12
42542
4476
제가 이 질문에 관해 관심을 두기 시작한 건 2015년 즈음이었습니다.
00:47
when I suddenly realized that there were vast --
13
47042
2726
그 정보의 양이 엄청나다는 걸 불현듯 깨달았거든요.
00:49
almost unimaginable amounts of data traces
14
49792
3017
상상하기 힘들 정도로 많은 정보 추적을 통해서
00:52
that are being produced and collected about children.
15
52833
3167
아이들에 대한 정보가 수집되고 있었습니다.
00:56
So I launched a research project,
16
56792
1976
그래서 저는 '아동 정보 시민'이라는 연구 프로젝트를 시작하였고
00:58
which is called Child Data Citizen,
17
58792
2476
01:01
and I aimed at filling in the blank.
18
61292
2125
이 문제를 풀고자 했습니다.
01:04
Now you may think that I'm here to blame you
19
64583
3018
제가 이 자리에 선 이유가
SNS에 아이 사진을 올리는 걸 비난하기 위한 거라고 생각하실 텐데요.
01:07
for posting photos of your children on social media,
20
67625
2768
01:10
but that's not really the point.
21
70417
2142
하지만 문제는 그게 아닙니다.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
소위 말하는 '육아 블로그' 보다 훨씬 더 큰 문제입니다.
01:16
This is about systems, not individuals.
23
76792
4101
문제는 개인이 아니라 시스템에 관한 거예요.
01:20
You and your habits are not to blame.
24
80917
2291
비난받아야 할 것은 여러분과 여러분의 습관이 아닙니다.
01:24
For the very first time in history,
25
84833
2851
역사상 처음으로
01:27
we are tracking the individual data of children
26
87708
2560
아이들의 개인 정보가 추적되고 있습니다.
01:30
from long before they're born --
27
90292
1767
아이가 태어나기도 전부터요.
01:32
sometimes from the moment of conception,
28
92083
2685
어떨 땐 임신을 한 순간부터
01:34
and then throughout their lives.
29
94792
2351
그 아이들의 생애에 걸쳐서요.
01:37
You see, when parents decide to conceive,
30
97167
3101
부모들은 임신을 결정한 순간부터
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
인터넷에 임신하는 법을 검색하거나
01:43
or they download ovulation-tracking apps.
32
103292
2750
배란기를 알려주는 앱을 내려받습니다.
01:47
When they do get pregnant,
33
107250
2601
그리고 실제로 임신했을 땐
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
아이의 초음파 사진을 SNS에 올리고
01:53
they download pregnancy apps
35
113042
2017
임신 관련 앱을 내려받거나
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
구글에 이런저런 증상들을 검색하죠.
01:58
like, you know --
37
118833
1518
예를 들면
02:00
for "miscarriage risk when flying"
38
120375
2559
비행기 여행 시의 유산 가능성이나
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
혹은 임신 초기 복통 같은 것이죠.
02:05
I know because I've done it --
40
125750
1809
저도 많이 해봤기 때문에 잘 압니다.
02:07
and many times.
41
127583
1625
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
그리고 아이가 태어나면
아이의 모든 낮잠과 식사, 아이의 일거수일투족을
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
온갖 기술로 추적합니다.
02:18
And all of these technologies
45
138083
1476
그리고 이 기술들은
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
아이의 가장 사적인 행동과 건강 정보를 다른 사람들에게 제공함으로써
02:25
by sharing it with others.
47
145750
1792
이익을 창출합니다.
02:28
So to give you an idea of how this works,
48
148583
2143
이게 어떻게 일어나는지 알려드릴게요.
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
2019년, 영국 의학 학술지가 발표한 자료에서는
02:35
that out of 24 mobile health apps,
50
155958
3643
24개의 모바일 건강 앱을 조사한 결과
02:39
19 shared information with third parties.
51
159625
3458
19개가 제3자에게 정보를 제공했다고 밝혔습니다.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
그 제3자들은 다시 216개의 다른 업체에 정보를 제공했죠.
02:50
Of these 216 other fourth parties,
53
170875
3434
그런데 216개의 제4자 기관들 중에서
02:54
only three belonged to the health sector.
54
174333
3143
오직 3개의 기관만이 건강과 관련된 곳이었습니다.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
그 정보를 가져간 기업에는 대형 IT 기업인
03:02
like Google, Facebook or Oracle,
56
182042
3517
구글, 페이스북 그리고 오라클이 포함되어 있었습니다.
03:05
they were digital advertising companies
57
185583
2601
디지털 광고 회사들도 있었고
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
심지어 소비자 신용 평가 기관도 있었습니다.
03:13
So you get it right:
59
193125
1434
그러니까 여러분 생각이 맞아요.
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
광고 회사와 신용평가사는 이미 아이들의 정보를 갖고 있을 것입니다.
03:21
But mobile apps, web searches and social media
61
201125
2768
모바일 앱, 검색 사이트, SNS는
03:23
are really just the tip of the iceberg,
62
203917
3101
그저 빙산의 일각일 뿐이죠.
03:27
because children are being tracked by multiple technologies
63
207042
2851
왜냐하면 아이들은 매일같이 다수의 기술에 의해
03:29
in their everyday lives.
64
209917
1726
추적당하고 있기 때문입니다.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
아이들은 집에서 사용하는 기술과 가상의 도우미들에 의해 추적당합니다.
03:35
They're tracked by educational platforms
66
215833
1976
학교의 교육 기반과 교육 기술로도 추적을 당하고 있어요.
03:37
and educational technologies in their schools.
67
217833
2185
03:40
They're tracked by online records
68
220042
1601
병원의 온라인상 기록과 병원 포털로도 추적당합니다.
03:41
and online portals at their doctor's office.
69
221667
3017
03:44
They're tracked by their internet-connected toys,
70
224708
2351
인터넷과 연결된 장난감과
03:47
their online games
71
227083
1310
온라인 게임 외에도
03:48
and many, many, many, many other technologies.
72
228417
2666
정말 정말 많은 기술로 추적 당합니다.
03:52
So during my research,
73
232250
1643
제가 연구하는 동안 부모님의 반응들은 대개 이랬어요.
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
"그래서 뭐 어쩌라고요?
03:58
Why does it matter if my children are being tracked?
75
238083
2917
우리 아이들이 추적당하는 게 왜 그리 문제가 되는 건가요?
04:02
We've got nothing to hide."
76
242042
1333
별로 숨길 것도 없어요."
04:04
Well, it matters.
77
244958
1500
음, 문제가 됩니다.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
왜냐하면 오늘날의 개개인은 그저 추적만 당하는 것이 아니라
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
추적당한 정보에 기초하여 분석되고 있기 때문입니다.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
인공지능과 예측 분석을 이용해서
04:21
to harness as much data as possible of an individual life
81
261083
3643
개인의 일생에 관한 정보를 최대한 끌어 모으고 있죠.
04:24
from different sources:
82
264750
1851
온갖 경로를 통해서요.
04:26
family history, purchasing habits, social media comments.
83
266625
4518
가족 이력, 소비 습관, 그리고 SNS 댓글들.
04:31
And then they bring this data together
84
271167
1851
기업들은 이 정보들을 모아
04:33
to make data-driven decisions about the individual.
85
273042
2750
그 정보에 기반하여 개인을 판단합니다.
04:36
And these technologies are used everywhere.
86
276792
3434
이 기술들은 우리의 일상 모든 곳에서 사용되고 있습니다.
04:40
Banks use them to decide loans.
87
280250
2393
은행이 대출액을 결정할 때 사용하고
04:42
Insurance uses them to decide premiums.
88
282667
2375
보험회사에서는 보험료 결정에 사용하죠.
04:46
Recruiters and employers use them
89
286208
2476
고용주들은 그걸 이용해서
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
입사 지원자가 일에 적합한 사람인지 판단합니다.
04:52
Also the police and courts use them
91
292750
3101
또한 경찰과 법원에서는 이를 이용해서
04:55
to determine whether one is a potential criminal
92
295875
3518
이 사람이 잠재적인 범죄자인지
04:59
or is likely to recommit a crime.
93
299417
2625
혹은 또다시 범행을 저지를지 판단하죠.
05:04
We have no knowledge or control
94
304458
4060
우리는 이에 대한 어떠한 지식도 없고
그런 기업에 대한 통제력도 없습니다.
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
우리와 아이들에 대한 정보가 거래되고 사용되는 과정을 막을 수 없습니다.
05:12
are profiling us and our children.
96
312208
2709
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
하지만 이 정보들은 우리 권리에 큰 영향을 끼칩니다.
05:20
To give you an example,
98
320917
2208
예를 들어 볼게요.
05:25
in 2018 the "New York Times" published the news
99
325792
4059
2018년 뉴욕타임스에 실린 기사가 있는데요.
05:29
that the data that had been gathered
100
329875
1976
대입 정보 온라인 서비스로 이용자 정보가 수집되었고
05:31
through online college-planning services --
101
331875
3059
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
미국 전역의 그야말로 수만 명의 고등학생들의
05:39
who are looking for a college program or a scholarship --
103
339708
3643
대학 교육 프로그램 또는 장학금을 조회한 정보들이
05:43
had been sold to educational data brokers.
104
343375
3042
교육 자료 중개인에게 팔렸다는 내용이었습니다.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
교육 자료 중개인에 대해 연구하던 포드햄대학교의 연구원들은
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
이들 기업은 적게는 두 살 아이들 정보까지도 수집했다고 밝혔습니다.
05:58
on the basis of different categories:
107
358500
3059
여러 항목으로 분류까지 해서 말이죠.
06:01
ethnicity, religion, affluence,
108
361583
4185
민족성, 종교, 소득수준
06:05
social awkwardness
109
365792
2059
사교성
06:07
and many other random categories.
110
367875
2934
그 외에도 다양한 항목으로 구분해서요.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
그리고 그들은 그 분석 자료들을
아이의 이름, 집 주소, 연락처 등의 세부 정보와 묶어서
06:15
their home address and the contact details
112
375875
2809
06:18
to different companies,
113
378708
1851
다른 기업들에 팔았습니다.
06:20
including trade and career institutions,
114
380583
2459
직업 및 경력 관리 기관을 포함해서
06:24
student loans
115
384083
1268
학자금 대출 기관
06:25
and student credit card companies.
116
385375
1750
학생 신용카드 회사에 팔렸죠.
06:28
To push the boundaries,
117
388542
1351
연구 범위를 넓히기 위해
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
포드햄대학교의 연구원들은 한 교육 자료 중개인에게 연락해서
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
14살에서 15살 여자아이들 중에서
06:39
who were interested in family planning services.
120
399583
3375
가족 계획 서비스에 관심 있는 아이들 명단을 부탁했습니다.
06:44
The data broker agreed to provide them the list.
121
404208
2476
그 중개인은 명단을 줄 수 있다고 했죠.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
이것이 우리 아이들의 사생활을 얼마나 침해하는 일인지 생각해보세요.
06:52
But educational data brokers are really just an example.
123
412833
3976
하지만 교육 자료 중개인들은 그저 단 하나의 예시일 뿐입니다.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
문제는 우리가 통제할 수 없는 방식으로 아이들에 대한 정보가 분석되고 있고
07:01
but that can significantly impact their chances in life.
125
421542
3416
아이들이 살면서 얻게 될 기회에 그것이 큰 영향을 끼친다는 것이죠.
07:06
So we need to ask ourselves:
126
426167
3476
따라서 우리는 스스로에게 질문해야만 합니다.
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
우리 아이들을 분석하는 문제에 있어서 우리는 이 기술들을 믿어도 되는가?
07:14
Can we?
128
434375
1250
정말 그래도 되는 걸까?
07:17
My answer is no.
129
437708
1250
저의 대답은 '아니오' 입니다.
07:19
As an anthropologist,
130
439792
1267
인류학자로서 저는
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
인공지능과 예측 분석이 큰 도움이 될 거라고 믿습니다.
07:24
to predict the course of a disease
132
444875
2018
병의 진행을 예측하고
07:26
or to fight climate change.
133
446917
1833
기후 변화에 대비하는 문제에 있어서요.
07:30
But we need to abandon the belief
134
450000
1643
그러나 이러한 기술들이 객관적으로 인간을 분석할 거라 믿어선 안 됩니다.
07:31
that these technologies can objectively profile humans
135
451667
3684
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
그것으로 개인의 삶을 판단할 수 있다는 생각은 버려야 합니다.
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
왜냐하면 이것들은 인간을 분석할 수 없기 때문입니다.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
정보의 흔적들은 우리가 누구인지를 보여주는 거울이 아닙니다.
07:46
Humans think one thing and say the opposite,
140
466458
2101
인간은 생각과 다른 말을 하고 느끼는 감정과 달리 행동합니다.
07:48
feel one way and act differently.
141
468583
2435
07:51
Algorithmic predictions or our digital practices
142
471042
2476
알고리즘 예측 혹은 디지털 관행은
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
사람의 경험에 존재하는 비예측성과 복잡성까지 파악할 수 없어요.
08:00
But on top of that,
144
480417
1559
그뿐만 아니라
08:02
these technologies are always --
145
482000
2684
이러한 기술들은 언제나
08:04
always --
146
484708
1268
언제나
08:06
in one way or another, biased.
147
486000
1917
어떤 식으로든 편향되어 있다는 것입니다.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
자, 알고리즘은 의미 자체가
특정한 결과를 달성하기 위해 설계된 규칙 혹은 단계의 집합입니다.
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
그렇죠?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
하지만 이 규칙 혹은 단계의 집합은 객관적일 수가 없습니다.
08:21
because they've been designed by human beings
151
501583
2143
왜냐하면 이것은 인간이 설계했고
08:23
within a specific cultural context
152
503750
1726
그도 특정한 문화적 맥락 안에서 특정한 문화적 가치를 갖기 때문입니다.
08:25
and are shaped by specific cultural values.
153
505500
2500
08:28
So when machines learn,
154
508667
1726
따라서 기계들이 정보를 습득할 때
08:30
they learn from biased algorithms,
155
510417
2250
편향된 알고리즘에서 습득하게 되고
08:33
and they often learn from biased databases as well.
156
513625
3208
이로 인해 기계는 종종 편향된 자료의 정보를 습득하게 되는 것입니다.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
바로 이 순간, 우린 편향된 알고리즘의 첫 번째 사례를 보고 있는 겁니다.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
이 사례 중 몇 가지는 솔직히 굉장히 무섭습니다.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
올해, 뉴욕의 AI Now가 발표한 보고서에 따르면
08:50
that revealed that the AI technologies
160
530583
2393
예측 치안 유지 활동에 사용된 인공지능 기술이
08:53
that are being used for predictive policing
161
533000
3476
08:56
have been trained on "dirty" data.
162
536500
3125
'더러운' 정보로 훈련되었다고 합니다.
09:00
This is basically data that had been gathered
163
540333
2893
이 정보들이 수집된 시기는
09:03
during historical periods of known racial bias
164
543250
4184
역사적으로 인종 편견이 심하고
09:07
and nontransparent police practices.
165
547458
2250
불투명한 경찰 관행이 난무하던 때였습니다.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
이러한 기술들은 더러운 정보들로 훈련된 것이기 때문에
09:14
they're not objective,
167
554625
1434
객관적이지 않습니다.
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
이러한 정보로는
경찰에게 있어서 편견과 오류를 증폭시킬 뿐입니다.
09:20
police bias and error.
169
560625
1625
09:25
So I think we are faced with a fundamental problem
170
565167
3142
저는 현재 우리가
우리 사회의 근본적인 문제에 직면하고 있다고 생각합니다.
09:28
in our society.
171
568333
1643
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
우리는 사람을 분석할 때 기술을 믿기 시작했습니다.
09:35
We know that in profiling humans,
173
575750
2518
하지만 우리도 알죠.
사람을 분석함에 있어서 이런 기술들은 늘 편향되어 있고
09:38
these technologies are always going to be biased
174
578292
2809
09:41
and are never really going to be accurate.
175
581125
2726
절대로 정확할 수 없다는 것을요.
09:43
So what we need now is actually political solution.
176
583875
2934
따라서 지금 정말로 필요한 건 정치적 해결책입니다.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
정부도 이제 깨달아아야 합니다.
정보에 대한 우리의 권리가 곧 인권이라는 사실을요.
09:52
(Applause and cheers)
178
592292
4083
(박수와 환호)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
이것이 실현되기 전까지는
우리는 더 정당한 미래를 꿈꿀 수 없습니다.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
저는 제 딸들이 알고리즘에 의한 차별과 오류에 노출될까봐 걱정됩니다.
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
10:11
You see the difference between me and my daughters
182
611250
2393
저와 제 딸들의 차이점은
10:13
is that there's no public record out there of my childhood.
183
613667
3184
제 청소년기에 대한 공식적인 기록은 어디에도 남아있지 않다는 거죠.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
제가 십 대 시절 저지른 또는 저지를 뻔 한 온갖 바보 같은 일이
10:20
and thought when I was a teenager.
185
620917
2142
자료로 남아있진 않습니다.
10:23
(Laughter)
186
623083
1500
(웃음)
10:25
But for my daughters this may be different.
187
625833
2750
하지만 제 딸들의 경우 상황이 조금 다를 수 있습니다.
10:29
The data that is being collected from them today
188
629292
3184
현재 제 딸들로부터 수집되고 있는 정보들은
10:32
may be used to judge them in the future
189
632500
3809
미래에 그들을 판단하는 데 쓰일 수 있고
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
그들의 희망과 꿈을 가로막을 수도 있습니다.
10:40
I think that's it's time.
191
640583
1518
이제 때가 온 것 같습니다.
10:42
It's time that we all step up.
192
642125
1434
이젠 앞으로 나아갈 때입니다.
10:43
It's time that we start working together
193
643583
2476
우리는 함께 노력해야 합니다.
10:46
as individuals,
194
646083
1435
개인으로서
10:47
as organizations and as institutions,
195
647542
2517
조직으로서 그리고 기관으로서
10:50
and that we demand greater data justice for us
196
650083
3101
더욱 나은 개인 정보의 정당성을 요구해야 합니다.
10:53
and for our children
197
653208
1393
우리와 우리 아이들을 위해서요.
10:54
before it's too late.
198
654625
1518
더 늦기 전에요.
10:56
Thank you.
199
656167
1267
감사합니다.
10:57
(Applause)
200
657458
1417
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7