When technology can read minds, how will we protect our privacy? | Nita Farahany

167,640 views

2018-12-18 ・ TED


New videos

When technology can read minds, how will we protect our privacy? | Nita Farahany

167,640 views ・ 2018-12-18

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jongho Jeong 검토: Tae Young Choi
00:13
In the months following the 2009 presidential election in Iran,
0
13096
4714
2009년 이란의 대통령 선거 뒤 몇 달 동안
00:17
protests erupted across the country.
1
17834
2894
전국에서 폭발적으로 시위가 일어났습니다.
00:21
The Iranian government violently suppressed
2
21685
2896
이란 정부는 폭력적 수단을 동원해서
00:24
what came to be known as the Iranian Green Movement,
3
24605
3979
'이란 녹색 운동'이란 시민운동을 억압했습니다.
00:28
even blocking mobile signals
4
28608
2053
이동 전화 신호를 차단해서
00:30
to cut off communication between the protesters.
5
30685
2714
시위자들 사이의 연락을 막기까지 했죠.
00:34
My parents, who emigrated to the United States in the late 1960s,
6
34316
4669
제 부모님은 1960년대 후반에 미국으로 이민을 오셨지만
00:39
spend substantial time there,
7
39009
1794
이란에서 꽤 오래 사셨고
00:40
where all of my large, extended family live.
8
40827
3153
저희 대가족 모두가 그곳에 살고 있었습니다.
00:44
When I would call my family in Tehran
9
44832
3129
테헤란에 있는 가족에게 전화를 하면
00:47
during some of the most violent crackdowns of the protest,
10
47985
3452
시위 진압이 가장 극심할 때는
00:51
none of them dared discuss with me what was happening.
11
51461
3252
무슨 일이 벌어지고 있는지 누구도 감히 얘기하지 않았습니다.
00:55
They or I knew to quickly steer the conversation to other topics.
12
55196
3529
그분들이나 저나 대화 주제를 빨리 바꾸려고 했었죠.
00:59
All of us understood what the consequences could be
13
59163
3380
우리 모두는 알고 있었어요.
반체제 행동이 발각되면 어떤 결과가 올지 말이죠.
01:02
of a perceived dissident action.
14
62567
2540
01:06
But I still wish I could have known what they were thinking
15
66095
3469
하지만 물어볼 걸 그랬다는 생각이 들어요.
그분들이 어떤 생각을 하고 있었는지, 또는 어떻게 느꼈는지를요.
01:09
or what they were feeling.
16
69588
1418
01:12
What if I could have?
17
72217
1393
제가 그걸 알았다면 어떻게 됐을까요?
01:14
Or more frighteningly,
18
74149
1151
아니면 더 공포스럽게도
01:15
what if the Iranian government could have?
19
75324
2761
이란 정부가 그걸 알았다면 어떻게 되었을까요?
01:18
Would they have arrested them based on what their brains revealed?
20
78695
3244
그분들의 뇌가 보여주는 것을 바탕으로 이란 정부가 그분들을 체포했을까요?
01:22
That day may be closer than you think.
21
82933
2944
그런 날이 생각보다 더 빨리 올지도 모릅니다.
01:26
With our growing capabilities in neuroscience, artificial intelligence
22
86527
3811
신경과학, 인공지능과 기계학습에 대한 우리의 능력이 커지면서
01:30
and machine learning,
23
90362
1703
01:32
we may soon know a lot more of what's happening in the human brain.
24
92089
4075
인간의 두뇌에서 어떤 일이 일어나는지 곧 훨씬 더 많이 알게 될 것입니다.
01:37
As a bioethicist, a lawyer, a philosopher
25
97083
3310
생명윤리학자이자 법률가이자 철학자로서
01:40
and an Iranian-American,
26
100417
1867
그리고 이란계 미국인으로서
01:42
I'm deeply concerned about what this means for our freedoms
27
102308
3787
제가 깊은 관심을 두는 것은
이런 사실이 우리의 자유에 어떤 의미를 갖는지와
01:46
and what kinds of protections we need.
28
106119
2171
어떤 종류의 보호책이 필요한지에 관한 것입니다.
01:48
I believe we need a right to cognitive liberty,
29
108993
3460
저는 우리에게 인지적 자유의 권리가 필요하다고 생각합니다.
01:52
as a human right that needs to be protected.
30
112477
2892
보호받아야 할 인간의 권리죠.
01:55
If not, our freedom of thought,
31
115772
2643
그렇지 않으면 사상의 자유와
01:58
access and control over our own brains
32
118439
3024
우리 자신의 두뇌에 대한 접근과 통제
02:01
and our mental privacy will be threatened.
33
121487
2841
그리고 우리의 정신적 사생활이 위협받을 것입니다.
02:05
Consider this:
34
125698
1158
이것을 생각해보세요.
02:06
the average person thinks thousands of thoughts each day.
35
126880
3314
보통 사람은 매일 수천 가지 생각을 합니다.
02:10
As a thought takes form,
36
130697
1151
수학 계산이나 숫자, 낱말처럼 생각이 형태를 취할 때
02:11
like a math calculation or a number, a word,
37
131872
5056
02:16
neurons are interacting in the brain,
38
136952
2885
두뇌의 신경 세포들이 상호 작용을 합니다.
02:19
creating a miniscule electrical discharge.
39
139861
3088
아주 미세한 전류를 방출하면서 말이죠.
02:23
When you have a dominant mental state, like relaxation,
40
143713
3452
긴장을 풀고 있을 때 같은 특정한 정신 상태일 때
02:27
hundreds and thousands of neurons are firing in the brain,
41
147189
4175
수십만 개의 신경 세포들이 뇌에서 열기를 내게되는데
02:31
creating concurrent electrical discharges in characteristic patterns
42
151388
4218
그와 동시에 특정한 양상의 전류 방출이 일어납니다.
02:35
that can be measured with electroencephalography, or EEG.
43
155630
4865
이는 뇌파측정술, 즉 EEG로 측정할 수 있습니다.
02:41
In fact, that's what you're seeing right now.
44
161118
2160
사실 지금 보고 계신 것이 바로 그것입니다.
02:43
You're seeing my brain activity that was recorded in real time
45
163956
3964
지금 보고 계신 것은 저의 두뇌 활동인데요.
간단한 장치를 머리에 쓰면 실시간으로 기록됩니다.
02:47
with a simple device that was worn on my head.
46
167944
2735
02:51
What you're seeing is my brain activity when I was relaxed and curious.
47
171669
5653
이것은 긴장을 푼 상태에서 호기심이 많을 때의 두뇌 활동입니다.
02:58
To share this information with you,
48
178097
1755
이것을 보여드리기 위해서 초기 시판용 EEG 장치를 썼습니다.
02:59
I wore one of the early consumer-based EEG devices
49
179876
3020
03:02
like this one,
50
182920
1211
바로 이렇게 생긴 건데요.
03:04
which recorded the electrical activity in my brain in real time.
51
184155
3988
이 장치로 저의 두뇌 활동을 실시간으로 기록했습니다.
03:08
It's not unlike the fitness trackers that some of you may be wearing
52
188849
3826
여러분 중에도 착용하고 계실 운동량 기록 장치와 다르지 않죠.
03:12
to measure your heart rate or the steps that you've taken,
53
192699
3586
그런 장치는 심장박동이나 걸음 수를 측정해주기도 하고
03:16
or even your sleep activity.
54
196309
1587
수면 활동까지도 측정합니다.
03:19
It's hardly the most sophisticated neuroimaging technique on the market.
55
199154
3824
이 장치는 시중에서 가장 복잡한 신경 촬영 기법은 전혀 아닙니다.
03:23
But it's already the most portable
56
203597
2378
하지만 그것은 이미 가장 휴대하기 좋고
03:25
and the most likely to impact our everyday lives.
57
205999
3152
우리의 일상생활에 영향을 미칠 가능성이 매우 높습니다.
03:29
This is extraordinary.
58
209915
1503
엄청난 일이에요.
03:31
Through a simple, wearable device,
59
211442
2505
간단한 착용 장치를 통해
03:33
we can literally see inside the human brain
60
213971
3548
말 그대로 두뇌 속을 볼 수 있고
03:37
and learn aspects of our mental landscape without ever uttering a word.
61
217543
6476
우리의 심리적 양상을 알 수 있습니다.
말 한마디 하지 않아도 말이죠.
03:44
While we can't reliably decode complex thoughts just yet,
62
224829
3653
복잡한 생각은 아직 확실하게 해독할 수 없지만
03:48
we can already gauge a person's mood,
63
228506
2519
이미 사람의 기분을 측정할 수 있고
03:51
and with the help of artificial intelligence,
64
231049
2873
인공지능의 도움을 받는다면
03:53
we can even decode some single-digit numbers
65
233946
4341
머릿속의 한 자릿수 숫자를 알아내거나
03:58
or shapes or simple words that a person is thinking
66
238311
4882
도형이나 간단한 낱말까지도 해독할 수 있습니다.
우리가 생각하고 있거나 듣거나 보는 것만으로도요.
04:03
or hearing, or seeing.
67
243217
2189
04:06
Despite some inherent limitations in EEG,
68
246345
3365
뇌파기록술이 갖고 있는 몇몇 한계에도 불구하고
04:09
I think it's safe to say that with our advances in technology,
69
249734
4720
제가 자신있게 말할 수 있는 것은
과학 기술의 발달과 더불어
04:14
more and more of what's happening in the human brain
70
254478
3809
인간 두뇌에서 일어나는 일의 더욱 더 많은 부분이
04:18
can and will be decoded over time.
71
258311
2310
앞으로 해독될 수 있고 그렇게 될 것이라는 사실입니다.
04:21
Already, using one of these devices,
72
261362
2746
이미 이런 장치들 중 하나를 사용하여
04:24
an epileptic can know they're going to have an epileptic seizure
73
264132
3255
간질 환자가 자신에게 발작이 일어날 거라는 걸 알 수 있습니다.
04:27
before it happens.
74
267411
1436
발작이 일어나기도 전에 말이죠.
04:28
A paraplegic can type on a computer with their thoughts alone.
75
268871
4603
하반신 마비 환자가 생각만으로도 컴퓨터 자판을 입력할 수도 있죠.
04:34
A US-based company has developed a technology to embed these sensors
76
274485
4183
미국의 어느 회사가 개발한 기술 중에는
뇌파 센서를 자동차의 머리 받침대 안에 넣어서
04:38
into the headrest of automobilies
77
278692
2230
04:40
so they can track driver concentration,
78
280946
2505
운전자의 집중, 산만, 인지 부하 여부를 추적하는 것도 있습니다.
04:43
distraction and cognitive load while driving.
79
283475
2667
04:46
Nissan, insurance companies and AAA have all taken note.
80
286912
4058
닛산, 보험사, 미국 자동차서비스협회가 모두 이 기술에 관심을 보였죠.
04:51
You could even watch this choose-your-own-adventure movie
81
291949
4508
관객의 선택에 따라 모험이 전개되는 "더 모멘트"라는 영화도 있습니다.
04:56
"The Moment," which, with an EEG headset,
82
296481
4240
뇌파기록 헤드셋을 쓰고 이 영화를 보면
05:00
changes the movie based on your brain-based reactions,
83
300745
3926
두뇌가 보이는 반응에 따라 영화의 내용이 바뀝니다.
05:04
giving you a different ending every time your attention wanes.
84
304695
4353
주의력이 약해질 때마다 다른 결말을 보여주죠.
05:11
This may all sound great,
85
311154
2763
대단하다고 생각하실지 모르겠네요.
05:13
and as a bioethicist,
86
313941
2189
생명윤리학자로서 저도 적극 지지합니다.
05:16
I am a huge proponent of empowering people
87
316154
3613
사람들에게 자신의 건강과 행복을 책임질 능력을 주고
05:19
to take charge of their own health and well-being
88
319791
2616
05:22
by giving them access to information about themselves,
89
322431
2918
그들 자신에 대한 정보를 제공한다는 측면에서는 말이죠.
05:25
including this incredible new brain-decoding technology.
90
325373
2976
이 놀랍고 새로운 두뇌 해독 기술을 포함해서요.
05:29
But I worry.
91
329878
1167
하지만 걱정되기도 합니다.
05:31
I worry that we will voluntarily or involuntarily give up
92
331736
4760
제가 걱정하는 것은 우리가 원해서든 아니면 억지로든
우리 자유의 마지막 요새를 포기할 수도 있다는 점입니다.
05:36
our last bastion of freedom, our mental privacy.
93
336520
4118
우리의 정신적 사생활 말이죠.
05:41
That we will trade our brain activity
94
341302
2925
우리의 두뇌 활동에 대한 정보를 주고
05:44
for rebates or discounts on insurance,
95
344251
3046
그 댓가로 보험료 할인을 받으려 할지 모릅니다.
05:48
or free access to social-media accounts ...
96
348391
2603
아니면 공짜 SNS 계정이나
05:52
or even to keep our jobs.
97
352444
1848
심지어 일자리를 바랄지도 모르죠.
05:54
In fact, in China,
98
354900
1913
실제로 중국에서는
05:58
the train drivers on the Beijing-Shanghai high-speed rail,
99
358199
5897
전세계 고속철도 중 가장 붐비는 북경-상해 노선의 열차 기관사들에게
06:04
the busiest of its kind in the world,
100
364120
2532
06:06
are required to wear EEG devices
101
366676
2476
뇌파 기록 장치를 착용하도록 하고
06:09
to monitor their brain activity while driving.
102
369176
2427
운행 중 두뇌 활동을 관찰합니다.
06:12
According to some news sources,
103
372157
2226
일부 뉴스 보도에 따르면
06:14
in government-run factories in China,
104
374407
2679
중국의 정부가 운영하는 공장에서는
06:17
the workers are required to wear EEG sensors to monitor their productivity
105
377110
5364
노동자들에게 EEG 센서를 착용하도록 합니다.
근무 중 생산성과 정서 상태를 관찰하기 위해서죠.
06:22
and their emotional state at work.
106
382498
2115
06:25
Workers are even sent home
107
385267
2310
심지어 노동자를 귀가시키기도 해요.
06:27
if their brains show less-than-stellar concentration on their jobs,
108
387601
4054
두뇌 상태가 작업하기에 낮은 집중력을 보이거나
06:31
or emotional agitation.
109
391679
2122
정서적 동요를 보일 때 말이죠.
06:35
It's not going to happen tomorrow,
110
395189
1745
이런 일이 당장 일어나진 않겠지만
06:36
but we're headed to a world of brain transparency.
111
396958
3086
우리는 머릿속이 투명하게 공개되는 세계를 향해 가고 있습니다.
06:40
And I don't think people understand that that could change everything.
112
400537
3440
그러면 모든 게 바뀔 수 있다는 걸 사람들은 모르는 거 같아요.
06:44
Everything from our definitions of data privacy to our laws,
113
404474
3675
개인정보 보호에 대한 정의와 법률은 물론이고
06:48
to our ideas about freedom.
114
408173
1800
자유에 대한 개념까지 모든 것을요.
06:50
In fact, in my lab at Duke University,
115
410731
3077
사실 듀크대학교의 제 연구실에서는
06:53
we recently conducted a nationwide study in the United States
116
413832
3175
최근에 미국 전역을 대상으로 하는 연구를 통해
06:57
to see if people appreciated
117
417031
1959
일반인의 자신의 두뇌 정보에 대한 민감도를 알아보고자 했습니다.
06:59
the sensitivity of their brain information.
118
419014
2071
07:02
We asked people to rate their perceived sensitivity
119
422356
3356
33가지 종류의 정보에 대해서 그 민감도 점수를 매기도록 했죠.
07:05
of 33 different kinds of information,
120
425736
2231
07:07
from their social security numbers
121
427991
2220
주민등록번호에서부터
07:10
to the content of their phone conversations,
122
430235
2597
전화 통화 내용
07:12
their relationship history,
123
432856
2193
연애 이력
07:15
their emotions, their anxiety,
124
435073
1942
감정, 근심거리
07:17
the mental images in their mind
125
437039
1946
머릿속으로 그리는 이미지와
07:19
and the thoughts in their mind.
126
439009
1538
마음에 품은 생각까지요.
07:21
Shockingly, people rated their social security number as far more sensitive
127
441481
5229
놀랍게도
사람들은 사회보장번호가 다른 정보보다 훨씬 더 민감하다고 평가했습니다.
07:26
than any other kind of information,
128
446734
2203
07:28
including their brain data.
129
448961
2435
자신의 두뇌 데이터 이상으로요.
07:32
I think this is because people don't yet understand
130
452380
3216
제 생각에 이런 이유는
사람들이 이 두뇌 해독 신기술의 함의를 아직 이해하거나 믿지 못하는 것입니다.
07:35
or believe the implications of this new brain-decoding technology.
131
455620
4063
07:40
After all, if we can know the inner workings of the human brain,
132
460629
3289
어쨌든 인간 두뇌 속이 어떻게 작동하는지 알 수 있게 된다면
07:43
our social security numbers are the least of our worries.
133
463942
2706
주민등록번호를 걱정할 일이 아니에요.
07:46
(Laughter)
134
466672
1285
(웃음)
07:47
Think about it.
135
467981
1167
이것을 생각해보세요.
07:49
In a world of total brain transparency,
136
469172
2396
머릿속이 완전히 투명하게 읽히는 세상에서
07:51
who would dare have a politically dissident thought?
137
471592
2429
누가 정치적으로 반체제적인 사고를 하겠어요?
07:55
Or a creative one?
138
475279
1541
누가 창의적 사고를 할 수 있을까요?
07:57
I worry that people will self-censor
139
477503
3476
제가 걱정하는 것은
사람들이 사회에서 배척당할까 두려워 자기 검열을 할지 모른다는 거예요.
08:01
in fear of being ostracized by society,
140
481003
3302
08:04
or that people will lose their jobs because of their waning attention
141
484329
3813
아니면 직장을 잃게 될지도 모르죠.
집중력이 약해졌다거나 정서적으로 불안정해지거나
08:08
or emotional instability,
142
488166
2150
08:10
or because they're contemplating collective action against their employers.
143
490340
3550
고용주에 맞서는 집단 행동을 꾀한다는 이유로 말이죠.
08:14
That coming out will no longer be an option,
144
494478
3177
그런 걸 솔직하게 밝히는 것이 더는 자신의 선택이 아니게 될 겁니다.
08:17
because people's brains will long ago have revealed their sexual orientation,
145
497679
5067
왜냐하면 그러기 전에 사람들의 두뇌가 이미
성적 지향이나 정치적 이념이나 종교 성향을 드러내버렸을 테니까요.
08:22
their political ideology
146
502770
1822
08:24
or their religious preferences,
147
504616
2025
08:26
well before they were ready to consciously share that information
148
506665
3080
자신의 의지로 그런 정보를 타인과 공유할 준비를 갖추기 전에 말이죠.
08:29
with other people.
149
509769
1253
08:31
I worry about the ability of our laws to keep up with technological change.
150
511565
4912
제가 우려하는 것은
과학기술의 변화에 보조를 맞추기 위해 법률이 가져야 할 능력입니다.
08:36
Take the First Amendment of the US Constitution,
151
516986
2320
미국의 수정헌법 제1조에는 언론의 자유를 보호한다고 되어 있죠.
08:39
which protects freedom of speech.
152
519330
1958
08:41
Does it also protect freedom of thought?
153
521312
1927
그 조항이 사상의 자유도 보호하나요?
08:43
And if so, does that mean that we're free to alter our thoughts however we want?
154
523944
4169
그렇다면 우리가 원하는 방식으로 사고를 자유롭게 바꾼다는 뜻이지요?
08:48
Or can the government or society tell us what we can do with our own brains?
155
528137
4674
아니면 정부나 사회가 우리 뇌 속의 생각을 통제할 수 있을까요?
08:53
Can the NSA spy on our brains using these new mobile devices?
156
533591
3717
국가안보국이 이런 새로운 휴대장치로 우리의 두뇌를 염탐할 수 있을까요?
08:58
Can the companies that collect the brain data through their applications
157
538053
4119
자신들의 앱을 통해 두뇌 데이터를 수집한 기업이
09:02
sell this information to third parties?
158
542196
2074
제3자에게 이 정보를 팔 수 있을까요?
09:05
Right now, no laws prevent them from doing so.
159
545174
3222
당장은 어떤 법으로도 그런 행위를 막지 못합니다.
09:09
It could be even more problematic
160
549203
2025
이는 일부 나라에서는 훨씬 심각한 문제입니다.
09:11
in countries that don't share the same freedoms
161
551252
2519
미국인들만큼 자유를 누리지 못하는 나라들 말이죠.
09:13
enjoyed by people in the United States.
162
553795
2103
09:16
What would've happened during the Iranian Green Movement
163
556883
3787
이란녹색운동 당시에 그랬다면 어떻게 됐을까요?
09:20
if the government had been monitoring my family's brain activity,
164
560694
3901
정부가 저희 가족의 두뇌 활동을 관찰해서
09:24
and had believed them to be sympathetic to the protesters?
165
564619
4007
저희 가족이 시위자들에게 공감한다고 생각했다면요?
09:30
Is it so far-fetched to imagine a society
166
570091
3047
이런 사회를 상상한다면 너무 터무니없을까요?
09:33
in which people are arrested based on their thoughts
167
573162
2842
범행을 생각하는 것만으로 체포당하는 사회가 있다면요?
09:36
of committing a crime,
168
576028
1167
09:37
like in the science-fiction dystopian society in "Minority Report."
169
577219
4312
영화 '마이너리티 리포트'에서 본 공상과학의 반 이상향 사회 말이죠.
09:42
Already, in the United States, in Indiana,
170
582286
4323
이미 미국에서는
인디애나주의 18세 소년이 자기 학교를 위협했다는 이유로 기소되었는데
09:46
an 18-year-old was charged with attempting to intimidate his school
171
586633
4937
09:51
by posting a video of himself shooting people in the hallways ...
172
591594
3309
그 이유가 복도의 사람들에게 총을 쏘는 동영상을 올려서였어요.
09:55
Except the people were zombies
173
595881
3007
그런데 피격당한 사람들이 좀비였고
09:58
and the video was of him playing an augmented-reality video game,
174
598912
5047
그 영상은 그 소년이 증강 현실 게임을 하고 있는 영상있었습니다.
10:03
all interpreted to be a mental projection of his subjective intent.
175
603983
4772
그것만 빼고는 모든 것이
그 소년의 주관적 의사를 보여주는 거라고 생각했던 거죠.
10:10
This is exactly why our brains need special protection.
176
610456
4612
바로 이 때문에 우리 뇌를 특별히 보호해야 하는 겁니다.
10:15
If our brains are just as subject to data tracking and aggregation
177
615092
3556
두뇌 정보를 추적하고 수집하는 일이 금융 거래 기록만큼이나 쉽고
10:18
as our financial records and transactions,
178
618672
2532
10:21
if our brains can be hacked and tracked like our online activities,
179
621228
4285
우리의 뇌가 온라인 활동, 이동 전화와 앱처럼 해킹되고 추적당할 수 있다면
10:25
our mobile phones and applications,
180
625537
2361
10:27
then we're on the brink of a dangerous threat to our collective humanity.
181
627922
4269
그러면 우리 인류 전체에게 곧 심각한 위협이 닥칠 것입니다.
10:33
Before you panic,
182
633406
1309
겁먹지는 마시고요.
10:36
I believe that there are solutions to these concerns,
183
636012
3144
이런 걱정을 해결할 방법이 있습니다.
10:39
but we have to start by focusing on the right things.
184
639180
2825
단, 초점을 제대로 잡고 시작해야 해요.
10:42
When it comes to privacy protections in general,
185
642580
2921
일반적인 사생활 보호를 대상으로 한다면
10:45
I think we're fighting a losing battle
186
645525
1826
싸움에서 지게 될 겁니다.
10:47
by trying to restrict the flow of information.
187
647375
2858
정보의 흐름을 제한하려 할 테니까요.
10:50
Instead, we should be focusing on securing rights and remedies
188
650257
4057
대신에 인권과 권리 침해에 대한 구제 법안 확립에 초점을 맞추고
10:54
against the misuse of our information.
189
654338
2275
우리 정보의 오용에 맞서야 합니다.
10:57
If people had the right to decide how their information was shared,
190
657291
3285
자신의 정보가 공유되는 방식을 결정할 권리를 가져야 하고
11:00
and more importantly, have legal redress
191
660600
2921
무엇보다도 법적 보상이 있어야 합니다.
11:03
if their information was misused against them,
192
663545
2428
원치 않게 자신의 정보가 오용됐을 때에 대한 보상이죠.
11:05
say to discriminate against them in an employment setting
193
665997
2786
예를 들면 고용, 보건 또는 교육에서 차별당했을 경우에요.
11:08
or in health care or education,
194
668807
2785
11:11
this would go a long way to build trust.
195
671616
2571
이런 신뢰를 쌓기에는 갈 길이 멉니다.
11:14
In fact, in some instances,
196
674843
1718
사실 몇몇 경우에
11:16
we want to be sharing more of our personal information.
197
676585
3524
우리는 우리 개인 정보를 더 많이 공유하길 원합니다.
11:20
Studying aggregated information can tell us so much
198
680697
3047
예를 들어 집적된 정보를 살펴보면
우리의 건강과 생활상에 대해 너무나 많은 걸 알 수 있습니다.
11:23
about our health and our well-being,
199
683768
2747
11:26
but to be able to safely share our information,
200
686539
3313
하지만 우리의 정보를 안전하게 공유하려면
11:29
we need special protections for mental privacy.
201
689876
3223
두뇌 개인정보에 대해 특별한 보호가 필요합니다.
11:33
This is why we need a right to cognitive liberty.
202
693832
3147
그래서 인지 자유의 권리가 필요한 것입니다.
11:37
This right would secure for us our freedom of thought and rumination,
203
697543
4079
이 권리는 사상과 생각의 자유, 즉 자기결정의 자유를 보장할 것입니다.
11:41
our freedom of self-determination,
204
701646
2540
11:44
and it would insure that we have the right to consent to or refuse
205
704210
4390
그리고 타인이 우리 두뇌에 접근하거나 변경하려 할 때
11:48
access and alteration of our brains by others.
206
708624
2857
동의나 거부권을 갖게 할 것입니다.
11:51
This right could be recognized
207
711811
2112
이 권리는 세계 인권 선언의 일부로 인정받을 수 있는데
11:53
as part of the Universal Declaration of Human Rights,
208
713947
2883
11:56
which has established mechanisms
209
716854
2388
세계 인권 선언은 이런 사회적 권리를 강화하는 체계를 확립해주었죠.
11:59
for the enforcement of these kinds of social rights.
210
719266
2856
12:03
During the Iranian Green Movement,
211
723872
2070
이란 녹색운동이 일어났을 때
12:05
the protesters used the internet and good old-fashioned word of mouth
212
725966
5186
시위자들은 인터넷을 이용하거나 예전처럼 입에서 입으로 소식을 전하며
12:11
to coordinate their marches.
213
731176
1948
시위대를 조직하였습니다.
12:14
And some of the most oppressive restrictions in Iran
214
734238
2769
결국 이란의 가장 억압적인 몇몇 제약이 해제되었죠.
12:17
were lifted as a result.
215
737031
1877
12:20
But what if the Iranian government had used brain surveillance
216
740047
4087
하지만 이란 정부가 우리 두뇌를 감시했다면 어떻게 되었을까요?
12:24
to detect and prevent the protest?
217
744158
3061
그 시위를 탐지하고 예방한다는 목적으로 말이죠.
12:28
Would the world have ever heard the protesters' cries?
218
748847
3176
전 세계 사람들에게 시위자들의 외침이 들렸을까요?
12:33
The time has come for us to call for a cognitive liberty revolution.
219
753732
5121
우리에게 인지 자유의 혁신이 필요한 때가 왔습니다.
12:39
To make sure that we responsibly advance technology
220
759559
3264
우리 과학 기술을 책임감 있게 발전시켜야만
12:42
that could enable us to embrace the future
221
762847
2978
미래를 받아들일 수 있을 것입니다.
12:45
while fiercely protecting all of us from any person, company or government
222
765849
6717
그와 동시에 우리 모두를 확실하게 보호해야 합니다.
어떤 개인, 회사, 정부가
12:52
that attempts to unlawfully access or alter our innermost lives.
223
772590
5040
우리의 가장 내밀한 삶에 불법적으로 접근하거나 바꾸지 못하도록 말이죠.
12:58
Thank you.
224
778659
1174
고맙습니다.
12:59
(Applause)
225
779857
3492
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7