When technology can read minds, how will we protect our privacy? | Nita Farahany

167,640 views

2018-12-18 ・ TED


New videos

When technology can read minds, how will we protect our privacy? | Nita Farahany

167,640 views ・ 2018-12-18

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Nastaran Hasanizadeh Reviewer: sadegh zabihi
00:13
In the months following the 2009 presidential election in Iran,
0
13096
4714
در ماه‌های بعد از انتخابات ریاست جمهوری ۲۰۰۹ در ایران،
00:17
protests erupted across the country.
1
17834
2894
اعتراضات تمام کشور را فرا گرفت.
00:21
The Iranian government violently suppressed
2
21685
2896
حکومت ایران با خشونت
00:24
what came to be known as the Iranian Green Movement,
3
24605
3979
چیزی که بعنوان جنبش سبز ایران شناخته شد را سرکوب کرد،
00:28
even blocking mobile signals
4
28608
2053
حتی سیگنال‌های موبایل هم مسدود شد
00:30
to cut off communication between the protesters.
5
30685
2714
تا ارتباط بین معترضان قطع شود.
00:34
My parents, who emigrated to the United States in the late 1960s,
6
34316
4669
والدین من، که در اواخر دهه ۱۹۶۰ به ایالات متحده مهاجرت کرده بودند،
00:39
spend substantial time there,
7
39009
1794
زمان قابل توجهی را آنجا می‌گذراندند،
00:40
where all of my large, extended family live.
8
40827
3153
جایی که خانوادهٔ بزرگ و پرجمعیت من زندگی می‌کنند.
00:44
When I would call my family in Tehran
9
44832
3129
وقتی می‌خواهم با خانواده‌ام در تهران تماس بگیرم
00:47
during some of the most violent crackdowns of the protest,
10
47985
3452
در طول برخی از خشن‌ترین سرکوب‌های معترضین،
00:51
none of them dared discuss with me what was happening.
11
51461
3252
هیچ کدام از آنها جرئت نمی‌کردند دربارهٔ آنچه رخ می‌داد به من توضیح بدهند.
00:55
They or I knew to quickly steer the conversation to other topics.
12
55196
3529
آن‌ها یا من می‌دانستیم که باید سریع بحث را به سمت موضوعات دیگر ببریم.
00:59
All of us understood what the consequences could be
13
59163
3380
همهٔ ما فهمیده بودیم که عواقب
01:02
of a perceived dissident action.
14
62567
2540
آشکار شدن اقدام مخالف چه خواهد بود.
01:06
But I still wish I could have known what they were thinking
15
66095
3469
ولی من هنوز آرزو دارم که می‌توانستم بدانم در سر آن‌ها چه می‌گذشته
01:09
or what they were feeling.
16
69588
1418
یا چه احساسی داشتند.
01:12
What if I could have?
17
72217
1393
چه می‌شد اگر می‌توانستم؟
01:14
Or more frighteningly,
18
74149
1151
و یا ترسناک‌تر،
01:15
what if the Iranian government could have?
19
75324
2761
چه می‌شد اگر حکومت ایران می‌توانست؟
01:18
Would they have arrested them based on what their brains revealed?
20
78695
3244
آیا می‌توانستند بر اساس آنچه که در مغز آن‌ها می‌گذرد دستگیرشان کنند؟
01:22
That day may be closer than you think.
21
82933
2944
چنین روزی از آنچه فکر می‌کنید نزدیکتراست.
01:26
With our growing capabilities in neuroscience, artificial intelligence
22
86527
3811
با رشد قابلیت‌‌هایمان در علوم اعصاب، هوش مصنوعی،
01:30
and machine learning,
23
90362
1703
و یادگیری ماشین،
01:32
we may soon know a lot more of what's happening in the human brain.
24
92089
4075
شاید خیلی زود دربارهٔ آنچه که در مغز انسان می‌گذرد بیشتر بدانیم.
01:37
As a bioethicist, a lawyer, a philosopher
25
97083
3310
بعنوان یک متخصص اخلاق زیستی، یک وکیل، یک فیلسوف،
01:40
and an Iranian-American,
26
100417
1867
و یک ایرانی-آمریکایی،
01:42
I'm deeply concerned about what this means for our freedoms
27
102308
3787
عمیقا نگران معنای آن برای آزادی‌هایمان هستم
01:46
and what kinds of protections we need.
28
106119
2171
و این که به چه نوع حمایت‌هایی نیاز داریم.
01:48
I believe we need a right to cognitive liberty,
29
108993
3460
من معتقدم ما به حق آزادی شناختی نیاز داریم،
01:52
as a human right that needs to be protected.
30
112477
2892
بعنوان یک حق بشر که باید حمایت شود.
01:55
If not, our freedom of thought,
31
115772
2643
اگر نشود، آزادی تفکر ما،
01:58
access and control over our own brains
32
118439
3024
پردازش و کنترل بر روی مغزهایمان
02:01
and our mental privacy will be threatened.
33
121487
2841
و حریم روحی ما مورد تهدید قرار خواهد گرفت.
02:05
Consider this:
34
125698
1158
به این توجه کنید:
02:06
the average person thinks thousands of thoughts each day.
35
126880
3314
روزانه هزاران فکر از سر یک فرد متوسط می‌گذرد.
02:10
As a thought takes form,
36
130697
1151
وقتی یک فکر شکل می‌گیرد،
02:11
like a math calculation or a number, a word,
37
131872
5056
مثل یک محاسبه ریاضی یا یک عدد، یک کلمه،
02:16
neurons are interacting in the brain,
38
136952
2885
رشته‌های عصبی در مغز در حال فعل و انفعا‌ل‌ هستند،
02:19
creating a miniscule electrical discharge.
39
139861
3088
تا تخلیهٔ الکتریکی کوچکی شکل گیرد.
02:23
When you have a dominant mental state, like relaxation,
40
143713
3452
وقتی شما وضعیت روحی ثابتی مثل آرامش دارید،
02:27
hundreds and thousands of neurons are firing in the brain,
41
147189
4175
صدها و هزاران یاختهٔ عصبی در مغز شلیک می‌شوند،
02:31
creating concurrent electrical discharges in characteristic patterns
42
151388
4218
تا تخلیه‌های الکتریکی همزمانی را با الگو‌های مشخص ایجاد کنند
02:35
that can be measured with electroencephalography, or EEG.
43
155630
4865
که به وسیلهٔ نوار مغزی، یا EEG قابل اندازه‌گیری هستند.
02:41
In fact, that's what you're seeing right now.
44
161118
2160
در حقیقت، درست همین چیزی که الان می‌بینید.
02:43
You're seeing my brain activity that was recorded in real time
45
163956
3964
شما فعالیت مغزی من را می‌بینید که در زمان فعالیت
02:47
with a simple device that was worn on my head.
46
167944
2735
با دستگاهی ساده ضبط شده‌اند که سرم را پوشانده بود.
02:51
What you're seeing is my brain activity when I was relaxed and curious.
47
171669
5653
چیزی که می‌بینید فعالیت مغزی من است وقتی در وضعیت آرامش و کنجکاوی بودم.
02:58
To share this information with you,
48
178097
1755
برای به اشتراک گذاشتن این اطلاعات با شما،
02:59
I wore one of the early consumer-based EEG devices
49
179876
3020
یکی از جدیدترین دستگاه‌های نوار مغزی مصرف کننده - محور را سرم گذاشتم
03:02
like this one,
50
182920
1211
مثل این یکی،
03:04
which recorded the electrical activity in my brain in real time.
51
184155
3988
که فعالیت الکتریکی در مغزم را در زمان فعالیت ضبط می‌کرد.
03:08
It's not unlike the fitness trackers that some of you may be wearing
52
188849
3826
فرقی با ثبت کننده‌های تناسب اندام ندارد که بعضی از شما ممکن است بپوشید
03:12
to measure your heart rate or the steps that you've taken,
53
192699
3586
تا ضربان قلب یا تعداد قدم‌هایتان
03:16
or even your sleep activity.
54
196309
1587
و یا حتی فعالیت در خواب را اندازه‌گیری کنید.
03:19
It's hardly the most sophisticated neuroimaging technique on the market.
55
199154
3824
اصلاً این طور نیست که پیچیده‌ترین تکنیک تصویربرداری عصبی موجود در بازار باشد.
03:23
But it's already the most portable
56
203597
2378
اما در حال حاضر قابل حمل‌ترین
03:25
and the most likely to impact our everyday lives.
57
205999
3152
و به احتمال زیاد موثرترین در زندگی‌های روزمره ما است.
03:29
This is extraordinary.
58
209915
1503
فوق‌العاده است.
03:31
Through a simple, wearable device,
59
211442
2505
از طریق یک دستگاه ساده، و قابل پوشش،
03:33
we can literally see inside the human brain
60
213971
3548
می‌توانیم دقیقاً درون مغز انسان را ببینیم
03:37
and learn aspects of our mental landscape without ever uttering a word.
61
217543
6476
و جنبه‌هایی از چشم‌انداز روحی‌مان را بدون حتی ادا کردن یک کلمه یاد بگیریم.
03:44
While we can't reliably decode complex thoughts just yet,
62
224829
3653
درحالیکه هنوز نمی‌توانیم بطور قابل استنادی افکار پیچیده را رمزگشایی کنیم،
03:48
we can already gauge a person's mood,
63
228506
2519
ما الان قادریم حالت یک فرد را بسنجیم،
03:51
and with the help of artificial intelligence,
64
231049
2873
و با کمک هوش مصنوعی،
03:53
we can even decode some single-digit numbers
65
233946
4341
می‌توانیم حتی برخی از اعداد تک رقمی
03:58
or shapes or simple words that a person is thinking
66
238311
4882
یا اشکال یا کلمات ساده که یک شخص به آن فکر می‌کند
04:03
or hearing, or seeing.
67
243217
2189
یا می‌شنود، یا می‌بیند را رمزگشایی کنیم.
04:06
Despite some inherent limitations in EEG,
68
246345
3365
علی‌رغم برخی محدودیت‌های ذاتی در نوار مغزی،
04:09
I think it's safe to say that with our advances in technology,
69
249734
4720
فکر می‌کنم ایرادی نداشته باشد بگوییم که با پیشرفت‌هایمان در تکنولوژی،
04:14
more and more of what's happening in the human brain
70
254478
3809
هرچه بیشتر از آنچه در مغز انسان می‌گذرد
04:18
can and will be decoded over time.
71
258311
2310
به مرور زمان قابلیت رمزگشایی خواهد داشت.
04:21
Already, using one of these devices,
72
261362
2746
هم اکنون، با استفاده از یکی از این دستگاه‌ها،
04:24
an epileptic can know they're going to have an epileptic seizure
73
264132
3255
یک فرد مبتلا به صرع می‌تواند بفهمد که چه موقع مورد حمله صرع قرار خواهد گرفت
04:27
before it happens.
74
267411
1436
قبل از وقوع آن.
04:28
A paraplegic can type on a computer with their thoughts alone.
75
268871
4603
شخص دچار فلج می‌تواند تنها با افکارش روی کامپیوتر تایپ کند.
04:34
A US-based company has developed a technology to embed these sensors
76
274485
4183
شرکتی آمریکایی یک فناوری‌ را توسعه داده تا این حسگرها
04:38
into the headrest of automobilies
77
278692
2230
در زیرسری صندلی ماشین‌ها جاسازی شود
04:40
so they can track driver concentration,
78
280946
2505
تا آنها بتوانند تمرکز راننده،
04:43
distraction and cognitive load while driving.
79
283475
2667
و حواس پرتی و قدرت تشخیص را در هنگام رانندگی ثبت کنند.
04:46
Nissan, insurance companies and AAA have all taken note.
80
286912
4058
نیسان، شرکت‌های بیمه و انجمن خودروسازان امریکا همگی آن را مورد لحاظ قرار داده‌اند.
04:51
You could even watch this choose-your-own-adventure movie
81
291949
4508
شما حتی می‌توانید این را بعنوان فیلم - ماجراجویی-خودت را-انتخاب کن تماشا کنید
04:56
"The Moment," which, with an EEG headset,
82
296481
4240
«لحظه‌،» که یک سربند نوار مغزی،
05:00
changes the movie based on your brain-based reactions,
83
300745
3926
فیلم را به واسطهٔ واکنش‌های مغز-محور شما تغییر می‌دهد،
05:04
giving you a different ending every time your attention wanes.
84
304695
4353
و هر بار که توجه شما کاهش یابد یک پایان متفاوت به شما ارائه می‌دهد.
05:11
This may all sound great,
85
311154
2763
ممکن است همهٔ این‌ها بنظر عالی بیایند،
05:13
and as a bioethicist,
86
313941
2189
و بعنوان متخصص اخلاق زیستی،
05:16
I am a huge proponent of empowering people
87
316154
3613
به شدت طرفدار توانمدسازی مردم هستم
05:19
to take charge of their own health and well-being
88
319791
2616
تا مسئول سلامتی و تندرستی خود شوند
05:22
by giving them access to information about themselves,
89
322431
2918
با دادن دسترسی به اطلاعات درمورد خودشان به آن‌ها،
05:25
including this incredible new brain-decoding technology.
90
325373
2976
از جمله این تکنولوژی جدید رمزگشای مغزی اعجاب‌انگیز.
05:29
But I worry.
91
329878
1167
ولی من نگرانم.
05:31
I worry that we will voluntarily or involuntarily give up
92
331736
4760
من نگرانم از اینکه ما داوطلبانه یا غیر داوطلبانه
05:36
our last bastion of freedom, our mental privacy.
93
336520
4118
آخرین سنگر آزادی‌مان را رها کنیم، حریم خصوصی مغزی‌مان.
05:41
That we will trade our brain activity
94
341302
2925
که باعث می‌شود فعالیت مغزی‌مان را
05:44
for rebates or discounts on insurance,
95
344251
3046
برای تخفیف یا کاهش قیمت بیمه معامله کنیم،
05:48
or free access to social-media accounts ...
96
348391
2603
یا دستیابی رایگان به کاربری شبکه‌های اجتماعی …
05:52
or even to keep our jobs.
97
352444
1848
یا حتی برای نگهداشتن کارمان.
05:54
In fact, in China,
98
354900
1913
در حقیقت، در چین،
05:58
the train drivers on the Beijing-Shanghai high-speed rail,
99
358199
5897
راننده‌های قطار که بر روی خطوط پرسرعت پکن-شانگهای کار می‌کنند،
06:04
the busiest of its kind in the world,
100
364120
2532
شلوغ‌‌ترین از نوع خودش در جهان،
06:06
are required to wear EEG devices
101
366676
2476
ملزم هستند که دستگاه‌های نوار مغزی را بر سر بگذارند
06:09
to monitor their brain activity while driving.
102
369176
2427
تا فعالیت مغزی آن‌ها در هنگام رانندگی مشاهده شود.
06:12
According to some news sources,
103
372157
2226
بر اساس برخی منابع خبری،
06:14
in government-run factories in China,
104
374407
2679
در کارخانجات دولت-گردان در چین،
06:17
the workers are required to wear EEG sensors to monitor their productivity
105
377110
5364
کارگرها لازم است که این دستگاه‌های نوار مغزی را بپوشند تا کارآمدی
06:22
and their emotional state at work.
106
382498
2115
و وضعیت احساسی آن‌ها در کار بررسی شود.
06:25
Workers are even sent home
107
385267
2310
کارگرها حتی به خانه فرستاده می‌شوند
06:27
if their brains show less-than-stellar concentration on their jobs,
108
387601
4054
اگر مغز آن‌ها تمرکزی کمتر-از-ایده‌آل بر روی کارشان داشته باشد،
06:31
or emotional agitation.
109
391679
2122
یا آشفتگی احساسی داشته باشند.
06:35
It's not going to happen tomorrow,
110
395189
1745
این همین فردا اتفاق نمی‌افتد،
06:36
but we're headed to a world of brain transparency.
111
396958
3086
ولی ما به سوی جهانی با شفافیت مغزی پیش می‌رویم.
06:40
And I don't think people understand that that could change everything.
112
400537
3440
و فکر نمی‌کنم مردم بفهمند که آن می‌تواند همه چیز را تفییر دهد.
06:44
Everything from our definitions of data privacy to our laws,
113
404474
3675
هر چیزی از تعاریف ما از حریم خصوصی اطلاعات گرفته
تا قانون‌ها و ایده‌هایمان درباره آزادی.
06:48
to our ideas about freedom.
114
408173
1800
06:50
In fact, in my lab at Duke University,
115
410731
3077
در حقیقت، در آزمایشگاه من در دانشگاه دوک،
06:53
we recently conducted a nationwide study in the United States
116
413832
3175
ما اخیراً یک تحقیق در سراسر کشور ایالات متحده را اداره می‌کنیم
06:57
to see if people appreciated
117
417031
1959
تا میزان استقبال مردم
06:59
the sensitivity of their brain information.
118
419014
2071
از حساسیت اطلاعات مغزیشان را بررسی کنیم.
07:02
We asked people to rate their perceived sensitivity
119
422356
3356
از مردم خواستیم که حساسیت ادراکی‌شان را
07:05
of 33 different kinds of information,
120
425736
2231
از ۳۳ نوع اطلاعات مختلف ارزیابی کنند،
07:07
from their social security numbers
121
427991
2220
از شماره‌های امنیت ملی‌شان
07:10
to the content of their phone conversations,
122
430235
2597
تا محتوای مکالمات تلفنی‌شان،
07:12
their relationship history,
123
432856
2193
تاریخچهٔ روابطشان،
07:15
their emotions, their anxiety,
124
435073
1942
احساساتشان، اضطرابشان،
07:17
the mental images in their mind
125
437039
1946
تصاویر مغزی در ذهن‌شان
07:19
and the thoughts in their mind.
126
439009
1538
و تفکرات در ذهن‌شان.
07:21
Shockingly, people rated their social security number as far more sensitive
127
441481
5229
شگفتا، مردم شماره‌های امنیت ملی‌شان را با حساسیت بیشتری ارزیابی کردند
07:26
than any other kind of information,
128
446734
2203
نسبت به هر نوع اطلاعات دیگری،
07:28
including their brain data.
129
448961
2435
از جمله اطلاعات مغزی‌شان.
07:32
I think this is because people don't yet understand
130
452380
3216
فکر می‌کنم به خاطر این است که مردم هنوز درک نمی‌کنند
07:35
or believe the implications of this new brain-decoding technology.
131
455620
4063
یا باور نمی‌کنند پیامد‌های این تکنولوژی جدید رمزگشای مغزی چیست.
07:40
After all, if we can know the inner workings of the human brain,
132
460629
3289
به هر حال، اگر ما بتوانیم کارکرد‌های درونی مغز بشر را بفهمیم،
07:43
our social security numbers are the least of our worries.
133
463942
2706
شماره‌های امنیت ملی‌مان کمترین نگرانی ما خواهد بود.
07:46
(Laughter)
134
466672
1285
(خنده)
07:47
Think about it.
135
467981
1167
به آن فکر کنید.
07:49
In a world of total brain transparency,
136
469172
2396
در یک جهان با شفافیت مغزی کامل،
07:51
who would dare have a politically dissident thought?
137
471592
2429
چه کسی جرات می‌کند یک تفکر مخالف سیاسی داشته باشد؟
07:55
Or a creative one?
138
475279
1541
یا یک تفکر خلاق؟
07:57
I worry that people will self-censor
139
477503
3476
من نگرانم که مردم
08:01
in fear of being ostracized by society,
140
481003
3302
از ترس طرد شدن توسط جامعه خودشان را سانسور کنند،
08:04
or that people will lose their jobs because of their waning attention
141
484329
3813
یا مردم کارشان را به خاطر کاهش تمرکز
08:08
or emotional instability,
142
488166
2150
یا ناپایداری احساسی،
08:10
or because they're contemplating collective action against their employers.
143
490340
3550
یا به دلیل فکر کردن به اقدامات جمعی برعلیه کارفرماهایشان از دست بدهند.
08:14
That coming out will no longer be an option,
144
494478
3177
که اگر اینطور شود دیگر یک انتخاب نخواهد بود،
08:17
because people's brains will long ago have revealed their sexual orientation,
145
497679
5067
بدلیل اینکه طول خواهد کشید تا مغز‌های مردم گرایش‌های جنسی‌شان را برملا کنند،
08:22
their political ideology
146
502770
1822
ایدئولوژی‌های سیاسی‌شان
08:24
or their religious preferences,
147
504616
2025
یا اولویت‌های مذهبی شان را،
08:26
well before they were ready to consciously share that information
148
506665
3080
بسیار قبل از اینکه آن‌ها آماده باشند تا آگاهانه اطلاعاتشان را
08:29
with other people.
149
509769
1253
با بقیه مردم به اشتراک بگذارند.
08:31
I worry about the ability of our laws to keep up with technological change.
150
511565
4912
من نگران توانمندی قانونمان درتطابق با تغییرات تکنولوژی هستم.
08:36
Take the First Amendment of the US Constitution,
151
516986
2320
اولین اصلاحیهٔ قانون اساسی ایالات متحده آمریکا را درنظر بگیرید،
08:39
which protects freedom of speech.
152
519330
1958
که از آزادی بیان حمایت می‌کند.
08:41
Does it also protect freedom of thought?
153
521312
1927
آیا از آزادی فکر هم حمایت می‌کند؟
08:43
And if so, does that mean that we're free to alter our thoughts however we want?
154
523944
4169
و در اینصورت، یعنی آیا آزادیم تفکراتمان را هرطور خواستیم تغییر دهیم؟
08:48
Or can the government or society tell us what we can do with our own brains?
155
528137
4674
یا دولت و جامعه می‌توانند به ما بگویند که با مغزهایمان چه کار کنیم؟
08:53
Can the NSA spy on our brains using these new mobile devices?
156
533591
3717
آیا NSA می‌تواند با این ابزار جدید موبایلی از مغزهلی ما جاسوسی کند؟
08:58
Can the companies that collect the brain data through their applications
157
538053
4119
آیا شرکت‌هایی که اطلاعات مغزی را از فرم‌های ثبت نامی جمع می‌کنند
09:02
sell this information to third parties?
158
542196
2074
می‌توانند این اطلاعات را به شخص ثالث بفروشند؟
09:05
Right now, no laws prevent them from doing so.
159
545174
3222
در حال حاضر، هیچ قانونی برای جلوگیری از انجام آنها وجود ندارد.
09:09
It could be even more problematic
160
549203
2025
می‌تواند حتی دردسرساز‌تر هم بشود
09:11
in countries that don't share the same freedoms
161
551252
2519
در کشور‌هایی که مردم آزادی‌هایی
09:13
enjoyed by people in the United States.
162
553795
2103
مانند آنچه مردم در ایالات متحده از آن لذت می‌برند را ندارند.
09:16
What would've happened during the Iranian Green Movement
163
556883
3787
در طی جنبش سبز ایرانیان چه اتفاقی می‌توانست بیفتد
09:20
if the government had been monitoring my family's brain activity,
164
560694
3901
اگر دولت فعالیت مغزی خانوادهٔ من را زیر نظر داشت،
09:24
and had believed them to be sympathetic to the protesters?
165
564619
4007
و به این باور رسیده بود که آن‌ها با معترضین همدردی می‌کنند؟
09:30
Is it so far-fetched to imagine a society
166
570091
3047
آیا خیلی بعید است که یک جامعه را تصور کرد
09:33
in which people are arrested based on their thoughts
167
573162
2842
که مردمانش بر اساس تفکراتشان
09:36
of committing a crime,
168
576028
1167
در مورد ارتکاب به یک جرم دستگیر می‌شوند،
09:37
like in the science-fiction dystopian society in "Minority Report."
169
577219
4312
مثل داستان‌های علمی-تخیلی جامعه دوگانه در «گزارش اقلیت.»
09:42
Already, in the United States, in Indiana,
170
582286
4323
در حال حاضر، در ایالات متحده، در ایندیانا،
09:46
an 18-year-old was charged with attempting to intimidate his school
171
586633
4937
یک پسر ۱۸ ساله به اقدام برای ارعاب در مدرسه‌اش محکوم شد
09:51
by posting a video of himself shooting people in the hallways ...
172
591594
3309
به خاطر ارسال ویدیویی از خودش که در حال شلیک به مردم در راهرو است ...
09:55
Except the people were zombies
173
595881
3007
با این تفاوت که مردم به شکل زامبی‌ها بودند
09:58
and the video was of him playing an augmented-reality video game,
174
598912
5047
و فیلم از بازی خودش در یک بازی ویدیویی واقعیت افزوده بود،
10:03
all interpreted to be a mental projection of his subjective intent.
175
603983
4772
که از آن به عنوان تصویرسازی ذهنی از قصد درونی او برداشت شد.
10:10
This is exactly why our brains need special protection.
176
610456
4612
دقیقاً به همین دلیل مغز ما نیاز به حفاظت خاص دارد.
10:15
If our brains are just as subject to data tracking and aggregation
177
615092
3556
اگر مغز‌های ما فقط در حال نگهداری کردن اطلاعات و تجمیع آن‌ها بود
10:18
as our financial records and transactions,
178
618672
2532
بعنوان داده‌ها و تراکنش‌های مالی‌مان،
10:21
if our brains can be hacked and tracked like our online activities,
179
621228
4285
اگر مغزهایمان می‌توانستند مثل فعالیت‌های آنلاین ما موبایل‌هایمان و اپلیکیشن‌هایمان،
10:25
our mobile phones and applications,
180
625537
2361
هک شده و ردیابی شوند،
10:27
then we're on the brink of a dangerous threat to our collective humanity.
181
627922
4269
آن وقت ما در آستانهٔ یک تهدید خطرناک برای جامعهٔ انسانی بودیم.
10:33
Before you panic,
182
633406
1309
قبل از اینکه بترسید،
10:36
I believe that there are solutions to these concerns,
183
636012
3144
من معتقدم که راه حل‌هایی برای این نگرانی‌ها وجود دارد،
10:39
but we have to start by focusing on the right things.
184
639180
2825
ولی ما باید با تمرکز روی چیز‌های درست شروع کنیم.
10:42
When it comes to privacy protections in general,
185
642580
2921
وقتی بطور کلی مربوط به محافظت از حریم شخصی می‌شود،
10:45
I think we're fighting a losing battle
186
645525
1826
فکر می‌کنم یک جنگ باطل انجام می‌دهیم
10:47
by trying to restrict the flow of information.
187
647375
2858
با تلاش برای محدود کردن جریان اطلاعات.
10:50
Instead, we should be focusing on securing rights and remedies
188
650257
4057
درعوض ، ما باید بر روی تأمین حقوق و راه حل‌ها تمرکز کنیم
10:54
against the misuse of our information.
189
654338
2275
در مقابل سوءاستفاده از اطلاعاتمان.
10:57
If people had the right to decide how their information was shared,
190
657291
3285
اگر مردم حق تصمیم گیری درباره نحوه اشتراک‌گذاری اطلاعاتشان داشتند،
11:00
and more importantly, have legal redress
191
660600
2921
و مهمتر از همه، داشتن قانون جبران خسارت
11:03
if their information was misused against them,
192
663545
2428
اگر از اطلاعاتشان علیه خودشان سوءاستفاده می‌شد،
11:05
say to discriminate against them in an employment setting
193
665997
2786
مثلا برای تبعیض قائل شدن علیه آن‌ها در یک ساختار استخدامی
11:08
or in health care or education,
194
668807
2785
یا در بهداشت یا تحصیلات،
11:11
this would go a long way to build trust.
195
671616
2571
بسیار طول می‌کشید تا اعتماد سازی شود.
11:14
In fact, in some instances,
196
674843
1718
در حقیقت، در برخی نمونه‌ها،
11:16
we want to be sharing more of our personal information.
197
676585
3524
ما می‌خواهیم اطلاعات شخصی بیشتری را به اشتراک بگذاریم.
11:20
Studying aggregated information can tell us so much
198
680697
3047
مطالعه اطلاعات جمع آوری شده می‌تواند به ما خیلی چیزها بگوید
11:23
about our health and our well-being,
199
683768
2747
دربارهٔ سلامت‌مان و تندرستی‌مان،
11:26
but to be able to safely share our information,
200
686539
3313
ولی برای اینکه قادر باشیم اطلاعاتمان را با امنیت به اشتراک بگذاریم،
11:29
we need special protections for mental privacy.
201
689876
3223
به حمایت‌های مخصوص برای حریم شخصی مغزی نیاز داریم.
11:33
This is why we need a right to cognitive liberty.
202
693832
3147
این دلیل نیاز ما به یک حق آزادی شناختی است.
11:37
This right would secure for us our freedom of thought and rumination,
203
697543
4079
این حق آزادی تفکر و اندیشه را برای ما تأمین می‌کند،
11:41
our freedom of self-determination,
204
701646
2540
آزادی تشخیص شخصی‌مان،
11:44
and it would insure that we have the right to consent to or refuse
205
704210
4390
و اطمینان می‌دهد که ما حق پذیرش یا رد کردن
11:48
access and alteration of our brains by others.
206
708624
2857
دستیابی و تغییر مغزهایمان توسط دیگران را داریم.
11:51
This right could be recognized
207
711811
2112
این حق می‌تواند تحت عنوان قسمتی از
11:53
as part of the Universal Declaration of Human Rights,
208
713947
2883
اعلامیهٔ جهانی حقوق بشر شناخته شود،
11:56
which has established mechanisms
209
716854
2388
که سازوکار‌هایی را ایجاد کرده است
11:59
for the enforcement of these kinds of social rights.
210
719266
2856
برای اجرایی کردن این مدل‌های حقوق اجتماعی.
12:03
During the Iranian Green Movement,
211
723872
2070
در طول جنبش سبز ایرانیان،
12:05
the protesters used the internet and good old-fashioned word of mouth
212
725966
5186
معترضین از اینترنت و شعار‌های قدیمی خوب استفاده کردند
12:11
to coordinate their marches.
213
731176
1948
تا راهپیمایی‌هایشان را هماهنگ کنند.
12:14
And some of the most oppressive restrictions in Iran
214
734238
2769
و برخی از ظالمانه‌ترین محدودیت‌ها در ایران
12:17
were lifted as a result.
215
737031
1877
در نتیجه برداشته شد.
12:20
But what if the Iranian government had used brain surveillance
216
740047
4087
ولی چه می‌شد اگر دولت ایران از نظارت مغزی استفاده می‌کرد
12:24
to detect and prevent the protest?
217
744158
3061
که جستجو کند و از اعتراض پیشگیری کند؟
12:28
Would the world have ever heard the protesters' cries?
218
748847
3176
آیا جهان فریاد معترضین را می‌شنید؟
12:33
The time has come for us to call for a cognitive liberty revolution.
219
753732
5121
برای ما زمان آن رسیده که برای دگرگونی آزادی شناختی اقدام کنیم.
12:39
To make sure that we responsibly advance technology
220
759559
3264
تا مطمئن شویم که ما مسئولانه تکنولوژی‌ را توسعه می‌دهیم
12:42
that could enable us to embrace the future
221
762847
2978
که می‌تواند ما را قادر به پذیرش آینده کند
12:45
while fiercely protecting all of us from any person, company or government
222
765849
6717
در حالی که از ما در برابر هر شخص، شرکت یا دولتی به شدت حفاظت کند
12:52
that attempts to unlawfully access or alter our innermost lives.
223
772590
5040
که با بی‌قانونی به درونی‌ترین مسائل زندگی ما دسترسی پیدا کند و تغییرشان دهد.
12:58
Thank you.
224
778659
1174
متشکرم.
12:59
(Applause)
225
779857
3492
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7