Your Right to Mental Privacy in the Age of Brain-Sensing Tech | Nita Farahany | TED

57,265 views ・ 2023-05-30

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: alireza masoum Reviewer: mohammad ali masoum
00:04
Today, we know and track virtually nothing that’s happening in our own brains.
0
4125
6757
امروزه، ما تقریباً چیزی را که در مغزمان اتفاق می‌افتد نمی‌دانیم و ردیابی نمی‌کنیم.
00:11
But in a future that is coming much faster than you realize,
1
11341
4004
اما در آینده‌ای که بسیار سریع‌تر از آن چیزی که تصور می‌کنید در حال رخ دادن است،
00:15
all of that is about to change.
2
15387
2919
همه چیز در شرف تغییر است.
00:18
We're now familiar with sensors in our smart watches to our rings,
3
18306
4129
ما اکنون با حسگرهایی در ساعت‌های هوشمند تا حلقه‌هایمان آشنا هستیم،
00:22
that track everything from our heartbeats to our footsteps, breaths,
4
22477
5005
که همه چیز را از ضربان قلب گرفته تا قدم‌ها، نفس‌ها،
00:27
body temperature, even our sleep.
5
27524
2002
دمای بدن و حتی خواب ما را ردیابی می‌کنند.
00:29
Now, consumer neurotech devices are being sold worldwide
6
29943
4254
اکنون، دستگاه‌های نوروتکنولوژی مصرف‌کننده در سرتاسر جهان فروخته می‌شوند
00:34
to enable us to track our own brain activity.
7
34239
3420
تا ما را قادر به ردیابی فعالیت مغز خود کنند.
00:38
As companies from Meta to Microsoft,
8
38034
3712
همانطور که شرکت‌هایی از متا گرفته تا مایکروسافت،
00:41
Snap and even Apple
9
41788
1877
اسنپ و حتی اپل
00:43
begin to embed brain sensors in our everyday devices
10
43665
3337
شروع به تعبیه حسگرهای مغز در دستگاه‌های روزمره ما
00:47
like our earbuds, headphones, headbands, watches and even wearable tattoos,
11
47002
6715
مانند هدفون‌های بی سیم، هدفون‌ها، هدبند، ساعت‌ها و حتی خالکوبی‌های پوشیدنی می‌کنند،
00:53
we're reaching an inflection point in brain transparency.
12
53717
4296
ما به نقطه عطف شفافیت مغز می‌رسیم.
00:58
And those are just some of the company names we're familiar with.
13
58013
3086
و اینها تنها برخی از نام‌های شرکتی هستند که با آنها آشنا هستیم.
01:01
There are so many more.
14
61099
1168
خیلی بیشتر وجود دارد.
01:02
Consumer neurotech devices are moving from niche products
15
62309
3253
دستگاه‌های عصبی مصرف‌کننده در حال حرکت از محصولات خاص
01:05
with limited applications
16
65604
1793
با کاربردهای محدود به راهی هستند که
01:07
to becoming the way in which we'll learn about our own brain activity,
17
67397
3795
ما در مورد فعالیت مغز خودمان،
01:11
our controller for virtual reality and augmented reality.
18
71192
3629
کنترل‌کننده واقعیت مجازی و واقعیت افزوده یاد می‌گیریم.
01:14
And one of the primary ways we'll interact
19
74863
2586
و یکی از راه‌های اصلی تعامل
01:17
with all of the rest of our technology.
20
77490
2419
ما با بقیه فناوری‌هایمان است.
01:20
Even conservative estimates of the neurotech industry
21
80410
3337
حتی برآوردهای محافظه کارانه صنعت نوروتکنولوژی
01:23
put it at more than 38 billion dollars by 2032.
22
83788
4171
آن را تا سال ۲۰۳۲ به بیش از ۳۸ میلیارد دلار می‌رساند.
01:28
This new category of technology presents unprecedented possibility,
23
88668
5214
این دسته جدید از فناوری امکان بی سابقه‌ای،
01:33
both good and bad.
24
93923
2169
هم خوب و هم بد نشان می‌دهد.
01:36
Consider how our physical health and well-being are increasing
25
96509
3671
در نظر بگیرید که چگونه سلامت جسمی و رفاه ما در حال افزایش است
01:40
while neurological disease and suffering continue to rise.
26
100180
3587
در حالی که بیماری و رنج عصبی همچنان رو به فزون است.
01:44
55 million people around the world are struggling with dementia,
27
104267
4588
۵۵ میلیون نفر در سراسر جهان با زوال عقل دست و پنجه نرم می‌کنند،
01:48
with more than 60 to 70 percent of them suffering from Alzheimer's disease.
28
108855
4505
که بیش از ۶۰ تا ۷۰ درصد آنها از بیماری آلزایمر رنج می‌برند.
01:53
Nearly a billion people struggle with mental health
29
113860
3170
نزدیک به یک میلیارد نفر با سلامت روان و
01:57
and drug use disorders.
30
117072
1918
اختلالات مصرف مواد مخدر دست و پنجه نرم می‌کنند.
01:59
Depression affects more than 300 million.
31
119032
3754
افسردگی بیش از ۳۰۰ میلیون نفر را تحت تاثیر قرار می‌دهد.
02:02
Consumer neurotech devices could finally enable us
32
122827
2878
دستگاه‌های نوروتکنولوژی مصرف‌کننده در نهایت می‌توانند ما را
02:05
to treat our brain health and wellness
33
125747
2794
قادر سازند تا با سلامت و تندرستی مغزمان به همان اندازه جدی
02:08
as seriously as we treat the rest of our physical well-being.
34
128583
3295
رفتار کنیم که با بقیه سلامت فیزیکی خود رفتار می‌کنیم.
02:13
But making our brains transparent to others
35
133463
3378
اما شفاف سازی مغز ما برای دیگران خطرات خارق العاده‌ای
02:16
also introduces extraordinary risks.
36
136841
3337
را نیز به همراه دارد.
02:20
Which is why, before it's too late to do so,
37
140845
3003
به همین دلیل است که قبل از اینکه برای انجام این کار دیر شود،
02:23
we must change the basic terms of service for neurotechnology
38
143890
4838
باید شرایط اولیه خدمات فناوری عصبی را
02:28
in favour of individual rights.
39
148770
2252
به نفع حقوق فردی تغییر دهیم.
02:31
I say this not just as a law professor who believes in the power of law,
40
151523
4462
من این را نه فقط به عنوان یک استاد حقوق که به قدرت قانون اعتقاد دارد،
02:35
nor just a philosopher trying to flesh out norms,
41
155985
3921
و نه فقط فیلسوفی که سعی می‌کند هنجارها را تطبیق دهد،
02:39
but as a mother who's been personally and profoundly impacted
42
159906
5339
بلکه به عنوان مادری که شخصاً و عمیقاً تحت تأثیر
02:45
by the use of neurotechnology in my own life.
43
165245
2711
استفاده از فناوری عصبی در زندگی‌ام قرار گرفته است می‌گویم.
02:50
On Mother's Day in 2017,
44
170291
3462
در روز مادر در سال ۲۰۱۷،
02:53
as my daughter Calista lay cradled in my arms,
45
173753
4964
در حالی که دخترم کالیستا در آغوش من بود،
02:58
she took one last beautiful breath.
46
178717
3503
آخرین نفس زیبا را کشید.
03:03
After a prolonged hospitalization,
47
183972
2627
پس از بستری طولانی مدت،
03:06
complications following infections claimed her life.
48
186599
3712
عوارض ناشی از عفونت جان او را گرفت.
03:11
The harrowing trauma that she endured and we witnessed stretched into weeks.
49
191521
5047
ضربه هولناکی که او متحمل شد و ما شاهد آن بودیم هفته‌ها طول کشید.
03:17
And I was left with lasting trauma
50
197152
3044
و من با ترومای پایداری روبه‌رو شدم
03:20
that progressed into post-traumatic stress disorder.
51
200238
3128
که به اختلال استرس پس از سانحه تبدیل شد.
03:24
Sleep escaped me for years.
52
204325
2837
سال‌ها خواب نداشتم.
03:27
As each time I closed my eyes, I relived everything,
53
207662
3629
هر بار که چشمانم را می‌بستم، همه چیز را زنده می‌دیدم،
03:31
from the first moments that I was pushed out of the emergency room
54
211332
4922
از اولین لحظاتی که از اورژانس بیرون رانده شدم
03:36
to her gut-wrenching cries.
55
216254
2127
تا گریه‌های دردناک او.
03:39
Ultimately, it was the help of a talented psychologist,
56
219549
4171
در نهایت، با کمک یک روانشناس با استعداد،
03:43
using exposure therapy,
57
223762
2210
استفاده از مواجهه درمانی،
03:46
and my use of neurofeedback
58
226014
2586
و استفاده از نوروفیدبک بود
03:48
that enabled me to sleep through the night.
59
228600
2836
که به من امکان داد تا تمام شب بخوابم.
03:51
For others who are suffering from traumatic memories,
60
231770
3378
برای دیگرانی که از خاطرات آسیب‌زا رنج می‌برند،
03:55
an innovative new approach using decoded neurofeedback,
61
235148
3629
یک رویکرد جدید ابتکاری با استفاده از نوروفیدبک رمزگشایی شده،
03:58
or DecNef, may offer reprieve.
62
238777
2419
یا DecNef ممکن است مهیا کند.
04:01
This groundbreaking approach uses machine-learning algorithms
63
241613
3712
این رویکرد پیشگامانه از الگوریتم‌های یادگیری ماشینی
04:05
to identify specific brain-activity patterns,
64
245366
3462
برای شناسایی الگوهای فعالیت مغزی خاص،
04:08
including those associated with traumatic memories.
65
248870
3295
از جمله الگوهای مرتبط با خاطرات آسیب‌زا استفاده می‌کند.
04:12
Participants then play a game
66
252207
2544
سپس شرکت‌کنندگان یک بازی انجام می‌دهند
04:14
that enables them to retrain their brain activity
67
254793
2711
که آنها را قادر می‌سازد تا به جای آن فعالیت مغز خود را
04:17
on positive associations instead.
68
257545
2544
بر روی تداعی‌های مثبت دوباره آموزش دهند.
04:21
If I had had DecNef available to me at the time,
69
261216
3545
اگر در آن زمان DecNef را در دسترس داشتم،
04:24
I might have overcome my PTSD more quickly
70
264803
3169
ممکن بود سریع‌تر بر PTSD خود غلبه کنم
04:28
without having to relive every sound, terror and smell in order to do so.
71
268014
6423
بدون اینکه مجبور باشم برای انجام این کار هر صدا، وحشت و بویی را دوباره زنده کنم.
04:35
I'm not the only one.
72
275146
1543
تنها من نیستم.
04:36
Sarah described herself as being at the end of her life,
73
276689
3087
سارا زندگی خودش را به دلیل افسردگی شدید
04:39
no longer in a life worth living,
74
279818
2168
و غیرقابل درمانش رو به پایان توصیف کرد،
04:42
because of her severe and intractable depression.
75
282028
2795
زندگی دیگر ارزش زیستن ندارد.
04:45
Then, using implanted brain sensors
76
285740
3045
سپس، سارا با استفاده از حسگرهای مغزی کاشته‌ شده
04:48
that reset her brain activity like a pacemaker for the brain,
77
288827
4504
که فعالیت مغز او را مانند ضربان‌ساز برای مغز بازنشانی می‌کرد،
04:53
Sarah reclaimed her will to live.
78
293373
2878
سارا اراده خود را برای زندگی دوباره به دست آورد.
04:56
While implanted neurotechnology advances have been extraordinary,
79
296960
4170
در حالی که پیشرفت‌های فناوری عصبی کاشته‌شده فوق‌العاده بوده است،
05:01
it's the everyday brain sensors
80
301172
2544
حسگرهای مغزی روزمره هستند
05:03
that are embedded in our ordinary technology
81
303758
2419
که در فناوری معمولی ما تعبیه شده‌اند
05:06
that I believe will impact the majority of our lives.
82
306219
3462
که معتقدم بر اکثریت زندگی ما تأثیر می‌گذارند.
05:09
Like the one third of adults
83
309722
2503
مانند یک سوم بزرگسالان
05:12
and nearly one quarter of children who are living with epilepsy
84
312225
3962
و تقریباً یک چهارم کودکان مبتلا به صرع که
05:16
for whom conventional anti-seizure medications fail.
85
316187
3170
داروهای متداول ضد تشنج برای آنها ناموفق است.
05:20
Now, researchers from Israel to Spain have developed brain sensors
86
320024
5089
محققانی از اسرائیل تا اسپانیا با استفاده از
05:25
using the power of AI in pattern recognition
87
325113
3503
قدرت AI در تشخیص الگو و الکتروانسفالوگرافی مصرف‌کننده
05:28
and consumer electroencephalography
88
328616
2836
حسگرهای مغزی را توسعه داده‌اند تا تشنج‌های صرع را
05:31
to enable the detection of epileptic seizures minutes
89
331494
3712
از چند دقیقه تا یک ساعت قبل از وقوع آن‌ها تشخیص دهند
05:35
to up to an hour before they occur,
90
335248
2419
و هشدارهای احتمالی نجات جان،
05:37
sending potentially life-saving alerts to a mobile device.
91
337667
3879
را به دستگاه تلفن همراه ارسال کنند.
05:42
Regular use of brain sensors could even enable us
92
342171
2753
استفاده منظم از حسگرهای مغزی حتی می‌تواند ما را قادر سازد
05:44
to detect the earliest stages
93
344966
1460
تا مراحل اولیه تهاجمی‌ترین
05:46
of the most aggressive forms of brain tumors, like glioblastoma,
94
346467
4630
انواع تومورهای مغزی، مانند گلیوبلاستوما را شناسایی کنیم،
05:51
where early detection is crucial to saving lives.
95
351139
3253
جایی که تشخیص زودهنگام برای نجات جان انسان‌ها ضروری است.
05:54
The same could hold true for Parkinson's disease, to Alzheimer's,
96
354392
3712
همین امر می‌تواند برای بیماری پارکینسون، آلزایمر،
05:58
traumatic brain injury, ADHD, and even depression.
97
358146
4004
آسیب مغزی تروماتیک، ADHD و حتی افسردگی صادق باشد.
06:03
We may even change our brains for the better.
98
363276
2461
حتی ممکن است مغزمان را به سمت بهتر شدن تغییر دهیم.
06:06
The brain training game industry,
99
366321
1876
صنعت بازی‌های آموزشی مغز،
06:08
worth a staggering 6.5 billion dollars in 2021,
100
368239
5005
به ارزش حیرت‌انگیز ۶.۵ میلیارد دلار در سال ۲۰۲۱،
06:13
was for years met with controversy
101
373286
1835
برای سال‌ها به دلیل ادعاهای علمی بدون پشتوانه
06:15
because of unsupported scientific claims about their efficacy.
102
375121
3128
در مورد اثربخشی آنها با بحث و جدل مواجه شد.
06:19
But now some brain-training platforms like Cognizant have proven powerful
103
379000
5380
اما اکنون برخی از پلتفرم‌های آموزش مغز مانند cognizant
06:24
in improving brain processing speeds, memory, reasoning
104
384422
4338
در بهبود سرعت پردازش مغز، استدلال حافظه و
06:28
and even executive functioning when played repeatedly over time.
105
388801
4296
حتی عملکرد اجرایی در هنگام بازی مکرر در طول زمان قدرتمند هستند.
06:33
When paired with neurofeedback devices for learning reinforcement,
106
393139
4838
هنگامی که با دستگاه‌های بازخورد نورونی برای تقویت یادگیری جفت می‌شویم،
06:38
this could revolutionize how we learn and adapt to change.
107
398019
3670
این می‌تواند نحوه یادگیری و سازگاری ما با تغییر را متحول کند.
06:42
Other breakthroughs could be transformational
108
402398
2836
پیشرفت‌های دیگر می‌تواند
06:45
for the human experience.
109
405276
1710
برای تجربه بشر تحول‌آفرین باشد.
06:47
Today, most human brain studies
110
407028
1793
امروزه، بیشترین مطالعات مغزی انسان
06:48
are based on a very small number of participants
111
408821
2378
بر اساس تعداد بسیار کمی از شرکت کنندگان
06:51
engaged in very specific tasks in a controlled laboratory environment.
112
411240
4505
درگیر در وظایف بسیار خاص در یک محیط آزمایشگاهی کنترل شده است.
06:56
With widespread use of brain sensors,
113
416245
2169
با استفاده گسترده از حسگرهای مغز،
06:58
the data we could have to learn about the human brain
114
418456
2628
داده‌هایی که می‌توانیم درباره مغز انسان بیاموزیم
07:01
would exponentially increase.
115
421125
2002
به طور تصاعدی افزایش می‌یابد.
07:03
With sufficiently large datasets of long-term, real-world data
116
423169
4296
با مجموعه داده‌های به اندازه کافی بزرگ از داده‌های درازمدت
07:07
from people engaged in everyday activity,
117
427507
2752
و دنیای واقعی از افرادی که در فعالیت‌های روزمره شرکت می‌کنند،
07:10
we just might address everything from neurological disease and suffering
118
430301
3879
ممکن است به همه چیز از بیماری و رنج عصبی گرفته
07:14
to creating transformational possibilities for the human experience.
119
434180
3962
تا ایجاد فرصت‌های دگرگون‌کننده برای تجربه انسانی بپردازیم.
07:19
But all of this will only be possible
120
439811
3128
اما همه اینها تنها در صورتی امکان پذیر خواهد بود
07:22
if people can confidently share their brain data
121
442981
2711
که افراد بتوانند با اطمینان اطلاعات مغز خود را
07:25
without fear that it will be misused against them.
122
445733
3128
بدون ترس از سوء استفاده علیه آنها به اشتراک بگذارند.
07:29
You see, the brain data that will be collected
123
449404
2627
می‌بینید که داده‌های مغزی که توسط این
07:32
and generated by these devices
124
452073
1460
دستگاه‌ها جمع‌آوری و تولید می‌شود
07:33
won't be collected in traditional laboratory environments
125
453533
4212
در محیط‌های آزمایشگاهی سنتی یا
07:37
or in clinical research studies run by physicians and scientists.
126
457745
4546
در مطالعات تحقیقات بالینی که توسط پزشکان و دانشمندان انجام می‌شود جمع آوری نمی‌شود.
07:42
Instead, it will be the sellers of these new devices,
127
462875
4130
در عوض، فروشندگان این دستگاه‌های جدید،
07:47
the very companies who've been commodifying our personal data for years.
128
467046
4797
همان شرکت‌هایی هستند که سال‌ها اطلاعات شخصی ما را کالایی می‌کنند.
07:52
Which is why we can't go into this new era naive about the risks
129
472135
4379
به همین دلیل ما نمی‌توانیم به این دوره جدید ساده لوحانه در مورد خطرات
07:56
or complacent about the challenges
130
476556
2043
یا شکایت در مورد چالش‌هایی که
07:58
that the collection and sharing our brain data will pose.
131
478641
3379
جمع‌آوری و به اشتراک گذاری داده‌های مغز ما مطرح می‌شود بپردازیم.
08:02
Scientific hurdles can and will be addressed in time,
132
482061
3003
موانع علمی می‌توانند و به موقع برطرف شوند،
08:05
but the social hurdles will be the most challenging.
133
485106
3837
اما موانع اجتماعی چالش برانگیزترین خواهند بود.
08:10
Unlike the technologies of the past that track and hack the human brain,
134
490111
4713
برخلاف فناوری‌های گذشته که مغز انسان را ردیابی و هک می‌کردند،
08:14
brain sensors provide direct access to the part of ourselves
135
494824
3462
حسگرهای مغز دسترسی مستقیم به بخشی از خودمان را فراهم می‌کنند
08:18
that we hold back,
136
498327
1293
که ما آن را عقب نگه می‌داریم،
08:19
that we don't express through our words and our actions.
137
499620
2920
و از طریق گفتار و اعمال خود بیان نمی‌کنیم.
08:22
Brain data in many instances will be more sensitive
138
502582
3253
داده‌های مغز در بسیاری از موارد حساس‌تر از
08:25
than the personal data of the past,
139
505877
1835
داده‌های شخصی گذشته هستند،
08:27
because it reflects our feelings, our mental states, our emotions,
140
507754
4754
زیرا احساسات، حالات ذهنی، عواطف،
08:32
our preferences, our desires, even our very thoughts.
141
512550
3295
ترجیحات، تمایلات و حتی افکار ما را منعکس می‌کنند.
08:36
I would never have wanted the data that was collected
142
516679
3879
من هرگز نمی‌خواستم داده‌هایی که در حین کار
08:40
as I worked through the trauma of my personal loss
143
520600
3462
با آسیب‌های شخصی من جمع آوری شده بود
08:44
to have been commodified,
144
524103
1627
توسط دیگران کالا،
08:45
shared and analyzed by others.
145
525730
2502
به اشتراک گذاشته و تجزیه و تحلیل شود.
08:48
These aren't just hypothetical risks.
146
528691
2378
اینها فقط خطرات فرضی نیستند.
08:51
Take Entertek, a Hangzhou-based company,
147
531110
2753
Take Enterte، یک شرکت مستقر در هانگژو،
08:53
who has collected millions of instances of brain activity data
148
533905
3879
که میلیون‌ها نمونه از داده‌های مربوط به فعالیت مغزی را جمع‌آوری کرده است
08:57
as people have engaged in mind-controlled car racing,
149
537784
3295
چون مردم در مسابقات اتومبیل رانی کنترل‌شده ذهنی،
09:01
sleeping, working,
150
541120
1710
خوابیدن، کار کردن،
09:02
even using neurofeedback with their devices.
151
542830
3128
و حتی استفاده از نوروفیدبک با دستگاه‌های خود شرکت کرده‌اند.
09:06
They've already entered into partnerships with other companies
152
546000
3629
آنها قبلاً برای به اشتراک گذاشتن و تجزیه و تحلیل
09:09
to share and analyze that data.
153
549670
2086
آن داده‌ها با شرکت های دیگر وارد مشارکت شده‌اند.
09:12
Unless people have individual control over their brain data,
154
552256
4129
مگر اینکه افراد کنترل فردی بر روی داده‌های مغز خود داشته باشند،
09:16
it will be used for microtargeting or worse,
155
556427
2670
به جای درمان زوال عقل،
09:19
instead of treating dementia.
156
559138
2086
از آن برای هدف گذاری میکرو یا بدتر از آن استفاده می‌شود.
09:21
Like the employees worldwide
157
561641
3128
مانند کارمندانی در سرتاسر جهان
09:24
who've already been subject to brain surveillance in the workplace
158
564811
3628
که قبلاً تحت نظارت مغزی در محل کار قرار گرفته‌اند
09:28
to track their attention and fatigue,
159
568481
2461
تا توجه و خستگی آنها را ردیابی شود،
09:30
to governments, developing brain biometrics,
160
570942
2544
دولت‌ها، بیومتریک مغز را
09:33
to authenticate people at borders,
161
573486
2127
برای احراز هویت افراد در مرزها،
09:35
to interrogate criminal suspects' brains
162
575655
4671
بازجویی از مغز مظنونان جنایتکار
09:40
and even weapons that are being crafted
163
580326
3045
و حتی سلاح‌هایی که در حال ساخت هستند توسعه می‌دهند
09:43
to disable and disorient the human brain.
164
583371
2711
تا مغز انسان را از کار انداخته و منحرف کنند.
09:46
Brain wearables will have not only read but write capabilities,
165
586499
3545
پوشیدنی‌های مغزی نه تنها قابلیت خواندن بلکه نوشتن خواهند داشت،
09:50
creating risks that our brains can be hacked, manipulated,
166
590044
3837
و خطراتی را ایجاد می‌کنند که مغز ما می‌تواند هک شود، دستکاری شود،
09:53
and even subject to targeted attacks.
167
593923
2419
و حتی در معرض حملات هدفمند قرار گیرد.
09:56
We must act quickly to safeguard against the very real
168
596843
4212
ما باید به سرعت عمل کنیم تا در برابر خطرات بسیار واقعی
10:01
and terrifying risks to our innermost selves.
169
601097
2878
و وحشتناکی که در درون خودمان وجود دارد محافظت شویم.
10:04
Recognizing a human right to cognitive liberty
170
604642
3712
به رسمیت شناختن حقوق بشر برای آزادی شناختی
10:08
would offer those safeguards.
171
608396
1918
این تضمین‌ها را ارائه می‌دهد.
10:10
Cognitive liberty is a right from interference by others,
172
610815
3337
آزادی شناختی حقی است از مداخله دیگران،
10:14
but it is also a right to self-determination
173
614193
3170
اما همچنین حق تعیین سرنوشت بر مغز
10:17
over our brains and mental experiences to enable human flourishing.
174
617363
3837
و تجارب ذهنی ما است تا به شکوفایی انسان کمک کند.
10:21
To achieve this,
175
621784
1293
برای دستیابی به این هدف،
10:23
we need to recognize three interrelated human rights
176
623077
3962
ما باید سه حقوق بشر مرتبط با یکدیگر را به رسمیت بشناسیم
10:27
and update our understanding of them
177
627081
2127
و درک خود را از آنها به روز کنیم
10:29
to secure to us a right to mental privacy,
178
629208
2878
تا حقی برای حفظ حریم خصوصی ذهنی برای ما تضمین کنیم،
10:32
to safeguard us from interference with our automatic reactions,
179
632086
3796
تا از دخالت در واکنش‌های خودکار،
10:35
our emotions and our thoughts.
180
635923
2419
احساسات و افکارمان محافظت شویم.
10:38
Freedom of thought as an absolute human right
181
638342
2545
آزادی فکر به عنوان حق انسانی مطلق
10:40
to protect us from interception,
182
640928
2211
برای محافظت از ما در برابر رهگیری،
10:43
manipulation and punishment of our thoughts.
183
643181
2961
دستکاری و مجازات افکارمان است.
10:46
And self-determination
184
646142
1668
و خود تصمیم گیری
10:47
to secure self-ownership over our brains and mental experiences,
185
647810
4505
برای تضمین مالکیت خود بر مغز و تجربیات ذهنی ما،
10:52
to access and change them if we want to do so.
186
652356
2878
برای دسترسی به آنها و تغییر آنها در صورت تمایل.
10:56
There are important efforts already underway
187
656277
2252
تلاش‌های مهمی از سوی سازمان ملل متحد تا یونسکو،
10:58
from the UN to UNESCO, in nations worldwide,
188
658571
3170
در کشورهای سراسر جهان،
11:01
over rights and regulations around neurotechnologies.
189
661741
3462
در مورد حقوق و مقررات پیرامون فناوری‌های عصبی در حال انجام است.
11:05
But those rights need to be better aligned
190
665661
2336
اما این حقوق باید با مجموعه
11:07
with a broader set of digital rights.
191
667997
2336
گسترده‌تری از حقوق دیجیتال هماهنگ شود.
11:11
Cognitive liberty is an update to liberty in the digital age
192
671083
5089
آزادی شناختی به‌ روزرسانی آزادی در عصر دیجیتال
11:16
as an umbrella concept of human flourishing
193
676172
2794
به عنوان یک مفهوم چتر شکوفایی انسان
11:19
across digital technologies.
194
679008
2169
در سراسر فناوری‌های دیجیتال است.
11:21
Because the right way forward isn't through metaverse rights
195
681636
2836
زیرا راه درست رو به جلو از طریق حقوق متاورس
11:24
or AI rights
196
684513
1127
یا حقوق هوش مصنوعی
11:25
or neurotech rights and the like.
197
685681
2086
یا حقوق نوروتکنولوژی و مواردی از این دست نیست.
11:27
It's to recognize that these technologies don't exist in silos,
198
687767
4504
باید بدانیم که این فناوری‌ها در سیلوها وجود ندارند،
11:32
but in combination, affecting our brains and mental experiences.
199
692271
4546
بلکه به صورت ترکیبی روی مغز و تجربیات ذهنی ما تأثیر می‌گذارند.
11:38
We are literally at a moment before.
200
698027
3337
ما به معنای واقعی کلمه در یک لحظه قبل هستیم.
11:41
And I mean a moment.
201
701739
2085
و منظورم یک لحظه است.
11:44
Consumer brain wearables have already arrived,
202
704283
2503
پوشیدنی‌های مصرفی مغز قبلاً وارد شده‌اند،
11:46
and the commodification of our brains has already begun.
203
706786
3503
و کالایی سازی مغز ما از قبل آغاز شده است.
11:50
It's now just a question of scale.
204
710790
3128
اکنون فقط بحث مقیاس است.
11:54
We haven't yet passed the inflection point
205
714794
2294
ما هنوز از نقطه عطف عبور نکرده‌ایم
11:57
where most of our brains can be directly accessed and changed by others.
206
717088
4212
که بیشتر مغز ما بتواند مستقیماً دسترسی داشته باشد و توسط دیگران تغییر کند.
12:01
But it is about to happen,
207
721842
2545
اما در شرف وقوع است،
12:04
giving us a final moment to make a change
208
724387
2794
و آخرین لحظه را به ما می‌دهد تا تغییری ایجاد کنیم
12:07
so that we don't look back in a few years' time
209
727223
2335
تا چند سال دیگر به گذشته نگاه نکنیم
12:09
and lament the world we've left behind.
210
729600
3128
و از دنیایی که پشت سر گذاشته‌ایم غصه نخوریم.
12:13
We can and should be hopeful and deliberate
211
733354
4087
ما می‌توانیم و باید نسبت به انتخاب‌هایی که
12:17
about the choices we make now
212
737441
2211
اکنون انجام می‌دهیم امیدوار باشیم
12:19
to secure a right to self-determination over our brains and mental experiences.
213
739694
4921
و سنجیده باشیم تا حق تعیین سرنوشت را بر مغز و تجربیات ذهنی خود تضمین کنیم.
12:25
The possibilities, if we do so,
214
745116
3086
امکانات، اگر این کار را انجام دهیم،
12:28
are limited only by our imagination.
215
748202
2878
تنها توسط تخیل ما محدود می‌شود.
12:31
Thank you.
216
751580
1168
سپاسگزارم.
12:32
(Applause)
217
752790
3212
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7