Your Right to Mental Privacy in the Age of Brain-Sensing Tech | Nita Farahany | TED

57,586 views ・ 2023-05-30

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Dima Alyan المدقّق: Hani Eldalees
00:04
Today, we know and track virtually nothing that’s happening in our own brains.
0
4125
6757
في يومنا هذا، لا ندرك أو نتتبّع بشكلٍ فعليٍّ أيّاً ممّا يحدث في أدمغتنا.
00:11
But in a future that is coming much faster than you realize,
1
11341
4004
ولكن في المستقبل الأقرب ممّا تتصوّرون،
00:15
all of that is about to change.
2
15387
2919
كلّ ذلك في طريقه إلي التّغيير.
00:18
We're now familiar with sensors in our smart watches to our rings,
3
18306
4129
الحسّاسات في ساعاتنا الذّكية وخواتمنا أصبحت أموراً مألوفةً لدينا،
00:22
that track everything from our heartbeats to our footsteps, breaths,
4
22477
5005
وهي تتتبّع كلّ شيءٍ من نبضات قلوبنا حتّى خطواتنا، أنفاسنا،
00:27
body temperature, even our sleep.
5
27524
2002
درجة حرارة أجسادنا، وحتّى نومنا.
00:29
Now, consumer neurotech devices are being sold worldwide
6
29943
4254
تُباع حاليّاً أجهزة التّكنولوجيا العصبيّة للمستهلكين في كافّة أرجاء العالم
00:34
to enable us to track our own brain activity.
7
34239
3420
لتمكيننا من تتبّع نشاط أدمغتنا.
00:38
As companies from Meta to Microsoft,
8
38034
3712
حيث أنّ شركاتٍ مثل ميتا وميكروسوفت،
00:41
Snap and even Apple
9
41788
1877
وسناب و حتّى آبل
00:43
begin to embed brain sensors in our everyday devices
10
43665
3337
بدأت بدمج أجهزة استشعار دماغيّة في الأجهزة الّتي نستخدمها بشكلٍ يوميٍّ
00:47
like our earbuds, headphones, headbands, watches and even wearable tattoos,
11
47002
6715
كالسّماعات اللاسلكيّة، سمّاعات الرأس، عصابات الرأس، الساعات والأوشام،
00:53
we're reaching an inflection point in brain transparency.
12
53717
4296
فإنّنا نبلغ نقطة تحوّلٍ في شفافيّة الدّماغ.
00:58
And those are just some of the company names we're familiar with.
13
58013
3086
ليست هذه سوى بعض أسماء الشّركات المألوفة لدينا.
01:01
There are so many more.
14
61099
1168
هناك الكثيرُ غيرُها.
01:02
Consumer neurotech devices are moving from niche products
15
62309
3253
يدأت أجهزة التّكنولوجيا العصبيّة الاستهلاكيّة تنتقل من كونها
01:05
with limited applications
16
65604
1793
منتجاتٍ متخصّصةً بتطبيقاتٍ محدودةٍ
01:07
to becoming the way in which we'll learn about our own brain activity,
17
67397
3795
لتصبح الطّريقةَ الّتي سنتعرّف من خلالها على نشاط أدمغتنا،
01:11
our controller for virtual reality and augmented reality.
18
71192
3629
أجهزةَ تحكُّمِنا بالواقع الافتراضيّ والواقع المعزّز.
01:14
And one of the primary ways we'll interact
19
74863
2586
وإحدى الطّرق الرّئيسيّة الّتي سنتفاعل بها
01:17
with all of the rest of our technology.
20
77490
2419
مع بقيّة التّكنولوجيا الّتي نملكها.
01:20
Even conservative estimates of the neurotech industry
21
80410
3337
حتّى التّقديرات المتحفّظة لقطاع التّكنولوجيا العصبيّة
01:23
put it at more than 38 billion dollars by 2032.
22
83788
4171
تضع لها قيمةً تقديريّةً تفوق 38 مليار دولار بحلول عام 2032.
01:28
This new category of technology presents unprecedented possibility,
23
88668
5214
هذه الفئة الجديدة من التّكنولوجيا تقدِّم إمكاناتٍ غير مسبوقة
01:33
both good and bad.
24
93923
2169
جيّدةً و سيئةً معاً.
01:36
Consider how our physical health and well-being are increasing
25
96509
3671
ضع في الحسبان التّحسّن المستمرّ على مستوى صحّتنا الجسديّة وعافيتنا
01:40
while neurological disease and suffering continue to rise.
26
100180
3587
بينما تواصل الأمراض العصبيّة والمعاناة النّاجمة عنها الارتفاع.
01:44
55 million people around the world are struggling with dementia,
27
104267
4588
يعاني 55 مليون شخص حول العالم من الخرف،
01:48
with more than 60 to 70 percent of them suffering from Alzheimer's disease.
28
108855
4505
أكثر من 60-70 بالمئة منهم يعانون من مرض الزهايمر.
01:53
Nearly a billion people struggle with mental health
29
113860
3170
حوالي مليار شخصٍ لديهم مشاكل متعلّقةٌ بالصّحّة العقليّة
01:57
and drug use disorders.
30
117072
1918
وتعاطي المخدّرات.
01:59
Depression affects more than 300 million.
31
119032
3754
يؤثّر الاكتئاب على أكثر من 300 مليون شخص.
02:02
Consumer neurotech devices could finally enable us
32
122827
2878
يمكن أخيراً لأجهزة التّكنولوجيا العصبيّة الاستهلاكيّة
02:05
to treat our brain health and wellness
33
125747
2794
أن تتيح لنا الفرصة لمعاملة صحّة أدمغتنا و سلامتها
02:08
as seriously as we treat the rest of our physical well-being.
34
128583
3295
بنفس الجدّيّة الّتي نتعامل بها مع صحّتنا الجسديّة.
02:13
But making our brains transparent to others
35
133463
3378
على أنّ جعل أدمغتنا مكشوفةً للآخرين
02:16
also introduces extraordinary risks.
36
136841
3337
له أيضاً أن يجلب مخاطر غير اعتياديّة.
02:20
Which is why, before it's too late to do so,
37
140845
3003
لهذا السّبب، وقبل أن يفوت الأوان،
02:23
we must change the basic terms of service for neurotechnology
38
143890
4838
علينا تغيير الشّروط الخدميّة الأساسيّة للتّكنولوجيا العصبيّة
02:28
in favour of individual rights.
39
148770
2252
لمصلحة الحقوق الفرديّة.
02:31
I say this not just as a law professor who believes in the power of law,
40
151523
4462
لا أقول هذا كأستاذةٍ في القانون مؤمنةٍ بسلطته فحسب،
02:35
nor just a philosopher trying to flesh out norms,
41
155985
3921
ولا كفيلسوفةٍ تحاول تجسيد الأعراف,
02:39
but as a mother who's been personally and profoundly impacted
42
159906
5339
و إنّما كأمٍّ، تأثّرت بشكلٍ شخصيٍّ وبشدّة
02:45
by the use of neurotechnology in my own life.
43
165245
2711
باستخدام التّكنولوجيا العصبيّة في حياتها.
02:50
On Mother's Day in 2017,
44
170291
3462
في عيد الأمّ عام 2017.
02:53
as my daughter Calista lay cradled in my arms,
45
173753
4964
بينما كانت ابنتي “كاليستا” في أحضاني،
02:58
she took one last beautiful breath.
46
178717
3503
أخذت آخر نفَسٍ جميلٍ لها.
03:03
After a prolonged hospitalization,
47
183972
2627
بعد إقامةٍ مطوّلةٍ في المستشفى،
03:06
complications following infections claimed her life.
48
186599
3712
أودت بحياتها مضاعفاتٌ ناجمةٌ عن إصابةٍ إنتانيّةٍ.
03:11
The harrowing trauma that she endured and we witnessed stretched into weeks.
49
191521
5047
المحنة المروّعة الّتي عانتها وشهدناها دامت لأسابيع.
03:17
And I was left with lasting trauma
50
197152
3044
وعانيت من صدمةٍ دائمة
03:20
that progressed into post-traumatic stress disorder.
51
200238
3128
تطوّرت إلى اضطراب ما بعد الصّدمة.
03:24
Sleep escaped me for years.
52
204325
2837
هجرني النّوم لسنوات.
03:27
As each time I closed my eyes, I relived everything,
53
207662
3629
لأنّني كنت كلّما أغمضت عينيّ أسترجع كلّ شيء
03:31
from the first moments that I was pushed out of the emergency room
54
211332
4922
من أولى لحظات إخراجي من غرفة الطّوارئ
03:36
to her gut-wrenching cries.
55
216254
2127
إلى صراخها الموجع.
03:39
Ultimately, it was the help of a talented psychologist,
56
219549
4171
لكن أخيراً بمساعدة طبيبٍ نفسيٍّ موهوب
03:43
using exposure therapy,
57
223762
2210
واستخدام العلاج بالمواجهة
03:46
and my use of neurofeedback
58
226014
2586
واستخدامي لتقنيّة الارتجاع العصبيّ،
03:48
that enabled me to sleep through the night.
59
228600
2836
تمكّنت أخيراً من النّوم في اللّيل.
03:51
For others who are suffering from traumatic memories,
60
231770
3378
بالنّسبة للآخرين ممّن يعانون من ذكرياتٍ أليمةٍ،
03:55
an innovative new approach using decoded neurofeedback,
61
235148
3629
فقد تقدّمُ العونَ مقاربةٌ مبتكَرةٌ قائمةٌ على فكّ شيفرة الارتجاع العصبيّ،
03:58
or DecNef, may offer reprieve.
62
238777
2419
(أو اختصاراً DecNef) .
04:01
This groundbreaking approach uses machine-learning algorithms
63
241613
3712
يستند هذا النّهج الرّائد على خوارزميّات التّعلّم الآليّ
04:05
to identify specific brain-activity patterns,
64
245366
3462
لتحديد أنماطٍ معيّنةٍ من النّشاط الدّماغيّ
04:08
including those associated with traumatic memories.
65
248870
3295
بما فيها تلك المرتبطة بالذّكريات الأليمة.
04:12
Participants then play a game
66
252207
2544
بعدئذٍ يتّبع المشاركون أموراً معيّنةً
04:14
that enables them to retrain their brain activity
67
254793
2711
تمكّنهم من إعادة تدريب نشاطهم الدّماغيّ
04:17
on positive associations instead.
68
257545
2544
للتّركيز على الإيجابيّات بدلاً من ذلك.
04:21
If I had had DecNef available to me at the time,
69
261216
3545
لو أتيحت لي تقنيّة الارتجاع العصبيّ في ذلك الوقت
04:24
I might have overcome my PTSD more quickly
70
264803
3169
لتمكّنت من تجاوز اضطراب ما بعد الصّدمة بشكلٍ أسرع
04:28
without having to relive every sound, terror and smell in order to do so.
71
268014
6423
دون أن أُجبَر على استرجاع كلّ صوتٍ و كلّ لحظة رعبٍ و كلّ رائحةٍ في طريقي للتّعافي.
04:35
I'm not the only one.
72
275146
1543
أنا لست الوحيدة.
04:36
Sarah described herself as being at the end of her life,
73
276689
3087
وصفت سارة كون حياتها على وشك الانتهاء,
04:39
no longer in a life worth living,
74
279818
2168
وعدم وجود ما يستحق العيش لأجله,
04:42
because of her severe and intractable depression.
75
282028
2795
بسبب شدّة واستعصاء اكتئابها.
04:45
Then, using implanted brain sensors
76
285740
3045
بعدها، باستخدام زراعة المجسّات الدّماغيّة
04:48
that reset her brain activity like a pacemaker for the brain,
77
288827
4504
الّتي تعيد ضبط نشاطها الدّماغيّ على مبدأ منظّم ضربات القلب، إنّما للدّماغ
04:53
Sarah reclaimed her will to live.
78
293373
2878
استعادت سارة إرادة الحياة.
04:56
While implanted neurotechnology advances have been extraordinary,
79
296960
4170
رغم الإنجازات الاستثنائيّة في مجال زراعة أجهزة التّكنولوجيا العصبيّة
05:01
it's the everyday brain sensors
80
301172
2544
فإنّ المجسّات الدّماغيّة المستخدمة بشكلٍ يوميّ
05:03
that are embedded in our ordinary technology
81
303758
2419
والمدمجة في التّقنيّات المستخدمة بشكلٍ اعتياديّ.
05:06
that I believe will impact the majority of our lives.
82
306219
3462
هي الّتي - برأيي - سيكون لها الوقع الأكبر على حياة الغالبيّة.
05:09
Like the one third of adults
83
309722
2503
مثل ثلث البالغين
05:12
and nearly one quarter of children who are living with epilepsy
84
312225
3962
وتقريباً ربع الأطفال المصابين بالصّرع
05:16
for whom conventional anti-seizure medications fail.
85
316187
3170
ممن تفشل معهم مضادّات الاختلاج التّقليديّة.
05:20
Now, researchers from Israel to Spain have developed brain sensors
86
320024
5089
الآن، قام باحثون بتطوير مستشعراتٍ دماغيّةٍ
05:25
using the power of AI in pattern recognition
87
325113
3503
مستغلّين قدرة الذّكاء الاصطناعيّ على تحديد الأنماط
05:28
and consumer electroencephalography
88
328616
2836
وتخطيط دماغ المستخدِمين
05:31
to enable the detection of epileptic seizures minutes
89
331494
3712
ممّا يتيح رصد نوبات الصّرع
05:35
to up to an hour before they occur,
90
335248
2419
قبل حدوثها بمدّةٍ تتراوح من عدّة دقائق إلى ساعة،
05:37
sending potentially life-saving alerts to a mobile device.
91
337667
3879
وإرسال تنبيهاتٍ إلى هاتفٍ محمولٍ ممّا قد يكون منقذاً للأرواح.
05:42
Regular use of brain sensors could even enable us
92
342171
2753
حتّى إنّ الاستخدام المنتظم للمجسّات الدّماغيّة قد يمكّننا
05:44
to detect the earliest stages
93
344966
1460
من اكتشاف أولى المراحل
05:46
of the most aggressive forms of brain tumors, like glioblastoma,
94
346467
4630
لأكثر أورام الدّماغ عدوانيّةً، كالورم الأروميّ الدبقيّ
05:51
where early detection is crucial to saving lives.
95
351139
3253
حيث يعَدّ التّشخيص المبكّر حاسماً لإنقاذ الأرواح.
05:54
The same could hold true for Parkinson's disease, to Alzheimer's,
96
354392
3712
ينطبق الأمر ذاته على مرض باركنسون، والزهايمر،
05:58
traumatic brain injury, ADHD, and even depression.
97
358146
4004
والإصابات الدّماغيّة الرّضّيّة، واضطراب فرط النّشاط ونقص الانتباه، وحتّى الاكتئاب.
06:03
We may even change our brains for the better.
98
363276
2461
حتّى إنّه يمكننا تغيير أدمغتنا نحو الأفضل.
06:06
The brain training game industry,
99
366321
1876
قوبِلَت صناعة ألعاب تمرين الدّماغ
06:08
worth a staggering 6.5 billion dollars in 2021,
100
368239
5005
الّتي قُدِّرَت قيمتها بمبلغٍ مهولٍ بلغ 6.5 مليار دولار عام 2021،
06:13
was for years met with controversy
101
373286
1835
بجدالٍ محتدمٍ لسنواتٍ
06:15
because of unsupported scientific claims about their efficacy.
102
375121
3128
بسبب الادّعاءات العلميّة غير المدعومة بالأدلّة عن مدى فعاليّتها.
06:19
But now some brain-training platforms like Cognizant have proven powerful
103
379000
5380
إلّا أنّ بعض برامج تمرين الدّماغ مثل Cognizant أثبتت الآن فعاليّتها
06:24
in improving brain processing speeds, memory, reasoning
104
384422
4338
في تحسين سرعة المعالجة الدّماغيّة والذّاكرة والاستدلال
06:28
and even executive functioning when played repeatedly over time.
105
388801
4296
وحتّى الأداء الوظيفيّ، حين يتمّ لعبها بشكلٍ متكرّرٍ على مَرِّ الزّمن.
06:33
When paired with neurofeedback devices for learning reinforcement,
106
393139
4838
ويمكن لإقرانها مع أجهزة الارتجاع العصبيّ بغرض تعزيز التّعلّم،
06:38
this could revolutionize how we learn and adapt to change.
107
398019
3670
إحداث تغييرٍ جذريٍّ في كيفيّة تعلُّمنا وتأقلمنا مع التّغيير.
06:42
Other breakthroughs could be transformational
108
402398
2836
قد تحدث اكتشافاتٌ أخرى نقلةً
06:45
for the human experience.
109
405276
1710
في التّجربة البشريّة.
06:47
Today, most human brain studies
110
407028
1793
تستند معظم دراسات الدّماغ البشريّ
06:48
are based on a very small number of participants
111
408821
2378
في يومنا هذا على عددٍ قليلٍ جدّاً من المشاركين
06:51
engaged in very specific tasks in a controlled laboratory environment.
112
411240
4505
المنخرطين في مهامّ محدّدةٍ في بيئةٍ مخبريّةٍ مضبوطةٍ.
06:56
With widespread use of brain sensors,
113
416245
2169
استخدام المجسّات الدّماغيّة على نطاقٍ واسعٍ
06:58
the data we could have to learn about the human brain
114
418456
2628
سيزيد المعلومات الّتي يمكن أن يتوجّب علينا تعلّمها
07:01
would exponentially increase.
115
421125
2002
عن الدّماغ بشكلٍ هائل.
07:03
With sufficiently large datasets of long-term, real-world data
116
423169
4296
بوجود قاعدة بياناتٍ ضخمةٍ من المعطيات الواقعيّة على المدى الطّويل
07:07
from people engaged in everyday activity,
117
427507
2752
من أُناسٍ منخرطين في أنشطتهم اليوميّة،
07:10
we just might address everything from neurological disease and suffering
118
430301
3879
قد تتأتّى لنا معالجة كلّ شيءٍ بدءاً من الأمراض العصبيّة ومعاناتها
07:14
to creating transformational possibilities for the human experience.
119
434180
3962
وصولاً إلى خلق احتمالات نقلاتٍ نوعيّةٍ للتّجربة البشريّة.
07:19
But all of this will only be possible
120
439811
3128
على أنّه لا يمكن لذلك أن يتحقّق
07:22
if people can confidently share their brain data
121
442981
2711
إلّا إن تمكّن النّاس من مشاركة بياناتهم الدّماغيّة بثقةٍ
07:25
without fear that it will be misused against them.
122
445733
3128
دون الخوف من استعمالها ضدّهم.
07:29
You see, the brain data that will be collected
123
449404
2627
كما ترون، فإنّ البيانات الدّماغية الّتي سيتمّ جمعها
07:32
and generated by these devices
124
452073
1460
وإنشاؤها عن طريق هذه الأجهزة
07:33
won't be collected in traditional laboratory environments
125
453533
4212
لن تؤخَذ في بيئةٍ مخبريّةٍ تقليديّة
07:37
or in clinical research studies run by physicians and scientists.
126
457745
4546
أو من خلال أبحاثٍ سريريّةٍ يديرها أطبّاء وعلماء.
07:42
Instead, it will be the sellers of these new devices,
127
462875
4130
عوضاً عن ذلك سيقدّمها باعة هذه الأجهزة الجديدة،
07:47
the very companies who've been commodifying our personal data for years.
128
467046
4797
الشّركات ذاتها الّتي ما فَتِئَت لسنواتٍ تعامل بياناتنا الشخصيّة على أنّها سلعة.
07:52
Which is why we can't go into this new era naive about the risks
129
472135
4379
لذلك لا يمكننا دخول هذه الحقبة الجديدة بسذاجةٍ دون إدراك المخاطر
07:56
or complacent about the challenges
130
476556
2043
أو باستهانةٍ بالتّحدّيات الّتي يحملها
07:58
that the collection and sharing our brain data will pose.
131
478641
3379
جمع ومشاركة بياناتنا الدّماغيّة.
08:02
Scientific hurdles can and will be addressed in time,
132
482061
3003
يمكن و سيتمّ في الوقت المناسب تذليل العقبات العلميّة
08:05
but the social hurdles will be the most challenging.
133
485106
3837
لكنّ المعوّقات الاجتماعيّة هي الّتي ستشكّل التّحدي الأكبر.
08:10
Unlike the technologies of the past that track and hack the human brain,
134
490111
4713
بخلاف تقنيّات الماضي الّتي تتتبّع وتخترق الدّماغ البشريّ،
08:14
brain sensors provide direct access to the part of ourselves
135
494824
3462
فإنّ المجسّات الدّماغيّة تتيح دخولاً مباشراً لجزءٍ نكبحه
08:18
that we hold back,
136
498327
1293
في أنفسنا،
08:19
that we don't express through our words and our actions.
137
499620
2920
جزءٍ لا نعبّر عنه بالكلمات والأفعال.
08:22
Brain data in many instances will be more sensitive
138
502582
3253
في حالاتٍ كثيرةٍ ستكون البيانات الدّماغيّة أكثر حساسيةً
08:25
than the personal data of the past,
139
505877
1835
من المعطيات الشّخصيّة المتوفّرة قبلاً،
08:27
because it reflects our feelings, our mental states, our emotions,
140
507754
4754
لأنّها تعكس مشاعرنا وحالتنا العقليّة وعواطفنا
08:32
our preferences, our desires, even our very thoughts.
141
512550
3295
وتفضيلاتنا ورغباتنا وحتّى أفكارنا ذاتها.
08:36
I would never have wanted the data that was collected
142
516679
3879
ما كنت لأرغب للبيانات الّتي جُمِعَت عنّي
08:40
as I worked through the trauma of my personal loss
143
520600
3462
بينما مررت بمحنتي الشّخصيّة
08:44
to have been commodified,
144
524103
1627
أن تُحَوَّل إلى سلعةٍ،
08:45
shared and analyzed by others.
145
525730
2502
تتمّ مشاركتها و تخضع للتّحليل من قبل أشخاصٍ آخرين.
08:48
These aren't just hypothetical risks.
146
528691
2378
ليست تلك مجرّد مخاطر افتراضيّة.
08:51
Take Entertek, a Hangzhou-based company,
147
531110
2753
خذوا Entertek على سبيل المثال، شركةٌ مقرّها في هانغزو
08:53
who has collected millions of instances of brain activity data
148
533905
3879
والّتي قامت بجمع ملايين حالات البيانات الدّماغيّة لأناسٍ
08:57
as people have engaged in mind-controlled car racing,
149
537784
3295
بينما شاركوا في سباقات سيّاراتٍ عقليّة التّحكّم،
09:01
sleeping, working,
150
541120
1710
وأثناء نومهم و عملهم،
09:02
even using neurofeedback with their devices.
151
542830
3128
حتّى أنّها استخدمت تقنيّة الارتجاع العصبيّ من خلال أجهزتهم.
09:06
They've already entered into partnerships with other companies
152
546000
3629
كانت الشّركة قد دخلت بالفعل في شراكةٍ مع شركاتٍ أخرى
09:09
to share and analyze that data.
153
549670
2086
لمشاركة و تحليل تلك البيانات.
09:12
Unless people have individual control over their brain data,
154
552256
4129
ما لم يكن لدى النّاس إمكانيّة التّحكّم الفرديّ ببياناتهم الدّماغيّة،
09:16
it will be used for microtargeting or worse,
155
556427
2670
فسيتمّ استخدامها لغرض الاستهداف الدّقيق أو أسوأ من ذلك،
09:19
instead of treating dementia.
156
559138
2086
بدل استخدامها لمعالجة الخرف.
09:21
Like the employees worldwide
157
561641
3128
كبقيّة الموظّفين حول العالم،
09:24
who've already been subject to brain surveillance in the workplace
158
564811
3628
فإنّ أدمغتنا عرضةُ للمراقبة أصلاً في أماكن عملنا
09:28
to track their attention and fatigue,
159
568481
2461
لتتبّع اهتماماتها و إجهادها،
09:30
to governments, developing brain biometrics,
160
570942
2544
لصالح الحكومات، لتطوير مقاييس حيويّةٍ دماغيّةٍ،
09:33
to authenticate people at borders,
161
573486
2127
للتّحقّق من النّاس على الحدود،
09:35
to interrogate criminal suspects' brains
162
575655
4671
لاستجواب أدمغة المشتبه فيهم جنائيّاً
09:40
and even weapons that are being crafted
163
580326
3045
وحتّى كأسلحةٍ مصمَّمةٍ
09:43
to disable and disorient the human brain.
164
583371
2711
لتعطيل و إرباك الدّماغ البشريّ.
09:46
Brain wearables will have not only read but write capabilities,
165
586499
3545
الأجهزة الدّماغيّة القابلة للارتداء لن تكون قد قرأت فقط إنّما سجّلت أيضاً
09:50
creating risks that our brains can be hacked, manipulated,
166
590044
3837
قدرات الأفراد، الأمر الّذي له أن يخاطر باختراق أدمغتنا والتّلاعب بها
09:53
and even subject to targeted attacks.
167
593923
2419
وحتّى جعلها عرضةً للاستهداف.
09:56
We must act quickly to safeguard against the very real
168
596843
4212
علينا التّصرّف بسرعةٍ لحماية ذواتنا من المخاطر
10:01
and terrifying risks to our innermost selves.
169
601097
2878
الواقعيّة و المروّعة بحقّ الّتي تتربّص بها.
10:04
Recognizing a human right to cognitive liberty
170
604642
3712
إنّ الاعتراف بحقّ المرء في الحرّيّة الذّهنيّة
10:08
would offer those safeguards.
171
608396
1918
هو ما سيؤمّن تلك الحماية.
10:10
Cognitive liberty is a right from interference by others,
172
610815
3337
الحرّيّة الذّهنيّة حقٌّ يحمينا من مساس الآخرين بنا،
10:14
but it is also a right to self-determination
173
614193
3170
بل إنّه حقّنا بتقرير مصيرنا بأنفسنا
10:17
over our brains and mental experiences to enable human flourishing.
174
617363
3837
بما يتعلّق بأدمغتنا و خبراتنا العقليّة ممّا يتيح الازدهار الإنسانيّ.
10:21
To achieve this,
175
621784
1293
لتحقيق ذلك،
10:23
we need to recognize three interrelated human rights
176
623077
3962
نحتاج أن نميّز ثلاثة حقوقٍ إنسانيّةٍ مترابطة
10:27
and update our understanding of them
177
627081
2127
وأن نُحَدِّث فهمنا لها
10:29
to secure to us a right to mental privacy,
178
629208
2878
بما يضمن حقّنا بالخصوصيّة الذّهنيّة،
10:32
to safeguard us from interference with our automatic reactions,
179
632086
3796
لحمايتنا من المساس بردودِ أفعالنا التّلقائيّة،
10:35
our emotions and our thoughts.
180
635923
2419
مشاعرِنا و أفكارِنا.
10:38
Freedom of thought as an absolute human right
181
638342
2545
حرّيّة الرّأي كحقٍّ إنسانيٍّ مطلَق
10:40
to protect us from interception,
182
640928
2211
لحمايتنا من التّنصّت والتّلاعب
10:43
manipulation and punishment of our thoughts.
183
643181
2961
ومعاقبة أفكارنا.
10:46
And self-determination
184
646142
1668
وحقّ تقرير مصيرنا
10:47
to secure self-ownership over our brains and mental experiences,
185
647810
4505
لضمان مُلكيَّتِنا لعقولنا وتجاربنا العقليّة،
10:52
to access and change them if we want to do so.
186
652356
2878
بحيث يتاح لنا الوصول إليها وتغييرها لو أردنا ذلك.
10:56
There are important efforts already underway
187
656277
2252
هناك مساعٍ حثيثةٌ جاريةٌ بالفعل
10:58
from the UN to UNESCO, in nations worldwide,
188
658571
3170
من قبل الأمم المتّحدة واليونيسكو على مستوى العالم
11:01
over rights and regulations around neurotechnologies.
189
661741
3462
بخصوص الحقوق والتّشريعات النّاظمة للتّكنولوجيا العصبيّة.
11:05
But those rights need to be better aligned
190
665661
2336
لكنّ هذه الحقوق بحاجةٍ لأن تتماشى بشكلٍ أفضل
11:07
with a broader set of digital rights.
191
667997
2336
مع مجموعةٍ أوسع من الحقوق الرقميّة.
11:11
Cognitive liberty is an update to liberty in the digital age
192
671083
5089
حرّيّة التّفكير هي تحديثٌ لمفهوم الحرّيّة في العصر الرّقميّ
11:16
as an umbrella concept of human flourishing
193
676172
2794
كمفهومٍ شاملٍ للازدهار البشريّ
11:19
across digital technologies.
194
679008
2169
عبر التّكنولوجيا الرّقميّة.
11:21
Because the right way forward isn't through metaverse rights
195
681636
2836
لأنّ الطّريق الصّحيح قُدُماً لا يمرّ عبر حقوق الميتافيرس
11:24
or AI rights
196
684513
1127
أو الذّكاء الصّنعيّ
11:25
or neurotech rights and the like.
197
685681
2086
أو التّكنولوجيا العصبيّة وسواها.
11:27
It's to recognize that these technologies don't exist in silos,
198
687767
4504
بل يكون بإدراك أنّ هذه التّقنيّات لا تتواجد في صوامع منعزلةٍ،
11:32
but in combination, affecting our brains and mental experiences.
199
692271
4546
وإنّما بشكلٍ مركّبٍ، مؤثّرةً على أدمغتنا وخبراتنا الذّهنيّة.
11:38
We are literally at a moment before.
200
698027
3337
إنّنا حرفيّاً على بعد لحظةٍ
11:41
And I mean a moment.
201
701739
2085
وأعني لحظة.
11:44
Consumer brain wearables have already arrived,
202
704283
2503
هذه الأجهزة أصبحت واقعاً بالفعل،
11:46
and the commodification of our brains has already begun.
203
706786
3503
والتّعامل مع أدمغتنا كسلعةٍ قد بدأ فعليّاً.
11:50
It's now just a question of scale.
204
710790
3128
إنّها الآن مسألة نطاق انتشارها فحسب.
11:54
We haven't yet passed the inflection point
205
714794
2294
لم نصل بعد لنقطة التّحوّل
11:57
where most of our brains can be directly accessed and changed by others.
206
717088
4212
حيث يمكن ولوج و تغيير أدمغة معظمنا بشكلٍ مباشرٍ من قبل الآخرين.
12:01
But it is about to happen,
207
721842
2545
ولكنّنا على وشك بلوغها،
12:04
giving us a final moment to make a change
208
724387
2794
ممّا يتيح لنا برهةً لإحداث تغييرٍ
12:07
so that we don't look back in a few years' time
209
727223
2335
يجنّبنا النّظر خلفنا بعد بضع سنواتٍ
12:09
and lament the world we've left behind.
210
729600
3128
ورثاء العالم الّذي تركناه وراءنا.
12:13
We can and should be hopeful and deliberate
211
733354
4087
يمكننا وعلينا أن نتفاءل ونتداول
12:17
about the choices we make now
212
737441
2211
الخيارات الّتي نتّخذها اليوم
12:19
to secure a right to self-determination over our brains and mental experiences.
213
739694
4921
لضمان حقّنا في تقرير مصير أدمغتنا وتجاربنا الذّهنيّة.
12:25
The possibilities, if we do so,
214
745116
3086
إن قمنا بذلك فلن يحدّد الاحتمالات
12:28
are limited only by our imagination.
215
748202
2878
سوى مخيّلتنا.
12:31
Thank you.
216
751580
1168
شكراً لكم.
12:32
(Applause)
217
752790
3212
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7