Your Right to Mental Privacy in the Age of Brain-Sensing Tech | Nita Farahany | TED

57,586 views

2023-05-30 ・ TED


New videos

Your Right to Mental Privacy in the Age of Brain-Sensing Tech | Nita Farahany | TED

57,586 views ・ 2023-05-30

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Alix Aebi Relecteur:
00:04
Today, we know and track virtually nothing that’s happening in our own brains.
0
4125
6757
Nous ne connaissons et ne traquons presque rien de ce qui se passe dans nos cerveaux.
00:11
But in a future that is coming much faster than you realize,
1
11341
4004
Mais dans un futur bien plus proche que ce que vous imaginez,
00:15
all of that is about to change.
2
15387
2919
tout ceci va changer.
00:18
We're now familiar with sensors in our smart watches to our rings,
3
18306
4129
Nous sommes maintenant habitués aux capteurs dans nos montres et bagues
00:22
that track everything from our heartbeats to our footsteps, breaths,
4
22477
5005
qui suivent notre rythme cardiaque, le nombre de nos pas, notre respiration,
00:27
body temperature, even our sleep.
5
27524
2002
notre tempĂ©rature corporelle et mĂȘme notre sommeil.
00:29
Now, consumer neurotech devices are being sold worldwide
6
29943
4254
Aujourd’hui, des appareils de neurotech grand public sont vendus partout
00:34
to enable us to track our own brain activity.
7
34239
3420
pour nous permettre de suivre notre propre activité cérébrale.
00:38
As companies from Meta to Microsoft,
8
38034
3712
Les sociĂ©tĂ©s, de Meta Ă  Microsoft, en passant par Snap et mĂȘme Apple,
00:41
Snap and even Apple
9
41788
1877
00:43
begin to embed brain sensors in our everyday devices
10
43665
3337
commencent à intégrer des capteurs cérébraux
dans nos appareils quotidiens,
00:47
like our earbuds, headphones, headbands, watches and even wearable tattoos,
11
47002
6715
tels que nos Ă©couteurs, casques, bandeaux, nos montres et mĂȘme nos tatouages.
00:53
we're reaching an inflection point in brain transparency.
12
53717
4296
Nous atteignons un tournant en termes de transparence cérébrale.
Et ce ne sont que les sociétés dont les noms nous sont familiers,
00:58
And those are just some of the company names we're familiar with.
13
58013
3086
mais il y en a bien d’autres.
01:01
There are so many more.
14
61099
1168
01:02
Consumer neurotech devices are moving from niche products
15
62309
3253
Les appareils de neurotech grand public, de produits de niche
01:05
with limited applications
16
65604
1793
aux applications limitées,
01:07
to becoming the way in which we'll learn about our own brain activity,
17
67397
3795
sont en train de devenir le moyen de connaßtre notre activité cérébrale,
01:11
our controller for virtual reality and augmented reality.
18
71192
3629
nos manettes de réalité virtuelle et de réalité augmentée
01:14
And one of the primary ways we'll interact
19
74863
2586
et un des principaux moyens pour interagir
01:17
with all of the rest of our technology.
20
77490
2419
avec les autres technologies.
01:20
Even conservative estimates of the neurotech industry
21
80410
3337
MĂȘme les estimations prudentes de l’industrie neurotech
01:23
put it at more than 38 billion dollars by 2032.
22
83788
4171
prĂ©disent qu’elle atteindra 38 milliards de dollars en 2023.
01:28
This new category of technology presents unprecedented possibility,
23
88668
5214
Cette nouvelle catégorie de technologie offre des possibilités sans précédent,
01:33
both good and bad.
24
93923
2169
Ă  la fois bonnes et mauvaises.
01:36
Consider how our physical health and well-being are increasing
25
96509
3671
ConsidĂ©rez la maniĂšre dont notre santĂ© et notre bien-ĂȘtre physique progressent
01:40
while neurological disease and suffering continue to rise.
26
100180
3587
tandis que les maladies neurologiques et la souffrance ne cessent de s’étendre.
01:44
55 million people around the world are struggling with dementia,
27
104267
4588
55 millions de personnes dans le monde souffrent d’une forme de dĂ©mence,
01:48
with more than 60 to 70 percent of them suffering from Alzheimer's disease.
28
108855
4505
Alzheimer pour plus de 60 à 70 pour cent d’entre eux.
01:53
Nearly a billion people struggle with mental health
29
113860
3170
Presque un milliard de personnes
font face Ă  des problĂšmes de santĂ© mentale et d’abus de substance.
01:57
and drug use disorders.
30
117072
1918
01:59
Depression affects more than 300 million.
31
119032
3754
La dépression touche plus de 300 millions de personnes.
02:02
Consumer neurotech devices could finally enable us
32
122827
2878
GrĂące aux appareils de neurotech grand public,
02:05
to treat our brain health and wellness
33
125747
2794
nous pourrions enfin traiter notre santĂ© et bien-ĂȘtre mentaux
02:08
as seriously as we treat the rest of our physical well-being.
34
128583
3295
aussi sĂ©rieusement que notre bien-ĂȘtre physique.
02:13
But making our brains transparent to others
35
133463
3378
Mais rendre nos cerveaux transparents pour les autres
02:16
also introduces extraordinary risks.
36
136841
3337
entraĂźne aussi de trĂšs grands risques.
02:20
Which is why, before it's too late to do so,
37
140845
3003
Et c’est pourquoi nous devons modifier avant qu’il ne soit trop tard
02:23
we must change the basic terms of service for neurotechnology
38
143890
4838
les conditions d’utilisation de base des neurotechs
02:28
in favour of individual rights.
39
148770
2252
en faveur des droits individuels.
02:31
I say this not just as a law professor who believes in the power of law,
40
151523
4462
Je ne dis pas cela seulement en tant que professeur de droit
qui croit en la puissance des lois,
02:35
nor just a philosopher trying to flesh out norms,
41
155985
3921
ni en tant que philosophe essayant d’étoffer les normes,
02:39
but as a mother who's been personally and profoundly impacted
42
159906
5339
mais en tant que mÚre, qui a été personnellement et profondément affectée
02:45
by the use of neurotechnology in my own life.
43
165245
2711
par l’utilisation de la neurotechnologie dans ma propre vie.
02:50
On Mother's Day in 2017,
44
170291
3462
Le jour de la fĂȘte des MĂšres, en 2017,
02:53
as my daughter Calista lay cradled in my arms,
45
173753
4964
ma fille Calista a rendu entre mes bras
son dernier et plus beau souffle.
02:58
she took one last beautiful breath.
46
178717
3503
03:03
After a prolonged hospitalization,
47
183972
2627
AprÚs une hospitalisation prolongée,
03:06
complications following infections claimed her life.
48
186599
3712
des complications apparues Ă  la suite d’infections lui ont coĂ»tĂ© la vie.
03:11
The harrowing trauma that she endured and we witnessed stretched into weeks.
49
191521
5047
Nous avons Ă©tĂ© tĂ©moin de la souffrance qu’elle a endurĂ©e pendant des semaines.
03:17
And I was left with lasting trauma
50
197152
3044
Et j’en ai gardĂ© un traumatisme durable
03:20
that progressed into post-traumatic stress disorder.
51
200238
3128
qui a évolué en stress post-traumatique.
03:24
Sleep escaped me for years.
52
204325
2837
J’ai perdu le sommeil pendant des annĂ©es.
03:27
As each time I closed my eyes, I relived everything,
53
207662
3629
Chaque fois que je fermais les yeux, tout me revenait,
03:31
from the first moments that I was pushed out of the emergency room
54
211332
4922
des premiers instants oĂč l’on m’a fait sortir des urgences
03:36
to her gut-wrenching cries.
55
216254
2127
à ses pleurs déchirants.
03:39
Ultimately, it was the help of a talented psychologist,
56
219549
4171
Finalement, c’est l’aide d’un psychologue talentueux
03:43
using exposure therapy,
57
223762
2210
employant la thĂ©rapie d’exposition
03:46
and my use of neurofeedback
58
226014
2586
et mon utilisation de la technique du neurofeedback
03:48
that enabled me to sleep through the night.
59
228600
2836
qui m’ont permis de dormir la nuit.
03:51
For others who are suffering from traumatic memories,
60
231770
3378
Pour ceux qui souffrent de souvenirs traumatiques,
03:55
an innovative new approach using decoded neurofeedback,
61
235148
3629
une nouvelle approche innovante utilisant des neurofeedbacks décodés,
03:58
or DecNef, may offer reprieve.
62
238777
2419
ou DecNef, peut offrir un répit.
04:01
This groundbreaking approach uses machine-learning algorithms
63
241613
3712
Cette approche rĂ©volutionnaire utilise des algorithmes d’apprentissage
04:05
to identify specific brain-activity patterns,
64
245366
3462
pour identifier des schĂ©mas spĂ©cifiques d’activitĂ© cĂ©rĂ©brale,
04:08
including those associated with traumatic memories.
65
248870
3295
incluant ceux associés aux souvenirs traumatiques.
04:12
Participants then play a game
66
252207
2544
Les participants font ensuite un jeu
04:14
that enables them to retrain their brain activity
67
254793
2711
qui leur permet de rééduquer leur activité cérébrale
04:17
on positive associations instead.
68
257545
2544
avec des associations positives.
04:21
If I had had DecNef available to me at the time,
69
261216
3545
Si la technique du DecNef avait Ă©tĂ© disponible Ă  l’époque,
04:24
I might have overcome my PTSD more quickly
70
264803
3169
j’aurais peut-ĂȘtre vaincu mon SSPT plus rapidement
04:28
without having to relive every sound, terror and smell in order to do so.
71
268014
6423
et sans avoir Ă  revivre ces sons, ces odeurs et cette terreur.
04:35
I'm not the only one.
72
275146
1543
Et je ne suis pas la seule.
04:36
Sarah described herself as being at the end of her life,
73
276689
3087
Sarah se dĂ©crivait comme Ă©tant Ă  la fin d’une existence
04:39
no longer in a life worth living,
74
279818
2168
qui ne valait plus la peine d’ĂȘtre vĂ©cue
Ă  cause d’une dĂ©pression sĂ©vĂšre qui rĂ©sistait aux traitements.
04:42
because of her severe and intractable depression.
75
282028
2795
04:45
Then, using implanted brain sensors
76
285740
3045
Mais, grùce à des capteurs implantés dans son cerveau
04:48
that reset her brain activity like a pacemaker for the brain,
77
288827
4504
qui ont réinitialisé son activité cérébrale,
comme un pacemaker pour le cerveau,
04:53
Sarah reclaimed her will to live.
78
293373
2878
Sarah a retrouvé sa volonté de vivre.
04:56
While implanted neurotechnology advances have been extraordinary,
79
296960
4170
Bien que les progrĂšs des implants neurotechs soient Ă©normes,
05:01
it's the everyday brain sensors
80
301172
2544
ce sont les capteurs cérébraux
05:03
that are embedded in our ordinary technology
81
303758
2419
intégrés dans la technologie de tous les jours
05:06
that I believe will impact the majority of our lives.
82
306219
3462
qui, d’aprĂšs moi, impacteront la majoritĂ© de nos vies.
05:09
Like the one third of adults
83
309722
2503
Comme celles des Ă©pileptiques
05:12
and nearly one quarter of children who are living with epilepsy
84
312225
3962
pour qui les antiépileptiques ne marchent pas,
05:16
for whom conventional anti-seizure medications fail.
85
316187
3170
soit un tiers des adultes et presque un quart des enfants.
05:20
Now, researchers from Israel to Spain have developed brain sensors
86
320024
5089
Des chercheurs, de l’IsraĂ«l Ă  l’Espagne, ont dĂ©veloppĂ© des capteurs cĂ©rĂ©braux
05:25
using the power of AI in pattern recognition
87
325113
3503
qui utilisent la reconnaissance de formes des IA
05:28
and consumer electroencephalography
88
328616
2836
et l’électroencĂ©phalographie
05:31
to enable the detection of epileptic seizures minutes
89
331494
3712
pour permettre la dĂ©tection de crises d’épilepsie
de quelques minutes à une heure avant leur déclenchement,
05:35
to up to an hour before they occur,
90
335248
2419
05:37
sending potentially life-saving alerts to a mobile device.
91
337667
3879
envoyant une alerte Ă  un appareil mobile, ce qui peut sauver des vies.
05:42
Regular use of brain sensors could even enable us
92
342171
2753
L’utilisation frĂ©quente de ces capteurs pourrait mĂȘme permettre
05:44
to detect the earliest stages
93
344966
1460
la détection au stade précoce
05:46
of the most aggressive forms of brain tumors, like glioblastoma,
94
346467
4630
de tumeurs cérébrales agressives, comme le glioblastome
05:51
where early detection is crucial to saving lives.
95
351139
3253
dont une détection précoce est cruciale pour sauver des vies.
05:54
The same could hold true for Parkinson's disease, to Alzheimer's,
96
354392
3712
Et l’on pourrait dire la mĂȘme chose pour Parkinson, Alzheimer,
05:58
traumatic brain injury, ADHD, and even depression.
97
358146
4004
les lĂ©sions cĂ©rĂ©brales traumatiques, le TDAH et mĂȘme la dĂ©pression.
06:03
We may even change our brains for the better.
98
363276
2461
On pourrait mĂȘme amĂ©liorer notre cerveau.
06:06
The brain training game industry,
99
366321
1876
L’industrie des jeux d’entraĂźnement cĂ©rĂ©bral,
06:08
worth a staggering 6.5 billion dollars in 2021,
100
368239
5005
qui vaut la somme impressionnante de 6,5 milliards de dollars en 2021,
06:13
was for years met with controversy
101
373286
1835
a été controversée pendant des années
06:15
because of unsupported scientific claims about their efficacy.
102
375121
3128
à cause du manque de preuves scientifiques de son efficacité.
06:19
But now some brain-training platforms like Cognizant have proven powerful
103
379000
5380
Aujourd’hui, des plateformes d’entraĂźnement cĂ©rĂ©bral, comme CogniFit,
ont prouvĂ© leur efficacitĂ© pour l’amĂ©lioration
06:24
in improving brain processing speeds, memory, reasoning
104
384422
4338
de la vitesse de traitement cognitif, de la mémoire, de la réflexion
06:28
and even executive functioning when played repeatedly over time.
105
388801
4296
et mĂȘme du fonctionnement exĂ©cutif si utilisĂ©es rĂ©guliĂšrement Ă  long terme.
06:33
When paired with neurofeedback devices for learning reinforcement,
106
393139
4838
CouplĂ© avec un Ă©quipement de neurofeedback pour la consolidation de l’apprentissage,
06:38
this could revolutionize how we learn and adapt to change.
107
398019
3670
ça pourrait révolutionner la maniÚre dont nous apprenons et nous adaptons.
06:42
Other breakthroughs could be transformational
108
402398
2836
D’autres avancĂ©es pourraient transformer
06:45
for the human experience.
109
405276
1710
l’expĂ©rience humaine.
Les Ă©tudes actuelles sur le cerveau humain
06:47
Today, most human brain studies
110
407028
1793
06:48
are based on a very small number of participants
111
408821
2378
s’appuient sur un nombre trĂšs rĂ©duit de participants,
06:51
engaged in very specific tasks in a controlled laboratory environment.
112
411240
4505
exécutant des tùches spécifiques dans un environnement contrÎlé en labo.
06:56
With widespread use of brain sensors,
113
416245
2169
Avec la généralisation des capteurs cérébraux,
06:58
the data we could have to learn about the human brain
114
418456
2628
les données à notre disposition pour comprendre le cerveau
07:01
would exponentially increase.
115
421125
2002
pourraient augmenter exponentiellement.
Des ensembles assez larges de données du monde réel,
07:03
With sufficiently large datasets of long-term, real-world data
116
423169
4296
collectées sur le long terme
07:07
from people engaged in everyday activity,
117
427507
2752
chez des gens exécutant des activités quotidiennes,
pourraient nous permettre de nous occuper des maladies neurologiques
07:10
we just might address everything from neurological disease and suffering
118
430301
3879
et de la souffrance,
07:14
to creating transformational possibilities for the human experience.
119
434180
3962
ainsi que de crĂ©er des occasions de transformer l’expĂ©rience humaine.
07:19
But all of this will only be possible
120
439811
3128
Mais tout ceci ne sera possible
07:22
if people can confidently share their brain data
121
442981
2711
que si les gens peuvent partager leurs données cérébrales
07:25
without fear that it will be misused against them.
122
445733
3128
sans avoir Ă  craindre qu’elles soient utilisĂ©es contre eux.
07:29
You see, the brain data that will be collected
123
449404
2627
Vous voyez, les données qui seront collectées
07:32
and generated by these devices
124
452073
1460
et produites par ces appareils
07:33
won't be collected in traditional laboratory environments
125
453533
4212
ne le seront pas dans le cadre traditionnel d’un laboratoire
07:37
or in clinical research studies run by physicians and scientists.
126
457745
4546
ou de recherches cliniques menées par des médecins et des scientifiques.
07:42
Instead, it will be the sellers of these new devices,
127
462875
4130
À la place, ce seront les vendeurs de ces nouveaux appareils,
07:47
the very companies who've been commodifying our personal data for years.
128
467046
4797
ces compagnies qui marchandent nos données personnelles depuis des années.
07:52
Which is why we can't go into this new era naive about the risks
129
472135
4379
C’est pourquoi nous ne pouvons pas entrer dans cette nouvelle ùre
naïfs quant aux risques ou complaisants quant aux défis
07:56
or complacent about the challenges
130
476556
2043
07:58
that the collection and sharing our brain data will pose.
131
478641
3379
que la collecte et le partage de nos données cérébrales vont entraßner.
Les obstacles scientifiques peuvent et seront résolus avec le temps,
08:02
Scientific hurdles can and will be addressed in time,
132
482061
3003
08:05
but the social hurdles will be the most challenging.
133
485106
3837
mais ce sont les obstacles sociaux qui constitueront le plus grand défi.
08:10
Unlike the technologies of the past that track and hack the human brain,
134
490111
4713
Contrairement aux technologies d’autrefois qui pistaient et pirataient le cerveau,
08:14
brain sensors provide direct access to the part of ourselves
135
494824
3462
les capteurs cĂ©rĂ©braux offrent un accĂšs direct aux parts de nous-mĂȘmes
08:18
that we hold back,
136
498327
1293
que l’on refoule,
08:19
that we don't express through our words and our actions.
137
499620
2920
que nous n’exprimons pas par nos paroles et nos actions.
08:22
Brain data in many instances will be more sensitive
138
502582
3253
Les données cérébrales seront dans bien des cas plus sensibles
08:25
than the personal data of the past,
139
505877
1835
que les données personnelles du passé,
08:27
because it reflects our feelings, our mental states, our emotions,
140
507754
4754
parce qu’elles reflĂštent nos sentiments, notre Ă©tat mental, nos Ă©motions,
08:32
our preferences, our desires, even our very thoughts.
141
512550
3295
nos prĂ©fĂ©rences, nos dĂ©sirs et mĂȘme nos pensĂ©es.
08:36
I would never have wanted the data that was collected
142
516679
3879
Je n’aurais jamais acceptĂ© que les donnĂ©es qui Ă©taient collectĂ©es
08:40
as I worked through the trauma of my personal loss
143
520600
3462
tandis que je luttais contre le trauma de la perte que j’ai vĂ©cue
08:44
to have been commodified,
144
524103
1627
puissent ĂȘtre vendues,
08:45
shared and analyzed by others.
145
525730
2502
partagées et analysées.
08:48
These aren't just hypothetical risks.
146
528691
2378
Ce ne sont pas juste des risques hypothétiques.
08:51
Take Entertek, a Hangzhou-based company,
147
531110
2753
Prenez Entertek, une compagnie basée à Hangzhou,
08:53
who has collected millions of instances of brain activity data
148
533905
3879
qui a collectĂ© des millions de donnĂ©es de l’activitĂ© cĂ©rĂ©brale
08:57
as people have engaged in mind-controlled car racing,
149
537784
3295
de personnes conduisant des voitures contrÎlées par la pensée,
09:01
sleeping, working,
150
541120
1710
dormant, travaillant
09:02
even using neurofeedback with their devices.
151
542830
3128
et mĂȘme utilisant le neurofeedback avec leurs appareils.
09:06
They've already entered into partnerships with other companies
152
546000
3629
Elle a dĂ©jĂ  conclu des partenariats avec d’autres compagnies
09:09
to share and analyze that data.
153
549670
2086
pour partager et analyser ces données.
09:12
Unless people have individual control over their brain data,
154
552256
4129
Sauf si les gens disposent du contrÎle individuel de leurs données cérébrales,
09:16
it will be used for microtargeting or worse,
155
556427
2670
elles seront utilisées pour du microciblage ou pire,
09:19
instead of treating dementia.
156
559138
2086
plutÎt que pour le traitement de la démence.
09:21
Like the employees worldwide
157
561641
3128
Comme les employés partout dans le monde
09:24
who've already been subject to brain surveillance in the workplace
158
564811
3628
qui ont déjà subi sur leur lieu de travail une surveillance cérébrale
09:28
to track their attention and fatigue,
159
568481
2461
qui piste leur attention et fatigue,
09:30
to governments, developing brain biometrics,
160
570942
2544
comme les gouvernements qui développent la biométrie cérébrale
09:33
to authenticate people at borders,
161
573486
2127
pour authentifier les gens aux frontiĂšres
09:35
to interrogate criminal suspects' brains
162
575655
4671
et interroger le cerveau de suspects,
09:40
and even weapons that are being crafted
163
580326
3045
jusqu’aux armes qui sont fabriquĂ©es
09:43
to disable and disorient the human brain.
164
583371
2711
pour désactiver ou désorienter le cerveau humain.
09:46
Brain wearables will have not only read but write capabilities,
165
586499
3545
Les objets connectés pourront lire nos cerveaux,
mais aussi les réécrire,
09:50
creating risks that our brains can be hacked, manipulated,
166
590044
3837
crĂ©ant un risque qu’ils puissent ĂȘtre piratĂ©s, manipulĂ©s
09:53
and even subject to targeted attacks.
167
593923
2419
ou mĂȘme la cible d’attaques ciblĂ©es.
09:56
We must act quickly to safeguard against the very real
168
596843
4212
Nous devons agir rapidement pour nous garder de ces risques,
aussi réels que terrifiants, qui menacent notre part la plus intime.
10:01
and terrifying risks to our innermost selves.
169
601097
2878
10:04
Recognizing a human right to cognitive liberty
170
604642
3712
ReconnaĂźtre qu’il y a un droit humain Ă  la libertĂ© cognitive
10:08
would offer those safeguards.
171
608396
1918
offrirait cette sécurité.
10:10
Cognitive liberty is a right from interference by others,
172
610815
3337
La libertĂ© cognitive est le droit Ă  ĂȘtre protĂ©gĂ© contre les intrusions,
10:14
but it is also a right to self-determination
173
614193
3170
mais aussi un droit Ă  l’autodĂ©termination sur nos cerveaux et expĂ©riences mentales
10:17
over our brains and mental experiences to enable human flourishing.
174
617363
3837
pour permettre l’épanouissement humain.
10:21
To achieve this,
175
621784
1293
Pour atteindre cela,
10:23
we need to recognize three interrelated human rights
176
623077
3962
nous devons reconnaĂźtre trois droits de l’homme liĂ©s
10:27
and update our understanding of them
177
627081
2127
et repenser la compréhension que nous en avons
10:29
to secure to us a right to mental privacy,
178
629208
2878
pour nous assurer le droit Ă  l’intimitĂ© mentale
10:32
to safeguard us from interference with our automatic reactions,
179
632086
3796
et pour nous protĂ©ger d’intrusions dans nos rĂ©actions instinctives,
10:35
our emotions and our thoughts.
180
635923
2419
nos émotions et nos pensées.
10:38
Freedom of thought as an absolute human right
181
638342
2545
La liberté de pensée en tant que droit humain absolu
10:40
to protect us from interception,
182
640928
2211
pour protéger nos pensées
de la manipulation, des interceptions et des mauvais traitements.
10:43
manipulation and punishment of our thoughts.
183
643181
2961
10:46
And self-determination
184
646142
1668
Et l’autodĂ©termination
10:47
to secure self-ownership over our brains and mental experiences,
185
647810
4505
pour garantir que nos cerveaux et expériences mentales nous appartiennent,
10:52
to access and change them if we want to do so.
186
652356
2878
que nous pouvons y avoir accĂšs et les changer si nous le voulons.
10:56
There are important efforts already underway
187
656277
2252
L’ONU, l’UNESCO et tous les pays du monde, dĂ©ploient dĂ©jĂ  des efforts importants
10:58
from the UN to UNESCO, in nations worldwide,
188
658571
3170
11:01
over rights and regulations around neurotechnologies.
189
661741
3462
pour assurer des droits et des régulations dans le domaine de la neurotech.
11:05
But those rights need to be better aligned
190
665661
2336
Mais ces droits doivent ĂȘtre mieux alignĂ©s
11:07
with a broader set of digital rights.
191
667997
2336
et comporter davantage de droits numériques.
11:11
Cognitive liberty is an update to liberty in the digital age
192
671083
5089
La libertĂ© cognitive est une mise Ă  jour de la libertĂ© Ă  l’ùre numĂ©rique
11:16
as an umbrella concept of human flourishing
193
676172
2794
comme concept gĂ©nĂ©ral de l’épanouissement humain
11:19
across digital technologies.
194
679008
2169
dans les technologies numériques.
11:21
Because the right way forward isn't through metaverse rights
195
681636
2836
Parce que la route vers l’avant ne passe pas par les lois sur l’IA,
11:24
or AI rights
196
684513
1127
les métavers ou les neurotech.
11:25
or neurotech rights and the like.
197
685681
2086
11:27
It's to recognize that these technologies don't exist in silos,
198
687767
4504
Elle passe par la reconnaissance que ces technologies ne sont pas séparées,
11:32
but in combination, affecting our brains and mental experiences.
199
692271
4546
mais agissent en combinaison, affectant nos cerveaux et nos expériences mentales.
11:38
We are literally at a moment before.
200
698027
3337
Nous sommes littĂ©ralement l’instant d’avant.
11:41
And I mean a moment.
201
701739
2085
Vraiment juste l’instant d’avant.
11:44
Consumer brain wearables have already arrived,
202
704283
2503
Les objets connectés au cerveau sont déjà là
11:46
and the commodification of our brains has already begun.
203
706786
3503
et la marchandisation de nos cerveaux a déjà commencé.
11:50
It's now just a question of scale.
204
710790
3128
Ce n’est plus qu’une question d’échelle.
11:54
We haven't yet passed the inflection point
205
714794
2294
Nous n’avons pas encore passĂ© le point d’inflexion
11:57
where most of our brains can be directly accessed and changed by others.
206
717088
4212
oĂč il sera possible d’accĂ©der et modifier directement la majoritĂ© de notre cerveau.
12:01
But it is about to happen,
207
721842
2545
Mais c’est sur le point d’arriver.
12:04
giving us a final moment to make a change
208
724387
2794
Nous avons une ultime occasion de changer les choses,
12:07
so that we don't look back in a few years' time
209
727223
2335
pour, en regardant en arriÚre dans quelques années,
12:09
and lament the world we've left behind.
210
729600
3128
ne pas avoir à regretter le monde que nous avons laissé derriÚre.
12:13
We can and should be hopeful and deliberate
211
733354
4087
Nous pouvons et devons nous montrer optimistes et réfléchis
12:17
about the choices we make now
212
737441
2211
quant aux choix que nous faisons actuellement
12:19
to secure a right to self-determination over our brains and mental experiences.
213
739694
4921
pour nous assurer l’autodĂ©termination sur nos cerveaux et expĂ©riences mentales.
12:25
The possibilities, if we do so,
214
745116
3086
Les possibilités, si nous faisons cela,
12:28
are limited only by our imagination.
215
748202
2878
ne sont limitées que par notre imagination.
12:31
Thank you.
216
751580
1168
Merci.
12:32
(Applause)
217
752790
3212
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7