Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez et Xu Liu: Une souris. Un rayon laser. Un souvenir manipulé.

134,222 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez et Xu Liu: Une souris. Un rayon laser. Un souvenir manipulé.

134,222 views ・ 2013-08-15

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Sandrine Marie Relecteur: Shadia Ramsahye
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez : lors de ma première année d'université,
je me suis retrouvé dans ma chambre,
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
à manger beaucoup de glaces Ben & Jerry's,
00:18
watching some trashy TV
3
18231
1660
à regarder des émissions nulles à la télé,
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
et peut-être, peut-être, à écouter Taylor Swift.
00:23
I had just gone through a breakup.
5
23142
1717
Je venais de subir une rupture.
00:24
(Laughter)
6
24883
1423
(Rires)
00:26
So for the longest time, all I would do
7
26330
2172
Pendant très longtemps, tout ce que j'ai fait,
00:28
is recall the memory of this person over and over again,
8
28526
3792
c'est de ressasser les souvenirs de cette personne, encore et encore,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
tout en souhaitant me débarrasser de ce sentiment de "bof"
00:34
visceral "blah" feeling.
10
34835
2509
viscéral et dévastateur.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Aujourd'hui, il s'avère que je suis un neuroscientifique,
00:39
so I knew that the memory of that person
12
39651
2378
je sais donc que les souvenirs de cette personne,
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
et les horribles nuances émotionnelles qui colorent ces souvenirs,
00:45
are largely mediated by separate brain systems.
14
45193
2610
sont principalement régulées par des systèmes neuronaux différents.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
J'ai donc pensé : et si nous pouvions aller dans le cerveau,
00:50
and edit out that nauseating feeling
16
50328
1930
et éliminer ces écœurantes sensations,
00:52
but while keeping the memory of that person intact?
17
52282
2946
tout en gardant intact le souvenir de cette personne ?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Puis je me suis rendu compte que c'était peut-être un peu ambitieux pour le moment.
00:57
So what if we could start off by going into the brain
19
57943
2489
Mais si on pouvait commencer par aller dans le cerveau,
01:00
and just finding a single memory to begin with?
20
60456
2609
et juste trouver un seul souvenir, pour débuter ?
01:03
Could we jump-start that memory back to life,
21
63089
2490
Pourrions-nous ranimer ce souvenir,
01:05
maybe even play with the contents of that memory?
22
65603
3844
peut-être même jouer avec son contenu ?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Ceci dit, il y une personne au monde, en ce moment,
01:11
that I really hope is not watching this talk.
24
71700
2143
qui ne regarde pas cette conférence, j'espère.
01:13
(Laughter)
25
73867
3805
(Rires)
01:17
So there is a catch. There is a catch.
26
77696
3265
Bon, il y a un hic, il y a un hic.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Ces idées vous rappellent probablement le film « Total Recall »,
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
ou « Eternal Sunshine of the Spotless Mind »,
01:25
or of "Inception."
29
85747
1279
ou « Inception ».
01:27
But the movie stars that we work with
30
87050
1762
Mais les vedettes avec qui on travaille
01:28
are the celebrities of the lab.
31
88836
1709
sont les célébrités du labo.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu : Les souris cobayes.
01:32
(Laughter)
33
92469
1104
(Rires)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
En tant que neuroscientifiques, on travaille au labo avec des souris,
01:36
trying to understand how memory works.
35
96751
3386
pour essayer de comprendre comment la mémoire fonctionne.
01:40
And today, we hope to convince you that now
36
100161
2545
Aujourd’hui, on espère vous convaincre que, maintenant,
01:42
we are actually able to activate a memory in the brain
37
102730
3192
on est réellement capables d'activer des souvenirs dans le cerveau
01:45
at the speed of light.
38
105946
2146
à la vitesse de la lumière.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
Pour ce faire, il n'y a que deux simples étapes à suivre.
01:51
First, you find and label a memory in the brain,
40
111222
3486
D'abord, on trouve et on étiquette un souvenir dans le cerveau,
01:54
and then you activate it with a switch.
41
114732
3606
et puis on l'active avec un interrupteur.
01:58
As simple as that.
42
118362
1421
C'est aussi simple que ça.
01:59
(Laughter)
43
119807
1798
(Rires)
02:01
SR: Are you convinced?
44
121629
1821
SR : Vous êtes convaincus ?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Bon, il s'avère que trouver un souvenir dans le cerveau n'est pas si facile.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL : En effet. C'est drôlement plus difficile que, par exemple,
02:09
finding a needle in a haystack,
47
129998
2380
trouver une aiguille dans une botte de foin,
02:12
because at least, you know, the needle is still something
48
132402
2715
parce que vous voyez, l'aiguille est au moins quelque chose
que vous pouvez saisir physiquement.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Mais la mémoire, non.
02:19
And also, there's way more cells in your brain
51
139468
3014
Et aussi, il y a beaucoup plus de cellules dans votre cerveau
02:22
than the number of straws in a typical haystack.
52
142506
5042
que de brins de paille dans une botte de foin ordinaire.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Alors oui, cette tâche a l'air intimidante.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Mais, heureusement, nous avons obtenu l'aide du cerveau lui-même.
02:34
It turned out that all we need to do is basically
55
154130
2431
Il s'est avéré que tout ce que nous devons faire,
02:36
to let the brain form a memory,
56
156585
1969
c'est de laisser le cerveau former un souvenir,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
puis le cerveau nous dira lesquelles de ses cellules sont impliquées
02:42
in that particular memory.
58
162408
1742
dans ce souvenir particulier.
02:44
SR: So what was going on in my brain
59
164174
2333
SR : Donc, qu'est-ce qui se passait dans mon cerveau
02:46
while I was recalling the memory of an ex?
60
166531
2070
lorsque je me rappelais de mon ex ?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Si on pouvait faire complètement abstraction de la morale humaine pendant un instant,
02:51
and slice up my brain right now,
62
171027
1644
et découper mon cerveau en tranches sur le champ,
02:52
you would see that there was an amazing number
63
172695
2191
on verrait qu'il y avait un très grand nombre
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
de régions de mon cerveau qui étaient actives lorsque je me rappelais de ce souvenir.
02:57
Now one brain region that would be robustly active
65
177891
2888
Un région de mon cerveau qui serait particulièrement active
03:00
in particular is called the hippocampus,
66
180803
1983
est appelée l'hippocampe.
03:02
which for decades has been implicated in processing
67
182810
2431
Depuis des décennies,
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
il traite les types de souvenirs qui me tiennent à cœur,
03:07
which also makes it an ideal target to go into
69
187681
2550
ce qui en fait aussi la cible idéale à explorer,
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
pour essayer de trouver et, peut-être, réactiver un souvenir.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL : Lorsqu'on zoome dans l'hippocampe,
03:15
of course you will see lots of cells,
72
195434
2324
on voit beaucoup de cellules, bien sûr,
03:17
but we are able to find which cells are involved
73
197782
3007
mais nous savons trouver lesquelles sont impliquées
03:20
in a particular memory,
74
200813
1452
dans un souvenir particulier,
03:22
because whenever a cell is active,
75
202289
2594
parce que chaque fois qu'une cellule est active,
03:24
like when it's forming a memory,
76
204907
1524
comme lorsqu'un souvenir se forme,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
elle laisse également une trace qui nous permettra plus tard de savoir
03:30
these cells are recently active.
78
210128
2678
qu'elle a été active récemment.
03:32
SR: So the same way that building lights at night
79
212830
2334
SR : De la même façon que les lumières des immeubles, la nuit,
nous permettent de savoir que quelqu'un est probablement en train d'y travailler,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
il y a réellement des capteurs biologiques
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
au sein des cellules qui ne s'allument
03:43
only when that cell was just working.
83
223180
2111
que quand cette cellule vient juste de travailler.
03:45
They're sort of biological windows that light up
84
225315
2286
Ce sont des sortes de fenêtres biologiques qui s'illuminent
03:47
to let us know that that cell was just active.
85
227625
2191
pour nous faire savoir que cette cellule vient d'être active.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL : Nous avons donc découpé une partie de ce capteur,
03:51
and attached that to a switch to control the cells,
87
231998
3123
nous l'avons attachée à un interrupteur pour contrôler les cellules,
03:55
and we packed this switch into an engineered virus
88
235145
3876
et nous avons introduit cet interrupteur dans un virus génétiquement modifié
03:59
and injected that into the brain of the mice.
89
239045
2564
que nous avons injecté dans le cerveau des souris.
04:01
So whenever a memory is being formed,
90
241633
2610
Ainsi, chaque fois que se forme un souvenir,
04:04
any active cells for that memory
91
244267
2324
les cellules activées par ce souvenir
04:06
will also have this switch installed.
92
246615
2718
se verront installer l'interrupteur.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR : Voici ce à quoi ressemble l'hippocampe
après avoir formé un souvenir de peur, par exemple.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
L'océan de bleu que vous voyez ici
04:15
are densely packed brain cells,
96
255962
1928
sont des cellules cérébrales très compactées,
04:17
but the green brain cells,
97
257914
1521
mais les cellules vertes
04:19
the green brain cells are the ones that are holding on
98
259459
2572
sont celles qui retiennent
un souvenir spécifique de peur.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Ce que vous regardez, c'est la cristallisation
04:25
of the fleeting formation of fear.
101
265377
2363
de la formation fugace de la peur.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Vous voyez là, réellement, une tranche de souvenir.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL : En ce qui concerne l'interrupteur dont nous avons parlé,
04:33
ideally, the switch has to act really fast.
104
273714
2901
idéalement, il doit agir très vite.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
Il ne faut pas que cela prenne des minutes ou des heures pour faire effet.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Il faut qu'il agisse à la vitesse du cerveau, en quelques millisecondes.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR : Donc qu'est-ce que t'en penses, Xu ?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Est-ce qu'on peut utiliser, disons, des médicaments
04:47
to activate or inactivate brain cells?
109
287514
1814
pour activer ou désactiver les cellules du cerveau ?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL : Nan. Les médicaments sont trop peu précis. Ils se répandent partout.
04:53
And also it takes them forever to act on cells.
111
293415
2984
Et en plus, ça leur prend un temps infini pour agir sur les cellules.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Ça ne nous permettrait pas de contrôler la mémoire en temps réel.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Alors Steve, qu'est-ce que tu dirais de flasher le cerveau avec de l'électricité ?
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR : L'électricité est assez rapide,
05:06
but we probably wouldn't be able to target it
115
306671
1715
mais on ne serait probablement pas en mesure
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
de cibler uniquement les cellules spécifiques d'un souvenir,
05:10
and we'd probably fry the brain.
117
310863
1755
et on grillerait probablement le cerveau.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL : Oh. C'est vrai. On dirait que, hmm,
05:15
indeed we need to find a better way
119
315837
2587
en effet, nous devons trouver une meilleure façon
05:18
to impact the brain at the speed of light.
120
318448
3271
d'agir sur le cerveau à la vitesse de la lumière.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR : Il se trouve justement que la lumière se déplace à la vitesse de la lumière.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Alors peut-être que nous pourrions activer ou désactiver des souvenirs
05:30
by just using light --
123
330312
1473
juste en utilisant de la lumière...
05:31
XL: That's pretty fast.
124
331809
1331
XL : C'est assez rapide.
05:33
SR: -- and because normally brain cells
125
333164
1861
SR : ... parce que les cellules normales du cerveau
05:35
don't respond to pulses of light,
126
335049
1572
ne répondent pas aux impulsions de la lumière,
05:36
so those that would respond to pulses of light
127
336645
1934
celles qui y répondraient
05:38
are those that contain a light-sensitive switch.
128
338603
2432
seraient celles qui contiendraient un interrupteur sensible à la lumière.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
Pour faire ça, on doit d'abord inciter les cellules du cerveau
05:43
to respond to laser beams.
130
343005
1438
à répondre aux rayons laser.
05:44
XL: Yep. You heard it right.
131
344467
1046
XL : Ouais. Vous avez bien entendu.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
On essaye de tirer des rayons lasers dans le cerveau.
05:47
(Laughter)
133
347704
1686
(Rires)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR : Et la technique qui nous permet de faire ça, c'est l'optogénétique.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
L'optogénétique nous a fourni cet interrupteur de lumière
05:56
to turn brain cells on or off,
136
356020
1484
qu'on peut utiliser pour allumer ou éteindre les cellules cérébrales.
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
Le nom de cet interrupteur est la channelrhodopsine,
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
qu'on voit ici sous la forme de points verts attachés à la cellule cérébrale.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
On peut considérer la channelrhodopsine comme une sorte d'interrupteur à lumière
06:05
that can be artificially installed in brain cells
140
365892
2592
qui peut être installée artificiellement dans les cellules du cerveau,
06:08
so that now we can use that switch
141
368508
1890
ce qui fait que nous pouvons maintenant utiliser cet interrupteur
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
pour activer ou désactiver la cellule simplement en cliquant dessus,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
dans notre cas, en utilisant des impulsions de lumière.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL : On attache cet interrupteur à channelrhodopsine sensible à la lumière
06:19
to the sensor we've been talking about
145
379689
2184
au capteur dont nous avons parlé,
06:21
and inject this into the brain.
146
381897
2431
et on l'injecte dans le cerveau.
06:24
So whenever a memory is being formed,
147
384352
3187
Et ainsi, dès que se forme un souvenir
06:27
any active cell for that particular memory
148
387563
2203
toute cellule activée pour ce souvenir particulier
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
se verra installer cet interrupteur sensible à la lumière.
06:33
so that we can control these cells
150
393274
2377
On peut ainsi contrôler ces cellules
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
par le déclenchement d'un laser identique à celui que vous voyez là.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR : On va tester tout ça maintenant.
06:42
What we can do is we can take our mice
153
402803
2111
Ce qu'on peut faire, c'est prendre nos souris,
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
puis les mettre dans une boîte qui ressemble exactement à celle-ci,
06:47
and then we can give them a very mild foot shock
155
407866
2316
et puis leur donner un tout petit choc électrique aux pattes
06:50
so that they form a fear memory of this box.
156
410206
2048
afin qu'elles forment un souvenir de peur de cette boîte.
06:52
They learn that something bad happened here.
157
412278
2059
Elles apprennent que quelque chose de mauvais leur est arrivé ici.
06:54
Now with our system, the cells that are active
158
414361
2318
Avec notre système, seules les cellules qui sont actives
06:56
in the hippocampus in the making of this memory,
159
416703
2766
dans l'hippocampe pour la fabrication de ce souvenir
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
contiendront maintenant la channelrhodopsine.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL : Quand vous êtes aussi petit qu'une souris,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
c'est comme si le monde entier essayait de vous avoir.
07:08
So your best response of defense
163
428988
1724
Votre meilleure réaction de défense
07:10
is trying to be undetected.
164
430736
2458
est donc d'essayer de vous cacher.
07:13
Whenever a mouse is in fear,
165
433218
2009
Chaque fois qu'une souris a peur,
07:15
it will show this very typical behavior
166
435251
1858
elle va adopter ce comportement très typique,
en restant dans un coin de la boîte,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
essayant de ne bouger aucune partie de son corps.
07:21
and this posture is called freezing.
169
441664
3271
Cette réaction est appelée « faire le mort ».
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Si une souris se souvient que quelque chose de mauvais lui est arrivé dans une boîte,
07:29
and when we put them back into the same box,
171
449253
2599
et si on la remet dans la même boîte,
07:31
it will basically show freezing
172
451876
1780
elle fera le mort
07:33
because it doesn't want to be detected
173
453680
2261
parce qu'elle ne veut pas être détectée
07:35
by any potential threats in this box.
174
455965
2671
par un danger potentiel dans la boîte.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR : On peut voir cette réaction de faire le mort
07:40
you're walking down the street minding your own business,
176
460015
2191
comme lorsque vous marchez dans la rue, bien tranquille,
07:42
and then out of nowhere you almost run into
177
462230
2048
et que tout à coup vous tombez quasiment nez à nez
avec votre ex,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
et que pendant deux terrifiantes secondes
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
vous vous mettez à penser : «Qu'est-ce que je fais ? Je dis bonjour ?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Je lui serre la main ? Je fais demi-tour et je m'enfuis ?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Je m'assied ici et je fais comme si je n'existais pas ?  »
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Ce genre de pensées fugaces qui vous paralysent
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
et qui vous donnent l'air, un instant, d'un lièvre pris dans la lueur des phares.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL : Bref, si on met la souris dans une nouvelle boîte très différente,
08:02
new box, like the next one,
186
482775
3137
comme la suivante,
08:05
it will not be afraid of this box
187
485936
2123
elle n'aura pas peur,
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
parce qu'elle n'a aucune raison d'avoir peur de ce nouvel environnement.
08:12
But what if we put the mouse in this new box
189
492812
3156
Mais que se passe-t-il si nous mettons la souris dans cette nouvelle boîte,
08:15
but at the same time, we activate the fear memory
190
495992
3587
et qu'en même temps, nous activons la mémoire de la peur
08:19
using lasers just like we did before?
191
499603
2655
avec des lasers, comme auparavant ?
08:22
Are we going to bring back the fear memory
192
502282
2830
Est-ce qu'on va raviver le souvenir de la peur
08:25
for the first box into this completely new environment?
193
505136
3973
de la première boîte dans cet environnement complètement nouveau ?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
SR : Ok, c'est la question à un million.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Pour faire revivre le souvenir de ce jour,
08:34
I remember that the Red Sox had just won,
196
514781
2159
je me rappelle que les Red Sox venaient de gagner,
08:36
it was a green spring day,
197
516964
1885
c'était une belle journée de printemps,
08:38
perfect for going up and down the river
198
518873
1858
idéale pour une promenade le long de la rivière,
08:40
and then maybe going to the North End
199
520755
2245
et puis peut-être pour aller dans le quartier nord,
08:43
to get some cannolis, #justsaying.
200
523024
2135
et acheter des cannolis, enfin je dis ça...
08:45
Now Xu and I, on the other hand,
201
525183
3078
Au lieu de ça, Xu et moi,
08:48
were in a completely windowless black room
202
528285
2806
nous trouvions dans une salle obscure, sans aucune fenêtre,
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
sans oser cligner une seule fois des yeux
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
parce que nos regards étaient fixés sur un écran d'ordinateur.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
On regardait cette souris, et on essayait d'activer un souvenir
à l'aide de notre technique, pour la première fois.
09:00
for the first time using our technique.
206
540219
1859
XL : Et voici ce que nous avons vu.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Quand on a mis la souris dans la boîte,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
au début, elle a exploré, reniflé, elle s'est promenée,
09:09
minding its own business,
210
549684
1665
fait ses petites affaires,
09:11
because actually by nature,
211
551373
1677
parce qu'en fait,
09:13
mice are pretty curious animals.
212
553074
1955
les souris sont naturellement des animaux assez curieux.
09:15
They want to know, what's going on in this new box?
213
555053
2598
Elles veulent savoir ce qu'il y a dans cette nouvelle boîte.
09:17
It's interesting.
214
557675
1507
Ça les intéresse.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Mais au moment où on a allumé le laser, comme vous le voyez maintenant,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
tout d'un coup, la souris a fait le mort.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Elle est restée immobile et a essayé de ne pas bouger.
09:30
Clearly it's freezing.
218
570120
1604
Elle fait clairement le mort.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Il semble donc bien que nous sommes en mesure de rappeler
09:34
the fear memory for the first box
220
574331
2040
le souvenir de la peur de la première boite
09:36
in this completely new environment.
221
576395
3343
dans cet environnement complètement nouveau.
09:39
While watching this, Steve and I
222
579762
2088
En voyant ça, Steve et moi,
09:41
are as shocked as the mouse itself.
223
581874
2109
on était aussi choqués que la souris elle-même.
09:44
(Laughter)
224
584007
1238
(Rires)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Après l'expérience, on est sortis de la salle
09:48
without saying anything.
226
588576
1729
sans un mot.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Après un long moment de gêne,
09:53
Steve broke the silence.
228
593725
2188
Steve a brisé le silence.
09:55
SR: "Did that just work?"
229
595937
2317
SR : «Est-ce que ça a marché ? »
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL : « Oui, » j'ai dit. « Ça a bien marché ! »
10:01
We're really excited about this.
231
601252
2093
Nous étions vraiment enthousiasmés.
10:03
And then we published our findings
232
603369
2600
Et puis, nous avons publié nos découvertes
10:05
in the journal Nature.
233
605993
1672
dans la revue Nature.
10:07
Ever since the publication of our work,
234
607689
2447
Depuis la publication de nos travaux,
10:10
we've been receiving numerous comments
235
610160
2391
nous avons reçu de nombreux commentaires
10:12
from all over the Internet.
236
612575
2101
de partout sur Internet.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Peut-être pouvons-nous y jeter un œil ?
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
[« Oh mon Dieu enfin... tellement plus à venir, la réalité virtuelle, les manipulations neurales, émulation visuelle des rêves... l'encodage des neurones, l'écriture et la réécriture des souvenirs, une cure pour les maladies mentales. Ahhh, l'avenir est génial »]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
SR : La première chose que vous remarquerez, c'est que les gens
10:22
have really strong opinions about this kind of work.
240
622907
2879
ont des opinions très marquées sur ce genre de recherches.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Je suis entièrement d'accord avec l'optimisme
10:28
of this first quote,
242
628364
792
de cette première citation,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
parce que sur une échelle de zéro à la voix de Morgan Freeman,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
c'est l'un des hommages les plus inspirés
10:34
that I've heard come our way.
245
634489
1526
que j'ai entendus à notre encontre.
(Rires)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Mais comme vous le verrez, ce n'est pas la seule opinion que l'on trouve.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
[« Ça me terrifie... Et si on pouvait facilement faire ça chez l'homme dans quelques années ?! OH MON DIEU, NOUS SOMMES CONDAMNÉS »]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL : En effet, si on regarde le deuxième,
10:43
I think we can all agree that it's, meh,
250
643682
2083
je pense qu'on est tous d'accord pour dire que, eh bien,
10:45
probably not as positive.
251
645789
1959
il est probablement moins positif.
10:47
But this also reminds us that,
252
647772
2161
Mais ça nous rappelle tout de même que,
10:49
although we are still working with mice,
253
649957
2162
même si on travaille pour l'instant sur des souris,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
ce serait probablement une bonne idée de commencer à réfléchir et à discuter
10:55
about the possible ethical ramifications
255
655660
2967
des conséquences éthiques potentielles
10:58
of memory control.
256
658651
1924
du contrôle de la mémoire.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR : Maintenant, une troisième citation,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
qui nous permettra de parler d'un projet récent sur lequel on a travaillé au labo,
11:04
working on in lab that we've called Project Inception.
259
664773
2572
et que nous avons appelé le Projet Inception.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
[« Ils devraient faire un film à ce sujet. Dans lequel ils implanteraient des idées dans l'esprit des gens, pour pouvoir les contrôler pour leur gain personnel. On l'appellerait : Inception. »]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
On s'est dit que maintenant qu'on pouvait réactiver un souvenir,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
si on commençait à le bricoler ?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Peut-être qu'on pourrait même le transformer en un faux souvenir ?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
XL : Tout souvenir est sophistiqué et dynamique,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
mais par souci de simplicité, nous allons envisager le souvenir
11:27
as a movie clip.
266
687241
1378
comme un clip vidéo.
11:28
So far what we've told you is basically we can control
267
688643
2646
On vous a jusque là expliqué qu'on pouvait en gros contrôler
11:31
this "play" button of the clip
268
691313
1907
le bouton « play » du clip vidéo,
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
pour pouvoir jouer ce clip vidéo n'importe quand, n'importe où.
11:37
But is there a possibility that we can actually get
270
697829
2507
Mais serait-il possible d'aller réellement
11:40
inside the brain and edit this movie clip
271
700360
2836
à l'intérieur du cerveau, et de modifier ce clip vidéo
11:43
so that we can make it different from the original?
272
703220
2872
pour le rendre différent de l'original ?
11:46
Yes we can.
273
706116
2154
Oui, nous le pouvons.
11:48
Turned out that all we need to do is basically
274
708294
2191
Tout ce qu'on a à faire, c'est en gros
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
de réactiver un souvenir à l'aide de lasers, comme nous l'avons fait auparavant,
11:54
but at the same time, if we present new information
276
714699
3415
mais en même temps, si on présente de nouvelles informations,
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
et qu'on permet à ces nouvelles informations de s'incorporer dans ce vieux souvenir,
12:02
this will change the memory.
278
722112
2414
ça va le modifier.
12:04
It's sort of like making a remix tape.
279
724550
3639
C'est un peu comme faire un remix.
12:08
SR: So how do we do this?
280
728213
2834
SR : Alors, comment fait-on ?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
Au lieu de trouver un souvenir de peur dans le cerveau,
12:13
we can start by taking our animals,
282
733028
1692
nous peut commencer par prendre nos animaux,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
et les mettre, disons, dans une boîte bleue, comme celle-ci,
12:17
and we find the brain cells that represent that blue box
284
737721
2623
on trouve les cellules du cerveau qui représentent cette boîte bleue,
12:20
and we trick them to respond to pulses of light
285
740368
2239
et on les incite à réagir à des impulsions de lumière,
12:22
exactly like we had said before.
286
742631
1710
exactement comme on l'a dit.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Le jour suivant, on peut prendre nos animaux et les mettre
12:26
in a red box that they've never experienced before.
288
746489
2675
dans une boîte rouge qu'ils n'ont jamais connue auparavant.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
On peut envoyer de la lumière dans le cerveau
12:31
the memory of the blue box.
290
751451
1848
pour réactiver la mémoire de la boîte bleue.
12:33
So what would happen here if, while the animal
291
753323
1720
Qu'est-ce qui se passerait si, pendant que l'animal se rappelle
12:35
is recalling the memory of the blue box,
292
755067
1905
du souvenir de la boîte bleue,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
on lui donnait un ou deux petits chocs électriques aux pattes ?
12:39
So here we're trying to artificially make an association
294
759604
2669
Là, on essaye de créer artificiellement une association
12:42
between the memory of the blue box
295
762297
1891
entre la mémoire de la boîte bleue
12:44
and the foot shocks themselves.
296
764212
1479
et les chocs électriques aux pattes.
12:45
We're just trying to connect the two.
297
765715
1762
On essaye juste de relier les deux.
12:47
So to test if we had done so,
298
767501
1512
Afin de tester si on a réussi,
12:49
we can take our animals once again
299
769037
1304
on peut prendre nos animaux de nouveau,
12:50
and place them back in the blue box.
300
770365
1922
et les remettre dans la boîte bleue.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Encore une fois, on a juste réactivé la mémoire de la boîte bleue
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
pendant que l'animal recevait quelques chocs électriques aux pattes,
12:57
and now the animal suddenly freezes.
303
777455
2107
et maintenant, l'animal fait soudain le mort.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
C'est comme s'il se rappelait avoir été légèrement choqué dans cet environnement,
13:02
even though that never actually happened.
305
782944
2822
même si cela ne s'est en fait jamais produit.
13:05
So it formed a false memory,
306
785790
1838
Il a donc formé un faux souvenir
13:07
because it's falsely fearing an environment
307
787652
2048
parce qu'il craint de façon erronée un environnement
13:09
where, technically speaking,
308
789724
1334
où, d'un point de vue technique,
rien de mauvais ne lui est réellement arrivé.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL : Jusqu'ici, on n'a parlé
13:15
this light-controlled "on" switch.
311
795719
2342
que d'un interrupteur que la lumière allume.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
En fait, on en a aussi un que la lumière éteint,
13:21
and it's very easy to imagine that
313
801373
2056
et il est très facile d'imaginer
13:23
by installing this light-controlled "off" switch,
314
803453
2454
qu'en installant cet interrupteur que la lumière éteint,
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
on puisse également effacer un souvenir, n'importe quand, n'importe où.
13:31
So everything we've been talking about today
316
811519
2190
Tout ce dont on a parlé aujourd'hui
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
repose sur ce principe très philosophique des neurosciences
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
qui dit que l'esprit, avec ses propriétés apparemment mystérieuses,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
est en fait constitué d'objets physiques que nous pouvons manipuler.
13:46
SR: And for me personally,
320
826173
1451
SR : Quant à moi, personnellement,
13:47
I see a world where we can reactivate
321
827648
1762
je vois un monde où on peut réactiver
13:49
any kind of memory that we'd like.
322
829434
1887
tous les souvenirs que nous voulons.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Je vois aussi un monde où on peut effacer des souvenirs indésirables.
13:54
Now, I even see a world where editing memories
324
834643
2143
Je vois même un monde où modifier les souvenirs
13:56
is something of a reality,
325
836810
1284
est devenu une réalité,
13:58
because we're living in a time where it's possible
326
838118
1681
parce que nous vivons à une époque où il est possible
13:59
to pluck questions from the tree of science fiction
327
839823
2429
de cueillir des questions sur l'arbre de la science fiction,
14:02
and to ground them in experimental reality.
328
842276
2168
et de les ancrer dans la réalité expérimentale.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL : En ce moment même, dans les labos,
14:06
and people in other groups all over the world
330
846351
2362
et dans d'autres groupes partout dans le monde,
14:08
are using similar methods to activate or edit memories,
331
848737
3793
des gens utilisent des méthodes similaires pour activer ou modifier les souvenirs,
14:12
whether that's old or new, positive or negative,
332
852554
3817
qu'ils soient anciens ou nouveaux, positifs ou négatifs,
14:16
all sorts of memories so that we can understand
333
856395
2648
toutes sortes de souvenirs, pour pouvoir comprendre
14:19
how memory works.
334
859067
1840
comment fonctionne la mémoire.
14:20
SR: For example, one group in our lab
335
860931
1760
SR : Par exemple, un groupe dans notre labo
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
a réussi à trouver les cellules cérébrales qui composaient un souvenir de peur,
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
et les a convertis en un souvenir agréable, juste comme ça.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
C'est exactement ce que je veux dire lorsque je parle de modifier ces processus.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Un mec au labo, a même réussi à réactiver
14:33
memories of female mice in male mice,
340
873558
1921
des souvenirs de souris femelles chez les souris mâles,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
ce qui est une expérience agréable, selon la rumeur.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
XL : En effet, nous vivons une période très excitante,
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
où la vitesse de la science n'a aucune limite arbitraire,
14:46
but is only bound by our own imagination.
344
886420
3163
mais n'est liée qu'à notre propre imagination.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR : Pour conclure, que faut-il penser de tout cela ?
14:51
How do we push this technology forward?
346
891774
1927
Comment faire avancer cette technologie ?
14:53
These are the questions that should not remain
347
893725
2191
Ce sont des questions qui ne doivent pas rester
14:55
just inside the lab,
348
895940
1273
confinées au labo,
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
et l'un des objectifs de cette conférence était donc de mettre tout le monde au courant
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
du genre de choses qu'il est possible de faire
15:02
in modern neuroscience,
351
902238
1250
dans les neurosciences modernes,
15:03
but now, just as importantly,
352
903512
1486
mais il est tout aussi important
15:05
to actively engage everybody in this conversation.
353
905022
3308
de faire participer activement tout le monde à ce débat.
15:08
So let's think together as a team about what this all means
354
908354
2762
Alors réfléchissons ensemble, comme une équipe, à ce que tout cela signifie,
à ce que nous pouvons et devons faire,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
parce que Xu et moi pensons que nous avons tous
15:15
some really big decisions ahead of us.
357
915255
2512
de grandes décisions qui nous attendent.
15:17
Thank you. XL: Thank you.
358
917791
1101
Merci. XL : Merci.
15:18
(Applause)
359
918916
1634
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7