Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez y Xu Liu: Un ratón. Un rayo láser. Un recuerdo manipulado.

134,222 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez y Xu Liu: Un ratón. Un rayo láser. Un recuerdo manipulado.

134,222 views ・ 2013-08-15

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Ciro Gomez Revisor: Emma Gon
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez: En mi primer año de posgrado
estaba en mi habitación
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
comiendo helados Ben & Jerry's
00:18
watching some trashy TV
3
18231
1660
viendo telebasura,
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
y quizás, quizás, escuchando a Taylor Swift.
00:23
I had just gone through a breakup.
5
23142
1717
Acababa de pasar por una relación rota.
00:24
(Laughter)
6
24883
1423
(Risas)
00:26
So for the longest time, all I would do
7
26330
2172
Todo lo que hacía, la mayor parte del tiempo
00:28
is recall the memory of this person over and over again,
8
28526
3792
era recordar a esa persona una y otra vez,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
esperando poder deshacerme de esa sensación
00:34
visceral "blah" feeling.
10
34835
2509
visceral de vacío desgarrador.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Pero resulta que soy neurocientífico,
00:39
so I knew that the memory of that person
12
39651
2378
de modo que sabía que el recuerdo de esa persona
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
y el horrible trasfondo emocional que coloreaba ese recuerdo
00:45
are largely mediated by separate brain systems.
14
45193
2610
eran en gran medida mediados por sistemas cerebrales separados.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Y entonces pensé, ¿qué pasaría si pudiéramos entrar al cerebro
00:50
and edit out that nauseating feeling
16
50328
1930
y editar ese sentimiento nauseabundo
00:52
but while keeping the memory of that person intact?
17
52282
2946
pero mantener a la vez intacta la memoria de esa persona?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Entonces me di cuenta de que quizá era un poco inalcanzable por ahora.
00:57
So what if we could start off by going into the brain
19
57943
2489
Entonces, ¿qué pasaría si pudiéramos entrar en el cerebro
01:00
and just finding a single memory to begin with?
20
60456
2609
y encontrar un solo recuerdo, para comenzar?
01:03
Could we jump-start that memory back to life,
21
63089
2490
¿Podríamos llevar ese recuerdo de nuevo a la vida,
01:05
maybe even play with the contents of that memory?
22
65603
3844
tal vez incluso jugar con el contenido de ese recuerdo?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Dicho todo eso, solo hay una persona en todo el mundo
01:11
that I really hope is not watching this talk.
24
71700
2143
que realmente espero no esté mirando esta charla.
01:13
(Laughter)
25
73867
3805
(Risas)
01:17
So there is a catch. There is a catch.
26
77696
3265
Así que hay una trampa. Hay una trampa.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Estas ideas probablemente les recuerden "El vengador del futuro/Desafío total",
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"Eterno resplandor de una mente sin recuerdos"
01:25
or of "Inception."
29
85747
1279
o "El Origen".
01:27
But the movie stars that we work with
30
87050
1762
Pero las estrellas de las películas en las que trabajamos
01:28
are the celebrities of the lab.
31
88836
1709
son las celebridades del laboratorio.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu: Ratones de laboratorio.
01:32
(Laughter)
33
92469
1104
(Risas)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Como neurocientíficos, trabajamos en el laboratorio con ratones
01:36
trying to understand how memory works.
35
96751
3386
tratando de entender cómo funciona la memoria.
01:40
And today, we hope to convince you that now
36
100161
2545
Y hoy, esperamos poder convencerlos de que ahora
01:42
we are actually able to activate a memory in the brain
37
102730
3192
somos realmente capaces de activar un recuerdo en el cerebro
01:45
at the speed of light.
38
105946
2146
a la velocidad de la luz.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
Para hacer esto, hay solo dos sencillos pasos a seguir.
01:51
First, you find and label a memory in the brain,
40
111222
3486
En primer lugar, encontrar y marcar un recuerdo en el cerebro,
01:54
and then you activate it with a switch.
41
114732
3606
y luego activarlo con un interruptor.
01:58
As simple as that.
42
118362
1421
Tan simple como eso.
01:59
(Laughter)
43
119807
1798
(Risas)
02:01
SR: Are you convinced?
44
121629
1821
SR: ¿Están convencidos?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Resulta que encontrar un recuerdo en el cerebro no es fácil.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL: En efecto. Es mucho más difícil que, digamos,
02:09
finding a needle in a haystack,
47
129998
2380
encontrar una aguja en un pajar,
02:12
because at least, you know, the needle is still something
48
132402
2715
porque por lo menos, saben, la aguja sigue siendo algo
físico en el que pueden poner sus dedos.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Pero la memoria no lo es.
02:19
And also, there's way more cells in your brain
51
139468
3014
Y además, hay más células en el cerebro
02:22
than the number of straws in a typical haystack.
52
142506
5042
que el número de pajas en un pajar típico.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Así que sí, esta tarea parece ser desalentadora.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Pero afortunadamente, tenemos ayuda del cerebro mismo.
02:34
It turned out that all we need to do is basically
55
154130
2431
Resulta que todo lo que necesitamos hacer es básicamente
02:36
to let the brain form a memory,
56
156585
1969
dejar que el cerebro haga un recuerdo,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
y entonces el cerebro nos dirá cuáles células están involucradas
02:42
in that particular memory.
58
162408
1742
en ese recuerdo en particular.
02:44
SR: So what was going on in my brain
59
164174
2333
SR: ¿Qué estaba pasando en mi cerebro
02:46
while I was recalling the memory of an ex?
60
166531
2070
mientras estaba recordando a mi ex?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Si ignoraran completamente la ética humana por un segundo
02:51
and slice up my brain right now,
62
171027
1644
y cortaran mi cerebro en este momento,
02:52
you would see that there was an amazing number
63
172695
2191
verían que hubo un número asombroso
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
de regiones del cerebro que se activaron al mismo tiempo, trayendo ese recuerdo.
02:57
Now one brain region that would be robustly active
65
177891
2888
Una región cerebral que estaría sólidamente activa
03:00
in particular is called the hippocampus,
66
180803
1983
en particular se llama el hipocampo,
03:02
which for decades has been implicated in processing
67
182810
2431
que durante décadas se ha implicado en el proceso
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
de la clase de recuerdos que nos son cercanos y queridos,
03:07
which also makes it an ideal target to go into
69
187681
2550
que también lo hace un destino ideal para ir
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
y tratar de encontrar, y tal vez reactivar, un recuerdo.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL: Cuando uno se acerca al hipocampo,
03:15
of course you will see lots of cells,
72
195434
2324
por supuesto, verán un montón de células,
03:17
but we are able to find which cells are involved
73
197782
3007
pero somos capaces de encontrar las células que están involucradas
03:20
in a particular memory,
74
200813
1452
en un recuerdo en particular,
03:22
because whenever a cell is active,
75
202289
2594
porque cuando una célula está activa,
03:24
like when it's forming a memory,
76
204907
1524
como cuando se está formando un recuerdo,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
también dejará una huella que posteriormente nos permitirá conocer
03:30
these cells are recently active.
78
210128
2678
que estas células están recientemente activadas.
03:32
SR: So the same way that building lights at night
79
212830
2334
SR: De la misma manera que las luces de este edificio
nos permiten saber que alguien está trabajando allí en un momento dado,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
en un sentido muy real, hay sensores biológicos
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
dentro de una célula que se encienden
03:43
only when that cell was just working.
83
223180
2111
solo cuando la célula estuvo trabajando.
03:45
They're sort of biological windows that light up
84
225315
2286
Son una clase de ventanas biológicas que se iluminan
03:47
to let us know that that cell was just active.
85
227625
2191
para dejarnos saber que esa célula estuvo activa.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL: Así que recortamos parte de este sensor,
03:51
and attached that to a switch to control the cells,
87
231998
3123
y lo conectamos a un interruptor para el control de las células,
03:55
and we packed this switch into an engineered virus
88
235145
3876
y empacamos este interruptor en un virus modificado
03:59
and injected that into the brain of the mice.
89
239045
2564
que se inyecta en el cerebro de los ratones.
04:01
So whenever a memory is being formed,
90
241633
2610
Así que cuando se está formando un recuerdo,
04:04
any active cells for that memory
91
244267
2324
cualquier célula activa por ese recuerdo
04:06
will also have this switch installed.
92
246615
2718
también tendrá este interruptor instalado.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR: Aquí está cómo se ve el hipocampo
después de formar un recuerdo de miedo, por ejemplo.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
El mar azul que ven aquí
04:15
are densely packed brain cells,
96
255962
1928
está densamente poblado de neuronas,
04:17
but the green brain cells,
97
257914
1521
pero las neuronas en verde,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
las neuronas verdes, son las únicas que están teniendo
un recuerdo de temor.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Así que están mirando la cristalización
04:25
of the fleeting formation of fear.
101
265377
2363
de la formación efímera del miedo.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Están realmente viendo en la sección transversal de un recuerdo.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL: Ahora, para el cambio del que hemos estado hablando,
04:33
ideally, the switch has to act really fast.
104
273714
2901
idealmente, el interruptor tiene que actuar muy rápido.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
No debería tardar minutos u horas en trabajar.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Debería actuar a la velocidad del cerebro, en milisegundos.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR: ¿Qué crees, Xu?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
¿Podríamos usar, digamos, medicamentos farmacológicos
04:47
to activate or inactivate brain cells?
109
287514
1814
para activar o desactivar las células cerebrales?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL: No. Las drogas son desordenadas. Se esparcen por todas partes.
04:53
And also it takes them forever to act on cells.
111
293415
2984
Y duran eternidades en actuar en las células.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Así que no nos permitirán controlar un recuerdo en tiempo real.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Así que Steve, ¿qué tal si asaltamos el cerebro con la electricidad?
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR: La electricidad es muy rápida,
05:06
but we probably wouldn't be able to target it
115
306671
1715
pero probablemente no seríamos capaces de atacar
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
solo las células específicas que se aferran a un recuerdo,
05:10
and we'd probably fry the brain.
117
310863
1755
y probablemente freiríamos el cerebro.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL: Oh. Eso es cierto. Así parece, mmm,
05:15
indeed we need to find a better way
119
315837
2587
en efecto tenemos que encontrar una mejor manera
05:18
to impact the brain at the speed of light.
120
318448
3271
de impactar el cerebro a la velocidad de la luz.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR: Resulta que la luz viaja a la velocidad de la luz.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Tal vez podríamos activar o inactivar recuerdos
05:30
by just using light --
123
330312
1473
usando solo luz...
05:31
XL: That's pretty fast.
124
331809
1331
XL: Es bastante rápida.
05:33
SR: -- and because normally brain cells
125
333164
1861
SR: ...y como normalmente las neuronas
05:35
don't respond to pulses of light,
126
335049
1572
no responden a pulsos de luz,
05:36
so those that would respond to pulses of light
127
336645
1934
aquellas que respondieran a pulsos de luz
05:38
are those that contain a light-sensitive switch.
128
338603
2432
serían aquellas que tuvieran un interruptor sensible a la luz.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
Para hacer eso, primero tenemos que engañar a las neuronas
05:43
to respond to laser beams.
130
343005
1438
para que respondan a los rayos láser.
05:44
XL: Yep. You heard it right.
131
344467
1046
XL: Sí. Lo han oído bien.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
Estamos tratando de disparar rayos láser en el cerebro.
05:47
(Laughter)
133
347704
1686
(Risas)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR: Y la técnica que nos permite hacerlo es la optogenética.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
La optogenética nos dio este interruptor de luz que podemos utilizar
05:56
to turn brain cells on or off,
136
356020
1484
para prender o apagar las neuronas
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
y el nombre de ese conmutador es canalrodopsina,
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
vistos aquí como estos puntos verdes pegados a esta neurona.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Pueden pensar en la canalrodopsina como una especie de interruptor sensible a la luz
06:05
that can be artificially installed in brain cells
140
365892
2592
que puede instalarse artificialmente en las neuronas
06:08
so that now we can use that switch
141
368508
1890
así que ahora podemos usar el interruptor
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
para activar o desactivar la neurona simplemente clic en el interruptor
06:13
and in this case we click it on with pulses of light.
143
373446
2524
y en este caso hacemos clic con pulsos de luz.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL: Así que pegamos este interruptor sensible a la luz de la canalrodopsina
06:19
to the sensor we've been talking about
145
379689
2184
al sensor del que hemos estado hablando
06:21
and inject this into the brain.
146
381897
2431
y lo inyectamos en el cerebro.
06:24
So whenever a memory is being formed,
147
384352
3187
Así que cuando se está formando una memoria,
06:27
any active cell for that particular memory
148
387563
2203
cualquier célula activa para que un recuerdo particular
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
también tendrá este interruptor sensible a la luz instalado en él
06:33
so that we can control these cells
150
393274
2377
así que podemos controlar estas células
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
moviendo de un tirón el láser como ven.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR: Así que vamos a poner todo esto a prueba ahora.
06:42
What we can do is we can take our mice
153
402803
2111
Lo que podemos hacer es tomar nuestros ratones
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
y ponerlos en una caja que se ve exactamente igual que esta
06:47
and then we can give them a very mild foot shock
155
407866
2316
y darles un leve choque eléctrico en el pie
06:50
so that they form a fear memory of this box.
156
410206
2048
y así formar un recuerdo de miedo a esta caja.
06:52
They learn that something bad happened here.
157
412278
2059
Aprenderán que algo malo sucedió aquí.
06:54
Now with our system, the cells that are active
158
414361
2318
Ahora con nuestro sistema, las células que están activas
06:56
in the hippocampus in the making of this memory,
159
416703
2766
en el hipocampo en la elaboración de este recuerdo,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
solo esas células contendrá canalrodopsina.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL: Cuando eres tan pequeño como un ratón,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
se siente como si todo el mundo estuviera tratando de cazarte.
07:08
So your best response of defense
163
428988
1724
Así que la mejor respuesta de defensa
07:10
is trying to be undetected.
164
430736
2458
es tratar de pasar inadvertido.
07:13
Whenever a mouse is in fear,
165
433218
2009
Cuando un ratón tiene miedo,
07:15
it will show this very typical behavior
166
435251
1858
mostrará este comportamiento muy típico
yéndose a una esquina de la caja,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
tratando de no mover ninguna parte de su cuerpo,
07:21
and this posture is called freezing.
169
441664
3271
postura que se llama congelación.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Así que si un ratón recuerda que algo malo sucedió en esta caja,
07:29
and when we put them back into the same box,
171
449253
2599
cuando lo ponemos en la misma caja,
07:31
it will basically show freezing
172
451876
1780
básicamente nos mostrará congelación
07:33
because it doesn't want to be detected
173
453680
2261
porque no quiere ser detectado
07:35
by any potential threats in this box.
174
455965
2671
por cualquier amenaza potencial de la caja.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR: Así que pueden pensar en la congelación como
07:40
you're walking down the street minding your own business,
176
460015
2191
si están caminando por la calle pensando en sus asuntos,
07:42
and then out of nowhere you almost run into
177
462230
2048
y entonces de la nada se encuentran frente
a una exnovia o exnovio,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
y por dos terroríficos segundos
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
empiezan a pensar, "¿Qué hago? ¿Digo hola?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
¿Estrecho su mano? ¿Doy la vuelta y huyo?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
¿Me siento aquí y hago como si no existiera?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Son esa clase de pensamientos fugaces que físicamente incapacitan
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
que temporalmente dan esa mirada de ciervos deslumbrados.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL: Sin embargo, si ponen el ratón en una nueva caja completamente
08:02
new box, like the next one,
186
482775
3137
diferente, como la siguiente,
08:05
it will not be afraid of this box
187
485936
2123
no habrá miedo de esta caja
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
porque no hay ninguna razón por la que temer a este nuevo entorno.
08:12
But what if we put the mouse in this new box
189
492812
3156
Pero ¿qué pasa si ponemos el ratón en esta nueva caja
08:15
but at the same time, we activate the fear memory
190
495992
3587
pero al mismo tiempo, activamos la memoria del miedo
08:19
using lasers just like we did before?
191
499603
2655
utilizando láseres como lo hicimos antes?
08:22
Are we going to bring back the fear memory
192
502282
2830
¿Vamos a traer el recuerdo del miedo
08:25
for the first box into this completely new environment?
193
505136
3973
de la primera caja en este entorno completamente nuevo?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
SR: Bien, y aquí está el experimento del millón de dólares.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Ahora para traer de vuelta a la vida el recuerdo de ese día,
08:34
I remember that the Red Sox had just won,
196
514781
2159
recuerdo que los Red Sox habían ganado,
08:36
it was a green spring day,
197
516964
1885
era un día de primavera verde,
08:38
perfect for going up and down the river
198
518873
1858
perfecto para subir y bajar por el río
08:40
and then maybe going to the North End
199
520755
2245
y luego quizá ir al extremo norte
08:43
to get some cannolis, #justsaying.
200
523024
2135
para conseguir algunos cannoli, #justsaying.
08:45
Now Xu and I, on the other hand,
201
525183
3078
Ahora Xu y yo, por otro lado,
08:48
were in a completely windowless black room
202
528285
2806
estábamos en una habitación completamente oscura, sin ventanas,
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
sin hacer ningún movimiento ocular que remotamente se asemejara a un parpadeo
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
porque nuestros ojos estaban fijos en la pantalla de una computadora.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Estábamos mirando este ratón, tratando de activar un recuerdo
por primera vez usando nuestra técnica.
09:00
for the first time using our technique.
206
540219
1859
XL: Y esto es lo que vimos.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Cuando ponemos primero el ratón en esta caja,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
explora, husmea, camina por ahí,
09:09
minding its own business,
210
549684
1665
ocupándose de sus propios asuntos,
09:11
because actually by nature,
211
551373
1677
porque en realidad por naturaleza,
09:13
mice are pretty curious animals.
212
553074
1955
los ratones son animales muy curiosos.
09:15
They want to know, what's going on in this new box?
213
555053
2598
Quieren saber qué está pasando en esta nueva caja.
09:17
It's interesting.
214
557675
1507
Es interesante.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Pero en el momento que encendimos el láser, como ven
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
de repente el ratón entró en este modo de congelación.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Se alojó aquí y trató de no mover ninguna parte de su cuerpo.
09:30
Clearly it's freezing.
218
570120
1604
Claramente está congelado.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
De hecho, parece que somos capaces de traer de vuelta
09:34
the fear memory for the first box
220
574331
2040
la memoria del miedo a la primera caja
09:36
in this completely new environment.
221
576395
3343
en este entorno completamente nuevo.
09:39
While watching this, Steve and I
222
579762
2088
Viendo esto, Steve y yo
09:41
are as shocked as the mouse itself.
223
581874
2109
estábamos tan sorprendidos como el ratón mismo.
09:44
(Laughter)
224
584007
1238
(Risas)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Así que después del experimento, los dos salimos
09:48
without saying anything.
226
588576
1729
sin decir nada.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Después de una especie de largo y difícil período de tiempo,
09:53
Steve broke the silence.
228
593725
2188
Steve rompió el silencio.
09:55
SR: "Did that just work?"
229
595937
2317
SR: "¿Funcionó?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL: "Sí," dije. "¡De hecho funcionó!"
10:01
We're really excited about this.
231
601252
2093
Estábamos muy entusiasmados.
10:03
And then we published our findings
232
603369
2600
Y entonces publicamos nuestros hallazgos
10:05
in the journal Nature.
233
605993
1672
en la revista Nature.
10:07
Ever since the publication of our work,
234
607689
2447
Desde la publicación de nuestro trabajo,
10:10
we've been receiving numerous comments
235
610160
2391
hemos estado recibiendo numerosos comentarios
10:12
from all over the Internet.
236
612575
2101
de todo el Internet.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Tal vez podemos echar un vistazo a algunos.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["Cielos, por fin... mucho por venir, realidad virtual, manipulación neural, emulación de sueño visual... codificación neuronal, 'escribir y reescribir recuerdos', enfermedades mentales. Ahhh, el futuro es impresionante".]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
SR: Así que lo primero que notarán es que la gente
10:22
have really strong opinions about this kind of work.
240
622907
2879
tiene opiniones muy fuertes sobre este tipo de trabajo.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Estoy de acuerdo completamente con el optimismo
10:28
of this first quote,
242
628364
792
de esta primera cita,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
porque en una escala de cero a la voz de Morgan Freeman,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
pasa a ser uno de los galardones más sugerentes
10:34
that I've heard come our way.
245
634489
1526
que haya escuchado en nuestro camino.
(Risas)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Pero como veremos, no es la única opinión que hay por ahí.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["Esto asusta... ¡¿Qué pasa si pueden hacerlo fácilmente en los humanos en un par de años?! OH DIOS MÍO, ESTAMOS PERDIDOS".
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL: De hecho, si echamos un vistazo a la segunda opinión
10:43
I think we can all agree that it's, meh,
250
643682
2083
creo que todos coincidimos en que, eh,
10:45
probably not as positive.
251
645789
1959
probablemente no sea tan positivo.
10:47
But this also reminds us that,
252
647772
2161
Pero esto también nos recuerda que,
10:49
although we are still working with mice,
253
649957
2162
aunque todavía estamos trabajando con ratones,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
es probablemente una buena idea empezar a pensar y debatir
10:55
about the possible ethical ramifications
255
655660
2967
sobre las posibles ramificaciones éticas
10:58
of memory control.
256
658651
1924
del control de la memoria.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR: Ahora, en el espíritu de la tercera cita,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
queremos hablar de un proyecto reciente que hemos
11:04
working on in lab that we've called Project Inception.
259
664773
2572
trabajado en el laboratorio que hemos llamado Proyecto Origen.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["Deberían hacer una película, donde siembran ideas en las mentes de la gente, para poder controlarlos y lograr su propia ganancia personal, llamémosle: Origen".]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Razonamos que, ahora que nosotros podemos reactivar un recuerdo,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
¿qué pasa si podemos hacerlo pero luego empiezan a manosear ese recuerdo?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
¿Podríamos posiblemente hasta convertirlo en una falsa memoria?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
XL: Toda la memoria es sofisticada y dinámica,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
pero por simplicidad, imaginemos la memoria como
11:27
as a movie clip.
266
687241
1378
una secuencia de película.
11:28
So far what we've told you is basically we can control
267
688643
2646
Hasta ahora lo que hemos dicho básicamente es que podemos controlar
11:31
this "play" button of the clip
268
691313
1907
este botón de "reproducir" de la secuencia
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
así que podemos activar esta secuencia de vídeo en cualquier momento y lugar.
11:37
But is there a possibility that we can actually get
270
697829
2507
Pero ¿hay una posibilidad de que en realidad podamos llegar
11:40
inside the brain and edit this movie clip
271
700360
2836
dentro del cerebro y editar esta secuencia de película
11:43
so that we can make it different from the original?
272
703220
2872
para que sea diferente del original?
11:46
Yes we can.
273
706116
2154
Sí podemos.
11:48
Turned out that all we need to do is basically
274
708294
2191
Resultó que todo lo que necesitamos hacer es básicamente
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
reactivar un recuerdo utilizando láseres como lo hicimos antes,
11:54
but at the same time, if we present new information
276
714699
3415
pero al mismo tiempo, si presentamos información nueva
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
y permitimos que esta nueva información se incorpore en esta memoria antigua,
12:02
this will change the memory.
278
722112
2414
esto va a cambiar la memoria.
12:04
It's sort of like making a remix tape.
279
724550
3639
Es como hacer un video remix.
12:08
SR: So how do we do this?
280
728213
2834
SR: ¿Cómo lo hacemos?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
En lugar de encontrar un recuerdo de miedo en el cerebro,
12:13
we can start by taking our animals,
282
733028
1692
podemos empezar por tomar nuestros animales,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
y digamos ponerlos en una caja azul como esta caja azul
12:17
and we find the brain cells that represent that blue box
284
737721
2623
y encontramos las neuronas que representan esa caja azul
12:20
and we trick them to respond to pulses of light
285
740368
2239
y las alteramos para responder a pulsos de luz
12:22
exactly like we had said before.
286
742631
1710
exactamente como dijimos antes.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Ya al día siguiente, podemos tomar nuestros animales y colocarlos
12:26
in a red box that they've never experienced before.
288
746489
2675
en una caja roja que nunca han experimentado antes.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Podemos disparar luz en el cerebro para reactivar
12:31
the memory of the blue box.
290
751451
1848
la memoria de la caja azul.
12:33
So what would happen here if, while the animal
291
753323
1720
¿Qué pasaría aquí si, mientras el animal
12:35
is recalling the memory of the blue box,
292
755067
1905
está recordando la memoria de la caja azul,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
le damos un par de choques eléctricos suaves en el pie?
12:39
So here we're trying to artificially make an association
294
759604
2669
Así que aquí estamos tratando de hacer artificialmente una asociación
12:42
between the memory of the blue box
295
762297
1891
entre la memoria de la caja azul
12:44
and the foot shocks themselves.
296
764212
1479
y los choques en el pie.
12:45
We're just trying to connect the two.
297
765715
1762
Estamos tratando de conectar los dos.
12:47
So to test if we had done so,
298
767501
1512
Así que para probar si lo hicimos
12:49
we can take our animals once again
299
769037
1304
una vez más podemos llevar nuestros animales
12:50
and place them back in the blue box.
300
770365
1922
y colocarlos en la caja azul.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Una vez más, solo habíamos reactivado la memoria de la caja azul
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
mientras que el animal tiene un par de choques suaves en el pie,
12:57
and now the animal suddenly freezes.
303
777455
2107
y ahora de repente el animal se congela.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Es como si estuviera recordando haber sido ligeramente sorprendido en este entorno
13:02
even though that never actually happened.
305
782944
2822
aunque en realidad nunca pasó.
13:05
So it formed a false memory,
306
785790
1838
Así formó un falso recuerdo,
13:07
because it's falsely fearing an environment
307
787652
2048
porque está falsamente atemorizado al entorno
13:09
where, technically speaking,
308
789724
1334
donde, técnicamente hablando,
en realidad no le pasó nada malo.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL: Así que, hasta ahora solo hablamos de
13:15
this light-controlled "on" switch.
311
795719
2342
este interruptor de luz "encendido".
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
De hecho, tenemos también un controlador de luz para "apagado",
13:21
and it's very easy to imagine that
313
801373
2056
y es muy fácil imaginar que
13:23
by installing this light-controlled "off" switch,
314
803453
2454
mediante la instalación de ese controlador de luz "apagado",
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
también podemos apagar un recuerdo, en cualquier momento y lugar.
13:31
So everything we've been talking about today
316
811519
2190
Así que de todo lo que hemos estado hablando hoy
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
se basa en este principio de la neurociencia cargado filosóficamente
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
de que la mente, con sus propiedades aparentemente misteriosas,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
en realidad está hecha de cosas físicas con las que nosotros podemos jugar.
13:46
SR: And for me personally,
320
826173
1451
SR: Y yo personalmente,
13:47
I see a world where we can reactivate
321
827648
1762
veo un mundo donde nos podemos reactivar
13:49
any kind of memory that we'd like.
322
829434
1887
cualquier tipo de memoria que deseemos.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
También veo un mundo donde podemos borrar recuerdos no deseados.
13:54
Now, I even see a world where editing memories
324
834643
2143
Ahora, veo un mundo en que editar recuerdos
13:56
is something of a reality,
325
836810
1284
es una realidad,
13:58
because we're living in a time where it's possible
326
838118
1681
porque vivimos en una época donde es posible
13:59
to pluck questions from the tree of science fiction
327
839823
2429
arrancar preguntas del árbol de la ciencia ficción
14:02
and to ground them in experimental reality.
328
842276
2168
y sembrarlas en el suelo de la realidad experimental.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL: Hoy en día, la gente en el laboratorio
14:06
and people in other groups all over the world
330
846351
2362
y personas de otros grupos de todo el mundo
14:08
are using similar methods to activate or edit memories,
331
848737
3793
utilizan métodos similares para activar o editar recuerdos,
14:12
whether that's old or new, positive or negative,
332
852554
3817
sean viejos o nuevos, positivos o negativos,
14:16
all sorts of memories so that we can understand
333
856395
2648
todo tipo de recuerdos para que podamos entender
14:19
how memory works.
334
859067
1840
cómo funciona la memoria.
14:20
SR: For example, one group in our lab
335
860931
1760
SR: Por ejemplo, un grupo en nuestro laboratorio
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
fue capaz de encontrar las neuronas que conforman un recuerdo de miedo
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
y convertirlo en un recuerdo agradable, así de simple.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
Eso es exactamente lo que quiero decir sobre este tipo de procesos de edición.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Un amigo en el laboratorio fue incluso capaz de reactivar
14:33
memories of female mice in male mice,
340
873558
1921
recuerdos de ratones femeninos en ratones machos,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
que se rumora que es una experiencia placentera.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
XL: En efecto, estamos viviendo un momento muy emocionante
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
donde la ciencia no tiene límites de velocidad arbitrarios
14:46
but is only bound by our own imagination.
344
886420
3163
sino que solo está limitada por nuestra propia imaginación.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR: Y finalmente, ¿qué hacemos con todo esto?
14:51
How do we push this technology forward?
346
891774
1927
¿Cómo podemos impulsar esta tecnología?
14:53
These are the questions that should not remain
347
893725
2191
Estas son las preguntas que no deben permanecer
14:55
just inside the lab,
348
895940
1273
solo dentro del laboratorio,
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
y así un objetivo de la charla de hoy era exponer a todo el mundo
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
al tipo de cosas que es posible
15:02
in modern neuroscience,
351
902238
1250
en la moderna neurociencia,
15:03
but now, just as importantly,
352
903512
1486
pero ahora, igualmente importante,
15:05
to actively engage everybody in this conversation.
353
905022
3308
involucrar a todo el mundo activamente en esta conversación.
15:08
So let's think together as a team about what this all means
354
908354
2762
Así que vamos a pensar juntos como un equipo en lo que esto significa
y donde puede y debe ir desde aquí,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
porque Xu y yo creemos que todos tenemos
15:15
some really big decisions ahead of us.
357
915255
2512
algunas decisiones muy grandes delante de nosotros.
15:17
Thank you. XL: Thank you.
358
917791
1101
Gracias. XL: Gracias.
15:18
(Applause)
359
918916
1634
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7