Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez e Xu Liu: Um rato. Um raio laser. Uma memória manipulada.

137,324 views

2013-08-15 ・ TED


New videos

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez e Xu Liu: Um rato. Um raio laser. Uma memória manipulada.

137,324 views ・ 2013-08-15

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Gustavo Rocha Revisor: Leonardo Silva
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez: No meu primeiro ano de faculdade,
eu estava no meu quarto,
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
comendo sorvete no pote,
00:18
watching some trashy TV
3
18231
1660
assistindo alguns programas de TV ruins
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
e talvez, talvez ouvindo Taylor Swift.
00:23
I had just gone through a breakup.
5
23142
1717
Eu tinha acabado de terminar um namoro.
00:24
(Laughter)
6
24883
1423
(Risos)
00:26
So for the longest time, all I would do
7
26330
2172
Assim, por muito tempo, tudo o que eu fazia
00:28
is recall the memory of this person over and over again,
8
28526
3792
era reviver a memória dessa pessoa toda hora,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
desejando que eu pudesse me livrar desse sentimento,
00:34
visceral "blah" feeling.
10
34835
2509
angustiante e visceral de melancolia.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Agora, como se vê, eu sou um neurocientista,
00:39
so I knew that the memory of that person
12
39651
2378
então eu sabia que a memória dessa pessoa
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
e as terríveis conotações emocionais que coloriam aquela memória,
00:45
are largely mediated by separate brain systems.
14
45193
2610
são em grande parte mediadas por sistemas cerebrais separados.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
E então eu pensei: "E se pudéssemos entrar no cérebro
00:50
and edit out that nauseating feeling
16
50328
1930
e editar esse sentimento nauseante
00:52
but while keeping the memory of that person intact?
17
52282
2946
e ao mesmo tempo manter a memória dessa pessoa intacta?"
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Então percebi: "Talvez isso seja um pouco demais, por enquanto."
00:57
So what if we could start off by going into the brain
19
57943
2489
E se pudéssemos começar entrando no cérebro
01:00
and just finding a single memory to begin with?
20
60456
2609
e simplesmente encontrar uma única memória, a princípio?
01:03
Could we jump-start that memory back to life,
21
63089
2490
Será que poderíamos trazer essa memória de volta à vida,
01:05
maybe even play with the contents of that memory?
22
65603
3844
talvez até mesmo brincar com o conteúdo dela?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Com isso dito, há uma pessoa em todo o mundo agora
01:11
that I really hope is not watching this talk.
24
71700
2143
que realmente espero que não esteja assistindo a esta palestra.
01:13
(Laughter)
25
73867
3805
(Risos)
01:17
So there is a catch. There is a catch.
26
77696
3265
E há um porém. Há um porém,
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Essas ideias provavelmente lembram "O Vingador do Futuro",
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"Brilho Eterno de uma Mente sem Lembranças",
01:25
or of "Inception."
29
85747
1279
ou "A Origem",
01:27
But the movie stars that we work with
30
87050
1762
mas as estrelas de cinema com quem trabalhamos
01:28
are the celebrities of the lab.
31
88836
1709
são as celebridades do laboratório.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu: Ratinhos de laboratório.
01:32
(Laughter)
33
92469
1104
(Risos)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Como neurocientistas, trabalhamos no laboratório com ratos
01:36
trying to understand how memory works.
35
96751
3386
tentando entender como funciona a memória.
01:40
And today, we hope to convince you that now
36
100161
2545
E hoje, esperamos convencê-lo de que, agora,
01:42
we are actually able to activate a memory in the brain
37
102730
3192
nós conseguimos ativar uma memória no cérebro
01:45
at the speed of light.
38
105946
2146
na velocidade da luz.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
Para isso, há apenas dois passos simples a seguir.
01:51
First, you find and label a memory in the brain,
40
111222
3486
Primeiro, encontramos e rotulamos uma memória no cérebro,
01:54
and then you activate it with a switch.
41
114732
3606
e depois a ativamos com uma chave.
01:58
As simple as that.
42
118362
1421
Simples assim.
01:59
(Laughter)
43
119807
1798
(Risos)
02:01
SR: Are you convinced?
44
121629
1821
SR: Estão convencidos?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Acontece que encontrar uma memória no cérebro não é tão fácil.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL: De fato. É muito mais difícil do que, digamos,
02:09
finding a needle in a haystack,
47
129998
2380
encontrar uma agulha num palheiro,
02:12
because at least, you know, the needle is still something
48
132402
2715
porque, pelo menos, sabemos que a agulha ainda é algo
que você pode fisicamente tocar.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Mas a memória não.
02:19
And also, there's way more cells in your brain
51
139468
3014
E, também, há muito mais células no cérebro
02:22
than the number of straws in a typical haystack.
52
142506
5042
do que fios de palha num palheiro típico.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Então, sim, essa tarefa parece ser difícil.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Mas, felizmente, temos a ajuda do próprio cérebro.
02:34
It turned out that all we need to do is basically
55
154130
2431
Acontece que tudo o que precisamos fazer é, basicamente,
02:36
to let the brain form a memory,
56
156585
1969
permitir que o cérebro forme uma memória,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
e o cérebro nos diz quais células estão envolvidas
02:42
in that particular memory.
58
162408
1742
nessa memória em particular.
02:44
SR: So what was going on in my brain
59
164174
2333
SR: Então, o que estava acontecendo no meu cérebro
02:46
while I was recalling the memory of an ex?
60
166531
2070
enquanto eu recordava a memória de uma ex?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Se fôssemos ignorar completamente a ética humana por um segundo
02:51
and slice up my brain right now,
62
171027
1644
e fatiar meu cérebro agora,
02:52
you would see that there was an amazing number
63
172695
2191
vocês veriam que há um número surpreendente
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
de regiões do cérebro que estavam ativas ao recordar aquela memória.
02:57
Now one brain region that would be robustly active
65
177891
2888
Agora, uma região do cérebro que estaria vigorosamente ativa
03:00
in particular is called the hippocampus,
66
180803
1983
em particular é chamada de hipocampo,
03:02
which for decades has been implicated in processing
67
182810
2431
que, há décadas, é associada ao processamento
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
dos tipos de memórias que nos são próximas e queridas,
03:07
which also makes it an ideal target to go into
69
187681
2550
o que também o torna um alvo ideal para entrarmos
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
e tentarmos encontrar e talvez reativar uma memória.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL: Quando aumentamos o zoom no hipocampo,
03:15
of course you will see lots of cells,
72
195434
2324
claro que veremos um monte de células,
03:17
but we are able to find which cells are involved
73
197782
3007
mas somos capazes de encontrar as células que estão envolvidas
03:20
in a particular memory,
74
200813
1452
em uma memória específica,
03:22
because whenever a cell is active,
75
202289
2594
porque, sempre que uma célula está ativa,
03:24
like when it's forming a memory,
76
204907
1524
como quando ao formar uma memória,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
ela também vai deixar uma marca que, mais tarde, nos permite saber
03:30
these cells are recently active.
78
210128
2678
que essas células estiveram recentemente ativas.
03:32
SR: So the same way that building lights at night
79
212830
2334
SR: Então, da mesma forma que, à noite, as luzes dos prédios
nos indicam que alguém está trabalhando, em um determinado momento,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
em um sentido muito real, existem sensores biológicos
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
dentro de uma célula que ficam "acesos"
03:43
only when that cell was just working.
83
223180
2111
somente quando essa célula esteve ativa recentemente.
03:45
They're sort of biological windows that light up
84
225315
2286
São meio que janelas biológicas que se acendem,
03:47
to let us know that that cell was just active.
85
227625
2191
indicando que essa célula esteve recentemente ativa.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL: Então, cortamos uma parte desse sensor,
03:51
and attached that to a switch to control the cells,
87
231998
3123
e a conectamos a uma chave para controlar as células,
03:55
and we packed this switch into an engineered virus
88
235145
3876
e colocamos essa chave em um vírus sintético
03:59
and injected that into the brain of the mice.
89
239045
2564
e o injetamos no cérebro dos ratos.
04:01
So whenever a memory is being formed,
90
241633
2610
Assim, sempre que uma memória estiver sendo formada,
04:04
any active cells for that memory
91
244267
2324
qualquer célula ativada por essa memória
04:06
will also have this switch installed.
92
246615
2718
também terá essa chave instalada.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR: Então, é assim que fica o hipocampo,
depois da formação de uma memória de medo, por exemplo.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
O mar azul que vocês veem aqui
04:15
are densely packed brain cells,
96
255962
1928
são células cerebrais densamente concentradas,
04:17
but the green brain cells,
97
257914
1521
mas as células cerebrais verdes,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
as células cerebrais verdes são as que estão se atendo
a uma memória de medo específica.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Então, vocês estão olhando para a cristalização
04:25
of the fleeting formation of fear.
101
265377
2363
da formação fugaz do medo.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Na verdade, agora vocês estão vendo o corte transversal de uma memória.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL: Bom, a chave sobre a qual estamos falamos,
04:33
ideally, the switch has to act really fast.
104
273714
2901
idealmente, a chave tem que agir muito rápido.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
Não deve demorar minutos ou horas para funcionar.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Deve agir na velocidade do cérebro, em milissegundos.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR: O que você acha, Xu ?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Será que poderíamos usar, digamos, drogas farmacológicas
04:47
to activate or inactivate brain cells?
109
287514
1814
para ativar ou desativar células cerebrais?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL: Não, drogas são uma bagunça. Elas se espalham pelo organismo.
04:53
And also it takes them forever to act on cells.
111
293415
2984
E também demoram muito para entrar em ação nas células.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Portanto, isso não nos permitirá controlar uma memória em tempo real.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Então, Steve, que tal darmos uma descarga elétrica no cérebro?
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR: Bem, a eletricidade é bem rápida,
05:06
but we probably wouldn't be able to target it
115
306671
1715
mas provavelmente não conseguiríamos mirar
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
somente nas células específicas que guardam uma memória,
05:10
and we'd probably fry the brain.
117
310863
1755
e provavelmente fritaríamos o cérebro.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL: Ah, é verdade. Então, parece que, hum..
05:15
indeed we need to find a better way
119
315837
2587
De fato, precisamos encontrar um jeito melhor
05:18
to impact the brain at the speed of light.
120
318448
3271
de impactar o cérebro, na velocidade da luz.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR: Bem, acontece que a luz viaja na velocidade da luz.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Então, talvez pudéssemos ativar ou desativar memórias,
05:30
by just using light --
123
330312
1473
usando apenas luz.
05:31
XL: That's pretty fast.
124
331809
1331
XL: A luz é bem rápida
05:33
SR: -- and because normally brain cells
125
333164
1861
SR: E porque as células cerebrais normalmente
05:35
don't respond to pulses of light,
126
335049
1572
não respondem a pulsos de luz,
05:36
so those that would respond to pulses of light
127
336645
1934
as que respondem a pulsos de luz
05:38
are those that contain a light-sensitive switch.
128
338603
2432
são aquelas que contêm uma chave sensível à luz.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
Para isso, primeiro precisamos enganar as células cerebrais
05:43
to respond to laser beams.
130
343005
1438
para que respondam a feixes de laser.
05:44
XL: Yep. You heard it right.
131
344467
1046
XL: Sim, é isso mesmo.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
Estamos tentando disparar lasers no cérebro.
05:47
(Laughter)
133
347704
1686
(Risos)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR: E a técnica que nos permite fazer isso é a optogenética.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
A optogenética nos deu essa chave de luz que podemos usar
05:56
to turn brain cells on or off,
136
356020
1484
para ligar ou desligar as células cerebrais,
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
e o nome dessa chave é canal-rodopsina,
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
vista aqui como pontos verdes, grudados à célula cerebral.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Podemos pensar na canal-rodopsina como um tipo de chave sensível à luz,
06:05
that can be artificially installed in brain cells
140
365892
2592
que pode ser instalada artificialmente em células cerebrais,
06:08
so that now we can use that switch
141
368508
1890
de modo que, agora, podemos usar essa chave
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
para ativar ou desativar a célula cerebral, simplesmente alternando a chave,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
e, neste caso, nós a ligamos com pulsos de luz.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL: Prendemos essa chave de canal-rodopsina sensível à luz
06:19
to the sensor we've been talking about
145
379689
2184
ao sensor de que falamos
06:21
and inject this into the brain.
146
381897
2431
e o injetamos no cérebro.
06:24
So whenever a memory is being formed,
147
384352
3187
Assim, sempre que uma memória estiver sendo formada,
06:27
any active cell for that particular memory
148
387563
2203
qualquer célula ativa para essa memória em especial
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
também terá essa chave sensível à luz instalada nela,
06:33
so that we can control these cells
150
393274
2377
o que nos permite controlá-las
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
ao alternarmos um laser como este que vocês estão vendo.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR: Então, vamos testar tudo isso agora.
06:42
What we can do is we can take our mice
153
402803
2111
O que podemos fazer é pegar nossos ratos
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
e, então, colocá-los em uma caixa, exatamente como essa aqui,
06:47
and then we can give them a very mild foot shock
155
407866
2316
e lhes damos um choque de leve nas patas,
06:50
so that they form a fear memory of this box.
156
410206
2048
para que formem uma memória de medo da caixa.
06:52
They learn that something bad happened here.
157
412278
2059
Eles aprendem que algo ruim aconteceu ali.
06:54
Now with our system, the cells that are active
158
414361
2318
Agora, com o nosso sistema, as células que estão ativas
06:56
in the hippocampus in the making of this memory,
159
416703
2766
no hipocampo durante a formação dessa memória,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
agora só essas células contêm canal-rodopsina.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL: Quando se é tão pequeno quanto um rato,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
parece que o mundo inteiro está tentando pegá-lo.
07:08
So your best response of defense
163
428988
1724
Por isso, a melhor resposta de defesa
07:10
is trying to be undetected.
164
430736
2458
é tentar passar despercebido.
07:13
Whenever a mouse is in fear,
165
433218
2009
Sempre que um rato está com medo,
07:15
it will show this very typical behavior
166
435251
1858
ele mostra um comportamento muito típico,
ficando em um canto da caixa,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
tentando não mover parte alguma de seu corpo,
07:21
and this posture is called freezing.
169
441664
3271
e esta postura é chamada de congelamento.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Então, se um rato lembra que algo ruim aconteceu nessa caixa,
07:29
and when we put them back into the same box,
171
449253
2599
e quando o colocarmos de volta na mesma caixa,
07:31
it will basically show freezing
172
451876
1780
basicamente ele vai mostrar o congelamento,
07:33
because it doesn't want to be detected
173
453680
2261
pois quer passar despercebido
07:35
by any potential threats in this box.
174
455965
2671
a qualquer ameaça em potencial nessa caixa.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR: Então, podemos imaginar o congelamento
07:40
you're walking down the street minding your own business,
176
460015
2191
como se você estivesse na rua, cuidando da sua vida,
07:42
and then out of nowhere you almost run into
177
462230
2048
e aí, do nada, você quase dá de cara
com uma ex-namorada ou ex-namorado,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
e aqueles terríveis dois segundos
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
em que você começa a pensar: "O que eu faço? Será que cumprimento?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Aperto a mão? Dou meia volta e corro?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Sento aqui e finjo que não existo?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Esses tipos de pensamentos fugazes que o incapacitam fisicamente,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
que o deixam temporariamente com aquele olhar atordoado.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL: No entanto, se colocarmos o rato em uma caixa
08:02
new box, like the next one,
186
482775
3137
completamente nova e diferente, como a próxima,
08:05
it will not be afraid of this box
187
485936
2123
ele não vai ter medo dessa caixa,
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
porque não há razão para ter medo desse ambiente novo.
08:12
But what if we put the mouse in this new box
189
492812
3156
Mas e se colocarmos o rato nessa nova caixa
08:15
but at the same time, we activate the fear memory
190
495992
3587
e, ao mesmo tempo, ativarmos a memória do medo,
08:19
using lasers just like we did before?
191
499603
2655
usando lasers, como fizemos antes?
08:22
Are we going to bring back the fear memory
192
502282
2830
Será que vamos trazer de volta a memória do medo
08:25
for the first box into this completely new environment?
193
505136
3973
da primeira caixa para esse ambiente completamente novo?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
SR: Certo, e aqui está a experiência de um milhão de dólares.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Bom, revivendo a memória daquele dia,
08:34
I remember that the Red Sox had just won,
196
514781
2159
lembro que o Red Sox tinha acabado de ganhar,
08:36
it was a green spring day,
197
516964
1885
era um dia verde de primavera,
08:38
perfect for going up and down the river
198
518873
1858
perfeito para subir e descer o rio
08:40
and then maybe going to the North End
199
520755
2245
e, depois, talvez ir para o North End
08:43
to get some cannolis, #justsaying.
200
523024
2135
e beliscar uns petiscos, quem sabe.
08:45
Now Xu and I, on the other hand,
201
525183
3078
Agora Xu e eu, por outro lado,
08:48
were in a completely windowless black room
202
528285
2806
estávamos em uma sala escura, completamente sem janelas,
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
sem fazer qualquer movimento ocular que se assemelhasse a um piscar de olhos,
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
porque nossos olhos estavam fixos na tela do computador.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Estávamos olhando este rato aqui, tentando ativar uma memória
pela primeira vez, utilizando a nossa técnica.
09:00
for the first time using our technique.
206
540219
1859
XL: E foi isto que vimos.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Quando colocamos o rato dentro desta caixa pela primeira vez,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
ele a explorou, farejou, andou dentro dela,
09:09
minding its own business,
210
549684
1665
cuidando de sua própria vida,
09:11
because actually by nature,
211
551373
1677
porque, na verdade, por natureza,
09:13
mice are pretty curious animals.
212
553074
1955
ratos são animais muito curiosos.
09:15
They want to know, what's going on in this new box?
213
555053
2598
Eles querem saber: "O que está acontecendo nesta nova caixa?
09:17
It's interesting.
214
557675
1507
Ela é interessante".
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Mas no momento em que ligamos o laser, como vemos agora,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
de repente, o rato entrou em congelamento.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Ele ficou aqui e tentou não mover parte alguma de seu corpo.
09:30
Clearly it's freezing.
218
570120
1604
Claramente, é o congelamento.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Então, de fato, parece que conseguimos trazer de volta
09:34
the fear memory for the first box
220
574331
2040
a memória do medo da primeira caixa
09:36
in this completely new environment.
221
576395
3343
para este ambiente completamente novo.
09:39
While watching this, Steve and I
222
579762
2088
Enquanto observávamos, Steve e eu
09:41
are as shocked as the mouse itself.
223
581874
2109
estávamos tão chocados quanto o próprio rato.
09:44
(Laughter)
224
584007
1238
(Risos)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Assim, após o experimento, nós dois apenas saímos da sala,
09:48
without saying anything.
226
588576
1729
sem dizer nada.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Depois de um período de tempo longo e desconfortável,
09:53
Steve broke the silence.
228
593725
2188
Steve quebrou o silêncio.
09:55
SR: "Did that just work?"
229
595937
2317
SR: "Será que funcionou?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL: "Sim!", eu disse. "De fato, funcionou!"
10:01
We're really excited about this.
231
601252
2093
Estamos muito animados com isso.
10:03
And then we published our findings
232
603369
2600
Então, publicamos nossas descobertas
10:05
in the journal Nature.
233
605993
1672
na revista Nature.
10:07
Ever since the publication of our work,
234
607689
2447
Desde a publicação do nosso trabalho,
10:10
we've been receiving numerous comments
235
610160
2391
temos recebido inúmeros comentários
10:12
from all over the Internet.
236
612575
2101
de toda parte da Internet.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Talvez possamos dar uma olhada em alguns deles.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
["MEU DEUS, FINALMENTE... há muito mais por vir, realidade virtual, manipulação neural, emulação visual de sonhos... codificação neural, 'escrever e reescrever memórias', doenças mentais. Ahhh, o futuro é incrível"]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
SR: Então, a primeira coisa que notamos é que as pessoas
10:22
have really strong opinions about this kind of work.
240
622907
2879
têm opiniões muito fortes sobre esse tipo de trabalho.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Bem, eu concordo completamente com o otimismo
10:28
of this first quote,
242
628364
792
desta primeira citação,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
porque, numa escala de zero à voz de Morgan Freeman,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
por acaso é um dos elogios mais evocativos
10:34
that I've heard come our way.
245
634489
1526
que eu ouvi surgindo sobre nós.
(Risos)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Mas, como vocês vão ver, essa não é a única opinião.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["Isso me assusta muito... E se eles puderem fazer isso facilmente em humanos em alguns anos?! OH MEU DEUS, ESTAMOS CONDENADOS"]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL: De fato, se dermos uma olhada no segundo,
10:43
I think we can all agree that it's, meh,
250
643682
2083
acho que todos podemos concordar que não é,
10:45
probably not as positive.
251
645789
1959
assim, tão positivo.
10:47
But this also reminds us that,
252
647772
2161
Mas isso também nos lembra de que,
10:49
although we are still working with mice,
253
649957
2162
embora ainda estejamos trabalhando com ratos,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
é provavelmente uma boa ideia começar a pensar e discutir
10:55
about the possible ethical ramifications
255
655660
2967
sobre as possíveis implicações éticas
10:58
of memory control.
256
658651
1924
do controle de memória.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR: Agora, no espírito da terceira citação,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
queremos falar sobre um projeto recente em que temos
11:04
working on in lab that we've called Project Inception.
259
664773
2572
trabalhado no laboratório, e que chamamos de projeto "A Origem".
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["Eles deveriam fazer um filme sobre isso. Onde eles implantam ideias nas mentes das pessoas, para que possam controlá-las para seu ganho pessoal. Vamos chamá-lo: "A Origem"]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Então, concluímos que, agora que podemos reativar uma memória,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
e se fizermos isso, mas depois começarmos a mexer com essa memória?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Será que conseguiríamos transformá-la em uma falsa memória?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
XL: Então, toda memória é sofisticada e dinâmica,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
mas, apenas para simplificar, vamos imaginar a memória
11:27
as a movie clip.
266
687241
1378
como um clipe de filme.
11:28
So far what we've told you is basically we can control
267
688643
2646
Até agora, o que dissemos é basicamente que podemos controlar
11:31
this "play" button of the clip
268
691313
1907
o botão de "tocar" do clipe,
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
o que nos permite rodar este clipe a qualquer hora, em qualquer lugar.
11:37
But is there a possibility that we can actually get
270
697829
2507
Mas será que há realmente alguma possibilidade de entrarmos
11:40
inside the brain and edit this movie clip
271
700360
2836
no cérebro e editarmos esse clipe,
11:43
so that we can make it different from the original?
272
703220
2872
tornando-o diferente do original?
11:46
Yes we can.
273
706116
2154
Sim, podemos.
11:48
Turned out that all we need to do is basically
274
708294
2191
Aparentemente, tudo o que precisamos fazer é, basicamente,
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
reativar a memória, usando lasers, assim como fizemos antes.
11:54
but at the same time, if we present new information
276
714699
3415
Mas, ao mesmo tempo, se apresentarmos informação nova
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
e permitirmos que esta informação nova se incorpore nessa memória antiga,
12:02
this will change the memory.
278
722112
2414
isto irá alterar a memória.
12:04
It's sort of like making a remix tape.
279
724550
3639
É mais ou menos como fazer uma fita de remix.
12:08
SR: So how do we do this?
280
728213
2834
SR: Então, como fazemos isso?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
Em vez de procurar uma memória de medo no cérebro,
12:13
we can start by taking our animals,
282
733028
1692
podemos começar pegando nossos animais,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
e, digamos que os coloquemos em uma caixa azul, como esta aqui,
12:17
and we find the brain cells that represent that blue box
284
737721
2623
e encontremos as células cerebrais que representam essa caixa azul
12:20
and we trick them to respond to pulses of light
285
740368
2239
e as induzamos a responder a impulsos de luz,
12:22
exactly like we had said before.
286
742631
1710
exatamente como havíamos dito antes.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Bom, no dia seguinte, nós pegamos nossos animais e os colocamos
12:26
in a red box that they've never experienced before.
288
746489
2675
em uma caixa vermelha, na qual jamais estiveram.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Podemos disparar luz no cérebro para reativar
12:31
the memory of the blue box.
290
751451
1848
a memória da caixa azul.
12:33
So what would happen here if, while the animal
291
753323
1720
Então, o que aconteceria se, enquanto o animal
12:35
is recalling the memory of the blue box,
292
755067
1905
estivesse recordando a memória da caixa azul,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
déssemos leves choques em suas patas?
12:39
So here we're trying to artificially make an association
294
759604
2669
Aqui estamos tentando criar artificialmente uma associação
12:42
between the memory of the blue box
295
762297
1891
entre a memória da caixa azul
12:44
and the foot shocks themselves.
296
764212
1479
e os choques na pata.
12:45
We're just trying to connect the two.
297
765715
1762
Só estamos tentando conectar os dois.
12:47
So to test if we had done so,
298
767501
1512
Assim, para sabermos se funcionou,
12:49
we can take our animals once again
299
769037
1304
podemos pegar nossos animais mais uma vez
12:50
and place them back in the blue box.
300
770365
1922
e colocá-los de volta na caixa azul.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
De novo, nós só reativamos a memória da caixa azul,
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
enquanto o animal levou alguns choques leves nas patas,
12:57
and now the animal suddenly freezes.
303
777455
2107
e agora o animal de repente congela.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
É como se estivesse se lembrando de ter levado choques neste ambiente,
13:02
even though that never actually happened.
305
782944
2822
embora isso nunca tenha acontecido.
13:05
So it formed a false memory,
306
785790
1838
Portanto, ele criou uma falsa memória,
13:07
because it's falsely fearing an environment
307
787652
2048
pois está enganado por sentir medo de um ambiente
13:09
where, technically speaking,
308
789724
1334
onde, tecnicamente falando,
nada de ruim realmente aconteceu com ele.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL: Então, até agora estamos falando apenas
13:15
this light-controlled "on" switch.
311
795719
2342
dessa chave de luz de "ligar".
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
Na verdade, nós também temos uma chave de luz de "desligar",
13:21
and it's very easy to imagine that
313
801373
2056
e é muito fácil imaginar que,
13:23
by installing this light-controlled "off" switch,
314
803453
2454
ao instalar essa chave de luz de "desligar",
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
também podemos desligar uma memória, a qualquer hora, em qualquer lugar.
13:31
So everything we've been talking about today
316
811519
2190
Então, tudo o que falamos hoje
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
está baseado nesse princípio neurocientífico filosoficamente carregado,
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
de que a mente, com as suas propriedades aparentemente misteriosas,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
é mesmo feita de material físico, com o qual podemos mexer.
13:46
SR: And for me personally,
320
826173
1451
SR: E para mim, pessoalmente,
13:47
I see a world where we can reactivate
321
827648
1762
vejo um mundo onde podemos reativar
13:49
any kind of memory that we'd like.
322
829434
1887
qualquer tipo de memória que quisermos.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Também vejo um mundo onde podemos apagar memórias indesejadas.
13:54
Now, I even see a world where editing memories
324
834643
2143
Agora, ainda vejo um mundo onde editar memórias
13:56
is something of a reality,
325
836810
1284
faz parte da realidade,
13:58
because we're living in a time where it's possible
326
838118
1681
porque vivemos em uma época onde é possível
13:59
to pluck questions from the tree of science fiction
327
839823
2429
arrancar perguntas da árvore da ficção científica
14:02
and to ground them in experimental reality.
328
842276
2168
e cultivá-las na realidade experimental.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL: Hoje em dia, as pessoas no laboratório
14:06
and people in other groups all over the world
330
846351
2362
e pessoas de outros grupos em todo o mundo
14:08
are using similar methods to activate or edit memories,
331
848737
3793
estão usando métodos semelhantes para ativar ou editar memórias,
14:12
whether that's old or new, positive or negative,
332
852554
3817
sejam elas velhas ou novas, positivas ou negativas,
14:16
all sorts of memories so that we can understand
333
856395
2648
todos os tipos de memórias, para que possamos entender
14:19
how memory works.
334
859067
1840
como funciona a memória.
14:20
SR: For example, one group in our lab
335
860931
1760
SR: Por exemplo, um grupo no nosso laboratório
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
conseguiu encontrar as células cerebrais que compõem a memória do medo
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
e converteu-as em uma memória agradável, simples assim.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
É exatamente isso que quero dizer sobre editar esse tipo de processo.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Agora, um cara no laboratório foi capaz até de reativar
14:33
memories of female mice in male mice,
340
873558
1921
memórias de ratinhas em ratinhos,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
o que, segundo boatos, é uma experiência agradável.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
XL: De fato, estamos vivendo um momento muito emocionante,
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
onde a ciência não possui limites de velocidade arbitrários,
14:46
but is only bound by our own imagination.
344
886420
3163
mas é limitada apenas por nossa própria imaginação.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR: E, finalmente, o que vamos fazer com tudo isso?
14:51
How do we push this technology forward?
346
891774
1927
Como podemos levar essa tecnologia para a frente?
14:53
These are the questions that should not remain
347
893725
2191
Essas são questões que não devem ficar
14:55
just inside the lab,
348
895940
1273
apenas dentro do laboratório.
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
E um dos objetivos da palestra de hoje foi atualizar todos
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
com o tipo de coisa que é possível
15:02
in modern neuroscience,
351
902238
1250
na neurociência moderna.
15:03
but now, just as importantly,
352
903512
1486
Porém, tão importante quanto isso,
15:05
to actively engage everybody in this conversation.
353
905022
3308
é envolver ativamente todos nessa troca de ideias.
15:08
So let's think together as a team about what this all means
354
908354
2762
E vamos pensar juntos, como uma equipe, sobre o que tudo isso significa
e onde podemos e devemos ir a partir daqui,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
porque Xu e eu achamos que todos nós temos
15:15
some really big decisions ahead of us.
357
915255
2512
algumas decisões realmente grandes pela frente.
15:17
Thank you. XL: Thank you.
358
917791
1101
Obrigado. XL: Obrigado.
15:18
(Applause)
359
918916
1634
(Aplausos )
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7