Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

134,222 views ・ 2013-08-15

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Björn Fredberg Granskare: Stephanie Green
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez: Under mitt första år som doktorand, låg jag i mitt sovrum,
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
åt massor av Ben & Jerrys,
00:18
watching some trashy TV
3
18231
1660
tittade på skräp-TV
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
och kanske, kanske lyssnade jag på Taylor Swift.
00:23
I had just gone through a breakup.
5
23142
1717
Jag hade precis blivit dumpad.
00:24
(Laughter)
6
24883
1423
(Skratt)
00:26
So for the longest time, all I would do
7
26330
2172
Under lång tid kunde jag bara
00:28
is recall the memory of this person over and over again,
8
28526
3792
tänka på denna person, om och om igen,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
och hoppas att jag skulle bli av med den hjärtslitande
00:34
visceral "blah" feeling.
10
34835
2509
känslan av likgiltighet inombords.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Nu är det också så att jag är neurolog,
00:39
so I knew that the memory of that person
12
39651
2378
så jag visste att minnet av den personen
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
och de hemska, emotionella undertoner som färgar minnet,
00:45
are largely mediated by separate brain systems.
14
45193
2610
till stor del förmedlades av separata delar av hjärnan.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Så jag tänkte: tänk om vi kunde gå in i hjärnan
00:50
and edit out that nauseating feeling
16
50328
1930
och redigera bort den kväljande känslan,
00:52
but while keeping the memory of that person intact?
17
52282
2946
men samtidigt behålla minnet av den personen intakt.
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Men jag insåg att det då kanske var lite högtflygande.
00:57
So what if we could start off by going into the brain
19
57943
2489
Så tänk om vi kunde börja med att gå in i hjärnan
01:00
and just finding a single memory to begin with?
20
60456
2609
och bara hitta ett enda minne till att börja med.
01:03
Could we jump-start that memory back to life,
21
63089
2490
Kunde vi plocka fram just det minnet,
01:05
maybe even play with the contents of that memory?
22
65603
3844
kanske även leka med innehållet i det minnet?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Med det sagt så finns det en person som jag
01:11
that I really hope is not watching this talk.
24
71700
2143
verkligen hoppas inte tittar på detta.
01:13
(Laughter)
25
73867
3805
(Skratt)
01:17
So there is a catch. There is a catch.
26
77696
3265
Men det finns en hake, det finns en hake.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Dessa idéer påminner er troligen om "Total Recall",
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"Eternal Sunshine of the Spotless Mind",
01:25
or of "Inception."
29
85747
1279
eller "Inception".
Men "filmstjärnorna" vi jobbar med
01:27
But the movie stars that we work with
30
87050
1762
01:28
are the celebrities of the lab.
31
88836
1709
är de verkliga kändisarna i labbet.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu: Försöksråttor.
01:32
(Laughter)
33
92469
1104
(Skratt)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Som neurologer arbetar vi i labbet med möss
01:36
trying to understand how memory works.
35
96751
3386
och försöker förstå hur minnet fungerar.
01:40
And today, we hope to convince you that now
36
100161
2545
Idag hoppas vi kunna övertyga er om att vi nu
01:42
we are actually able to activate a memory in the brain
37
102730
3192
faktiskt har möjlighet att aktivera ett enskilt minne i hjärnan,
01:45
at the speed of light.
38
105946
2146
med ljusets hastighet.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
För att göra detta, är det bara två enkla steg att följa:
01:51
First, you find and label a memory in the brain,
40
111222
3486
Ett, du hittar och markerar ett minne i hjärnan,
01:54
and then you activate it with a switch.
41
114732
3606
och sedan aktiverar du det med en strömbrytare.
01:58
As simple as that.
42
118362
1421
Så enkelt är det.
01:59
(Laughter)
43
119807
1798
(Skratt)
02:01
SR: Are you convinced?
44
121629
1821
SR: Är ni övertygade ännu?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Att hitta ett minne i hjärnan visar sig dock inte vara så lätt.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL: Verkligen. Detta är långt svårare än, låt oss säga,
02:09
finding a needle in a haystack,
47
129998
2380
att hitta en nål i en höstack,
(Skratt)
02:12
because at least, you know, the needle is still something
48
132402
2715
eftersom, ni vet, nålen är åtminstone något
som du fysiskt kan sätta fingrarna på.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Men minnet är inte det.
02:19
And also, there's way more cells in your brain
51
139468
3014
Dessutom finns det också mycket fler celler i hjärnan
02:22
than the number of straws in a typical haystack.
52
142506
5042
än antalet strån i en normal höstack.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Så ja, denna uppgift kan verka överväldigande.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Men lyckligtvis fick vi hjälp av hjärnan själv.
02:34
It turned out that all we need to do is basically
55
154130
2431
Det visade sig att det enda vi behövde göra
02:36
to let the brain form a memory,
56
156585
1969
var att låta hjärnan bilda ett minne,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
sedan kommer hjärnan berätta vilka celler som var involverade
02:42
in that particular memory.
58
162408
1742
i skapandet av det specifika minnet.
02:44
SR: So what was going on in my brain
59
164174
2333
SR: Så vad var det som hände i min hjärna
02:46
while I was recalling the memory of an ex?
60
166531
2070
när jag plockade fram minnet av ett ex?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Om man bara ignorerar etik för ett ögonblick
02:51
and slice up my brain right now,
62
171027
1644
och delar upp min hjärna i skivor,
02:52
you would see that there was an amazing number
63
172695
2191
skulle man se att det fanns många
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
områden i hjärnan som är aktiva när det minnet tas fram.
02:57
Now one brain region that would be robustly active
65
177891
2888
En region i hjärnan som kraftfullt skulle aktiveras
03:00
in particular is called the hippocampus,
66
180803
1983
är i synnerhet den som kallas hippocampus,
03:02
which for decades has been implicated in processing
67
182810
2431
som i årtionden har misstänkts vara inblandad i
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
de typer av minnen som vi håller kära,
03:07
which also makes it an ideal target to go into
69
187681
2550
vilket också gör den idealisk att undersöka
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
för att försöka hitta och kanske återaktivera ett minne.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL: När du zoomar in på hippocampus,
03:15
of course you will see lots of cells,
72
195434
2324
kommer du självklart att se massor av celler,
03:17
but we are able to find which cells are involved
73
197782
3007
men vi kan hitta de celler som är involverade
03:20
in a particular memory,
74
200813
1452
i ett särskilt minne,
03:22
because whenever a cell is active,
75
202289
2594
eftersom när en cell är aktiv,
03:24
like when it's forming a memory,
76
204907
1524
som när det formas ett minne,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
kommer det också att lämnas ett avtryck som sen låter oss veta
03:30
these cells are recently active.
78
210128
2678
att dessa celler nyligen varit aktiva.
03:32
SR: So the same way that building lights at night
79
212830
2334
SR: På samma sätt som lampor i husfönster om natten säger
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
att någon förmodligen arbetar i just den stunden,
på samma sätt, finns det bioloqgiska sensorer,
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
i en cell som aktiveras
03:43
only when that cell was just working.
83
223180
2111
endast när just den cellen nyss arbetat.
03:45
They're sort of biological windows that light up
84
225315
2286
De är som biologiska fönster som lyser
03:47
to let us know that that cell was just active.
85
227625
2191
och berättar att cellen nyss var aktiv.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL: Så vi beskar en del av denna sensor,
03:51
and attached that to a switch to control the cells,
87
231998
3123
och kopplade den till en strömbrytare att styra cellerna med,
03:55
and we packed this switch into an engineered virus
88
235145
3876
och vi förpackade denna strömbrytare i ett konstruerat virus
03:59
and injected that into the brain of the mice.
89
239045
2564
och injicerade det in hjärnan på mössen.
04:01
So whenever a memory is being formed,
90
241633
2610
Så när ett minne bildas,
04:04
any active cells for that memory
91
244267
2324
kommer alla aktiva celler för det minnet
04:06
will also have this switch installed.
92
246615
2718
också att ha denna strömbrytare installerad.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR: Här ser ni hippocampus
efter att ha bildat ett minne av rädsla, till exempel.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
Det blå området som ni ser här
04:15
are densely packed brain cells,
96
255962
1928
är tätt packade hjärnceller,
04:17
but the green brain cells,
97
257914
1521
men de gröna hjärncellerna,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
de gröna hjärncellerna är de som innehåller
ett specifikt minne av rädsla.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Så det ni ser är kristalliseringen
04:25
of the fleeting formation of fear.
101
265377
2363
av det flyktiga bildandet av rädsla.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Ni ser faktiskt just nu på tvärsnittet av ett minne.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL: Så, till strömbrytaren vi talat om,
04:33
ideally, the switch has to act really fast.
104
273714
2901
helst måste den agera riktigt snabbt.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
Det bör inte ta minuter eller timmar.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Det bör hända i hjärnans hastighet, på millisekunder.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR: Så vad tycker du, Xu?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Skulle vi kunna använda farmakologiska läkemedel
04:47
to activate or inactivate brain cells?
109
287514
1814
för att aktivera eller inaktivera hjärnceller?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL: Nja, läkemedel är ganska röriga, de sprider sig överallt.
04:53
And also it takes them forever to act on cells.
111
293415
2984
Och dessutom tar det dem en evighet att påverka enskilda celler.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Så de gör det inte möjligt att styra ett minne i realtid.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Men Steve, vad sägs om att ge hjärnan en elstöt istället?
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR: Elektricitet är en rätt snabb metod,
05:06
but we probably wouldn't be able to target it
115
306671
1715
men vi kan nog inte kunna rikta den
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
till enbart de celler som bär på ett minne,
05:10
and we'd probably fry the brain.
117
310863
1755
och vi skulle nog steka hjärnan.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL: Ah, det är sant, så är det nog, hmmm.
05:15
indeed we need to find a better way
119
315837
2587
Ja, vi måste hitta ett bättre sätt
05:18
to impact the brain at the speed of light.
120
318448
3271
att påverka hjärnan i ljusets hastighet.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR: Det råkar vara så att ljuset färdas i ljusets hastighet.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Så vi kunde kanske aktivera eller inaktivera minnen,
05:30
by just using light --
123
330312
1473
bara med hjälp av ljus.
05:31
XL: That's pretty fast.
124
331809
1331
XL: Det är ganska snabbt.
05:33
SR: -- and because normally brain cells
125
333164
1861
SR: Och eftersom hjärnceller vanligtvis
05:35
don't respond to pulses of light,
126
335049
1572
inte reagerar på ljuspulser,
05:36
so those that would respond to pulses of light
127
336645
1934
så är de som skulle svara på ljuspulser,
05:38
are those that contain a light-sensitive switch.
128
338603
2432
de som innehåller en ljuskänslig strömbrytare.
För att göra det, måste vi lura hjärncellerna
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
05:43
to respond to laser beams.
130
343005
1438
att reagera på laserstrålar.
05:44
XL: Yep. You heard it right.
131
344467
1046
XL: Ja, ni hörde rätt.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
Vi försöker skjuta laserstrålar in i hjärnan.
05:47
(Laughter)
133
347704
1686
(Skratt)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR: Och tekniken som låter oss göra det är optogenetik.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
Optogenetik gav oss en strömbrytare som vi kan använda
för att slå på eller slå av hjärncellerna,
05:56
to turn brain cells on or off,
136
356020
1484
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
och den kopplingen kallas kanalrodopsin,
som ni ser som gröna prickar kopplade till denna hjärncell.
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Ni kan tänka er kanalrodopsin som en ljuskänslig strömbrytare
06:05
that can be artificially installed in brain cells
140
365892
2592
som kan installeras i hjärnans celler på konstgjord väg
06:08
so that now we can use that switch
141
368508
1890
så att vi nu kan använda strömbrytaren
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
för att slå av eller på hjärncellen genom att klicka på den,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
och i detta fall klickar vi på den med ljuspulser.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL: Så vi kopplar denna ljuskänsliga kanalrodopsin-strömbrytare
06:19
to the sensor we've been talking about
145
379689
2184
till sensorn vi har pratat om
06:21
and inject this into the brain.
146
381897
2431
och injicerar det in i hjärnan.
06:24
So whenever a memory is being formed,
147
384352
3187
Så närhelst ett minne bildas,
06:27
any active cell for that particular memory
148
387563
2203
så kommer varje aktiv cell för det minnet
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
också att ha denna ljuskänsliga strömbrytare installerad,
06:33
so that we can control these cells
150
393274
2377
så att vi kan kontrollera dessa celler
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
genom att slå på eller av en laserstråle, precis som denna.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR: Så låt oss sätta allt detta på prov.
06:42
What we can do is we can take our mice
153
402803
2111
Det vi kan göra, är att vi kan ta våra möss
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
och sedan sätta dem i en låda som ser ut exakt som denna,
06:47
and then we can give them a very mild foot shock
155
407866
2316
och så kan vi ge en mycket svag elstöt i tassarna
06:50
so that they form a fear memory of this box.
156
410206
2048
så de bildar ett minne av rädsla från lådan.
06:52
They learn that something bad happened here.
157
412278
2059
De lär sig att något hemskt hände här.
06:54
Now with our system, the cells that are active
158
414361
2318
Med vårt system kommer de celler som är aktiva
06:56
in the hippocampus in the making of this memory,
159
416703
2766
i hippocampus vid skapandet av detta minne,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
och endast de cellerna, att innehålla kanalrodopsin.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL: När du är liten som en mus,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
känns det som om hela världen försöker få tag i dig.
07:08
So your best response of defense
163
428988
1724
Så ditt bästa försvar
07:10
is trying to be undetected.
164
430736
2458
är att försöka vara oupptäckt.
07:13
Whenever a mouse is in fear,
165
433218
2009
När en mus känner rädsla,
visar den ett mycket typiskt beteende
07:15
it will show this very typical behavior
166
435251
1858
genom att stanna i ett av lådans hörn
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
och den försöker att inte röra någon del av kroppen,
07:21
and this posture is called freezing.
169
441664
3271
detta beteende kallas frysrespons.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Så om en mus minns att något hemskt hänt i denna låda,
07:29
and when we put them back into the same box,
171
449253
2599
och vi sätter tillbaka den i samma låda,
07:31
it will basically show freezing
172
451876
1780
så kommer den att visa frysrespons
07:33
because it doesn't want to be detected
173
453680
2261
eftersom den inte vill bli upptäckt
07:35
by any potential threats in this box.
174
455965
2671
av de potentiella hoten i den här lådan.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR: Ni kan tänka på frysrespons som
07:40
you're walking down the street minding your own business,
176
460015
2191
att du går längs gatan i egna tankar,
07:42
and then out of nowhere you almost run into
177
462230
2048
och helt oväntat stöter du ihop med
en ex-flickvän eller ex-pojkvän,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
och de skräckfyllda två sekunderna kommer
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
då du tänker, "Vad gör jag? Hälsar jag?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Skaka hand? Springa iväg?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Sitta här och låtsas att jag inte finns?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Denna typ av flyktiga tankar som fysiskt låser dig,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
som tillfälligt ger dig "rådjur-i-strålkastar-blicken".
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL: Men om du placerar musen i en helt annan,
08:02
new box, like the next one,
186
482775
3137
ny låda, som exempelvis den här,
08:05
it will not be afraid of this box
187
485936
2123
kommer den inte att vara rädd för denna låda
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
eftersom det saknas anledning att vara rädd i denna nya miljö.
08:12
But what if we put the mouse in this new box
189
492812
3156
Men vad händer om vi lägger musen i denna nya låda
08:15
but at the same time, we activate the fear memory
190
495992
3587
och samtidigt aktiverar minnet av rädsla
08:19
using lasers just like we did before?
191
499603
2655
genom att använda laserstrålen som vi gjorde innan?
08:22
Are we going to bring back the fear memory
192
502282
2830
Kommer vi få tillbaka minnet av rädsla
08:25
for the first box into this completely new environment?
193
505136
3973
från den första lådan i denna helt nya miljö?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
SR: Okej, det här är det viktiga experimentet.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Att få tillbaka minnet av den dagen,
08:34
I remember that the Red Sox had just won,
196
514781
2159
jag minns att Red Sox precis hade vunnit,
08:36
it was a green spring day,
197
516964
1885
det var en grön vårdag,
08:38
perfect for going up and down the river
198
518873
1858
som gjord för promenera längs floden
08:40
and then maybe going to the North End
199
520755
2245
och sedan kanske gå till North End
08:43
to get some cannolis, #justsaying.
200
523024
2135
för att köpa några cannoli, #justsaying.
08:45
Now Xu and I, on the other hand,
201
525183
3078
Men Xu och jag, å andra sidan,
08:48
were in a completely windowless black room
202
528285
2806
var instängda i ett helt fönsterlöst mörkt rum
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
utan att våga göra något som ens liknade en ögonblinkning
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
eftersom våra ögon var fästa på en datorskärm.
Vi tittade på en mus som vi försökte aktivera ett minne hos
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
för första gången med vår teknik.
09:00
for the first time using our technique.
206
540219
1859
XL: Och det här är vad vi fick se.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
När vi först satte musen i lådan,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
började den att utforska, sniffa runt, gå runt,
09:09
minding its own business,
210
549684
1665
skötte sitt,
09:11
because actually by nature,
211
551373
1677
eftersom möss av naturen är
09:13
mice are pretty curious animals.
212
553074
1955
ganska nyfikna djur.
09:15
They want to know, what's going on in this new box?
213
555053
2598
De vill veta vad som händer i den här nya lådan.
09:17
It's interesting.
214
557675
1507
Det är intressant.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Men i ögonblicket som vi slog på lasern, som ni ser nu,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
gick musen in i denna frysrespons.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Den stannade och försökte att inte röra någon del av sin kropp.
09:30
Clearly it's freezing.
218
570120
1604
Uppenbart en frysrespons.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Så det ser faktiskt ut som om vi lyckats ta tillbaka
09:34
the fear memory for the first box
220
574331
2040
minnet av rädsla från den första lådan
09:36
in this completely new environment.
221
576395
3343
i denna helt nya miljö.
09:39
While watching this, Steve and I
222
579762
2088
Medan vi såg på detta, var Steve och jag
09:41
are as shocked as the mouse itself.
223
581874
2109
lika chockade som musen själv.
09:44
(Laughter)
224
584007
1238
(Skratt)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Så efter experimentet, lämnade vi båda rummet
09:48
without saying anything.
226
588576
1729
utan att säga ett ord.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Efter en lång, obekväm väntan,
09:53
Steve broke the silence.
228
593725
2188
bröt Steve tystnaden.
09:55
SR: "Did that just work?"
229
595937
2317
SR: "Fungerade det där precis?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL: "Ja", sa jag. "Det fungerade faktiskt!."
10:01
We're really excited about this.
231
601252
2093
Vi var verkligen glada över detta.
10:03
And then we published our findings
232
603369
2600
Och sedan publicerade vi vår upptäckt
10:05
in the journal Nature.
233
605993
1672
i tidskriften Nature.
10:07
Ever since the publication of our work,
234
607689
2447
Ända sedan publiceringen av vårt arbete,
10:10
we've been receiving numerous comments
235
610160
2391
har vi fått otaliga kommentarer
10:12
from all over the Internet.
236
612575
2101
från alla möjliga håll på internet.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Kanske kan vi ta en titt på några av dessa.
(Skratt)
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
SR: Det första ni kommer att märka är att människor
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
10:22
have really strong opinions about this kind of work.
240
622907
2879
har väldigt starka åsikter om denna typ av arbete.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Nu råkar jag hålla helt med om optimismen i detta första citat,
10:28
of this first quote,
242
628364
792
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
för på en skala från noll till Morgan Freemans röst,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
är det här en av de mest associationsrika utmärkelser
10:34
that I've heard come our way.
245
634489
1526
som jag hört uttryckas om oss.
10:36
(Laughter)
246
636039
1794
(Skratt)
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Men som ni kommer se: Det är inte det enda yttrande som gjorts.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL: Om vi tar en titt på det andra,
10:43
I think we can all agree that it's, meh,
250
643682
2083
tror jag att vi alla kan enas om att det är,
10:45
probably not as positive.
251
645789
1959
hmm, förmodligen inte lika positivt.
10:47
But this also reminds us that,
252
647772
2161
Men detta påminner oss också om att,
10:49
although we are still working with mice,
253
649957
2162
även om vi fortfarande arbetar med möss,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
så är det nog en god idé att börja tänka och diskutera
10:55
about the possible ethical ramifications
255
655660
2967
möjliga etiska aspekter
10:58
of memory control.
256
658651
1924
av att kontrollera minnet.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR: Så, i andan av det tredje citatet,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
vill vi berätta om vårt senaste projekt,
11:04
working on in lab that we've called Project Inception.
259
664773
2572
ett experiment vi kallat Inception (påbörjan).
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
(Skratt)
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Vi resonerade som så att nu när vi kan återaktivera ett minne,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
vad händer om vi gör det, och sedan mixtrar med det?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Kan vi möjligen även förvandla det till ett falskt minne?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
XL: Alla minnen är sofistikerade och dynamiska,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
men vi om bara för enkelhetens skull föreställer oss minnet
11:27
as a movie clip.
266
687241
1378
som ett filmklipp.
11:28
So far what we've told you is basically we can control
267
688643
2646
Det vi har sagt är alltså att vi i princip kan kontrollera
11:31
this "play" button of the clip
268
691313
1907
"uppspelningsknappen" på klippet
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
så att vi kan spela upp detta videoklipp närsomhelst och varsomhelst.
11:37
But is there a possibility that we can actually get
270
697829
2507
Men finns det en möjlighet att vi faktiskt kan gå
11:40
inside the brain and edit this movie clip
271
700360
2836
in i hjärnan och redigera detta filmklipp
11:43
so that we can make it different from the original?
272
703220
2872
så att vi kan göra det annorlunda än originalet?
11:46
Yes we can.
273
706116
2154
Ja det kan vi.
11:48
Turned out that all we need to do is basically
274
708294
2191
Allt vi behöver göra är att
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
återaktivera ett minne med laser så som vi gjorde innan,
11:54
but at the same time, if we present new information
276
714699
3415
men på samma gång skapar vi ny information
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
och låter denna nya information införlivas i det gamla minnet,
12:02
this will change the memory.
278
722112
2414
så kommer detta att ändra minnet.
12:04
It's sort of like making a remix tape.
279
724550
3639
Det är ungefär som att göra ett blandband. (Skratt)
12:08
SR: So how do we do this?
280
728213
2834
SR: Så hur gör vi detta?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
Snarare än att hitta ett minne av rädsla,
12:13
we can start by taking our animals,
282
733028
1692
kan vi börja med att ta våra djur,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
låt oss säga att vi sätter dem i en blå låda som den här,
12:17
and we find the brain cells that represent that blue box
284
737721
2623
hittar hjärncellerna som representerar den blå lådan
12:20
and we trick them to respond to pulses of light
285
740368
2239
och vi lurar dem att reagera på ljuspulser
12:22
exactly like we had said before.
286
742631
1710
precis som vi förklarade tidigare.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Redan nästa dag kan vi placera djuren
12:26
in a red box that they've never experienced before.
288
746489
2675
i en röd låda, som de aldrig har sett tidigare.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Vi skjuter ljus in i hjärnan för att återaktivera
12:31
the memory of the blue box.
290
751451
1848
minnet av den blå lådan.
12:33
So what would happen here if, while the animal
291
753323
1720
Så vad skulle hända om, medan djuret
12:35
is recalling the memory of the blue box,
292
755067
1905
återkallar minnet av den blå lådan,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
vi gav det ett par milda elstötar mot tassarna?
12:39
So here we're trying to artificially make an association
294
759604
2669
Här försöker vi på konstgjord väg göra en association
12:42
between the memory of the blue box
295
762297
1891
mellan minnet av den blå lådan
12:44
and the foot shocks themselves.
296
764212
1479
och att tassen får elstöten.
12:45
We're just trying to connect the two.
297
765715
1762
Vi försöker bara koppla samman dem.
12:47
So to test if we had done so,
298
767501
1512
För att se om vi lyckats,
12:49
we can take our animals once again
299
769037
1304
kan vi ta våra djur igen
12:50
and place them back in the blue box.
300
770365
1922
och placera dem i den blå lådan igen.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Alltså, vi hade just återaktiverat minnet av den blå lådan
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
medan djuret fick ett par milda elstötar,
12:57
and now the animal suddenly freezes.
303
777455
2107
och nu stelnar djuret plötsligt.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Det är som om det erinrar sig om att få elstötar i denna miljö
13:02
even though that never actually happened.
305
782944
2822
även om det aldrig hänt.
13:05
So it formed a false memory,
306
785790
1838
Så det bildas ett falskt minne,
13:07
because it's falsely fearing an environment
307
787652
2048
eftersom det falskt fruktar en miljö där, tekniskt sett,
13:09
where, technically speaking,
308
789724
1334
inget hemskt faktiskt hände med den.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL: Så långt talar vi bara om
13:15
this light-controlled "on" switch.
311
795719
2342
denna ljuskontrollerade "på"-knapp.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
I själva verket har vi också en ljuskontrollerad "av"-knapp,
13:21
and it's very easy to imagine that
313
801373
2056
och det är lätt att föreställa sig att
13:23
by installing this light-controlled "off" switch,
314
803453
2454
genom att installera denna "av"-knapp,
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
kan vi också stänga av ett minne, närsomhelst, varsomhelst.
13:31
So everything we've been talking about today
316
811519
2190
Allt vi har pratat om här idag
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
baseras på den filosofiskt omdiskuterade princippen inom neurovetenskap
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
att sinnet, med dess till synes mystiska egenskaper,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
faktiskt är gjort av fysiska saker som vi kan mixtra med.
13:46
SR: And for me personally,
320
826173
1451
SR: Och jag personligen, ser en värld där vi kan återaktivera
13:47
I see a world where we can reactivate
321
827648
1762
13:49
any kind of memory that we'd like.
322
829434
1887
vilken typ av minne vi än skulle vilja.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Jag ser också en värld där vi kan radera oönskade minnen.
13:54
Now, I even see a world where editing memories
324
834643
2143
Jag ser en värld där redigering av minnen
13:56
is something of a reality,
325
836810
1284
är något av en verklighet,
13:58
because we're living in a time where it's possible
326
838118
1681
för i vår tid är det möjligt
13:59
to pluck questions from the tree of science fiction
327
839823
2429
att plocka idéer från science fiction-trädet
14:02
and to ground them in experimental reality.
328
842276
2168
och plantera dem i den experimentella verkligheten.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL: Nu för tiden använder vi i labbet
14:06
and people in other groups all over the world
330
846351
2362
och människor i andra grupper över hela världen
14:08
are using similar methods to activate or edit memories,
331
848737
3793
liknande metoder för att aktivera eller redigera minnen,
14:12
whether that's old or new, positive or negative,
332
852554
3817
vare sig det är gamla eller nya, positiva eller negativa,
14:16
all sorts of memories so that we can understand
333
856395
2648
alla typer av minnen, så att vi kan förstå
14:19
how memory works.
334
859067
1840
hur minnet fungerar.
14:20
SR: For example, one group in our lab
335
860931
1760
SR: En grupp i vårt labb
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
kunde hitta de hjärnceller som utgör ett minne av rädsla
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
och omvandlade dem till ett lustfyllt minne, bara sådär.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
Det är vad jag menar med att redigera dessa typer av processer.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
En snubbe lyckades återaktivera
14:33
memories of female mice in male mice,
340
873558
1921
minnen av honmöss i hanmöss,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
som enligt ryktet var en angenäm upplevelse för dem.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
XL: Ja, vi lever i en mycket spännande tidsålder
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
där vetenskapen saknar godtyckliga hastighetsbegränsningar
14:46
but is only bound by our own imagination.
344
886420
3163
och endast är bunden av vår egen fantasi.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR: Och slutligen, vad gör vi med allt detta?
14:51
How do we push this technology forward?
346
891774
1927
Hur driver vi denna teknik framåt?
14:53
These are the questions that should not remain
347
893725
2191
Det är frågor som inte bör stanna
14:55
just inside the lab,
348
895940
1273
endast inne i labbet.
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
Så ett mål för dagens föredrag, var att få alla
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
medvetna om vilken typ av saker som är möjliga
15:02
in modern neuroscience,
351
902238
1250
med modern neurovetenskap,
15:03
but now, just as importantly,
352
903512
1486
men även, minst lika viktigt,
15:05
to actively engage everybody in this conversation.
353
905022
3308
att aktivt engagera alla i den här konversationen.
15:08
So let's think together as a team about what this all means
354
908354
2762
Så låt oss tänka tillsammans på vad detta betyder
och vart vi kan, och bör, gå härifrån
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
eftersom Xu och jag tror att vi alla har
15:15
some really big decisions ahead of us.
357
915255
2512
några riktigt stora beslut framför oss.
15:17
Thank you. XL: Thank you.
358
917791
1101
Tack. XL: Tack.
15:18
(Applause)
359
918916
1634
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7