Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

137,324 views ・ 2013-08-15

TED


Dobbeltklik venligst på de engelske undertekster nedenfor for at afspille videoen.

Translator: David J. Kreps Finnemann Reviewer: Anders Finn Jørgensen
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez: Mit første år på universitetet,
sad jeg mig tit i mit soveværelse
00:14
I found myself in my bedroom
1
14491
1416
00:15
eating lots of Ben & Jerry's
2
15931
2276
og spiste masser af Ben & Jerry's
00:18
watching some trashy TV
3
18231
1660
og så nogle dårlige tv udsendelser
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
og måske, måske lyttede jeg til Taylor Swift.
00:23
I had just gone through a breakup.
5
23142
1717
Jeg var lige kommet ud af et forhold.
00:24
(Laughter)
6
24883
1423
(Latter)
00:26
So for the longest time, all I would do
7
26330
2172
Så i lang tid, var det eneste jeg gjorde
00:28
is recall the memory of this person over and over again,
8
28526
3792
at huske på et minde om denne person igen og igen,
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
og ønskede at jeg kunne slippe for den pinefulde,
00:34
visceral "blah" feeling.
10
34835
2509
indre "blah" følelse.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Nu er det sådan, at jeg er neurolog,
00:39
so I knew that the memory of that person
12
39651
2378
så jeg vidste at mindet om den person
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
og de forfærdelige, følelsesmæssige undertoner der farver det minde,
00:45
are largely mediated by separate brain systems.
14
45193
2610
stort set er formidlet af forskellige systemer i hjernen.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Så jeg tænkte, hvad hvis vi kunne gå ind i hjernen
00:50
and edit out that nauseating feeling
16
50328
1930
og fjerne den kvalmende følelse
00:52
but while keeping the memory of that person intact?
17
52282
2946
men mens vi holder mindet om den person intakt?
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Så blev jeg klar over, at det måske var lige ambitiøst nok på det tidspunkt.
00:57
So what if we could start off by going into the brain
19
57943
2489
Så hvis vi kunne starte med at gå ind i hjernen
01:00
and just finding a single memory to begin with?
20
60456
2609
og bare finde et enkelt minde til at starte med?
01:03
Could we jump-start that memory back to life,
21
63089
2490
Kunne vi kickstarte det minde,
01:05
maybe even play with the contents of that memory?
22
65603
3844
måske endda lege med indholdet af det minde?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Når det så er sagt, er der én person i hele verden lige nu
01:11
that I really hope is not watching this talk.
24
71700
2143
som jeg virkelig håber på ikke ser dette foredrag.
01:13
(Laughter)
25
73867
3805
(Latter)
01:17
So there is a catch. There is a catch.
26
77696
3265
Men der en hage ved det. Der er en hage.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Disse ideer minder jer sikkert om "Total Recall"
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
"Evigt Solskin i et Pletfrit Sind,"
01:25
or of "Inception."
29
85747
1279
eller "Inception."
01:27
But the movie stars that we work with
30
87050
1762
Men de filmstjerner vi arbejder med
01:28
are the celebrities of the lab.
31
88836
1709
er laboratoriernes kendisser.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu: Testmus.
01:32
(Laughter)
33
92469
1104
(Latter)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Som neurologer, arbejder vi i laboratoriet med mus
01:36
trying to understand how memory works.
35
96751
3386
og prøver at forstå hvordan hukommelsen fungerer.
01:40
And today, we hope to convince you that now
36
100161
2545
Og i dag, håber vi at vi kan overbevise jer om at
01:42
we are actually able to activate a memory in the brain
37
102730
3192
vi faktisk er i stand til at aktivere et minde i hjernen
01:45
at the speed of light.
38
105946
2146
med lysets hastighed.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
For at gøre dette, er der kun to simple skridt at følge.
01:51
First, you find and label a memory in the brain,
40
111222
3486
For det første, finder og mærker man et minde i hjernen,
01:54
and then you activate it with a switch.
41
114732
3606
og så aktiverer man det med en kontakt.
01:58
As simple as that.
42
118362
1421
Så simpelt er det.
01:59
(Laughter)
43
119807
1798
(Latter)
02:01
SR: Are you convinced?
44
121629
1821
SR: Er I overbevist?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Det viser sig, at det faktisk slet ikke er så nemt at finde et minde i hjernen.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL: Bestemt. Dette er meget sværere end, lad os sige,
02:09
finding a needle in a haystack,
47
129998
2380
at finde en nål i en høstak,
02:12
because at least, you know, the needle is still something
48
132402
2715
fordi i det mindste, I ved, er nålen noget som man fysisk
kan tage fat i.
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
Men det er hukommelsen ikke.
02:19
And also, there's way more cells in your brain
51
139468
3014
Derudover, der er væsentlig flere celler i hjernen
02:22
than the number of straws in a typical haystack.
52
142506
5042
end antallet af halmstrå i en typisk høstak.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Så ja, denne opgave ser enorm ud.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Men heldigvis, fik vi hjælp fra selve hjernen.
02:34
It turned out that all we need to do is basically
55
154130
2431
Det viste sig at det eneste vi skulle gøre, dybest set er
02:36
to let the brain form a memory,
56
156585
1969
at lade hjernen forme et minde,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
og så vil hjernen fortælle os hvilke celler der er involverede
02:42
in that particular memory.
58
162408
1742
i det bestemte minde.
02:44
SR: So what was going on in my brain
59
164174
2333
SR: Hvad sker der i min hjerne
02:46
while I was recalling the memory of an ex?
60
166531
2070
mens jeg fandt mindet om en ekskæreste frem?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Hvis man fuldstændig skulle ignorere menneskelig etik et øjeblik
02:51
and slice up my brain right now,
62
171027
1644
og skære min hjerne i skiver lige nu,
02:52
you would see that there was an amazing number
63
172695
2191
ville man se at der var et utroligt antal
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
regioner i hjernen der var aktive mens mindet blev fundet frem.
02:57
Now one brain region that would be robustly active
65
177891
2888
En region i hjernen der især er aktiv
03:00
in particular is called the hippocampus,
66
180803
1983
kaldes hippocampus,
03:02
which for decades has been implicated in processing
67
182810
2431
som i årtier er blevet impliceret i det at behandle
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
den slags minder vi har kær,
03:07
which also makes it an ideal target to go into
69
187681
2550
hvilket også gør den til et ideelt mål til at gå ind i
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
og prøve at finde og måske reaktivere et minde.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL: Når man zoomer ind i hippocampus,
03:15
of course you will see lots of cells,
72
195434
2324
vil man selvfølgelig se mange celler,
03:17
but we are able to find which cells are involved
73
197782
3007
men vi er i stand til at finde ud af hvilke celler der er involveret
03:20
in a particular memory,
74
200813
1452
i et bestemt minde,
03:22
because whenever a cell is active,
75
202289
2594
fordi når en celle er aktiv,
03:24
like when it's forming a memory,
76
204907
1524
som når den former et minde,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
vil den også efterlade et fodaftryk der senere vil tillade os at vide
03:30
these cells are recently active.
78
210128
2678
at disse celler var aktive for nyligt.
03:32
SR: So the same way that building lights at night
79
212830
2334
SR: Så på samme måde som en bygnings lys om natten
lader en vide at der stadig er nogen der arbejder der på et givent tidspunkt,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
på en meget virkelig måde, er der biologiske sensorer
03:38
in a very real sense, there are biological sensors
81
218641
2561
03:41
within a cell that are turned on
82
221226
1930
inden i en celle der er tændt
03:43
only when that cell was just working.
83
223180
2111
udelukkende når den celle bare arbejder.
03:45
They're sort of biological windows that light up
84
225315
2286
De er en slags biologiske vinduer der lyser op
03:47
to let us know that that cell was just active.
85
227625
2191
for at lade os vide at den celle lige var aktiv.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL: Så vi mærkede en del af denne sensor,
03:51
and attached that to a switch to control the cells,
87
231998
3123
og fastgjorde den til en kontakt til at kontrollere cellerne,
03:55
and we packed this switch into an engineered virus
88
235145
3876
og vi pakkede denne kontakt ind i en designet virus
03:59
and injected that into the brain of the mice.
89
239045
2564
og indsprøjtede den ind i hjernen på mus.
04:01
So whenever a memory is being formed,
90
241633
2610
Så når et minde bliver dannet,
04:04
any active cells for that memory
91
244267
2324
vil alle aktive celler til det minde
04:06
will also have this switch installed.
92
246615
2718
også have installeret en kontakt.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR: Her er et billede over hvordan hippocampus ser ud
efter at have formet et minde om frygt, for eksempel.
04:11
after forming a fear memory, for example.
94
251572
2226
04:13
The sea of blue that you see here
95
253822
2116
Det hav af blå man kan se her
04:15
are densely packed brain cells,
96
255962
1928
er tæt pakket med hjerneceller,
04:17
but the green brain cells,
97
257914
1521
men de grønne hjerneceller,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
de grønne hjerneceller er dem der holder fast på
et specifikt minde om frygt.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Så man ser på krystaliseringen
04:25
of the fleeting formation of fear.
101
265377
2363
af den flygtende information om frygt.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Man ser faktisk på tværsnittet af et minde lige nu.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL: Med hensyn til den kontakt vi har snakket om,
04:33
ideally, the switch has to act really fast.
104
273714
2901
ideelt set, skal kontakten fungere virkelig hurtigt.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
Det bør ikke tage minutter eller timer før det fungerer.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Det bør fungere ved hjernens hastighed, i millisekunder.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR: Så hvad mener du, Xu?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Kunne vi bruge, for eksempel, farmakologiske lægemidler
04:47
to activate or inactivate brain cells?
109
287514
1814
til at aktivere eller inaktivere hjerneceller?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL: Nej. Lægemidler er temmelig rodede. De spreder sig over det hele.
04:53
And also it takes them forever to act on cells.
111
293415
2984
Og det tager dem også en evighed at agere på cellerne.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Så det vil ikke tillade os at kontrollere et minde i realtid.
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
Steve, hvad med at vi støder hjernen med noget strøm?
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR: Elektricitet er temmelig hurtig.
05:06
but we probably wouldn't be able to target it
115
306671
1715
men vi vil nok ikke være i stand til at ramme
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
præcis de rigtig celler der holder fast i et minde,
05:10
and we'd probably fry the brain.
117
310863
1755
og vi ville sikkert stege hjernen.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL: Oh. Det er sandt. Det ser altså ud til, hmm,
05:15
indeed we need to find a better way
119
315837
2587
Vi skal finde på en bedre måde
05:18
to impact the brain at the speed of light.
120
318448
3271
til at påvirke hjernen med lysets hastighed.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR: Det forholder sig tilfældigvis sådan, at lyset rejser med lysets hastighed.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Så måske kunne vi aktivere eller deaktivere minder
05:30
by just using light --
123
330312
1473
ved bare at bruge lys --
05:31
XL: That's pretty fast.
124
331809
1331
XL: Det er temmelig hurtigt.
05:33
SR: -- and because normally brain cells
125
333164
1861
SR: -- og fordi almindelige hjerneceller
05:35
don't respond to pulses of light,
126
335049
1572
ikke reagerer på lys pulser,
05:36
so those that would respond to pulses of light
127
336645
1934
så dem der ville reagere på lyspulserne
05:38
are those that contain a light-sensitive switch.
128
338603
2432
er dem der indeholder en lysfølsom kontakt.
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
For at gøre det, skal vi første snyde hjerneceller
05:43
to respond to laser beams.
130
343005
1438
til at reagere på laserstråler.
05:44
XL: Yep. You heard it right.
131
344467
1046
XL: Yep. Du hørte rigtigt.
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
Vi prøver at skyde lasere ind i hjernen.
05:47
(Laughter)
133
347704
1686
(Latter)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR: Og teknikken der lader os gøre det er optogenetik.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
Optogenetik gav os denne lyskontakt som vi kan bruge
05:56
to turn brain cells on or off,
136
356020
1484
til at tænde eller slukke for hjerneceller,
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
og navnet på den kontakt er channelrhodopsin,
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
der her kan ses som disse grønne prikker der sidder fast på denne hjernecelle.
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
Man kan se på channelrhodopsin som en slags lysfølsom kontakt
06:05
that can be artificially installed in brain cells
140
365892
2592
der kan installeres kunstigt i hjernecellerne
06:08
so that now we can use that switch
141
368508
1890
så nu kan vi bruge den kontakt
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
til at aktivere eller deaktivere hjernecellerne, ved simpelthen at trykke på den,
06:13
and in this case we click it on with pulses of light.
143
373446
2524
og i dette tilfælde klikker vi på den med lys pulser.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL: Vi sætter denne lysfølsomme kontakt i channelrhodopsin fast på
06:19
to the sensor we've been talking about
145
379689
2184
den sensor vi har talt om
06:21
and inject this into the brain.
146
381897
2431
og sprøjter dette ind i hjernen.
06:24
So whenever a memory is being formed,
147
384352
3187
Så når som helst et minde bliver formet,
06:27
any active cell for that particular memory
148
387563
2203
vil enhver aktiv celle til det bestemte minde
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
også have installeret denne lysfølsomme i sig
06:33
so that we can control these cells
150
393274
2377
så vi kan styre disse celler
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
ved at skyde en laser ligesom den I kan se her.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR: Lad os afprøve det her.
06:42
What we can do is we can take our mice
153
402803
2111
Det vi kan gøre er at vi kan tage vores mus
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
og så kan vi sætte dem i en kasse der ser præcis ud som denne kasse,
06:47
and then we can give them a very mild foot shock
155
407866
2316
og så kan vi give dem et meget mildt chok
06:50
so that they form a fear memory of this box.
156
410206
2048
så de kan skabe et minde om frygt for denne kasse.
06:52
They learn that something bad happened here.
157
412278
2059
De kan lære at der skete noget dårligt her.
06:54
Now with our system, the cells that are active
158
414361
2318
Med vores system, vil de celler der hjælper
06:56
in the hippocampus in the making of this memory,
159
416703
2766
i hippocampus med at skabe dette minde,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
kun de celler vil nu indeholde channelrhodopsin.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL: Når man er så lille som en mus,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
føles det som om hele verden er ude efter en.
07:08
So your best response of defense
163
428988
1724
Så ens bedste forsvar
07:10
is trying to be undetected.
164
430736
2458
er at prøve at forblive uopdaget.
07:13
Whenever a mouse is in fear,
165
433218
2009
Når en mus er bange,
07:15
it will show this very typical behavior
166
435251
1858
vil den vise en meget typisk adfærd
ved at blive i det ene hjørne af kassen,
07:17
by staying at one corner of the box,
167
437133
1745
07:18
trying to not move any part of its body,
168
438902
2738
og prøver på ikke at bevæge sig,
07:21
and this posture is called freezing.
169
441664
3271
og denne positur kaldes at fryse.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Hvis en mus husker at der skete noget slemt i denne kasse,
07:29
and when we put them back into the same box,
171
449253
2599
og når vi sætter dem tilbage i den samme kasse,
07:31
it will basically show freezing
172
451876
1780
vil den dybest fryse
07:33
because it doesn't want to be detected
173
453680
2261
fordi den ikke vil findes
07:35
by any potential threats in this box.
174
455965
2671
af nogen potentiel trussel i denne kasse.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR: Så hvis man tænker på at fryse som,
07:40
you're walking down the street minding your own business,
176
460015
2191
at man går ned af gaden i sine egne tanker,
07:42
and then out of nowhere you almost run into
177
462230
2048
og pludselig løber man næsten ind i
en ekskæreste,
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
07:46
and now those terrifying two seconds
179
466147
2110
og så kommer de to skrækindjagende sekunder
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
hvor man begynder at tænke, "Hvad gør jeg? Siger jeg hej?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
Giver jeg hånd? Vender jeg mig om og løber væk?
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Sidder jeg her og lader som om jeg ikke findes?"
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Den slags flygtige tanker der lammer en fysisk,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
der midlertidigt giver en det rådyr-i-forlygternes blik.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL: Men, hvis man sætter musen i en helt anden
08:02
new box, like the next one,
186
482775
3137
ny kasse, ligesom den næste,
08:05
it will not be afraid of this box
187
485936
2123
vil den ikke være bange for denne kasse
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
fordi der er ikke nogen grund til at være bange for disse nye omgivelser.
08:12
But what if we put the mouse in this new box
189
492812
3156
Men hvad hvis vi putter musen i denne nye kasse
08:15
but at the same time, we activate the fear memory
190
495992
3587
men samtidig aktiverer frygt mindet
08:19
using lasers just like we did before?
191
499603
2655
ved hjælp af laserne som vi gjorde før?
08:22
Are we going to bring back the fear memory
192
502282
2830
Kan vi finde mindet om frygt frem om den første
08:25
for the first box into this completely new environment?
193
505136
3973
kasse igen ind i disse helt nye omgivelser?
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
SR: Okay, og her er million dollar eksperimentet.
08:31
Now to bring back to life the memory of that day,
195
511868
2889
Find nu mindet frem om den dag,
08:34
I remember that the Red Sox had just won,
196
514781
2159
jeg husker at Red Sox lige havde vundet,
08:36
it was a green spring day,
197
516964
1885
det var en grøn forårsdag,
08:38
perfect for going up and down the river
198
518873
1858
den var perfekt til at sejle op og ned af floden
08:40
and then maybe going to the North End
199
520755
2245
og måske tage til North End
08:43
to get some cannolis, #justsaying.
200
523024
2135
og få nogle cannolis, #jegsigerdetbare.
08:45
Now Xu and I, on the other hand,
201
525183
3078
På den anden side, var Xu og jeg
08:48
were in a completely windowless black room
202
528285
2806
i et rum uden nogen vinduer
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
og lavede ikke nogen øjenbevægelser der på nogen måde ligner et blink med øjet
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
fordi vores øjne var limet fast til en computer skærm.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Vi så på denne mus der prøvede at aktivere et minde
for første gang ved hjælp af vores teknik.
09:00
for the first time using our technique.
206
540219
1859
XL: Og dette er hvad vi så.
09:02
XL: And this is what we saw.
207
542102
2243
09:04
When we first put the mouse into this box,
208
544369
2178
Da vi først puttede musen ned i denne kasse,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
går den på opdagelse, sniffer omkring, går omkring,
09:09
minding its own business,
210
549684
1665
passer sig selv,
09:11
because actually by nature,
211
551373
1677
fordi mus faktisk af natur,
09:13
mice are pretty curious animals.
212
553074
1955
er temmelig nysgerrige dyr.
09:15
They want to know, what's going on in this new box?
213
555053
2598
De vil vide, hvad sker der i denne nye kasse?
09:17
It's interesting.
214
557675
1507
Det er interessant.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Men det øjeblik vi tændte for laseren, som man kan se nu,
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
pludselig går musen i denne frys tilstand.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Den blev der og prøvede på ikke at røre sig.
09:30
Clearly it's freezing.
218
570120
1604
Den fryser tydeligvis.
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Bestemt, det ser ud til at vi er i stand til at frembringe
09:34
the fear memory for the first box
220
574331
2040
mindet om frygt fra den første kasse
09:36
in this completely new environment.
221
576395
3343
i disse helt nye omgivelser.
09:39
While watching this, Steve and I
222
579762
2088
Mens vi så dette, var Steve og jeg
09:41
are as shocked as the mouse itself.
223
581874
2109
lige så chokerede som musen.
09:44
(Laughter)
224
584007
1238
(Latter)
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Efter eksperimentet, forlod vi begge to lokalet
09:48
without saying anything.
226
588576
1729
uden at sige noget.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Efter en lang, akavet periode,
09:53
Steve broke the silence.
228
593725
2188
brød Steve tavsheden.
09:55
SR: "Did that just work?"
229
595937
2317
SR: "Virkede det lige?"
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL: "Ja," sagde jeg. "Det virkede bestemt!"
10:01
We're really excited about this.
231
601252
2093
Vi er virkelig begejstrede for dette.
10:03
And then we published our findings
232
603369
2600
Og så udgav vi vores resultater
10:05
in the journal Nature.
233
605993
1672
i tidsskriftet Nature.
10:07
Ever since the publication of our work,
234
607689
2447
Lige siden udgivelsen af vores arbejde,
10:10
we've been receiving numerous comments
235
610160
2391
har vi modtaget adskillige kommentarer
10:12
from all over the Internet.
236
612575
2101
fra hele internettet.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Måske kan vi se på nogle af dem.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
[OMGGGGG ENDELIG … der kommer så meget mere, virtual reality, neural manipulation, visuel drømme emulering… neural kodning, "skrivning og omskrivning af minder", mental sygdom. Ahhh, fremtiden er fed]
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
SR: Den første ting man lægger mærke ting er at mennesker
10:22
have really strong opinions about this kind of work.
240
622907
2879
har virkelig stærke meninger om denne slags arbejde.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Nu er jeg fuldstændig enig med optimismen
10:28
of this first quote,
242
628364
792
i det første citat,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
fordi på en skala fra nul til Morgan Freemans stemme,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
er det en af de mest stemningsvækkende anerkendelser
10:34
that I've heard come our way.
245
634489
1526
som jeg har hørt komme i vores retning.
(Latter)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Men som I ser, er det ikke kun meninger der er derude.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
["Dette skræmmer mig fra vid og sans… Hvad hvis de kunne gøre det ved mennesker om et par år?" ÅH GUD VI ER FORTABT"]
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL: Bestemt, hvis vi kigger på den anden,
10:43
I think we can all agree that it's, meh,
250
643682
2083
tror jeg vi alle kan blive enige om at det er, meh,
10:45
probably not as positive.
251
645789
1959
nok ikke så positiv.
10:47
But this also reminds us that,
252
647772
2161
men det minder os også om at,
10:49
although we are still working with mice,
253
649957
2162
selvom vi stadig arbejder med mus,
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
er det sikkert en god ide at begynde at tænke på og diskutere
10:55
about the possible ethical ramifications
255
655660
2967
om de mulige etiske følger
10:58
of memory control.
256
658651
1924
af at kontrollere minder.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR: I den tredje citats ånd,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
vil vi fortælle jer om et nyligt projekt som vi har arbejdet
11:04
working on in lab that we've called Project Inception.
259
664773
2572
på i laboratoriet som vi har kaldt Project Inception.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
["De skulle lave en film om dette. Hvor de planter ideer i folks sind, så de kan kontrollere dem for personlig vinding. Vi kalder det: Inception."]
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Vi konkluderede at nu hvor vi kan reaktivere et minde,
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
hvad hvis vi gør det men begynder at pille ved det minde?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
Kunne vi måske endda vende det til et forkert minde?
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
XL: Alle minder er sofistikerede og dynamiske,
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
men bare for enkelheden, lad os forestille os minder
11:27
as a movie clip.
266
687241
1378
som et filmklip.
11:28
So far what we've told you is basically we can control
267
688643
2646
Det vi har fortalt jer indtil videre er dybest set at vi kan styre
11:31
this "play" button of the clip
268
691313
1907
denne "play" knap på klippet
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
så vi kan afspille dette videoklip når som helst, hvor som helst.
11:37
But is there a possibility that we can actually get
270
697829
2507
Men er der en mulighed for at vi faktisk kan gå
11:40
inside the brain and edit this movie clip
271
700360
2836
ind i hjernen og redigere dette filmklip
11:43
so that we can make it different from the original?
272
703220
2872
så vi kan gøre det forskelligt fra originalen?
11:46
Yes we can.
273
706116
2154
Ja, det kan vi.
11:48
Turned out that all we need to do is basically
274
708294
2191
Det viser sig at det eneste vi skal gøre er dybest set
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
at reaktivere mindet ved hjælp af lasere ligesom vi gjorde før,
11:54
but at the same time, if we present new information
276
714699
3415
men samtidig, hvis vi præsenterer ny information
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
og tillader at denne nye information bliver integreret i dette gamle minde,
12:02
this will change the memory.
278
722112
2414
dette vil ændre mindet.
12:04
It's sort of like making a remix tape.
279
724550
3639
Det er lidt ligesom at lave et remix bånd.
12:08
SR: So how do we do this?
280
728213
2834
SR: Hvordan gør vi dette?
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
I stedet for at finde et minde om frygt i hjernen,
12:13
we can start by taking our animals,
282
733028
1692
kan vi starte med at tage vores dyr,
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
og lad os sige at vi putter dem i en blå kasse som denne blå kasse her
12:17
and we find the brain cells that represent that blue box
284
737721
2623
og vi finder de hjerneceller der repræsenterer den blå kasse
12:20
and we trick them to respond to pulses of light
285
740368
2239
og vi snyder dem til at reagere på lys pulser
12:22
exactly like we had said before.
286
742631
1710
præcis som vi sagde før.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Dagen efter, kan vi tage vores dyr og placere dem
12:26
in a red box that they've never experienced before.
288
746489
2675
i en rød kasse som de aldrig har oplevet før.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Vi kan skyde lys ind i hjernen for at reaktivere
12:31
the memory of the blue box.
290
751451
1848
mindet om den blå kasse.
12:33
So what would happen here if, while the animal
291
753323
1720
Hvad ville der ske her hvis, mens dyrene
12:35
is recalling the memory of the blue box,
292
755067
1905
erindrer mindet om den blå kasse,
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
gav vi den et par milde chok?
12:39
So here we're trying to artificially make an association
294
759604
2669
Her prøver vi kunstigt at lave en association
12:42
between the memory of the blue box
295
762297
1891
mellem mindet om den blå kasse
12:44
and the foot shocks themselves.
296
764212
1479
og selve chokkene.
12:45
We're just trying to connect the two.
297
765715
1762
Vi prøver bare at forbinde de to.
12:47
So to test if we had done so,
298
767501
1512
For at teste om vi havde gjort det,
12:49
we can take our animals once again
299
769037
1304
kan vi tage vores dyr igen,
12:50
and place them back in the blue box.
300
770365
1922
og placere dem tilbage i den blå kasse.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Igen, vi havde lige reaktiveret mindet om den blå kasse
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
mens dyrene fik et par milde chok,
12:57
and now the animal suddenly freezes.
303
777455
2107
og nu fryser dyret pludseligt.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Det er som om den erindrer at få et mildt chok i disse omgivelser
13:02
even though that never actually happened.
305
782944
2822
selvom det faktisk aldrig skete.
13:05
So it formed a false memory,
306
785790
1838
Den formede altså et falsk minde,
13:07
because it's falsely fearing an environment
307
787652
2048
fordi den fejlagtigt frygter omgivelser
13:09
where, technically speaking,
308
789724
1334
hvor, teknisk set,
der faktisk ikke skete noget med den.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL: Så indtil videre taler vi kun om
13:15
this light-controlled "on" switch.
311
795719
2342
denne lys kontrollerede "tænd" kontakt.
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
Faktisk, har vi faktisk også en lys kontrolleret "sluk" knap,
13:21
and it's very easy to imagine that
313
801373
2056
og det er meget nemt at forestille sig at
13:23
by installing this light-controlled "off" switch,
314
803453
2454
ved at installere denne lys kontrollerede "sluk" knap,
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
vi kan også slukke for et minde, til hver en tid, hvor som helst.
13:31
So everything we've been talking about today
316
811519
2190
Alt vi har talt om i dag,
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
er baseret på disse filosofisk ladede principper om neurovidenskab
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
at sindet, med dets tilsyneladende mystiske egenskaber,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
faktisk er lavet af fysiske ting som vi kan pille ved.
13:46
SR: And for me personally,
320
826173
1451
SR: Og for mig personligt,
13:47
I see a world where we can reactivate
321
827648
1762
ser jeg en verden hvor vi kan reaktivere
13:49
any kind of memory that we'd like.
322
829434
1887
et hvilket som helst minde vi vil.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
Jeg ser også en verden hvor vi kan slette uønskede minder.
13:54
Now, I even see a world where editing memories
324
834643
2143
Jeg ser endda en verden hvor det at redigere minder
13:56
is something of a reality,
325
836810
1284
er en virkelighed,
13:58
because we're living in a time where it's possible
326
838118
1681
fordi vi lever i en tid hvor det er muligt
13:59
to pluck questions from the tree of science fiction
327
839823
2429
at plukke spørgsmål fra science fiction træet
14:02
and to ground them in experimental reality.
328
842276
2168
og at rodfæste dem i en eksperimentel virkelighed.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL: Nu om stunder, bruger mennesker i laboratoriet
14:06
and people in other groups all over the world
330
846351
2362
og mennesker i andre grupper i hele verden
14:08
are using similar methods to activate or edit memories,
331
848737
3793
forskellige metoder til at aktivere eller redigere minder,
14:12
whether that's old or new, positive or negative,
332
852554
3817
hvad enten det er gamle eller nye, positive eller negative,
14:16
all sorts of memories so that we can understand
333
856395
2648
alle slags minder så vi kan forstå
14:19
how memory works.
334
859067
1840
hvordan minder fungerer.
14:20
SR: For example, one group in our lab
335
860931
1760
SR: For eksempel, en gruppe i vores laboratorium
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
var vi i stand til at finde de hjerneceller et frygtminde består af
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
og omdannede dem til et behageligt minde, ligesom det.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
Det er præcis det jeg mener om at redigere denne slags processer.
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
En fyr i laboratoriet var endda i stand til at reaktivere
14:33
memories of female mice in male mice,
340
873558
1921
minder om hun mus hos han mus,
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
hvilket ifølge rygtet er en dejlig oplevelse.
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
XL: Bestemt, vi lever i et meget spændende øjeblik
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
hvor videnskab ikke har nogen vilkårlige hastighedsbegrænsninger
14:46
but is only bound by our own imagination.
344
886420
3163
men kun er bundet til vores egen fantasi.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR: Og til slut, hvad får vi ud af alt dette?
14:51
How do we push this technology forward?
346
891774
1927
Hvordan skubber vi denne teknologi fremad?
14:53
These are the questions that should not remain
347
893725
2191
Dette er de spørgsmål der ikke bør forblive
14:55
just inside the lab,
348
895940
1273
inde i laboratoriet,
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
så et af målene med foredraget i dag var at få alle
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
up to date med den slags ting der er mulige
15:02
in modern neuroscience,
351
902238
1250
i moderne neurovidenskab,
15:03
but now, just as importantly,
352
903512
1486
men nu, lige så vigtigt,
15:05
to actively engage everybody in this conversation.
353
905022
3308
aktivt at engagere alle i denne samtale.
15:08
So let's think together as a team about what this all means
354
908354
2762
Lad os tænke sammen som et hold om hvad dette alt sammen betyder
og hvor vi kan og bør gå hen efter dette,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
fordi Xu og jeg mener vi alle har
15:15
some really big decisions ahead of us.
357
915255
2512
nogle virkelig store beslutninger foran os.
15:17
Thank you. XL: Thank you.
358
917791
1101
Tak. XL: Tak.
15:18
(Applause)
359
918916
1634
(Bifald)
Om denne hjemmeside

På dette websted kan du se YouTube-videoer, der er nyttige til at lære engelsk. Du vil se engelskundervisning, der er udført af førsteklasses lærere fra hele verden. Dobbeltklik på de engelske undertekster, der vises på hver videoside, for at afspille videoen derfra. Underteksterne ruller i takt med videoafspilningen. Hvis du har kommentarer eller ønsker, bedes du kontakte os ved hjælp af denne kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7