Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

134,222 views ・ 2013-08-15

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Esra Çakmak Gözden geçirme: Ramazan Şen
00:12
Steve Ramirez: My first year of grad school,
0
12371
2096
Steve Ramirez: Yüksek lisansımın ilk yılında,
00:14
I found myself in my bedroom
1
14491
1416
kendimi yatak odasında
00:15
eating lots of Ben & Jerry's
2
15931
2276
bir sürü Ben & Jerry's yerken,
00:18
watching some trashy TV
3
18231
1660
kalitesiz TV programları izlerken
00:19
and maybe, maybe listening to Taylor Swift.
4
19915
3203
ve belki, hani belki Taylor Swift dinlerken buldum.
Ayrılık döneminden yeni çıkmıştım.
00:23
I had just gone through a breakup.
5
23142
1717
00:24
(Laughter)
6
24883
1423
(Gülüşmeler)
00:26
So for the longest time, all I would do
7
26330
2172
Uzun bir süre boyunca tek yaptığım,
00:28
is recall the memory of this person over and over again,
8
28526
3792
üst üste o kişiye dair anıları yad etmek
00:32
wishing that I could get rid of that gut-wrenching,
9
32342
2469
ve beni içten içe kemiren, derinlerdeki o saçma histen
00:34
visceral "blah" feeling.
10
34835
2509
kurtulmayı ummaktı.
00:37
Now, as it turns out, I'm a neuroscientist,
11
37368
2259
Şimdi, aslına bakarsanız, ben bir nörologum,
00:39
so I knew that the memory of that person
12
39651
2378
bu sebeple o insanın anısının
ve o anıyı renklendiren korkunç, duygusal çağrışımların
00:42
and the awful, emotional undertones that color in that memory,
13
42053
3116
00:45
are largely mediated by separate brain systems.
14
45193
2610
büyük oranda beyindeki farklı sistemler aracılığıyla sağlandığını biliyorum.
00:47
And so I thought, what if we could go into the brain
15
47827
2477
Sonra kendi kendime, beynin için girebilsek
00:50
and edit out that nauseating feeling
16
50328
1930
ve o mide bulandırıcı hissi
00:52
but while keeping the memory of that person intact?
17
52282
2946
o kişinin anısını da bozmadan çıkarabilsek nasıl olurdu diye soruverdim.
00:55
Then I realized, maybe that's a little bit lofty for now.
18
55252
2667
Devamında, o an için fazla uçtuğumu fark ettim.
00:57
So what if we could start off by going into the brain
19
57943
2489
İlk olarak, beynin içine girsek
01:00
and just finding a single memory to begin with?
20
60456
2609
ve başlangıç olarak bir anıya odaklansak nasıl olurdu?
O anıyı tekrar hayata geçirerek yola koyulabilir miyiz,
01:03
Could we jump-start that memory back to life,
21
63089
2490
01:05
maybe even play with the contents of that memory?
22
65603
3844
hatta belki de, o anının içeriği ile birazcık oynasak ya?
01:09
All that said, there is one person in the entire world right now
23
69471
2205
Bu arada, şu anda dünya üzerinde bir insan var ki
01:11
that I really hope is not watching this talk.
24
71700
2143
umarım bu konuşmayı izlemiyordur.
01:13
(Laughter)
25
73867
3805
(Gülüşmeler)
01:17
So there is a catch. There is a catch.
26
77696
3265
Bu işte bir pürüz var, gerçekten de öyle.
01:20
These ideas probably remind you of "Total Recall,"
27
80985
2764
Bu fikirler size muhtemelen bazı filmleri anımsatacak;
01:23
"Eternal Sunshine of the Spotless Mind,"
28
83773
1950
''Total Recall,'' "Eternal Sunshine of the Spotless Mind"
01:25
or of "Inception."
29
85747
1279
belki de "Inception."
01:27
But the movie stars that we work with
30
87050
1762
Ama bizim çalıştığı film yıldızları
01:28
are the celebrities of the lab.
31
88836
1709
laboratuvar ünlüleri.
01:30
Xu Liu: Test mice.
32
90569
1876
Xu Liu: Deney fareleri.
01:32
(Laughter)
33
92469
1104
(Gülüşmeler)
01:33
As neuroscientists, we work in the lab with mice
34
93597
3130
Nörologlar olarak, hafızanın nasıl çalıştığını anlamak için
01:36
trying to understand how memory works.
35
96751
3386
laboratuvarda farelerle çalışıyoruz.
Bugün sizleri, beyindeki bir anıyı
01:40
And today, we hope to convince you that now
36
100161
2545
01:42
we are actually able to activate a memory in the brain
37
102730
3192
gerçekten de ışık hızında etkinleştirebildiğimize
01:45
at the speed of light.
38
105946
2146
ikna etmeyi umuyoruz.
Bunu yapabilmek için izlenecek iki basit yol var.
01:48
To do this, there's only two simple steps to follow.
39
108116
3082
01:51
First, you find and label a memory in the brain,
40
111222
3486
Birincisi, beyinde bir anı bulup onu işaretlersiniz
01:54
and then you activate it with a switch.
41
114732
3606
ve sonra onu bir düğme aracılığıyla etkinleştirirsiniz.
01:58
As simple as that.
42
118362
1421
Bu kadar basit.
01:59
(Laughter)
43
119807
1798
(Gülüşmeler)
02:01
SR: Are you convinced?
44
121629
1821
SR : İkna oldunuz mu?
02:03
So, turns out finding a memory in the brain isn't all that easy.
45
123474
3697
Anlayacağınız, beyinde bir anıyı seçebilmek o kadar da kolay değilmiş.
02:07
XL: Indeed. This is way more difficult than, let's say,
46
127195
2779
XL : Gerçekten bu, örneğin
02:09
finding a needle in a haystack,
47
129998
2380
samanlıkta iğne aramaktan çok daha zor,
02:12
because at least, you know, the needle is still something
48
132402
2715
çünkü bildiğiniz gibi, iğne en azından fiziksel olarak
elle tutulabilecek bir şeydir,
02:15
you can physically put your fingers on.
49
135141
2326
02:17
But memory is not.
50
137491
1953
ancak hafıza öyle değil.
02:19
And also, there's way more cells in your brain
51
139468
3014
Ayrıca beynimizdeki hücrelerin sayısı,
02:22
than the number of straws in a typical haystack.
52
142506
5042
ortalama bir samanlıktaki samanların sayısını açık ara alt eder.
02:27
So yeah, this task does seem to be daunting.
53
147572
2855
Yani evet, bu iş gerçekten de zorlu gözüküyor.
02:30
But luckily, we got help from the brain itself.
54
150451
3655
Yine de şanslıyız ki beynin kendisinden yardım alabiliriz.
Aslında en basitinden yapmamız gereken tek şey,
02:34
It turned out that all we need to do is basically
55
154130
2431
02:36
to let the brain form a memory,
56
156585
1969
beynin anı oluşturmasına müsaade etmek,
02:38
and then the brain will tell us which cells are involved
57
158578
3806
çünkü devamında beyin, bize o anı için hangi hücrelerin
02:42
in that particular memory.
58
162408
1742
etkin olduğunu söyleyecektir.
SR: Peki ben eski sevgilimle ilgili anıları hatırlarken
02:44
SR: So what was going on in my brain
59
164174
2333
02:46
while I was recalling the memory of an ex?
60
166531
2070
beynimde neler dönüyordu?
02:48
If you were to just completely ignore human ethics for a second
61
168625
2378
Etik ilkelerini bir an için kenara koyup
beynimi şu anda didikleyecek olsaydınız,
02:51
and slice up my brain right now,
62
171027
1644
02:52
you would see that there was an amazing number
63
172695
2191
ben o anı anımsarken, beynimin muazzam derecede
02:54
of brain regions that were active while recalling that memory.
64
174910
2957
büyük bir bölümünün aktif olduğunu görürdünüz.
02:57
Now one brain region that would be robustly active
65
177891
2888
Özellikle yoğun bir şekilde aktif olan beyin bölgesine
03:00
in particular is called the hippocampus,
66
180803
1983
hipokampus adı veriyoruz,
03:02
which for decades has been implicated in processing
67
182810
2431
dibimizden ayırmadığımız, bizim için önem teşkil eden anılarımızı
03:05
the kinds of memories that we hold near and dear,
68
185265
2392
uzun yıllar boyunca işler kılan bölgedir,
03:07
which also makes it an ideal target to go into
69
187681
2550
ki bu özelliği de bu bölgeyi, bir anıyı tekrar
03:10
and to try and find and maybe reactivate a memory.
70
190255
2761
etkinleştirebilmek için deneyip göreceğimiz ideal bir alan yapar.
03:13
XL: When you zoom in into the hippocampus,
71
193040
2370
XL: Hipokampusun içine daha yakından baktığımızda,
03:15
of course you will see lots of cells,
72
195434
2324
elbette çok fazla hücre göreceğiz,
03:17
but we are able to find which cells are involved
73
197782
3007
ancak belirli bir anıya hangi hücrelerin
03:20
in a particular memory,
74
200813
1452
dahil olduğunu bulabiliriz,
03:22
because whenever a cell is active,
75
202289
2594
çünkü bir hücre her aktif olduğunda,
03:24
like when it's forming a memory,
76
204907
1524
mesela bir anı oluştururken,
03:26
it will also leave a footprint that will later allow us to know
77
206455
3649
daha sonra o hücrelerin aktif olduğunu
bize gösterebilecek ayak izleri bırakır.
03:30
these cells are recently active.
78
210128
2678
03:32
SR: So the same way that building lights at night
79
212830
2334
SR: Gece vakti binada yanan ışıkların,
birisinin o anda muhtemelen orada çalıştığını gösterdiği mantığındaki gibi,
03:35
let you know that somebody's probably working there at any given moment,
80
215188
3429
03:38
in a very real sense, there are biological sensors
81
218641
2561
kelimenin tam anlamıyla hücre içerisinde, yalnızca hücrenin
03:41
within a cell that are turned on
82
221226
1930
aktif olduğunu zamanlarda çalışan
03:43
only when that cell was just working.
83
223180
2111
biyolojik sensörler vardır.
03:45
They're sort of biological windows that light up
84
225315
2286
Bunlar, aktif olan hücreyi göstermek için var olan
03:47
to let us know that that cell was just active.
85
227625
2191
bir tür yanan biyolojik pencerelerdir.
03:49
XL: So we clipped part of this sensor,
86
229840
2134
XL: Bu sensörün bir kısmını kırptık
03:51
and attached that to a switch to control the cells,
87
231998
3123
ve hücreleri kontrol eden bir anahtara bağladık
ve bu anahtarı yapay bir virüsün içine koyduk
03:55
and we packed this switch into an engineered virus
88
235145
3876
ve farenin beynine enjekte ettik.
03:59
and injected that into the brain of the mice.
89
239045
2564
04:01
So whenever a memory is being formed,
90
241633
2610
Böylece ne zaman bir anı oluşturulsa,
04:04
any active cells for that memory
91
244267
2324
o anı için aktif olan her bir hücre
04:06
will also have this switch installed.
92
246615
2718
aynı zamanda bu anahtarı da kurmuş oldu.
04:09
SR: So here is what the hippocampus looks like
93
249357
2191
SR: Mesela korku anısı oluşturduktan sonra,
04:11
after forming a fear memory, for example.
94
251572
2226
hipokampus şu şekilde gözüküyor.
04:13
The sea of blue that you see here
95
253822
2116
Burada gördüğünüz mavi deniz,
04:15
are densely packed brain cells,
96
255962
1928
yoğun olarak konuşlanmış beyin hücreleri,
04:17
but the green brain cells,
97
257914
1521
ancak yeşil beyin hücreleri,
04:19
the green brain cells are the ones that are holding on
98
259459
2572
yeşil beyin hücreleri, belirli korku anısına bağlanan
asıl hücrelerdir.
04:22
to a specific fear memory.
99
262055
1319
04:23
So you are looking at the crystallization
100
263398
1955
Şu anda, korkunun anlık oluşumunun
04:25
of the fleeting formation of fear.
101
265377
2363
kristalleşmesine şahit oluyorsunuz.
04:27
You're actually looking at the cross-section of a memory right now.
102
267764
3473
Aslında, anının yalnızca bir kesitine bakıyorsunuz.
04:31
XL: Now, for the switch we have been talking about,
103
271261
2429
XL: Şimdi konuştuğumuz anahtara dönecek olursak,
04:33
ideally, the switch has to act really fast.
104
273714
2901
tercihen, anahtarın çok hızlı hareket etmesi gerekiyor.
04:36
It shouldn't take minutes or hours to work.
105
276639
2555
İşleyişi saatler veya dakikalar almamalı.
04:39
It should act at the speed of the brain, in milliseconds.
106
279218
4240
Beynin hızında hareket etmeli, yani milisaniye hızında.
04:43
SR: So what do you think, Xu?
107
283482
1406
SR: Ne düşünüyorsun Xu?
04:44
Could we use, let's say, pharmacological drugs
108
284912
2578
Beyin hücrelerini etkinleştirmek ya da etkisizleştirmek için
04:47
to activate or inactivate brain cells?
109
287514
1814
farmakolojik ilaç kullanabilir miyiz?
04:49
XL: Nah. Drugs are pretty messy. They spread everywhere.
110
289352
4039
XL : Meh. İlaçlar oldukça karışıktırlar, her yere yayılırlar
04:53
And also it takes them forever to act on cells.
111
293415
2984
ve hücrelere etki etmeleri yüzyılı alır.
04:56
So it will not allow us to control a memory in real time.
112
296423
3625
Bu da, eş zamanlı hücre kontrolü yapmamıza izin vermez.
Peki o zaman Steve, beyne elektrik vermeye ne dersin?
05:00
So Steve, how about let's zap the brain with electricity?
113
300072
4270
05:04
SR: So electricity is pretty fast,
114
304366
2281
SR: Elektrik oldukça hızlıdır,
05:06
but we probably wouldn't be able to target it
115
306671
1715
ancak elektriği, yalnızca anıya tutunan
05:08
to just the specific cells that hold onto a memory,
116
308410
2429
hücrelere büyük ihtimalle gönderemeyiz
05:10
and we'd probably fry the brain.
117
310863
1755
ve beyni kızartabiliriz.
05:12
XL: Oh. That's true. So it looks like, hmm,
118
312642
3171
XL: Evet, doğru söylüyorsun. Yani öyle görünüyor ki,
05:15
indeed we need to find a better way
119
315837
2587
beyni ışık hızında etkileyebilmek için
05:18
to impact the brain at the speed of light.
120
318448
3271
cidden daha iyi bir yol bulmamız gerekiyor.
05:21
SR: So it just so happens that light travels at the speed of light.
121
321743
5062
SR: Ne tesadüftür ki ışık, ışık hızında yol alır.
05:26
So maybe we could activate or inactive memories
122
326829
3459
Yani belki de hücreleri sadece ışığı kullanarak etkinleştirebilir
05:30
by just using light --
123
330312
1473
veya etkisizleştirebiliriz.
05:31
XL: That's pretty fast.
124
331809
1331
XL: Bu oldukça hızlı olur.
SR: Ki normalde beyin hücreleri
05:33
SR: -- and because normally brain cells
125
333164
1861
ışık sinyallerine yanıt vermezler,
05:35
don't respond to pulses of light,
126
335049
1572
05:36
so those that would respond to pulses of light
127
336645
1934
yani ışık sinyallerine yanıt verenler
05:38
are those that contain a light-sensitive switch.
128
338603
2432
ışığa duyarlı anahtarlara sahip olanlar olacaktır.
Bunu yapabilmek için önce beyin hücrelerini, lazer ışınlarına
05:41
Now to do that, first we need to trick brain cells
129
341059
1922
05:43
to respond to laser beams.
130
343005
1438
yanıt vermesi için kandırmamız gerekir.
05:44
XL: Yep. You heard it right.
131
344467
1046
05:45
We are trying to shoot lasers into the brain.
132
345537
2143
XL : Evet, doğru duydunuz.
Beynin içine lazer ışınlamaya çalışıyoruz.
05:47
(Laughter)
133
347704
1686
(Gülüşmeler)
05:49
SR: And the technique that lets us do that is optogenetics.
134
349414
3300
SR : Bunu yapabilmemizi sağlayan tekniğin adı optogenetik.
05:52
Optogenetics gave us this light switch that we can use
135
352738
3258
Optogenetik bize beyin hücrelerini açıp kapatmaya yarayan
ışık anahtarını verir
05:56
to turn brain cells on or off,
136
356020
1484
05:57
and the name of that switch is channelrhodopsin,
137
357528
2493
ve bunu anahtarın ismi "channelrhodopsin,"
beyin hücresine bağlı yeşil noktalar olarak görülüyor.
06:00
seen here as these green dots attached to this brain cell.
138
360045
2513
06:02
You can think of channelrhodopsin as a sort of light-sensitive switch
139
362582
3286
"Channelrhodopsin"i, beyin hücrelerine yapay olarak yerleştirilebilen,
06:05
that can be artificially installed in brain cells
140
365892
2592
bir çeşit ışık duyarlı anahtar olarak düşünebilirsiniz,
06:08
so that now we can use that switch
141
368508
1890
böylece bu anahtarı artık
06:10
to activate or inactivate the brain cell simply by clicking it,
142
370422
3000
üzerine tıklayarak etkinleştirebilir veya etkisizleştirebiliriz
06:13
and in this case we click it on with pulses of light.
143
373446
2524
ve bu takdirde, ışık sinyalleri aracılığıyla tıklayabiliyoruz.
06:15
XL: So we attach this light-sensitive switch of channelrhodopsin
144
375994
3671
XL: Işık duyarlı channelrhodopsin anahtarı
06:19
to the sensor we've been talking about
145
379689
2184
bahsettiğimiz sensöre yerleştiriyoruz
06:21
and inject this into the brain.
146
381897
2431
ve bunu beyne enjekte ediyoruz.
06:24
So whenever a memory is being formed,
147
384352
3187
Her anı oluşumu gerçekleştiğinde,
06:27
any active cell for that particular memory
148
387563
2203
belirli o anı için aktif olan herhangi bir hücre de,
06:29
will also have this light-sensitive switch installed in it
149
389790
3460
aynı zamanda bu ışığa duyarlı anahtarı kurmuş olacak,
06:33
so that we can control these cells
150
393274
2377
böylece bu hücreleri,
06:35
by the flipping of a laser just like this one you see.
151
395675
4240
burada gördüğünüz gibi, lazeri çevirerek kontrol edebiliriz.
06:39
SR: So let's put all of this to the test now.
152
399939
2840
SR: Şimdi bütün bunları bir denemeye tabi tutalım.
06:42
What we can do is we can take our mice
153
402803
2111
Yapabileceğimiz şey, farelerimizi alıp
06:44
and then we can put them in a box that looks exactly like this box here,
154
404938
2904
onları tamamen buradaki kutuya benzeyen bir kutuya koyup
06:47
and then we can give them a very mild foot shock
155
407866
2316
ardından onlara çok hafif bir ayak şoku verebiliriz,
06:50
so that they form a fear memory of this box.
156
410206
2048
böylece bu kutuya dair bir korku anısı oluştururlar.
06:52
They learn that something bad happened here.
157
412278
2059
Burada kötü bir şeyin yaşandığını öğrenirler.
06:54
Now with our system, the cells that are active
158
414361
2318
Bizim sistemimizde,
06:56
in the hippocampus in the making of this memory,
159
416703
2766
bu anıyı oluştururken hipokampuste aktif olan hücreler,
06:59
only those cells will now contain channelrhodopsin.
160
419493
2859
yalnızca channelrhodopsini içerecek olan hücrelerdir.
07:02
XL: When you are as small as a mouse,
161
422376
2993
XL: Bir fare kadar küçüksen,
07:05
it feels as if the whole world is trying to get you.
162
425393
3571
bütün dünya peşindeymiş hissine kapılırsın.
07:08
So your best response of defense
163
428988
1724
Bu sebeple en iyi savunma tekniğimiz
07:10
is trying to be undetected.
164
430736
2458
fark edilmemek olacaktır.
07:13
Whenever a mouse is in fear,
165
433218
2009
Bir fare ne zaman korksa,
07:15
it will show this very typical behavior
166
435251
1858
her zaman aynı tepkisel davranışı sergileyecektir,
07:17
by staying at one corner of the box,
167
437133
1745
kutunun köşesinde duracak,
07:18
trying to not move any part of its body,
168
438902
2738
vücudunun hiçbir bölgesini kıpırdatmamaya çalışacak.
07:21
and this posture is called freezing.
169
441664
3271
Diğer bir deyişle bu poza donma adını veriyoruz.
07:24
So if a mouse remembers that something bad happened in this box,
170
444959
4270
Bir fare, bu kutuda kötü bir şey yaşandığını hatırlarsa
07:29
and when we put them back into the same box,
171
449253
2599
ve biz onu tekrar o kutuya koyarsak,
07:31
it will basically show freezing
172
451876
1780
donma moduna geçecektir,
07:33
because it doesn't want to be detected
173
453680
2261
çünkü kutudaki potansiyel tehlikelerce
07:35
by any potential threats in this box.
174
455965
2671
fark edilmek istemiyor olacaktır.
07:38
SR: So you can think of freezing as,
175
458660
1331
SR: Donmayı şu şekilde de düşünebiliriz;
07:40
you're walking down the street minding your own business,
176
460015
2191
kendi halinizde sokakta yürüyorsunuz
07:42
and then out of nowhere you almost run into
177
462230
2048
ve aniden eski kız veya erkek arkadaşınızla
07:44
an ex-girlfriend or ex-boyfriend,
178
464302
1821
karşılaşacak oluyorsunuz
ve o dehşet verici iki saniyede,
07:46
and now those terrifying two seconds
179
466147
2110
şunları düşünüveriyorsunuz; ''Ne yapacağım ben?
07:48
where you start thinking, "What do I do? Do I say hi?
180
468281
1852
Selam vereyim mi, elini sıkayım mı? Arkamı dönüp koşayım mı?
07:50
Do I shake their hand? Do I turn around and run away?
181
470157
1344
07:51
Do I sit here and pretend like I don't exist?"
182
471525
2005
Burada oturup yokmuşum gibi yapayım mı?''
07:53
Those kinds of fleeting thoughts that physically incapacitate you,
183
473554
3160
Aniden gelip sizi kudretsiz bırakan bu düşünce yığını,
07:56
that temporarily give you that deer-in-headlights look.
184
476738
2722
beraberinde gelen far görmüş tavşan halleri.
07:59
XL: However, if you put the mouse in a completely different
185
479484
3267
XL: Tabii eğer fareyi önceki gibi tamamen farklı,
08:02
new box, like the next one,
186
482775
3137
yeni bir kutuya koyarsanız,
08:05
it will not be afraid of this box
187
485936
2123
bu kutudan korkmayacaktır,
çünkü bu yeni ortamda ona tehdit oluşturan bir unsur yok.
08:08
because there's no reason that it will be afraid of this new environment.
188
488083
4705
08:12
But what if we put the mouse in this new box
189
492812
3156
Peki ya fareyi bu yeni kutuya koysak,
08:15
but at the same time, we activate the fear memory
190
495992
3587
ama aynı zamanda, öncesinde yaptığımız gibi
08:19
using lasers just like we did before?
191
499603
2655
lazerleri kullanarak korku anısını yeniden canlandırsak nasıl olur?
08:22
Are we going to bring back the fear memory
192
502282
2830
Tamamen farklı olan bu yeni ortama,
ilk kutuda yaşanan korku anısını taşıyabilir miyiz?
08:25
for the first box into this completely new environment?
193
505136
3973
SR: Pekâlâ, buyrun sizlere milyon dolarlık deney.
08:29
SR: All right, and here's the million-dollar experiment.
194
509133
2711
08:31
Now to bring back to life the memory of that day,
195
511868
2889
O günün anılarını tekrardan hayata geçirecek olursam;
08:34
I remember that the Red Sox had just won,
196
514781
2159
Red Sox'ın kazandığını hatırlıyorum,
08:36
it was a green spring day,
197
516964
1885
yemyeşil bir bahar günüydü,
08:38
perfect for going up and down the river
198
518873
1858
nehir boyunca mekik dokunulacak
08:40
and then maybe going to the North End
199
520755
2245
ve belki de sonra North End'e
biraz cannoli tatlısı almaya gidilecek bir gündü.
08:43
to get some cannolis, #justsaying.
200
523024
2135
08:45
Now Xu and I, on the other hand,
201
525183
3078
Öte yandan Xu ve ben,
08:48
were in a completely windowless black room
202
528285
2806
tamamen penceresiz, kapkara bir odadaydık, gözümüzü kesinlikle oynatmıyor,
08:51
not making any ocular movement that even remotely resembles an eye blink
203
531115
3636
göz kırpmasını uzaktan yakından andıracak hiçbir hareket yapmıyorduk,
08:54
because our eyes were fixed onto a computer screen.
204
534775
2443
çünkü gözlerimiz bilgisayar ekranına kitlenmişti.
08:57
We were looking at this mouse here trying to activate a memory
205
537242
2953
Bu fareyi gözlemliyor, kendi tekniğimizi ilk defa kullanarak hafızasındaki anıyı
09:00
for the first time using our technique.
206
540219
1859
canlandırmaya çalışıyorduk.
09:02
XL: And this is what we saw.
207
542102
2243
XL: Şöyle bir durumla karşılaştık.
09:04
When we first put the mouse into this box,
208
544369
2178
Fareyi bu kutuya ilk koyduğumuzda,
09:06
it's exploring, sniffing around, walking around,
209
546571
3089
çevresini anlamaya çalışıyor, etrafı koklayıp geziyor,
09:09
minding its own business,
210
549684
1665
kendi halinde takılıyordu,
09:11
because actually by nature,
211
551373
1677
çünkü doğası gereği,
fareler gerçekten meraklı hayvandırlar.
09:13
mice are pretty curious animals.
212
553074
1955
Bu yeni kutunun içerisinde neler döndüğünü merak ediyorlar.
09:15
They want to know, what's going on in this new box?
213
555053
2598
09:17
It's interesting.
214
557675
1507
Gerçekten tuhaf.
09:19
But the moment we turned on the laser, like you see now,
215
559206
3427
Şu anda gördüğünüz gibi, lazeri açtığımız anda
09:22
all of a sudden the mouse entered this freezing mode.
216
562657
3008
fare birden donma moduna geçiverdi.
09:25
It stayed here and tried not to move any part of its body.
217
565689
4407
Öylece durdu ve kesinlikle kımıldamamaya çalıştı.
Gerçekten dondu.
09:30
Clearly it's freezing.
218
570120
1604
09:31
So indeed, it looks like we are able to bring back
219
571748
2559
Gerçekten de ilk kutuda yaşadığı korku anısını,
09:34
the fear memory for the first box
220
574331
2040
tamamen yeni bir çevreye taşımayı
09:36
in this completely new environment.
221
576395
3343
başarmışız gibi gözüküyor.
09:39
While watching this, Steve and I
222
579762
2088
Steve ile ben buna şahit olurken,
09:41
are as shocked as the mouse itself.
223
581874
2109
en az farenin kendisi kadar şoka girdik.
(Gülüşmeler)
09:44
(Laughter)
224
584007
1238
09:45
So after the experiment, the two of us just left the room
225
585269
3283
Deney sonrası, ikimiz de hiçbir şey söylemeden
09:48
without saying anything.
226
588576
1729
odayı terk ettik.
09:50
After a kind of long, awkward period of time,
227
590329
3372
Uzun süren tuhaf bir süre ardından,
09:53
Steve broke the silence.
228
593725
2188
Steve sessizliği bozdu.
09:55
SR: "Did that just work?"
229
595937
2317
SR: ''İşe yaradı mı yani?''
09:58
XL: "Yes," I said. "Indeed it worked!"
230
598278
2950
XL: ''Evet,'' dedim. ''Cidden işe yaradı!''
10:01
We're really excited about this.
231
601252
2093
Çok heyecanlanmıştık.
10:03
And then we published our findings
232
603369
2600
Sonrasında Nature dergisinde
10:05
in the journal Nature.
233
605993
1672
bulgularımızı yayınladık.
10:07
Ever since the publication of our work,
234
607689
2447
İşimizin yayımından bugüne,
internetin her bir köşesinden
10:10
we've been receiving numerous comments
235
610160
2391
10:12
from all over the Internet.
236
612575
2101
çeşitli yorumlar alıyoruz.
10:14
Maybe we can take a look at some of those.
237
614700
3726
Bazılarını inceleyelim.
10:18
["OMGGGGG FINALLY... so much more to come, virtual reality, neural manipulation, visual dream emulation... neural coding, 'writing and re-writing of memories', mental illnesses. Ahhh the future is awesome"]
238
618450
2433
[''OHAA SONUNDA... dahası gelecek, sanal gerçeklik, sinirsel manipülasyon, sanal rüya öykünmesi.. sinirsel kodlama, 'anı yazımı ve yeniden yazımı', sinir hastalıkları. Gelecek cidden mükemmel olacak.'']
10:20
SR: So the first thing that you'll notice is that people
239
620907
1976
SR: Muhtemelen ilk olarak, insanların bu tarz
10:22
have really strong opinions about this kind of work.
240
622907
2879
işler hakkında gerçekten güçlü fikirleri olduğunu fark edeceksiniz.
10:25
Now I happen to completely agree with the optimism
241
625810
2530
Bu ilk alıntının aktardığı olumlu etkiye
10:28
of this first quote,
242
628364
792
kesinlikle katılıyorum,
10:29
because on a scale of zero to Morgan Freeman's voice,
243
629180
2784
çünkü sıfır ile Morgan Freeman'ın sesi aralığında,
10:31
it happens to be one of the most evocative accolades
244
631988
2477
karşımıza çıkan en mükafatlandırıcı
çağrışımlardan biri bu.
10:34
that I've heard come our way.
245
634489
1526
(Gülüşmeler)
10:36
(Laughter)
246
636039
1794
10:37
But as you'll see, it's not the only opinion that's out there.
247
637857
1927
Ama şimdi göreceksiniz ki tek seçenek bu değil.
10:39
["This scares the hell out of me... What if they could do that easily in humans in a couple of years?! OH MY GOD WE'RE DOOMED"]
248
639808
1540
[''Böyle şeyler ödümü koparıyor. Birkaç yıl içerisinde insanlar üzerinde de bunu böyle kolayca yaparlarsa ya? TANRIM, HAPI YUTTUK!'']
10:41
XL: Indeed, if we take a look at the second one,
249
641372
2286
XL: Cidden ikinci yoruma bakacak olursak,
10:43
I think we can all agree that it's, meh,
250
643682
2083
hepimiz bunun olumlu bir düşünce olmadığı
10:45
probably not as positive.
251
645789
1959
konusunda uzlaşabiliriz.
10:47
But this also reminds us that,
252
647772
2161
Yine de bu yorum,
10:49
although we are still working with mice,
253
649957
2162
henüz fareler ile çalışıyor olmamıza rağmen,
hafıza kontrolünün muhtemel etik ikilemleri üzerine
10:52
it's probably a good idea to start thinking and discussing
254
652143
3493
10:55
about the possible ethical ramifications
255
655660
2967
düşünmeye ve tartışmaya
10:58
of memory control.
256
658651
1924
itiyor bizleri.
11:00
SR: Now, in the spirit of the third quote,
257
660599
2176
SR: Şimdi üçüncü alıntının etkisiyle,
11:02
we want to tell you about a recent project that we've been
258
662799
1950
son dönemde, laboratuvarda üzerine çalıştığımız Inception Projesi
11:04
working on in lab that we've called Project Inception.
259
664773
2572
olarak adlandırdığımız bir projeden bahsetmek istiyoruz.
11:07
["They should make a movie about this. Where they plant ideas into peoples minds, so they can control them for their own personal gain. We'll call it: Inception."]
260
667369
3219
[''Bunun hakkında bir film çekmeliler. İnsanların zihinlerine, kendi kazançları için kullanacakları fikir yerleştirdikleri bir film. Adı da Inception olsun.'']
11:10
So we reasoned that now that we can reactivate a memory,
261
670612
3542
Bir anıyı tekrardan canlandırabildiğimize göre,
bunu yapıp o anıyı kurcalarsak, değiştirirsek ne olur?
11:14
what if we do so but then begin to tinker with that memory?
262
674178
2928
Onu sahte bir anıya bile çevirebilir miyiz?
11:17
Could we possibly even turn it into a false memory?
263
677130
3009
XL: Anılar çok yönlü ve dinamiktirler,
11:20
XL: So all memory is sophisticated and dynamic,
264
680163
4075
11:24
but if just for simplicity, let's imagine memory
265
684262
2955
ama sadeleştirmek adına, anıyı film klibiymişçesine
11:27
as a movie clip.
266
687241
1378
hayal edelim.
11:28
So far what we've told you is basically we can control
267
688643
2646
Şu ana kadar sizlere, klipteki ''oynat'' tuşunu
11:31
this "play" button of the clip
268
691313
1907
kontrol edebileceğimizi anlattık,
11:33
so that we can play this video clip any time, anywhere.
269
693244
4561
böylece bu video klibi her zaman ve her yerde oynatabiliyoruz.
11:37
But is there a possibility that we can actually get
270
697829
2507
Peki ya gerçekten beynin içine girip,
11:40
inside the brain and edit this movie clip
271
700360
2836
bu film klibini düzenleyebilmemiz gerçekten mümkün mü,
11:43
so that we can make it different from the original?
272
703220
2872
aslından farklı bir şeye dönüştürebilir miyiz?
Evet, yapabiliriz.
11:46
Yes we can.
273
706116
2154
11:48
Turned out that all we need to do is basically
274
708294
2191
Gördük ki tek yapmamız gereken şey,
11:50
reactivate a memory using lasers just like we did before,
275
710509
4166
öncesinde yaptığımız gibi lazerleri kullanarak anıyı yeniden canlandırmak,
11:54
but at the same time, if we present new information
276
714699
3415
ama aynı zamanda, yeni bir bilgi ekler
ve bu yeni bilgiyi, eski anıya dahil etmesini sağlarsak
11:58
and allow this new information to incorporate into this old memory,
277
718138
3950
bu durum anıyı değiştirecektir.
12:02
this will change the memory.
278
722112
2414
12:04
It's sort of like making a remix tape.
279
724550
3639
Remiks kasetler hazırlamak gibi bir şey.
12:08
SR: So how do we do this?
280
728213
2834
SR: Bunu nasıl yapıyoruz?
Beyinde korku anısı bulmaktansa,
12:11
Rather than finding a fear memory in the brain,
281
731071
1933
hayvanlarımızı alıp
12:13
we can start by taking our animals,
282
733028
1692
12:14
and let's say we put them in a blue box like this blue box here
283
734744
2953
onları, örneğin buradaki mavi kutu gibi bir kutunun içine koyduk
12:17
and we find the brain cells that represent that blue box
284
737721
2623
ve mavi kutuyu temsil eden beyin hücrelerini buluyoruz
ve ışık demetine tepki gösterecek şekilde onları kandırıyoruz,
12:20
and we trick them to respond to pulses of light
285
740368
2239
12:22
exactly like we had said before.
286
742631
1710
tıpkı öncesinde söylediğimiz gibi.
12:24
Now the next day, we can take our animals and place them
287
744365
2100
Sonraki gün, hayvanlarımızı alıp
12:26
in a red box that they've never experienced before.
288
746489
2675
daha önce hiç bulunmadıkları kırmızı bir kutunun içine yerleştiriyoruz.
12:29
We can shoot light into the brain to reactivate
289
749188
2239
Mavi kutunun anısını hatırlatmak için
12:31
the memory of the blue box.
290
751451
1848
beyne ışın yolluyoruz.
12:33
So what would happen here if, while the animal
291
753323
1720
Hayvan mavi kutunun anısını hatırlarken,
12:35
is recalling the memory of the blue box,
292
755067
1905
ona hafif ayak şokları
12:36
we gave it a couple of mild foot shocks?
293
756996
2584
uygularsak ne olur?
12:39
So here we're trying to artificially make an association
294
759604
2669
Burada, mavi kutunun anısı ile
12:42
between the memory of the blue box
295
762297
1891
ayak şoku arasında suni bir
12:44
and the foot shocks themselves.
296
764212
1479
bağlantı kurmaya çalışıyoruz.
12:45
We're just trying to connect the two.
297
765715
1762
Bu ikisini birleştirmeye çalışıyoruz.
12:47
So to test if we had done so,
298
767501
1512
Yapıp yapamadığımızı görmek için
hayvanımızı tekrardan alıp
12:49
we can take our animals once again
299
769037
1304
12:50
and place them back in the blue box.
300
770365
1922
mavi kutunun içerisine yerleştiriyoruz.
12:52
Again, we had just reactivated the memory of the blue box
301
772311
2715
Tekrardan, mavi kutunun anısını yeniden canlandırdık
ve bu sırada hafif bir ayak şoku verildi
12:55
while the animal got a couple of mild foot shocks,
302
775050
2381
12:57
and now the animal suddenly freezes.
303
777455
2107
ve hayvan birden dondu.
12:59
It's as though it's recalling being mildly shocked in this environment
304
779586
3334
Sanki daha önce burada hafif bir şekilde elektrik çarpmış gibi hissediyor,
13:02
even though that never actually happened.
305
782944
2822
ama aslında böyle bir şey yaşanmadı.
13:05
So it formed a false memory,
306
785790
1838
Böylece sahte bir anı oluşturuldu,
13:07
because it's falsely fearing an environment
307
787652
2048
çünkü teknik olarak kötü hiçbir şeyin
13:09
where, technically speaking,
308
789724
1334
yaşanmadığı bir yerde,
yanlış noktada korku duydu.
13:11
nothing bad actually happened to it.
309
791082
2160
13:13
XL: So, so far we are only talking about
310
793266
2429
XL: Pekâlâ, şu ana değin yalnızca
13:15
this light-controlled "on" switch.
311
795719
2342
ışık kontrollü açma tuşundan bahsettik.
Aslında, ışık kontrollü kapama tuşuna da sahibiz
13:18
In fact, we also have a light-controlled "off" switch,
312
798085
3264
13:21
and it's very easy to imagine that
313
801373
2056
ve ışık kontrollü kapama tuşunu kurarak
13:23
by installing this light-controlled "off" switch,
314
803453
2454
bir anıyı, istediğimiz yerde ve zamanda
13:25
we can also turn off a memory, any time, anywhere.
315
805931
5564
kapatabileceğimizi düşünebilmek de çok zor olmasa gerek.
13:31
So everything we've been talking about today
316
811519
2190
Bugün üzerine konuştuğumuz her şey,
13:33
is based on this philosophically charged principle of neuroscience
317
813733
4653
nörolojinin felsefi yönlü prensibine dayanıyor, ki bunda da zihin
13:38
that the mind, with its seemingly mysterious properties,
318
818410
4094
aşikar gizemli özellikleri ile,
13:42
is actually made of physical stuff that we can tinker with.
319
822528
3621
aslında bizlerin üzerinde oynama yapabileceği maddesel şeylerden oluşur.
SR: Şahsen ben,
13:46
SR: And for me personally,
320
826173
1451
13:47
I see a world where we can reactivate
321
827648
1762
istediğimiz her türlü anıyı yeniden
13:49
any kind of memory that we'd like.
322
829434
1887
canlandırabileceğimiz bir dünya görüyorum.
13:51
I also see a world where we can erase unwanted memories.
323
831345
3274
İstemediğimiz anılardan kurtulabileceğimiz bir dünya da olacak bu.
13:54
Now, I even see a world where editing memories
324
834643
2143
Şu anda bile, anı düzenlemesi yapmanın gerçekliğin
13:56
is something of a reality,
325
836810
1284
bir parçası olduğu bir dünya görüyorum,
13:58
because we're living in a time where it's possible
326
838118
1681
çünkü bizler,
13:59
to pluck questions from the tree of science fiction
327
839823
2429
bilim kurgu ağacından sorular toplayıp onları deneysel
14:02
and to ground them in experimental reality.
328
842276
2168
gerçekliğe yatırabildiğimiz bir zamanda yaşıyoruz.
14:04
XL: Nowadays, people in the lab
329
844468
1859
XL: Artık laboratuvarda insanlar
14:06
and people in other groups all over the world
330
846351
2362
ve dünyadanın farklı yerlerindeki insanlar
14:08
are using similar methods to activate or edit memories,
331
848737
3793
anıları canlandırmak ve düzenlemek için benzer yöntemler kullanıyorlar,
14:12
whether that's old or new, positive or negative,
332
852554
3817
yeni veya eski, olumlu veya olumsuz
14:16
all sorts of memories so that we can understand
333
856395
2648
hafızanın nasıl işlediğini anlamamız için
her türden anılar.
14:19
how memory works.
334
859067
1840
14:20
SR: For example, one group in our lab
335
860931
1760
SR: Mesela, laboratuvarımızdaki bir grup
14:22
was able to find the brain cells that make up a fear memory
336
862715
2614
korku anısını oluşturan beyin hücrelerini buldular
14:25
and converted them into a pleasurable memory, just like that.
337
865353
2751
ve onları hoş anılara dönüştürdüler, işte böyle.
Bu tarz süreçleri düzenlemek derken tam olarak bunu kastediyordum.
14:28
That's exactly what I mean about editing these kinds of processes.
338
868128
3143
14:31
Now one dude in lab was even able to reactivate
339
871295
2239
Hatta laboratuvardaki bir eleman,
erkek faredeki dişi fare anıları yeniden canlandırabilmiş,
14:33
memories of female mice in male mice,
340
873558
1921
14:35
which rumor has it is a pleasurable experience.
341
875503
2971
hatta diyorlar ki zevkli bir deneyime dönüştürmüş.
XL: Kesinlikle, bilimin herhangi keyfi hız limitleri olmadığı,
14:38
XL: Indeed, we are living in a very exciting moment
342
878498
4093
14:42
where science doesn't have any arbitrary speed limits
343
882615
3781
çok heyecan verici bir dönemde yaşıyoruz,
14:46
but is only bound by our own imagination.
344
886420
3163
yalnızca bizlerin hayal gücüne bağlı kalıyor.
14:49
SR: And finally, what do we make of all this?
345
889607
2143
SR: Sonuç olarak bütün bunlardan ne çıkarıyoruz?
14:51
How do we push this technology forward?
346
891774
1927
Bu teknolojiyi daha ileri nasıl taşırız?
14:53
These are the questions that should not remain
347
893725
2191
Bu sorular, yalnızca laboratuvar ile
14:55
just inside the lab,
348
895940
1273
sınırlı kalmamalı,
14:57
and so one goal of today's talk was to bring everybody
349
897237
2572
bugünkü konuşmanın bir amacı da,
14:59
up to speed with the kind of stuff that's possible
350
899833
2381
herkesi modern nörobilimde mümkün olan şeyler ile
harekete geçirmekti,
15:02
in modern neuroscience,
351
902238
1250
15:03
but now, just as importantly,
352
903512
1486
ama şimdi, bir o kadar da,
herkesi bu iletişim ağına davet etmek istiyoruz.
15:05
to actively engage everybody in this conversation.
353
905022
3308
15:08
So let's think together as a team about what this all means
354
908354
2762
Hep beraber bir takım olarak, bütün bunların
ne anlama geldiğini ve buradan nereye erişebileceğimizi düşünelim,
15:11
and where we can and should go from here,
355
911140
1993
15:13
because Xu and I think we all have
356
913157
2074
çünkü Xu ve ben, her birimizin önünde
15:15
some really big decisions ahead of us.
357
915255
2512
alacağımız büyük kararlar olduğunu düşünüyoruz.
15:17
Thank you. XL: Thank you.
358
917791
1101
Teşekkürler. XL: Teşekkürler.
15:18
(Applause)
359
918916
1634
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7