Gero Miesenboeck reengineers a brain

Gero Miesenboeck beyni yeniden şekillendiriyor

52,048 views ・ 2010-11-05

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Alican Erdogan Gözden geçirme: Sancak Gülgen
00:15
I have a doppelganger.
0
15260
3000
Benim bir ikizim var.
00:18
(Laughter)
1
18260
3000
(Gülüşmeler)
00:21
Dr. Gero is a brilliant
2
21260
3000
Dr. Gero, Dragonball Z "Android Öyküsü"nde
00:24
but slightly mad scientist
3
24260
2000
zeki fakat
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
biraz çılgın bir bilim insanıdır.
00:29
If you look very carefully,
5
29260
2000
Dikkatle bakarsanız,
00:31
you see that his skull has been replaced
6
31260
3000
beyninin çalışmasını gözlemlemek
00:34
with a transparent Plexiglas dome
7
34260
2000
ve onu ışıkla kontrol etmek
00:36
so that the workings of his brain can be observed
8
36260
3000
için kafatasının pleksiglas bir
00:39
and also controlled with light.
9
39260
3000
kubbeyle değiştirildiğini görürsünüz.
00:42
That's exactly what I do --
10
42260
2000
İşte bu tam da benim yaptığım şey -
00:44
optical mind control.
11
44260
2000
optik zihin kontrolü.
00:46
(Laughter)
12
46260
2000
(Gülüşmeler)
00:48
But in contrast to my evil twin
13
48260
2000
Fakat dünyaya hükmetmeyi arzulayan
00:50
who lusts after world domination,
14
50260
3000
kötü ikizime karşın,
00:53
my motives are not sinister.
15
53260
3000
benim amacım fesatlık değil.
00:56
I control the brain
16
56260
2000
Ben beynin nasıl çalıştığını
00:58
in order to understand how it works.
17
58260
2000
anlamak için kontrol ediyorum.
01:00
Now wait a minute, you may say,
18
60260
2000
Şimdi diyebilirsiniz ki, bir dur bakalım
01:02
how can you go straight to controlling the brain
19
62260
3000
beyni anlamadan hemen nasıl
01:05
without understanding it first?
20
65260
2000
kontrol etmeye kalkışırsın ?
01:07
Isn't that putting the cart before the horse?
21
67260
3000
Bu, faytonu atın önüne koymak gibi olmuyor mu ?
01:11
Many neuroscientists agree with this view
22
71260
3000
Pek çok sinirbilimci bu görüşe katılıyor
01:14
and think that understanding will come
23
74260
3000
ve anlamanın daha detaylı gözlem
01:17
from more detailed observation and analysis.
24
77260
3000
ve analizden geleceğini düşünüyor.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
Diyorlar ki, "Eğer tüm sinir hücrelerimizin faaliyetlerini
01:24
we would understand the brain."
26
84260
3000
kaydedebilirsek, beyni anlayabiliriz."
01:27
But think for a moment what that means.
27
87260
3000
Fakat bunun ne anlama geldiğini bir an için düşünün.
01:30
Even if we could measure
28
90260
2000
Her bir hücrenin ne yaptığını
01:32
what every cell is doing at all times,
29
92260
2000
ölçebilsek bile,
01:34
we would still have to make sense
30
94260
2000
kaydedilmiş faaliyet şekillerini
01:36
of the recorded activity patterns,
31
96260
2000
anlamlı hale çevirmek zorundayız ki,
01:38
and that's so difficult,
32
98260
2000
bu da çok zor, bir ihtimal
01:40
chances are we'll understand these patterns
33
100260
2000
bu şekilleri, onları oluşturan beyinler kadar
01:42
just as little as the brains that produce them.
34
102260
3000
az anlayacağız.
01:45
Take a look at what brain activity might look like.
35
105260
3000
Beyin faaliyetinin nasıl göründüğüne bir bakın.
01:48
In this simulation, each black dot
36
108260
2000
Bu simülasyonda, her siyah nokta
01:50
is one nerve cell.
37
110260
2000
bir sinir hücresi.
01:52
The dot is visible
38
112260
2000
Her bir hücre bir elektriksel impuls ürettiğinde,
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
nokta şeklinde görünüyor.
01:56
There's 10,000 neurons here.
40
116260
2000
Burada 10.000 sinir hücresi var.
01:58
So you're looking at roughly one percent
41
118260
2000
Yani, bir hamamböceğinin beyninin
02:00
of the brain of a cockroach.
42
120260
3000
kabaca yüzde birlik kısmına bakıyorsunuz.
02:04
Your brains are about 100 million times
43
124260
3000
Sizin beyinleriniz 100 milyon kat
02:07
more complicated.
44
127260
2000
daha karmaşık.
02:09
Somewhere, in a pattern like this,
45
129260
2000
Bir yerlerde, böyle bir şekilde,
02:11
is you,
46
131260
2000
siz,
02:13
your perceptions,
47
133260
2000
sizin algılarınız,
02:15
your emotions, your memories,
48
135260
3000
duygularınız, hatıralarınız,
02:18
your plans for the future.
49
138260
2000
gelecekteki planlarınız var.
02:20
But we don't know where,
50
140260
2000
Fakat nerede olduğunu bilmiyoruz,
02:22
since we don't know how to read the pattern.
51
142260
3000
çünkü bu şekli nasıl okuyacağımızı bilmiyoruz.
02:25
We don't understand the code used by the brain.
52
145260
3000
Beynin kullandığı şifreyi anlamıyoruz.
02:28
To make progress,
53
148260
2000
İlerleme kaydetmek için,
02:30
we need to break the code.
54
150260
2000
bu şifreyi kırmamız gerek.
02:32
But how?
55
152260
2000
Fakat nasıl ?
02:35
An experienced code-breaker will tell you
56
155260
2000
Deneyimli bir şifre kırıcı size diyecektir ki,
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
bir şifredeki sembolleri anlamak için
02:40
it's essential to be able to play with them,
58
160260
3000
onlarla oynayabilmek ve onları bilinçli bir şekilde
02:43
to rearrange them at will.
59
163260
2000
yeniden düzenlemek gerekir.
02:45
So in this situation too,
60
165260
2000
Yani bu durumda da,
02:47
to decode the information
61
167260
2000
böyle bir şekildeki bilgiyi
02:49
contained in patterns like this,
62
169260
2000
çözmek için,
02:51
watching alone won't do.
63
171260
2000
sadece izlemek yeterli değil;
02:53
We need to rearrange the pattern.
64
173260
2000
bu şekli yeniden düzenlememiz gerekiyor.
02:55
In other words,
65
175260
2000
Başka bir deyişle,
02:57
instead of recording the activity of neurons,
66
177260
2000
sinir hücrelerinin faaliyetini kaydetmek yerine,
02:59
we need to control it.
67
179260
2000
onu kontrol etmemiz gerekiyor.
03:01
It's not essential that we can control
68
181260
2000
Beyindeki tüm sinir hücrelerinin faaliyetini kontrol
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
etmemiz zorunlu değil, sadece birkaçı.
03:06
The more targeted our interventions, the better.
70
186260
2000
Müdahalemiz ne kadar hedefe yönelik olursa, o kadar iyi.
03:08
And I'll show you in a moment
71
188260
2000
Ve birazdan size, gerekli keskinliği
03:10
how we can achieve the necessary precision.
72
190260
3000
nasıl başarabileceğimizi göstereceğim.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
Ve tantana yapmak yerine gerçekçi olduğum için,
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
sinir sisteminin işlevini kontrol etme olanağının,
03:19
will at once unravel all its mysteries.
75
199260
3000
tüm gizemi çözeceğini iddia etmiyorum.
03:22
But we'll certainly learn a lot.
76
202260
3000
Fakat kesinlikle çok şey öğreneceğiz.
03:27
Now, I'm by no means
77
207260
2000
Ben hiç bir şekilde, müdahalenin ne kadar güçlü
03:29
the first person to realize
78
209260
2000
bir araç olduğunu farkeden
03:31
how powerful a tool intervention is.
79
211260
3000
ilk insan değilim.
03:34
The history of attempts
80
214260
2000
Sinir sisteminin işleviyle oynamak için
03:36
to tinker with the function of the nervous system
81
216260
2000
yapılan girişimlerin geçmişi
03:38
is long and illustrious.
82
218260
2000
uzun ve meşhurdur.
03:40
It dates back at least 200 years,
83
220260
3000
En azından 200 seneye,
03:43
to Galvani's famous experiments
84
223260
2000
Galvani'nin 18. yüzyıl sonlarındaki ünlü deneylerine
03:45
in the late 18th century and beyond.
85
225260
3000
ve daha ötesine kadar gider.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
Galvani, bir kurbağanın belindeki siniri
03:52
when he connected the lumbar nerve
87
232260
2000
bir elektrik akım kaynağına bağladığında
03:54
to a source of electrical current.
88
234260
3000
bacağının seğirdiğini gösterdi.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
Bu deney, sinirsel şifrenin ilk ve muhtemelen en temel
04:00
nugget of the neural code:
90
240260
2000
parçasını ortaya koydu :
04:02
that information is written in the form
91
242260
2000
bilgi elektriksel impulslar
04:04
of electrical impulses.
92
244260
3000
halinde yazılıyor.
04:08
Galvani's approach
93
248260
2000
Galvani'nin sinir sistemini elektrotlarla araştırma
04:10
of probing the nervous system with electrodes
94
250260
2000
yaklaşımı, pek çok engele rağmen
04:12
has remained state-of-the-art until today,
95
252260
3000
günümüze kadar
04:15
despite a number of drawbacks.
96
255260
3000
son teknoloji olarak kaldı.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
Beyne kablolar yerleştirmek açıkçası biraz ilkel.
04:21
It's hard to do in animals that run around,
98
261260
2000
Bunu etrafta dolanan hayvanlarda uygulamak zor,
04:23
and there is a physical limit
99
263260
2000
ve aynı anda yerleştirilebilecek
04:25
to the number of wires
100
265260
2000
kabloların sayısı için
04:27
that can be inserted simultaneously.
101
267260
3000
fiziksel bir sınır mevcut.
04:30
So around the turn of the last century,
102
270260
2000
Böylece son yüzyılın
04:32
I started to think,
103
272260
2000
bu mantığı alıp, baş aşağı etmek
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
mükemmel olmaz mıydı,
04:37
and turn it upside down?"
105
277260
2000
diye düşünmeye başladım.
04:39
So instead of inserting a wire
106
279260
2000
Yani beyindeki bir noktaya
04:41
into one spot of the brain,
107
281260
3000
bir kablo yerleştirmek yerine,
04:44
re-engineer the brain itself
108
284260
2000
beynin kendisini yeniden yapılandırırız,
04:46
so that some of its neural elements
109
286260
3000
böylece sinirsel unsurlarından bazıları
04:49
become responsive to diffusely broadcast signals
110
289260
3000
yayılan sinyallere - mesela ani bir ışık gibi -
04:52
such as a flash of light.
111
292260
3000
duyarlı hale gelir.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
Böyle bir yaklaşım kelimenin tam anlamıyla, "bir ışık gibi"
04:58
overcome many of the obstacles to discovery.
113
298260
3000
keşfin önündeki engellerin üstesinden gelecektir.
05:01
First, it's clearly a non-invasive,
114
301260
3000
Öncelikle, şüphesiz ki bu zararsız
05:04
wireless form of communication.
115
304260
3000
bir kablosuz iletişim şeklidir.
05:07
And second, just as in a radio broadcast,
116
307260
2000
İkincisi, tıpkı bir radyo yayınında olduğu gibi,
05:09
you can communicate with many receivers at once.
117
309260
3000
pek çok alıcı ile aynı anda iletişim kurabilirsiniz.
05:12
You don't need to know where these receivers are,
118
312260
3000
Bu alıcıların nerede olduklarını bilmenize gerek yok.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
Ve -arabanızdaki teybi düşünürseniz-
05:17
just think of the stereo in your car.
120
317260
3000
bu alıcıların hareket halinde olması da önemli değil.
05:20
It gets even better,
121
320260
3000
Hatta bu alıcıları DNA'da şifrelenmiş
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
malzemelerden üretebilirsek,
05:26
out of materials that are encoded in DNA.
123
326260
3000
çok daha iyi olur.
05:29
So each nerve cell
124
329260
2000
Böylece doğru genetik değişikliğe uğramış
05:31
with the right genetic makeup
125
331260
2000
her sinir hücresi
05:33
will spontaneously produce a receiver
126
333260
3000
işlevini kontrol edebileceğimiz
05:36
that allows us to control its function.
127
336260
3000
bir alıcıyı kendiliğinden üretecek.
05:39
I hope you'll appreciate
128
339260
2000
Umarım bu kavramın
05:41
the beautiful simplicity
129
341260
2000
mükemmel basitliğini
05:43
of this concept.
130
343260
2000
takdir edersiniz.
05:45
There's no high-tech gizmos here,
131
345260
2000
Burada yüksek teknoloji ürünü aletler yok,
05:47
just biology revealed through biology.
132
347260
3000
sadece biyolojiyle açığa çıkarılan biyoloji var.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
Şimdi bu mucizevi alıcılara yakından bir bakalım.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
Şu mor sinirlere yakınlaştıkça
05:57
we see that its outer membrane
135
357260
2000
dış zarlarının mikroskopik porlarla
05:59
is studded with microscopic pores.
136
359260
2000
kaplı olduğunu görüyoruz.
06:01
Pores like these conduct electrical current
137
361260
2000
Bunun gibi porlar elektrik akımı iletirler
06:03
and are responsible
138
363260
2000
ve sinir sisteminde tüm iletişimden
06:05
for all the communication in the nervous system.
139
365260
2000
sorumludurlar.
06:07
But these pores here are special.
140
367260
2000
Fakat buradaki porlar özel.
06:09
They are coupled to light receptors
141
369260
2000
Gözlerinizdekilere benzer şekilde
06:11
similar to the ones in your eyes.
142
371260
3000
ışık alıcılarıyla bağlantılı haldeler.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
Işığın alıcıya her çarpışında,
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
por açılır, elektrik akımı oluşur
06:19
and the neuron fires electrical impulses.
145
379260
3000
ve sinir elektriksel impulslar saçar.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
Işıkla etkinleşen por DNA'da şifrelendiği için,
06:25
we can achieve incredible precision.
147
385260
3000
olağanüstü bir hassasiyete ulaşabiliyoruz.
06:28
This is because,
148
388260
2000
Çünkü vücudumuzdaki her hücrenin
06:30
although each cell in our bodies
149
390260
2000
aynı gen dizisine sahip
06:32
contains the same set of genes,
150
392260
2000
olmasına rağmen,
06:34
different mixes of genes get turned on and off
151
394260
2000
farklı hücrelerde farklı gen karışımları
06:36
in different cells.
152
396260
2000
açılır veya kapanır.
06:38
You can exploit this to make sure
153
398260
2000
Bundan sadece bazı sinirlerin
06:40
that only some neurons
154
400260
2000
bizim ışıkla etkin hale geçen porlarımıza
06:42
contain our light-activated pore and others don't.
155
402260
3000
sahip olmasını sağlayarak faydalanabiliriz.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
Mesela bu animasyonda, üst sağ köşedeki
06:47
in the upper-left corner
157
407260
2000
mavimsi beyaz hücre
06:49
does not respond to light
158
409260
2000
ışığa tepki göstermiyor
06:51
because it lacks the light-activated pore.
159
411260
3000
çünkü ışıkla etkinleşen pora sahip değil.
06:54
The approach works so well
160
414260
2000
Bu yaklaşım o kadar iyi işliyor ki
06:56
that we can write purely artificial messages
161
416260
2000
beyne direkt olarak tamamen
06:58
directly to the brain.
162
418260
2000
yapay mesajlar yazabiliyoruz.
07:00
In this example, each electrical impulse,
163
420260
2000
Bu örnekte, her elektriksel impuls,
07:02
each deflection on the trace,
164
422260
3000
izlerdeki her sapma,
07:05
is caused by a brief pulse of light.
165
425260
3000
kısa süreli bir ışık çarpması sonucu oluşuyor.
07:08
And the approach, of course, also works
166
428260
2000
Bu yaklaşım aynı zamanda hareket eden,
07:10
in moving, behaving animals.
167
430260
3000
davranış gösteren hayvanlarda da işliyor.
07:13
This is the first ever such experiment,
168
433260
2000
Bu türünün ilk deneyi,
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
tıpkı Galvani deneyinin optik eşdeğeri gibi.
07:18
It was done six or seven years ago
170
438260
2000
O zamanki lisansüstü öğrencim Susana Lima
07:20
by my then graduate student, Susana Lima.
171
440260
3000
tarafından altı-yedi yıl önce yapıldı.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
Susana soldaki meyve sineğini yapılandırdı,
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
böylece beynindeki 200.000 hücreden sadece ikisi
07:30
expressed the light-activated pore.
174
450260
3000
bu ışıkla etkinleşen poru sentezledi.
07:33
You're familiar with these cells
175
453260
2000
Bu hücreleri aslında tanıyorsunuz,
07:35
because they are the ones that frustrate you
176
455260
2000
çünkü sineğe vurmaya çalıştığınızda
07:37
when you try to swat the fly.
177
457260
2000
sizi yıldıranlar onlar.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
Sineğin havaya sıçramasını ve eliniz uygun konumdayken
07:42
and fly away whenever you move your hand in position.
179
462260
3000
uçmasını sağlayan kaçış refleksini mümkün kılarlar.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
Buradan da görebildiğiniz gibi ani ışık tam olarak aynı etkiyi yaratıyor.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
Hayvan zıplıyor, kanatlarını açıyor, onları titreştiriyor,
07:52
but it can't actually take off
182
472260
2000
ama havalanamıyor çünkü
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
iki cam levha arasında kısılmış durumda.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
Şimdi bunun görebildiği ani ışığa tepki olmadığından
08:00
to a flash it could see,
185
480260
3000
emin olmak için
08:03
Susana did a simple
186
483260
2000
Susana basit ama
08:05
but brutally effective experiment.
187
485260
2000
vahşice etkin bir deney yapıyor.
08:07
She cut the heads off of her flies.
188
487260
3000
Sineklerin başlarını kesiyor.
08:11
These headless bodies can live for about a day,
189
491260
3000
Bu başsız vücutlar bir gün kadar yaşayabiliyor,
08:14
but they don't do much.
190
494260
2000
fakat fazla birşey yapmıyorlar.
08:16
They just stand around
191
496260
3000
Sadece öyle durup lüzumsuz yere
08:19
and groom excessively.
192
499260
3000
kendilerine çeki düzen veriyorlar.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
Görünüşe göre kafasının ayrılmasından geriye kalan
08:25
(Laughter)
194
505260
3000
tek şey gösteriş. (Gülüşmeler)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
Her neyse, birazdan göreceğiniz gibi
08:32
Susana was able to turn on the flight motor
196
512260
3000
Susana bu sineklerin omuriliklerindeki
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
uçuş motoruna eşdeğer kısmı uyarıyor
08:38
and get some of the headless bodies
198
518260
2000
ve birkaç kafasız vücudun gerçekten
08:40
to actually take off and fly away.
199
520260
3000
havalanıp uçmasını sağlıyor.
08:47
They didn't get very far, obviously.
200
527260
2000
Fazla uzağa gidemiyorlar, doğal olarak.
08:50
Since we took these first steps,
201
530260
2000
Bu ilk adımları attığımızdan beri
08:52
the field of optogenetics has exploded.
202
532260
3000
optogenetik alanı patlama yaptı.
08:55
And there are now hundreds of labs
203
535260
2000
Şu anda yüzlerce laboratuvar
08:57
using these approaches.
204
537260
2000
bu yaklaşımları kullanıyor.
08:59
And we've come a long way
205
539260
2000
Ve Galvani ile Susana'nın ilk başarılarından
09:01
since Galvani's and Susana's first successes
206
541260
3000
bu yana hayvanları seğirtip sıçratmakta
09:04
in making animals twitch or jump.
207
544260
2000
epey yol aldık.
09:06
We can now actually interfere with their psychology
208
546260
3000
Artık oldukça derin yollarla
09:09
in rather profound ways,
209
549260
2000
gerçekten psikolojilerine müdahale edebiliyoruz,
09:11
as I'll show you in my last example,
210
551260
2000
tanıdık bir soruya yönelik
09:13
which is directed at a familiar question.
211
553260
3000
son örneğimde de göstereceğim gibi.
09:16
Life is a string of choices
212
556260
3000
Yaşam bir kararlar dizisidir, sırada ne yapmamız
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
gerektiğine karar vermemiz için sürekli baskı uygular.
09:23
We cope with this pressure by having brains,
214
563260
3000
Beyinlerimizle bu baskının üstesinden geliriz
09:26
and within our brains, decision-making centers
215
566260
3000
ve beyinlerimizde, karar verme merkezleri var
09:29
that I've called here the "Actor."
216
569260
3000
ki ben onlara "Oyuncu" diyorum.
09:33
The Actor implements a policy that takes into account
217
573260
3000
Oyuncu çevrenin durumunu
09:36
the state of the environment
218
576260
2000
ve bizim çalıştığımız şartları
09:38
and the context in which we operate.
219
578260
3000
göz önünde bulunduran bir tedbir uyguluyor.
09:41
Our actions change the environment, or context,
220
581260
3000
Eylemlerimiz çevreyi, veya şartları değiştiriyor
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
ve bu değişiklikler sonradan karar döngüsüne katılıyor.
09:48
Now to put some neurobiological meat
222
588260
3000
Şimdi soyut modelimize
09:51
on this abstract model,
223
591260
2000
nörobiyolojik bir tat katmak için
09:53
we constructed a simple one-dimensional world
224
593260
2000
gözde deneğimiz olan meyve sineklerine
09:55
for our favorite subject, fruit flies.
225
595260
3000
basit tek boyutlu bir dünya oluşturuyoruz.
09:58
Each chamber in these two vertical stacks
226
598260
2000
Bu iki dikey raftaki her odacıkta
10:00
contains one fly.
227
600260
2000
bir sinek var.
10:02
The left and the right halves of the chamber
228
602260
3000
Odanın sol ve sağ yarısı
10:05
are filled with two different odors,
229
605260
2000
iki farklı kokuyla dolu
10:07
and a security camera watches
230
607260
2000
ve sinekler ikisi arasında gidip gelirken
10:09
as the flies pace up and down between them.
231
609260
3000
bir kamera onları izliyor.
10:12
Here's some such CCTV footage.
232
612260
2000
İşte bu kamera çekimlerinin bir kısmı.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
Bir sinek iki koku akımının kesiştiği
10:17
where the two odor streams meet,
234
617260
2000
odanın orta noktasına geldiği zaman
10:19
it has to make a decision.
235
619260
2000
bir karar vermek zorunda.
10:21
It has to decide whether to turn around
236
621260
2000
Geri dönüp
10:23
and stay in the same odor,
237
623260
2000
aynı kokuda kalmak,
10:25
or whether to cross the midline
238
625260
2000
veya orta hattı geçip
10:27
and try something new.
239
627260
2000
yeni birşey denemek için karar vermeli.
10:29
These decisions are clearly a reflection
240
629260
3000
Bu kararlar apaçık Oyuncu'nun
10:32
of the Actor's policy.
241
632260
3000
hareket biçimininin bir yansıması.
10:36
Now for an intelligent being like our fly,
242
636260
3000
Şimdi bizim sineğimiz gibi akıllı bir canlı için
10:39
this policy is not written in stone
243
639260
3000
bu hareket biçimi kayaya yazılmış değil de,
10:42
but rather changes as the animal learns from experience.
244
642260
3000
hayvanın deneyimden öğrendiği değişikliklerdir.
10:45
We can incorporate such an element
245
645260
2000
Modelimize sinek beyninde
10:47
of adaptive intelligence into our model
246
647260
3000
sadece Oyuncu değil
10:50
by assuming that the fly's brain
247
650260
2000
aynı zamanda Oyuncu'nun seçimlerine
10:52
contains not only an Actor,
248
652260
2000
yorumda bulunan farklı bir grup
10:54
but a different group of cells,
249
654260
2000
hücrenin, bir Eleştirmen'in varolduğunu farzedererek
10:56
a "Critic," that provides a running commentary
250
656260
3000
bu gibi adaptif bir zeka unsurunu
10:59
on the Actor's choices.
251
659260
2000
modelimize ekleyebiliriz.
11:01
You can think of this nagging inner voice
252
661260
3000
Sürekli dırdır eden bir iç sesin
11:04
as sort of the brain's equivalent
253
664260
2000
beyindeki karşılığı olarak düşünebilirsiniz bunu;
11:06
of the Catholic Church,
254
666260
2000
mesela Katolik Kilisesi
11:08
if you're an Austrian like me,
255
668260
3000
eğer benim gibi bir Avusturyalı iseniz,
11:11
or the super-ego, if you're Freudian,
256
671260
3000
veya üst benlik, eğer Freudyen iseniz,
11:14
or your mother, if you're Jewish.
257
674260
2000
veya anneniz, eğer Yahudi iseniz.
11:16
(Laughter)
258
676260
4000
(Gülüşmeler)
11:20
Now obviously,
259
680260
2000
Şimdi açık olarak,
11:22
the Critic is a key ingredient
260
682260
3000
eleştirmen bizi akıllı kılan
11:25
in what makes us intelligent.
261
685260
2000
anahtar bir bileşen.
11:27
So we set out to identify
262
687260
2000
Bu yüzden sineğin beynindeki
11:29
the cells in the fly's brain
263
689260
2000
Eleştirmen rolünü oynayan hücreleri
11:31
that played the role of the Critic.
264
691260
2000
belirlemek için yola çıktık.
11:33
And the logic of our experiment was simple.
265
693260
3000
Ve deneyimizin mantığı çok basitti.
11:36
We thought if we could use our optical remote control
266
696260
3000
Düşündük ki eğer optik uzaktan kumandamızı
11:39
to activate the cells of the Critic,
267
699260
3000
Eleştirmen'in hücrelerini etkinleşirmek için kullanabiliyorsak,
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
yapay olarak Oyuncu'yu da davranış
11:45
into changing its policy.
269
705260
2000
biçimini değiştirmeye zorlayabilmemiz lazım.
11:47
In other words,
270
707260
2000
Başka bir deyişle,
11:49
the fly should learn from mistakes
271
709260
2000
sinek yaptığını düşündüğü
11:51
that it thought it had made
272
711260
2000
ama gerçekte yapmadığı
11:53
but, in reality, it had not made.
273
713260
3000
hatalarından ders almalı.
11:56
So we bred flies
274
716260
2000
Böylece beyinleri az çok rastgele
11:58
whose brains were more or less randomly peppered
275
718260
3000
ışık gönderilebilen hücreler serpiştirilmiş
12:01
with cells that were light addressable.
276
721260
2000
sinekler yetiştirdik.
12:03
And then we took these flies
277
723260
2000
Ve sonra bu sinekleri alıp
12:05
and allowed them to make choices.
278
725260
2000
onların seçim yapmalarını sağladık.
12:07
And whenever they made one of the two choices,
279
727260
2000
Ve ne zaman iki seçenekten birini tercih etseler,
12:09
chose one odor,
280
729260
2000
bir kokuyu tercih etseler,
12:11
in this case the blue one over the orange one,
281
731260
2000
bu durumda mavi olanı turuncu olana;
12:13
we switched on the lights.
282
733260
2000
o zaman ışıkları açtık.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
Eğer eleştirmen optik olarak etkinleşen hücreler arasındaysa,
12:18
the result of this intervention
284
738260
2000
bu müdahalenin sonucu
12:20
should be a change in policy.
285
740260
3000
davranış biçiminde bir değişim olmalı.
12:23
The fly should learn to avoid
286
743260
2000
Sinek optik olarak pekiştirilmiş kokudan
12:25
the optically reinforced odor.
287
745260
2000
sakınmayı öğrenmeli.
12:27
Here's what happened in two instances:
288
747260
3000
Şimdi iki durumda ne olduğunu görelim.
12:30
We're comparing two strains of flies,
289
750260
3000
İki farklı sinek soyunu karşılaştırıyoruz;
12:33
each of them having
290
753260
2000
her birinin beyninde
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
yaklaşık 100 tane ışık gönderilebilen hücre var ve
12:37
shown here in green on the left and on the right.
292
757260
3000
solda ve sağda yeşil renkte gösteriliyor.
12:40
What's common among these groups of cells
293
760260
3000
Bu hücre gruplarının arasındaki ortak şey ise,
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
ürettikleri dopamin nörotransmitter maddesi.
12:46
But the identities of the individual
295
766260
2000
Ama her bir dopamin üreten
12:48
dopamine-producing neurons
296
768260
2000
sinirlerin kimliği açık şekilde
12:50
are clearly largely different on the left and on the right.
297
770260
3000
solda ve sağda büyük farklılık gösteriyor.
12:53
Optically activating
298
773260
2000
İki sinek soyundaki
12:55
these hundred or so cells
299
775260
2000
yüz kadar hücrenin
12:57
into two strains of flies
300
777260
2000
optik olarak etkinleştirilmesi
12:59
has dramatically different consequences.
301
779260
2000
çarpıcı şekilde farklı sonuçlara yol açıyor.
13:01
If you look first at the behavior
302
781260
2000
İlk olarak sağdaki sineğin
13:03
of the fly on the right,
303
783260
2000
davranışına bakacak olursanız,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
odanın iki kokunun kesiştiği
13:08
where the two odors meet,
305
788260
2000
orta noktasına yaklaştığı anda
13:10
it marches straight through, as it did before.
306
790260
3000
önceden yaptığı gibi dümdüz ilerliyor.
13:13
Its behavior is completely unchanged.
307
793260
2000
Davranışı aynen eskisi gibi.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
Fakat soldaki sineğin davranışı çok farklı.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
Orta noktaya geldiği anda,
13:21
it pauses,
310
801260
2000
duraksıyor,
13:23
it carefully scans the odor interface
311
803260
2000
koku durumunu dikkatlice tarıyor,
13:25
as if it was sniffing out its environment,
312
805260
2000
aynen çevresini koklarmış gibi,
13:27
and then it turns around.
313
807260
2000
ve sonra geri dönüyor.
13:29
This means that the policy that the Actor implements
314
809260
3000
Bu demek oluyor ki Oyuncu'nun uyguladığı davranış biçimi
13:32
now includes an instruction to avoid the odor
315
812260
2000
odanın sağ yarısındaki kokudan kaçınmayı
13:34
that's in the right half of the chamber.
316
814260
3000
sağlayan bir yönerge içeriyor.
13:37
This means that the Critic
317
817260
2000
Bu da demek oluyor ki Eleştirmen
13:39
must have spoken in that animal,
318
819260
2000
hayvana sesini duyurmuş;
13:41
and that the Critic must be contained
319
821260
2000
ve Eleştirmen solda dopamin üreten
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
hücrelerin arasında yer alırken,
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
sağda dopamin üreten hücrelerde yer almıyormuş.
13:49
Through many such experiments,
322
829260
3000
Bu tip pek çok deneyin sonucunda
13:52
we were able to narrow down
323
832260
2000
Eleştirmenin kimliğini
13:54
the identity of the Critic
324
834260
2000
sadece 12 hücreye
13:56
to just 12 cells.
325
836260
2000
indirmeyi başardık.
13:58
These 12 cells, as shown here in green,
326
838260
3000
Bu 12 hücre, burada yeşil renkte gösterildiği gibi
14:01
send the output to a brain structure
327
841260
2000
uyarılarını, gri renkte gösterilen
14:03
called the "mushroom body,"
328
843260
2000
ve Mantar Cisimciği adı verilen
14:05
which is shown here in gray.
329
845260
2000
bir beyin bölgesine gönderiyor.
14:07
We know from our formal model
330
847260
2000
Önceki modelimizden de biliyoruz ki
14:09
that the brain structure
331
849260
2000
Eleştirmen'in yorumlarını alan kısımdaki
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
beyin bölgesi Oyuncu'dur.
14:14
So this anatomy suggests
333
854260
2000
Yani bu anatomi mantar cisimciklerinin
14:16
that the mushroom bodies have something to do
334
856260
3000
eylem seçimiyle alakalı olduğunu
14:19
with action choice.
335
859260
2000
öne sürüyor.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
Mantar cisimcikleriyle ilgili bildiğimiz herşeye
14:23
this makes perfect sense.
337
863260
2000
dayanarak, bu çok anlamlı geliyor.
14:25
In fact, it makes so much sense
338
865260
2000
Hatta o kadar çok anlamlı geliyor ki,
14:27
that we can construct an electronic toy circuit
339
867260
3000
sineğin davranışlarınının benzerini yapan
14:30
that simulates the behavior of the fly.
340
870260
3000
elektronik bir oyuncak devresi kurabiliriz.
14:33
In this electronic toy circuit,
341
873260
3000
Bu elektronik oyuncak devresinde,
14:36
the mushroom body neurons are symbolized
342
876260
2000
mantar cisimciğinin sinirleri
14:38
by the vertical bank of blue LEDs
343
878260
3000
levhanın ortasında dikey sıralanmış mavi
14:41
in the center of the board.
344
881260
3000
LED lambalarıyla sembolize ediliyor.
14:44
These LED's are wired to sensors
345
884260
2000
Bu LED'ler havadaki koku moleküllerinin varlığını
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
algılayan sensörlere bağlı.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
Her koku farklı bir sensör kombinasyonunu
14:53
which in turn activates
348
893260
2000
etkinleştiriyor, ki bu da mantar cisimciğindeki
14:55
a different odor detector in the mushroom body.
349
895260
3000
farklı bir koku algılayıcısını etkinleştiriyor.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
Böylece sineğin kokpitindeki pilotumuz,
15:00
the Actor,
351
900260
2000
yani Oyuncu,
15:02
can tell which odor is present
352
902260
2000
mavi LED'lerden hangisinin yandığına bakarak
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
hangi kokunun mevcut olduğunu anlayabiliyor.
15:09
What the Actor does with this information
354
909260
2000
Bu bilgiyle Oyuncu'nun ne yapacağı,
15:11
depends on its policy,
355
911260
2000
onun davranış biçimine bağlı,
15:13
which is stored in the strengths of the connection,
356
913260
2000
ki bu da koku algılayıcıları
15:15
between the odor detectors
357
915260
2000
ve sineğin kaçamak eylemlerini
15:17
and the motors
358
917260
2000
çalıştıran motorların arasındaki
15:19
that power the fly's evasive actions.
359
919260
2000
bağlantı bölgelerinde depolanmıştır.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
Eğer bağlantı zayıfsa, motorlar kapalı kalacak
15:24
and the fly will continue straight on its course.
361
924260
3000
ve sinek doğrultusu yönünde devam edecek.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
Eğer bağlantı güçlüyse, motorlar çalışacak
15:30
and the fly will initiate a turn.
363
930260
3000
ve sinek dönmeye başlayacak.
15:33
Now consider a situation
364
933260
2000
Şimdi motorların
15:35
in which the motors stay off,
365
935260
2000
kapalı kaldığı
15:37
the fly continues on its path
366
937260
3000
sineğin yoluna devam ettiği
15:40
and it suffers some painful consequence
367
940260
2000
ve öldürülmek gibi acı sonuçlara
15:42
such as getting zapped.
368
942260
2000
katlandığı bir durum düşünün.
15:44
In a situation like this,
369
944260
2000
Böyle bir durumda Eleştirmen'in
15:46
we would expect the Critic to speak up
370
946260
2000
dile gelmesini
15:48
and to tell the Actor
371
948260
2000
ve Oyuncu'nun davranışını değiştirmesini
15:50
to change its policy.
372
950260
2000
emretmesini bekleriz.
15:52
We have created such a situation, artificially,
373
952260
3000
Böyle bir durumu, eleştirmeni ani ışıkla uyararak
15:55
by turning on the critic with a flash of light.
374
955260
3000
yapay bir şekilde oluşturduk.
15:58
That caused a strengthening of the connections
375
958260
3000
Bu da şu andaki koku algılayıcısı ile
16:01
between the currently active odor detector
376
961260
3000
motorlar arasındaki bağlantıların güçlenmesine
16:04
and the motors.
377
964260
2000
sebep oldu.
16:06
So the next time
378
966260
2000
Böylece sinek bir daha aynı kokuyla
16:08
the fly finds itself facing the same odor again,
379
968260
3000
karşılaşırsa, bağlantı
16:11
the connection is strong enough to turn on the motors
380
971260
3000
motorları açmak ve bir kaçış manevrası
16:14
and to trigger an evasive maneuver.
381
974260
3000
tetiklemek için yeterli derecede güçlü.
16:19
I don't know about you,
382
979260
3000
Sizi bilmem ama,
16:22
but I find it exhilarating to see
383
982260
3000
ben anlaşılmaz psikolojik kanıların
16:25
how vague psychological notions
384
985260
3000
uçup giderek yerine aklın fiziksel,
16:28
evaporate and give rise
385
988260
2000
mekanikçi anlayışının gelmesini
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
görmeyi çok canlandırıcı buluyorum,
16:33
even if it's the mind of the fly.
387
993260
3000
her ne kadar bu sineğin aklı olsa bile.
16:36
This is one piece of good news.
388
996260
3000
Bu iyi haberlerin bir kısmı.
16:39
The other piece of good news,
389
999260
2000
İyi haberlerin diğer kısmı ise,
16:41
for a scientist at least,
390
1001260
2000
en azından bir bilim insanı için,
16:43
is that much remains to be discovered.
391
1003260
3000
keşfedilmeyi bekleyen daha çok şey var.
16:46
In the experiments I told you about,
392
1006260
2000
Size anlattığım deneylerde
16:48
we have lifted the identity of the Critic,
393
1008260
3000
Eleştirmen'in kimliğini ortaya koyduk
16:51
but we still have no idea
394
1011260
2000
fakat Eleştirmen'in işini nasıl yaptığı hakkında
16:53
how the Critic does its job.
395
1013260
2000
bir fikrimiz yok.
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
Bir düşünün; bir öğretmeniniz olmadan,
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
veya anneniz size söylemiyorken hatalı
17:00
is a very hard problem.
398
1020260
2000
olduğunuzu bilmek çok zor bir sorun.
17:02
There are some ideas in computer science
399
1022260
2000
Bilgisayar biliminde ve
17:04
and in artificial intelligence
400
1024260
2000
yapay zekada bunun nasıl yapılabileceği
17:06
as to how this might be done,
401
1026260
2000
hakkında bazı fikirler mevcut;
17:08
but we still haven't solved
402
1028260
2000
fakat canlı maddelerde
17:10
a single example
403
1030260
2000
bilinçli davranışın
17:12
of how intelligent behavior
404
1032260
3000
fiziksel etkileşimlerden
17:15
springs from the physical interactions
405
1035260
2000
nasıl doğduğununun tek bir örneğini bile
17:17
in living matter.
406
1037260
2000
hala çözemedik.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
Bence oraya da çok uzak olmayan bir gelecekte ulaşacağız.
17:22
Thank you.
408
1042260
2000
Teşekkür ederim.
17:24
(Applause)
409
1044260
4000
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7