Daniel Wolpert: The real reason for brains

Daniel Wolpert: Beynimizin gerçek varoluş sebebi

342,126 views ・ 2011-11-03

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ayca Bayraktaroglu Gözden geçirme: Meric Aydonat
00:15
I'm a neuroscientist.
0
15260
2000
Ben bir sinirbilimciyim.
00:17
And in neuroscience,
1
17260
2000
Ve sinirbiliminde,
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
beyin hakkında birçok zor soru ile başa çıkmak zorundayız.
00:22
But I want to start with the easiest question
3
22260
2000
Fakat ben en kolayı ile başlamak istiyorum.
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
Bu soru hayatınızın bir noktasında kendinize sormak zorunda kalacağınız cinsten.
00:27
because it's a fundamental question
5
27260
2000
Çünkü, beyin fonksiyonlarını anlamak için
00:29
if we want to understand brain function.
6
29260
2000
bu çok temel bir soru.
00:31
And that is, why do we and other animals
7
31260
2000
Biz insanlar ve hayvanlar
00:33
have brains?
8
33260
2000
neden bir beyine sahibiz?
00:35
Not all species on our planet have brains,
9
35260
3000
Gezegenimizdeki her turun bir beyni yok.
00:38
so if we want to know what the brain is for,
10
38260
2000
yani eğer beyinlerimizin ne işe yaradığını bilmek istiyorsak
00:40
let's think about why we evolved one.
11
40260
2000
gelin beynin neden evrildiğini düşünelim.
00:42
Now you may reason that we have one
12
42260
2000
Şimdi şunu ileri sürebilirsiniz;
00:44
to perceive the world or to think,
13
44260
2000
dünyayı algılamak veya düşünmek için.
00:46
and that's completely wrong.
14
46260
2000
Ve bu tamamiyle yanlış.
00:48
If you think about this question for any length of time,
15
48260
3000
Bu soruyu bir süre düşündüğünüzde,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
neden beyne sahip olduğumuz apaçık ortada.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Sadece ve sadece tek bir neden için bir beynimiz var;
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
uyumlu ve karmaşık hareketler üretmek için.
00:59
There is no other reason to have a brain.
19
59260
2000
Bundan başka bir sebep yok.
01:01
Think about it.
20
61260
2000
Bir düşünsenize.
01:03
Movement is the only way you have
21
63260
2000
Etrafınızda dönen dünyaya etki etmenin
01:05
of affecting the world around you.
22
65260
2000
tek yolu hareket etmek.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Aslında bu tam anlamıyla doğru değil. Başka bir yolu daha var, terlemek.
01:10
But apart from that,
24
70260
2000
Ama bunun dışında,
01:12
everything else goes through contractions of muscles.
25
72260
2000
diğer herşey kasların kasılmasıyla gerçekleşiyor.
01:14
So think about communication --
26
74260
2000
İletişimi bir düşünün --
01:16
speech, gestures, writing, sign language --
27
76260
3000
konuşma, jestler, yazma, işaret dili --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
bunların hepsi kasların kasılmasıyla gerçekleşiyor.
01:22
So it's really important to remember
29
82260
2000
Şunu hatırlamakta yarar var
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
duyusal, bilişsel ve hafızaya dair süreçlerin hepsi önemli,
01:28
but they're only important
31
88260
2000
ancak onlar sadece
01:30
to either drive or suppress future movements.
32
90260
2000
ilerki hareketleri başlatmak veya bastırmak için önemli.
01:32
There can be no evolutionary advantage
33
92260
2000
Daha sonra nasıl hareket edeceğinizi etkilemiyorsa
01:34
to laying down memories of childhood
34
94260
2000
çocukluk anılarını hafızanızda tutmanın
01:36
or perceiving the color of a rose
35
96260
2000
ya da bir gülün rengini algılamanın
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
evrimsel açıdan hiç bir avantajı yoktur.
01:41
Now for those who don't believe this argument,
37
101260
2000
Bu argümana inanmayanlar için,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
gezegenimizde otların ve ağaçların beyinleri yok,
01:45
but the clinching evidence is this animal here --
39
105260
2000
ama burada tezimizi destekleyici kanıt şu hayvan--
01:47
the humble sea squirt.
40
107260
2000
denizüzümü.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
İlkel bir hayvan, sınır sistemi var,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
Yavruyken okyanusta ordan oraya yüzer.
01:54
And at some point of its life,
43
114260
2000
Ve hayatının bir noktasında,
01:56
it implants on a rock.
44
116260
2000
bir kayaya yerleşir.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
Ve bir daha ayrılmayacağı o kayaya yapıştığında yaptığı ilk iş,
02:01
is to digest its own brain and nervous system
46
121260
3000
beynini ve sinir sistemini, yiyecek olarak
02:04
for food.
47
124260
2000
tüketmektir.
02:06
So once you don't need to move,
48
126260
2000
Yani hareket etmeye ihtiyacınız yoksa,
02:08
you don't need the luxury of that brain.
49
128260
3000
bir beyne sahip olma lüksüne de ihtiyacınız yoktur.
02:11
And this animal is often taken
50
131260
2000
Ve bu arada birçok kişi
02:13
as an analogy to what happens at universities
51
133260
2000
üniversitelerde kadrosunu almış olan
02:15
when professors get tenure,
52
135260
2000
profesörleri bu hayvana benzetir,
02:17
but that's a different subject.
53
137260
2000
ama bu tabii ki başka bir konu.
02:19
(Applause)
54
139260
2000
(Alkışlar)
02:21
So I am a movement chauvinist.
55
141260
3000
Yani ben bir hareket şovenistiyim.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Hareket etmenin beynimizin en önemli fonksiyonu olduğuna inanıyorum --
02:26
don't let anyone tell you that it's not true.
57
146260
2000
kimsenin size bunun yanlış olduğunu söylemesine izin vermeyin.
02:28
Now if movement is so important,
58
148260
2000
Şimdi eğer hareket çok önemli ise,
02:30
how well are we doing
59
150260
2000
beynin hareketi nasıl kontrol ettiğini
02:32
understanding how the brain controls movement?
60
152260
2000
ne kadar iyi anlayabiliyoruz?
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Ve cevap şu ki bu konuda oldukça zayıfız; bu çok zor bir problem.
02:36
But we can look at how well we're doing
62
156260
2000
Ama aslında bunu ne kadar anlamış olduğumuzu
02:38
by thinking about how well we're doing building machines
63
158260
2000
insanların yapabildiklerini yapabilen makineleri inşa etmekte ne kadar
02:40
which can do what humans can do.
64
160260
2000
iyi olduğumuza bakarak görebiliriz.
02:42
Think about the game of chess.
65
162260
2000
Satrancı bir düşünün.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Hangi taş ile nereye hamle yapacağımıza karar vermekte ne kadar iyiyiz?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Eğer Gary Kasparov burada olsaydı, hapiste olmadığı zaman,
02:50
against IBM's Deep Blue,
68
170260
2000
ve IBM Deep Blue'ya karşı oynasaydı,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
IBM Deep Blue zaman zaman kazanırdı.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Ve bence IBM Deep Blue bu salonda kimle oynarsa oynasın her seferinde kazanırdı.
02:58
That problem is solved.
71
178260
2000
O sorun çözüldü.
03:00
What about the problem
72
180260
2000
Peki ya bir satranç taşını
03:02
of picking up a chess piece,
73
182260
2000
tutup kaldırma,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
ve onu ustalıkla hareket ettirip tahtaya geri koyma konusuna ne demeli?
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Eğer beş yaşında ki bir çocuğun el yeteneğini alıp günümüzün en iyi robotuyla karşılaştırırsak,
03:10
the answer is simple:
76
190260
2000
cevabımız çok kolay olurdu:
03:12
the child wins easily.
77
192260
2000
Çocuk kolayca kazanır.
03:14
There's no competition at all.
78
194260
2000
Bir rekabet söz konusu bile değildir.
03:16
Now why is that top problem so easy
79
196260
2000
Peki neden bu ilk problemimiz çok kolay da
03:18
and the bottom problem so hard?
80
198260
2000
sonraki problemimiz çok zor?
03:20
One reason is a very smart five year-old
81
200260
2000
Bir sebebi, 5 yaşında çok zeki bir çocuk
03:22
could tell you the algorithm for that top problem --
82
202260
2000
oyunun olası hamlelerine bakarak
03:24
look at all possible moves to the end of the game
83
204260
2000
size ilk problemin algoritmasını söyleyebilir
03:26
and choose the one that makes you win.
84
206260
2000
ve size oyunu kazandıracak hamleyi seçebilir.
03:28
So it's a very simple algorithm.
85
208260
2000
Yani bu çok basit bir algoritma.
03:30
Now of course there are other moves,
86
210260
2000
Şimdi tabii ki başka hamleler de var,
03:32
but with vast computers we approximate
87
212260
2000
ama gelişmiş bilgisayarlarla tahmin yürütüp
03:34
and come close to the optimal solution.
88
214260
2000
optimal sonuca yaklaşıyoruz.
03:36
When it comes to being dexterous,
89
216260
2000
Halbuki iş el becerisine gelince,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
el becerisine sahip olmak için nasıl bir algoritma çözmek gerektiği bile değil.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Ve göreceğiz ki, dünyada bir çok problemi aynı anda hem algılayıp
03:42
which has a lot of problems.
92
222260
2000
hem de harekete geçmek zorundasınız.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Ama şimdi size son teknoloji robotları göstereyim.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Günümüzde robotlar çok etkileyiciler,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
ama elini hareket ettiren robotlar hala karanlık çağlarda.
03:51
So this is the end of a Ph.D. project
96
231260
2000
İşte bu bir doktora projesinin sonucu,
03:53
from one of the best robotics institutes.
97
233260
2000
en iyi robot enstitülerinden birinden alınma.
03:55
And the student has trained this robot
98
235260
2000
Ve öğrenci bu robota
03:57
to pour this water into a glass.
99
237260
2000
bardağa su doldurmayı öğretti.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
Bu zor bir problem çünkü su her yere dökülüyor, ama bunu yapabilir.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Ama yaptığı iş hiç bir şekilde insan elinin becerikliliğini yakalayamayacak.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Şimdi eğer bu robotun zor bir görev yapmasını isterseniz,
04:08
that's another three-year Ph.D. program.
103
248260
3000
bu yıllık başka bir doktora programı demektir.
04:11
There is no generalization at all
104
251260
2000
Robotlarda görevden göreve geçerken
04:13
from one task to another in robotics.
105
253260
2000
genelleme yapamazsınız.
04:15
Now we can compare this
106
255260
2000
Şimdi bunu en üst düzeyde
04:17
to cutting-edge human performance.
107
257260
2000
insanoğlunun performansıyla kıyaslayabiliriz.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Size Emily Fox'u göstereceğim.
04:21
winning the world record for cup stacking.
109
261260
3000
Fincan istiflemede dünya rekorunun sahibi.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Şimdi Amerikalı dinleyiciler fincan istifleme ile ilgili
04:26
It's a high school sport
111
266260
2000
herşeyi bilecek.
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
Bu bir lise sporudur. 12 fincanı belirlenmiş bir sırayla
04:30
against the clock in a prescribed order.
113
270260
2000
zamana karşı dizip sonra kaldırıyorsunuz.
04:32
And this is her getting the world record in real time.
114
272260
3000
Ve bu Emily dünya rekorunu elde ettiği zaman.
04:39
(Laughter)
115
279260
8000
(Kahkahalar)
04:47
(Applause)
116
287260
5000
(Alkışlar)
04:52
And she's pretty happy.
117
292260
2000
Ve oldukça mutlu.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Onun bunu yaparken beyninde neler olduğu hakkında hiçbir fikrimiz yok,
04:56
and that's what we'd like to know.
119
296260
2000
keşke bilebilseydik.
04:58
So in my group, what we try to do
120
298260
2000
Bu yüzden grubumla yapmaya çalıştığımız
05:00
is reverse engineer how humans control movement.
121
300260
3000
tersine mühendislikle insanların hareket kontrolünü çözmek.
05:03
And it sounds like an easy problem.
122
303260
2000
Ve bu kulağa kolaymış gibi geliyor.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Bir talimat gönderirsiniz, kasların kasılmasına sebep olur.
05:07
Your arm or body moves,
124
307260
2000
Kolunuz veya vücudunuz hareket eder.
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
ve gözleriniz, teniniz, kaslarınız vb. sayesinde duyusal geri dönüş alırsınız.
05:12
The trouble is
126
312260
2000
Sorun şu ki;
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
bu sinyaller istediğiniz gibi güzel değiller.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Hareket kontrolünü çok zor kılan şeylerden biri de
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
duyusal geri dönüşün çok gürültülü olması.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Buradaki gürültü derken sesi kastetmiyorum.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Bu deyimi mühendislik ve nöroloji alanlarında
05:26
meaning a random noise corrupting a signal.
132
326260
2000
sinyali bozan rasgele bir sesten bahsederken kullanıyoruz.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Dijital radyodan önce radyoda kanal ararken
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
dinlemek istediğiniz kanalın frekansında hışırtılı sesler duyardınız,
05:33
that was the noise.
135
333260
2000
bu bahsettiğim gürültüdür.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Ama genel anlamda, bu gürültü sinyali bozan bir şeydir.
05:38
So for example, if you put your hand under a table
137
338260
2000
Örneğin, elinizi masanın altına koyduğunuz zaman
05:40
and try to localize it with your other hand,
138
340260
2000
ve diğer elinizle eşleştirmek istediğinizde,
05:42
you can be off by several centimeters
139
342260
2000
bir kaç santimetre ile kaçırabilirsiniz,
05:44
due to the noise in sensory feedback.
140
344260
2000
duyusal geri dönüşteki gürültü nedeniyle.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Aynı şekilde, motor çıktısını hareket çıktısının üstüne koyarsanız,
05:48
it's extremely noisy.
142
348260
2000
çok gürültülü olacaktır.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Dartlarda onikiden vurmayı unutun,
05:52
just aim for the same spot over and over again.
144
352260
2000
sadece aynı noktayı sürekli hedefleyin
05:54
You have a huge spread due to movement variability.
145
354260
3000
Hareket çeşitliliğinizden dolayı geniş bir alan seçeneğiniz vardır.
05:57
And more than that, the outside world, or task,
146
357260
2000
Bunun da ötesinde, gerçek dünya ya da görev
05:59
is both ambiguous and variable.
147
359260
2000
hem bilinmez hem de çok çeşitlidir.
06:01
The teapot could be full, it could be empty.
148
361260
2000
Demlik dolu olabilir, boş da olabilir.
06:03
It changes over time.
149
363260
2000
Zamanla değişir.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Yani bütün duyusal hareket görevlerimizi gürültü altında yapıyoruz.
06:09
Now this noise is so great
151
369260
2000
Şimdi, bu gürültü öylesine büyük ki
06:11
that society places a huge premium
152
371260
2000
toplum bu gürültünün sonuçlarını
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
en aza düşüren kişileri ödüllendirmektedir.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Yani eğer küçük beyaz bir topu uzun bir metal sopayla
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
metrelerce uzaklıktaki bir deliğe sokacak kadar şanslıysanız
06:22
our society will be willing to reward you
156
382260
2000
toplumumuz sizi yüzlerce milyon dolarla
06:24
with hundreds of millions of dollars.
157
384260
3000
ödüllendirmeye hazırdır.
06:27
Now what I want to convince you of
158
387260
2000
Şimdi sizi ikna etmek istediğim nokta şu:
06:29
is the brain also goes through a lot of effort
159
389260
2000
Beyin bu gürültü ve çeşitliliğin
06:31
to reduce the negative consequences
160
391260
2000
olumsuz sonuçlarını azaltmak için
06:33
of this sort of noise and variability.
161
393260
2000
çok fazla çaba sarfetmektedir.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Bunu yapmak için, son elli yılın istatistik ve mekanik öğretilerinde
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
çok popüler olan, Bayes karar teorisi adı verilen
06:40
called Bayesian decision theory.
164
400260
2000
bir karar verme sistemini anlatacağım.
06:42
And it's more recently a unifying way
165
402260
3000
Ve bu son zamanlarda
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
beynin belirsizliklerle nasıl başettiğini anlamada birleştirici bir yol.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Temelde yatan fikir şu, önce çıkarımlar yapıyor ve sonra harekete geçiyorsunuz.
06:51
So let's think about the inference.
168
411260
2000
O zaman çıkarımları düşünelim.
06:53
You want to generate beliefs about the world.
169
413260
2000
Dünyaya dair bazı inançlar geliştirmek istersiniz.
06:55
So what are beliefs?
170
415260
2000
Bu inançlar nelerdir?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
İnançlar şu şekilde olabilir: boşlukta kollarım nerede?
06:59
Am I looking at a cat or a fox?
172
419260
2000
Bir kediye mi yoksa bir tilkiye mi bakıyorum?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Ama şimdi inançları olasılık ile sunacağız.
07:04
So we're going to represent a belief
174
424260
2000
Yani inancı 0 ile 1 arasında bir numarayla
07:06
with a number between zero and one --
175
426260
2000
temsil edelim --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
0 hiç inanmıyorum, 1 kesinlikle inanıyorum demek olsun.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Ve aradaki numaralar size olasılığın gri seviyelerini verecektir.
07:14
And the key idea to Bayesian inference
178
434260
2000
Bayes çıkarımının temel fikri ise
07:16
is you have two sources of information
179
436260
2000
iki bilgi kaynağına sahip olduğumuzdur
07:18
from which to make your inference.
180
438260
2000
ve bunlardan çıkarımınızı yaparsınız.
07:20
You have data,
181
440260
2000
Veriniz var,
07:22
and data in neuroscience is sensory input.
182
442260
2000
ve nörolojide veri duyusal girdidir.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Yani, inanca dönüştürebileceğim duyusal girdilerim var.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Ancak diğer bir bilgi kaynağı daha var, daha etkili ve öncelikli bir bilgi.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Hayatınızda anılarla birlikte bilgiyi de biriktirirsiniz.
07:33
And the point about Bayesian decision theory
186
453260
2000
Ve Bayes karar teorisinin altında yatan budur;
07:35
is it gives you the mathematics
187
455260
2000
duyusal verilerinizi
07:37
of the optimal way to combine
188
457260
2000
önceki bilgilerinizle harmanlayarak
07:39
your prior knowledge with your sensory evidence
189
459260
2000
yeni inançlar üretmenizi sağlayacak ideal yöntemin
07:41
to generate new beliefs.
190
461260
2000
matematiğini verir.
07:43
And I've put the formula up there.
191
463260
2000
Ve formülü bir kenara bıraktım.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Formülün ne olduğunu açıklamayacağım, ama çok güzel bir şey.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Gerçek bir güzelliği ve açıklayıcı bir gücü var.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Aslında söylediği ve sizin hesaplamak istediğiniz şey,
07:52
is the probability of different beliefs
195
472260
2000
duyusal girdileriniz doğrultusunda
07:54
given your sensory input.
196
474260
2000
farklı inançların oluşma olasılığıdır.
07:56
So let me give you an intuitive example.
197
476260
2000
Durun size sezgiyle ilgili bir örnek vereyim.
07:58
Imagine you're learning to play tennis
198
478260
3000
Tenis oynamayı öğrendiğinizi düşünün
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
top filenin üstünden size doğru geldiği zaman
08:03
as it comes over the net towards you.
200
483260
2000
topun nerede sekeceğine karar vermek istiyorsunuz.
08:05
There are two sources of information
201
485260
2000
Burada 2 farklı bilgi kaynağı var.
08:07
Bayes' rule tells you.
202
487260
2000
Bayes'in kuralı size şunu söyler.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Duyusal veri var -- görsel ve işitsel bilginizi kullanabilirsiniz.
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
ve bunlar size topun kırmızı noktaya düşeceğini söyleyebilir.
08:15
But you know that your senses are not perfect,
205
495260
3000
Ama biliyorsunuz ki hisleriniz kusursuz değil,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
bu yüzden topun yere düşeceği çeşitli noktalar mevcut,
08:20
shown by that cloud of red,
207
500260
2000
kırmızı bulut bunları göstermekte,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
0.5 veya 0.1 arası sayılarla ifade edebiliriz.
08:26
That information is available in the current shot,
209
506260
2000
Bu bilgi o anki vuruş için geçerli,
08:28
but there's another source of information
210
508260
2000
ancak o anki vuruş için geçerli olmayan
08:30
not available on the current shot,
211
510260
2000
başka bir bilgi kaynağı daha var.
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
ancak bu yalnızca sürekli tenis oynayanlar için geçerli bir kaynak,
08:35
and that's that the ball doesn't bounce
213
515260
2000
Ve bu da topun maç esnasında kortta
08:37
with equal probability over the court during the match.
214
517260
2000
eşit olasılıklarla sekmediğidir.
08:39
If you're playing against a very good opponent,
215
519260
2000
Eğer çok iyi bir rakibe karşı oynuyorsanız,
08:41
they may distribute it in that green area,
216
521260
2000
topu o yeşil alana gönderebilir ,
08:43
which is the prior distribution,
217
523260
2000
ki bu sizin topu karşılamızı
08:45
making it hard for you to return.
218
525260
2000
zorlaştıracaktır öncelikli alandır.
08:47
Now both these sources of information carry important information.
219
527260
2000
Şimdi iki bilgi kaynağı da önemli veriler içeriyor.
08:49
And what Bayes' rule says
220
529260
2000
Ve Bayes'in kuralına göre
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
kırmızıdaki sayılarla yeşildekileri çarpmam gerekir, bu şekilde
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
sarı rengin üzerindeki, elipsleri içeren sayıları elde ederim
08:57
and that's my belief.
223
537260
2000
bu da benim inancımı oluşturur.
08:59
So it's the optimal way of combining information.
224
539260
3000
İşte bu bilgileri birleştirmenin en ideal yöntemidir.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Şimdi birkaç yıl önce insanların yeni hareketler
09:04
we showed this is exactly what people do
226
544260
2000
öğrendiklerinde ne yaptıklarını göstermiş
09:06
when they learn new movement skills.
227
546260
2000
olmasaydık bugün size bunları söylemezdim.
09:08
And what it means
228
548260
2000
Bu şu demek,
09:10
is we really are Bayesian inference machines.
229
550260
2000
Biz gerçekten Bayes çıkarım makineleriyiz.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Yaşadıkça, dünyanın istatistiğini öğrenip değerlendirmeye alıyoruz,
09:16
but we also learn
231
556260
2000
kendi duyu organlarımızın
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
ne kadar gürültülü olduğunu da öğreniyoruz,
09:20
and then combine those
233
560260
2000
sonra bunları gerçek bir
09:22
in a real Bayesian way.
234
562260
2000
Bayes tekniğiyle birleştiriyoruz.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Bayes'in önemli bir kısmı formülün bu bölümünde gizli.
09:27
And what this part really says
236
567260
2000
Ve bu bölümün dediği şey
09:29
is I have to predict the probability
237
569260
2000
inançlarım doğrultusunda
09:31
of different sensory feedbacks
238
571260
2000
geri dönüşlerin farklı olasılıklarını
09:33
given my beliefs.
239
573260
2000
tahmin etmem gerektiği.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Bu gerçekten gelecek ile ilgili tahminler yapmamı zorunlu kılıyor.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
Ve sizi beynin tahmin yaptığına ikna etmek istiyorum,
09:40
of the sensory feedback it's going to get.
242
580260
2000
alacağı duyusal geri dönüşün önceden tahmini.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Dahası, algılarınızı yaptıklarınızla derinlemesine
09:44
by what you do.
244
584260
2000
değiştiriyor.
09:46
And to do that, I'll tell you
245
586260
2000
Bunu yapabilmek için
09:48
about how the brain deals with sensory input.
246
588260
2000
beynin duyusal girdilerle nasıl başettiğini anlatacağım.
09:50
So you send a command out,
247
590260
3000
Bir talimat gönderiyorsunuz
09:53
you get sensory feedback back,
248
593260
2000
duyusal geri dönüş alıyorsunuz,
09:55
and that transformation is governed
249
595260
2000
ve bu dönüşüm vücut fiziği
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
ve duyu araçlarınız tarafından yönetiliyor.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Ama beynin içine baktığınızı düşünün.
10:02
And here's inside the brain.
252
602260
2000
İşte beynin içi.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Ufak bir tahmin ediciye, vücut fiziği ve duyuların
10:06
of the physics of your body and your senses.
254
606260
2000
sinirsel bir simülatörüne sahip olabilirsiniz.
10:08
So as you send a movement command down,
255
608260
2000
Hareket emrini aşağıya gönderdiğiniz zaman
10:10
you tap a copy of that off
256
610260
2000
bu emrin bir kopyasını çıkarıyorsunuz,
10:12
and run it into your neural simulator
257
612260
2000
ve bunu, hareketlerinizin duyusal sonuçlarını
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
tahmin edebilmek için sinirsel simülatöre gönderiyorsunuz.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Yani bu ketçap şişesini salladığımda
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
en alt sıradaki zamanın fonksiyonu olarak doğru bir duyusal dönüş alırım.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Eğer tahmin edicim iyiyse, aynı şeyi öngörecektir.
10:26
Well why would I bother doing that?
262
626260
2000
Peki ne diye bu zahmete katlanıyorum?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Zaten aynı geri dönüşümü alacağım.
10:30
Well there's good reasons.
264
630260
2000
Aslında geçerli sebepleri var.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Düşünün ki bu ketçap şişesini sallarken,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
biri yanıma gelip kibarca şişenin arkasına vuruyor.
10:37
Now I get an extra source of sensory information
267
637260
2000
Şimdi bu dış hareketten dolayı ekstra bir
10:39
due to that external act.
268
639260
2000
duyusal bilgi kaynağım oluverdi.
10:41
So I get two sources.
269
641260
2000
Yani iki kaynağım var.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
Sen şişenin altına vuruyosun ben de sallıyorum,
10:46
but from my senses' point of view,
271
646260
2000
ama benim duyularıma göre
10:48
that is combined together into one source of information.
272
648260
3000
tüm bunlar tek bir bilgi kaynağında toplanıyor.
10:51
Now there's good reason to believe
273
651260
2000
Dış olaylarla iç hareketleri birbirinden
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
ayırabilmeyi istemek için çok iyi bir nedeniniz var
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Çünkü dış kaynaklı olaylar, kendi vücudumda olup bitenleri
10:59
than feeling everything that's going on inside my body.
276
659260
3000
hissedebilmekten öte daha çok davranışsallıkla alakalıdır.
11:02
So one way to reconstruct that
277
662260
2000
Bunu yeniden kurabilmemizin bir yolu
11:04
is to compare the prediction --
278
664260
2000
öngörü ve tahminleri --
11:06
which is only based on your movement commands --
279
666260
2000
ki bu hareket emirlerinize dayanmaktadır --
11:08
with the reality.
280
668260
2000
gerçekle kıyaslamaktır.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Herhangi bir uyuşmazlığın dış kaynaklı olması gerekir.
11:13
So as I go around the world,
282
673260
2000
Dünyada geçirdiğim süre boyunca,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
edinmem gerekenleri tahmin ediyor ve onları listeden siliyorum.
11:18
Everything left over is external to me.
284
678260
2000
Geri kalan herşey benim için dış kaynaklıdır.
11:20
What evidence is there for this?
285
680260
2000
Bunun kanıtları ne?
11:22
Well there's one very clear example
286
682260
2000
Aslında çok net bir örnek var,
11:24
where a sensation generated by myself feels very different
287
684260
2000
bu örnekte, kendi kendime ürettiğim bir his başka biri
11:26
then if generated by another person.
288
686260
2000
tarafından üretilenden daha farklı hissettiriyor.
11:28
And so we decided the most obvious place to start
289
688260
2000
Size en kesin örneği vererek başlayacağım:
11:30
was with tickling.
290
690260
2000
gıdıklanmak.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Uzun zamandır biliniyor ki, başkaları sizi gıdıklayabilirken
11:34
as well as other people can.
292
694260
2000
siz kendi kendinizi gıdıklayamazsınız
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Ama bunun sizde varolan sinirsel simülatörde
11:39
simulating your own body
294
699260
2000
denenmiş ve
11:41
and subtracting off that sense.
295
701260
2000
listeden silinmiş olduğu söylenmez.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Bu probleme robot teknolojisini uygulayarak
11:46
by applying robotic technologies to this problem.
297
706260
3000
21. yüzyılın deneylerine ulaşabiliriz.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Elimizde bir robota bağlı olan bir çubuk var ve
11:52
and they're going to move that back and forward.
299
712260
2000
bu çubuklar ileri-geri hareket ettirilecekler.
11:54
And then we're going to track that with a computer
300
714260
2000
Sonra biz bunu bilgisayar yoluyla takip edip
11:56
and use it to control another robot,
301
716260
2000
başka bir robotu kontrol etmek için kullanacağız,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
ve bu son robot başka bir çubukla avcun içini gıdıklayacak.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Ve sonra deneklerimiz gıdıklanmakla alakalı
12:02
including ticklishness.
304
722260
2000
bir kaç değerlendirme yapacaklar.
12:04
I'll show you just one part of our study.
305
724260
2000
Size çalışmanın bir parçasını göstereyim.
12:06
And here I've taken away the robots,
306
726260
2000
Burada robotları aldık,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
ama temel olarak denekler sağ kollarını ileri-geri hareket ettiriyorlar.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Bir zaman aralığından sonra bunu diğer kolla da yaptırdık.
12:14
Either no time delay,
309
734260
2000
Hiçbir zaman aralığı olmadan,
12:16
in which case light would just tickle your palm,
310
736260
2000
ya da saniyenin onda ikisi-onda üçü gibi zaman aralıklarında
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
sadece ışık avcunuzu gıdıklayabilir,
12:22
So the important point here
312
742260
2000
Buradaki önemli nokta
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
sağ kol her zaman aynı şeyi yapıyor -- sinüsoidal hareketini.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
Sol el hep aynı ve sinüsoidal gıdıklamayı gerçekleştiriyor.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Oynadığımız şey tamamiyle bir tempo nedensellik ilişkisi.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Ve sıfırdan 0.1 saniyeye geçtiğimizde
12:34
it becomes more ticklish.
317
754260
2000
daha gıdıklayıcı oluyor.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
0.1'den 0.2'ye gittiğinizde
12:38
it becomes more ticklish at the end.
319
758260
2000
sonunda daha da gıdıklayıcı oluyor
12:40
And by 0.2 of a second,
320
760260
2000
Ve bir saniyenin 0.2'sinde
12:42
it's equivalently ticklish
321
762260
2000
siz hiçbir şey yapmadan
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
sizi gıdıklayan robot için eşit gıdıklayıcılıkta oluyor.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Yani bu iptalden ne sorumluysa
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
tempo nedenselliği ile sıkı bir ilişki içerisinde.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Bu örneğe dayalı olarak, kendimizi şuna inandırdık ki beyin
12:54
that the brain's making precise predictions
326
774260
2000
kesin tahminler yapıyor
12:56
and subtracting them off from the sensations.
327
776260
3000
ve bunları hislerden siliyor
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Şimdi itiraf etmem gerekir ki bunlar labratuvarımın en kötü çalışmaları.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Çünkü avuçtaki gıdıklanma hissi gelir ve gider,
13:04
you need large numbers of subjects
330
784260
2000
çok sayıda deneğe ihtiyacınız vardır
13:06
with these stars making them significant.
331
786260
2000
ve bu yıldızlar onları önemli kılar.
13:08
So we were looking for a much more objective way
332
788260
2000
Bu nedenle çok daha nesnel bir yöntem arıyoruz
13:10
to assess this phenomena.
333
790260
2000
ki bu durumu değerlendirebilelim.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Ve bu zaman zarfında iki tane kızım oldu.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Çocuklarınız arka koltukta iken uzun yolculuklara çıktığınızda şunu farkedersiniz,
13:17
they get into fights --
336
797260
2000
kavga ederler --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
bu kavgalar birinin ötekine bir şey yapması ve diğerinin karşılık vermesi ile başlar,
13:22
It quickly escalates.
338
802260
2000
ve hemen kızışır.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Ve çocuklar güç gösterimi ile kızışan kavgalara girmeye eğilimlidirler.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Çocuklarıma durmaları için bağırdığımda,
13:29
sometimes they would both say to me
341
809260
2000
bazen bana her ikisi de der ki
13:31
the other person hit them harder.
342
811260
3000
o bana daha sert vurdu.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Şunu biliyorum ki benim çocuklarım yalan söylemez,
13:36
so I thought, as a neuroscientist,
344
816260
2000
bu yüzden bir sinir bilimcisi olarak düşündüm ki,
13:38
it was important how I could explain
345
818260
2000
şunu açıklayabiliyor olmam önemliydi;
13:40
how they were telling inconsistent truths.
346
820260
2000
nasıl birbiri ile tutarsız gerçekler söyleyebiliyorlar.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Ve gıdıklama çalışmasına dayanarak bir tez öne sürdük,
13:44
that when one child hits another,
348
824260
2000
buna göre bir çocuk diğerine vurduğunda,
13:46
they generate the movement command.
349
826260
2000
hareket emrini üretiyorlar.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Duyusal sonuçlarını tahmin ediyorlar ve çıkarıyorlar.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Bu yüzden de vurdukları kişiye daha az sert vurduklarını zannediyorlar --
13:53
rather like the tickling.
352
833260
2000
tıpkı gıdıklamada olduğu gibi.
13:55
Whereas the passive recipient
353
835260
2000
Ancak vuruşu hisseden pasif kişi
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
böyle bir tahmin yapmıyor ve vuruşu tamamiyle hissediyor.
13:59
So if they retaliate with the same force,
355
839260
2000
Yani eğer onlar hissettikleri güç ile karşılık verirlerse,
14:01
the first person will think it's been escalated.
356
841260
2000
ilk kişi vuruş gücünün arttığını sanıyor.
14:03
So we decided to test this in the lab.
357
843260
2000
Ve bunu labratuvarda test etmeye karar verdik
14:05
(Laughter)
358
845260
3000
(Gülüşmeler)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Tabii ki çocuklarla ya da birbirine vurmayı esas alarak çalışmıyoruz.
14:10
but the concept is identical.
360
850260
2000
ama kavram benzer.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
İki yetişkin alıyoruz. Onlara bir oyun oynayacaklarını söylüyoruz.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Ve işte burda karşılıklı oturan birinci ve ikinci oyuncular.
14:17
And the game is very simple.
363
857260
2000
Ve oyun çok basit.
14:19
We started with a motor
364
859260
2000
Bir motor,
14:21
with a little lever, a little force transfuser.
365
861260
2000
ufak bir kaldıraç ve güç nakledici ile başladık.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Bu motoru birinci oyuncunun parmaklarına güç vermek için kullanıyoruz,
14:25
for three seconds and then it stops.
367
865260
3000
üç saniye sürüyor ve duruyor.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Ve bu oyuncuya deniyor ki bu gücün şiddetini hatırlayın
14:31
and use your other finger
369
871260
2000
ve diğer parmağınızı kullanarak
14:33
to apply the same force
370
873260
2000
aynı gücü
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
diğer oyuncunun parmağına bir güç nakledici aracılığıyla uygulayın -- ve yapıyorlar.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Ve ikinci oyuncuya bu gücü hatırlaması,
14:41
Use your other hand to apply the force back down.
373
881260
3000
diğer elini aynı gücü geri uygulamak için kullanması söyleniyor.
14:44
And so they take it in turns
374
884260
2000
Ve bu şekilde
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
hissettikleri gücü sırayla tekrar geri uyguluyorlar.
14:48
But critically,
376
888260
2000
Önemli bir detay,
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
oyuncular oyunun kuralları hakkında ayrı odalarda bilgilendiriliyorlar.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Yani dğer oyuncunun hangi kurallarla oynadığını bilmiyorlar.
14:55
And what we've measured
379
895260
2000
Ölçtüğümüz şu;
14:57
is the force as a function of terms.
380
897260
2000
her bir kadamedeki gücün şiddeti.
14:59
And if we look at what we start with,
381
899260
2000
Ve başladığımız noktaya bakacak olursak,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
bir Newton'ın çeyreği şiddetinde başlıyor, birkaç aşama sonra,
15:03
perfect would be that red line.
383
903260
2000
şu kırmızı noktaya ulaşıyor.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Ve bütün çiftlerde şunu gördük ki --
15:08
a 70 percent escalation in force
385
908260
2000
her oyuncu her seferinde gücü %70
15:10
on each go.
386
910260
2000
oranında arttırıyor.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Yani bu demek oluyor ki bunu yaparken --
15:14
based on this study and others we've done --
388
914260
2000
bu ve yaptığımız diğer çalışmalara dayanarak --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
beyin duyusal sonuçları iptal ediyor
15:18
and underestimating the force it's producing.
390
918260
2000
ve ürettiği gücün şiddetini hafife alıyor.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Bu tekrar gösteriyor ki beyin tahminler yapar
15:22
and fundamentally changes the precepts.
392
922260
3000
ve temel hükümleri değiştiriyor.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Yani çıkarımlar yaptık, tahminler yaptık,
15:28
now we have to generate actions.
394
928260
2000
ve şimdi hareket üretmeliyiz.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Ve Bayes'in kuralı der ki, inançlarım doğrultusunda,
15:32
the action should in some sense be optimal.
396
932260
2000
hareket bir anlamda optimal olmalı.
15:34
But we've got a problem.
397
934260
2000
Ancak bir sorunumuz var.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
Görevler semboliktir -- içmek istiyorum, dansetmek istiyorum --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
ama hareket sistemi 600 kası belli aralıklarla
15:41
in a particular sequence.
400
941260
2000
kasmak zorundadır.
15:43
And there's a big gap
401
943260
2000
Ve görev ile hareket
15:45
between the task and the movement system.
402
945260
2000
sistemi arasında büyük bir boşluk bulunmaktadır.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Yani bu sonsuz sayıda farklı şekilde birleştirilebilir.
15:49
So think about just a point to point movement.
404
949260
2000
Yalnız bir noktadan diğer bir noktaya olan bir hareketi düşünün.
15:51
I could choose these two paths
405
951260
2000
Bu iki yolu
15:53
out of an infinite number of paths.
406
953260
2000
sınırsız sayıda yol arasından seçebilirim.
15:55
Having chosen a particular path,
407
955260
2000
Belirli bir yol seçtikten sonra,
15:57
I can hold my hand on that path
408
957260
2000
Elimi o yol üzerinde
15:59
as infinitely many different joint configurations.
409
959260
2000
sonsuz sayıda farklı eklem düzenlemeleri ile tutabilirim.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
Ve kolumu belirli bir eklem düzenlemesi ile
16:03
either very stiff or very relaxed.
411
963260
2000
ya çok katı ya da gevşek tutabilirim.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Yani inanılmaz derecede fazla seçeneğim var.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Şimdi ortaya çıkıyor ki, bizler aşırı derecede stereotipik varlıklarız.
16:11
We all move the same way pretty much.
414
971260
3000
Genelde aynı yolu takip ederek hareket ediyoruz.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Sonuçta ne kadar standart olduğumuz ortaya çıkar,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
beynimiz standart hareketi deşifre etmek için
16:18
to decode this stereotyping.
417
978260
2000
kendini sinirsel devreye adamıştır.
16:20
So if I take some dots
418
980260
2000
Yani birkaç nokta alır
16:22
and set them in motion with biological motion,
419
982260
3000
ve onları biyolojik hareketle ilişkilendirirsem,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
beyninizin devresi hemen ne olduğunu algılayacaktır.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Şimd burada hareket eden bir sürü nokta var.
16:30
You will know what this person is doing,
422
990260
3000
Ama bu insanın ne yaptığını anlarsınız.
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
mutlu mu, mutsuz mu, yaşlı mı, genç mi -- çok fazla bilgi.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Eğer bu noktalar bir yarış devresindeki arabalar olsaydı,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
ne olduğu hakkında hiçbir fikriniz olmazdı.
16:41
So why is it
426
1001260
2000
O zaman neden
16:43
that we move the particular ways we do?
427
1003260
2000
belli şekillerde hareket ediyoruz?
16:45
Well let's think about what really happens.
428
1005260
2000
Şimdi aslında ne olduğu hakkında düşünelim.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Belki de tam olarak aynı şekilde hareket etmiyoruz.
16:50
Maybe there's variation in the population.
430
1010260
2000
Belki de popülasyon içinde çeşitlilik var.
16:52
And maybe those who move better than others
431
1012260
2000
Ve belki diğerlerinden daha iyi hareket edenler
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
çocuklarını sonraki nesillere taşımakta daha şanslı olacaklar.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Yani evrimsel boyutta, hareketler daha iyiye gider.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
Ve belki hayatta hareketler öğrenme aracılığıyla gelişir.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Peki bir harekete iyi ya da kötü derken neyi kastediyoruz?
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Düşünün ki ben bu topu durdurmak istiyorum.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Topa giden iki olası yol var.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Eğer sol elin yolunu seçersem,
17:11
I can work out the forces required
439
1031260
2000
gerekli olan gücü zamanın bir fonksiyonu
17:13
in one of my muscles as a function of time.
440
1033260
2000
olarak kaslarımdan birinde uygulayabilirim.
17:15
But there's noise added to this.
441
1035260
2000
Ama buna eklenen bir gürültü var.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Yani aslında bu istediğim güzel ve akıcı hareketle elime geçen
17:20
is a very noisy version.
443
1040260
2000
çok gürültülü bir versiyon.
17:22
So if I pick the same command through many times,
444
1042260
3000
Aynı emri bir çok defa verirsem,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
Her seferinde farklı bir gürültülü versiyona ulaşırım, çünkü gürültüler değişir.
17:28
So what I can show you here
446
1048260
2000
Yani size burada şunu gösterebilirim,
17:30
is how the variability of the movement will evolve
447
1050260
2000
o yolu seçtiğimde hareketin çeşitliliği nasıl
17:32
if I choose that way.
448
1052260
2000
evrilir.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Eğer hareket etmek için farklı bir yol seçersem -- örneğin sağ tarafta --
17:37
then I'll have a different command, different noise,
450
1057260
2000
o zaman farklı emir, farklı gürültüler oluşacaktır,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
gürültülü bir sistemde oynamak oldukça karışıktır.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Emin olabileceğimiz tek şey çeşitlilik farklı olacaktır.
17:45
If I move in this particular way,
453
1065260
2000
Eğer şu şekilde hareket edersem,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
farklı hareket seçeneklerine kıyasla daha az bir çeşitliliğe ulaşırım.
17:50
So if I have to choose between those two,
455
1070260
2000
Yabi bu ikisi arasında karar vermem gerekirse,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
sağ tarafı tercih ederim çünkü orası daha az değişkendir.
17:54
And the fundamental idea
457
1074260
2000
Ve temel fikir şu ki
17:56
is you want to plan your movements
458
1076260
2000
hareketlerinizi planlamak istersiniz,
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
bu şekilde gürültünün olumsuz sonuçlarını azaltmaya çalışırsınız.
18:01
And one intuition to get
460
1081260
2000
Ve elde edilen bir sezgi şudur,
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
burada gösterdiğim gürültünün miktarı ve çeşitliliği aslında
18:05
gets bigger as the force gets bigger.
462
1085260
2000
güç büyüdükçe artar.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Yani kural olarak büyük güçlerden kaçınmaya çalışırsınız.
18:10
So we've shown that using this,
464
1090260
2000
Bunu kullanarak şunu göstermiş oluyoruz ki
18:12
we can explain a huge amount of data --
465
1092260
2000
çok sayıda veriyi açıklayabiliriz --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
insanlar hayatları boyunca hareketlerini planlamaktadırlar,
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
böylelikle gürültünün olumsuz sonuçlarını azaltmayı amaçlarlar.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Umarım beynin orda olduğuna sizi ikna etmişimdir,
18:22
and evolved to control movement.
469
1102260
2000
ve hareketlerimizi kontrol etmek için evrildiğine.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Ve bunu nasıl yaptığımız entellektüel bir meydan okumadır.
18:27
But it's also relevant
471
1107260
2000
Ama aynı zamanda
18:29
for disease and rehabilitation.
472
1109260
2000
hastalıklar ve rehabilatasyonla alakalıdır.
18:31
There are many diseases which effect movement.
473
1111260
3000
Hareketi etkileyen çok sayıda hastalık vardır.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Umut ediyorum ki eğer hareketi nasıl kontrol ettiğimizi anlarsak,
18:36
we can apply that to robotic technology.
475
1116260
2000
bunu robot teknolojisine yansıtabiliriz.
18:38
And finally, I want to remind you,
476
1118260
2000
Ve son olarak size hatırlatmak istiyorum ki,
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
hayvanların çok basitmiş gibi gözüken görevleri yaparken gördüğünüzde,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
beyinlerinin içinde olanların karmaşıklığı
18:44
is really quite dramatic.
479
1124260
2000
oldukça çarpıcıdır.
18:46
Thank you very much.
480
1126260
2000
Çok teşekkür ederim.
18:48
(Applause)
481
1128260
8000
(Alkışlar)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Chris Anderson: Dan, sana hızlı bir soru.
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Yani sen bir hareket şovenistisin.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Bu şu mu demek oluyor, beynimizle ilgili olduğunu sandığımız diğer şeyler --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
rüya görmek, bir şeyi arzulamak, aşık olmak ve bunun gibi birçok şey --
19:08
are a kind of side show, an accident?
486
1148260
3000
asında bir yan ürün, birer kaza mı?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: Hayır, hayır, aslında bence onların tümü önemli,
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
bizi aynı hareketi yeniden üretebilmeye yönelik doğru davranışa yöneltirler.
19:16
So I think people who study sensation or memory
489
1156260
3000
Yani inanıyorum ki his ve hafıza üzerine çalışan insanlar
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
bazen çocukluk anılarını neden sakladığımızı farketmezler.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Mesela çocukluğumuzun büyük bir kısmını unutmamız
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
olağandır, çünkü hayatımızın geri kalanındaki hareketlerimizi etkilemez
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Sadece hareketlerinizi gerçekten etkileyecek şeyleri saklama ihtiyacı duyarsınız.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: Yani diyorsun ki beyin ve genel anlamda bilinç üzerinde düşünen insanlar
19:33
could get real insight
495
1173260
2000
hareket bu oyunun neresinde
19:35
by saying, where does movement play in this game?
496
1175260
2000
diye düşünerek derinleşebilirler?
19:37
DW: So people have found out for example
497
1177260
2000
DW: Yani insanlar örneğin şunu bulmuştur
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
neden görme duyumuz olduğunu farketmeden görme duyusu üzerine çalışmak
19:41
is a mistake.
499
1181260
2000
bir hatadır.
19:43
You have to study vision with the realization
500
1183260
2000
Görme duyusunu hareket sistemimizin
19:45
of how the movement system is going to use vision.
501
1185260
2000
onu nasıl kullanacağını düşünerek çalışmalısınız.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Ve bu şekilde düşündüğünde onu çok farklı kullandığını görebilirsiniz
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: Evet, bu gerçekten etkileyiciydi. Çok teşekkür ederiz.
19:52
(Applause)
504
1192260
2000
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7