Gero Miesenboeck reengineers a brain

52,036 views ・ 2010-11-05

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Teodora Mihaylova Reviewer: Anton Hikov
00:15
I have a doppelganger.
0
15260
3000
Аз имам двойник.
00:18
(Laughter)
1
18260
3000
(Смях)
00:21
Dr. Gero is a brilliant
2
21260
3000
Д-р Геро е прекрасен,
00:24
but slightly mad scientist
3
24260
2000
но леко луд учен
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
в Dragonball Z "Сагата Андроид".
00:29
If you look very carefully,
5
29260
2000
Ако се вгледате много внимателно,
00:31
you see that his skull has been replaced
6
31260
3000
ще видите, че черепът му е заменен
00:34
with a transparent Plexiglas dome
7
34260
2000
с прозрачен плексигласов купол,
00:36
so that the workings of his brain can be observed
8
36260
3000
така че да се вижда как работи мозъкът му,
00:39
and also controlled with light.
9
39260
3000
и да може да се контролира със светлина.
00:42
That's exactly what I do --
10
42260
2000
Аз правя точно това --
00:44
optical mind control.
11
44260
2000
оптичен контрол на мозъка.
00:46
(Laughter)
12
46260
2000
(Смях)
00:48
But in contrast to my evil twin
13
48260
2000
Но за разлика от моя злонамерен двойник,
00:50
who lusts after world domination,
14
50260
3000
който жадува надмощие над света,
00:53
my motives are not sinister.
15
53260
3000
моите мотиви не са користни.
00:56
I control the brain
16
56260
2000
Аз контролирам мозъка,
00:58
in order to understand how it works.
17
58260
2000
за да разбера как работи.
01:00
Now wait a minute, you may say,
18
60260
2000
Почакайте, може да кажете,
01:02
how can you go straight to controlling the brain
19
62260
3000
как може да пристъпите директно към контролиране на мозъка,
01:05
without understanding it first?
20
65260
2000
без първо да разбирате как работи?
01:07
Isn't that putting the cart before the horse?
21
67260
3000
Не означава ли това да поставяме каручката пред коня?
01:11
Many neuroscientists agree with this view
22
71260
3000
Много невролози споделят тази позиция
01:14
and think that understanding will come
23
74260
3000
и смятат, че това разбиране ще дойде
01:17
from more detailed observation and analysis.
24
77260
3000
вследствие на обстойно наблюдение и анализ.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
Те казват: "Ако можем да регистрираме активността на нашите неврони,
01:24
we would understand the brain."
26
84260
3000
бихме разбрали как работи мозъкът."
01:27
But think for a moment what that means.
27
87260
3000
Но помислете за момент какво означава това.
01:30
Even if we could measure
28
90260
2000
Дори ако можехме да преценим
01:32
what every cell is doing at all times,
29
92260
2000
какво прави всяка клетка във всеки един момент,
01:34
we would still have to make sense
30
94260
2000
пак щеше да е необходимо да намерим логиката
01:36
of the recorded activity patterns,
31
96260
2000
в регистрираните модели на активността,
01:38
and that's so difficult,
32
98260
2000
а това е толкова трудно,
01:40
chances are we'll understand these patterns
33
100260
2000
че шансовете да разберем тези модели,
01:42
just as little as the brains that produce them.
34
102260
3000
са точно толкова малки, колкото и за мозъка, който ги генерира.
01:45
Take a look at what brain activity might look like.
35
105260
3000
Погледнете как би могла да изглежда активността на мозъка.
01:48
In this simulation, each black dot
36
108260
2000
В тази симулация, всяка черна точка
01:50
is one nerve cell.
37
110260
2000
представлява една нервна клетка.
01:52
The dot is visible
38
112260
2000
Точката става видима,
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
всеки път, когато клетката излъчи електрически импулс.
01:56
There's 10,000 neurons here.
40
116260
2000
Невроните тук са 10 000 на брой.
01:58
So you're looking at roughly one percent
41
118260
2000
Което означава, че гледате около един процент
02:00
of the brain of a cockroach.
42
120260
3000
от мозъка на хлебарка.
02:04
Your brains are about 100 million times
43
124260
3000
Вашите мозъци са около 100 милиона пъти
02:07
more complicated.
44
127260
2000
по-сложни.
02:09
Somewhere, in a pattern like this,
45
129260
2000
Някъде, в модел като този,
02:11
is you,
46
131260
2000
сте вие,
02:13
your perceptions,
47
133260
2000
вашите възприятия,
02:15
your emotions, your memories,
48
135260
3000
вашите емоции, вашите спомени,
02:18
your plans for the future.
49
138260
2000
вашите планове за бъдещето.
02:20
But we don't know where,
50
140260
2000
Но не знаем точно къде,
02:22
since we don't know how to read the pattern.
51
142260
3000
тъй като не знаем как да разчетем модела.
02:25
We don't understand the code used by the brain.
52
145260
3000
Не разбираме кода, използван от мозъка.
02:28
To make progress,
53
148260
2000
За да отбележим напредък,
02:30
we need to break the code.
54
150260
2000
трябва да разшифроваме кода.
02:32
But how?
55
152260
2000
Но как?
02:35
An experienced code-breaker will tell you
56
155260
2000
Всеки добър специалист, ще ви каже,
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
че за да разберете какво означават символите в определен код,
02:40
it's essential to be able to play with them,
58
160260
3000
от съществено значение е да можете свободно да си служите с тях,
02:43
to rearrange them at will.
59
163260
2000
да ги пренареждате, както решите.
02:45
So in this situation too,
60
165260
2000
Така че, и в тази ситуация,
02:47
to decode the information
61
167260
2000
за да се разшифрова информацията,
02:49
contained in patterns like this,
62
169260
2000
която се съдържа в модели като тези,
02:51
watching alone won't do.
63
171260
2000
само наблюдение няма да е достатъчно;
02:53
We need to rearrange the pattern.
64
173260
2000
трябва да пренаредим модела.
02:55
In other words,
65
175260
2000
С други думи,
02:57
instead of recording the activity of neurons,
66
177260
2000
вместо да регистрираме активността на невроните,
02:59
we need to control it.
67
179260
2000
трябва да я контролираме.
03:01
It's not essential that we can control
68
181260
2000
Не е задължително да контролираме
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
активността на всички неврони в мозъка, само на някои.
03:06
The more targeted our interventions, the better.
70
186260
2000
Колкото по-целенасочени са интервенциите ни, толкова по-добре.
03:08
And I'll show you in a moment
71
188260
2000
И ще ви покажа след малко
03:10
how we can achieve the necessary precision.
72
190260
3000
как можем да постигнем необходимото прецизиране.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
И понеже съм по-скоро реалист, отколкото грандоман,
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
не твърдя, че възможността да се контролира функцията на нервната система
03:19
will at once unravel all its mysteries.
75
199260
3000
ще разгадае мигновено всичките й мистерии.
03:22
But we'll certainly learn a lot.
76
202260
3000
Но със сигурност ще научим много.
03:27
Now, I'm by no means
77
207260
2000
Аз при всички случаи не съм
03:29
the first person to realize
78
209260
2000
първия човек, който осъзнава
03:31
how powerful a tool intervention is.
79
211260
3000
колко мощно средство са подобни интервенции.
03:34
The history of attempts
80
214260
2000
Исторически, опитите
03:36
to tinker with the function of the nervous system
81
216260
2000
да се разучават функциите на нервната система,
03:38
is long and illustrious.
82
218260
2000
датират отдавна и са широко известни.
03:40
It dates back at least 200 years,
83
220260
3000
Те водят началото си преди поне 200 години,
03:43
to Galvani's famous experiments
84
223260
2000
от известните експерименти на Галвани
03:45
in the late 18th century and beyond.
85
225260
3000
в края на 18-ти век, както и след това.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
Галвани показва, че жабешките крачета потръпват,
03:52
when he connected the lumbar nerve
87
232260
2000
когато свързва лумбалния нерв
03:54
to a source of electrical current.
88
234260
3000
към източник на електрически ток.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
Този експеримент разкрива първата и може би най-основна
04:00
nugget of the neural code:
90
240260
2000
находка за невралния код:
04:02
that information is written in the form
91
242260
2000
информацията е записана под формата
04:04
of electrical impulses.
92
244260
3000
на електрически импулси.
04:08
Galvani's approach
93
248260
2000
Подходът на Галвани
04:10
of probing the nervous system with electrodes
94
250260
2000
на изследване на нервната система с електроди,
04:12
has remained state-of-the-art until today,
95
252260
3000
си остава шедьовър и до днес,
04:15
despite a number of drawbacks.
96
255260
3000
въпреки немалкото му слабости.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
Поставянето на жици в мозъка обаче, е очевидно доста непрактично.
04:21
It's hard to do in animals that run around,
98
261260
2000
Трудно е да се направи с животни, които бягат наоколо,
04:23
and there is a physical limit
99
263260
2000
а и има физическо ограничение
04:25
to the number of wires
100
265260
2000
за броя на жиците,
04:27
that can be inserted simultaneously.
101
267260
3000
които могат да се поставят едновременно.
04:30
So around the turn of the last century,
102
270260
2000
Така, към края на миналия век,
04:32
I started to think,
103
272260
2000
започнах да мисля,
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
не би ли било чудесно, ако се ползва същата логика,
04:37
and turn it upside down?"
105
277260
2000
но в обратен ред.
04:39
So instead of inserting a wire
106
279260
2000
Следователно, вместо поставянето на жица
04:41
into one spot of the brain,
107
281260
3000
в определена част на мозъка,
04:44
re-engineer the brain itself
108
284260
2000
може да се подходи към самия мозък
04:46
so that some of its neural elements
109
286260
3000
така, че някои от невралните му елементи
04:49
become responsive to diffusely broadcast signals
110
289260
3000
да са чувствителни към дифузно излъчвани сигнали,
04:52
such as a flash of light.
111
292260
3000
какъвто е например светкавицата.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
Такъв един подход, буквално светкавично,
04:58
overcome many of the obstacles to discovery.
113
298260
3000
ще доведе до преодоляването на много препятствия по пътя на откритията.
05:01
First, it's clearly a non-invasive,
114
301260
3000
Първо, очевидно е неагресивна,
05:04
wireless form of communication.
115
304260
3000
безжична форма на комуникация.
05:07
And second, just as in a radio broadcast,
116
307260
2000
И второ, точно както при радио излъчването,
05:09
you can communicate with many receivers at once.
117
309260
3000
може да се комуникира с много получатели на сигнал едновременно.
05:12
You don't need to know where these receivers are,
118
312260
3000
Не е нужно да знаете къде са тези получатели.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
И е без значение дали тези получатели се движат --
05:17
just think of the stereo in your car.
120
317260
3000
просто си представете стерео уредбата в колата си.
05:20
It gets even better,
121
320260
3000
А още по-добре е,
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
че се оказва, че можем да измайсторим получателите,
05:26
out of materials that are encoded in DNA.
123
326260
3000
измежду веществата, които са кодирани в ДНК.
05:29
So each nerve cell
124
329260
2000
Така, всяка нервна клетка
05:31
with the right genetic makeup
125
331260
2000
с правилния генетичен състав,
05:33
will spontaneously produce a receiver
126
333260
3000
може спонтанно да формира получател,
05:36
that allows us to control its function.
127
336260
3000
който ще ни позволи да контролираме функциите му.
05:39
I hope you'll appreciate
128
339260
2000
Надявам се да оцените
05:41
the beautiful simplicity
129
341260
2000
очарованието на това, колко проста е
05:43
of this concept.
130
343260
2000
тази концепция.
05:45
There's no high-tech gizmos here,
131
345260
2000
Няма никакви високо технологични приспособления,
05:47
just biology revealed through biology.
132
347260
3000
само биология, илюстрирана чрез биология.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
Сега, нека да погледнем по-отблизо тези удивителни приемници.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
Разглеждайки по-обстойно тези лилави неврони,
05:57
we see that its outer membrane
135
357260
2000
виждаме, че външната им мембрана
05:59
is studded with microscopic pores.
136
359260
2000
e покрита с микроскопични пори.
06:01
Pores like these conduct electrical current
137
361260
2000
Такива пори провеждат електрически ток
06:03
and are responsible
138
363260
2000
и отговарят
06:05
for all the communication in the nervous system.
139
365260
2000
за цялата комуникация в нервната система.
06:07
But these pores here are special.
140
367260
2000
Но тези пори тук са специални.
06:09
They are coupled to light receptors
141
369260
2000
Те са свързани с рецептори за светлина,
06:11
similar to the ones in your eyes.
142
371260
3000
подобни на тези във вашите очи.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
В случай на светкавица, достигаща до рецептора,
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
пората се отваря и електрическия поток е налице
06:19
and the neuron fires electrical impulses.
145
379260
3000
и невроните излъчват електрически импулси.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
Тъй като пората, активирана от светлината, е кодирана в ДНК,
06:25
we can achieve incredible precision.
147
385260
3000
можем да постигнем изключителна точност.
06:28
This is because,
148
388260
2000
Това е така, защото
06:30
although each cell in our bodies
149
390260
2000
въпреки, че всяка клетка в телата ни
06:32
contains the same set of genes,
150
392260
2000
съдържа един и същи комплекс от гени,
06:34
different mixes of genes get turned on and off
151
394260
2000
различни комбинации от гени се "включват" и "изключват"
06:36
in different cells.
152
396260
2000
в различните клетки.
06:38
You can exploit this to make sure
153
398260
2000
Това обстоятелство може да бъде уверение,
06:40
that only some neurons
154
400260
2000
че само някои неврони
06:42
contain our light-activated pore and others don't.
155
402260
3000
съдържат порите, които се активират от светлина, други -- не.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
На тази илюстрация, клетката в синьо-бял цвят
06:47
in the upper-left corner
157
407260
2000
в горния ляв ъгъл,
06:49
does not respond to light
158
409260
2000
не реагира на светлина,
06:51
because it lacks the light-activated pore.
159
411260
3000
защото при нея липсва пора, реагираща на светлина.
06:54
The approach works so well
160
414260
2000
Този подход работи толкова добре,
06:56
that we can write purely artificial messages
161
416260
2000
че можем да пишем изкуствени съобщения
06:58
directly to the brain.
162
418260
2000
директно към мозъка.
07:00
In this example, each electrical impulse,
163
420260
2000
В този пример, всеки електрически импулс,
07:02
each deflection on the trace,
164
422260
3000
всяко отклонение на траекторията
07:05
is caused by a brief pulse of light.
165
425260
3000
е предизвикано от кратък импулс светлина.
07:08
And the approach, of course, also works
166
428260
2000
Подходът е приложим също и
07:10
in moving, behaving animals.
167
430260
3000
при движещи се, активни животни.
07:13
This is the first ever such experiment,
168
433260
2000
Това е първия по рода си подобен експеримент,
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
нещо като оптичния вариант на този на Галвани.
07:18
It was done six or seven years ago
170
438260
2000
Реализиран е преди шест или седем години,
07:20
by my then graduate student, Susana Lima.
171
440260
3000
от тогавашната ми студентка, Сузана Лима.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
Сузана поставя мушицата от ляво
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
по такъв начин, че само две от всички 200 000 клетки в мозъка й
07:30
expressed the light-activated pore.
174
450260
3000
проявяват порите, чувствителни към светлина.
07:33
You're familiar with these cells
175
453260
2000
Вие познавате тези клетки,
07:35
because they are the ones that frustrate you
176
455260
2000
защото те са точно тези, които ви ядосват,
07:37
when you try to swat the fly.
177
457260
2000
когато се опитате да ударите мухата.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
Те предизвикват рефлекса, който кара мухата да скочи във въздуха
07:42
and fly away whenever you move your hand in position.
179
462260
3000
и да отлети всеки път, когато посегнете с ръка.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
И в случая както виждате, светкавицата има точно такъв ефект.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
Животното подскача, разперва крилете си, потреперва,
07:52
but it can't actually take off
182
472260
2000
но всъщност не може да излети,
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
защото мушиците са поставени между две стъклени плочки.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
Сега, за да се увери, че това не е реакция на мушицата,
08:00
to a flash it could see,
185
480260
3000
към светкавица, която може да види,
08:03
Susana did a simple
186
483260
2000
Сузана прави простичък,
08:05
but brutally effective experiment.
187
485260
2000
но изключително ефективен експеримент.
08:07
She cut the heads off of her flies.
188
487260
3000
Тя отрязва главите на мушиците.
08:11
These headless bodies can live for about a day,
189
491260
3000
Тези обезглавени тела могат да живеят около ден,
08:14
but they don't do much.
190
494260
2000
но без особени способности.
08:16
They just stand around
191
496260
3000
Те просто стоят
08:19
and groom excessively.
192
499260
3000
и щураво се суетят наоколо.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
Така че изглежда, че единствената черта, която оцелява, е суетата.
08:25
(Laughter)
194
505260
3000
(Смях)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
Така или иначе, както ще видите след малко,
08:32
Susana was able to turn on the flight motor
196
512260
3000
Сузана успява да активира летателния рефлекс
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
на тази част от мушицата, която е еквивалента на гръбначния стълб
08:38
and get some of the headless bodies
198
518260
2000
и да накара някои от обезглавените тела
08:40
to actually take off and fly away.
199
520260
3000
да излетят и да се придвижат.
08:47
They didn't get very far, obviously.
200
527260
2000
Очевидно, не стигат много далеч.
08:50
Since we took these first steps,
201
530260
2000
От момента, в който са направени тези първи стъпки,
08:52
the field of optogenetics has exploded.
202
532260
3000
сферата на оптогенетика търпи бурно развитие.
08:55
And there are now hundreds of labs
203
535260
2000
Понастоящем, стотици лаборатории
08:57
using these approaches.
204
537260
2000
използват тези подходи.
08:59
And we've come a long way
205
539260
2000
Извървяхме дълъг път
09:01
since Galvani's and Susana's first successes
206
541260
3000
от първите успехи на Галвани и Сузана
09:04
in making animals twitch or jump.
207
544260
2000
да накарат животни да потръпват или скачат.
09:06
We can now actually interfere with their psychology
208
546260
3000
Сега, всъщност можем да влияем на психологията им
09:09
in rather profound ways,
209
549260
2000
по доста значим начин,
09:11
as I'll show you in my last example,
210
551260
2000
както ще видите в последния ми пример,
09:13
which is directed at a familiar question.
211
553260
3000
който се отнася до един известен въпрос.
09:16
Life is a string of choices
212
556260
3000
Животът е низ от избори,
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
което създава постоянен натиск да решим какво следва да правим.
09:23
We cope with this pressure by having brains,
214
563260
3000
С този натиск се справяме чрез нашите мозъци,
09:26
and within our brains, decision-making centers
215
566260
3000
а в нашите мозъци са центровете за вземане на решения,
09:29
that I've called here the "Actor."
216
569260
3000
които аз условно съм нарекъл Играчът.
09:33
The Actor implements a policy that takes into account
217
573260
3000
Играчът прилага линии на поведение, които отчитат
09:36
the state of the environment
218
576260
2000
състоянието на заобикалящата го среда
09:38
and the context in which we operate.
219
578260
3000
и контекстът, в който функционираме.
09:41
Our actions change the environment, or context,
220
581260
3000
Действията ни променят заобикалящата ни среда или контекст
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
и тези променени величини, отново заемат мястото си в цикъла на решенията.
09:48
Now to put some neurobiological meat
222
588260
3000
Сега, за да вложим невробиологично съдържание
09:51
on this abstract model,
223
591260
2000
в този абстрактен модел,
09:53
we constructed a simple one-dimensional world
224
593260
2000
създадохме елементарен модел на света, с едно измерение
09:55
for our favorite subject, fruit flies.
225
595260
3000
за нашите любими субекти, плодовите мушици.
09:58
Each chamber in these two vertical stacks
226
598260
2000
Всяка от камерите в тези две вертикални хранилища
10:00
contains one fly.
227
600260
2000
съдържа по една мушица.
10:02
The left and the right halves of the chamber
228
602260
3000
Левите и десните половини на камерите
10:05
are filled with two different odors,
229
605260
2000
са пълни с два различни аромата,
10:07
and a security camera watches
230
607260
2000
а камера за видеонаблюдение следи
10:09
as the flies pace up and down between them.
231
609260
3000
движението на мушиците нагоре и надолу между тях.
10:12
Here's some such CCTV footage.
232
612260
2000
Ето част от заснетия материал.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
Всеки път, когато някоя от мушиците достигне средата на камерата,
10:17
where the two odor streams meet,
234
617260
2000
където двата аромата се срещат,
10:19
it has to make a decision.
235
619260
2000
тя трябва да вземе решение.
10:21
It has to decide whether to turn around
236
621260
2000
Тя трябва да реши дали да се завърти
10:23
and stay in the same odor,
237
623260
2000
и да остане при същия аромат
10:25
or whether to cross the midline
238
625260
2000
или да пресече средната линия
10:27
and try something new.
239
627260
2000
и да опита нещо ново.
10:29
These decisions are clearly a reflection
240
629260
3000
Тези решения са ясно отражение на
10:32
of the Actor's policy.
241
632260
3000
линията на поведение на Играчът.
10:36
Now for an intelligent being like our fly,
242
636260
3000
За интелигентно същество като нашата мушица,
10:39
this policy is not written in stone
243
639260
3000
тази линия на поведение не е неотменима,
10:42
but rather changes as the animal learns from experience.
244
642260
3000
по-скоро се променя, докато животното се учи от опита си.
10:45
We can incorporate such an element
245
645260
2000
Можем да включим такъв елемент
10:47
of adaptive intelligence into our model
246
647260
3000
на адаптивна интелигентност в нашия модел,
10:50
by assuming that the fly's brain
247
650260
2000
чрез допускане, че мозъкът на мушицата
10:52
contains not only an Actor,
248
652260
2000
включва не само Играч,
10:54
but a different group of cells,
249
654260
2000
но и различни групи от клетки,
10:56
a "Critic," that provides a running commentary
250
656260
3000
Критикa, която предлага постоянен коментар
10:59
on the Actor's choices.
251
659260
2000
за изборите на Играчa.
11:01
You can think of this nagging inner voice
252
661260
3000
Може да си представите този натрапчив вътрешен глас,
11:04
as sort of the brain's equivalent
253
664260
2000
като еквивалента за мозъка
11:06
of the Catholic Church,
254
666260
2000
на Католическата Църква,
11:08
if you're an Austrian like me,
255
668260
3000
ако сте австриец като мен,
11:11
or the super-ego, if you're Freudian,
256
671260
3000
или на суперегото, ако сте Фройдист
11:14
or your mother, if you're Jewish.
257
674260
2000
или на вашата майка, ако сте евреин.
11:16
(Laughter)
258
676260
4000
(Смях)
11:20
Now obviously,
259
680260
2000
Очевидно,
11:22
the Critic is a key ingredient
260
682260
3000
критиката е ключовият компонент
11:25
in what makes us intelligent.
261
685260
2000
на нашата интелигентност.
11:27
So we set out to identify
262
687260
2000
Сега се насочваме към идентифициране
11:29
the cells in the fly's brain
263
689260
2000
на тези клетки в мозъка на мушицата,
11:31
that played the role of the Critic.
264
691260
2000
които играят ролята на Критиката.
11:33
And the logic of our experiment was simple.
265
693260
3000
Логиката на нашия експеримент е проста.
11:36
We thought if we could use our optical remote control
266
696260
3000
Приемаме, че ако можем да използваме оптичното дистанционно управление,
11:39
to activate the cells of the Critic,
267
699260
3000
за да активираме клетките на Критиката,
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
следва да можем, изкуствено, да накараме Играчът
11:45
into changing its policy.
269
705260
2000
да промени линията си на поведение.
11:47
In other words,
270
707260
2000
С други думи,
11:49
the fly should learn from mistakes
271
709260
2000
мушицата следва да се поучи от грешките,
11:51
that it thought it had made
272
711260
2000
които смята, че е направила,
11:53
but, in reality, it had not made.
273
713260
3000
а в действителност не е.
11:56
So we bred flies
274
716260
2000
Така, създадохме мушици,
11:58
whose brains were more or less randomly peppered
275
718260
3000
чиито мозъци са много или малко произволно осеяни
12:01
with cells that were light addressable.
276
721260
2000
с клетки, които са чувствителни към светлина.
12:03
And then we took these flies
277
723260
2000
После взехме тези мушици
12:05
and allowed them to make choices.
278
725260
2000
и им предоставихме избор.
12:07
And whenever they made one of the two choices,
279
727260
2000
И всеки път, когато правят един от два избора,
12:09
chose one odor,
280
729260
2000
избират даден аромат,
12:11
in this case the blue one over the orange one,
281
731260
2000
в този случай, синия пред оранжевия,
12:13
we switched on the lights.
282
733260
2000
включваме светлините.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
Ако Критиката е съставена от оптично чувствителни клетки,
12:18
the result of this intervention
284
738260
2000
резултатът от тази интервенция
12:20
should be a change in policy.
285
740260
3000
следва да бъде промяна в линията на поведение.
12:23
The fly should learn to avoid
286
743260
2000
Мушицата следва да се научи да избягва
12:25
the optically reinforced odor.
287
745260
2000
оптично подсиления аромат.
12:27
Here's what happened in two instances:
288
747260
3000
Ето какво се случва в два от примерите.
12:30
We're comparing two strains of flies,
289
750260
3000
Сравняваме два щама мушици,
12:33
each of them having
290
753260
2000
всяка от които има
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
около 100 светло-чувствителни клетки в мозъка си,
12:37
shown here in green on the left and on the right.
292
757260
3000
отразени тук в зелено, в ляво и в дясно.
12:40
What's common among these groups of cells
293
760260
3000
Общото между тези групи от клетки
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
е, че те всички произвеждат невротрансмитера допамин.
12:46
But the identities of the individual
295
766260
2000
Същността на отделните
12:48
dopamine-producing neurons
296
768260
2000
неврони, произвеждащи допамин, обаче,
12:50
are clearly largely different on the left and on the right.
297
770260
3000
очевидно се различава много в ляво и в дясно.
12:53
Optically activating
298
773260
2000
Оптичното активиране
12:55
these hundred or so cells
299
775260
2000
на тези стотина клетки,
12:57
into two strains of flies
300
777260
2000
при двата щама мушици,
12:59
has dramatically different consequences.
301
779260
2000
дава коренно различни резултати.
13:01
If you look first at the behavior
302
781260
2000
Ако погледнете първо поведението
13:03
of the fly on the right,
303
783260
2000
на мушицата в дясно,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
ще видите, че всеки път, когато достигне средата на камерата,
13:08
where the two odors meet,
305
788260
2000
където двата аромата се срещат,
13:10
it marches straight through, as it did before.
306
790260
3000
продължава право напред, както и преди.
13:13
Its behavior is completely unchanged.
307
793260
2000
Поведението й е напълно непроменено.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
Поведението на мушицата в ляво е много различно.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
Всеки път, когато достигне средата,
13:21
it pauses,
310
801260
2000
прави пауза,
13:23
it carefully scans the odor interface
311
803260
2000
внимателно изучава разделящата аромата повърхнина,
13:25
as if it was sniffing out its environment,
312
805260
2000
като че ли вдишва заобикалящата го среда
13:27
and then it turns around.
313
807260
2000
и после се обръща.
13:29
This means that the policy that the Actor implements
314
809260
3000
Това означава, че линията на поведение, която Играчът следва
13:32
now includes an instruction to avoid the odor
315
812260
2000
сега включва инструкция да се избягва аромата,
13:34
that's in the right half of the chamber.
316
814260
3000
който е в дясната половина на камерата.
13:37
This means that the Critic
317
817260
2000
Това означава, че Критиката
13:39
must have spoken in that animal,
318
819260
2000
трябва да е проговорила у това животно
13:41
and that the Critic must be contained
319
821260
2000
и че Критиката трябва да се съдържа
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
сред произвеждащите допамин неврони в ляво,
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
но не и сред произвеждащите допамин неврони в дясно.
13:49
Through many such experiments,
322
829260
3000
Чрез множество такива експерименти,
13:52
we were able to narrow down
323
832260
2000
успяхме да сведем
13:54
the identity of the Critic
324
834260
2000
идентичността на Критиката,
13:56
to just 12 cells.
325
836260
2000
до едва 12 клетки.
13:58
These 12 cells, as shown here in green,
326
838260
3000
Тези 12 клетки, както е показано тук в зелено,
14:01
send the output to a brain structure
327
841260
2000
изпращат изходните данни към мозъчна структура,
14:03
called the "mushroom body,"
328
843260
2000
която се нарича гъбовидното тяло,
14:05
which is shown here in gray.
329
845260
2000
което тук е в сиво.
14:07
We know from our formal model
330
847260
2000
Знаем oт нашия условен модел,
14:09
that the brain structure
331
849260
2000
че в структурата на мозъка,
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
от страната на получаващия коментара на Критиката, е Играчът.
14:14
So this anatomy suggests
333
854260
2000
Следователно, тази анатомия предполага,
14:16
that the mushroom bodies have something to do
334
856260
3000
че гъбовидните тела имат нещо общо
14:19
with action choice.
335
859260
2000
с избора на действие.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
Въз основа на всичко, което знаем за гъбовидните тела
14:23
this makes perfect sense.
337
863260
2000
това звучи съвсем логично.
14:25
In fact, it makes so much sense
338
865260
2000
Всъщност, звучи толкова логично,
14:27
that we can construct an electronic toy circuit
339
867260
3000
че можем да направим платка за електронна играчка,
14:30
that simulates the behavior of the fly.
340
870260
3000
която да стимулира поведението на мушицата.
14:33
In this electronic toy circuit,
341
873260
3000
В тази платка на електронната играчка,
14:36
the mushroom body neurons are symbolized
342
876260
2000
невроните на гъбовидното тяло са обозначени
14:38
by the vertical bank of blue LEDs
343
878260
3000
с вертикален ред от сини светодиоди (LED индикатори),
14:41
in the center of the board.
344
881260
3000
в центъра на полето.
14:44
These LED's are wired to sensors
345
884260
2000
Светодиодите са свързани към сензори,
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
които отчитат присъствието на молекули на аромата във въздуха.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
Всеки аромат активира различна комибинация от сензори,
14:53
which in turn activates
348
893260
2000
което на свой ред активира
14:55
a different odor detector in the mushroom body.
349
895260
3000
различен детектор на аромат, в гъбовидното тяло.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
Така пилотът в пилотската кабина на мушицата,
15:00
the Actor,
351
900260
2000
Играчът,
15:02
can tell which odor is present
352
902260
2000
може да различи кой аромат е налице,
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
като просто погледне кой от сините светодиоди е включен.
15:09
What the Actor does with this information
354
909260
2000
Какво прави Играчът с тази информация,
15:11
depends on its policy,
355
911260
2000
зависи от линията му на поведение,
15:13
which is stored in the strengths of the connection,
356
913260
2000
която се съхранява в силата на връзката
15:15
between the odor detectors
357
915260
2000
между детекторите за аромат
15:17
and the motors
358
917260
2000
и двигателните мускули,
15:19
that power the fly's evasive actions.
359
919260
2000
които дават тласък на уклончивите действия на мушицата.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
Ако връзката е слаба, двигателните мускули няма да се задействат
15:24
and the fly will continue straight on its course.
361
924260
3000
и мушицата ще продължи напред по курса си.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
Ако връзката е силна, мускулите се задействат
15:30
and the fly will initiate a turn.
363
930260
3000
и мушицата прави завой.
15:33
Now consider a situation
364
933260
2000
Сега си представете ситуация,
15:35
in which the motors stay off,
365
935260
2000
в която двигателните мускули остават в покой,
15:37
the fly continues on its path
366
937260
3000
мушицата продължава по пътя си
15:40
and it suffers some painful consequence
367
940260
2000
и претърпява болезнено следствие,
15:42
such as getting zapped.
368
942260
2000
като например да бъде ударена.
15:44
In a situation like this,
369
944260
2000
В ситуация като тази,
15:46
we would expect the Critic to speak up
370
946260
2000
се очаква Критиката да заговори
15:48
and to tell the Actor
371
948260
2000
и да каже на Играчът
15:50
to change its policy.
372
950260
2000
да промени линията си на поведение.
15:52
We have created such a situation, artificially,
373
952260
3000
Ние създаваме такава ситуация изкуствено,
15:55
by turning on the critic with a flash of light.
374
955260
3000
чрез задействане на Критиката със светлинен проблясък.
15:58
That caused a strengthening of the connections
375
958260
3000
Това води до засилване на връзките
16:01
between the currently active odor detector
376
961260
3000
между активния в момента детектор на аромат
16:04
and the motors.
377
964260
2000
и двигателните мускули.
16:06
So the next time
378
966260
2000
Така, следващия път,
16:08
the fly finds itself facing the same odor again,
379
968260
3000
мушицата се оказва пред същия аромат отново,
16:11
the connection is strong enough to turn on the motors
380
971260
3000
връзката е достатъчно силна, за да задейства двигателните мускули
16:14
and to trigger an evasive maneuver.
381
974260
3000
и да предизвика отстъпление.
16:19
I don't know about you,
382
979260
3000
Не знам за вас,
16:22
but I find it exhilarating to see
383
982260
3000
но аз считам, че е обнадеждаващо да се види
16:25
how vague psychological notions
384
985260
3000
как неясни психологически схващания
16:28
evaporate and give rise
385
988260
2000
отстъпват място на началото
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
на едно материално, механистично възприятие за мозъка,
16:33
even if it's the mind of the fly.
387
993260
3000
дори и да става дума за мозъка на муха.
16:36
This is one piece of good news.
388
996260
3000
Това е своебразна добра новина.
16:39
The other piece of good news,
389
999260
2000
Другата своебразна добра новина,
16:41
for a scientist at least,
390
1001260
2000
или поне добра за един учен,
16:43
is that much remains to be discovered.
391
1003260
3000
е че предстоят още много открития.
16:46
In the experiments I told you about,
392
1006260
2000
В експериментите, за които ви споменах,
16:48
we have lifted the identity of the Critic,
393
1008260
3000
въведохме величината идентичност на Критиката,
16:51
but we still have no idea
394
1011260
2000
но все още нямаме идея
16:53
how the Critic does its job.
395
1013260
2000
как работи Критиката.
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
Като се замисля над това, да знаете, че когато грешите
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
учителя ви или майка ви ги няма, за да ви кажат,
17:00
is a very hard problem.
398
1020260
2000
е много трудна задача.
17:02
There are some ideas in computer science
399
1022260
2000
Съществуват идеи в компютърната наука
17:04
and in artificial intelligence
400
1024260
2000
и в тази за изкуствения интелект,
17:06
as to how this might be done,
401
1026260
2000
как може да се направи това,
17:08
but we still haven't solved
402
1028260
2000
но все още не намираме обяснение
17:10
a single example
403
1030260
2000
в нито един пример,
17:12
of how intelligent behavior
404
1032260
3000
как интелигентно поведение
17:15
springs from the physical interactions
405
1035260
2000
възниква от физически взаимодействия
17:17
in living matter.
406
1037260
2000
в живата материя.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
Мисля, че ще го постигнем в обозримото бъдеще.
17:22
Thank you.
408
1042260
2000
Благодаря ви!
17:24
(Applause)
409
1044260
4000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7