Sebastian Seung: I am my connectome

Я – это мой коннектом

248,430 views ・ 2010-09-28

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Eugeniy Ivanov Редактор: Katya Osnovsky
00:17
We live in in a remarkable time,
0
17260
3000
Мы живем в удивительное время,
00:20
the age of genomics.
1
20260
3000
эру геномики.
00:23
Your genome is the entire sequence of your DNA.
2
23260
3000
Ваш геном – это вся последовательность вашей ДНК.
00:26
Your sequence and mine are slightly different.
3
26260
3000
Ваша и моя последовательности немного различаются.
00:29
That's why we look different.
4
29260
2000
Вот почему мы выглядим по-разному.
00:31
I've got brown eyes;
5
31260
2000
У меня карие глаза.
00:33
you might have blue or gray.
6
33260
3000
Ваши могут быть голубыми или серыми.
00:36
But it's not just skin-deep.
7
36260
2000
Но дело не только во внешности.
00:38
The headlines tell us
8
38260
2000
Газеты пестрят заголовками,
00:40
that genes can give us scary diseases,
9
40260
3000
что наши гены передают нам страшные заболевания,
00:43
maybe even shape our personality,
10
43260
3000
формируют наши личности
00:46
or give us mental disorders.
11
46260
3000
или даже являются причиной умственных расстройств.
00:49
Our genes seem to have
12
49260
3000
Похоже, наши гены имеют
00:52
awesome power over our destinies.
13
52260
3000
колоссальное влияние на наши судьбы.
00:56
And yet, I would like to think
14
56260
3000
И все же, я склонен думать,
00:59
that I am more than my genes.
15
59260
3000
что я больше чем мои гены.
01:04
What do you guys think?
16
64260
2000
Дорогие зрители, что вы об этом думаете?
01:06
Are you more than your genes?
17
66260
3000
Вы что-то еще чем просто ваши гены?
01:09
(Audience: Yes.) Yes?
18
69260
2000
[Аудитория: Да.] Да?
01:13
I think some people agree with me.
19
73260
2000
Вижу, что многие со мной согласны.
01:15
I think we should make a statement.
20
75260
2000
Я думаю, что мы должны заявить об этом.
01:17
I think we should say it all together.
21
77260
2000
Я думаю, что мы должны сказать это все вместе.
01:20
All right: "I'm more than my genes" -- all together.
22
80260
3000
Скажите: "Я не только мои гены!" – все вместе.
01:23
Everybody: I am more than my genes.
23
83260
4000
>> Себастьян и аудитория: "Я не только мои гены!"
01:27
(Cheering)
24
87260
2000
[возгласы одобрения]
01:30
Sebastian Seung: What am I?
25
90260
2000
…что же я?
01:32
(Laughter)
26
92260
3000
[смех в зале]
01:35
I am my connectome.
27
95260
3000
Я – мой коннектом.
01:40
Now, since you guys are really great,
28
100260
2000
Теперь, раз вы все такие замечательные,
01:42
maybe you can humor me and say this all together too.
29
102260
2000
может быть вы меня осчастливите и тоже повторите это?
01:44
(Laughter)
30
104260
2000
[смех в зале]
01:46
Right. All together now.
31
106260
2000
Отлично. Все вместе.
01:48
Everybody: I am my connectome.
32
108260
3000
>> Себастьян и аудитория: "Я – мой коннектом!"
01:53
SS: That sounded great.
33
113260
2000
>> Себастьян: Это звучало великолепно.
01:55
You know, you guys are so great, you don't even know what a connectome is,
34
115260
2000
Вы такие замечательные ребята, вы не зная, что такое коннектом,
01:57
and you're willing to play along with me.
35
117260
2000
все равно готовы помогать мне.
01:59
I could just go home now.
36
119260
3000
Миссия выполнена - можно идти домой.
02:02
Well, so far only one connectome is known,
37
122260
3000
На самом деле пока только один коннектом известен,
02:05
that of this tiny worm.
38
125260
3000
коннектом этого червячка.
02:08
Its modest nervous system
39
128260
2000
Его скромная нервная система
02:10
consists of just 300 neurons.
40
130260
2000
состоит из всего лишь трехсот нейронов.
02:12
And in the 1970s and '80s,
41
132260
2000
И в 1970-х и в 80-х годах
02:14
a team of scientists
42
134260
2000
команда ученых
02:16
mapped all 7,000 connections
43
136260
2000
нанесла на карту все 7 000 соединений
02:18
between the neurons.
44
138260
2000
между этими нейронами.
02:21
In this diagram, every node is a neuron,
45
141260
2000
На этой диаграмме каждый узел – это нейрон,
02:23
and every line is a connection.
46
143260
2000
а каждая линия – соединение.
02:25
This is the connectome
47
145260
2000
Это коннектом
02:27
of the worm C. elegans.
48
147260
4000
червя-нематоды.
02:31
Your connectome is far more complex than this
49
151260
3000
Ваш коннектом намного сложнее этого,
02:34
because your brain
50
154260
2000
потому что ваш мозг
02:36
contains 100 billion neurons
51
156260
2000
содержит 100 миллиардов нейронов
02:38
and 10,000 times as many connections.
52
158260
3000
и в 10 000 раз больше соединений.
02:41
There's a diagram like this for your brain,
53
161260
2000
Можно составить подобную диаграмму и для вашего мозга,
02:43
but there's no way it would fit on this slide.
54
163260
3000
но она никаким образом не сможет поместиться на этот слайд.
02:47
Your connectome contains one million times more connections
55
167260
3000
Ваш коннектом содержит в миллион раз больше соединений,
02:50
than your genome has letters.
56
170260
3000
чем количество букв в вашем геноме.
02:53
That's a lot of information.
57
173260
2000
Это ОЧЕНЬ много информации.
02:55
What's in that information?
58
175260
3000
Что это за информация?
02:59
We don't know for sure, but there are theories.
59
179260
3000
Нам не известно это наверняка, но есть теории.
03:02
Since the 19th century, neuroscientists have speculated
60
182260
3000
С 19-го века неврологи стали подозревать,
03:05
that maybe your memories --
61
185260
2000
что, может быть, это ваши воспоминания –
03:07
the information that makes you, you --
62
187260
2000
информация, делающая вас вами –
03:09
maybe your memories are stored
63
189260
2000
может быть, ваши воспоминания хранятся
03:11
in the connections between your brain's neurons.
64
191260
2000
в соединениях между нейронами вашего мозга.
03:15
And perhaps other aspects of your personal identity --
65
195260
2000
И возможно другие аспекты вашей индивидуальности –
03:17
maybe your personality and your intellect --
66
197260
3000
ваша личность и ваш интеллект –
03:20
maybe they're also encoded
67
200260
2000
может быть, они тоже закодированы
03:22
in the connections between your neurons.
68
202260
3000
в соединениях между нейронами.
03:26
And so now you can see why I proposed this hypothesis:
69
206260
3000
Теперь вам должно быть понятно, почему я заявил об этой гипотезе:
03:29
I am my connectome.
70
209260
3000
Я – мой коннектом.
03:32
I didn't ask you to chant it because it's true;
71
212260
3000
Я не стану вас просить повторять это как заклинание.
03:35
I just want you to remember it.
72
215260
2000
Я только хочу, чтобы вы запомнили это.
03:37
And in fact, we don't know if this hypothesis is correct,
73
217260
2000
На самом деле мы не знаем, верна ли эта гипотеза,
03:39
because we have never had technologies
74
219260
2000
потому что у нас никогда не было технологий
03:41
powerful enough to test it.
75
221260
2000
настолько сильных, чтобы проверить ее.
03:44
Finding that worm connectome
76
224260
3000
Определение коннектома этого червя
03:47
took over a dozen years of tedious labor.
77
227260
3000
заняло более 12 лет упорного труда.
03:50
And to find the connectomes of brains more like our own,
78
230260
3000
Чтобы определить коннектом мозга, сравнимого с нашим,
03:53
we need more sophisticated technologies, that are automated,
79
233260
3000
мы должны иметь более продвинутые автоматизированные технологии,
03:56
that will speed up the process of finding connectomes.
80
236260
3000
которые увеличат скорость нахождения коннектомов.
03:59
And in the next few minutes, I'll tell you about some of these technologies,
81
239260
3000
В течение следующих пары минут я расскажу вам о некоторых таких технологиях,
04:02
which are currently under development
82
242260
2000
пока находящихся в разработке
04:04
in my lab and the labs of my collaborators.
83
244260
3000
в мой лаборатории и в лабораториях моих коллег.
04:08
Now you've probably seen pictures of neurons before.
84
248260
3000
Думаю, вы и раньше видели фотографии нейронов.
04:11
You can recognize them instantly
85
251260
2000
И вы сразу их узнаете
04:13
by their fantastic shapes.
86
253260
3000
по их фантастическим формам.
04:16
They extend long and delicate branches,
87
256260
3000
Они тянут свои ажурные ветви
04:19
and in short, they look like trees.
88
259260
3000
и немного напоминают собой деревья.
04:22
But this is just a single neuron.
89
262260
3000
Но это всего лишь один нейрон.
04:25
In order to find connectomes,
90
265260
2000
Чтобы найти коннектомы,
04:27
we have to see all the neurons at the same time.
91
267260
3000
мы должны увидеть все нейроны одновременно.
04:30
So let's meet Bobby Kasthuri,
92
270260
2000
Итак, познакомьтесь с Бобби Кастури,
04:32
who works in the laboratory of Jeff Lichtman
93
272260
2000
который работает в лаборатории Джеффа Литчмана
04:34
at Harvard University.
94
274260
2000
в Гарвардском Университете.
04:36
Bobby is holding fantastically thin slices
95
276260
2000
Бобби держит фантастически тонкие срезы
04:38
of a mouse brain.
96
278260
2000
мозга мыши.
04:40
And we're zooming in by a factor of 100,000 times
97
280260
3000
Мы фотографируем его с приближением в сто тысяч раз
04:44
to obtain the resolution,
98
284260
2000
чтобы получить достаточное разрешение,
04:46
so that we can see the branches of neurons all at the same time.
99
286260
3000
чтобы видеть все ветви нейронов одновременно.
04:50
Except, you still may not really recognize them,
100
290260
3000
Возможно такое, что вы до сих пор их не узнаете,
04:53
and that's because we have to work in three dimensions.
101
293260
3000
это потому, что мы должны работать в трех измерениях.
04:56
If we take many images of many slices of the brain
102
296260
2000
Если мы сделаем множество фотографий срезов мозга
04:58
and stack them up,
103
298260
2000
и сложим их вместе,
05:00
we get a three-dimensional image.
104
300260
2000
мы получим трехмерное изображение.
05:02
And still, you may not see the branches.
105
302260
2000
Возможно, вы все ещё не видите ветвей.
05:04
So we start at the top,
106
304260
2000
Поэтому давайте начнем сверху
05:06
and we color in the cross-section of one branch in red,
107
306260
3000
и раскрасим поперечный срез ветви в красный цвет.
05:09
and we do that for the next slice
108
309260
2000
Так же мы поступим для следующего среза
05:11
and for the next slice.
109
311260
2000
и для еще одного.
05:13
And we keep on doing that,
110
313260
2000
И мы продолжим делать это,
05:15
slice after slice.
111
315260
3000
срез за срезом.
05:18
If we continue through the entire stack,
112
318260
2000
Если мы закончим со всей кипой,
05:20
we can reconstruct the three-dimensional shape
113
320260
3000
мы можем восстановить трехмерную форму
05:23
of a small fragment of a branch of a neuron.
114
323260
3000
маленького фрагмента ветви нейрона.
05:26
And we can do that for another neuron in green.
115
326260
2000
То же самое сделаем с другим нейроном, покрасив его зеленым.
05:28
And you can see that the green neuron touches the red neuron
116
328260
2000
Теперь вы видите, как зеленый нейрон касается красного
05:30
at two locations,
117
330260
2000
в двух местах,
05:32
and these are what are called synapses.
118
332260
2000
они называется синапсами.
05:34
Let's zoom in on one synapse,
119
334260
2000
Давайте приблизим один синапс,
05:36
and keep your eyes on the interior of the green neuron.
120
336260
3000
и сосредоточим внимание на внутренней части зеленого нейрона.
05:39
You should see small circles --
121
339260
2000
Вам должны быть видны маленькие круги.
05:41
these are called vesicles.
122
341260
3000
Это везикулы,
05:44
They contain a molecule know as a neurotransmitter.
123
344260
3000
содержащие молекулы, известные как нейромедиаторы.
05:47
And so when the green neuron wants to communicate,
124
347260
2000
Когда зеленый нейрон хочет передать информацию,
05:49
it wants to send a message to the red neuron,
125
349260
2000
он посылает сигнал красному нейрону,
05:51
it spits out neurotransmitter.
126
351260
3000
"выплевывая" нейромедиаторы.
05:54
At the synapse, the two neurons
127
354260
2000
Известно, что в синапсе оба нейрона
05:56
are said to be connected
128
356260
2000
соединены вместе,
05:58
like two friends talking on the telephone.
129
358260
3000
словно два друга, разговаривающих по телефону.
06:02
So you see how to find a synapse.
130
362260
2000
Теперь вы видите, как найти синапс.
06:04
How can we find an entire connectome?
131
364260
3000
Но как же нам найти весь коннектом?
06:07
Well, we take this three-dimensional stack of images
132
367260
3000
Мы берем всю трехмерную кипу изображений
06:10
and treat it as a gigantic three-dimensional coloring book.
133
370260
3000
и смотрим на них как на огромную трехмерную книгу-раскраску.
06:13
We color every neuron in, in a different color,
134
373260
3000
Мы окрашиваем каждый нейрон в разный цвет,
06:16
and then we look through all of the images,
135
376260
2000
затем проходим через все изображения,
06:18
find the synapses
136
378260
2000
находим синапсы
06:20
and note the colors of the two neurons involved in each synapse.
137
380260
3000
и запоминаем цвета обоих нейронов, задействованных в каждом синапсе.
06:23
If we can do that throughout all the images,
138
383260
3000
Если мы проделаем эту процедуру со всеми изображениями,
06:26
we could find a connectome.
139
386260
2000
мы найдем коннектом.
06:29
Now, at this point,
140
389260
2000
Итак,
06:31
you've learned the basics of neurons and synapses.
141
391260
2000
вы узнали азы о нейронах и синапсах.
06:33
And so I think we're ready to tackle
142
393260
2000
Поэтому я думаю, что мы уже готовы коснуться
06:35
one of the most important questions in neuroscience:
143
395260
3000
одного из самых важных вопросов неврологии:
06:39
how are the brains of men and women different?
144
399260
3000
чем же отличаются мозги мужчины и женщины?
06:42
(Laughter)
145
402260
2000
[смех в зале]
06:44
According to this self-help book,
146
404260
2000
В популярном самоучителе по психологии,
06:46
guys brains are like waffles;
147
406260
2000
у парней мозги похожи на вафли;
06:48
they keep their lives compartmentalized in boxes.
148
408260
3000
они расположили свою жизнь по офисным шкафам.
06:51
Girls' brains are like spaghetti;
149
411260
3000
Мозги девушек словно спагетти;
06:54
everything in their life is connected to everything else.
150
414260
3000
всё в их жизни соединено со всем остальным.
06:57
(Laughter)
151
417260
2000
[смех в зале]
06:59
You guys are laughing,
152
419260
2000
Вот вы смеетесь,
07:01
but you know, this book changed my life.
153
421260
2000
а эта книга изменила мою жизнь!
07:03
(Laughter)
154
423260
2000
[смех в зале]
07:07
But seriously, what's wrong with this?
155
427260
3000
Но если серьезно? Что здесь не так?
07:10
You already know enough to tell me -- what's wrong with this statement?
156
430260
3000
Вы уже знаете достаточно, чтобы указать, что тут не так.
07:20
It doesn't matter whether you're a guy or girl,
157
440260
3000
Не важно, парень вы или девушка,
07:23
everyone's brains are like spaghetti.
158
443260
3000
у каждого мозги словно... спагетти.
07:26
Or maybe really, really fine capellini with branches.
159
446260
3000
Или, если быть точнее, очень-очень тонкие спагетти с разветвлениями.
07:30
Just as one strand of spaghetti
160
450260
2000
Подобно тому, как одна макаронина
07:32
contacts many other strands on your plate,
161
452260
3000
соединяется со многими другими на вашей тарелке,
07:35
one neuron touches many other neurons
162
455260
2000
один нейрон касается многих других нейронов
07:37
through their entangled branches.
163
457260
2000
через их запутанные ветви.
07:39
One neuron can be connected to so many other neurons,
164
459260
3000
Нейрон может быть соединён с таким большим количеством других нейронов,
07:42
because there can be synapses
165
462260
2000
потому что существуют синапсы
07:44
at these points of contact.
166
464260
3000
в местах контактов.
07:49
By now, you might have sort of lost perspective
167
469260
3000
Пока у вас, возможно, нет представления
07:52
on how large this cube of brain tissue actually is.
168
472260
3000
о реальном размере этого кубика нервной ткани.
07:55
And so let's do a series of comparisons to show you.
169
475260
3000
Давайте сделаем ряд сравнений, чтобы это продемонстрировать.
07:58
I assure you, this is very tiny. It's just six microns on a side.
170
478260
3000
Я уверяю вас, он очень маленький. Размер его стороны – 6 микрон.
08:03
So, here's how it stacks up against an entire neuron.
171
483260
3000
Теперь посмотрите, какой он по сравнению со всем нейроном.
08:06
And you can tell that, really, only the smallest fragments of branches
172
486260
3000
Вы видите, что только маленький фрагмент ответвлений
08:09
are contained inside this cube.
173
489260
3000
попадает внутрь куба.
08:12
And a neuron, well, that's smaller than brain.
174
492260
3000
А нейрон – нейрон меньше мозга.
08:17
And that's just a mouse brain --
175
497260
2000
И это лишь мозг мыши.
08:21
it's a lot smaller than a human brain.
176
501260
3000
Он намного меньше, чем мозг человека.
08:25
So when show my friends this,
177
505260
2000
Когда я показывал это моим друзьям,
08:27
sometimes they've told me,
178
507260
2000
иногда они говорили мне:
08:29
"You know, Sebastian, you should just give up.
179
509260
3000
"Ты знаешь, Себастьян, оставь всё это.
08:32
Neuroscience is hopeless."
180
512260
2000
Неврология безнадёжна."
08:34
Because if you look at a brain with your naked eye,
181
514260
2000
Потому что, если вы посмотрите на мозг невооруженным глазом,
08:36
you don't really see how complex it is,
182
516260
2000
вы не увидите насколько мозг сложен,
08:38
but when you use a microscope,
183
518260
2000
но когда вы используете микроскоп,
08:40
finally the hidden complexity is revealed.
184
520260
3000
только тогда скрытая сложность становится заметной.
08:45
In the 17th century,
185
525260
2000
В 17-м веке,
08:47
the mathematician and philosopher, Blaise Pascal,
186
527260
2000
математик и философ Блез Паскаль
08:49
wrote of his dread of the infinite,
187
529260
3000
написал о своих страхах по поводу бесконечного,
08:52
his feeling of insignificance
188
532260
2000
своем чувстве малозначительности
08:54
at contemplating the vast reaches of outer space.
189
534260
3000
в сравнении с огромными пространствами космоса.
08:59
And, as a scientist,
190
539260
2000
Как ученый
09:01
I'm not supposed to talk about my feelings --
191
541260
3000
я не должен распространяться о своих чувствах.
09:04
too much information, professor.
192
544260
2000
"Это было бы слишком, профессор."
09:06
(Laughter)
193
546260
2000
[смех в зале]
09:08
But may I?
194
548260
2000
Или вы позволите?
09:10
(Laughter)
195
550260
2000
[смех в зале]
09:12
(Applause)
196
552260
2000
[аплодисменты]
09:14
I feel curiosity,
197
554260
2000
Я чувствую любопытство,
09:16
and I feel wonder,
198
556260
2000
и я чувствую удивление,
09:18
but at times I have also felt despair.
199
558260
3000
но одновременно печаль.
09:22
Why did I choose to study
200
562260
2000
Ну зачем же я начал изучать
09:24
this organ that is so awesome in its complexity
201
564260
3000
этот орган, столь восхитительный в своей сложности,
09:27
that it might well be infinite?
202
567260
2000
сложности возможно бесконечной?
09:29
It's absurd.
203
569260
2000
Это абсурдно.
09:31
How could we even dare to think
204
571260
2000
Как же мы посмели вообразить,
09:33
that we might ever understand this?
205
573260
3000
что когда-либо сможем понять мозг?
09:38
And yet, I persist in this quixotic endeavor.
206
578260
3000
И все же я продолжаю это донкихотское начинание.
09:41
And indeed, these days I harbor new hopes.
207
581260
3000
У меня даже появилось несколько надежд.
09:45
Someday,
208
585260
2000
В один прекрасный день
09:47
a fleet of microscopes will capture
209
587260
2000
армия микроскопов совместит
09:49
every neuron and every synapse
210
589260
2000
каждый нейрон и каждый синапс
09:51
in a vast database of images.
211
591260
3000
в огромной базе данных фотографий.
09:54
And some day, artificially intelligent supercomputers
212
594260
3000
И однажды суперкомпьютер с искусственным интеллектом
09:57
will analyze the images without human assistance
213
597260
3000
проанализирует все эти изображения без участия людей
10:00
to summarize them in a connectome.
214
600260
3000
и объединит их в коннектом.
10:04
I do not know, but I hope that I will live to see that day,
215
604260
3000
Я не знаю, но я надеюсь, что доживу до этого дня.
10:08
because finding an entire human connectome
216
608260
2000
Потому что определение полного коннектома человека
10:10
is one of the greatest technological challenges of all time.
217
610260
3000
станет одним из величайших технологических достижений всех времен,
10:13
It will take the work of generations to succeed.
218
613260
3000
которое увенчает успехом работу многих поколений.
10:17
At the present time, my collaborators and I,
219
617260
3000
В настоящее время я и мои коллеги,
10:20
what we're aiming for is much more modest --
220
620260
2000
мы ставим перед собой более скромную цель –
10:22
just to find partial connectomes
221
622260
2000
мы лишь ищем частичные коннектомы
10:24
of tiny chunks of mouse and human brain.
222
624260
3000
небольших участков мышиного и человеческого мозга.
10:27
But even that will be enough for the first tests of this hypothesis
223
627260
3000
Однако, этого будет достаточно для первичной проверки нашей гипотезы,
10:30
that I am my connectome.
224
630260
3000
что я – это мой коннектом.
10:35
For now, let me try to convince you of the plausibility of this hypothesis,
225
635260
3000
Пока же позвольте мне убедить вас в правдоподобии этой теории,
10:38
that it's actually worth taking seriously.
226
638260
3000
в том что её нужно воспринимать серьезно.
10:42
As you grow during childhood
227
642260
2000
В детстве пока вы растете,
10:44
and age during adulthood,
228
644260
3000
и во взрослом возрасте, когда вы стареете,
10:47
your personal identity changes slowly.
229
647260
3000
ваша индивидуальность медленно меняется.
10:50
Likewise, every connectome
230
650260
2000
Так же и каждый коннектом
10:52
changes over time.
231
652260
2000
меняется со временем.
10:55
What kinds of changes happen?
232
655260
2000
Какие же изменения происходят?
10:57
Well, neurons, like trees,
233
657260
2000
Нейроны, словно деревья,
10:59
can grow new branches,
234
659260
2000
могут отращивать новые ветви
11:01
and they can lose old ones.
235
661260
3000
и терять старые.
11:04
Synapses can be created,
236
664260
3000
Синапсы могут создаваться
11:07
and they can be eliminated.
237
667260
3000
и уничтожаться.
11:10
And synapses can grow larger,
238
670260
2000
Также синапсы могут увеличиваться
11:12
and they can grow smaller.
239
672260
3000
и могут уменьшаться.
11:15
Second question:
240
675260
2000
Второй вопрос:
11:17
what causes these changes?
241
677260
3000
что приводит к этим изменениям?
11:20
Well, it's true.
242
680260
2000
Вообще-то это правда,
11:22
To some extent, they are programmed by your genes.
243
682260
3000
в какой-то степени, эти изменения закодированы в ДНК.
11:25
But that's not the whole story,
244
685260
2000
Но это ещё не вся история,
11:27
because there are signals, electrical signals,
245
687260
2000
потому что есть сигналы, электрические сигналы,
11:29
that travel along the branches of neurons
246
689260
2000
путешествующие вдоль ветвей нейронов,
11:31
and chemical signals
247
691260
2000
и есть химические сигналы,
11:33
that jump across from branch to branch.
248
693260
2000
перепрыгивающие от ветви к ветви.
11:35
These signals are called neural activity.
249
695260
3000
Эти сигналы называются нервной деятельностью.
11:38
And there's a lot of evidence
250
698260
2000
Есть много свидетельств,
11:40
that neural activity
251
700260
3000
что нервная деятельность
11:43
is encoding our thoughts, feelings and perceptions,
252
703260
3000
программирует наши мысли, чувства и восприятие,
11:46
our mental experiences.
253
706260
2000
наш ментальный опыт.
11:48
And there's a lot of evidence that neural activity
254
708260
3000
Также есть много свидетельств, что нервная деятельность
11:51
can cause your connections to change.
255
711260
3000
может быть причиной изменения соединений.
11:54
And if you put those two facts together,
256
714260
3000
Если вы сложите вместе два этих факта,
11:57
it means that your experiences
257
717260
2000
это будет значить, что ваши переживания и опыт
11:59
can change your connectome.
258
719260
3000
могут изменить ваш коннектом.
12:02
And that's why every connectome is unique,
259
722260
2000
Вот почему каждый коннектом уникален
12:04
even those of genetically identical twins.
260
724260
3000
даже у генетически идентичных близнецов.
12:08
The connectome is where nature meets nurture.
261
728260
3000
Коннектом - это то место, где природа встречается с воспитанием.
12:12
And it might true
262
732260
2000
Также может быть правдой то,
12:14
that just the mere act of thinking
263
734260
2000
что даже простая мысль
12:16
can change your connectome --
264
736260
2000
может изменить ваш коннектом –
12:18
an idea that you may find empowering.
265
738260
3000
эту идею многие могут посчитать вдохновляющей.
12:24
What's in this picture?
266
744260
2000
Что здесь изображено?
12:28
A cool and refreshing stream of water, you say.
267
748260
3000
Холодный и освежающий поток воды, скажете вы.
12:32
What else is in this picture?
268
752260
2000
Что еще на этой фотографии?
12:37
Do not forget that groove in the Earth
269
757260
2000
Не забудьте про канавку в земле,
12:39
called the stream bed.
270
759260
3000
называемую ложем ручья.
12:42
Without it, the water would not know in which direction to flow.
271
762260
3000
Без него вода не знала бы, куда ей течь.
12:45
And with the stream,
272
765260
2000
Этот ручей --
12:47
I would like to propose a metaphor
273
767260
2000
моя метафора
12:49
for the relationship between neural activity
274
769260
2000
для определения зависимости между нервной деятельностью
12:51
and connectivity.
275
771260
2000
и связями.
12:54
Neural activity is constantly changing.
276
774260
3000
Нервная деятельность все время меняется.
12:57
It's like the water of the stream; it never sits still.
277
777260
3000
Она словно вода в ручье -- никогда не остается спокойной.
13:00
The connections
278
780260
2000
Связи
13:02
of the brain's neural network
279
782260
2000
в мозговой нервной сети
13:04
determines the pathways
280
784260
2000
определяют путь,
13:06
along which neural activity flows.
281
786260
2000
вдоль которого течет нервная деятельность.
13:08
And so the connectome is like bed of the stream;
282
788260
3000
Поэтому коннектом словно ложе ручья.
13:13
but the metaphor is richer than that,
283
793260
3000
Но моя метафора даже шире,
13:16
because it's true that the stream bed
284
796260
3000
потому что это правда, что дно ручья
13:19
guides the flow of the water,
285
799260
2000
направляет поток воды,
13:21
but over long timescales,
286
801260
2000
но в течение более продолжительного времени,
13:23
the water also reshapes the bed of the stream.
287
803260
3000
вода в свою очередь изменяет форму дна.
13:26
And as I told you just now,
288
806260
2000
Как я только что сказал,
13:28
neural activity can change the connectome.
289
808260
3000
нервная деятельность может изменить коннектом.
13:33
And if you'll allow me to ascend
290
813260
2000
И если вы мне позволите подняться до
13:35
to metaphorical heights,
291
815260
3000
метафорических высот,
13:38
I will remind you that neural activity
292
818260
3000
я вам напомню, что нервная деятельность -
13:41
is the physical basis -- or so neuroscientists think --
293
821260
2000
это физическая основа – многие неврологи так думают –
13:43
of thoughts, feelings and perceptions.
294
823260
3000
ваших мыслей, чувств и ощущений.
13:46
And so we might even speak of
295
826260
2000
Мы даже можем говорить о
13:48
the stream of consciousness.
296
828260
2000
потоке сознания.
13:50
Neural activity is its water,
297
830260
3000
Нервная деятельность – это его вода,
13:53
and the connectome is its bed.
298
833260
3000
а коннектом это его русло.
13:57
So let's return from the heights of metaphor
299
837260
2000
Давайте вернемся с поэтических высот
13:59
and return to science.
300
839260
2000
к науке.
14:01
Suppose our technologies for finding connectomes
301
841260
2000
Предположим, что наши технологии для нахождения коннектомов
14:03
actually work.
302
843260
2000
действительно работают.
14:05
How will we go about testing the hypothesis
303
845260
2000
Как же мы протестируем нашу гипотезу
14:07
"I am my connectome?"
304
847260
3000
"Я – мой коннектом"?
14:10
Well, I propose a direct test.
305
850260
3000
Я предлагаю прямой тест.
14:13
Let us attempt
306
853260
2000
Давайте попробуем
14:15
to read out memories from connectomes.
307
855260
3000
считать воспоминания из коннектомов.
14:18
Consider the memory
308
858260
2000
Считайте это памятью
14:20
of long temporal sequences of movements,
309
860260
3000
о продолжительных последовательностях движений,
14:23
like a pianist playing a Beethoven sonata.
310
863260
3000
словно пианист играет сонату Бетховена.
14:26
According to a theory that dates back to the 19th century,
311
866260
3000
Согласно теории, которая датируется 19 веком,
14:29
such memories are stored
312
869260
2000
такие воспоминания хранятся
14:31
as chains of synaptic connections inside your brain.
313
871260
3000
как цепочки синаптических связей внутри вашего мозга.
14:35
Because, if the first neurons in the chain are activated,
314
875260
3000
Все потому, что если активировать первые нейроны цепи,
14:38
through their synapses they send messages to the second neurons, which are activated,
315
878260
3000
через свои синапсы они сигналят вторым нейронам, и те тоже активируются,
14:41
and so on down the line,
316
881260
2000
и так далее по цепочке,
14:43
like a chain of falling dominoes.
317
883260
2000
словно падающее домино.
14:45
And this sequence of neural activation
318
885260
2000
И эта последовательность нервной активации
14:47
is hypothesized to be the neural basis
319
887260
3000
гипотетически является нервной основой
14:50
of those sequence of movements.
320
890260
2000
для той последовательности движений.
14:52
So one way of trying to test the theory
321
892260
2000
Поэтому один из способов протестировать теорию -
14:54
is to look for such chains
322
894260
2000
это найти такие цепочки
14:56
inside connectomes.
323
896260
2000
внутри коннектомов.
14:58
But it won't be easy, because they're not going to look like this.
324
898260
3000
Но это будет нелегко, потому что они не будут выглядеть именно так.
15:01
They're going to be scrambled up.
325
901260
2000
Они будут перемешаны.
15:03
So we'll have to use our computers
326
903260
2000
Поэтому мы должны использовать компьютеры,
15:05
to try to unscramble the chain.
327
905260
3000
чтобы расшифровать цепь.
15:08
And if we can do that,
328
908260
2000
И если мы сможем это сделать,
15:10
the sequence of the neurons we recover from that unscrambling
329
910260
3000
последовательность нейронов, получившаяся в результате,
15:13
will be a prediction of the pattern of neural activity
330
913260
3000
будет предсказанием картины нервной активности,
15:16
that is replayed in the brain during memory recall.
331
916260
3000
которая проигрывается в мозгу во время воспоминания.
15:19
And if that were successful,
332
919260
2000
А если нам повезет,
15:21
that would be the first example of reading a memory from a connectome.
333
921260
3000
это будет первым примером считывания памяти из коннектома.
15:28
(Laughter)
334
928260
2000
[смех в зале]
15:30
What a mess --
335
930260
2000
Ну и беспорядок.
15:33
have you ever tried to wire up a system
336
933260
2000
Пробовали ли вы когда-нибудь подключить систему
15:35
as complex as this?
337
935260
2000
настолько сложную как эта?
15:37
I hope not.
338
937260
2000
Надеюсь что нет.
15:39
But if you have, you know it's very easy to make a mistake.
339
939260
3000
Но если да, вы знаете как легко ошибиться.
15:45
The branches of neurons are like the wires of the brain.
340
945260
2000
Ветви нейронов словно провода в мозге.
15:47
Can anyone guess: what's the total length of wires in your brain?
341
947260
4000
Кто-нибудь может угадать суммарную длину проводов вашего мозга?
15:54
I'll give you a hint. It's a big number.
342
954260
2000
Я вам подскажу – это огромное число.
15:56
(Laughter)
343
956260
2000
[смех в зале]
15:59
I estimate, millions of miles,
344
959260
3000
Я оцениваю её в миллионы километров.
16:02
all packed in your skull.
345
962260
3000
И все это упаковано у вас в голове.
16:05
And if you appreciate that number,
346
965260
2000
И если вы вникли в это число,
16:07
you can easily see
347
967260
2000
вам легко понять,
16:09
there is huge potential for mis-wiring of the brain.
348
969260
2000
что есть огромная вероятность неправильного подключения.
16:11
And indeed, the popular press loves headlines like,
349
971260
3000
И действительно, СМИ любят заголовки вроде:
16:14
"Anorexic brains are wired differently,"
350
974260
2000
"Мозги анорексиков работают по-другому"
16:16
or "Autistic brains are wired differently."
351
976260
2000
или "Мозги аутистов подключены иначе".
16:18
These are plausible claims,
352
978260
2000
Это правдоподобные утверждения,
16:20
but in truth,
353
980260
2000
но на деле,
16:22
we can't see the brain's wiring clearly enough
354
982260
2000
мы не можем видеть подключения в мозгах достаточно четко,
16:24
to tell if these are really true.
355
984260
2000
чтобы сказать это наверняка.
16:26
And so the technologies for seeing connectomes
356
986260
3000
Поэтому технологии для изучения коннектомов
16:29
will allow us to finally
357
989260
2000
позволят нам в конечном итоге
16:31
read mis-wiring of the brain,
358
991260
2000
прочесть ошибки подключения мозга,
16:33
to see mental disorders in connectomes.
359
993260
3000
увидеть умственные заболевания в этих коннектомах.
16:40
Sometimes the best way to test a hypothesis
360
1000260
3000
Иногда лучший способ убедиться в правоте утверждения -
16:43
is to consider its most extreme implication.
361
1003260
3000
это убедиться в правоте наиболее экстремального следствия.
16:46
Philosophers know this game very well.
362
1006260
3000
Философы хорошо знакомы с этой игрой.
16:50
If you believe that I am my connectome,
363
1010260
3000
Если вы действительно верите, что я - это мой коннектом,
16:53
I think you must also accept the idea
364
1013260
3000
я думаю, вы также должны принять идею,
16:56
that death is the destruction
365
1016260
2000
что смерть – это разрушение
16:58
of your connectome.
366
1018260
3000
вашего коннектома.
17:02
I mention this because there are prophets today
367
1022260
3000
Я упомянул это, потому что есть провидцы,
17:05
who claim that technology
368
1025260
3000
утверждающие, что есть технология,
17:08
will fundamentally alter the human condition
369
1028260
3000
которая в корне изменит понимание, что значит быть человеком,
17:11
and perhaps even transform the human species.
370
1031260
3000
и, возможно, даже изменит сам наш вид Человек Разумный.
17:14
One of their most cherished dreams
371
1034260
3000
Одна из их самых лелеемых ими надежд --
17:17
is to cheat death
372
1037260
2000
это обмануть смерть
17:19
by that practice known as cryonics.
373
1039260
2000
деятельностью, называемой "крионика".
17:21
If you pay 100,000 dollars,
374
1041260
2000
Если вы заплатите 100 000 долларов,
17:23
you can arrange to have your body frozen after death
375
1043260
3000
то вас заморозят после того, как вы умрете,
17:26
and stored in liquid nitrogen
376
1046260
2000
и будут хранить в жидком азоте
17:28
in one of these tanks in an Arizona warehouse,
377
1048260
2000
в одном из этих резервуаров на складе в Аризоне
17:30
awaiting a future civilization
378
1050260
2000
в ожидании будущей цивилизации,
17:32
that is advanced to resurrect you.
379
1052260
3000
развитой достаточно, чтобы оживить вас.
17:36
Should we ridicule the modern seekers of immortality,
380
1056260
2000
Должны ли мы высмеивать современных искателей бессмертия,
17:38
calling them fools?
381
1058260
2000
называть их глупцами?
17:40
Or will they someday chuckle
382
1060260
2000
Или они однажды будут хихикать
17:42
over our graves?
383
1062260
2000
над нашими могилами?
17:45
I don't know --
384
1065260
2000
Я не знаю.
17:47
I prefer to test their beliefs, scientifically.
385
1067260
3000
Я предпочитаю проверить их убеждения по-научному.
17:50
I propose that we attempt to find a connectome
386
1070260
2000
Я предлагаю попытаться найти коннектом
17:52
of a frozen brain.
387
1072260
2000
замороженного мозга.
17:54
We know that damage to the brain
388
1074260
2000
Мы знаем, что происходит повреждение мозга
17:56
occurs after death and during freezing.
389
1076260
2000
после смерти и во время заморозки.
17:58
The question is: has that damage erased the connectome?
390
1078260
3000
Вопрос такой: стерли ли эти повреждения коннектом?
18:01
If it has, there is no way that any future civilization
391
1081260
3000
Если да, то никакая будущая цивилизация
18:04
will be able to recover the memories of these frozen brains.
392
1084260
3000
не сможет восстановить воспоминания этих замороженных мозгов.
18:07
Resurrection might succeed for the body,
393
1087260
2000
Воскрешение может произойти для тела,
18:09
but not for the mind.
394
1089260
2000
но не для разума.
18:11
On the other hand, if the connectome is still intact,
395
1091260
3000
С другой стороны, если коннектом остался цел,
18:14
we cannot ridicule the claims of cryonics so easily.
396
1094260
3000
мы не должны высмеивать утверждения крионистов.
18:20
I've described a quest
397
1100260
2000
Я описал то, что надо искать.
18:22
that begins in the world of the very small,
398
1102260
3000
Поиск начинается в мире очень маленьких вещей,
18:25
and propels us to the world of the far future.
399
1105260
3000
но побуждает нас двигаться в мир далекого будущего.
18:28
Connectomes will mark a turning point in human history.
400
1108260
3000
Коннектомы обозначат собой исторический момент в развитии цивилизации.
18:32
As we evolved from our ape-like ancestors
401
1112260
2000
Мы эволюционировали из наших обезьяноподобных предков
18:34
on the African savanna,
402
1114260
2000
африканской саванны,
18:36
what distinguished us was our larger brains.
403
1116260
3000
и то, что нас стало отличать, – это наши большие мозги.
18:40
We have used our brains to fashion
404
1120260
2000
Мы использовали наши мозги, чтобы замыслить
18:42
ever more amazing technologies.
405
1122260
3000
еще более удивительные технологии.
18:45
Eventually, these technologies will become so powerful
406
1125260
3000
В конце-концов эти технологии станут настолько сильными,
18:48
that we will use them to know ourselves
407
1128260
3000
что мы станем использовать их для самопознания,
18:51
by deconstructing and reconstructing
408
1131260
3000
разбирая и собирая снова
18:54
our own brains.
409
1134260
3000
наши собственные мозги.
18:57
I believe that this voyage of self-discovery
410
1137260
3000
Я думаю, что это путешествие к самопознанию
19:00
is not just for scientists,
411
1140260
3000
и не только для ученых,
19:03
but for all of us.
412
1143260
2000
но для всех.
19:05
And I'm grateful for the opportunity to share this voyage with you today.
413
1145260
3000
И я благодарен за сегодняшнюю возможность поделиться с вами своими мыслями.
19:08
Thank you.
414
1148260
2000
Спасибо.
19:10
(Applause)
415
1150260
8000
[аплодисменты]
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7