Sebastian Seung: I am my connectome

248,430 views ・ 2010-09-28

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Yavor Ivanov Reviewer: Darina Stoyanova
00:17
We live in in a remarkable time,
0
17260
3000
Живеем в забележително време,
00:20
the age of genomics.
1
20260
3000
ерата на генетиката.
00:23
Your genome is the entire sequence of your DNA.
2
23260
3000
Вашият геном е съвкупността от цялата последователност на вашето ДНК.
00:26
Your sequence and mine are slightly different.
3
26260
3000
Вашата и моята последователност са малко различни.
00:29
That's why we look different.
4
29260
2000
Ето защо ние изглеждаме различни.
00:31
I've got brown eyes;
5
31260
2000
Аз имам кафяви очи.
00:33
you might have blue or gray.
6
33260
3000
Вие може би имате сини или сиви.
00:36
But it's not just skin-deep.
7
36260
2000
Но това не е само повърхностно.
00:38
The headlines tell us
8
38260
2000
Заглавията ни казват,
00:40
that genes can give us scary diseases,
9
40260
3000
че гените могат да ни докарат плашещи болести,
00:43
maybe even shape our personality,
10
43260
3000
а може би дори и да оформят нашата индивидуалност,
00:46
or give us mental disorders.
11
46260
3000
или да ни доведат до умствени заболявания.
00:49
Our genes seem to have
12
49260
3000
Нашите гени изглежда имат
00:52
awesome power over our destinies.
13
52260
3000
забележителна сила върху нашите съдби.
00:56
And yet, I would like to think
14
56260
3000
И вяпреки това, аз искам да си мисля,
00:59
that I am more than my genes.
15
59260
3000
че съм повече от моите гени.
01:04
What do you guys think?
16
64260
2000
Вие какво мислите?
01:06
Are you more than your genes?
17
66260
3000
Повече ли сте от вашите гени?
01:09
(Audience: Yes.) Yes?
18
69260
2000
(Публиката: Да.) Да?
01:13
I think some people agree with me.
19
73260
2000
Мисля, че някои хора са съгласни с мен.
01:15
I think we should make a statement.
20
75260
2000
Мисля, че ние трябва да направим изявление.
01:17
I think we should say it all together.
21
77260
2000
Мисля, че трябва да го кажем заедно.
01:20
All right: "I'm more than my genes" -- all together.
22
80260
3000
"Аз съм повече от моите гени" - всички заедно.
01:23
Everybody: I am more than my genes.
23
83260
4000
Всички: Аз съм повече от моите гени.
01:27
(Cheering)
24
87260
2000
(Одобрителен вик)
01:30
Sebastian Seung: What am I?
25
90260
2000
Себастиан Сюнг: Какво съм аз?
01:32
(Laughter)
26
92260
3000
(Смях)
01:35
I am my connectome.
27
95260
3000
Аз съм моят кънектом.
01:40
Now, since you guys are really great,
28
100260
2000
А сега, тъй като вие сте наистина страхотни,
01:42
maybe you can humor me and say this all together too.
29
102260
2000
може би вие може да ми се присмеете и да го кажете също всички заедно.
01:44
(Laughter)
30
104260
2000
(Смях)
01:46
Right. All together now.
31
106260
2000
Точно така. Сега всички заедно.
01:48
Everybody: I am my connectome.
32
108260
3000
Всички: Аз съм моят кънектом.
01:53
SS: That sounded great.
33
113260
2000
Това прозвуча чудесно.
01:55
You know, you guys are so great, you don't even know what a connectome is,
34
115260
2000
Знаете ли, вие сте толкова невероятни, че дори не знаете какво е кънектом
01:57
and you're willing to play along with me.
35
117260
2000
и въпреки това сте съгласни с мен.
01:59
I could just go home now.
36
119260
3000
Още сега мога да си отида вкъщи.
02:02
Well, so far only one connectome is known,
37
122260
3000
Добре, засега само един кънектом е познат,
02:05
that of this tiny worm.
38
125260
3000
кънектомът на този малък червей.
02:08
Its modest nervous system
39
128260
2000
Неговата скромна нервна система
02:10
consists of just 300 neurons.
40
130260
2000
се състои от само 300 неврона.
02:12
And in the 1970s and '80s,
41
132260
2000
И през 1970-те и 80-те,
02:14
a team of scientists
42
134260
2000
екип от учени
02:16
mapped all 7,000 connections
43
136260
2000
са картографирали всички 7 000 връзки
02:18
between the neurons.
44
138260
2000
между невроните.
02:21
In this diagram, every node is a neuron,
45
141260
2000
На тази диаграма, всеки възел е неврон
02:23
and every line is a connection.
46
143260
2000
и всяка линия е връзка.
02:25
This is the connectome
47
145260
2000
Това е кънектомът
02:27
of the worm C. elegans.
48
147260
4000
на червея фин ктенорабдит.
02:31
Your connectome is far more complex than this
49
151260
3000
Вашият кънектом е далеч по-сложен от този,
02:34
because your brain
50
154260
2000
защото вашият мозък
02:36
contains 100 billion neurons
51
156260
2000
съдържа 100 милиарда неврона
02:38
and 10,000 times as many connections.
52
158260
3000
и 10 000 пъти повече връзки.
02:41
There's a diagram like this for your brain,
53
161260
2000
Има подобна диаграма на вашия мозък,
02:43
but there's no way it would fit on this slide.
54
163260
3000
но няма начин тя да се събере на този екран..
02:47
Your connectome contains one million times more connections
55
167260
3000
Вашият кънектом съдържа един милион повече връзки
02:50
than your genome has letters.
56
170260
3000
от буквите във вашия геном.
02:53
That's a lot of information.
57
173260
2000
Това е много информация.
02:55
What's in that information?
58
175260
3000
Какво има в тази информация?
02:59
We don't know for sure, but there are theories.
59
179260
3000
Ние не знаем със сигурност, но има няколко теории.
03:02
Since the 19th century, neuroscientists have speculated
60
182260
3000
От 19ти век учените, които се занимават с изследване на нервите, спекулират,
03:05
that maybe your memories --
61
185260
2000
че може би вашите спомени -
03:07
the information that makes you, you --
62
187260
2000
информацията, която ви определя,
03:09
maybe your memories are stored
63
189260
2000
са съхранени
03:11
in the connections between your brain's neurons.
64
191260
2000
във връзките между вашите неврони в мозъка ви.
03:15
And perhaps other aspects of your personal identity --
65
195260
2000
И може би други аспекти на вашата идентичност -
03:17
maybe your personality and your intellect --
66
197260
3000
може би вашата личност и вашият интелект -
03:20
maybe they're also encoded
67
200260
2000
може би те също са кодирани™
03:22
in the connections between your neurons.
68
202260
3000
във връзките между вашите неврони.
03:26
And so now you can see why I proposed this hypothesis:
69
206260
3000
И сега може да разберете защо предлагам моята хипотеза:
03:29
I am my connectome.
70
209260
3000
Аз съм моят кънектом.
03:32
I didn't ask you to chant it because it's true;
71
212260
3000
Не исках да го повтаряте защото е вярно,
03:35
I just want you to remember it.
72
215260
2000
само искам да го запомните.
03:37
And in fact, we don't know if this hypothesis is correct,
73
217260
2000
И всъщност, ние не знаем дали тази хипотеза е вярна,
03:39
because we have never had technologies
74
219260
2000
защото никога не сме имали технологии
03:41
powerful enough to test it.
75
221260
2000
достатъчно мощни, за да я тестваме.
03:44
Finding that worm connectome
76
224260
3000
Откриването на кънектома на този червей
03:47
took over a dozen years of tedious labor.
77
227260
3000
отне многобройни години еднообразна работа.
03:50
And to find the connectomes of brains more like our own,
78
230260
3000
А за да открием кънектомите на мозъци като нашите,
03:53
we need more sophisticated technologies, that are automated,
79
233260
3000
имаме нужда от по-сложни технологии, които са автоматизирани,
03:56
that will speed up the process of finding connectomes.
80
236260
3000
което ще ускори процеса на откриване на кънектоми.
03:59
And in the next few minutes, I'll tell you about some of these technologies,
81
239260
3000
В следващите минути ще ви разкажа за някои от тези технологии,
04:02
which are currently under development
82
242260
2000
които в момента се разработват
04:04
in my lab and the labs of my collaborators.
83
244260
3000
в моята лаборатория и в лабораториите на моите сътрудници.
04:08
Now you've probably seen pictures of neurons before.
84
248260
3000
Сигурно сте виждали снимки на неврони преди.
04:11
You can recognize them instantly
85
251260
2000
Може да ги разпознаете веднага
04:13
by their fantastic shapes.
86
253260
3000
по техните фантастични форми.
04:16
They extend long and delicate branches,
87
256260
3000
Те имат дълги и деликатни отклонения,
04:19
and in short, they look like trees.
88
259260
3000
и накратко, те изглеждат като дървета.
04:22
But this is just a single neuron.
89
262260
3000
Но това е само един неврон.
04:25
In order to find connectomes,
90
265260
2000
За да намерим кънектоми,
04:27
we have to see all the neurons at the same time.
91
267260
3000
ние трябва да разгледаме всички неврони едновременно.
04:30
So let's meet Bobby Kasthuri,
92
270260
2000
Да се запознаем с Боби Кастури,
04:32
who works in the laboratory of Jeff Lichtman
93
272260
2000
който работи в лабораторията на Джеф Литман
04:34
at Harvard University.
94
274260
2000
в университета "Харвард".
04:36
Bobby is holding fantastically thin slices
95
276260
2000
Боби държи фантастично тънки резени
04:38
of a mouse brain.
96
278260
2000
на мозък от мишка.
04:40
And we're zooming in by a factor of 100,000 times
97
280260
3000
И ние увеличаваме с фактор 100 000 пъти,
04:44
to obtain the resolution,
98
284260
2000
за да получим резолюцията
04:46
so that we can see the branches of neurons all at the same time.
99
286260
3000
така, че да видим клоните с неврони едновременно.
04:50
Except, you still may not really recognize them,
100
290260
3000
Все още не можете да ги разпознаете,
04:53
and that's because we have to work in three dimensions.
101
293260
3000
и това е защото ние трябва да работим в три измерения.
04:56
If we take many images of many slices of the brain
102
296260
2000
Ако вземем много образи от много разрези от мозъка
04:58
and stack them up,
103
298260
2000
и ги наредим на куп,
05:00
we get a three-dimensional image.
104
300260
2000
ще получим триизмерен образ.
05:02
And still, you may not see the branches.
105
302260
2000
И все още, вие няма да видите разклоненията.
05:04
So we start at the top,
106
304260
2000
Така че ние започваме от върха,
05:06
and we color in the cross-section of one branch in red,
107
306260
3000
и боядисваме пресечните части на едно разклонение в червено,
05:09
and we do that for the next slice
108
309260
2000
и правим това за следващия разрез
05:11
and for the next slice.
109
311260
2000
и за следващия разрез.
05:13
And we keep on doing that,
110
313260
2000
И ние продължаваме да правим това,
05:15
slice after slice.
111
315260
3000
разрез след резрез.
05:18
If we continue through the entire stack,
112
318260
2000
Ако продължим през целия куп,
05:20
we can reconstruct the three-dimensional shape
113
320260
3000
ние може да реконструираме триизмерната форма
05:23
of a small fragment of a branch of a neuron.
114
323260
3000
на малки фрагменти от разклонението на един неврон.
05:26
And we can do that for another neuron in green.
115
326260
2000
И можем да направим това за друг неврон в зелено.
05:28
And you can see that the green neuron touches the red neuron
116
328260
2000
И може да видите, че зеленият неврон докосва червения неврон
05:30
at two locations,
117
330260
2000
на две места,
05:32
and these are what are called synapses.
118
332260
2000
и те се наричат синапси.
05:34
Let's zoom in on one synapse,
119
334260
2000
Нека да увеличим в един от синапсите.
05:36
and keep your eyes on the interior of the green neuron.
120
336260
3000
И да запазим погледа си във вътрешността на зеления неврон.
05:39
You should see small circles --
121
339260
2000
Би трябвало да видите малки кръгове.
05:41
these are called vesicles.
122
341260
3000
Те се наричат торбички.
05:44
They contain a molecule know as a neurotransmitter.
123
344260
3000
Те съдържат молекула позната като невротрансмитер.
05:47
And so when the green neuron wants to communicate,
124
347260
2000
И така, когато зеленият неврон иска да комуникира,
05:49
it wants to send a message to the red neuron,
125
349260
2000
той иска да изпрати съобщение на червения неврон,
05:51
it spits out neurotransmitter.
126
351260
3000
и изпуска невротрансмитер.
05:54
At the synapse, the two neurons
127
354260
2000
В синапса, двата неврона
05:56
are said to be connected
128
356260
2000
са свързани
05:58
like two friends talking on the telephone.
129
358260
3000
както двама приятели си говорят по телефона.
06:02
So you see how to find a synapse.
130
362260
2000
Така виждате как се намира синапс.
06:04
How can we find an entire connectome?
131
364260
3000
Как да намерим цял кънектом?
06:07
Well, we take this three-dimensional stack of images
132
367260
3000
Ние взимаме този триизмерен куп от образи
06:10
and treat it as a gigantic three-dimensional coloring book.
133
370260
3000
и го разглеждаме като гигантска триизмерна книга за оцветяване.
06:13
We color every neuron in, in a different color,
134
373260
3000
Оцветяваме всеки неврон в различен цвят,
06:16
and then we look through all of the images,
135
376260
2000
и след това гледаме през всички образи,
06:18
find the synapses
136
378260
2000
намираме синапсите
06:20
and note the colors of the two neurons involved in each synapse.
137
380260
3000
и отбелязваме цветовете на двата неврона включени във всеки синапс.
06:23
If we can do that throughout all the images,
138
383260
3000
Ако може да направим това при всички образи,
06:26
we could find a connectome.
139
386260
2000
ние бихме могли да намерим кънектом.
06:29
Now, at this point,
140
389260
2000
В този момент,
06:31
you've learned the basics of neurons and synapses.
141
391260
2000
вие научихте основите на невроните и синапсите.
06:33
And so I think we're ready to tackle
142
393260
2000
И си мисля, че сме готови да се заемем
06:35
one of the most important questions in neuroscience:
143
395260
3000
с един от най-важните въпроси в невронауката:
06:39
how are the brains of men and women different?
144
399260
3000
По какво се различават мозъците на мъжете и жените?
06:42
(Laughter)
145
402260
2000
(Смях)
06:44
According to this self-help book,
146
404260
2000
Според този самоучител,
06:46
guys brains are like waffles;
147
406260
2000
мозъците на мъжете са като вафли -
06:48
they keep their lives compartmentalized in boxes.
148
408260
3000
те поддържат своя живот разделен на кутии.
06:51
Girls' brains are like spaghetti;
149
411260
3000
Мозъците на жените са като спагети -
06:54
everything in their life is connected to everything else.
150
414260
3000
всичко в техния живот е свързано с всичко останало.
06:57
(Laughter)
151
417260
2000
(Смях)
06:59
You guys are laughing,
152
419260
2000
Вие се смеете,
07:01
but you know, this book changed my life.
153
421260
2000
но, знаете ли, тази книга промени живота ми.
07:03
(Laughter)
154
423260
2000
(Смях)
07:07
But seriously, what's wrong with this?
155
427260
3000
Но сериозно, какво е грешното в това твърдение?
07:10
You already know enough to tell me -- what's wrong with this statement?
156
430260
3000
Вие вече знаете достатъчно, за да ми кажете. Какво е грешно в това твърдение?
07:20
It doesn't matter whether you're a guy or girl,
157
440260
3000
Няма значение дали сте мъж или жена,
07:23
everyone's brains are like spaghetti.
158
443260
3000
всеки мозък е като спагети.
07:26
Or maybe really, really fine capellini with branches.
159
446260
3000
Или може би в действителност, наистина добри капелини с разклонения.
07:30
Just as one strand of spaghetti
160
450260
2000
Също както една спагета
07:32
contacts many other strands on your plate,
161
452260
3000
докосва много други спагети във вашата чиния,
07:35
one neuron touches many other neurons
162
455260
2000
един неврон докосва много други неврони
07:37
through their entangled branches.
163
457260
2000
чрез своите заплетени разклонения.
07:39
One neuron can be connected to so many other neurons,
164
459260
3000
Един неврон може да бъде свързан с толкова много други неврони,
07:42
because there can be synapses
165
462260
2000
защото може да има синапси
07:44
at these points of contact.
166
464260
3000
в тези места на контакт.
07:49
By now, you might have sort of lost perspective
167
469260
3000
Досега, вие може би имате донякъде загубена перспектива
07:52
on how large this cube of brain tissue actually is.
168
472260
3000
за това реално колко голям е този куб с тъкан от мозък.
07:55
And so let's do a series of comparisons to show you.
169
475260
3000
Нека да направим серии от сравнения за да ви покажа.
07:58
I assure you, this is very tiny. It's just six microns on a side.
170
478260
3000
Уверявам ви това е много малко. Всяка страна е само 6 микрона.
08:03
So, here's how it stacks up against an entire neuron.
171
483260
3000
А сега, тук е показан как стои до цял неврон.
08:06
And you can tell that, really, only the smallest fragments of branches
172
486260
3000
И вие може да видите, наистина, че само най-малките фрагменти от разклоненията
08:09
are contained inside this cube.
173
489260
3000
се съдържат вътре в този куб.
08:12
And a neuron, well, that's smaller than brain.
174
492260
3000
И един неврон, той е по-малък от един мозък.
08:17
And that's just a mouse brain --
175
497260
2000
И това е само мозък на мишка.
08:21
it's a lot smaller than a human brain.
176
501260
3000
Той е много по-малък от човешки мозък.
08:25
So when show my friends this,
177
505260
2000
Така че, когато покажа това на моите приятели,
08:27
sometimes they've told me,
178
507260
2000
понякога те ми казват,
08:29
"You know, Sebastian, you should just give up.
179
509260
3000
"Знаеш ли, Себастиан, трябва да се откажеш.
08:32
Neuroscience is hopeless."
180
512260
2000
Невронауката е безнадеждна."
08:34
Because if you look at a brain with your naked eye,
181
514260
2000
Защото ако гледаш на мозъка с невъоръжено око,
08:36
you don't really see how complex it is,
182
516260
2000
ти не виждаш реално колко е сложно,
08:38
but when you use a microscope,
183
518260
2000
но когато използваш микроскоп,
08:40
finally the hidden complexity is revealed.
184
520260
3000
най-накрая, скритата сложност се разкрива.
08:45
In the 17th century,
185
525260
2000
През 17-ти век,
08:47
the mathematician and philosopher, Blaise Pascal,
186
527260
2000
математика и философ Блез Паскал
08:49
wrote of his dread of the infinite,
187
529260
3000
е написал за своя страх от безкрайността,
08:52
his feeling of insignificance
188
532260
2000
неговото чуство за нищожност
08:54
at contemplating the vast reaches of outer space.
189
534260
3000
при съзерцаване на необятните граници на далечния космос.
08:59
And, as a scientist,
190
539260
2000
И, като учен,
09:01
I'm not supposed to talk about my feelings --
191
541260
3000
не би трябвало да говоря за чувствата си.
09:04
too much information, professor.
192
544260
2000
Твърде много информация, професоре.
09:06
(Laughter)
193
546260
2000
(Смях)
09:08
But may I?
194
548260
2000
Но може ли?
09:10
(Laughter)
195
550260
2000
(Смях)
09:12
(Applause)
196
552260
2000
(Аплодисменти)
09:14
I feel curiosity,
197
554260
2000
Чуствам любопитство,
09:16
and I feel wonder,
198
556260
2000
и се учудвам,
09:18
but at times I have also felt despair.
199
558260
3000
но понякога също чувствам отчаяние.
09:22
Why did I choose to study
200
562260
2000
Защо избрах да изучавам
09:24
this organ that is so awesome in its complexity
201
564260
3000
този орган, който е толкова невероятен със своята сложност,
09:27
that it might well be infinite?
202
567260
2000
която може да бъде безкрайна?
09:29
It's absurd.
203
569260
2000
Това е абсурд.
09:31
How could we even dare to think
204
571260
2000
Как въобще може да си помислим,
09:33
that we might ever understand this?
205
573260
3000
че може да разберем това?
09:38
And yet, I persist in this quixotic endeavor.
206
578260
3000
И все пак, аз полагам тези неимоверни усилия.
09:41
And indeed, these days I harbor new hopes.
207
581260
3000
И тези дни съм изпълнен с нови надежди.
09:45
Someday,
208
585260
2000
Някой ден
09:47
a fleet of microscopes will capture
209
587260
2000
флотилия от микроскопи ще запечата
09:49
every neuron and every synapse
210
589260
2000
всеки неврон и всеки синапс
09:51
in a vast database of images.
211
591260
3000
в една голяма база-данни от снимки.
09:54
And some day, artificially intelligent supercomputers
212
594260
3000
И някой ден, суперкомпютри с изкуствен интелект
09:57
will analyze the images without human assistance
213
597260
3000
ще анализират тези снимки без човешка намеса,
10:00
to summarize them in a connectome.
214
600260
3000
за да ги обобщят в кънектом.
10:04
I do not know, but I hope that I will live to see that day,
215
604260
3000
Надявам се да доживея този ден.
10:08
because finding an entire human connectome
216
608260
2000
Защото откриването на цял човешки кънектом
10:10
is one of the greatest technological challenges of all time.
217
610260
3000
е едно от най-големите технологически предизвикателства на всички времена.
10:13
It will take the work of generations to succeed.
218
613260
3000
Ще минат поколения докато успеем.
10:17
At the present time, my collaborators and I,
219
617260
3000
Сега, аз и моите голеги,
10:20
what we're aiming for is much more modest --
220
620260
2000
сме се фокусирали в много по-скромна цел -
10:22
just to find partial connectomes
221
622260
2000
да открием частични кънектоми
10:24
of tiny chunks of mouse and human brain.
222
624260
3000
в малки парчета от миши и човешки мозък.
10:27
But even that will be enough for the first tests of this hypothesis
223
627260
3000
Но даже и това ще е достатъчно да потвърди хипотезата,
10:30
that I am my connectome.
224
630260
3000
че аз съм моят кънектом.
10:35
For now, let me try to convince you of the plausibility of this hypothesis,
225
635260
3000
За сега нека да се опитам да ви убедя във възможността на тази хипотеза,
10:38
that it's actually worth taking seriously.
226
638260
3000
че си струва да я вземем насериозно.
10:42
As you grow during childhood
227
642260
2000
Докато пораствате, когато сте деца
10:44
and age during adulthood,
228
644260
3000
и остарявате, когато сте възрастни,
10:47
your personal identity changes slowly.
229
647260
3000
вашата физическа идентичност бавно се променя.
10:50
Likewise, every connectome
230
650260
2000
По същия начин, всеки кънектом
10:52
changes over time.
231
652260
2000
се променя с времето.
10:55
What kinds of changes happen?
232
655260
2000
Какви промени настъпват?
10:57
Well, neurons, like trees,
233
657260
2000
Ами на невроните, подобно на дърветата
10:59
can grow new branches,
234
659260
2000
им израстват нови разклонения,
11:01
and they can lose old ones.
235
661260
3000
като може да загубят някои от старите си.
11:04
Synapses can be created,
236
664260
3000
Може да се създадат нови синапси,
11:07
and they can be eliminated.
237
667260
3000
а може и да се махнат.
11:10
And synapses can grow larger,
238
670260
2000
Може да растат
11:12
and they can grow smaller.
239
672260
3000
или да намаляват.
11:15
Second question:
240
675260
2000
Втори въпрос:
11:17
what causes these changes?
241
677260
3000
какво предизвиква тези промени?
11:20
Well, it's true.
242
680260
2000
Да, вряно е,
11:22
To some extent, they are programmed by your genes.
243
682260
3000
че до някаква степен те са кодирани във вашите гени.
11:25
But that's not the whole story,
244
685260
2000
Но това не е всичко,
11:27
because there are signals, electrical signals,
245
687260
2000
защото има сигнали, електрически импулси,
11:29
that travel along the branches of neurons
246
689260
2000
които пътуват по разклоненията на невроните
11:31
and chemical signals
247
691260
2000
и химически сигнали,
11:33
that jump across from branch to branch.
248
693260
2000
които скачат от разклонение на разклонение.
11:35
These signals are called neural activity.
249
695260
3000
Тези сигнали се наричат нервна активност.
11:38
And there's a lot of evidence
250
698260
2000
Има доста доказателства,
11:40
that neural activity
251
700260
3000
че нервната активност
11:43
is encoding our thoughts, feelings and perceptions,
252
703260
3000
кодира нашите мисли, чувства и възприятия,
11:46
our mental experiences.
253
706260
2000
нашия мисловен процес.
11:48
And there's a lot of evidence that neural activity
254
708260
3000
И има също доказателства, че нервната активност
11:51
can cause your connections to change.
255
711260
3000
може да промени вашите нервни взаимовръзки.
11:54
And if you put those two facts together,
256
714260
3000
И ако вземем предвид тези два факта,
11:57
it means that your experiences
257
717260
2000
излиза, че вашите преживявания
11:59
can change your connectome.
258
719260
3000
променят вашия кънектом.
12:02
And that's why every connectome is unique,
259
722260
2000
Затова всеки кънектом е уникален,
12:04
even those of genetically identical twins.
260
724260
3000
даже и тези на генетичните близнаци.
12:08
The connectome is where nature meets nurture.
261
728260
3000
Кънектомът е мястото, където се срещат природата и живота.
12:12
And it might true
262
732260
2000
И може да се окаже истина,
12:14
that just the mere act of thinking
263
734260
2000
че самото мислене
12:16
can change your connectome --
264
736260
2000
може да промени вашия кънектом -
12:18
an idea that you may find empowering.
265
738260
3000
идея, която може би намирате за вдъхновяваща.
12:24
What's in this picture?
266
744260
2000
Какво има в тази картинка?
12:28
A cool and refreshing stream of water, you say.
267
748260
3000
Студен и освежаващ поток вода, ще кажете.
12:32
What else is in this picture?
268
752260
2000
Какво друго има на тази картинка?
12:37
Do not forget that groove in the Earth
269
757260
2000
Не забравяйте тази вдлъбнатина в земята
12:39
called the stream bed.
270
759260
3000
наречена речно корито.
12:42
Without it, the water would not know in which direction to flow.
271
762260
3000
Без него водата няма да знае на къде да върви.
12:45
And with the stream,
272
765260
2000
Използвам този поток,
12:47
I would like to propose a metaphor
273
767260
2000
като метафора
12:49
for the relationship between neural activity
274
769260
2000
за взаимовръзката между нервната активност
12:51
and connectivity.
275
771260
2000
и нервната свързаност.
12:54
Neural activity is constantly changing.
276
774260
3000
Нервната активност постоянно се променя.
12:57
It's like the water of the stream; it never sits still.
277
777260
3000
Като водата на този поток, която никога не спира.
13:00
The connections
278
780260
2000
Връзките
13:02
of the brain's neural network
279
782260
2000
на мозъчната нервна система
13:04
determines the pathways
280
784260
2000
определят пътищата,
13:06
along which neural activity flows.
281
786260
2000
по които протича нервната активност.
13:08
And so the connectome is like bed of the stream;
282
788260
3000
Тоест кънектомът е като речно корито.
13:13
but the metaphor is richer than that,
283
793260
3000
Но метафората е по-богата от това.
13:16
because it's true that the stream bed
284
796260
3000
Защото е вярно, че речното корито
13:19
guides the flow of the water,
285
799260
2000
определя движението на водата,
13:21
but over long timescales,
286
801260
2000
но след голям период от време,
13:23
the water also reshapes the bed of the stream.
287
803260
3000
водата също оформя речното корито.
13:26
And as I told you just now,
288
806260
2000
И както ви споделих,
13:28
neural activity can change the connectome.
289
808260
3000
нервната активност може да промени кънектома.
13:33
And if you'll allow me to ascend
290
813260
2000
И ако ми позволите да се върна
13:35
to metaphorical heights,
291
815260
3000
към метафоричните висини,
13:38
I will remind you that neural activity
292
818260
3000
ще ви напомня, че нервната активност
13:41
is the physical basis -- or so neuroscientists think --
293
821260
2000
е физическата основа - или поне така си мислят невроучените -
13:43
of thoughts, feelings and perceptions.
294
823260
3000
на мислите, чувствата и възприятията.
13:46
And so we might even speak of
295
826260
2000
И даже може да говорим за
13:48
the stream of consciousness.
296
828260
2000
потока на съзнанието.
13:50
Neural activity is its water,
297
830260
3000
Нервната активност е водата,
13:53
and the connectome is its bed.
298
833260
3000
а кънектомът е речното корито.
13:57
So let's return from the heights of metaphor
299
837260
2000
Нека се върнем от висините на метафоричността
13:59
and return to science.
300
839260
2000
към науката.
14:01
Suppose our technologies for finding connectomes
301
841260
2000
Нека да предположим, че технологиите за намиране на кънектоми,
14:03
actually work.
302
843260
2000
работят.
14:05
How will we go about testing the hypothesis
303
845260
2000
Как ще тестваме хипотезата
14:07
"I am my connectome?"
304
847260
3000
"Аз съм моя кънектом"?
14:10
Well, I propose a direct test.
305
850260
3000
Предлагам пряк тест.
14:13
Let us attempt
306
853260
2000
Нека опитаме
14:15
to read out memories from connectomes.
307
855260
3000
да прочетем спомени от кънектомите.
14:18
Consider the memory
308
858260
2000
Считайки паметта
14:20
of long temporal sequences of movements,
309
860260
3000
за временна поредица от движения,
14:23
like a pianist playing a Beethoven sonata.
310
863260
3000
както пианист свири Бетовенова соната.
14:26
According to a theory that dates back to the 19th century,
311
866260
3000
Според теория от 19ти век,
14:29
such memories are stored
312
869260
2000
такива спомени се пазят
14:31
as chains of synaptic connections inside your brain.
313
871260
3000
като верига от синаптични връзки вътре във вашия мозък.
14:35
Because, if the first neurons in the chain are activated,
314
875260
3000
Защото, ако първите неврони във веригата са активни,
14:38
through their synapses they send messages to the second neurons, which are activated,
315
878260
3000
чрез техните синапси, се изпращат съобщения до вторите активни неврони
14:41
and so on down the line,
316
881260
2000
и така нататък по линията,
14:43
like a chain of falling dominoes.
317
883260
2000
подобно на домино.
14:45
And this sequence of neural activation
318
885260
2000
И тази последователност от нервна активност
14:47
is hypothesized to be the neural basis
319
887260
3000
се хипотезира да бъде нервната база
14:50
of those sequence of movements.
320
890260
2000
на поредицата от движения.
14:52
So one way of trying to test the theory
321
892260
2000
Един начин за тестване на теорията
14:54
is to look for such chains
322
894260
2000
е да се търсят подобни вериги
14:56
inside connectomes.
323
896260
2000
в кънектоми.
14:58
But it won't be easy, because they're not going to look like this.
324
898260
3000
Но няма да е толкова лесно, защото те не изглеждат по този начин.
15:01
They're going to be scrambled up.
325
901260
2000
Те ще са разбъркани.
15:03
So we'll have to use our computers
326
903260
2000
Така че ще трябва да използваме компютри,
15:05
to try to unscramble the chain.
327
905260
3000
за да се опитаме да подредим веригата.
15:08
And if we can do that,
328
908260
2000
И ако може да направим това,
15:10
the sequence of the neurons we recover from that unscrambling
329
910260
3000
поредицата от неврони, които успеем да разкодираме
15:13
will be a prediction of the pattern of neural activity
330
913260
3000
ще бъдат показателни за характера на нервната активност,
15:16
that is replayed in the brain during memory recall.
331
916260
3000
която се повтаря при извикване на спомен.
15:19
And if that were successful,
332
919260
2000
И ако успееем,
15:21
that would be the first example of reading a memory from a connectome.
333
921260
3000
това ще е първият пример за прочитане на спомени от кънектом.
15:28
(Laughter)
334
928260
2000
(Смях)
15:30
What a mess --
335
930260
2000
Каква бъркотия.
15:33
have you ever tried to wire up a system
336
933260
2000
Някога опитвали ли сте се да окабелите
15:35
as complex as this?
337
935260
2000
толкова сложна система?
15:37
I hope not.
338
937260
2000
Надявам се не.
15:39
But if you have, you know it's very easy to make a mistake.
339
939260
3000
Но ако сте, знаете, че е много лесно да направите грешка.
15:45
The branches of neurons are like the wires of the brain.
340
945260
2000
Разклоненията на невроните са като кабели в мозъка.
15:47
Can anyone guess: what's the total length of wires in your brain?
341
947260
4000
Може ли някой да познае колко е дължината на тези кабели?
15:54
I'll give you a hint. It's a big number.
342
954260
2000
Ще ви подскажа. Числото е голямо.
15:56
(Laughter)
343
956260
2000
(Смях)
15:59
I estimate, millions of miles,
344
959260
3000
Приблизително милиони километри.
16:02
all packed in your skull.
345
962260
3000
Всичко това натъпкано във вашия череп.
16:05
And if you appreciate that number,
346
965260
2000
И ако разбирате това число,
16:07
you can easily see
347
967260
2000
ясно виждате,
16:09
there is huge potential for mis-wiring of the brain.
348
969260
2000
че има голям потенциал за грешки в "окабеляването" на мозъка ви.
16:11
And indeed, the popular press loves headlines like,
349
971260
3000
И наистина популярната преса обича заглавия като
16:14
"Anorexic brains are wired differently,"
350
974260
2000
"Мозъците на анорексиците са окабелени различно"
16:16
or "Autistic brains are wired differently."
351
976260
2000
или "Мозъците на хората с аутизъм са окабелени по различен начин"
16:18
These are plausible claims,
352
978260
2000
Има някои възможни тези,
16:20
but in truth,
353
980260
2000
но истината е,
16:22
we can't see the brain's wiring clearly enough
354
982260
2000
че не можем да видим достатъчно ясно "окабеляването" на мозъка,
16:24
to tell if these are really true.
355
984260
2000
за да кажем дали са верни.
16:26
And so the technologies for seeing connectomes
356
986260
3000
Технологиите за наблюдаване на кънектоми
16:29
will allow us to finally
357
989260
2000
ще ни позволят
16:31
read mis-wiring of the brain,
358
991260
2000
да видим грешно "окабеляване" на мозъка,
16:33
to see mental disorders in connectomes.
359
993260
3000
да откриваме мозъчни разстройства в кънектомите.
16:40
Sometimes the best way to test a hypothesis
360
1000260
3000
Понякога най-добрия начин за тестване на хипотеза
16:43
is to consider its most extreme implication.
361
1003260
3000
е да се вземе предвид най-крайния извод.
16:46
Philosophers know this game very well.
362
1006260
3000
Философите познават добре тази игра.
16:50
If you believe that I am my connectome,
363
1010260
3000
Ако вярвате, че аз съм моят кънектом,
16:53
I think you must also accept the idea
364
1013260
3000
мисля, че трябва да приемете идеята,
16:56
that death is the destruction
365
1016260
2000
че смъртта е унижощаването
16:58
of your connectome.
366
1018260
3000
на този кънектом.
17:02
I mention this because there are prophets today
367
1022260
3000
Споменавам това, защото в днешно време и пророци,
17:05
who claim that technology
368
1025260
3000
които проповядват, че технологиите
17:08
will fundamentally alter the human condition
369
1028260
3000
фундаментално ще променят човешкото състояние
17:11
and perhaps even transform the human species.
370
1031260
3000
и може би даже изменят човешката раса.
17:14
One of their most cherished dreams
371
1034260
3000
Едно от най-съкровените им мечти
17:17
is to cheat death
372
1037260
2000
е да могат да излъжат смъртта
17:19
by that practice known as cryonics.
373
1039260
2000
като използват метода на криониката.
17:21
If you pay 100,000 dollars,
374
1041260
2000
Ако платите 100,000 долара,
17:23
you can arrange to have your body frozen after death
375
1043260
3000
може да замразите тялото си след смъртта ви
17:26
and stored in liquid nitrogen
376
1046260
2000
и то да се съхранява в течен азот
17:28
in one of these tanks in an Arizona warehouse,
377
1048260
2000
в някой от тези резервоари, някъде в Аризонски склад,
17:30
awaiting a future civilization
378
1050260
2000
в очакване на бъдеща цивилизация,
17:32
that is advanced to resurrect you.
379
1052260
3000
която е достатъчно напреднала, за да ви съживи.
17:36
Should we ridicule the modern seekers of immortality,
380
1056260
2000
Трябва ли да осмиваме модерните търсачи на безсмъртие,
17:38
calling them fools?
381
1058260
2000
като ги наричаме глупаци?
17:40
Or will they someday chuckle
382
1060260
2000
Или някой ден те ще се надсмиват
17:42
over our graves?
383
1062260
2000
на нашите гробове?
17:45
I don't know --
384
1065260
2000
Не знам.
17:47
I prefer to test their beliefs, scientifically.
385
1067260
3000
Предпочитам научно да тествам техните вярвания.
17:50
I propose that we attempt to find a connectome
386
1070260
2000
Предлагам да намерим кънектом
17:52
of a frozen brain.
387
1072260
2000
на замръзнал мозък.
17:54
We know that damage to the brain
388
1074260
2000
Знаем, че настъпва увреждане на мозъка
17:56
occurs after death and during freezing.
389
1076260
2000
след смърт или по време на замразяване.
17:58
The question is: has that damage erased the connectome?
390
1078260
3000
Въпросът е: Дали това увреждане е изтрило кънектома?
18:01
If it has, there is no way that any future civilization
391
1081260
3000
Ако е, няма начин някаква бъдеща цивилизация
18:04
will be able to recover the memories of these frozen brains.
392
1084260
3000
да възвърне спомените на тези замразени мозъци.
18:07
Resurrection might succeed for the body,
393
1087260
2000
Възкресяването може да е успешно за тялото,
18:09
but not for the mind.
394
1089260
2000
но не и за мозъка.
18:11
On the other hand, if the connectome is still intact,
395
1091260
3000
От друга страна, ако кънектомът е непокътнат,
18:14
we cannot ridicule the claims of cryonics so easily.
396
1094260
3000
не може да се подиграваме на твърденията на криониката, така лесно.
18:20
I've described a quest
397
1100260
2000
Описах ви едно търсене,
18:22
that begins in the world of the very small,
398
1102260
3000
което започва в света на най-малкото
18:25
and propels us to the world of the far future.
399
1105260
3000
и ни отвежда до света на бъдещето.
18:28
Connectomes will mark a turning point in human history.
400
1108260
3000
Кънектомите ще са повратен момент в човешката история.
18:32
As we evolved from our ape-like ancestors
401
1112260
2000
Еволюирайки от нашите маймуно-подобни прародители
18:34
on the African savanna,
402
1114260
2000
от африканската савана,
18:36
what distinguished us was our larger brains.
403
1116260
3000
това, което ни отличи беше големият ни мозък.
18:40
We have used our brains to fashion
404
1120260
2000
Използвахме нашите мозъци
18:42
ever more amazing technologies.
405
1122260
3000
да създадем още по-невероятни технологии.
18:45
Eventually, these technologies will become so powerful
406
1125260
3000
Накрая тези технологии ще станат толкова мощни,
18:48
that we will use them to know ourselves
407
1128260
3000
че ще ги използваме, за да опознаем себе си,
18:51
by deconstructing and reconstructing
408
1131260
3000
като деконструираме и реконструираме
18:54
our own brains.
409
1134260
3000
нашите мозъци.
18:57
I believe that this voyage of self-discovery
410
1137260
3000
Вярвам, че това пътешествие на себеоткриване
19:00
is not just for scientists,
411
1140260
3000
е не само за учените,
19:03
but for all of us.
412
1143260
2000
а за всички нас.
19:05
And I'm grateful for the opportunity to share this voyage with you today.
413
1145260
3000
И съм благодарен за възможността да споделя това пътуване с вас, днес.
19:08
Thank you.
414
1148260
2000
Благодаря ви.
19:10
(Applause)
415
1150260
8000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7