A brain in a supercomputer | Henry Markram

512,041 views ・ 2009-10-15

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Rafał Malinowski Korekta: Krystian Aparta
00:18
Our mission is to build
0
18330
3000
Naszą misją jest stworzenie
00:21
a detailed, realistic
1
21330
2000
szczegółowego, realistycznego
00:23
computer model of the human brain.
2
23330
2000
komputerowego modelu umysłu.
00:25
And we've done, in the past four years,
3
25330
3000
Przez ostatnie cztery lata dokonaliśmy
00:28
a proof of concept
4
28330
2000
weryfikacji tej koncepcji
00:30
on a small part of the rodent brain,
5
30330
3000
na podstawie małej części mózgu gryzonia.
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
Pozwoliło to nam rozbudować projekt
00:36
to reach the human brain.
7
36330
3000
i osiągnąć mózg ludzki.
00:39
Why are we doing this?
8
39330
2000
Czemu to robimy?
00:41
There are three important reasons.
9
41330
2000
Są trzy ważne powody.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
Po pierwsze, zrozumienie mózgu jest konieczne,
00:47
if we do want to get along in society,
11
47330
2000
jeśli mamy rozwijać się społecznie.
00:49
and I think that it is a key step in evolution.
12
49330
4000
Sądzę, że to kluczowy krok w ewolucji.
00:53
The second reason is,
13
53330
2000
Drugim powodem jest to,
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
że nie możemy wiecznie eksperymentować na zwierzętach
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
i musimy wcielić wszystkie nasze dane i całą wiedzę
01:05
into a working model.
16
65330
3000
w działający model.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
To jak Arka Noego. To jak archiwum.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
Trzecim powodem jest to, że dwa miliardy ludzi na tym świecie
01:15
that are affected by mental disorder,
19
75330
4000
są dotknięte zaburzeniami psychicznymi,
01:19
and the drugs that are used today
20
79330
2000
a obecnie stosowane leki
01:21
are largely empirical.
21
81330
2000
są w dużej mierze empiryczne.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Sądzę, że dzięki naszej pracy mogą powstać
01:26
how to treat disorders.
23
86330
3000
nowe sposoby leczenia takich chorób.
01:29
Now, even at this stage,
24
89330
3000
Nawet na tym etapie
01:32
we can use the brain model
25
92330
2000
możemy użyć modelu mózgu
01:34
to explore some fundamental questions
26
94330
3000
by zbadać pewne fundamentalne zagadnienia
01:37
about how the brain works.
27
97330
2000
dotyczące jego funkcjonowania.
01:39
And here, at TED, for the first time,
28
99330
2000
I tu, w TED, po raz pierwszy
01:41
I'd like to share with you how we're addressing
29
101330
2000
chciałbym opowiedzieć,
01:43
one theory -- there are many theories --
30
103330
3000
jak podchodzimy do jednej z wielu teorii
01:46
one theory of how the brain works.
31
106330
4000
funkcjonowania mózgu ludzkiego.
01:50
So, this theory is that the brain
32
110330
4000
Tak więc, teoria ta mówi, że mózg
01:54
creates, builds, a version of the universe,
33
114330
6000
tworzy pewną wersję wszechświata.
02:00
and projects this version of the universe,
34
120330
3000
I przedstawia projekcję tej wersji wszechświata,
02:03
like a bubble, all around us.
35
123330
4000
wokół nas, jak bańkę.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
To oczywiście odwieczny temat debat filozoficznych.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Ale teraz po raz pierwszy, możemy rozpatrzyć ten problem,
02:14
with brain simulation,
38
134330
2000
za pomocą symulacji mózgu
02:16
and ask very systematic and rigorous questions,
39
136330
4000
i zadać bardzo systematyczne i rygorystyczne pytania,
02:20
whether this theory could possibly be true.
40
140330
4000
o prawdziwość tej teorii.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
Ten księżyc na horyzoncie jest ogromy
02:27
is simply because our perceptual bubble
42
147330
3000
dlatego, że nasza percepcyjna bańka
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
nie rozciąga się na 380.000 kilometrów.
02:34
It runs out of space.
44
154330
2000
Brakuje jej miejsca.
02:36
And so what we do is we compare the buildings
45
156330
4000
Dlatego my porównujemy budynki
02:40
within our perceptual bubble,
46
160330
2000
w naszej percepcyjnej bańce
02:42
and we make a decision.
47
162330
2000
i podejmujemy decyzję.
02:44
We make a decision it's that big,
48
164330
2000
Stwierdzamy, że jest ogromny,
02:46
even though it's not that big.
49
166330
2000
nawet jeśli nie jest taki duży.
02:48
And what that illustrates
50
168330
2000
Ten mechanizm pokazuje,
02:50
is that decisions are the key things
51
170330
2000
że nasza percepcyjna bańka
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
opiera się właśnie na decyzjach. To one utrzymują ją przy życiu.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Bez decydowania nie można widzieć, myśleć, ani czuć.
02:59
you cannot feel.
54
179330
2000
Bez decydowania nie można widzieć, myśleć, ani czuć.
03:01
And you may think that anesthetics work
55
181330
2000
Sądzicie może, że w trakcie narkozy
03:03
by sending you into some deep sleep,
56
183330
3000
pacjent pogrążony jest w głębokim śnie,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
albo że ból znika dzięki blokowaniu receptorów,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
ale w rzeczywistości znieczulenie działa zwykle inaczej.
03:12
What they do is they introduce a noise
59
192330
3000
Znieczulenie wprowadza w mózg zakłócenia,
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
dzięki którym neurony nie rozumieją się nawzajem.
03:18
They are confused,
61
198330
2000
Są zdezorientowane, dlatego nie możecie podjąć decyzji.
03:20
and you cannot make a decision.
62
200330
3000
Są zdezorientowane, dlatego nie możecie podjąć decyzji.
03:23
So, while you're trying to make up your mind
63
203330
3000
Tak więc, gdy próbujecie osądzić,
03:26
what the doctor, the surgeon, is doing
64
206330
2000
co robi z wami chirurg,
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
jego już dawno nie ma.
03:30
He's at home having tea.
66
210330
2000
Jest w domu i pije herbatę.
03:32
(Laughter)
67
212330
2000
(Śmiech)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Kiedy otwieramy drzwi,
03:37
what you compulsively have to do to perceive
69
217330
3000
aby umożliwić percepcję, musimy podjąć tysiące decyzji.
03:40
is to make decisions,
70
220330
2000
aby umożliwić percepcję, musimy podjąć tysiące decyzji.
03:42
thousands of decisions about the size of the room,
71
222330
3000
Decyzje o wielkości pomieszczenia,
03:45
the walls, the height, the objects in this room.
72
225330
3000
wysokości ścian, przedmiotów w pokoju.
03:48
99 percent of what you see
73
228330
3000
99 procent tego, co widzicie,
03:51
is not what comes in through the eyes.
74
231330
4000
nie pochodzi od oczu.
03:55
It is what you infer about that room.
75
235330
4000
Pochodzi z tego, co wywnioskowaliście o tym pokoju.
03:59
So I can say, with some certainty,
76
239330
4000
Z pewną dozą pewności mogę powiedzieć
04:03
"I think, therefore I am."
77
243330
3000
"Myślę, więc jestem."
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Ale nie mogę powiedzieć: "Myślicie, więc jesteście",
04:10
because "you" are within my perceptual bubble.
79
250330
5000
bo znajdujecie się w mojej percepcyjnej bańce.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Możemy teraz spekulować czy filozofować na ten temat
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
przez następne sto lat, ale w rzeczywistości wcale nie musimy.
04:21
We can ask a very concrete question.
82
261330
2000
Możemy zadać bardzo konkretne pytanie.
04:23
"Can the brain build such a perception?"
83
263330
4000
"Czy mózg może zbudować taką percepcję?"
04:27
Is it capable of doing it?
84
267330
2000
Czy potrafi tego dokonać?
04:29
Does it have the substance to do it?
85
269330
2000
Czy ma do tego odpowiednie składniki?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
I to zamierzam opisać wam dzisiaj.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Zbudowanie mózgu zajęło wszechświatowi 11 miliardów lat.
04:38
It had to improve it a little bit.
88
278330
2000
Musiał trochę jeszcze go ulepszyć.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Dodać płat czołowy, tak byście mogli mieć instynkty,
04:43
because they had to cope on land.
90
283330
3000
przecież musiano poradzić sobie na lądzie.
04:46
But the real big step was the neocortex.
91
286330
4000
Ale prawdziwie wielkim krokiem była kora nowa.
04:50
It's a new brain. You needed it.
92
290330
2000
To nowy mózg, którego potrzebowaliście.
04:52
The mammals needed it
93
292330
2000
Ssaki potrzebowały go,
04:54
because they had to cope with parenthood,
94
294330
4000
ponieważ musiały radzić sobie z rodzicielstwem,
04:58
social interactions,
95
298330
2000
interakcjami społecznymi,
05:00
complex cognitive functions.
96
300330
3000
złożonymi funkcjami poznawczymi.
05:03
So, you can think of the neocortex
97
303330
2000
Można powiedzieć, że kora nowa
05:05
actually as the ultimate solution today,
98
305330
5000
to ostateczne znane nam rozwiązanie
05:10
of the universe as we know it.
99
310330
3000
wytworzone przez wszechświat.
05:13
It's the pinnacle, it's the final product
100
313330
2000
To szczyt, produkt końcowy wszechświata.
05:15
that the universe has produced.
101
315330
4000
To szczyt, produkt końcowy wszechświata.
05:19
It was so successful in evolution
102
319330
2000
Była ona tak skuteczny w ewolucji,
05:21
that from mouse to man it expanded
103
321330
2000
że od myszy do człowieka
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
jej liczba neuronów wzrosła tysiąckrotnie,
05:26
to produce this almost frightening
105
326330
3000
tworząc w końcu ten niemal przerażający narząd.
05:29
organ, structure.
106
329330
3000
tworząc w końcu ten niemal przerażający narząd.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
A jej ewolucja wcale się tu nie zatrzymała.
05:35
In fact, the neocortex in the human brain
108
335330
2000
Kora nowa mózgu człowieka
05:37
is evolving at an enormous speed.
109
337330
3000
rozwija się z ogromną prędkością.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Zagłębiwszy się w powierzchni kory nowej,
05:42
you discover that it's made up of little modules,
111
342330
3000
widzimy, że składa się ona z małych modułów,
05:45
G5 processors, like in a computer.
112
345330
2000
procesorów G5, jak w komputerze.
05:47
But there are about a million of them.
113
347330
3000
Ale tu jest ich około miliona.
05:50
They were so successful in evolution
114
350330
2000
Dawały taką przewagę ewolucyjną,
05:52
that what we did was to duplicate them
115
352330
2000
że mnożyliśmy je, póki nie zabrakło na nie miejsca
05:54
over and over and add more and more of them to the brain
116
354330
2000
że mnożyliśmy je, póki nie zabrakło miejsca w czaszce.
05:56
until we ran out of space in the skull.
117
356330
3000
że mnożyliśmy je, póki nie zabrakło miejsca w czaszce.
05:59
And the brain started to fold in on itself,
118
359330
2000
Wtedy mózg zaczął się składać w sobie.
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
Dlatego kora nowa jest tak pofałdowana.
06:04
We're just packing in columns,
120
364330
2000
Pakowaliśmy ją w kolumny,
06:06
so that we'd have more neocortical columns
121
366330
3000
bo do wykonywania złożonych zadań
06:09
to perform more complex functions.
122
369330
3000
potrzebna była duża liczba kolumn neuronalnych.
06:12
So you can think of the neocortex actually as
123
372330
2000
Korę nową można sobie wyobrazić jako wielkie pianino
06:14
a massive grand piano,
124
374330
2000
Korę nową można sobie wyobrazić jako wielkie pianino
06:16
a million-key grand piano.
125
376330
3000
z milionem klawiszy.
06:19
Each of these neocortical columns
126
379330
2000
Każda z kolumn neuronalnych gra określoną nutę.
06:21
would produce a note.
127
381330
2000
Każda z kolumn neuronalnych gra określoną nutę.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Gdy ją pobudzimy, zagra symfonię.
06:26
But it's not just a symphony of perception.
129
386330
3000
To nie tylko symfonia percepcji.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
To symfonia waszego świata, waszej rzeczywistości.
06:32
Now, of course it takes years to learn how
131
392330
3000
Oczywiście nauka gry na pianinie z milionem klawiszy trwa lata.
06:35
to master a grand piano with a million keys.
132
395330
3000
Oczywiście nauka gry na pianinie z milionem klawiszy trwa lata.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
To dlatego wysyłamy dzieci do dobrych szkół,
06:40
hopefully eventually to Oxford.
134
400330
2000
może w końcu do Oxfordu.
06:42
But it's not only education.
135
402330
3000
Ale nie chodzi tylko o edukację.
06:45
It's also genetics.
136
405330
2000
Chodzi też o geny.
06:47
You may be born lucky,
137
407330
2000
Możecie urodzić się szczęściarzami,
06:49
where you know how to master your neocortical column,
138
409330
4000
albo potrafić opanować swoje kolumny neuronalne
06:53
and you can play a fantastic symphony.
139
413330
2000
i grać fantastyczne symfonie.
06:55
In fact, there is a new theory of autism
140
415330
3000
Nowa teoria autyzmu, teoria "intensywnego świata" ("intense world"),
06:58
called the "intense world" theory,
141
418330
2000
Nowa teoria autyzmu, teoria "intensywnego świata" ("intense world"),
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
która sugeruje, że kolumny neuronalne to super-kolumny.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Są one bardzo reaktywne i super-plastyczne,
07:08
and so the autists are probably capable of
144
428330
3000
więc osoby autystyczne są prawdopodobnie w stanie
07:11
building and learning a symphony
145
431330
2000
stworzyć i zrozumieć symfonię
07:13
which is unthinkable for us.
146
433330
2000
dla nas nie do pojęcia.
07:15
But you can also understand
147
435330
2000
Ale rozumiecie,
07:17
that if you have a disease
148
437330
2000
że jeśli jedna z tych kolumn jest chora,
07:19
within one of these columns,
149
439330
2000
że jeśli jedna z tych kolumn jest chora,
07:21
the note is going to be off.
150
441330
2000
będzie grać fałszywie.
07:23
The perception, the symphony that you create
151
443330
2000
Percepcja, czyli symfonia, którą tworzycie, będzie uszkodzona,
07:25
is going to be corrupted,
152
445330
2000
Percepcja, czyli symfonia, którą tworzycie, będzie uszkodzona,
07:27
and you will have symptoms of disease.
153
447330
3000
pojawią się objawy choroby.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Tak więc prawdziwym Świętym Graalem neurobiologii
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
jest zrozumienie konstrukcji kolumn neuronalnych kory nowej.
07:38
and it's not just for neuroscience;
156
458330
2000
Nie chodzi tu tylko o neurobiologię:
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
może to umożliwić zrozumienie percepcji, rzeczywistości,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
a może nawet rzeczywistości fizycznej.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Tak więc przez ostatnie 15 lat
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
systematycznie rozkładaliśmy korę nową na czynniki pierwsze.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
To trochę jak katalogowanie odcinka lasu tropikalnego.
07:58
How many trees does it have?
162
478330
2000
Ile zawiera drzew?
08:00
What shapes are the trees?
163
480330
2000
Jakiego są one kształtu?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Ile jest drzew każdego gatunku? Jak są one rozmieszczone?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
Ale to więcej niż katalogowanie,
08:07
describe and discover all the rules of communication,
166
487330
4000
gdyż trzeba opisać i odkryć wszystkie zasady komunikacji,
08:11
the rules of connectivity,
167
491330
2000
zasady łączności,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
ponieważ neurony nie łączą się z każdym neuronem.
08:16
They choose very carefully who they connect with.
169
496330
3000
Bardzo starannie wybierają, z kim się połączą.
08:19
It's also more than cataloging
170
499330
3000
To więcej niż katalogowanie także dlatego,
08:22
because you actually have to build three-dimensional
171
502330
2000
że trzeba zbudować ich trójwymiarowy cyfrowy model.
08:24
digital models of them.
172
504330
2000
że trzeba zbudować ich trójwymiarowy cyfrowy model.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
I zrobiliśmy to, dla dziesiątek tysięcy neuronów.
08:28
built digital models of all the different types
174
508330
3000
Zbudowaliśmy cyfrowy model różnych rodzajów
08:31
of neurons we came across.
175
511330
2000
neuronów, z którymi się spotkaliśmy.
08:33
And once you have that, you can actually
176
513330
2000
Dysponując takim modelem. można zacząć budowę kolumny neuronalnej.
08:35
begin to build the neocortical column.
177
515330
4000
Dysponując takim modelem. można zacząć budowę kolumny neuronalnej.
08:39
And here we're coiling them up.
178
519330
3000
Tutaj rysuje się kolumna.
08:42
But as you do this, what you see
179
522330
3000
Ale tworząc kolumnę widzimy,
08:45
is that the branches intersect
180
525330
2000
że rozgałęzienia neuronów przecinają się w milionach miejsc,
08:47
actually in millions of locations,
181
527330
3000
że rozgałęzienia neuronów przecinają się w milionach miejsc,
08:50
and at each of these intersections
182
530330
3000
a na każdym z tych przecięć
08:53
they can form a synapse.
183
533330
2000
mogą uformować się synapsy.
08:55
And a synapse is a chemical location
184
535330
2000
A synapsa to miejsce, w którym neurony komunikują się chemicznie.
08:57
where they communicate with each other.
185
537330
3000
A synapsa to miejsce, w którym neurony komunikują się chemicznie.
09:00
And these synapses together
186
540330
2000
Synapsy razem tworzą sieć,
09:02
form the network
187
542330
2000
Synapsy razem tworzą sieć,
09:04
or the circuit of the brain.
188
544330
3000
czyli "obwody " mózgowe.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Można powiedzieć, że obwody te stanowią materię mózgu.
09:11
the fabric of the brain.
190
551330
2000
Można powiedzieć, że obwody te stanowią materię mózgu.
09:13
And when you think of the fabric of the brain,
191
553330
3000
A rozmyślając o materii, czy strukturze mózgu
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
i jego budowie, o wzorze tego dywanu,
09:20
You realize that this poses
193
560330
2000
uświadamiamy sobie, że te kwestie
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
to podstawowe wyzwanie dla każdej teorii mózgu,
09:26
and especially to a theory that says
195
566330
2000
a zwłaszcza takiej, która mówi,
09:28
that there is some reality that emerges
196
568330
2000
że z tego konkretnego dywanu o określonym wzorze
09:30
out of this carpet, out of this particular carpet
197
570330
3000
że z tego konkretnego dywanu o określonym wzorze
09:33
with a particular pattern.
198
573330
2000
wyłania się jakaś rzeczywistość.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
To dlatego, że najważniejszym sekretem architektury mózgu
09:38
is diversity.
200
578330
2000
jest różnorodność.
09:40
Every neuron is different.
201
580330
2000
Każdy neuron jest inny.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
Tak jak w lesie. Każda sosna jest inna.
09:44
You may have many different types of trees,
203
584330
2000
Jest wiele gatunków drzew,
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
ale każda sosna jest inna. I w mózgu jest tak samo.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Tak więc w moim mózgu nie ma dwóch identycznych neuronów,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
a żaden z nich nie jest identyczny z jakimkolwiek z waszych.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
Wasze neurony nie będą zorientowane i umiejscowione
09:58
in exactly the same way.
208
598330
2000
dokładnie tak samo.
10:00
And you may have more or less neurons.
209
600330
2000
Możecie też mieć ich więcej lub mniej.
10:02
So it's very unlikely
210
602330
2000
Więc jest mało prawdopodobne,
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
że macie tę samą strukturę, te same obwody.
10:08
So, how could we possibly create a reality
212
608330
2000
Jak więc możemy stworzyć rzeczywistość
10:10
that we can even understand each other?
213
610330
3000
którą nawet rozumiemy nawzajem?
10:13
Well, we don't have to speculate.
214
613330
2000
Cóż, nie musimy spekulować.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Teraz możemy obserwować wszystkie 10 milionów synaps.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Możemy spojrzeć na materię i zmienić neurony.
10:21
We can use different neurons with different variations.
217
621330
2000
Korzystać z różnych neuronów i ich wariacji.
10:23
We can position them in different places,
218
623330
2000
Ustawiać je w różnych pozycjach,
10:25
orient them in different places.
219
625330
2000
zmieniać ich orientację.
10:27
We can use less or more of them.
220
627330
2000
Możemy użyć ich mniej lub więcej.
10:29
And when we do that
221
629330
2000
I odkryliśmy, że wtedy zmieniają się obwody.
10:31
what we discovered is that the circuitry does change.
222
631330
3000
I odkryliśmy, że wtedy zmieniają się obwody.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
jednak wzór ich konstrukcji pozostaje taki sam.
10:41
So, the fabric of the brain,
224
641330
2000
Jeśli chodzi o strukturę tych obwodów,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
nie ważne, jak wielki jest mózg,
10:45
it may have different types of neurons,
226
645330
3000
jakie zawiera typy neuronów,
10:48
different morphologies of neurons,
227
648330
2000
jaka jest ich morfologia,
10:50
we actually do share
228
650330
3000
struktura obwodów mózgowych zawsze jest u nas taka sama.
10:53
the same fabric.
229
653330
2000
struktura obwodów mózgowych zawsze jest u nas taka sama.
10:55
And we think this is species-specific,
230
655330
2000
I sądzimy, że jest ona specyficzna dla gatunku,
10:57
which means that that could explain
231
657330
2000
co może wyjaśnić, dlaczego nie potrafimy
10:59
why we can't communicate across species.
232
659330
2000
komunikować się między gatunkami.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
A więc włączmy to. Ale najpierw trzeba to ożywić.
11:04
is you have to make this come alive.
234
664330
2000
A więc włączmy to. Ale najpierw trzeba to ożywić.
11:06
We make it come alive
235
666330
2000
Ożywiamy tę strukturę
11:08
with equations, a lot of mathematics.
236
668330
2000
przy pomocy równań; jest dużo matematyki.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
Równania, które zmieniają neurony w generatory elektryczne,
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
odkryli dwaj laureaci Nagrody Nobla z Cambridge.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Mamy więc matematykę, która ożywi neurony.
11:20
We also have the mathematics to describe
240
680330
2000
Mamy też matematykę, która opisuje,
11:22
how neurons collect information,
241
682330
3000
jak neurony pobierają informacje,
11:25
and how they create a little lightning bolt
242
685330
3000
i jak tworzą małe błyskawice
11:28
to communicate with each other.
243
688330
2000
do komunikacji między sobą.
11:30
And when they get to the synapse,
244
690330
2000
A gdy te dotrą one do synapsy,
11:32
what they do is they effectively,
245
692330
2000
dosłownie porażają ją prądem.
11:34
literally, shock the synapse.
246
694330
3000
dosłownie porażają ją prądem.
11:37
It's like electrical shock
247
697330
2000
To porażenie prądem
11:39
that releases the chemicals from these synapses.
248
699330
3000
uwalnia z synaps substancje chemiczne.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
I mamy matematykę, która opisuje ten proces,
11:45
So we can describe the communication between the neurons.
250
705330
4000
dlatego możemy opisać komunikację między neuronami.
11:49
There literally are only a handful
251
709330
3000
Do symulacji działania kory nowej
11:52
of equations that you need to simulate
252
712330
2000
potrzeba dosłownie kilku równań.
11:54
the activity of the neocortex.
253
714330
2000
potrzeba dosłownie kilku równań.
11:56
But what you do need is a very big computer.
254
716330
3000
Ale niezbędny jest potężny komputer.
11:59
And in fact you need one laptop
255
719330
2000
Do obliczeń dla jednego neuronu potrzeba jednego laptopa.
12:01
to do all the calculations just for one neuron.
256
721330
3000
Do obliczeń dla jednego neuronu potrzeba jednego laptopa.
12:04
So you need 10,000 laptops.
257
724330
2000
Czyli musimy mieć 10.000 laptopów.
12:06
So where do you go? You go to IBM,
258
726330
2000
Więc idziecie do IBM po superkomputer, bo oni potrafią
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
Więc idziecie do IBM po superkomputer, bo oni potrafią
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
zebrać moc 10.000 laptopów w coś wielkości lodówki.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Więc teraz mamy superkomputer Blue Gene.
12:17
We can load up all the neurons,
262
737330
2000
Możemy załadować wszystkie neurony,
12:19
each one on to its processor,
263
739330
2000
każdy na swój procesor,
12:21
and fire it up, and see what happens.
264
741330
4000
odpalić to i zobaczyć, co się stanie.
12:25
Take the magic carpet for a ride.
265
745330
3000
Wskoczyć na latający dywan.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Tutaj go uaktywniliśmy. Oto pierwszy obraz tego,
12:31
of what is happening in your brain
267
751330
2000
co się dzieje w waszym mózgu
12:33
when there is a stimulation.
268
753330
2000
podczas stymulacji.
12:35
It's the first view.
269
755330
2000
To pierwsze spojrzenie.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Obserwując to po raz pierwszy, myślicie,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Boże, jak z tego wyłania się rzeczywistość?"
12:44
But, in fact, you can start,
272
764330
3000
Ale tak naprawdę, możemy już zacząć,
12:47
even though we haven't trained this neocortical column
273
767330
4000
choć nie wyszkoliliśmy jeszcze tej kolumny
12:51
to create a specific reality.
274
771330
2000
w tworzeniu konkretnej rzeczywistości.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
Ale możemy zapytać: "Gdzie jest ta róża?"
12:57
We can ask, "Where is it inside,
276
777330
2000
"Gdzie ona jest w środku,
12:59
if we stimulate it with a picture?"
277
779330
3000
jeśli stymulujemy kolumnę jej zdjęciem?"
13:02
Where is it inside the neocortex?
278
782330
2000
Gdzie ona jest w korze nowej?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Ostatecznie to musi tam być, jeśli nią korę.
13:08
So, the way that we can look at that
280
788330
2000
Odpowiadając na to pytanie,
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
możemy zignorować neurony oraz synapsy
13:13
and look just at the raw electrical activity.
282
793330
2000
i obserwować surową aktywność elektryczną.
13:15
Because that is what it's creating.
283
795330
2000
Gdyż to właśnie tworzy kolumna.
13:17
It's creating electrical patterns.
284
797330
2000
Tworzony jest elektryczny wzór.
13:19
So when we did this,
285
799330
2000
Więc kiedy to zrobiliśmy,
13:21
we indeed, for the first time,
286
801330
2000
to rzeczywiście, po raz pierwszy
13:23
saw these ghost-like structures:
287
803330
3000
zobaczyliśmy te widmowe struktury:
13:26
electrical objects appearing
288
806330
3000
elektryczne obiekty pojawiające się
13:29
within the neocortical column.
289
809330
3000
wewnątrz kolumny kory nowej.
13:32
And it's these electrical objects
290
812330
3000
I to te elektryczne obiekty
13:35
that are holding all the information about
291
815330
3000
przechowują wszelkie informacje
13:38
whatever stimulated it.
292
818330
3000
o czymkolwiek, co je stymuluje.
13:41
And then when we zoomed into this,
293
821330
2000
A podążywszy głębiej,
13:43
it's like a veritable universe.
294
823330
4000
widzimy coś, co przypomina prawdziwy wszechświat.
13:47
So the next step
295
827330
2000
Następnym krokiem byłoby
13:49
is just to take these brain coordinates
296
829330
4000
przeniesienie tych współrzędnych mózgowych
13:53
and to project them into perceptual space.
297
833330
4000
przestrzeń przestrzeń percepcji.
13:57
And if you do that,
298
837330
2000
To umożliwiłoby nam wejście
13:59
you will be able to step inside
299
839330
2000
To umożliwiłoby nam wejście
14:01
the reality that is created
300
841330
2000
w rzeczywistość tworzoną przez ten komputer,
14:03
by this machine,
301
843330
2000
w rzeczywistość tworzoną przez ten komputer,
14:05
by this piece of the brain.
302
845330
3000
przez ten kawałek mózgu.
14:08
So, in summary,
303
848330
2000
Tak więc, podsumowując,
14:10
I think that the universe may have --
304
850330
2000
myślę, że można powiedzieć,
14:12
it's possible --
305
852330
2000
iż wszechświat doprowadził do ewolucji
14:14
evolved a brain to see itself,
306
854330
3000
mózgu, który ma zobaczyć siebie,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
co kiedyś może sprawić, że stanie się siebie świadomy.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Zbadanie tej teorii, jak i wszystkich innych, wymaga jeszcze wiele pracy.
14:24
and to test any other theories.
309
864330
3000
Zbadanie tej teorii, jak i wszystkich innych, wymaga jeszcze wiele pracy.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Ale mam nadzieję, że przynajmniej częściowo przekonałem was,
14:30
that it is not impossible to build a brain.
311
870330
3000
że zbudowanie mózgu nie jest niewykonalne.
14:33
We can do it within 10 years,
312
873330
2000
Możemy to zrobić w ciągu 10 lat,
14:35
and if we do succeed,
313
875330
2000
i jeśli się nam powiedzie,
14:37
we will send to TED, in 10 years,
314
877330
2000
wyślemy do TED, za 10 lat,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
hologram, który z wami porozmawia. Dziękuję.
14:42
(Applause)
316
882330
6000
(Brawa)
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7