A brain in a supercomputer | Henry Markram

Henry Markram constrói um cérebro num supercomputador

512,378 views ・ 2009-10-15

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Durval Castro Revisor: Denise Bem David
00:18
Our mission is to build
0
18330
3000
Nossa missão é construir
00:21
a detailed, realistic
1
21330
2000
um modelo computacional detalhado e realista
00:23
computer model of the human brain.
2
23330
2000
do cérebro humano.
00:25
And we've done, in the past four years,
3
25330
3000
E, nos últimos quatro anos, nós fizemos
00:28
a proof of concept
4
28330
2000
uma prova de conceito,
00:30
on a small part of the rodent brain,
5
30330
3000
numa pequena parte de um cérebro de roedor,
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
e com esta prova de conceito, estamos agora aumentando a escala do projeto
00:36
to reach the human brain.
7
36330
3000
para chegar ao cérebro humano.
00:39
Why are we doing this?
8
39330
2000
Porque estamos fazendo isto?
00:41
There are three important reasons.
9
41330
2000
Há três razões importantes.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
Primeiro, é essencial para nós entendermos o cérebro humano
00:47
if we do want to get along in society,
11
47330
2000
se queremos progredir na sociedade,
00:49
and I think that it is a key step in evolution.
12
49330
4000
e penso que isso é um passo fundamental na evolução.
00:53
The second reason is,
13
53330
2000
A segunda razão é
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
que não podemos continuar fazendo experimentos com animais para sempre,
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
e temos que incorporar todos os nossos dados e conhecimentos
01:05
into a working model.
16
65330
3000
num modelo que funcione.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
É como a Arca de Noé. É como um arquivo.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
E a terceira razão é que existem dois bilhôes de pessoas no planeta
01:15
that are affected by mental disorder,
19
75330
4000
afetadas por doenças mentais,
01:19
and the drugs that are used today
20
79330
2000
e as drogas usadas hoje
01:21
are largely empirical.
21
81330
2000
são geralmente empíricas.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Acredito que poderemos obter soluções muito concretas sobre
01:26
how to treat disorders.
23
86330
3000
como tratar eestas doenças.
01:29
Now, even at this stage,
24
89330
3000
Pois bem, mesmo neste estágio,
01:32
we can use the brain model
25
92330
2000
podemos usar o modelo do cérebro
01:34
to explore some fundamental questions
26
94330
3000
para explorar algumas questões fundamentais
01:37
about how the brain works.
27
97330
2000
sobre como o cérebro funciona.
01:39
And here, at TED, for the first time,
28
99330
2000
E aqui, no TED, pela primeira vez,
01:41
I'd like to share with you how we're addressing
29
101330
2000
Gostaria de compartilhar com vocês o modo como estamos abordando
01:43
one theory -- there are many theories --
30
103330
3000
uma teoria -- existem várias teorias --
01:46
one theory of how the brain works.
31
106330
4000
uma teoria de como o cérebro funciona.
01:50
So, this theory is that the brain
32
110330
4000
Asim, esta teoria é que o cérebro
01:54
creates, builds, a version of the universe,
33
114330
6000
cria, constrói uma versão do universo.
02:00
and projects this version of the universe,
34
120330
3000
E projeta essa versão do universo,
02:03
like a bubble, all around us.
35
123330
4000
como uma bolha, ao redor de nós.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Bem, é claro que este tem sido um tópico de debates filosóficos por séculos.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Mas, pela primeira vez, nós podemos realmente tratar isto,
02:14
with brain simulation,
38
134330
2000
através da simulação do cérebro,
02:16
and ask very systematic and rigorous questions,
39
136330
4000
e perguntar questões muito sistemáticas e rigorosas,
02:20
whether this theory could possibly be true.
40
140330
4000
se esta teoria pode mesmo ser verdadeira.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
A razão pela qual a lua é enorme no horizonte
02:27
is simply because our perceptual bubble
42
147330
3000
é simplesmente porque nossa bolha de percepção
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
não se estende até 380.000 quilômetros.
02:34
It runs out of space.
44
154330
2000
Ela fica sem espaço.
02:36
And so what we do is we compare the buildings
45
156330
4000
E então o que fazemos é comparar os prédios
02:40
within our perceptual bubble,
46
160330
2000
dentro da nossa bolha de percepção,
02:42
and we make a decision.
47
162330
2000
e daí tomamos uma decisão.
02:44
We make a decision it's that big,
48
164330
2000
Tomamos a decisão de que ela é grande assim,
02:46
even though it's not that big.
49
166330
2000
apesar dela não ser grande assim,
02:48
And what that illustrates
50
168330
2000
e o que isso ilustra
02:50
is that decisions are the key things
51
170330
2000
é que decisões são os elementos fundamentais
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
que sustentam nossa bolha de percepção. Elas a mantém viva.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Sem decisões você não pode ver, não pode pensar,
02:59
you cannot feel.
54
179330
2000
não pode sentir.
03:01
And you may think that anesthetics work
55
181330
2000
E você pode pensar que os anestésicos funcionam
03:03
by sending you into some deep sleep,
56
183330
3000
colocando você numa espécie de sono profundo,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
o bloqueando seus receptores para você não sentir dor,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
mas na verdade a maioria dos anestésicos não funciona assim.
03:12
What they do is they introduce a noise
59
192330
3000
O que eles fazem é introduzir um ruído
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
no cérebro de modo que os neurônios não se entendam entre eles.
03:18
They are confused,
61
198330
2000
Eles ficam confusos,
03:20
and you cannot make a decision.
62
200330
3000
e você não consegue tomar uma decisão.
03:23
So, while you're trying to make up your mind
63
203330
3000
Então, enquanto você está tentando decidir,
03:26
what the doctor, the surgeon, is doing
64
206330
2000
o que o médico, o cirurgião está fazendo
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
enquanto eles está cortando seu corpo, ele já foi embora.
03:30
He's at home having tea.
66
210330
2000
Ele está em casa tomando chá.
03:32
(Laughter)
67
212330
2000
(Risos)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Assim, quando você anda até a porta e a abre,
03:37
what you compulsively have to do to perceive
69
217330
3000
o que você compulsoriamente precisa fazer para perceber
03:40
is to make decisions,
70
220330
2000
é tomar decisões,
03:42
thousands of decisions about the size of the room,
71
222330
3000
milhares de decisões sobre o tamanho da sala,
03:45
the walls, the height, the objects in this room.
72
225330
3000
a parede, a altura, os objetos na sala.
03:48
99 percent of what you see
73
228330
3000
99 por cento do que você vê
03:51
is not what comes in through the eyes.
74
231330
4000
não é o que vem através dos olhos.
03:55
It is what you infer about that room.
75
235330
4000
é o que você infere a propósito daquela sala.
03:59
So I can say, with some certainty,
76
239330
4000
Portanto eu posso dizer, com alguma certeza,
04:03
"I think, therefore I am."
77
243330
3000
"Penso, logo existo."
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Mas não posso dizer, "Você pensa, logo você existe,"
04:10
because "you" are within my perceptual bubble.
79
250330
5000
porque você está dentro da minha bolha de percepção.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Pois bem, nós podemos especular e filosofar sobre isto,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
mas realmente não precisamos fazer isso pelos próximos cem anos.
04:21
We can ask a very concrete question.
82
261330
2000
Podemos fazer uma pergunta bem concreta.
04:23
"Can the brain build such a perception?"
83
263330
4000
"O cérebro é capaz de construir uma percepção como essa?"
04:27
Is it capable of doing it?
84
267330
2000
Ele é capaz de fazer isso?
04:29
Does it have the substance to do it?
85
269330
2000
Ele tem a substância para fazer isso?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
E isso é o que vou descrever para vocês hoje.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Então, o universo precisou de 11 bilhões de anos para construir o cérebro.
04:38
It had to improve it a little bit.
88
278330
2000
Precisou melhorá-lo um bocado.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Precisou aumentar a parte frontal, para que você tivesse instintos,
04:43
because they had to cope on land.
90
283330
3000
porque precisava se adaptar à vida na terra.
04:46
But the real big step was the neocortex.
91
286330
4000
Mas o verdadeiro grande passo foi o neocortex,
04:50
It's a new brain. You needed it.
92
290330
2000
É um novo cérebro. Você precisava dele.
04:52
The mammals needed it
93
292330
2000
Os mamíferos precisavam dele
04:54
because they had to cope with parenthood,
94
294330
4000
porque eles tinham que lidar com coisas como o cuidado da prole,
04:58
social interactions,
95
298330
2000
interações sociais,
05:00
complex cognitive functions.
96
300330
3000
funções cognitivas complexas.
05:03
So, you can think of the neocortex
97
303330
2000
Então, vocês podem pensar no neocortex
05:05
actually as the ultimate solution today,
98
305330
5000
realmente como a melhor solução hoje,
05:10
of the universe as we know it.
99
310330
3000
do universo como nós o conhecemos.
05:13
It's the pinnacle, it's the final product
100
313330
2000
É o ápice, é o produto final
05:15
that the universe has produced.
101
315330
4000
que o universo produziu.
05:19
It was so successful in evolution
102
319330
2000
Ele foi tão bem sucedido na evolução
05:21
that from mouse to man it expanded
103
321330
2000
que do camundongo ao homem ele se expandiu
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
cerca de mil vezes, em termos de número de neurônios,
05:26
to produce this almost frightening
105
326330
3000
para produzir este quase assustador
05:29
organ, structure.
106
329330
3000
órgão, estrutura.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
E ele não se deteve em seu caminho evolutivo.
05:35
In fact, the neocortex in the human brain
108
335330
2000
De fato, o neocortex do cérebro humano
05:37
is evolving at an enormous speed.
109
337330
3000
está evoluindo numa velocidade enorme.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Se você der um "zoom" na superfície do neocortex,
05:42
you discover that it's made up of little modules,
111
342330
3000
você vai descobrir que ela é feita de pequenos módulos,
05:45
G5 processors, like in a computer.
112
345330
2000
processadores G5, como num computador.
05:47
But there are about a million of them.
113
347330
3000
Só que existe cerca de um milhão deles.
05:50
They were so successful in evolution
114
350330
2000
Eles foram tão bem sucedidos na evolução
05:52
that what we did was to duplicate them
115
352330
2000
que o que nós fizemos foi duplicá-los
05:54
over and over and add more and more of them to the brain
116
354330
2000
muitas e muitas vezes, e adicioná-los mais e mais ao cérebro
05:56
until we ran out of space in the skull.
117
356330
3000
até que ficamos sem espaço no crânio.
05:59
And the brain started to fold in on itself,
118
359330
2000
Então o cérebro começou a se dobrar sobre si mesmo,
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
e é por isso que o neocortex tem tantas convoluções.
06:04
We're just packing in columns,
120
364330
2000
Nós estamos simplesmente adicionando colunas,
06:06
so that we'd have more neocortical columns
121
366330
3000
de modo que tenhamos mais colunas neocorticais
06:09
to perform more complex functions.
122
369330
3000
para executar funções mais complexas.
06:12
So you can think of the neocortex actually as
123
372330
2000
Assim, vocês podem pensar no neocortex atualmente como
06:14
a massive grand piano,
124
374330
2000
um enorme piano de cauda,
06:16
a million-key grand piano.
125
376330
3000
um piano de cauda com um milhão de teclas.
06:19
Each of these neocortical columns
126
379330
2000
Cada uma dessas colunas neocorticais
06:21
would produce a note.
127
381330
2000
produziria uma nota.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Quando você a estimula; ela produz uma sinfonia.
06:26
But it's not just a symphony of perception.
129
386330
3000
Mas não é apenas uma sinfonia da percepção.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
É uma sinfonia do seu universo, da sua realidade.
06:32
Now, of course it takes years to learn how
131
392330
3000
Pois bem, é claro que levam anos para aprender como
06:35
to master a grand piano with a million keys.
132
395330
3000
tornar-se um mestre num piano com um milhão de notas.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
É por isso que vocês precisam mandar suas crianças a boas escolas,
06:40
hopefully eventually to Oxford.
134
400330
2000
esperamos, quem sabe, a Oxford.
06:42
But it's not only education.
135
402330
3000
Mas isso não é só educação.
06:45
It's also genetics.
136
405330
2000
É também genética.
06:47
You may be born lucky,
137
407330
2000
Você pode ter nascido com sorte,
06:49
where you know how to master your neocortical column,
138
409330
4000
ou você sabe como dominar sua coluna neocortical,
06:53
and you can play a fantastic symphony.
139
413330
2000
e você pode tocar uma sinfonia fantástica.
06:55
In fact, there is a new theory of autism
140
415330
3000
De fato, existe uma nova teoria do autismo
06:58
called the "intense world" theory,
141
418330
2000
denominada teoria do "mundo intenso",
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
a qual sugere que as colunas neocorticais são super-colunas.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Elas são extremamente reativas, e elas são super plásticas,
07:08
and so the autists are probably capable of
144
428330
3000
e por isso os autistas provavelmente são capazes de
07:11
building and learning a symphony
145
431330
2000
construir e aprender uma sinfonia
07:13
which is unthinkable for us.
146
433330
2000
que é inconcebível para nós.
07:15
But you can also understand
147
435330
2000
Mas você também é capaz de entender
07:17
that if you have a disease
148
437330
2000
que se você tem uma doença
07:19
within one of these columns,
149
439330
2000
em uma dessas colunas,
07:21
the note is going to be off.
150
441330
2000
essa nota vai estar desligada.
07:23
The perception, the symphony that you create
151
443330
2000
A percepção, a sinfonia que você cria
07:25
is going to be corrupted,
152
445330
2000
estará corrompida,
07:27
and you will have symptoms of disease.
153
447330
3000
e você terá sintomas de doença.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Assim, o santo graal da neurociência
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
é, na verdade, entender o projeto da coluna neocortical --
07:38
and it's not just for neuroscience;
156
458330
2000
e isso não é apenas para a neurociência;
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
é para talvez entender a percepção, entender a realidade,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
e quem sabe até entender também a realidade física.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Assim, o que nós fizemos, durante os últimos 15 anos,
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
foi dissecar o neocortex, sistematicamente.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
É meio parecido com estudar e catalogar um pedaço da floresta tropical.
07:58
How many trees does it have?
162
478330
2000
Quantas árvores ela tem?
08:00
What shapes are the trees?
163
480330
2000
De que forma são as árvores?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Quantas árvores de cada tipo você tem? Onde elas estão localizadas?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
Mas é um pouco mais do que catalogar porque você precisa realmente
08:07
describe and discover all the rules of communication,
166
487330
4000
descrever e descobrir todas as regras de comunicação,
08:11
the rules of connectivity,
167
491330
2000
as regras de conectividade,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
porque os neurônios não gostam de conectar-se simplesmente com qualquer outro neurônio.
08:16
They choose very carefully who they connect with.
169
496330
3000
Eles escolhem muito cuidadosamente com quem se conectam.
08:19
It's also more than cataloging
170
499330
3000
Também é mais do que catalogar
08:22
because you actually have to build three-dimensional
171
502330
2000
porque você precisa construir
08:24
digital models of them.
172
504330
2000
modelos digitais tri-dimensionais deles.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
E nós fizemos isso para dezenas de milhares de neurônios,
08:28
built digital models of all the different types
174
508330
3000
construímos modelos digitais dos diferentes tipos
08:31
of neurons we came across.
175
511330
2000
de neurônios que nós encontramos.
08:33
And once you have that, you can actually
176
513330
2000
E uma vez que você tenha isso, você realmente pode
08:35
begin to build the neocortical column.
177
515330
4000
começar a construir a coluna neocortical.
08:39
And here we're coiling them up.
178
519330
3000
E aí nós as vamos enrolando e empilhando.
08:42
But as you do this, what you see
179
522330
3000
Mas quando você faz isso, o que você vê
08:45
is that the branches intersect
180
525330
2000
é que os ramos se interceptam
08:47
actually in millions of locations,
181
527330
3000
realmente em milhões de lugares
08:50
and at each of these intersections
182
530330
3000
e em cada uma dessas intersecções
08:53
they can form a synapse.
183
533330
2000
eles podem formar uma sinapse.
08:55
And a synapse is a chemical location
184
535330
2000
E uma sinapse é um local de interações químicas
08:57
where they communicate with each other.
185
537330
3000
onde eles se comunicam entre si.
09:00
And these synapses together
186
540330
2000
E essas sinapses juntas
09:02
form the network
187
542330
2000
formam a rede
09:04
or the circuit of the brain.
188
544330
3000
ou circuito do cérebro.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Pois bem, esse circuito, você também pode pensar nele como
09:11
the fabric of the brain.
190
551330
2000
o tecido do cérebro.
09:13
And when you think of the fabric of the brain,
191
553330
3000
E quando você pensa no tecido do cérebro,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
a estrutura, como ela é feita? Qual é o padrão da tapeçaria?
09:20
You realize that this poses
193
560330
2000
Vocês percebem que isto representa
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
um desafio fundamental para qualquer teoria do cérebro,
09:26
and especially to a theory that says
195
566330
2000
e especialmente para uma teoria que afirma
09:28
that there is some reality that emerges
196
568330
2000
que existe alguma realidade que emerge
09:30
out of this carpet, out of this particular carpet
197
570330
3000
a partir desta tapeçaria, a partir desta particular tapeçaria
09:33
with a particular pattern.
198
573330
2000
com um padrão específico.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
O motivo é porque o mais importante segredo de projeto do cérebro
09:38
is diversity.
200
578330
2000
é diversidade.
09:40
Every neuron is different.
201
580330
2000
Cada neuronio é diferente.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
É o mesmo que na floresta. Cada pinheiro é diferente.
09:44
You may have many different types of trees,
203
584330
2000
Você pode ter muitos tipos diferentes de árvores,
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
mas cada pinheiro é diferente. E no cérebro é a mesma coisa.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
De modo que não existe nenhum neurônio no meu cérebro que seja o mesmo que outro,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
e não há nenhum neurônio no meu cérebro que seja o mesmo que o seu.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
E os seus neurônios não vão estar orientados e posicionados
09:58
in exactly the same way.
208
598330
2000
exatamente da mesma maneira.
10:00
And you may have more or less neurons.
209
600330
2000
E você pode ter mais ou menos neurônios.
10:02
So it's very unlikely
210
602330
2000
Assim, é muito improvável
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
que você tenha o mesmo tecido, os mesmos circuitos.
10:08
So, how could we possibly create a reality
212
608330
2000
Assim, como é possível que nós criemos uma realidade
10:10
that we can even understand each other?
213
610330
3000
de modo que possamos ao menos entendermos um ao outro?
10:13
Well, we don't have to speculate.
214
613330
2000
Bem, não precisamos especular.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Nós podemos agora observar todos os 10 milhões de sinapses.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Nós podemos observar o tecido. E nós podemos mudar os neurônios.
10:21
We can use different neurons with different variations.
217
621330
2000
Podemos usar diferentes neurônios com diferentes variações.
10:23
We can position them in different places,
218
623330
2000
Podemos colocá-los em lugares diferentes,
10:25
orient them in different places.
219
625330
2000
orientá-los em posições diferentes.
10:27
We can use less or more of them.
220
627330
2000
Podemos usar um número maior ou menor deles.
10:29
And when we do that
221
629330
2000
E quando fazemos isso
10:31
what we discovered is that the circuitry does change.
222
631330
3000
o que descobrimos é que o circuito efetivamente muda.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Mas o padrão de como o circuito é projetado não muda.
10:41
So, the fabric of the brain,
224
641330
2000
Assim, o tecido do cérebro,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
mesmo que seu cérebro seja menor, maior,
10:45
it may have different types of neurons,
226
645330
3000
tenha diferentes tipos de neurônios,
10:48
different morphologies of neurons,
227
648330
2000
diferentes morfologias de neurônios,
10:50
we actually do share
228
650330
3000
nós realmente compartilhamos
10:53
the same fabric.
229
653330
2000
o mesmo tecido.
10:55
And we think this is species-specific,
230
655330
2000
E nós pensamos que isto é específico para cada espécie animal,
10:57
which means that that could explain
231
657330
2000
o que pode explicar
10:59
why we can't communicate across species.
232
659330
2000
porque não conseguimos nos comunicar entre espécies.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Então, vamos colocá-lo a funcionar. Mas para conseguir isso, o que você precisa
11:04
is you have to make this come alive.
234
664330
2000
é fazer que ele se torne vivo.
11:06
We make it come alive
235
666330
2000
Nós fazemos que ele se torne vivo
11:08
with equations, a lot of mathematics.
236
668330
2000
com equações, uma porção de matemática.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
E, de fato, as equações que mostram os neurônios como geradores elétricos
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
foram descobertas por dois cientistas de Cambridge, contemplados com o Prêmio Nobel.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Assim, nós temos a matemática para fazer os neurônios ganharem vida.
11:20
We also have the mathematics to describe
240
680330
2000
Também temos a matemática para descrever
11:22
how neurons collect information,
241
682330
3000
como os neurônios coletam informação,
11:25
and how they create a little lightning bolt
242
685330
3000
e como eles criam uma pequena faísca elétrica
11:28
to communicate with each other.
243
688330
2000
para se comunicarem um com o outro.
11:30
And when they get to the synapse,
244
690330
2000
E quando eles chegam à sinapse,
11:32
what they do is they effectively,
245
692330
2000
o que eles fazem é, efetivamente,
11:34
literally, shock the synapse.
246
694330
3000
literalmente, dar um choque na sinapse.
11:37
It's like electrical shock
247
697330
2000
É como um choque elétrico
11:39
that releases the chemicals from these synapses.
248
699330
3000
que libera as substâncias quìmicas dessas sinapses.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
E nós temos a matemática para descrever este processo.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Assim nós somos capazes de descrever a comunicação entre os neurônios.
11:49
There literally are only a handful
251
709330
3000
Existe literalmente apenas um punhado
11:52
of equations that you need to simulate
252
712330
2000
de equações que você precisa para simular
11:54
the activity of the neocortex.
253
714330
2000
a atividade do neocortex.
11:56
But what you do need is a very big computer.
254
716330
3000
Mas o que você precisa mesmo é um computador muito grande.
11:59
And in fact you need one laptop
255
719330
2000
De fato você precisa um laptop
12:01
to do all the calculations just for one neuron.
256
721330
3000
para fazer todos os cálculos para um único neurônio.
12:04
So you need 10,000 laptops.
257
724330
2000
Portanto você precisa 10.000 laptops.
12:06
So where do you go? You go to IBM,
258
726330
2000
Assim, para onde você vai? Você vai para a IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
e consegue um supercomputador, porque eles precisaram pegar
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10.000 laptops e colocá-los no tamanho de uma geladeira.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Assim nós ficamos com este supercomputador Blue Gene.
12:17
We can load up all the neurons,
262
737330
2000
Nós carregamos nele todos os neurônios,
12:19
each one on to its processor,
263
739330
2000
cada um em seu processador,
12:21
and fire it up, and see what happens.
264
741330
4000
e o ativamos, para ver o que acontece.
12:25
Take the magic carpet for a ride.
265
745330
3000
Tome o tapete mágico para um passeio.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Aqui nós o ativamos. E isto nos dá um primeiro vislumbre
12:31
of what is happening in your brain
267
751330
2000
do que está acontecendo no seu cérebro
12:33
when there is a stimulation.
268
753330
2000
quando há uma estimulação.
12:35
It's the first view.
269
755330
2000
É a primeira visão.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Pois bem, quando você olha para isso pela primeira vez, você pensa,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Meu deus. Como é que a realidade está saindo disso aí?"
12:44
But, in fact, you can start,
272
764330
3000
Mas, na verdade, você pode começar,
12:47
even though we haven't trained this neocortical column
273
767330
4000
mesmo que ainda não tenhamos treinado esta coluna neocortical
12:51
to create a specific reality.
274
771330
2000
a criar uma realidade específica.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
Mas nós podemos perguntar, "Onde está a rosa?"
12:57
We can ask, "Where is it inside,
276
777330
2000
Podemos perguntar, "Onde ela está aí dentro,
12:59
if we stimulate it with a picture?"
277
779330
3000
se nós a estimulamos com uma imagem?"
13:02
Where is it inside the neocortex?
278
782330
2000
Onde está ela no interior do neocortex?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Afinal ela tem que estar nele se nós o estimulamos com isso.
13:08
So, the way that we can look at that
280
788330
2000
Daí, o modo como podemos ver isso
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
é ignorar os neurônios, ignorar as sinapses,
13:13
and look just at the raw electrical activity.
282
793330
2000
e observar apenas a crua atividade elétrica.
13:15
Because that is what it's creating.
283
795330
2000
Porque isso é o que ela está criando.
13:17
It's creating electrical patterns.
284
797330
2000
Ela está criando padrões elétricos.
13:19
So when we did this,
285
799330
2000
Então, quando fizemos isso,
13:21
we indeed, for the first time,
286
801330
2000
finalmente, pela primeira vez,
13:23
saw these ghost-like structures:
287
803330
3000
vimos estas estruturas fantasmagóricas:
13:26
electrical objects appearing
288
806330
3000
objetos elétricos aparecendo
13:29
within the neocortical column.
289
809330
3000
dentro da coluna neocortical.
13:32
And it's these electrical objects
290
812330
3000
E são estes objetos elétricos
13:35
that are holding all the information about
291
815330
3000
que estão guardando toda a informação sobre
13:38
whatever stimulated it.
292
818330
3000
o que o estimulou.
13:41
And then when we zoomed into this,
293
821330
2000
E quando damos um zoom nisto,
13:43
it's like a veritable universe.
294
823330
4000
é como um verdadeiro universo.
13:47
So the next step
295
827330
2000
Assim, o próximo passo
13:49
is just to take these brain coordinates
296
829330
4000
é simplesmente tomar essas coordenadas do cérebro
13:53
and to project them into perceptual space.
297
833330
4000
e projetá-las no espaço de percepção.
13:57
And if you do that,
298
837330
2000
E se você fizer isso,
13:59
you will be able to step inside
299
839330
2000
será capaz de penetrar no interior
14:01
the reality that is created
300
841330
2000
da realidade que é criada
14:03
by this machine,
301
843330
2000
por esta máquina,
14:05
by this piece of the brain.
302
845330
3000
por este pedaço de cérebro.
14:08
So, in summary,
303
848330
2000
Assim, resumindo,
14:10
I think that the universe may have --
304
850330
2000
Eu penso que o universo pode ter --
14:12
it's possible --
305
852330
2000
é possível --
14:14
evolved a brain to see itself,
306
854330
3000
evoluído um cérebro para ver a si mesmo,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
o que pode ser o primeiro passo para tornar-se consciente de si mesmo.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Muito ainda resta a ser feito para verificar estas histórias,
14:24
and to test any other theories.
309
864330
3000
e testar quaisquer outras teorias.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Mas espero que vocês estejam pelo menos parcialmente convencidos
14:30
that it is not impossible to build a brain.
311
870330
3000
de que não é impossível construir um cérebro.
14:33
We can do it within 10 years,
312
873330
2000
Nós somos capazes de fazê-lo num prazo de 10 anos,
14:35
and if we do succeed,
313
875330
2000
e se formos bem sucedidos,
14:37
we will send to TED, in 10 years,
314
877330
2000
enviaremos ao TED, daqui a 10 anos,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
um holograma para falar com vocês. Muito obrigado.
14:42
(Applause)
316
882330
6000
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7