A brain in a supercomputer | Henry Markram

Henry Markram construye un cerebro en un supercomputador

509,550 views

2009-10-15 ・ TED


New videos

A brain in a supercomputer | Henry Markram

Henry Markram construye un cerebro en un supercomputador

509,550 views ・ 2009-10-15

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Jesus Nuevo-Chiquero Revisor: Daniel W. Hinojosa Ramos
00:18
Our mission is to build
0
18330
3000
Nuestra misión es construir
00:21
a detailed, realistic
1
21330
2000
un modelo detallado y realista
00:23
computer model of the human brain.
2
23330
2000
del cerebro humano en un computador.
00:25
And we've done, in the past four years,
3
25330
3000
Y hemos hecho, en los últimos 4 años,
00:28
a proof of concept
4
28330
2000
una prueba de concepto
00:30
on a small part of the rodent brain,
5
30330
3000
en una pequeña parte del cerebro de un roedor
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
y con esta prueba, estamos incrementando la escala del proyecto
00:36
to reach the human brain.
7
36330
3000
para alcanzar el cerebro humano.
00:39
Why are we doing this?
8
39330
2000
¿Por qué estamos haciendo esto?
00:41
There are three important reasons.
9
41330
2000
Hay 3 razones importantes.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
La primera es: es esencial para nosotros entender el cerebro humano
00:47
if we do want to get along in society,
11
47330
2000
si queremos funcionar en sociedad
00:49
and I think that it is a key step in evolution.
12
49330
4000
y creo que es un paso clave en la evolución.
00:53
The second reason is,
13
53330
2000
La segunda razón es
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
no podemos seguir experimentando en animales por siempre,
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
y tenemos que plasmar todos nuestros datos y todo nuestro conocimiento,
01:05
into a working model.
16
65330
3000
en un modelo que funcione.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
Es como el Arca de Noé. Como un archivo.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
La tercera razón es que hay 2 mil millones de personas en el planeta
01:15
that are affected by mental disorder,
19
75330
4000
afectadas por desórdenes mentales,
01:19
and the drugs that are used today
20
79330
2000
y los medicamentos que hoy en día se emplean
01:21
are largely empirical.
21
81330
2000
son mayormente de desarrollo empírico.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Creo que podemos crear soluciones muy concretas sobre
01:26
how to treat disorders.
23
86330
3000
cómo tratar dichos desórdenes.
01:29
Now, even at this stage,
24
89330
3000
Ahora bien, incluso en esta etapa,
01:32
we can use the brain model
25
92330
2000
podemos usar el modelo del cerebro
01:34
to explore some fundamental questions
26
94330
3000
para explorar algunas interrogantes fundamentales
01:37
about how the brain works.
27
97330
2000
sobre cómo funciona el cerebro.
01:39
And here, at TED, for the first time,
28
99330
2000
Y aquí, en TED, por primera vez,
01:41
I'd like to share with you how we're addressing
29
101330
2000
me gustaría compartir con ustedes cómo estamos abordando
01:43
one theory -- there are many theories --
30
103330
3000
una teoría, hay muchas teorías,
01:46
one theory of how the brain works.
31
106330
4000
una teoría de cómo funciona el cerebro.
01:50
So, this theory is that the brain
32
110330
4000
Bien, ésta teoría dice que el cerebro,
01:54
creates, builds, a version of the universe,
33
114330
6000
crea, construye, una versión del universo.
02:00
and projects this version of the universe,
34
120330
3000
Y proyecta esta versión del universo,
02:03
like a bubble, all around us.
35
123330
4000
como una burbuja, alrededor nuestro.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Ahora bien, este ha sido por supuesto un tema de debate filosófico durante siglos.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Pero, por primera vez, podemos realmente abordarlo,
02:14
with brain simulation,
38
134330
2000
con una simulación del cerebro,
02:16
and ask very systematic and rigorous questions,
39
136330
4000
y plantearnos preguntas muy sistemáticas y rigurosas,
02:20
whether this theory could possibly be true.
40
140330
4000
sobre si esta teoría podría ser cierta.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
La razón por la que la luna es enorme en el horizonte
02:27
is simply because our perceptual bubble
42
147330
3000
es simplemente porque nuestra burbuja perceptiva
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
no se estira 380.000 kilómetros.
02:34
It runs out of space.
44
154330
2000
Se queda sin espacio.
02:36
And so what we do is we compare the buildings
45
156330
4000
Así que lo que hacemos es comparar los edificios
02:40
within our perceptual bubble,
46
160330
2000
dentro de nuestra burbuja perceptiva
02:42
and we make a decision.
47
162330
2000
y tomamos una decisión
02:44
We make a decision it's that big,
48
164330
2000
Decidimos que es, así de grande,
02:46
even though it's not that big.
49
166330
2000
aunque no sea, tan grande
02:48
And what that illustrates
50
168330
2000
y lo que esto ilustra
02:50
is that decisions are the key things
51
170330
2000
es que las decisiones son elementos clave
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
que mantienen nuestra burbuja perceptiva. La mantiene viva.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Sin decisiones no puedes ver, no puedes pensar,
02:59
you cannot feel.
54
179330
2000
no puedes sentir.
03:01
And you may think that anesthetics work
55
181330
2000
Y pueden pensar que los sedantes funcionan
03:03
by sending you into some deep sleep,
56
183330
3000
al inducir un sueño profundo
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
o bloqueando tus receptores para que no sientas dolor,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
pero de hecho la mayoría de los sedantes no funcionan así.
03:12
What they do is they introduce a noise
59
192330
3000
Lo que hacen es que introduce un ruido
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
en el cerebro para que las neuronas no se entiendan entre ellas.
03:18
They are confused,
61
198330
2000
Están confundidas,
03:20
and you cannot make a decision.
62
200330
3000
y no puedes tomar una decisión.
03:23
So, while you're trying to make up your mind
63
203330
3000
Así que, mientras tratas de entender lo que sucede
03:26
what the doctor, the surgeon, is doing
64
206330
2000
con respecto a lo que el doctor, el cirujano te está haciendo
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
mientras está cortando en tu cuerpo, él hace rato que se ha ido.
03:30
He's at home having tea.
66
210330
2000
Está ya en casa tomando té.
03:32
(Laughter)
67
212330
2000
(Risas)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
cuando caminas hacia la puerta y la abres,
03:37
what you compulsively have to do to perceive
69
217330
3000
lo que compulsivamente tienes que hacer para percibir
03:40
is to make decisions,
70
220330
2000
es tomar decisiones,
03:42
thousands of decisions about the size of the room,
71
222330
3000
miles de decisiones sobre el tamaño de la habitación,
03:45
the walls, the height, the objects in this room.
72
225330
3000
la pared, la altura, los objetos en la habitación.
03:48
99 percent of what you see
73
228330
3000
El 99% de lo que ves
03:51
is not what comes in through the eyes.
74
231330
4000
no es lo que entra por los ojos.
03:55
It is what you infer about that room.
75
235330
4000
Es lo que infieres sobre la habitación.
03:59
So I can say, with some certainty,
76
239330
4000
Por lo tanto, puedo decir, con cierta seguridad,
04:03
"I think, therefore I am."
77
243330
3000
"Pienso, luego existo"
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Pero no puedo decir, "Tú piensas, luego existes",
04:10
because "you" are within my perceptual bubble.
79
250330
5000
porque tú estás dentro de mi burbuja perceptiva.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Ahora bien, podemos especular y filosofar sobre esto,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
pero no tenemos realmente que hacerlo durante los próximos 100 años.
04:21
We can ask a very concrete question.
82
261330
2000
Podemos hacernos una pregunta muy concreta:
04:23
"Can the brain build such a perception?"
83
263330
4000
¿Puede el cerebro construir tal percepción?
04:27
Is it capable of doing it?
84
267330
2000
¿Es capaz de hacerlo?
04:29
Does it have the substance to do it?
85
269330
2000
¿Tiene la substancia para hacerlo?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
Y eso es lo que voy a describirles hoy.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
Bien, le llevó al universo 11 mil millones de años construir el cerebro.
04:38
It had to improve it a little bit.
88
278330
2000
Tuvo que mejorarlo un poco:
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Tuvo que añadir la parte frontal, para que podamos tener instintos
04:43
because they had to cope on land.
90
283330
3000
para que pudieran arreglárselas en la tierra.
04:46
But the real big step was the neocortex.
91
286330
4000
Pero auténtico gran paso fue el neocórtex.
04:50
It's a new brain. You needed it.
92
290330
2000
Es un cerebro nuevo. Lo necesitas.
04:52
The mammals needed it
93
292330
2000
Los mamíferos lo necesitan
04:54
because they had to cope with parenthood,
94
294330
4000
porque tienen que lidiar con la paternidad,
04:58
social interactions,
95
298330
2000
interacciones sociales,
05:00
complex cognitive functions.
96
300330
3000
y funciones cognitivas complejas.
05:03
So, you can think of the neocortex
97
303330
2000
Así, podemos pensar en el neocórtex
05:05
actually as the ultimate solution today,
98
305330
5000
como la solución definitiva, hoy en día,
05:10
of the universe as we know it.
99
310330
3000
del universo como lo conocemos.
05:13
It's the pinnacle, it's the final product
100
313330
2000
Es el pináculo, el producto final
05:15
that the universe has produced.
101
315330
4000
que el universo ha producido.
05:19
It was so successful in evolution
102
319330
2000
Tuvo tanto éxito en la evolución
05:21
that from mouse to man it expanded
103
321330
2000
que de ratón a hombre se ha expandido
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
cerca de 1000 veces en términos del número de neuronas,
05:26
to produce this almost frightening
105
326330
3000
para producir este órgano,
05:29
organ, structure.
106
329330
3000
esta estructura, que casi asusta.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
Y no ha parado en su camino evolutivo.
05:35
In fact, the neocortex in the human brain
108
335330
2000
De hecho, el neocórtex en el cerebro humano
05:37
is evolving at an enormous speed.
109
337330
3000
está evolucionando a una excesiva velocidad.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Si hacemos un acercamiento a la superficie del neocórtex,
05:42
you discover that it's made up of little modules,
111
342330
3000
descubriremos que está hecho de pequeños módulos,
05:45
G5 processors, like in a computer.
112
345330
2000
procesadores G5, como en un computador.
05:47
But there are about a million of them.
113
347330
3000
Pero hay cerca de 1 millón de ellos.
05:50
They were so successful in evolution
114
350330
2000
Han tenido tanto éxito en la evolución
05:52
that what we did was to duplicate them
115
352330
2000
que lo que hemos hecho ha sido duplicarlos
05:54
over and over and add more and more of them to the brain
116
354330
2000
una y otra vez, y añadir más y más al cerebro.
05:56
until we ran out of space in the skull.
117
356330
3000
hasta que nos quedamos sin espacio en el cráneo.
05:59
And the brain started to fold in on itself,
118
359330
2000
Y el cerebro empezó a plegarse sobre sí mismo,
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
y por eso el neocórtex está tan retorcido.
06:04
We're just packing in columns,
120
364330
2000
Estábamos simplemente empaquetando en columnas,
06:06
so that we'd have more neocortical columns
121
366330
3000
para que tuviéramos más columnas neocorticales
06:09
to perform more complex functions.
122
369330
3000
para realizar funciones más complejas.
06:12
So you can think of the neocortex actually as
123
372330
2000
Así que puedes pensar en el neocórtex realmente como
06:14
a massive grand piano,
124
374330
2000
un enorme piano de cola,
06:16
a million-key grand piano.
125
376330
3000
un piano con 1 millón de teclas.
06:19
Each of these neocortical columns
126
379330
2000
Cada una de estas columnas neocorticales
06:21
would produce a note.
127
381330
2000
produciría una nota.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
Si lo estimulas, produce una sinfonía.
06:26
But it's not just a symphony of perception.
129
386330
3000
Pero no es sólo una sinfonía de percepción,
06:29
It's a symphony of your universe, your reality.
130
389330
3000
es una sinfonía de tu universo, tu realidad.
06:32
Now, of course it takes years to learn how
131
392330
3000
Ahora bien, desde luego lleva años aprender cómo
06:35
to master a grand piano with a million keys.
132
395330
3000
tocar un piano de cola con un millón de teclas.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
Y es por esto que tienes que mandar a tus hijos a buenas escuelas,
06:40
hopefully eventually to Oxford.
134
400330
2000
y esperemos que finalmente a Oxford.
06:42
But it's not only education.
135
402330
3000
Pero no es sólo educación.
06:45
It's also genetics.
136
405330
2000
También es genética.
06:47
You may be born lucky,
137
407330
2000
Puedes nacer con suerte,
06:49
where you know how to master your neocortical column,
138
409330
4000
o puedes saber cómo dominar tu columna neocortical,
06:53
and you can play a fantastic symphony.
139
413330
2000
y puedes tocar una fantástica sinfonía.
06:55
In fact, there is a new theory of autism
140
415330
3000
De hecho, hay una nueva teoría del autismo
06:58
called the "intense world" theory,
141
418330
2000
llamada "La teoría del mundo intenso",
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
que sugiere que las columnas neocorticales son super-columnas.
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
Son altamente reactivas, y super-elásticas,
07:08
and so the autists are probably capable of
144
428330
3000
y por eso los autistas son probablemente capaces
07:11
building and learning a symphony
145
431330
2000
de construir y aprender una sinfonía
07:13
which is unthinkable for us.
146
433330
2000
que es impensable para nosotros.
07:15
But you can also understand
147
435330
2000
Pero también puedes entender
07:17
that if you have a disease
148
437330
2000
que si tuvieras una enfermedad
07:19
within one of these columns,
149
439330
2000
dentro de una de estas columnas,
07:21
the note is going to be off.
150
441330
2000
la nota va a estar desafinada.
07:23
The perception, the symphony that you create
151
443330
2000
La percepción, la sinfonía que creas
07:25
is going to be corrupted,
152
445330
2000
va a estar contaminada,
07:27
and you will have symptoms of disease.
153
447330
3000
y tendrás los síntomas de una enfermedad.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
el Santo Grial de la neurociencia
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
es entender el diseño de la columna neocortical
07:38
and it's not just for neuroscience;
156
458330
2000
y no sólo para la neurociencia
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
es quizás el entender la percepción, entender la realidad,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
y quizás incluso entender la realidad física.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Así que lo que hicimos, durante los últimos 15 años,
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
fue diseccionar el neocórtex, sistemáticamente.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
Es un poco como catalogar una parte de la selva.
07:58
How many trees does it have?
162
478330
2000
¿Cuántos árboles tiene?
08:00
What shapes are the trees?
163
480330
2000
¿Qué formas tienen los árboles?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
¿Cuántos de cada tipo hay?, ¿Dónde se encuentran colocados?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
Pero es un poco más que catalogar porque realmente tienes
08:07
describe and discover all the rules of communication,
166
487330
4000
que describir y descubrir todas la reglas de comunicación
08:11
the rules of connectivity,
167
491330
2000
la reglas de la conectividad,
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
porque las neuronas no se conectan con cualquier neurona.
08:16
They choose very carefully who they connect with.
169
496330
3000
Eligen con cuidado con quiénes se conectan.
08:19
It's also more than cataloging
170
499330
3000
Es también más que catalogar
08:22
because you actually have to build three-dimensional
171
502330
2000
porque en realidad tienes que construir
08:24
digital models of them.
172
504330
2000
modelos tri-dimensionales digitales de ellos.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
Y lo hicimos para decenas de miles de neuronas,
08:28
built digital models of all the different types
174
508330
3000
construir modelos digitales de diferentes tipos
08:31
of neurons we came across.
175
511330
2000
de neuronas que nos hemos encontrado.
08:33
And once you have that, you can actually
176
513330
2000
Y una vez que tienes eso, puedes realmente
08:35
begin to build the neocortical column.
177
515330
4000
empezar a construir la columna neocortical.
08:39
And here we're coiling them up.
178
519330
3000
Y aquí estamos, enrollándolas.
08:42
But as you do this, what you see
179
522330
3000
Pero según haces esto, lo que ves
08:45
is that the branches intersect
180
525330
2000
es que las ramas se intersectan
08:47
actually in millions of locations,
181
527330
3000
en millones de lugares,
08:50
and at each of these intersections
182
530330
3000
y en cada una de estas intersecciones
08:53
they can form a synapse.
183
533330
2000
pueden formar una sinapsis.
08:55
And a synapse is a chemical location
184
535330
2000
Y una sinapsis es una posición química
08:57
where they communicate with each other.
185
537330
3000
donde se comunican entre sí.
09:00
And these synapses together
186
540330
2000
Y juntas estas sinapsis
09:02
form the network
187
542330
2000
forman la red
09:04
or the circuit of the brain.
188
544330
3000
o el circuito del cerebro.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Ahora bien, el circuito lo puedes pensar como
09:11
the fabric of the brain.
190
551330
2000
el tejido del cerebro.
09:13
And when you think of the fabric of the brain,
191
553330
3000
Y cuando piensas en el tejido del cerebro,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
la estructura, ¿cómo está construido? ¿Cuál es el patrón de la alfombra?
09:20
You realize that this poses
193
560330
2000
Te das cuenta de que representa
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
un reto fundamental para cualquier teoría del cerebro,
09:26
and especially to a theory that says
195
566330
2000
y especialmente para una teoría que dice
09:28
that there is some reality that emerges
196
568330
2000
que hay una realidad que emerge
09:30
out of this carpet, out of this particular carpet
197
570330
3000
de esa alfombra, de esa alfombra en particular
09:33
with a particular pattern.
198
573330
2000
con un patrón particular.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
La razón es porque el secreto más importante del diseño del cerebro
09:38
is diversity.
200
578330
2000
es la diversidad.
09:40
Every neuron is different.
201
580330
2000
Cada neuronal es diferente.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
Es lo mismo que en el bosque. Cada pino es diferente.
09:44
You may have many different types of trees,
203
584330
2000
Puedes tener muchos tipos diferentes de árboles,
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
pero cada pino es diferente. Y en el cerebro es igual.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
Así que no hay una neurona en mi cerebro que sea igual a otra,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
y no hay una neurona en mi cerebro que sea igual en el tuyo.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
Y tus neuronas no van a estar orientadas y colocadas,
09:58
in exactly the same way.
208
598330
2000
exactamente, de la misma manera.
10:00
And you may have more or less neurons.
209
600330
2000
Y puedes tener más o menos neuronas.
10:02
So it's very unlikely
210
602330
2000
Así que es muy poco probable
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
que tengas el mismo tejido, los mismos circuitos.
10:08
So, how could we possibly create a reality
212
608330
2000
Entonces, ¿cómo podríamos crear una realidad
10:10
that we can even understand each other?
213
610330
3000
que incluso podemos entender entre nosotros?
10:13
Well, we don't have to speculate.
214
613330
2000
Bien, no tenemos que especular.
10:15
We can look at all 10 million synapses now.
215
615330
3000
Podemos mirar todas las 10 millones de sinapsis actualmente.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Podemos mirar el tejido. Y podemos cambiar las neuronas.
10:21
We can use different neurons with different variations.
217
621330
2000
Podemos usar diferentes neuronas con diferentes variaciones.
10:23
We can position them in different places,
218
623330
2000
Y podemos colocarlas en diferentes lugares,
10:25
orient them in different places.
219
625330
2000
orientarlas en diferentes lugares.
10:27
We can use less or more of them.
220
627330
2000
Y podemos usar más o menos neuronas.
10:29
And when we do that
221
629330
2000
Y cuando hacemos eso
10:31
what we discovered is that the circuitry does change.
222
631330
3000
lo que descubrimos es que el circuito cambia.
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Pero el patrón de cómo el circuito está diseñado no.
10:41
So, the fabric of the brain,
224
641330
2000
Así, el tejido del cerebro,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
aunque tu cerebro sea pequeño, grande,
10:45
it may have different types of neurons,
226
645330
3000
tenga diferentes tipos de neuronas,
10:48
different morphologies of neurons,
227
648330
2000
diferentes morfologías de neuronas,
10:50
we actually do share
228
650330
3000
realmente compartimos
10:53
the same fabric.
229
653330
2000
el mismo tejido.
10:55
And we think this is species-specific,
230
655330
2000
Y creemos que eso es específico de cada especie,
10:57
which means that that could explain
231
657330
2000
lo que podría explicar
10:59
why we can't communicate across species.
232
659330
2000
el por qué no podemos comunicarnos entre especies.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Bien, encendámoslo. Pero para hacerlo, lo que tenemos que hacer
11:04
is you have to make this come alive.
234
664330
2000
es que cobre vida.
11:06
We make it come alive
235
666330
2000
Hacemos que cobre vida
11:08
with equations, a lot of mathematics.
236
668330
2000
con ecuaciones, muchas matemáticas.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
Y, de hecho, las ecuaciones que convierten las neuronas en generadores eléctricos
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
fueron descubiertas por dos Premios Nobel de Cambridge.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Así que tenemos las matemáticas que hacen que las neuronas cobren vida.
11:20
We also have the mathematics to describe
240
680330
2000
También tenemos las matemáticas que describen
11:22
how neurons collect information,
241
682330
3000
cómo las neuronas reúnen información,
11:25
and how they create a little lightning bolt
242
685330
3000
y cómo crean un pequeño rayo
11:28
to communicate with each other.
243
688330
2000
para comunicarse entre ellas.
11:30
And when they get to the synapse,
244
690330
2000
Y cuando llegan a la sinapsis,
11:32
what they do is they effectively,
245
692330
2000
lo que hacen es que efectiva y
11:34
literally, shock the synapse.
246
694330
3000
literalmente, conmocionan la sinapsis.
11:37
It's like electrical shock
247
697330
2000
Es como una descarga eléctrica
11:39
that releases the chemicals from these synapses.
248
699330
3000
que libera los elementos químicos de esta sinapsis.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
Y tenemos las matemáticas que describen este proceso.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Así que podemos describir la comunicación entre neuronas.
11:49
There literally are only a handful
251
709330
3000
Hay literalmente sólo un puñado
11:52
of equations that you need to simulate
252
712330
2000
de ecuaciones que se necesitan para simular
11:54
the activity of the neocortex.
253
714330
2000
la actividad del neocórtex.
11:56
But what you do need is a very big computer.
254
716330
3000
Pero lo que sí necesitas es una computadora muy grande.
11:59
And in fact you need one laptop
255
719330
2000
Y de hecho necesitas una laptop
12:01
to do all the calculations just for one neuron.
256
721330
3000
para hacer todos los cálculos para una única neurona.
12:04
So you need 10,000 laptops.
257
724330
2000
Así que necesitas 10.000 laptops.
12:06
So where do you go? You go to IBM,
258
726330
2000
¿A dónde vas entonces? Vas a IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
y adquieres un supercomputador, porque saben cómo tomar
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10.000 laptops y meterlos en algo del tamaño de un refrigerador.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Así que ahora tenemos el supercomputador Blue Gene.
12:17
We can load up all the neurons,
262
737330
2000
Podemos cargar todas las neuronas,
12:19
each one on to its processor,
263
739330
2000
cada una en su procesador
12:21
and fire it up, and see what happens.
264
741330
4000
y arrancarlo, y ver qué pasa.
12:25
Take the magic carpet for a ride.
265
745330
3000
Tomen la alfombra mágica para dar una vuelta.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Aquí lo activamos. Y eso da el primer vistazo fugaz
12:31
of what is happening in your brain
267
751330
2000
de lo que está pasando en tu cerebro
12:33
when there is a stimulation.
268
753330
2000
cuando hay una estimulación.
12:35
It's the first view.
269
755330
2000
Es la primera impresión.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Ahora bien, cuando lo miras por primera vez, piensas,
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Dios mío. ¿Cómo sale la realidad de eso?"
12:44
But, in fact, you can start,
272
764330
3000
Pero, de hecho, puedes empezar,
12:47
even though we haven't trained this neocortical column
273
767330
4000
aunque no hayas entrenado esta columna neocortical
12:51
to create a specific reality.
274
771330
2000
para crear una realidad específica.
12:53
But we can ask, "Where is the rose?"
275
773330
4000
podemos preguntar, "¿Dónde está la rosa?"
12:57
We can ask, "Where is it inside,
276
777330
2000
Podemos preguntar, "¿Dónde está ahí dentro,
12:59
if we stimulate it with a picture?"
277
779330
3000
si lo estimulamos con una imagen?"
13:02
Where is it inside the neocortex?
278
782330
2000
¿Dónde está dentro del neocórtex?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Definitivamente tiene que estar ahí si lo estimulamos con ella.
13:08
So, the way that we can look at that
280
788330
2000
Bien, la manera en la que podemos afrontar eso
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
es ignorar las neuronas, ignorar las sinapsis,
13:13
and look just at the raw electrical activity.
282
793330
2000
y mirar sólo a la actividad eléctrica en crudo.
13:15
Because that is what it's creating.
283
795330
2000
Porque eso es lo que está creando.
13:17
It's creating electrical patterns.
284
797330
2000
Está creando patrones eléctricos.
13:19
So when we did this,
285
799330
2000
Así que cuando hicimos esto,
13:21
we indeed, for the first time,
286
801330
2000
de hecho, por primera vez,
13:23
saw these ghost-like structures:
287
803330
3000
vimos estas estructuras fantasmagóricas
13:26
electrical objects appearing
288
806330
3000
objetos eléctricos apareciendo
13:29
within the neocortical column.
289
809330
3000
dentro de la columna neocortical.
13:32
And it's these electrical objects
290
812330
3000
Y son estos objetos eléctricos
13:35
that are holding all the information about
291
815330
3000
los que mantienen toda la información sobre
13:38
whatever stimulated it.
292
818330
3000
lo que fuera que lo estimuló.
13:41
And then when we zoomed into this,
293
821330
2000
Y cuando hicimos un acercamiento a esto,
13:43
it's like a veritable universe.
294
823330
4000
es como un auténtico universo.
13:47
So the next step
295
827330
2000
Así que el siguiente paso
13:49
is just to take these brain coordinates
296
829330
4000
es tomar estas coordenadas cerebrales
13:53
and to project them into perceptual space.
297
833330
4000
y proyectarlas en un espacio perceptivo.
13:57
And if you do that,
298
837330
2000
Y si haces eso,
13:59
you will be able to step inside
299
839330
2000
serás capaz de adentrarte
14:01
the reality that is created
300
841330
2000
en la realidad que ha creado
14:03
by this machine,
301
843330
2000
esta máquina,
14:05
by this piece of the brain.
302
845330
3000
por éste pedazo del cerebro.
14:08
So, in summary,
303
848330
2000
En resumen,
14:10
I think that the universe may have --
304
850330
2000
Creo que el universo puede haber --
14:12
it's possible --
305
852330
2000
es posible --
14:14
evolved a brain to see itself,
306
854330
3000
evolucionado el cerebro para verse a sí mismo,
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
que puede ser un primer paso para ser consciente de sí mismo.
14:22
There is a lot more to do to test these theories,
308
862330
2000
Hay mucho por hacer para comprobar estas teorías,
14:24
and to test any other theories.
309
864330
3000
y comprobar cualquier otra teoría.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Pero espero que estén al menos parcialmente convencidos
14:30
that it is not impossible to build a brain.
311
870330
3000
de que no es imposible construir un cerebro.
14:33
We can do it within 10 years,
312
873330
2000
Podemos hacerlo dentro de 10 años,
14:35
and if we do succeed,
313
875330
2000
y si tenemos éxito
14:37
we will send to TED, in 10 years,
314
877330
2000
mandaremos a TED, en 10 años,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
un holograma para que hable con ustedes. Gracias.
14:42
(Applause)
316
882330
6000
(Aplauso)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7