A brain in a supercomputer | Henry Markram

512,041 views ・ 2009-10-15

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Cesare Giorgio Bin Revisore: Roberto Zanchi
00:18
Our mission is to build
0
18330
3000
La nostra missione è quella di costruire
00:21
a detailed, realistic
1
21330
2000
un modello computerizzato del cervello umano
00:23
computer model of the human brain.
2
23330
2000
dettagliato e realistico.
00:25
And we've done, in the past four years,
3
25330
3000
Nel corso degli ultimi quattro anni
00:28
a proof of concept
4
28330
2000
abbiamo dimostrato la fattibiltà del concetto
00:30
on a small part of the rodent brain,
5
30330
3000
simulando una piccola parte del cervello di un topolino,
00:33
and with this proof of concept we are now scaling the project up
6
33330
3000
e adesso stiamo sviluppando ed ingrandendo il progetto
00:36
to reach the human brain.
7
36330
3000
per arrivare a simulare il cervello umano.
00:39
Why are we doing this?
8
39330
2000
Perche stiamo facendo tutto ciò?
00:41
There are three important reasons.
9
41330
2000
Ci sono tre ragioni principali.
00:43
The first is, it's essential for us to understand the human brain
10
43330
4000
La prima, è l'importanza di capire il funzionamento del cervello
00:47
if we do want to get along in society,
11
47330
2000
per progredire nella comprensione della società,
00:49
and I think that it is a key step in evolution.
12
49330
4000
ed penso che questo sia un passo fondamentale nell'evoluzione.
00:53
The second reason is,
13
53330
2000
La seconda ragione è che non possiamo
00:55
we cannot keep doing animal experimentation forever,
14
55330
6000
continuare all'infinito a fare esperimenti sugli animali,
01:01
and we have to embody all our data and all our knowledge
15
61330
4000
e dobbiamo integrare tutti i dati e la conoscenza
01:05
into a working model.
16
65330
3000
in un modello funzionale.
01:08
It's like a Noah's Ark. It's like an archive.
17
68330
4000
E' come l'arca di Noè o un archivio.
01:12
And the third reason is that there are two billion people on the planet
18
72330
3000
La terza ragione è che ci sono due miliardi di persone
01:15
that are affected by mental disorder,
19
75330
4000
che soffrono di patologie mentali,
01:19
and the drugs that are used today
20
79330
2000
ed i farmaci disponibili ad oggi
01:21
are largely empirical.
21
81330
2000
funzionano prevalentemente in modo empirico.
01:23
I think that we can come up with very concrete solutions on
22
83330
3000
Penso che possiamo arrivare ad una soluzione concreta
01:26
how to treat disorders.
23
86330
3000
su come trattare patologie mentali.
01:29
Now, even at this stage,
24
89330
3000
Già allo stadio in cui siamo
01:32
we can use the brain model
25
92330
2000
possiamo usare il modello computerizzato del cervello
01:34
to explore some fundamental questions
26
94330
3000
per esplorare alcuni aspetti fondamentali
01:37
about how the brain works.
27
97330
2000
del suo funzionamento.
01:39
And here, at TED, for the first time,
28
99330
2000
Qui a TED, in anteprima,
01:41
I'd like to share with you how we're addressing
29
101330
2000
voglio illustrarvi il modo in cui stiamo
01:43
one theory -- there are many theories --
30
103330
3000
verificando una delle molte teorie
01:46
one theory of how the brain works.
31
106330
4000
sul funzionamento del cervello.
01:50
So, this theory is that the brain
32
110330
4000
Questa teoria postula che il cervello
01:54
creates, builds, a version of the universe,
33
114330
6000
crei, costruisca una propria versione dell'universo.
02:00
and projects this version of the universe,
34
120330
3000
E proietta questa versione dell'universo,
02:03
like a bubble, all around us.
35
123330
4000
come una bolla, tutt'intorno a noi.
02:07
Now, this is of course a topic of philosophical debate for centuries.
36
127330
4000
Questo è stato argomento di dispute filosofiche per secoli.
02:11
But, for the first time, we can actually address this,
37
131330
3000
Ma, per la prima volta, possiamo veramente studiarlo
02:14
with brain simulation,
38
134330
2000
per mezzo di una simulazione del cervello
02:16
and ask very systematic and rigorous questions,
39
136330
4000
ponendo domande in maniera sistematica e rigorosa
02:20
whether this theory could possibly be true.
40
140330
4000
per verificare questa teoria.
02:24
The reason why the moon is huge on the horizon
41
144330
3000
La ragione per cui la luna appare più grande all'orizzonte
02:27
is simply because our perceptual bubble
42
147330
3000
è semplicemente che la nostra bolla percettiva
02:30
does not stretch out 380,000 kilometers.
43
150330
4000
non si estende per 380.000 chilometri.
02:34
It runs out of space.
44
154330
2000
Non è abbatanza grande.
02:36
And so what we do is we compare the buildings
45
156330
4000
E così quello che facciamo è paragonare gli edifici
02:40
within our perceptual bubble,
46
160330
2000
all'interno della nostra bolla percettiva,
02:42
and we make a decision.
47
162330
2000
e traiamo conclusioni.
02:44
We make a decision it's that big,
48
164330
2000
Decidiamo che uno è grande,
02:46
even though it's not that big.
49
166330
2000
anche se magari non è così grande,
02:48
And what that illustrates
50
168330
2000
e questo significa
02:50
is that decisions are the key things
51
170330
2000
è che le decisioni sono ciò
02:52
that support our perceptual bubble. It keeps it alive.
52
172330
5000
che sostiene la nostra bolla percettiva. La tiene in vita.
02:57
Without decisions you cannot see, you cannot think,
53
177330
2000
Senza decisioni non ci è possibile vedere, pensare,
02:59
you cannot feel.
54
179330
2000
o provare emozioni.
03:01
And you may think that anesthetics work
55
181330
2000
Può essere che crediate che l'anestesia funzioni
03:03
by sending you into some deep sleep,
56
183330
3000
immergendovi in un sonno profondo,
03:06
or by blocking your receptors so that you don't feel pain,
57
186330
3000
oppure bloccando i recettori in modo da non far sentire dolore,
03:09
but in fact most anesthetics don't work that way.
58
189330
3000
ma in realtà non funziona così.
03:12
What they do is they introduce a noise
59
192330
3000
L'anaestesia crea un'interferenza
03:15
into the brain so that the neurons cannot understand each other.
60
195330
3000
nel cervello, in modo che i neuroni non possano capirsi l'un l'altro.
03:18
They are confused,
61
198330
2000
Sono confusi
03:20
and you cannot make a decision.
62
200330
3000
e non ci consentono di prendere decisioni.
03:23
So, while you're trying to make up your mind
63
203330
3000
Così, mentre cercate di decidere
03:26
what the doctor, the surgeon, is doing
64
206330
2000
su cosa stia facendo il chirurgo
03:28
while he's hacking away at your body, he's long gone.
65
208330
2000
mentre vi opera, il chirurgo se ne è già andato.
03:30
He's at home having tea.
66
210330
2000
E' a casa a bere il té.
03:32
(Laughter)
67
212330
2000
(Risate)
03:34
So, when you walk up to a door and you open it,
68
214330
3000
Quindi, quando trovate una porta e la aprite,
03:37
what you compulsively have to do to perceive
69
217330
3000
quello che dovete obbligatoriamente fare per percepire,
03:40
is to make decisions,
70
220330
2000
è prendere delle decisioni.
03:42
thousands of decisions about the size of the room,
71
222330
3000
Migliaia di decisioni circa le dimensioni della stanza,
03:45
the walls, the height, the objects in this room.
72
225330
3000
le pareti, l'altezza, gli oggetti presenti.
03:48
99 percent of what you see
73
228330
3000
Il 99 percento di quello che vedete
03:51
is not what comes in through the eyes.
74
231330
4000
non è quello che entra dagli occhi.
03:55
It is what you infer about that room.
75
235330
4000
E' quello che inferite della stanza.
03:59
So I can say, with some certainty,
76
239330
4000
Ecco che si può dire, con certezza,
04:03
"I think, therefore I am."
77
243330
3000
"Penso, dunque sono".
04:06
But I cannot say, "You think, therefore you are,"
78
246330
4000
Ma non posso dire "tu pensi, quindi sei"
04:10
because "you" are within my perceptual bubble.
79
250330
5000
perchè tu sei nella mia bolla percettiva.
04:15
Now, we can speculate and philosophize this,
80
255330
3000
Possiamo speculare e filosofare a questo proposito,
04:18
but we don't actually have to for the next hundred years.
81
258330
3000
ma non è necessario farlo per i prossimi cento anni.
04:21
We can ask a very concrete question.
82
261330
2000
Possiamo porci una domanda molto concreta.
04:23
"Can the brain build such a perception?"
83
263330
4000
"Può il cervello creare una tale percezione?"
04:27
Is it capable of doing it?
84
267330
2000
Ha la capacità di farlo?
04:29
Does it have the substance to do it?
85
269330
2000
Ha il materiale per farlo?
04:31
And that's what I'm going to describe to you today.
86
271330
3000
Ecco quello che vi voglio presentare oggi.
04:34
So, it took the universe 11 billion years to build the brain.
87
274330
4000
L'universo ha impiegato 11 miliardi di anni per costruire il cervello.
04:38
It had to improve it a little bit.
88
278330
2000
Ha dovuto migliorarlo a poco a poco.
04:40
It had to add to the frontal part, so that you would have instincts,
89
280330
3000
Ha dovuto aggiungere i lobi frontali, in modo che si possano avere istinti,
04:43
because they had to cope on land.
90
283330
3000
perchè questi erano necessari per sopravvivere.
04:46
But the real big step was the neocortex.
91
286330
4000
Ma il progresso più importante è stata la neo-corteccia cerebrale.
04:50
It's a new brain. You needed it.
92
290330
2000
E' il nuovo cervello che ci serviva.
04:52
The mammals needed it
93
292330
2000
Era necessario ai mammiferi
04:54
because they had to cope with parenthood,
94
294330
4000
perchè dovevano far fronte all'allevamento della prole,
04:58
social interactions,
95
298330
2000
alle interazioni sociali,
05:00
complex cognitive functions.
96
300330
3000
a funzioni cognitive sofisticate.
05:03
So, you can think of the neocortex
97
303330
2000
Si può pensare che la neo-corteccia
05:05
actually as the ultimate solution today,
98
305330
5000
sia la soluzione definitiva
05:10
of the universe as we know it.
99
310330
3000
prodotta dall'universo, per quel che ne sappiamo.
05:13
It's the pinnacle, it's the final product
100
313330
2000
E' il pinnacolo, il prodotto finale
05:15
that the universe has produced.
101
315330
4000
che l'universo ha prodotto.
05:19
It was so successful in evolution
102
319330
2000
Ha avuto un tale successo evolutivo
05:21
that from mouse to man it expanded
103
321330
2000
che, dal topo fino all'uomo,
05:23
about a thousandfold in terms of the numbers of neurons,
104
323330
3000
è cresciuta di un migliaio di volte in termini di numero di neuroni,
05:26
to produce this almost frightening
105
326330
3000
per arrivare a questo quasi terrificante
05:29
organ, structure.
106
329330
3000
organo, a questa struttura.
05:32
And it has not stopped its evolutionary path.
107
332330
3000
E non ha terminato il proprio percorso evolutivo.
05:35
In fact, the neocortex in the human brain
108
335330
2000
A tutti gli effetti, la neo-corteccia del cervello umano
05:37
is evolving at an enormous speed.
109
337330
3000
si sta evolvendo ad un'enorme velocità.
05:40
If you zoom into the surface of the neocortex,
110
340330
2000
Se fate uno zoom sulla superficie della neo-corteccia
05:42
you discover that it's made up of little modules,
111
342330
3000
scoprirete che è costituita da piccoli moduli
05:45
G5 processors, like in a computer.
112
345330
2000
processori G5, come in un computer
05:47
But there are about a million of them.
113
347330
3000
Ma ce ne sono circa un milione
05:50
They were so successful in evolution
114
350330
2000
Hanno avuto un tale successo nell'evoluzione
05:52
that what we did was to duplicate them
115
352330
2000
che quello che abbiamo fatto è stato di moltiplicarli
05:54
over and over and add more and more of them to the brain
116
354330
2000
via via, aggiungendone sempre più al cervello
05:56
until we ran out of space in the skull.
117
356330
3000
fino a non trovare più spazio dentro al cranio
05:59
And the brain started to fold in on itself,
118
359330
2000
Così, il cervello ha cominciato a ripegarsi su se stesso
06:01
and that's why the neocortex is so highly convoluted.
119
361330
3000
e questa è la ragione per cui la neo-corteccia è così convoluta.
06:04
We're just packing in columns,
120
364330
2000
Non si sta facendo altro che stipare colonne
06:06
so that we'd have more neocortical columns
121
366330
3000
per poter avere ulteriori colonne neo-corticali
06:09
to perform more complex functions.
122
369330
3000
per eseguire funzioni sempre più complesse
06:12
So you can think of the neocortex actually as
123
372330
2000
Dunque potete pensare alla neo-corteccia come
06:14
a massive grand piano,
124
374330
2000
ad un enorme pianoforte
06:16
a million-key grand piano.
125
376330
3000
un pianoforte con un milione di tasti.
06:19
Each of these neocortical columns
126
379330
2000
Ognuna di queste colonne corticali
06:21
would produce a note.
127
381330
2000
può produrre una nota.
06:23
You stimulate it; it produces a symphony.
128
383330
3000
La stimolate e produce una sinfonia.
06:26
But it's not just a symphony of perception.
129
386330
3000
Ma non è semplicemente una sinfonia di percezioni.
06:29
It's a symphony of your universe, your reality.
130
389330
3000
E' una sinfonia del vostro universo, la vostra realtà.
06:32
Now, of course it takes years to learn how
131
392330
3000
Ci vogliono anni per imparare
06:35
to master a grand piano with a million keys.
132
395330
3000
a padroneggiare un pianoforte con un milione di tasti.
06:38
That's why you have to send your kids to good schools,
133
398330
2000
Ecco perchè bisogna mandare i bambini a buone scuole,
06:40
hopefully eventually to Oxford.
134
400330
2000
sperabilmente fino ad Oxford.
06:42
But it's not only education.
135
402330
3000
Ma non è solo questione di educazione
06:45
It's also genetics.
136
405330
2000
ma anche di genetica.
06:47
You may be born lucky,
137
407330
2000
Se siete fortunati,
06:49
where you know how to master your neocortical column,
138
409330
4000
o sapete padroneggiare le vostre colonne corticali
06:53
and you can play a fantastic symphony.
139
413330
2000
potete suonare una sinfonia fantastica.
06:55
In fact, there is a new theory of autism
140
415330
3000
C'è una nuova teoria sull'autismo
06:58
called the "intense world" theory,
141
418330
2000
chiamata teoria del "modo intenso",
07:00
which suggests that the neocortical columns are super-columns.
142
420330
4000
che postula che le colonne corticali siano "super colonne"
07:04
They are highly reactive, and they are super-plastic,
143
424330
4000
altamente reattive ed super plastiche
07:08
and so the autists are probably capable of
144
428330
3000
e così chi è autistico è in grado di
07:11
building and learning a symphony
145
431330
2000
creare ed imparare una sinfonia
07:13
which is unthinkable for us.
146
433330
2000
che per noi altri è inpensabile.
07:15
But you can also understand
147
435330
2000
Ma capirete anche
07:17
that if you have a disease
148
437330
2000
che se c'è qualche disfunzione
07:19
within one of these columns,
149
439330
2000
in una di queste colonne
07:21
the note is going to be off.
150
441330
2000
la nota può risultare stonata.
07:23
The perception, the symphony that you create
151
443330
2000
La percezione, la sinfonia prodotta,
07:25
is going to be corrupted,
152
445330
2000
sarà rovinata,
07:27
and you will have symptoms of disease.
153
447330
3000
e si mostreranno i sintomi della malattia.
07:30
So, the Holy Grail for neuroscience
154
450330
4000
Quindi, il Santo Graal per le neuroscienze
07:34
is really to understand the design of the neocoritical column --
155
454330
4000
è capire la struttura delle colonne corticali
07:38
and it's not just for neuroscience;
156
458330
2000
e non solo nell'interesse delle neuroscienze,
07:40
it's perhaps to understand perception, to understand reality,
157
460330
3000
ma forse anche per capire la percezione, la realtà,
07:43
and perhaps to even also understand physical reality.
158
463330
4000
e perfino la realtà del mondo fisico.
07:47
So, what we did was, for the past 15 years,
159
467330
3000
Quello che abbiamo fatto negli ultimi 15 anni
07:50
was to dissect out the neocortex, systematically.
160
470330
4000
è stato sezionare la neo-corteccia, in modo sistematico.
07:54
It's a bit like going and cataloging a piece of the rainforest.
161
474330
4000
E' un po' come andare a catalogare un pezzo di foresta.
07:58
How many trees does it have?
162
478330
2000
Quanti alberi ci sono?
08:00
What shapes are the trees?
163
480330
2000
Di che forma sono gli alberi?
08:02
How many of each type of tree do you have? Where are they positioned?
164
482330
3000
Quanti ce ne sono per ogni tipo? come sono posizionati?
08:05
But it's a bit more than cataloging because you actually have to
165
485330
2000
E' qualcosa di più di un catalogare perchè bisogna
08:07
describe and discover all the rules of communication,
166
487330
4000
scoprire e descrivere le regole della comunicazione
08:11
the rules of connectivity,
167
491330
2000
e le regole della connettività
08:13
because the neurons don't just like to connect with any neuron.
168
493330
3000
perche ai neuroni non piace connettersi con qualunque altro neurone.
08:16
They choose very carefully who they connect with.
169
496330
3000
Scelgone con attenzione a chi si connettono.
08:19
It's also more than cataloging
170
499330
3000
Si tratta di qualcosa di più che catalogare anche
08:22
because you actually have to build three-dimensional
171
502330
2000
perchè bisogna costruire dei modelli digitali
08:24
digital models of them.
172
504330
2000
tridimensionali delle colonne.
08:26
And we did that for tens of thousands of neurons,
173
506330
2000
E noi l'abbiamo fatto per decine di migliaia di neuroni
08:28
built digital models of all the different types
174
508330
3000
avbbiamo costruito dei modelli digitali di vari tipi
08:31
of neurons we came across.
175
511330
2000
dei neuroni che abbiamo trovato.
08:33
And once you have that, you can actually
176
513330
2000
Una volta fatto questo, si può realmente
08:35
begin to build the neocortical column.
177
515330
4000
cominciare a costruire la colonna neocorticale.
08:39
And here we're coiling them up.
178
519330
3000
Ecco, qui stiamo arrotolandone una sull'altra.
08:42
But as you do this, what you see
179
522330
3000
Ma mentre lo fate, quello che scoprite è che
08:45
is that the branches intersect
180
525330
2000
i rami si intersecano
08:47
actually in millions of locations,
181
527330
3000
in milioni di punti
08:50
and at each of these intersections
182
530330
3000
e ad ognuna di queste intersezioni
08:53
they can form a synapse.
183
533330
2000
si forma una sinapsi.
08:55
And a synapse is a chemical location
184
535330
2000
La sinapsi è il luogo chimico
08:57
where they communicate with each other.
185
537330
3000
in cui le colonne comunicano tra di loro.
09:00
And these synapses together
186
540330
2000
E queste sinapsi tutte insieme
09:02
form the network
187
542330
2000
formano la rete
09:04
or the circuit of the brain.
188
544330
3000
o il circuito del cervello.
09:07
Now, the circuit, you could also think of as
189
547330
4000
Il circuito si può considerare come
09:11
the fabric of the brain.
190
551330
2000
il tessuto del cervello.
09:13
And when you think of the fabric of the brain,
191
553330
3000
E quando si pensa al tessuto del cervello,
09:16
the structure, how is it built? What is the pattern of the carpet?
192
556330
4000
come è fatta la struttura? Qual'è il disegno del tappeto?
09:20
You realize that this poses
193
560330
2000
Potete capire che questo rappresenta
09:22
a fundamental challenge to any theory of the brain,
194
562330
4000
una sfida fondamentale per qualsiasi teoria del cervello,
09:26
and especially to a theory that says
195
566330
2000
ed in particolare per una teoria che dice
09:28
that there is some reality that emerges
196
568330
2000
che c'è una realtà che emerge
09:30
out of this carpet, out of this particular carpet
197
570330
3000
da questo tappeto, da questo tipo di tappeto
09:33
with a particular pattern.
198
573330
2000
con un proprio disegno particolare.
09:35
The reason is because the most important design secret of the brain
199
575330
3000
Questo accade perchè il più importante segreto
09:38
is diversity.
200
578330
2000
del disegno del cervello è la diversità.
09:40
Every neuron is different.
201
580330
2000
Ogni neurone è differente.
09:42
It's the same in the forest. Every pine tree is different.
202
582330
2000
E' lo stesso in una foresta. Ogni pino è diverso.
09:44
You may have many different types of trees,
203
584330
2000
Ci possono essere molti tipi diversi di alberi
09:46
but every pine tree is different. And in the brain it's the same.
204
586330
3000
ma ogni pino è diverso. E nel cervello è lo stesso.
09:49
So there is no neuron in my brain that is the same as another,
205
589330
3000
non c'è un neurone nel mio cevello che sia uguale ad un altro,
09:52
and there is no neuron in my brain that is the same as in yours.
206
592330
3000
e non c'è un neurone nel mio cevello che sia uguale a uno dei vostri.
09:55
And your neurons are not going to be oriented and positioned
207
595330
3000
E i vostri neuroni non saranno posizionati ed orientati
09:58
in exactly the same way.
208
598330
2000
esattamente allo stesso modo.
10:00
And you may have more or less neurons.
209
600330
2000
Si possono avere più o meno neuroni.
10:02
So it's very unlikely
210
602330
2000
Così è molto improbabile
10:04
that you got the same fabric, the same circuitry.
211
604330
4000
che voi abbiate lo stesso tessuto, gli stessi circuiti.
10:08
So, how could we possibly create a reality
212
608330
2000
Allora, come è possibile che creiamo una realtà
10:10
that we can even understand each other?
213
610330
3000
tale che possiamo comprenderci vicendevolmente?
10:13
Well, we don't have to speculate.
214
613330
2000
Non serve fare speculazioni,
10:15
We can look at all 10 million synapses now.
215
615330
3000
Possiamo guardare alle dieci milioni di sinapsi.
10:18
We can look at the fabric. And we can change neurons.
216
618330
3000
Possiamo prendere in esame il tessuto e cambiare i neuroni.
10:21
We can use different neurons with different variations.
217
621330
2000
Possiamo usare neuroni differenti, con differenti variazioni.
10:23
We can position them in different places,
218
623330
2000
Possiamo posizionarli in luogi differenti,
10:25
orient them in different places.
219
625330
2000
e orientarli in diversi modi.
10:27
We can use less or more of them.
220
627330
2000
Possiamo usarne di più o di meno,
10:29
And when we do that
221
629330
2000
E quando facciamo tutto ciò
10:31
what we discovered is that the circuitry does change.
222
631330
3000
scopriamo è che i circuiti in effetti cambiano
10:34
But the pattern of how the circuitry is designed does not.
223
634330
7000
Ma lo schema di come i circuiti sono disegnati non cambia.
10:41
So, the fabric of the brain,
224
641330
2000
Così, il tessuto del cervello,
10:43
even though your brain may be smaller, bigger,
225
643330
2000
benchè il vostro proprio cervello può essere più piccolo o più grande,
10:45
it may have different types of neurons,
226
645330
3000
può avere svariati tipi di neuroni,
10:48
different morphologies of neurons,
227
648330
2000
svariate morfologie.
10:50
we actually do share
228
650330
3000
Abbiamo in comune
10:53
the same fabric.
229
653330
2000
lo stesso tessuto.
10:55
And we think this is species-specific,
230
655330
2000
Riteniamo che questo fatto sia specifico per ogni specie,
10:57
which means that that could explain
231
657330
2000
il che potrebbe spiegare
10:59
why we can't communicate across species.
232
659330
2000
perchè non possiamo comunicare tra speci diverse.
11:01
So, let's switch it on. But to do it, what you have to do
233
661330
3000
Allora, facciamolo funzionare. Ma per fare ciò
11:04
is you have to make this come alive.
234
664330
2000
occorre dargli vita.
11:06
We make it come alive
235
666330
2000
Gli si dà vita
11:08
with equations, a lot of mathematics.
236
668330
2000
con equazioni e formule.
11:10
And, in fact, the equations that make neurons into electrical generators
237
670330
4000
Le equazioni che descrivono i neuroni come dei generatori di elettricità
11:14
were discovered by two Cambridge Nobel Laureates.
238
674330
3000
furono scoperte da due premi Nobel di Cambridge.
11:17
So, we have the mathematics to make neurons come alive.
239
677330
3000
Abbiamo le formule che animano i neuroni.
11:20
We also have the mathematics to describe
240
680330
2000
Abbiamo anche le formule che descrivono
11:22
how neurons collect information,
241
682330
3000
il modo in cui i neuroni raccolgono informazioni,
11:25
and how they create a little lightning bolt
242
685330
3000
e il modo in cui creano una piccola scarica elettrica
11:28
to communicate with each other.
243
688330
2000
per comunicare tra di loro.
11:30
And when they get to the synapse,
244
690330
2000
E quando si arriva alla sinapsi,
11:32
what they do is they effectively,
245
692330
2000
quello che fanno in realtà,
11:34
literally, shock the synapse.
246
694330
3000
è di causare, letteralmente, uno shock alla sinapsi.
11:37
It's like electrical shock
247
697330
2000
E' come uno shock elettrico
11:39
that releases the chemicals from these synapses.
248
699330
3000
che libera dei composti chimici.
11:42
And we've got the mathematics to describe this process.
249
702330
3000
Abbiamo le equazioni che descrivono anche questo processo.
11:45
So we can describe the communication between the neurons.
250
705330
4000
Così possiomo descrivere la comunicazione tra i neuroni.
11:49
There literally are only a handful
251
709330
3000
E' solo una manciata
11:52
of equations that you need to simulate
252
712330
2000
di equazioni quella che serve per simulare
11:54
the activity of the neocortex.
253
714330
2000
l'attività della neo-corteccia.
11:56
But what you do need is a very big computer.
254
716330
3000
Però serve un computer molto potente.
11:59
And in fact you need one laptop
255
719330
2000
In realtà serve un computer portatile
12:01
to do all the calculations just for one neuron.
256
721330
3000
per eseguire i calcoli per un solo neurone.
12:04
So you need 10,000 laptops.
257
724330
2000
Allora servono 10.000 portatili.
12:06
So where do you go? You go to IBM,
258
726330
2000
Bisogna andare all'IBM,
12:08
and you get a supercomputer, because they know how to take
259
728330
2000
e usare un supercomputer, perchè loro sanno come prendere
12:10
10,000 laptops and put it into the size of a refrigerator.
260
730330
4000
10.000 laptop e concentrarli nelle dimensioni di un frigorifero.
12:14
So now we have this Blue Gene supercomputer.
261
734330
3000
Con questo computer Blue Gene.
12:17
We can load up all the neurons,
262
737330
2000
Possiamo caricare tutti i neuroni,
12:19
each one on to its processor,
263
739330
2000
ciascuno sul suo processore,
12:21
and fire it up, and see what happens.
264
741330
4000
dare l'avvio, e stare a vedere cosa succede.
12:25
Take the magic carpet for a ride.
265
745330
3000
Portare il tappeto magico a fare un giro.
12:28
Here we activate it. And this gives the first glimpse
266
748330
3000
Qui lo attiviamo. E questo ci dà un'idea
12:31
of what is happening in your brain
267
751330
2000
di ciò che succede nel vostro cervello
12:33
when there is a stimulation.
268
753330
2000
quando c'é uno stimolo.
12:35
It's the first view.
269
755330
2000
E' una prima prospettiva.
12:37
Now, when you look at that the first time, you think,
270
757330
2000
Quando guardate per la prima volta, vi viene da pensare:
12:39
"My god. How is reality coming out of that?"
271
759330
5000
"Dio mio. Com'è che la realtà viene fuori da lì?"
12:44
But, in fact, you can start,
272
764330
3000
Però in effetti è possibile constuire
12:47
even though we haven't trained this neocortical column
273
767330
4000
una realtà particolare anche se
12:51
to create a specific reality.
274
771330
2000
non abbiamo istruito questa collona neo-corticale,
12:53
But we can ask, "Where is the rose?"
275
773330
4000
Ma possiamo chiedere: "dov'è la rosa?"
12:57
We can ask, "Where is it inside,
276
777330
2000
Possiamo chiedere "dove si trova nella corteccia,
12:59
if we stimulate it with a picture?"
277
779330
3000
se la stimoliamo con una foto?"
13:02
Where is it inside the neocortex?
278
782330
2000
Dove è collocata nella neo-corteccia?
13:04
Ultimately it's got to be there if we stimulated it with it.
279
784330
4000
Se abbiamo creato questo stimolo, deve trovarsi all'interno.
13:08
So, the way that we can look at that
280
788330
2000
Possiamo ignorare
13:10
is to ignore the neurons, ignore the synapses,
281
790330
3000
i neuroni e le sinapsi,
13:13
and look just at the raw electrical activity.
282
793330
2000
e concentrarci solo sull'attività elettrica.
13:15
Because that is what it's creating.
283
795330
2000
Perchè questo è ciò che viene creato.
13:17
It's creating electrical patterns.
284
797330
2000
Si generano modelli di attività elettrica.
13:19
So when we did this,
285
799330
2000
Quando facciamo così
13:21
we indeed, for the first time,
286
801330
2000
per la prima volta vediamo
13:23
saw these ghost-like structures:
287
803330
3000
queste strutture fantasmatiche:
13:26
electrical objects appearing
288
806330
3000
oggetti fatti di elettricità che compaiono
13:29
within the neocortical column.
289
809330
3000
dentro la colonna neo corticale.
13:32
And it's these electrical objects
290
812330
3000
Sono proprio questi oggetti
13:35
that are holding all the information about
291
815330
3000
che contengono tutte le informazioni relative
13:38
whatever stimulated it.
292
818330
3000
a qualsiasi cosa le abbia stimolate.
13:41
And then when we zoomed into this,
293
821330
2000
E quando abbiamo fatto uno zoom su questa realtà,
13:43
it's like a veritable universe.
294
823330
4000
è come un universo vero e proprio.
13:47
So the next step
295
827330
2000
Il prossimo passo
13:49
is just to take these brain coordinates
296
829330
4000
è prendere queste coordiante cerebrali
13:53
and to project them into perceptual space.
297
833330
4000
e proiettarle nello spazio percettivo.
13:57
And if you do that,
298
837330
2000
E facendo ciò
13:59
you will be able to step inside
299
839330
2000
si può entrare nella
14:01
the reality that is created
300
841330
2000
realtà che si è creata
14:03
by this machine,
301
843330
2000
da questo pezzo di cervello
14:05
by this piece of the brain.
302
845330
3000
per mezzo di questa macchina.
14:08
So, in summary,
303
848330
2000
Quindi, in sintesi,
14:10
I think that the universe may have --
304
850330
2000
Penso che l'universo possa -
14:12
it's possible --
305
852330
2000
possibilmente -
14:14
evolved a brain to see itself,
306
854330
3000
aver evoluto un cervello per guardare a se stesso.
14:17
which may be a first step in becoming aware of itself.
307
857330
5000
che può essere un primo passo verso l'auto-coscienza.
14:22
There is a lot more to do to test these theories,
308
862330
2000
C'è ancora un sacco di cose da fare per verificare queste teorie,
14:24
and to test any other theories.
309
864330
3000
o qualsiasi altra teoria.
14:27
But I hope that you are at least partly convinced
310
867330
3000
Ma spero che voi siate almeno parzialmente convinti
14:30
that it is not impossible to build a brain.
311
870330
3000
che non è impossibile costruire un cervello.
14:33
We can do it within 10 years,
312
873330
2000
Possiamo arrivarci in 10 anni,
14:35
and if we do succeed,
313
875330
2000
e se ce la facciamo,
14:37
we will send to TED, in 10 years,
314
877330
2000
spediremo a TED, tra 10 anni,
14:39
a hologram to talk to you. Thank you.
315
879330
3000
un ologramma per tenere la conferenza. Grazie.
14:42
(Applause)
316
882330
6000
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7