Anil Seth: How your brain invents your "self" | TED

121,261 views ・ 2021-11-24

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

00:00
Transcriber:
0
0
7000
Traduttore: Roberto Lippi Revisore: Gabriella Patricola
00:04
Who am I? Who is anyone, really?
1
4700
2960
Chi sono io? Chi è chiunque, alla fine?
00:09
When I wake up in the morning and open my eyes,
2
9100
2240
Quando mi sveglio al mattino e apro gli occhi,
00:11
a world appears.
3
11340
1480
un mondo appare.
00:12
These days, since I've hardly been anywhere,
4
12860
2080
Ultimamente, dato che quasi non mi sono mosso,
00:14
it's a very familiar world:
5
14980
1360
è un mondo molto familiare:
00:16
there's the wardrobe beyond the end of the bed,
6
16380
2400
c’è il guardaroba dopo la fine del letto,
00:18
the shuttered windows and the shrieking of seagulls,
7
18780
2840
le finestre chiuse e il cigolio dei gabbiani,
00:21
which drives Brighton residents like me absolutely crazy.
8
21660
3560
che fa diventare i residenti di Brighton come me assolutamente pazzi.
00:26
But even more familiar is the experience of being a self,
9
26100
3600
Ma ancor più familiare è l’esperienza di essere un individuo,
00:29
of being me,
10
29740
1520
di essere me,
00:31
that glides into existence at almost the same time.
11
31260
3840
che scivola nell’esistenza quasi nello stesso momento.
00:35
Now this experience of selfhood is so mundane
12
35620
3600
Ora, l’esperienza di individualità è così mondana
00:39
that its appearance, usually, just happens without us noticing at all.
13
39260
5320
che la sua apparenza, di solito, succede senza che noi lo notiamo.
00:45
We take our selves for granted,
14
45100
2240
Prendiamo noi stessi per scontati,
00:47
but we shouldn't.
15
47340
1160
ma non dovremmo.
00:49
How things seem is not how they are.
16
49220
2840
Le cose non sono come sembrano.
00:52
For most of us, most of the time,
17
52700
1600
Per molti di noi, solitamente,
00:54
it seems as though the self, your self, is an enduring and unified entity --
18
54300
6160
è come se l’individuo, te stesso, sia un’entità duratura e unificata -
01:00
in essence, a unique identity.
19
60500
2320
in sostanza, un’identità unica.
01:03
Perhaps it seems as though the self is the recipient
20
63220
2560
Forse sembra che l’individuo sia il recipiente
01:05
of wave upon wave of perceptions,
21
65820
3200
di onda dopo onda di percezioni,
01:09
as if the world just pours itself into the mind
22
69020
3120
come se il mondo versasse se stesso dentro la mente
01:12
through the transparent windows of the senses.
23
72180
2600
attraverso le finestre trasparenti dei sensi.
01:14
Perhaps it seems as though the self is the decision-maker in chief,
24
74780
4760
Forse sembra che l’individuo sia il dirigente delle decisioni,
01:19
deciding what to do next and then doing it,
25
79580
2440
decidendo la prossima cosa da fare e poi facendola,
01:22
or, as the case may be, doing something else.
26
82020
2520
o, in caso, facendo qualcos’altro.
01:25
We sense, we think and we act.
27
85140
3160
Noi percepiamo, pensiamo e agiamo.
01:28
This is how things seem.
28
88780
1600
È così che le cose sembrano essere.
01:31
How things are is very different,
29
91660
2640
Come le cose sono è un altro discorso,
01:34
and the story of how and why this is so
30
94340
2320
e la storia di come e perché è così
01:36
is what I want to give you a flavor of today.
31
96700
2720
è ciò di cui oggi ti voglio dare un assaggio.
01:40
In this story, the self is not the thing that does the perceiving.
32
100260
5000
In questa storia, l’individuo non è la cosa che agisce in percezione.
01:45
The self is a perception too,
33
105260
1680
Pure il senso di sé è una percezione,
01:46
or rather, it's the collection of related perceptions.
34
106980
3680
o meglio, è la collezione di percezioni correlate.
01:51
Experiences of the self and of the world
35
111580
3240
Esperienze dell’individuo e del mondo
01:54
turn out to be kinds of controlled hallucinations,
36
114820
3600
diventano una sorta di allucinazioni controllate,
01:58
brain-based best guesses
37
118460
1600
congetture fatte dalla mente
02:00
that remain tied to the world and the body
38
120100
2600
che rimangono correlate al mondo e al corpo
02:02
in ways determined not by their accuracy,
39
122740
3160
non in base alla loro accuratezza,
02:05
but by their utility,
40
125940
1720
ma alla loro utilità,
02:07
by their usefulness for the organism in the business of staying alive.
41
127700
4720
a quanto sono utili all’organismo nell’attività di restare vivi.
02:13
Now the basic idea is quite simple,
42
133860
1960
Ora l’idea di base è abbastanza semplice,
02:15
and it goes back a very long way in both science and philosophy --
43
135860
3160
e ha molta storia dietro sia nella scienza che nella filosofia
02:19
all the way back, in fact, to Plato
44
139020
2480
fino, in effetti, a Platone
02:21
and to the shadows cast by firelight on the walls of a cave,
45
141540
4040
e alle ombre proiettate dalla luce del fuoco nei muri di una caverna,
02:25
shadows which the prisoners within took to be the real world.
46
145620
3680
ombre che i prigionieri credevano essere il vero mondo.
02:30
Raw sensory signals,
47
150380
1920
Segnali sensoriali grezzi,
02:32
the electromagnetic waves that impinge upon our retinas,
48
152300
2880
le onde elettromagnetiche che incidono sulle nostre retine,
02:35
the pressure waves that assault our eardrums, and so on,
49
155220
3560
le onde di pressione che assaltano i nostri timpani, e così via,
02:38
well, they're always ambiguous and uncertain.
50
158780
3080
beh, sono sempre state cose ambigue e incerte.
02:41
Although they reflect really existing things in the world,
51
161900
3880
Nonostante riflettano cose davvero esistenti nel mondo,
02:45
they do so only indirectly.
52
165820
2280
lo fanno solo indirettamente.
02:48
The eyes are not transparent windows from a self out onto a world,
53
168700
4080
Gli occhi non sono finestre trasparenti da un individuo verso un mondo,
02:52
nor are the ears,
54
172820
1240
né lo sono le orecchie,
02:54
nor are any of our senses.
55
174060
1920
ne lo sono nessuno dei nostri sensi.
02:55
The perceptual world that arises for us in each conscious moment --
56
175980
4120
Il mondo percettivo che emerge per noi in ogni momento cosciente -
03:00
a world full of objects and people,
57
180140
2240
un mondo pieno di oggetti e persone,
03:02
with properties like shape, color and position --
58
182380
3680
con proprietà come forma, colore e posizione -
03:06
is always and everywhere created by the brain,
59
186100
3240
è sempre e ovunque creato dal cervello,
03:09
through a process of what we can call “inference,”
60
189380
3520
attraverso un processo che possiamo chiamare “inferenza”,
03:12
of under-the-hood, neurally implemented brain-based best guessing.
61
192900
4080
di congetture basate sulla mente, soggiacenti, implementate neuralmente.
03:17
Now ...
62
197780
1240
Ora...
03:19
Here's a red coffee cup.
63
199060
1720
Abbiamo una tazza da caffè rossa.
03:22
When I see this red coffee cup, when I consciously see it,
64
202380
4360
Quando vedo questa tazza rossa, quando la vedo coscientemente,
03:26
that's because "red coffee cup" is my brain's best guess
65
206780
3600
è perché “tazza da caffè rossa” è la migliore ipotesi della mia mente
03:30
of the hidden and ultimately unknowable sensory signals that reach my eyes.
66
210420
5120
dei segnali sensoriali nascosti e inconoscibili che raggiungono gli occhi.
03:36
And just think about the redness itself, for a moment.
67
216580
3200
Pensate per un momento anche solo allo stesso rossore.
03:39
Does the color red exist in the world?
68
219820
2440
Il colore rosso esiste nel mondo?
03:42
No, it doesn't.
69
222300
1200
No, non esiste.
03:43
And we don't need neuroscience to tell us this.
70
223500
2200
E qui non c’entrano le neuroscienze.
03:45
Newton discovered long ago that all the colors we experience,
71
225740
2920
Newton scoprì molto tempo fa che tutti i colori che sperimentiamo,
03:48
the rainbow of the visible spectrum,
72
228700
1840
l’arcobaleno dello spettro visibile,
03:50
are based on just a few wavelengths of electromagnetic radiation,
73
230540
3720
sono basati su una serie limitata di onde di radiazioni elettromagnetiche,
03:54
which itself is, of course, entirely colorless.
74
234260
3240
che di loro sono, ovviamente, del tutto prive di colore.
03:58
For us humans,
75
238060
1160
Per noi umani,
03:59
a whole universe of color is generated from just three of these wavelengths,
76
239220
6040
un intero universo di colore è generato da solo tre di queste onde,
04:05
corresponding to the three types of cells in our retinas.
77
245580
3200
corrispondenti ai tre tipi di celle nelle nostre retine.
04:09
Color-wise, this thin slice of reality, this is where we live.
78
249580
5240
A livello di colore, questa piccola fetta di realtà, è il luogo dove viviamo.
04:14
Our experience of color --
79
254860
1400
La nostra esperienza del colore
04:16
indeed, our experience of anything --
80
256300
2680
in realtà, la nostra esperienza di tutto
04:18
is both less than and more than whatever the real world really is.
81
258980
4840
è allo stesso tempo più e meno di ciò che il vero mondo davvero è.
04:25
Now what's happening when we experience color
82
265220
2200
Ciò che succede quando vediamo un colore
04:27
is that the brain is tracking an invariance,
83
267420
2200
è che la mente sta rilevando un invariante,
04:29
a regularity in how objects and surfaces reflect light.
84
269660
6480
una regolarità in come gli oggetti e le superfici riflettono la luce.
04:36
It's making a best guess,
85
276140
1280
Fa una congettura,
04:37
a top-down, inside-out prediction,
86
277420
2240
una previsione dall’alto e verso l’esterno,
04:39
about the causes of the relevant sensory signals,
87
279660
2360
riguardo le cause dei segnali sensoriali rilevanti,
04:42
and the content of that prediction --
88
282020
2000
e il contenuto di quella previsione
04:44
that's what we experience as red.
89
284060
2600
è ciò che sperimentiamo come rosso.
04:48
Does this mean that red is in the brain, rather than the world?
90
288180
4160
Questo significa che il rosso è nel cervello, anzichè nel mondo?
04:52
Well, no.
91
292380
1880
Beh, no.
04:54
The experience of redness requires both the world and a brain,
92
294260
4120
L’esperienza del rosso richiede sia il mondo che un cervello,
04:58
unless you're dreaming, but let's not worry about that for now.
93
298420
3080
a meno che stiate sognando, ma non preoccupiamoci di ciò per ora.
05:01
Nothing in the brain is actually red.
94
301540
2480
Niente nel cervello è realmente rosso.
05:04
Cézanne, the great impressionist painter,
95
304780
2040
Cézanne, il grande pittore impressionista,
05:06
once said that color is where the brain and the universe meet.
96
306860
4320
una volta disse che il colore è all’intersezione tra cervello e universo.
05:11
Now the upshot of all this
97
311900
1280
Il risultato di tutto ciò
05:13
is that perceptual experience is what I've come to call,
98
313180
2720
è che l’esperienza percettiva, ciò che ho deciso di chiamare
05:15
drawing on the words of others,
99
315940
1600
disegnare sui mondi di altri,
05:17
a “controlled hallucination.”
100
317540
2120
un’“allucinazione controllata”.
05:20
Now this is a tricky term, prone to misunderstandings,
101
320300
3080
Questo è un termine complicato, incline a fraintendimenti,
05:23
so let me be clear.
102
323380
1280
quindi lo chiarirò.
05:24
What I mean is that the brain is continuously generating predictions
103
324700
4320
Ciò che intendo è che la mente genera continuamente previsioni
05:29
about the causes of sensory signals,
104
329060
2320
sulle cause dei segnali sensoriali,
05:31
whether these come from the world or from the body,
105
331380
3200
sia che vengano dal mondo che dal corpo,
05:34
and the sensory signals themselves serve as prediction errors,
106
334580
3720
e i segnali stessi servono come previsioni di errore,
05:38
reporting a difference
107
338340
1160
segnalando una differenza
05:39
between what the brain expects and what it gets,
108
339500
3280
tra ciò che la mente si aspetta e ciò che ottiene,
05:42
so that the predictions can be continuously updated.
109
342820
3520
così che le previsioni possano essere continuamente aggiornate.
05:47
Perception isn't a process of reading out sensory signals
110
347500
4080
La percezione non è un processo di codificare segnali sensoriali
05:51
in a bottom-up or outside-in direction.
111
351580
3120
dall’esterno verso l’interno.
05:54
It's always an active construction,
112
354700
2440
È sempre una costruzione attiva,
05:57
an inside-out, top-down neuronal fantasy
113
357180
3560
una fantasia neuronale dall’alto e verso l’esterno,
06:00
that is yoked to reality
114
360780
1320
assoggettata alla realtà
06:02
in a never-ending dance of prediction and prediction error.
115
362100
4000
in una danza infinita di previsioni ed errori nelle previsioni.
06:07
Now I call this process controlled hallucination
116
367100
2400
Io chiamo questo processo allucinazione controllata
06:09
to emphasize just this point.
117
369540
1920
per enfatizzare questo preciso punto.
06:12
All of our experiences are active constructions
118
372020
2520
Tutte le nostre esperienze sono costruzioni attive
06:14
arising from within,
119
374540
1360
che nascono da dentro,
06:15
and there's a continuity here,
120
375900
1560
e c’è qui una continuità,
06:17
between normal perception and what we typically call hallucination,
121
377460
4240
tra la normale percezione e ciò che di solito chiamiamo allucinazione,
06:21
where, for example, people might see or hear things that others don't.
122
381740
4800
dove, per esempio, persone potrebbero vedere o sentire cose oscure ad altri.
06:26
But in normal perception,
123
386580
1800
Ma nella normale percezione,
06:28
the control is just as important as the hallucination.
124
388380
4400
il controllo è tanto importante quanto l’allucinazione.
06:32
Our perceptual experiences are not arbitrary.
125
392820
3000
Le nostre esperienze percettive non sono arbitrarie.
06:35
The mind doesn't make up reality.
126
395860
2520
La mente non si inventa la realtà.
06:38
While experienced colors need a mind to exist,
127
398940
4680
Mentre colori già sperimentati hanno bisogno di una mente per esistere,
06:43
physical things, like the coffee cup itself,
128
403660
2640
cose fisiche, come la stessa tazza di caffè,
06:46
exist in the world whether we're perceiving them or not --
129
406300
2800
esistono nel mondo sia che le percepiamo sia che no.
06:49
it’s the way in which these things appear in our conscious experience
130
409140
4440
È il modo in cui queste cose appaiono nella nostra esperienza cosciente
06:53
that is always a construction,
131
413620
1880
a essere sempre una costruzione,
06:55
always a creative act of brain-based best guessing.
132
415500
3480
sempre un atto creativo di congetture basate sulla mente.
07:00
And because we all have different brains,
133
420060
2520
E dato che abbiamo tutti menti diverse,
07:02
we will each inhabit our own distinctive, personalized inner universe.
134
422580
5320
ciascuno di noi abiterà il nostro unico, personalizzato universo interiore.
07:09
Now I've digressed quite far from where we began,
135
429220
2400
Ora ho divagato anche troppo dagli inizi,
07:11
so let me end by returning to the self,
136
431620
2480
quindi fammi finire tornando all’individuo
07:14
to the experience of being you,
137
434140
2040
all’esperienza di essere te,
07:16
or being me.
138
436220
1120
o essere me.
07:17
They key idea here is that the experience of being a self,
139
437980
3360
L’idea chiave qui è che l’esperienza di essere un sé,
07:21
being any self,
140
441380
1160
di essere qualsiasi sé,
07:22
is also a controlled hallucination, but of a very special kind.
141
442580
4120
è anch’essa un’allucinazione controllata, ma di un tipo veramente speciale.
07:27
Instead of being about the external world,
142
447020
2760
Invece di riguardare il mondo esterno,
07:29
experiences of selfhood are fundamentally about regulating and controlling the body.
143
449820
6600
le esperienze di sé sono fondamentalmente basate sul regolare e gestire il corpo.
07:37
And what’s important here is that the experiences of being a self
144
457300
4200
E la cosa importante qui è che le esperienze di sé
07:41
are composed of many different parts
145
461500
1760
sono composte da molte parti diverse
07:43
that normally hang together in a unified way,
146
463260
3080
che normalmente stanno insieme in maniera unificata
07:46
but which can come apart in, for instance, psychological or neurological disorders,
147
466380
6000
ma che possono separarsi in, per esempo, malattie psicologiche o neurologiche.
07:52
There are experiences of being a continuous person over time,
148
472420
4080
Ci sono esperienze dell’essere una persona continua nel tempo,
07:56
with a name and a set of memories
149
476500
2000
con un nome e un insieme di ricordi
07:58
shaped by our social and cultural environments.
150
478540
3040
formati dai nostri ambienti sociali e culturali.
08:02
There are experiences of free will,
151
482180
2800
Ci sono esperienze di libero arbitrio,
08:05
of intending to do something,
152
485020
1440
di voler fare qualcosa,
08:06
or of being the cause of things that happen.
153
486500
2080
o di essere la causa di cose che succedono.
08:09
There are experiences of perceiving the world
154
489220
2240
Ci sono esperienze di percepire il mondo
08:11
from a particular perspective, a first-person point of view.
155
491460
3640
da una prospettiva particolare, un punto di vista in prima persona.
08:15
And then, there are deeply embodied experiences,
156
495860
3400
E poi, ci sono esperienze profondamente corporee,
08:19
for instance of identifying with an object in the world
157
499260
2800
per esempio identificarsi con un oggetto nel mondo
08:22
that is my body.
158
502100
1160
che è il mio corpo.
08:23
These hands, they're my hands.
159
503300
2160
Queste mani, sono le mie mani.
08:25
And then, of emotion and mood.
160
505940
2680
E poi, di emozioni e umore.
08:28
And at the deepest-lying, most basal levels,
161
508660
3200
E ai livelli più soggiacenti, primitivi,
08:31
experiences of simply being a living body,
162
511860
4160
esperienze di essere semplicemente un corpo vivente,
08:36
of being alive.
163
516060
1360
di essere vivi.
08:38
Now my contention is that all these aspects of being a self
164
518540
4400
La mia tesi è che tutti questi aspetti dell’essere un individuo
08:42
are all perceptual predictions of various kinds.
165
522980
3600
sono tutte predizioni percettive di vari tipi.
08:46
And the most basic aspect of being any self
166
526620
2840
E l’aspetto più basilare dell’essere qualunque individuo
08:49
is that part of perception
167
529500
1720
è quella parte della percezione
08:51
which serves to regulate the interior of the body to keep you alive.
168
531260
5320
che serve a regolare l’interno del corpo così da mantenerti vivo.
08:57
And when you pull on this thread, many things follow.
169
537460
3200
E quando insisti su questo terreno, molti risultati arrivano.
09:01
Everything that arises in consciousness is a perceptual prediction,
170
541500
4400
Tutto ciò che sorge nella coscienza è una predizione percettiva,
09:05
and all of our conscious experiences,
171
545900
2600
e tutte le nostre esperienze coscienti,
09:08
whether of the self or of the world,
172
548540
2560
che siano di sé o del mondo,
09:11
are all deeply rooted in our nature, as living machines.
173
551100
4320
sono tutte profondamente radicate nella nostra natura, di macchine viventi.
09:16
We experience the world around us and ourselves within it,
174
556020
4400
Sperimentiamo il mondo intorno a noi e noi stessi al suo interno,
09:20
with, through and because of our living bodies.
175
560420
4200
con, attraverso e grazie ai nostri corpi viventi.
09:25
So who are you, really?
176
565980
1520
Quindi alla fine, chi sei tu?
09:28
Think of yourself as being like the color red.
177
568860
3280
Pensa a te stesso come qualcosa di simile al colore rosso.
09:32
You exist, but you might not be what you think you are.
178
572860
4080
Tu esisti, ma potresti non essere ciò che pensi.
09:38
Thank you.
179
578820
1520
Grazie.
09:40
David Biello: A stand-in for the audience. Anil Seth: David is clapping.
180
580380
3480
David Biello: controfigura del pubblico Anil Seth: David sta applaudendo.
09:43
(Laughter)
181
583900
1280
(Risate)
09:45
AS: That makes me feel better. DB: It was great. Thank you for that.
182
585220
4120
AS: Mi fa stare meglio. DB: È stato forte. Grazie per questo.
09:49
I have to say that the thought of my brain floating around in a bony prison
183
589380
3720
Devo dire che il pensiero della mia mente che galleggia in una prigione ossea
09:53
is a disturbing one.
184
593140
2000
è disturbante.
09:55
But how do all those billions and trillions of neurons
185
595180
6680
Ma come fanno migliaia di miliardi di neuroni
10:01
give rise to this experience of consciousness,
186
601860
4080
a dare origine a questa esperienza della coscienza,
10:05
in your view?
187
605940
1160
secondo te?
10:07
AS: First, I mean, consciousness is experience,
188
607500
2400
AS: Intanto, voglio dire, coscienza è esperienza
10:09
so I'd use the two terms synonymously there.
189
609940
3080
quindi userei i due termini come sinonimi.
10:13
It's the same thing.
190
613060
2840
Sono la stessa cosa.
10:15
And by the way,
191
615940
1480
E in ogni caso,
10:17
the idea of your brain wobbling around in its bony vault of a skull
192
617420
4560
l’idea della tua mente che oscilla nel suo caveau ossuto chiamato cranio
10:21
is presumably less disturbing than it doing something else
193
621980
2760
dovrebbe essere meno disturbante dell’idea che faccia altro
10:24
and doing something outside of the skull. (Laughter)
194
624780
2800
che faccia qualcosa fuori dal cranio. (Risate)
Quella sarebbe la situazione più preoccupante.
10:27
That would be the more worrying situation.
195
627580
2120
10:29
But the question, of course, this is the big question.
196
629740
2640
Ma la domanda, ovviamente, questa è la grande domanda.
Inizi con una semplice domanda, “Come può tutto questo succedere?”
10:32
You start off with a simple question, "How does it all happen?"
197
632420
2960
10:35
And this is why there is a long way to go here.
198
635420
3920
Ed è il motivo per cui c’è molta strada da fare qui.
10:40
And there are, I think, two ways to approach this mystery.
199
640060
2760
E ci sono, penso, due modi per approcciare questo mistero.
10:42
So the fundamental question here is ...
200
642860
2320
Quindi la domanda fondamentale qui è...
10:45
What is it about a physical mechanism,
201
645820
2320
Cosa ha di speciale un meccanismo fisico,
10:48
in this case, a neurobiological mechanism,
202
648180
3000
in questo caso, un meccanismo neurobiologico,
10:51
86 billion neurons and trillions of connections,
203
651180
3560
86 miliardi di neuroni e triliardi di connessioni,
10:54
that can generate any conscious experience?
204
654740
2840
che può generare qualsiasi esperienza cosciente?
10:57
Put that way, it seems extremely hard,
205
657580
1960
Messa così, sembra estremamente difficile,
10:59
because conscious experiences seem to be the kinds of things
206
659580
3160
perché le esperienze coscienti sembrano essere il tipo di cose
11:02
that cannot be explained in terms of mechanisms,
207
662780
2880
inspiegabili in termini di meccanismi,
11:05
however complicated those mechanisms might be.
208
665660
2280
per quanto complicati questi meccanismi possano essere.
11:07
This is the intuition that David Chalmers famously called "the hard problem."
209
667980
5000
Questa è l’intuizione che David Chalmers notoriamente chiamò “il duro problema”
11:13
But my approach, as hinted at in this talk,
210
673020
3080
Ma il mio approccio, come ho accennato in questo talk,
11:16
is that we can characterize different properties of consciousness --
211
676100
4680
è che possiamo caratterizzare diverse proprietà della coscienza -
11:20
what a perceptual experience is like,
212
680820
1960
cos’è un’esperienza percettiva,
11:22
what an experience of self is like,
213
682820
2920
cos’è un’esperienza di sé stessi,
11:25
what the difference between sleep and wakefulness is like.
214
685740
3440
cos’è la differenza fra sonno e veglia.
11:29
And in each of those cases, we can tell a story
215
689180
2280
E in tutti questi casi, abbiamo una storia
11:31
about how neural mechanisms explain those properties.
216
691460
4640
riguardo come i meccanismi neurali spiegano queste proprietà.
11:36
In the part of the story we've touched on today,
217
696460
3480
Nella parte di storia che abbiamo toccato oggi,
11:39
it's all about predictive processing,
218
699980
1840
tutto riguarda l’elaborazione predittiva.
11:41
so the idea is that the brain really does encode within it
219
701820
3600
L’idea è che la mente davvero codifica al suo interno
11:45
a sort of predictive generative model of the causes of signals from the world,
220
705460
4680
una sorta di modello generativo predittivo delle cause dei segnali ricevuti dal mondo
11:50
and it's the content of those predictions
221
710180
2280
ed è il contenuto di queste previsioni
11:52
that constitutes our perceptual experience.
222
712460
3360
che costituisce la nostra esperienza percettiva.
11:55
And as we sort of develop and test explanations like this,
223
715820
4520
E con noi che in sostanza sviluppiamo e testiamo spiegazioni come questa,
12:00
the intuition is that this hard problem
224
720380
2640
l’intuizione è che questo duro problema
12:03
of how and why neurons, or whatever it is, in the brain,
225
723060
3600
di come e perché i neuroni, o qualunque cosa siano, nella mente,
12:06
can generate a conscious experience,
226
726660
1760
generano un’esperienza cosciente,
12:08
won't be solved directly -- it will be dissolved.
227
728460
2840
non sarà risolto direttamente - sarà dissolto.
12:11
It will gradually fade away and eventually vanish
228
731340
3520
Scomparirà gradualmente fino a svanire
12:14
in a puff of metaphysical smoke.
229
734900
1680
in una nuvola di fumo metafisico.
12:16
DB: Katarina wants to talk about anesthesia,
230
736580
4320
DB: Katarina vuole parlare dell’anestesia,
12:20
that experience of having your consciousness kind of turned off.
231
740900
4480
quell’esperienza di, praticamente, spegnere la tua coscienza.
12:25
What do we know about this ability to switch a person off,
232
745420
3000
Cosa sappiamo riguardo questa abilità di spegnere una persona
12:28
in a matter of seconds?
233
748420
1600
in pochi secondi?
12:30
What is actually happening there, do you think?
234
750020
2640
Cosa sta davvero succedendo lì, secondo te?
12:33
AS: Firstly, I think it's one of the best inventions of humanity, ever.
235
753140
4520
AS: In primo luogo, penso che sia una delle migliori invenzioni umane di sempre.
12:37
The ability to turn people into objects and then back again into people --
236
757700
4160
La capacità di trasformare le persone in oggetti e poi di nuovo in persone -
12:41
I wouldn't want to live at a time in history without it.
237
761900
2960
io non vorrei vivere in un periodo in cui ciò non è possibile.
12:44
Whenever we have this, like,
238
764860
1360
Ogni volta che senti dire:
12:46
"Wouldn't it be nice to live in Greek antiquity or something,
239
766260
2880
“Non sarebbe bello vivere tipo nell’antichità greca,
12:49
when people swum around, philosophizing, drinking wine?"
240
769180
2840
con le persone che nuotavano, filosofeggiando e bevendo vino?”
12:52
Yes, but what about anesthesia?
241
772020
2240
Sì, ma l’anestesia?
12:54
(Laughs)
242
774260
1000
(Ride)
12:55
That's my response.
243
775300
1240
Questa è la mia risposta.
12:56
It does work, this is a fantastic thing.
244
776580
2040
Funziona, è una cosa fantastica.
12:58
How?
245
778660
1160
Come?
12:59
Here's an enormous opportunity for consciousness science,
246
779860
2840
Questa è un’enorme opportunità per la scienza della coscienza,
13:02
because we know what anesthetics do at a very local level.
247
782740
4840
perché sappiamo ciò che gli anaestetici fanno a un livello puramente locale.
13:07
We know how they act on different molecules and receptors in the brain.
248
787580
5920
Sappiamo come agiscono su differenti molecole e recettori nel cervello.
13:13
And of course, we know what ultimately happens,
249
793500
3200
E ovviamente, sappiamo quello che alla fine succede,
13:16
which is that people get knocked out.
250
796740
2000
ovvero che le persone vengono messe KO.
13:18
And by the way, it's not like going to sleep.
251
798740
2120
E in ogni caso, non è tipo andare a letto.
13:20
Under general anesthesia, you're really not there.
252
800860
2520
Sotto anestesia generale, sei davvero non lì.
13:23
It's an oblivion comparable with the oblivion before birth
253
803420
4480
È un oblio paragonabile all’oblio prima della nascita
13:27
or after death.
254
807900
1760
o dopo la morte.
13:30
So the real question is, "What is happening?"
255
810740
2320
Quindi la vera domanda è, “cosa sta succedendo?”
13:33
How is the local action of anesthetics affect global brain dynamics
256
813060
5840
Come può l’azione locale dell’anestesia influenzare dinamiche mentali globali
13:38
so as to explain this disappearance of consciousness?
257
818940
3800
così da spiegare la scomparsa della conoscenza?
13:42
And to cut a long story very short, what seems to be happening
258
822780
4800
E per tagliare corto su una storia lunga, quello che sembra succeda
13:47
is that the different parts of the brain
259
827620
3000
è che parti diverse del cervello
13:50
become functionally disconnected from each other,
260
830620
3200
diventano funzionalmente sconnesse una dall’altra,
13:53
and by that I mean, they speak to each other less.
261
833860
3800
e con questo intendo, parlano tra loro di meno.
13:57
The brain is still active,
262
837660
1920
La mente è ancora attiva,
13:59
but communication between brain areas becomes disrupted in specific ways.
263
839620
5320
ma la comunicazione tra aree del cervello si interrompe in modi specifici.
14:04
and there’s still a lot we need to learn
264
844980
1920
E c’è ancora molto che dobbiamo imparare
14:06
about the precise ways in which this disconnection happens --
265
846900
3840
su come precisamente questa disconnessione ha luogo -
14:10
what are the signatures of the loss of consciousness?
266
850780
3320
quali sono i capisaldi della perdita di conoscenza?
14:15
There are many different kinds of anesthetic,
267
855020
2240
Ci sono molti diversi tipi di anestetici,
14:17
but whichever variety of anesthetic you take,
268
857300
2120
ma qualunque varietà assumi,
14:19
when it works, this is what you see.
269
859420
2040
quando funziona, questo è ciò che vedi.
14:21
DB: I think some folks such as Jasmine and more anonymous folks
270
861500
3920
DB: penso che alcuni ragazzi come Jasmine e persone più anonime
14:25
are troubled by this idea that what I call red
271
865420
5160
siano in crisi per questa idea che quello che chiamo rosso
14:30
might be a different color for you and for everyone else.
272
870580
3680
potrebbe essere un colore diverso per te e per chiunque altro.
14:34
Is there a way of knowing if we're all hallucinating reality
273
874300
5080
C’è un modo di sapere se la realtà è un’allucinazione
14:39
in a similar way or not?
274
879420
2720
simile per tutti o no?
14:42
AS: Again, this is a lovely topic,
275
882620
1960
AS: Questo è, ripeto, un argomento stupendo,
14:44
and it really gets to the heart of how I've been thinking
276
884620
4200
e arriva proprio al cuore di come ho pensato
14:48
about perception,
277
888860
1160
alla percezione,
14:50
because one of the aspects of perception that I think is easy to overlook
278
890020
3480
perché uno degli aspetti della percezione che penso sia facile trascurare
14:53
is that the contents of perception seem real, right?
279
893500
5520
è che i contenuti della percezione sembrano reali, giusto?
14:59
The redness of this coffee cup,
280
899020
1760
La rossezza di questa tazza di caffè,
15:00
it seems to be a mind-independent,
281
900820
2920
sembra essere una proprietà indipendente dalla mente,
15:03
really existing property of the external world.
282
903740
3200
che davvero esiste nel mondo esterno.
15:07
Now, certain aspects of this coffee cup are mind-independent.
283
907340
3840
Ora, alcuni aspetti di questa tazza sono indipendenti dalla mente.
15:11
Its solidity is mind-independent.
284
911180
2040
La sua solidità è indipendente dalla mente.
15:13
If I throw it at you, David, across the Atlantic,
285
913260
3160
Se la tiro a te, David, attraverso l’Atlantico
15:16
and you don't see it coming, it will hit you in the head, it will hurt.
286
916420
3480
e te non la vedi arrivare, ti colpirà in testa, farà male.
15:19
That doesn't depend on you seeing it,
287
919940
1880
Questo non dipende da te che la vedi,
15:21
but the redness does depend on a mind.
288
921820
3080
ma quanto è rossa dipende dalla mente.
15:25
And to the extent that things depend on a mind,
289
925220
3400
E nella misura in cui le cose dipendono da una mente,
15:28
they're going to be different for each of us.
290
928660
3160
vanno a essere diverse per ciascuno di noi.
15:31
Now, they may not be that different.
291
931820
2120
Ora, potrebbero non essere così diverse.
15:33
In philosophy, there's this argument of the inverted spectrum,
292
933940
4480
In filosofia, c’è questa teoria dello spettro invertito,
15:38
so if I see red, is that the same as you seeing green or blue, let's say?
293
938420
4480
quindi se vedo rosso, è lo stesso che vedere verde o blu, diciamo?
15:42
And we might never know.
294
942940
1320
E potremmo non saperlo mai.
15:44
I don't have that much truck with that particular thought experiment.
295
944300
3440
Non sono molto in sintonia con quel particolare esperimento mentale.
15:47
Like many thought experiments, it pushes things a little bit too far.
296
947740
4400
Come molti esperimenti mentali, porta le cose un po’ troppo in là.
15:52
I think the reality is that we see things like colors,
297
952180
3760
Penso che la realtà sia che vediamo cose come i colori,
15:55
maybe we see them similar, but not exactly the same,
298
955980
3920
forse li vediamo simili, ma non esattamente allo stesso modo,
15:59
and we probably overestimate the degree of similarity
299
959900
4680
e probabilmente sovrastimiamo il livello di somiglianza
16:04
between our perceptual worlds,
300
964620
1440
tra i nostri mondi percettivi,
16:06
because they're all filtered through language.
301
966100
3200
perché sono tutti filtrati attraverso il linguaggio.
16:09
I mean, I just used the word “red,” and there are many shades of red;
302
969300
3240
Tipo, ho appena detto “rosso”, e ci sono molte sfumature di rosso;
16:12
painters would say, "What red?"
303
972580
1920
i pittori direbbero, “quale rosso?”
16:14
I remember when I was decorating my house,
304
974500
2080
Ricordo quando stavo decorando casa,
16:16
it's like, "I want to paint the walls white."
305
976580
2400
è come dire, “Voglio dipingere i muri di bianco”.
16:19
How many shades of white are there?
306
979020
2560
Quante sfumature di bianco esistono?
16:21
This is too many.
307
981620
1680
Troppe.
16:23
And they have weird names, which doesn't help.
308
983340
2160
E hanno nomi strani, fatto che non aiuta.
16:25
We will overestimate the similarity of our universe.
309
985540
3920
Sovrastimeremo la somiglianza del nostro universo.
16:29
And I think it's a really interesting question,
310
989460
2360
E penso sia una questione veramente interessante,
16:31
how much they do indeed diverge.
311
991820
1800
quanto in effetti divergono.
16:33
You will probably remember this famous dress,
312
993620
2720
Probabilmente ricorderai questo vestito famoso,
16:36
this photo of a dress half the world saw as blue and black,
313
996380
3680
questa foto di un vestito che mezzo mondo vedeva come blu e nero,
16:40
and the other half saw as white and gold.
314
1000060
2640
e l’altra metà vedeva come bianco e oro.
16:42
AS: You're a white and gold person? DB: Yeah, yeah.
315
1002700
4680
AS: Te sei per bianco e oro? DB: Sì, sì.
16:47
AS: I'm a blue and black person.
316
1007380
1600
AS: Io sono per blu e nero.
16:49
I was right, the real dress is actually blue and black.
317
1009020
2640
Avevo ragione, il vero vestito è davvero blu e nero.
16:51
(Laughter)
318
1011660
1200
(Risate)
16:52
AS: Never mind ...
319
1012860
1800
AS: Lasciamo stare...
16:55
DB: We could argue about that.
320
1015180
2240
DB: Potremmo discuterne.
16:57
AS: We couldn't. It really is blue and black.
321
1017460
2240
AS: Non potremmo. È davvero blu e nero.
16:59
I talked to the dress designer. The actual one is blue and black.
322
1019700
3320
Ho parlato al disegnatore del vestito. Quello vero è blu e nero.
17:03
There's no argument there.
323
1023020
1920
Non è in discussione come fatto.
17:05
But the thing that made that so weird
324
1025980
2920
Ma la cosa che lo ha reso così strano
17:08
is that it's not that we vaguely see it as one color or the other,
325
1028940
4600
è che non lo vediamo vagamente come un colore o l’altro,
17:13
we really see that blueness and blackness or whiteness and goldness
326
1033540
3760
vediamo davvero l’essere blu e nero o bianco e oro
17:17
as really existing in the world.
327
1037300
1640
come realmente esistenti nel mondo.
17:18
And that was an interesting lever
328
1038940
2800
E questa è una leva interessante
17:21
into a recognition of how different our perceptual universes might be.
329
1041780
5000
verso un riconoscere quanto differenti i nostri universi percettivi possono essere.
17:26
And in fact, a study we're doing at Sussex over the next year or two,
330
1046820
3840
Difatti, uno studio che faremo nel Sussex nel prossimo anno o due,
17:30
we're trying to characterize the amount of perceptual diversity
331
1050660
5680
proveremo a caratterizzare la quantità di diversità percettiva
17:36
that is just there to be discovered.
332
1056380
3120
che è lì pronta per essere scoperta.
17:39
We're usually only aware of it at the extremes,
333
1059500
2280
Di solito ne siamo consapevoli solo agli estremi,
17:41
people call things like neurodiversity,
334
1061820
2640
con definizioni come neurodiversità,
17:44
where people have experiences that are so different,
335
1064500
2880
in cui le persone hanno esperienze così diverse
17:47
they manifest in different behaviors.
336
1067380
2240
da manifestarsi in diversi comportamenti.
17:49
But I think there's this, sort of, big dark matter
337
1069660
2480
Ma io credo in questa sorta di grande materia oscura
17:52
of individual diversity in perception that we know very little about,
338
1072140
3400
di diversità individuale nella percezione di cui sappiamo ben poco,
17:55
but it's there.
339
1075540
1200
ma è lì.
17:56
DB: I'm glad we could put to rest a major internet debate
340
1076740
3680
DB: sono felice che abbiamo potuto chiudere un grande dibattito di internet
18:00
and come down firmly on the blue and black side of things.
341
1080460
4880
e stabilirci fermamente nel lato blu e nero delle cose.
18:05
Daniella wants to know,
342
1085380
1240
Daniela vuole sapere,
18:06
"Could you explain how memory is involved in this perception of a self?"
343
1086660
4880
“Potresti spiegare come la memoria è coinvolta in questa percezione di sé?”
18:13
AS: Just as there are many different aspects of selfhood,
344
1093060
3160
AS: Così come ci sono molti aspetti diversi dell’individualità,
18:16
there are many different kinds of memory, too.
345
1096260
2440
ci sono anche molti diversi tipi di memoria.
18:18
I think colloquially, in everyday language,
346
1098740
2400
Penso che colloquialmente, nella lingua comune,
18:21
when we talk about memory,
347
1101140
1360
quando parliamo di memoria,
18:22
we often talk about autobiographical memory or episodic memory,
348
1102500
5320
spesso parliamo di memoria autobiografica o episodica,
18:27
like "What did I have for breakfast?"
349
1107860
1840
tipo: “Cosa ho mangiato a colazione?”
18:29
"When did I last go for a walk?"
350
1109740
2800
“Quando sono andato l’ultima volta a camminare?”
18:32
These kinds of things.
351
1112540
1440
Questo tipo di cose.
18:34
"When did I last have the pleasure of talking to David?"
352
1114020
3320
“Quando ho avuto per l’ultima volta il piacere di parlare a David?”
18:37
These are the memories of things that pertain to me
353
1117340
3240
Questi sono i ricordi di cose che appartentono a me
18:40
as a continuous individual over time.
354
1120620
3120
in quanto individuo esistente continuamente nel tempo.
18:43
That's one way in which memory plays into self,
355
1123740
3240
Questo è un modo in cui la memoria si volge all’individuo,
18:47
and that part of memory can go away, and self remains --
356
1127020
4640
e quella parte della memoria può sparire, e l’individuo rimane,
18:51
back to the earlier point.
357
1131700
1240
come dicevamo prima.
18:52
There's a famous case I talk about in the book,
358
1132940
2240
C’è un caso famoso di cui parlo nel libro,
18:55
of a guy called Clive Wearing,
359
1135220
1920
di un ragazzo chiamato Clive Wearing,
18:57
who had a brain disease, an encephalopathy,
360
1137180
4480
che aveva una malattia mentale, un’encefalopatia,
19:01
which basically obliterated his ability to lay down new autobiographical memories.
361
1141700
6600
che di fatto annullava la sua capacità di stabilire nuovi ricordi individuali.
19:08
He lost his hippocampus,
362
1148660
1840
Perse il suo ippocampo,
19:10
which is a brain region very important for this function.
363
1150540
3480
che è una regione della mente molto importante per questa funzione.
19:14
His wife described it as him living in a permanent present tense,
364
1154020
5160
Sua moglie lo descrisse come un vivere in uno stato di continuo presente,
19:19
of between seven to 30 seconds.
365
1159220
2800
tra 7 e 30 secondi.
19:22
And then, everything was new.
366
1162060
1400
E poi, tutto diventava nuovo.
19:23
It's very, very difficult to put yourself in the shoes of somebody like that.
367
1163500
3720
È davvero, davvero difficile metterti nei panni di una persona simile.
19:27
But other aspects of his self remained.
368
1167220
3200
Ma altri aspetti di sé rimasero.
19:30
But then, there are all sorts of other aspects of memory
369
1170980
2920
Ma poi, c’è tutta una serie di altri aspetti della memoria
19:33
that probably also play into what it is to be you or to be me.
370
1173940
5720
che probabilmente definiscono cosa significa essere te o essere me.
19:39
We have semantic memory.
371
1179700
2960
Abbiamo memoria semantica.
19:42
We just know things,
372
1182700
1240
Sappiamo cose,
19:43
like we know what the capital of France is, who the president is,
373
1183940
4520
tipo sappiamo qual è la capitale della Francia, chi è il presidente,
19:48
I hope so, I don't know.
374
1188500
2080
almeno spero, non so.
19:50
Sometimes, that's a good thing. Sometimes, that's not a good thing.
375
1190980
3160
A volte, è una buona cosa. A volte, non lo è.
19:54
And all of these things that get encoded in memory
376
1194180
3280
E tutte queste cose che vengono codificate nella memoria
19:57
shape our self too.
377
1197460
2320
danno anche forma a ciò che siamo.
19:59
And then finally, there's perceptual memory.
378
1199780
3640
E in ultimo luogo, c’è la memoria percettiva.
20:03
It's not that experience is like a video recording that we can replay,
379
1203420
4720
L’esperienza non è come una registrazione video che possiamo ripetere,
20:08
but everything we experience changes the way we perceive things in the future,
380
1208180
4400
ma tutto ciò che sperimentiamo cambia la nostra percezione delle cose in futuro,
20:12
and the way we perceive things is also, in my view,
381
1212620
2400
e come percepiamo le cose è anche, per come la vedo,
20:15
part of what it is to be a self.
382
1215060
1840
qualcosa che caratterizza l’individuo.
20:16
Actually, I just want to say,
383
1216940
1480
Di fatto, voglio solo dire,
20:18
one of the really interesting questions here,
384
1218460
2120
una delle domande davvero interessanti qui,
20:20
and one of the things we're working on --
385
1220580
3120
e una delle cose a cui stiamo lavorando -
20:23
Imagine a typical day.
386
1223700
4000
immaginati una giornata tipo.
20:27
You go through your typical day,
387
1227740
2720
Affronti la tua giornata tipo,
20:30
you're experiencing a continuous stream of inputs.
388
1230500
2640
sperimentando un flusso continuo di input.
20:33
Now you blink, of course, and so on, but more or less,
389
1233140
2800
Ora sbatti le palpebre, ovvio, e così via, ma più o meno
20:35
there's this continuous stream of inputs.
390
1235980
2040
c’è questo flusso continuo di input.
20:38
Yet when we remember a day,
391
1238020
2160
Però quando ricordiamo una giornata,
20:40
it's usually in chunks, these autobiographical chunks:
392
1240220
3640
di solito è in frammenti, frammenti autobiografici:
20:43
"I did this, I did that, I did the other, this happened."
393
1243900
3000
“ho fatto questo, quello, quest’altro, è successo questo”.
20:46
So a really important question
394
1246940
2240
Quindi una domanda davvero importante
20:49
is, "How does this chunking process happen?"
395
1249180
3400
è, “come avviene questo processo di spezzettamento?”
20:52
"How does the brain extract meaningful episodes
396
1252620
3720
“Come fa la mente a estrarre episodi importanti
20:56
from a relatively continuous flow of data?"
397
1256380
3560
da un flusso di informazioni relativamente continuo?”
20:59
And it's kind of disturbing,
398
1259980
1520
Ed è anche un po’inquietante,
21:01
how little of any given day we remember.
399
1261540
3240
quanto poco di ogni giornata ricordiamo.
21:04
So it's a very selective process,
400
1264820
2000
È un processo davvero selettivo,
21:06
and that's something that I think is going to be useful
401
1266820
2640
ed è qualcosa che penso sarà utile
21:09
not only for basic neuroscience,
402
1269500
1600
non solo alla neuroscienza di base,
21:11
but, for instance, in helping people with memory loss and impairments,
403
1271100
3960
ma, per esempio, nell’aiutare persone con perdita di memoria e disabilità,
21:15
because you could, for instance, have a camera,
404
1275060
2200
perché potresti, volendo, avere una telecamera,
21:17
and then, you could predict what aspects of their day would constitute a memory,
405
1277300
3880
e predire quali aspetti della loro giornata costituiranno un ricordo,
21:21
and that can be very, very useful for them and for their carers.
406
1281180
3200
e ciò può essere molto, molto importante per loro e per i loro tutori.
21:24
DB: The brain clearly has a good editor.
407
1284420
3640
DB: la mente ha chiaramente un buon redattore.
21:28
You call us, people, "feeling machines" in your book.
408
1288100
5080
Tu chiami a noi persone “macchine emotive” nel tuo libro.
21:33
Care to expand on that?
409
1293180
2320
Potresti dirci di più?
21:35
AS: Yeah, that's right.
410
1295540
1200
AS: Sì, certo.
21:36
Well, we're not cognitive computers, we are feeling machines.
411
1296740
3280
Beh, non siamo computer cognitivi, siamo macchine emotive.
21:40
And I think this is true at the level of making decisions,
412
1300020
3360
E penso che sia veritiero al livello del prendere decisioni,
21:43
but for me, it's really at the heart of how to understand life,
413
1303420
5600
ma per me, è davvero al centro di come capire vita,
21:49
mind and consciousness.
414
1309020
2160
mente e coscienza.
21:51
And this, really, is the idea that --
415
1311180
4000
E questa, davvero, è l’idea che -
21:55
In consciousness science, we tended to think things like vision --
416
1315180
3960
nella scienza della coscienza, tendevamo a pensare a cose come la vista.
21:59
Vision as being the royal road to understanding consciousness.
417
1319180
3400
La vista come la strada maestra per capire la conoscenza.
22:02
Vision is easy to study, and we're very visual creatures.
418
1322620
2720
La vista è facile da spiegare, e siamo creature molto visive.
22:05
But fundamentally,
419
1325820
1200
Ma fondamentalmente,
22:07
brains evolved and develop and operate from moment to moment
420
1327020
4080
le menti si sono evolute e si sviluppano e operano da un momento all’altro
22:11
to keep the body alive,
421
1331140
1480
per tenere vivo il corpo,
22:12
always in light of this deep physiological imperative
422
1332620
3640
sempre alla luce di questo profondo imperativo fisiologico
22:16
to help the organism persist in remaining an organism,
423
1336300
6000
di aiutare l’organismo a persistere nel rimanere un organismo,
22:22
in remaining alive.
424
1342340
1720
nel rimanere vivo.
22:24
And that fundamental role of brains,
425
1344100
5640
E questo ruolo fondamentale del cervello,
22:29
that's what, in my view, gave rise to any kind of perception.
426
1349780
4760
è ciò che, secondo me, ha dato vita a tutti i tipi di percezione.
22:34
In order to regulate something,
427
1354540
1560
Per disciplinare qualcosa,
22:36
you need to be able to predict what happens to it.
428
1356100
2480
devi riuscire a predire cosa succede a quella cosa.
22:38
It's this whole apparatus of prediction and prediction error
429
1358620
3520
È questo intero apparato di previsioni ed errori di previsione
22:42
that undergirds all of our perceptual experiences,
430
1362180
2400
a fare da base a tutta la nostra percezione,
22:44
including the self,
431
1364580
1400
anche l’individuo
22:46
has its origin in this role
432
1366020
2800
ha la sua origine in questo ruolo
22:48
that's tightly coupled to the physiology of the body.
433
1368820
2920
strettamente connesso alla fisiologia del corpo.
22:51
And that's why, I think, we're feeling machines,
434
1371740
2320
Motivo per cui, penso, siamo macchine emotive.
22:54
we're not just computers
435
1374060
1960
Non siamo solo computer
22:56
that happen to be implemented on meat machines.
436
1376060
3360
implementati per caso su macchine di carne.
22:59
DB: Thank you, Anil, for chatting with us today.
437
1379460
2920
DB: Grazie, Anil, per aver parlato con noi oggi.
23:02
AS: Really enjoyed it.
438
1382380
1160
AS: È stato davvero un piacere.
23:03
AS: Thanks a lot, David. DB: Thank you.
439
1383580
1840
AS: Grazie mille, David. DB: Grazie.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7