Anil Seth: How your brain invents your "self" | TED

121,261 views ・ 2021-11-24

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Transcriber:
0
0
7000
Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
Who am I? Who is anyone, really?
1
4700
2960
Qui suis-je ? Et qui sommes-nous tous, finalement ?
00:09
When I wake up in the morning and open my eyes,
2
9100
2240
À mon réveil le matin, j’ouvre les yeux,
00:11
a world appears.
3
11340
1480
et un monde apparaît.
00:12
These days, since I've hardly been anywhere,
4
12860
2080
Ces derniers temps, je ne vais nulle part,
00:14
it's a very familiar world:
5
14980
1360
mon monde est très familier :
00:16
there's the wardrobe beyond the end of the bed,
6
16380
2400
l’armoire derrière mon lit,
00:18
the shuttered windows and the shrieking of seagulls,
7
18780
2840
les fenêtres aux volets fermés et le cri perçant des mouettes
00:21
which drives Brighton residents like me absolutely crazy.
8
21660
3560
qui rend fous les habitants de Brighton, dont je fais partie.
00:26
But even more familiar is the experience of being a self,
9
26100
3600
Mais il y a plus familier encore : la sensation d’être soi,
00:29
of being me,
10
29740
1520
d’être moi,
00:31
that glides into existence at almost the same time.
11
31260
3840
qui prend vie doucement au même moment.
00:35
Now this experience of selfhood is so mundane
12
35620
3600
Cette sensation de soi est si banale
00:39
that its appearance, usually, just happens without us noticing at all.
13
39260
5320
que son apparition survient sans que nous la remarquions.
00:45
We take our selves for granted,
14
45100
2240
On prend notre moi pour acquis,
00:47
but we shouldn't.
15
47340
1160
mais c’est un tort.
00:49
How things seem is not how they are.
16
49220
2840
L’apparence des choses ne signifient pas qu’elles soient ainsi.
00:52
For most of us, most of the time,
17
52700
1600
Nous sommes nombreux, très souvent,
00:54
it seems as though the self, your self, is an enduring and unified entity --
18
54300
6160
à avoir l’impression que notre moi est une unité persistante et unifiée,
01:00
in essence, a unique identity.
19
60500
2320
par essence, une identité unique.
01:03
Perhaps it seems as though the self is the recipient
20
63220
2560
C’est un peu comme si le moi était le réceptacle
01:05
of wave upon wave of perceptions,
21
65820
3200
de vagues continues de perceptions,
01:09
as if the world just pours itself into the mind
22
69020
3120
comme si le monde se déversait dans notre esprit
01:12
through the transparent windows of the senses.
23
72180
2600
à travers les fenêtres transparentes de nos sens.
01:14
Perhaps it seems as though the self is the decision-maker in chief,
24
74780
4760
C’est comme si le moi est le preneur de décisions en chef,
01:19
deciding what to do next and then doing it,
25
79580
2440
qui décide quoi faire ensuite et quand le faire,
01:22
or, as the case may be, doing something else.
26
82020
2520
ou, le cas échéant, faire autre chose.
01:25
We sense, we think and we act.
27
85140
3160
On sent, on pense et on agit.
01:28
This is how things seem.
28
88780
1600
Voilà à quoi les choses ressemblent.
01:31
How things are is very different,
29
91660
2640
Mais comment sont les choses est très différent
01:34
and the story of how and why this is so
30
94340
2320
et l’histoire de comment et pourquoi c’est ainsi
01:36
is what I want to give you a flavor of today.
31
96700
2720
est ce que je souhaite évoquer avec vous aujourd’hui.
01:40
In this story, the self is not the thing that does the perceiving.
32
100260
5000
Dans mon histoire, le moi n’est pas l’entité qui perçoit.
01:45
The self is a perception too,
33
105260
1680
Le moi est aussi une perception,
01:46
or rather, it's the collection of related perceptions.
34
106980
3680
ou plutôt, c’est la collection de perceptions liées.
01:51
Experiences of the self and of the world
35
111580
3240
L’expérience du moi et du monde
01:54
turn out to be kinds of controlled hallucinations,
36
114820
3600
serait donc des formes d’hallucinations contrôlées,
01:58
brain-based best guesses
37
118460
1600
les meilleures suppositions du cerveau
02:00
that remain tied to the world and the body
38
120100
2600
qui restent liées au monde et au corps
02:02
in ways determined not by their accuracy,
39
122740
3160
de façons déterminées non pas par leur exactitude,
02:05
but by their utility,
40
125940
1720
mais par leur utilité,
02:07
by their usefulness for the organism in the business of staying alive.
41
127700
4720
leur utilité pour l’organisme dans le but de rester en vie.
02:13
Now the basic idea is quite simple,
42
133860
1960
L’idée de base est simple
02:15
and it goes back a very long way in both science and philosophy --
43
135860
3160
et remonte à très loin dans la science et la philosophie,
02:19
all the way back, in fact, to Plato
44
139020
2480
jusqu’à Platon, en fait,
02:21
and to the shadows cast by firelight on the walls of a cave,
45
141540
4040
jusqu’aux ombres projetées sur les murs d’une caverne,
02:25
shadows which the prisoners within took to be the real world.
46
145620
3680
des ombres que les prisonniers de cette caverne pensent être le vrai monde.
02:30
Raw sensory signals,
47
150380
1920
Les signaux sensoriels bruts,
02:32
the electromagnetic waves that impinge upon our retinas,
48
152300
2880
les ondes électromagnétiques qui affectent nos rétines,
02:35
the pressure waves that assault our eardrums, and so on,
49
155220
3560
les ondes de pression qui assaillent nos tympans, par exemple,
02:38
well, they're always ambiguous and uncertain.
50
158780
3080
sont toujours ambiguës et incertaines.
02:41
Although they reflect really existing things in the world,
51
161900
3880
Bien qu’elles soient le reflet de choses qui existent vraiment dans le monde,
02:45
they do so only indirectly.
52
165820
2280
ce reflet est indirect.
02:48
The eyes are not transparent windows from a self out onto a world,
53
168700
4080
Nos yeux ne sont pas des fenêtres transparentes d’une entité dans le monde,
02:52
nor are the ears,
54
172820
1240
nos oreilles non plus,
02:54
nor are any of our senses.
55
174060
1920
aucun de nos sens, d’ailleurs.
02:55
The perceptual world that arises for us in each conscious moment --
56
175980
4120
La perception du monde qui survient pour nous à chaque instant conscient,
03:00
a world full of objects and people,
57
180140
2240
un monde rempli d’objets et de personnes,
03:02
with properties like shape, color and position --
58
182380
3680
avec des propriétés de forme, de couleur, de position,
03:06
is always and everywhere created by the brain,
59
186100
3240
est toujours et partout créée par notre cerveau
03:09
through a process of what we can call “inference,”
60
189380
3520
dans un processus que nous appelons «inférence »,
03:12
of under-the-hood, neurally implemented brain-based best guessing.
61
192900
4080
des suppositions du cerveau, générées par les neurones, sous le capot.
03:17
Now ...
62
197780
1240
Bon.
03:19
Here's a red coffee cup.
63
199060
1720
Voici une tasse rouge.
03:22
When I see this red coffee cup, when I consciously see it,
64
202380
4360
Quand je vois cette tasse rouge, quand je la vois consciemment,
03:26
that's because "red coffee cup" is my brain's best guess
65
206780
3600
c’est parce que mon cerveau suppose que c’est une tasse rouge
03:30
of the hidden and ultimately unknowable sensory signals that reach my eyes.
66
210420
5120
au départ des signaux sensoriels cachés et indéfinissables qui atteignent mes yeux.
03:36
And just think about the redness itself, for a moment.
67
216580
3200
Arrêtons-nous un moment sur la couleur rouge.
03:39
Does the color red exist in the world?
68
219820
2440
La couleur rouge existe-t-elle dans le monde ?
03:42
No, it doesn't.
69
222300
1200
Non et pas besoin des neurosciences pour le savoir.
03:43
And we don't need neuroscience to tell us this.
70
223500
2200
Newton a découvert que les couleurs que nous voyons,
03:45
Newton discovered long ago that all the colors we experience,
71
225740
2920
03:48
the rainbow of the visible spectrum,
72
228700
1840
l’arc-en-ciel du spectre visible,
03:50
are based on just a few wavelengths of electromagnetic radiation,
73
230540
3720
est basé sur la fréquence de quelques radiations électromagnétiques
03:54
which itself is, of course, entirely colorless.
74
234260
3240
qui sont, évidemment, incolores.
03:58
For us humans,
75
238060
1160
Pour nous, les humains,
03:59
a whole universe of color is generated from just three of these wavelengths,
76
239220
6040
un univers entier de couleur est créé au départ de trois de ces fréquences,
04:05
corresponding to the three types of cells in our retinas.
77
245580
3200
correspondant aux trois types de cellules de nos rétines.
04:09
Color-wise, this thin slice of reality, this is where we live.
78
249580
5240
Du point de vue des couleurs, nous vivons dans cette petite tranche de la réalité.
04:14
Our experience of color --
79
254860
1400
Notre vécu des couleurs,
04:16
indeed, our experience of anything --
80
256300
2680
et notre vécu de tout le reste,
04:18
is both less than and more than whatever the real world really is.
81
258980
4840
est à la fois moins et davantage que ce que le monde réel est.
04:25
Now what's happening when we experience color
82
265220
2200
Quand nous voyons une couleur,
04:27
is that the brain is tracking an invariance,
83
267420
2200
notre cerveau recherche l’invariance,
04:29
a regularity in how objects and surfaces reflect light.
84
269660
6480
la régularité avec laquelle les objets et les surfaces reflètent la lumière.
04:36
It's making a best guess,
85
276140
1280
Il fait une supposition,
04:37
a top-down, inside-out prediction,
86
277420
2240
une prédiction inductive,
04:39
about the causes of the relevant sensory signals,
87
279660
2360
sur les causes des signaux sensoriels concernés,
04:42
and the content of that prediction --
88
282020
2000
et le contenu de cette prédiction,
04:44
that's what we experience as red.
89
284060
2600
c’est ce que nous voyons comme étant rouge.
04:48
Does this mean that red is in the brain, rather than the world?
90
288180
4160
Cela signifie-t-il que le rouge est dans le cerveau, et non dans le monde ?
04:52
Well, no.
91
292380
1880
En fait, non.
04:54
The experience of redness requires both the world and a brain,
92
294260
4120
Notre ressenti du rouge nécessite le monde et notre cerveau, les deux,
04:58
unless you're dreaming, but let's not worry about that for now.
93
298420
3080
à moins d’être en train de rêver, mais mettons ça de côté.
05:01
Nothing in the brain is actually red.
94
301540
2480
Rien dans notre cerveau n’est rouge.
05:04
Cézanne, the great impressionist painter,
95
304780
2040
Cézanne, le grand peintre impressionniste,
05:06
once said that color is where the brain and the universe meet.
96
306860
4320
a dit que la couleur est le lieu où notre cerveau et l’univers se rencontrent.
05:11
Now the upshot of all this
97
311900
1280
La conséquence de tout ça,
05:13
is that perceptual experience is what I've come to call,
98
313180
2720
est que l’expérience de perception se fonde, selon moi,
05:15
drawing on the words of others,
99
315940
1600
sur les mots des autres,
05:17
a “controlled hallucination.”
100
317540
2120
une «hallucination contrôlée ».
05:20
Now this is a tricky term, prone to misunderstandings,
101
320300
3080
C’est un terme à manipuler prudemment, difficile à comprendre,
05:23
so let me be clear.
102
323380
1280
alors, je vais l’expliquer.
05:24
What I mean is that the brain is continuously generating predictions
103
324700
4320
Je veux dire que le cerveau génère des prédictions en continu
05:29
about the causes of sensory signals,
104
329060
2320
sur les causes des signaux sensoriels,
05:31
whether these come from the world or from the body,
105
331380
3200
que ceux-ci soient issus du monde ou de notre corps,
05:34
and the sensory signals themselves serve as prediction errors,
106
334580
3720
et que les signaux sensoriels eux-mêmes font état des erreurs de prédiction,
05:38
reporting a difference
107
338340
1160
établissant une différence
05:39
between what the brain expects and what it gets,
108
339500
3280
entre les attentes du cerveau et ce qu’il reçoit,
05:42
so that the predictions can be continuously updated.
109
342820
3520
afin de mettre à jour les prédictions en continu.
05:47
Perception isn't a process of reading out sensory signals
110
347500
4080
La perception n’est pas un processus de lecture des signaux sensoriels
05:51
in a bottom-up or outside-in direction.
111
351580
3120
unidirectionnelle, de l’extérieur vers l’intérieur.
05:54
It's always an active construction,
112
354700
2440
C’est toujours une construction active,
05:57
an inside-out, top-down neuronal fantasy
113
357180
3560
un fantasme neuronal, de l’intérieur vers l’extérieur
06:00
that is yoked to reality
114
360780
1320
qui est mêlé à la réalité
06:02
in a never-ending dance of prediction and prediction error.
115
362100
4000
dans une danse infinie de prédiction et d’erreur prédictive.
06:07
Now I call this process controlled hallucination
116
367100
2400
J’appelle ce processus hallucination contrôlée
06:09
to emphasize just this point.
117
369540
1920
pour mettre en relief ce point précis.
06:12
All of our experiences are active constructions
118
372020
2520
Toutes nos ressentis sont des constructions actives
06:14
arising from within,
119
374540
1360
qui émanent de l’intérieur,
06:15
and there's a continuity here,
120
375900
1560
et il y a un fil continu
06:17
between normal perception and what we typically call hallucination,
121
377460
4240
entre une perception normale et ce que nous appelons hallucination
06:21
where, for example, people might see or hear things that others don't.
122
381740
4800
où, par exemple, les gens peuvent voir ou entendre des choses
que d’autres ne voient ou n’entendent pas.
06:26
But in normal perception,
123
386580
1800
Mais dans une perception normale,
06:28
the control is just as important as the hallucination.
124
388380
4400
le contrôle est aussi important que l’hallucination.
06:32
Our perceptual experiences are not arbitrary.
125
392820
3000
Nos ressentis de perception ne sont pas arbitraires.
06:35
The mind doesn't make up reality.
126
395860
2520
L’esprit ne fabrique par la réalité.
06:38
While experienced colors need a mind to exist,
127
398940
4680
Si les couleurs ressenties ont besoin d’un esprit pour exister,
06:43
physical things, like the coffee cup itself,
128
403660
2640
les objets physiques, comme la tasse elle-même,
06:46
exist in the world whether we're perceiving them or not --
129
406300
2800
existent dans le monde, que nous les percevions ou pas.
06:49
it’s the way in which these things appear in our conscious experience
130
409140
4440
C’est la manière dont ces choses apparaissent dans notre ressenti conscient
06:53
that is always a construction,
131
413620
1880
qui est une construction,
06:55
always a creative act of brain-based best guessing.
132
415500
3480
un acte créatif d’une supposition émise par notre cerveau.
07:00
And because we all have different brains,
133
420060
2520
Comme nous avons tous un cerveau différent,
07:02
we will each inhabit our own distinctive, personalized inner universe.
134
422580
5320
nous habitons notre propre univers interne, distinct et personnalisé.
07:09
Now I've digressed quite far from where we began,
135
429220
2400
J’ai fait une grande digression
07:11
so let me end by returning to the self,
136
431620
2480
et j’aimerais à présent revenir au sujet du moi,
07:14
to the experience of being you,
137
434140
2040
au vécu d’être vous,
07:16
or being me.
138
436220
1120
ou d’être moi.
07:17
They key idea here is that the experience of being a self,
139
437980
3360
L’idée centrale est que le vécu d’être soi,
07:21
being any self,
140
441380
1160
d’être un «moi»,
07:22
is also a controlled hallucination, but of a very special kind.
141
442580
4120
est aussi une hallucination contrôlée, mais d’une manière très particulière.
07:27
Instead of being about the external world,
142
447020
2760
Au lieu de se rapporter au monde extérieur,
07:29
experiences of selfhood are fundamentally about regulating and controlling the body.
143
449820
6600
les vécus d’être soi sont fondamentalement relatifs
à la régulation et à la gestion du corps.
07:37
And what’s important here is that the experiences of being a self
144
457300
4200
L’important est donc que ces vécus d’être un moi
07:41
are composed of many different parts
145
461500
1760
sont composés de diverses parties
07:43
that normally hang together in a unified way,
146
463260
3080
qui forment habituellement une unité,
07:46
but which can come apart in, for instance, psychological or neurological disorders,
147
466380
6000
mais qui peut s’effondrer lors de troubles psychologiques ou neurologiques.
07:52
There are experiences of being a continuous person over time,
148
472420
4080
Il y a les vécus d’être une personne continue dans le temps,
07:56
with a name and a set of memories
149
476500
2000
avec un nom et un ensemble de souvenirs
07:58
shaped by our social and cultural environments.
150
478540
3040
formés par nos environnements sociaux et culturels.
08:02
There are experiences of free will,
151
482180
2800
Il y a les vécus du libre arbitre,
08:05
of intending to do something,
152
485020
1440
de l’intention d’agir,
08:06
or of being the cause of things that happen.
153
486500
2080
ou d’être la cause d’événements qui surviennent.
08:09
There are experiences of perceiving the world
154
489220
2240
Ce sont des expériences de perception du monde
08:11
from a particular perspective, a first-person point of view.
155
491460
3640
au départ d’une perspective unique, le point de vue d’un je narratif.
08:15
And then, there are deeply embodied experiences,
156
495860
3400
Ensuite, il y a les vécus profondément corporels,
08:19
for instance of identifying with an object in the world
157
499260
2800
comme le fait de s’identifier avec un objet dans le monde,
08:22
that is my body.
158
502100
1160
qui est son propre corps.
08:23
These hands, they're my hands.
159
503300
2160
Ces mains sont mes mains.
08:25
And then, of emotion and mood.
160
505940
2680
Et ensuite, les émotions et l’humeur.
08:28
And at the deepest-lying, most basal levels,
161
508660
3200
Aux niveaux les plus profonds, les plus basiques,
08:31
experiences of simply being a living body,
162
511860
4160
le ressenti d’être un corps qui vit,
08:36
of being alive.
163
516060
1360
d’être vivant.
08:38
Now my contention is that all these aspects of being a self
164
518540
4400
Mon affirmation est que tous ces aspects d’être un moi
08:42
are all perceptual predictions of various kinds.
165
522980
3600
sont des prédictions de perception de diverses sortes.
08:46
And the most basic aspect of being any self
166
526620
2840
Et l’aspect le plus fondamental d’être un moi
08:49
is that part of perception
167
529500
1720
est cette partie de la perception
08:51
which serves to regulate the interior of the body to keep you alive.
168
531260
5320
qui régule l’intérieur de notre corps pour nous garder vivants.
08:57
And when you pull on this thread, many things follow.
169
537460
3200
Et en avançant dans cette logique, beaucoup de choses en découlent.
09:01
Everything that arises in consciousness is a perceptual prediction,
170
541500
4400
Tout ce qui émerge dans la conscience est une prédiction de perception,
09:05
and all of our conscious experiences,
171
545900
2600
et tous nos ressentis conscients,
09:08
whether of the self or of the world,
172
548540
2560
qu’il s’agisse du moi ou du monde,
09:11
are all deeply rooted in our nature, as living machines.
173
551100
4320
sont profondément ancrés dans notre nature, en tant que machines vivantes.
09:16
We experience the world around us and ourselves within it,
174
556020
4400
Nous ressentons le monde qui nous entoure et nous dans cet univers,
09:20
with, through and because of our living bodies.
175
560420
4200
avec, à travers et grâce à nos corps en vie.
09:25
So who are you, really?
176
565980
1520
Alors, qui êtes-vous vraiment ?
09:28
Think of yourself as being like the color red.
177
568860
3280
Imaginez que vous êtes comme la couleur rouge.
09:32
You exist, but you might not be what you think you are.
178
572860
4080
Vous existez, mais pourriez ne pas être ce que vous pensez être.
09:38
Thank you.
179
578820
1520
Merci.
09:40
David Biello: A stand-in for the audience. Anil Seth: David is clapping.
180
580380
3480
David Biello : Le public vous applaudit. Anil Seth : David applaudit.
09:43
(Laughter)
181
583900
1280
(Rires)
09:45
AS: That makes me feel better. DB: It was great. Thank you for that.
182
585220
4120
AS : Je me sens mieux à présent.
DB : C’était super, merci.
09:49
I have to say that the thought of my brain floating around in a bony prison
183
589380
3720
J’avoue que l’idée que mon cerveau flotte dans une prison d’os
09:53
is a disturbing one.
184
593140
2000
me perturbe un peu.
09:55
But how do all those billions and trillions of neurons
185
595180
6680
Mais comment ces milliards de neurones
10:01
give rise to this experience of consciousness,
186
601860
4080
peuvent-ils permettre l’émergence du ressenti de la conscience,
10:05
in your view?
187
605940
1160
selon vous ?
10:07
AS: First, I mean, consciousness is experience,
188
607500
2400
AS : D’abord, pour moi, la conscience est le ressenti.
10:09
so I'd use the two terms synonymously there.
189
609940
3080
Donc, j’utilise les deux mots comme synonymes.
10:13
It's the same thing.
190
613060
2840
C’est la même chose.
10:15
And by the way,
191
615940
1480
Et en fait,
10:17
the idea of your brain wobbling around in its bony vault of a skull
192
617420
4560
l’idée du cerveau qui rebondit dans la cavité osseuse du crâne
10:21
is presumably less disturbing than it doing something else
193
621980
2760
est moins perturbante que d’autres activités
10:24
and doing something outside of the skull. (Laughter)
194
624780
2800
qu’il pourrait avoir en dehors du crâne. (Rit)
10:27
That would be the more worrying situation.
195
627580
2120
Ce serait bien plus inquiétant.
10:29
But the question, of course, this is the big question.
196
629740
2640
Mais c’est la grande question, évidemment.
10:32
You start off with a simple question, "How does it all happen?"
197
632420
2960
On démarre avec une question : Comment cela survient-il ?
10:35
And this is why there is a long way to go here.
198
635420
3920
Et c’est pour ça que la route est longue avant d’arriver.
10:40
And there are, I think, two ways to approach this mystery.
199
640060
2760
Je pense qu’il y a deux façons d’aborder ce mystère.
10:42
So the fundamental question here is ...
200
642860
2320
La question fondamentale, c’est :
10:45
What is it about a physical mechanism,
201
645820
2320
quels sont les mécanismes physiques,
10:48
in this case, a neurobiological mechanism,
202
648180
3000
ici, les mécanismes neurobiologiques,
10:51
86 billion neurons and trillions of connections,
203
651180
3560
86 milliards de neurones et des milliards de connexions,
10:54
that can generate any conscious experience?
204
654740
2840
capables de générer un ressenti de conscience ?
10:57
Put that way, it seems extremely hard,
205
657580
1960
Énoncé ainsi, cela semble très difficile,
10:59
because conscious experiences seem to be the kinds of things
206
659580
3160
car le ressenti de la conscience semble être le genre de choses
11:02
that cannot be explained in terms of mechanisms,
207
662780
2880
qui ne peuvent pas être expliquées en termes de mécanismes,
11:05
however complicated those mechanisms might be.
208
665660
2280
aussi complexes ceux-ci soient-ils.
11:07
This is the intuition that David Chalmers famously called "the hard problem."
209
667980
5000
C’est l’intuition que David Chalmers a appelée
«le problème difficile de la conscience ».
11:13
But my approach, as hinted at in this talk,
210
673020
3080
Mais mon approche, telle que je viens de l’évoquer,
11:16
is that we can characterize different properties of consciousness --
211
676100
4680
c’est que nous pouvons caractériser différentes propriétés de la conscience,
11:20
what a perceptual experience is like,
212
680820
1960
ce qu’un ressenti de perception est,
11:22
what an experience of self is like,
213
682820
2920
ce qu’un ressenti de moi est,
11:25
what the difference between sleep and wakefulness is like.
214
685740
3440
ce qu’est la différence entre le sommeil et l’éveil.
11:29
And in each of those cases, we can tell a story
215
689180
2280
Et dans chaque cas, on peut relater quelque chose
11:31
about how neural mechanisms explain those properties.
216
691460
4640
sur les mécanismes neuraux qui expliquent ces propriétés.
11:36
In the part of the story we've touched on today,
217
696460
3480
Dans la partie du récit que nous avons évoquée,
11:39
it's all about predictive processing,
218
699980
1840
tout tourne autour du traitement de la prédiction.
11:41
so the idea is that the brain really does encode within it
219
701820
3600
Le cerveau encoderait dans ses tissus
11:45
a sort of predictive generative model of the causes of signals from the world,
220
705460
4680
une sorte de modèle générateur de prédiction
sur les causes d’un signal émis par le monde extérieur
11:50
and it's the content of those predictions
221
710180
2280
et le contenu de ces prédictions
11:52
that constitutes our perceptual experience.
222
712460
3360
serait la partie constitutive de notre ressenti perceptif.
11:55
And as we sort of develop and test explanations like this,
223
715820
4520
Et quand on développe et met à l’épreuve de telles explications,
12:00
the intuition is that this hard problem
224
720380
2640
l’idée que ce problème complexe
12:03
of how and why neurons, or whatever it is, in the brain,
225
723060
3600
de comment et pourquoi les neurones, ou quoi que ce fut, dans le cerveau,
12:06
can generate a conscious experience,
226
726660
1760
puissent générer un ressenti conscient,
12:08
won't be solved directly -- it will be dissolved.
227
728460
2840
ne puisse se résorber directement, eh bien, se résorbe.
12:11
It will gradually fade away and eventually vanish
228
731340
3520
Elle va s’estomper progressivement pour finalement disparaître
12:14
in a puff of metaphysical smoke.
229
734900
1680
dans une fumée métaphysique.
12:16
DB: Katarina wants to talk about anesthesia,
230
736580
4320
DB : Katarina souhaite parler de l’anesthésie,
12:20
that experience of having your consciousness kind of turned off.
231
740900
4480
l’expérience d’avoir la conscience comme éteinte volontairement.
12:25
What do we know about this ability to switch a person off,
232
745420
3000
Que savons-nous de la capacité d’éteindre une personne,
12:28
in a matter of seconds?
233
748420
1600
en quelques secondes ?
12:30
What is actually happening there, do you think?
234
750020
2640
Que se passe-t-il, selon vous ?
12:33
AS: Firstly, I think it's one of the best inventions of humanity, ever.
235
753140
4520
AS : D’abord, je pense que c’est une des meilleures inventions de l’humanité.
12:37
The ability to turn people into objects and then back again into people --
236
757700
4160
La capacité à faire des humains des objets et de les réveiller humains.
12:41
I wouldn't want to live at a time in history without it.
237
761900
2960
Je ne souhaiterais pas vivre à une époque où ça n’existait pas.
12:44
Whenever we have this, like,
238
764860
1360
Chaque fois que j’entends :
12:46
"Wouldn't it be nice to live in Greek antiquity or something,
239
766260
2880
«Ça devait être cool de vivre dans l’Antiquité grecque,
12:49
when people swum around, philosophizing, drinking wine?"
240
769180
2840
quand on se baladait en philosophant et en buvant du vin. »
12:52
Yes, but what about anesthesia?
241
772020
2240
Certes, mais sans l’anesthésie alors ?
12:54
(Laughs)
242
774260
1000
(Rit)
12:55
That's my response.
243
775300
1240
Ma réponse, donc.
12:56
It does work, this is a fantastic thing.
244
776580
2040
Ça fonctionne et c’est fabuleux.
12:58
How?
245
778660
1160
Pourquoi ?
12:59
Here's an enormous opportunity for consciousness science,
246
779860
2840
C’est une opportunité incroyable pour les sciences de la conscience
13:02
because we know what anesthetics do at a very local level.
247
782740
4840
car nous savons comment agit l’anesthésie au niveau local.
13:07
We know how they act on different molecules and receptors in the brain.
248
787580
5920
Nous savons comment ça agit sur les molécules et récepteurs du cerveau.
13:13
And of course, we know what ultimately happens,
249
793500
3200
Et naturellement, nous savons ce qui survient en conséquence :
13:16
which is that people get knocked out.
250
796740
2000
la perte de conscience des gens.
13:18
And by the way, it's not like going to sleep.
251
798740
2120
Et cela n’a rien à voir avec le sommeil.
13:20
Under general anesthesia, you're really not there.
252
800860
2520
Sous anesthésie générale, vous n’êtes pas là.
13:23
It's an oblivion comparable with the oblivion before birth
253
803420
4480
C’est un état du néant comparable à celui avant la naissance
13:27
or after death.
254
807900
1760
ou après la mort.
13:30
So the real question is, "What is happening?"
255
810740
2320
La bonne question est donc : «Que se passe-t-il ? »
13:33
How is the local action of anesthetics affect global brain dynamics
256
813060
5840
Comment l’action locale de l’anesthésie
affecte-t-elle la dynamique globale du cerveau
13:38
so as to explain this disappearance of consciousness?
257
818940
3800
pour expliquer la disparition de la conscience ?
13:42
And to cut a long story very short, what seems to be happening
258
822780
4800
Et pour faire bref, ce qui semble survenir,
13:47
is that the different parts of the brain
259
827620
3000
c’est que diverses parties du cerveau
13:50
become functionally disconnected from each other,
260
830620
3200
se déconnectent fonctionnellement les unes des autres,
13:53
and by that I mean, they speak to each other less.
261
833860
3800
et je veux dire par cela qu’elles communiquent moins entre elles.
13:57
The brain is still active,
262
837660
1920
Le cerveau est toujours actif,
13:59
but communication between brain areas becomes disrupted in specific ways.
263
839620
5320
mais la communication entre les régions du cerveau est perturbée
de façons spécifiques.
14:04
and there’s still a lot we need to learn
264
844980
1920
Il nous reste beaucoup à apprendre
14:06
about the precise ways in which this disconnection happens --
265
846900
3840
sur ces façons spécifiques qui font survenir cette déconnexion.
14:10
what are the signatures of the loss of consciousness?
266
850780
3320
Quelles sont les signatures de la perte de conscience ?
14:15
There are many different kinds of anesthetic,
267
855020
2240
Il y de nombreuses sortes d’anesthésies,
14:17
but whichever variety of anesthetic you take,
268
857300
2120
mais quelle que soit celle qu’on prend,
14:19
when it works, this is what you see.
269
859420
2040
quand elle agit, c’est ce qu’on constate.
14:21
DB: I think some folks such as Jasmine and more anonymous folks
270
861500
3920
DB : Je pense que nous sommes nombreux comme Jasmine, et d’autres personnes,
14:25
are troubled by this idea that what I call red
271
865420
5160
à être perturbés par l’idée que ce j’appelle rouge
14:30
might be a different color for you and for everyone else.
272
870580
3680
puisse être une autre couleur pour les autres.
14:34
Is there a way of knowing if we're all hallucinating reality
273
874300
5080
Y a-t-il un moyen de savoir si nous hallucinons la réalité
14:39
in a similar way or not?
274
879420
2720
de manière similaire ou pas ?
14:42
AS: Again, this is a lovely topic,
275
882620
1960
AS : C’est une très bonne question
14:44
and it really gets to the heart of how I've been thinking
276
884620
4200
qui touche au cœur même de ce que je pense
14:48
about perception,
277
888860
1160
au sujet de la perception,
14:50
because one of the aspects of perception that I think is easy to overlook
278
890020
3480
car un des aspects de la perception qui est aisément négligé, selon moi,
14:53
is that the contents of perception seem real, right?
279
893500
5520
est que le contenu de cette perception semble réel, n’est-ce pas ?
14:59
The redness of this coffee cup,
280
899020
1760
La couleur rouge de la tasse
15:00
it seems to be a mind-independent,
281
900820
2920
semble être indépendante de notre esprit,
15:03
really existing property of the external world.
282
903740
3200
ça semble être une propriété qui existe dans le monde réel.
15:07
Now, certain aspects of this coffee cup are mind-independent.
283
907340
3840
Certains aspects de cette tasse sont certainement indépendants de l’esprit.
15:11
Its solidity is mind-independent.
284
911180
2040
Sa solidité, par exemple.
15:13
If I throw it at you, David, across the Atlantic,
285
913260
3160
Si je vous la lance, David, à travers l’Atlantique,
15:16
and you don't see it coming, it will hit you in the head, it will hurt.
286
916420
3480
que vous ne l’aperceviez pas, et qu’elle vous percute, vous aurez mal.
15:19
That doesn't depend on you seeing it,
287
919940
1880
Cela ne dépend pas de votre vision
15:21
but the redness does depend on a mind.
288
921820
3080
alors que sa couleur dépend de votre esprit.
15:25
And to the extent that things depend on a mind,
289
925220
3400
Dès lors que des choses sont dépendantes de l’esprit,
15:28
they're going to be different for each of us.
290
928660
3160
elles seront forcément différentes pour chacun de nous.
15:31
Now, they may not be that different.
291
931820
2120
Peut-être pas foncièrement différentes.
15:33
In philosophy, there's this argument of the inverted spectrum,
292
933940
4480
En philosophie, il y a une expérience sur le spectre inversé.
15:38
so if I see red, is that the same as you seeing green or blue, let's say?
293
938420
4480
Si je vois du rouge, est-ce pareil que vous en train de voir du vert ou du bleu ?
15:42
And we might never know.
294
942940
1320
Impossible de savoir.
15:44
I don't have that much truck with that particular thought experiment.
295
944300
3440
J’ai finalement peu d’affinité avec cette expérience théorique.
15:47
Like many thought experiments, it pushes things a little bit too far.
296
947740
4400
Comme de nombreuses expériences de pensée, ça va trop loin.
15:52
I think the reality is that we see things like colors,
297
952180
3760
Je pense que la réalité est que nous voyons des choses comme les couleurs,
15:55
maybe we see them similar, but not exactly the same,
298
955980
3920
peut-être les voyons-nous de façon similaire mais pas exactement semblable,
15:59
and we probably overestimate the degree of similarity
299
959900
4680
et nous surestimons sans doute le degré de similitude
16:04
between our perceptual worlds,
300
964620
1440
entre deux mondes de perception
16:06
because they're all filtered through language.
301
966100
3200
car ils sont filtrés par la langue.
16:09
I mean, I just used the word “red,” and there are many shades of red;
302
969300
3240
J’utilise le mot rouge mais il en existe beaucoup de nuances.
16:12
painters would say, "What red?"
303
972580
1920
Un peintre demandera : «Quel rouge ?»
16:14
I remember when I was decorating my house,
304
974500
2080
Je me souviens quand j’ai fait décorer ma maison,
16:16
it's like, "I want to paint the walls white."
305
976580
2400
je voulais les murs peints en blanc.
16:19
How many shades of white are there?
306
979020
2560
Combien de nuances de blanc pensez-vous qu’il existe ?
16:21
This is too many.
307
981620
1680
Beaucoup trop.
16:23
And they have weird names, which doesn't help.
308
983340
2160
De surcroît, elles ont toutes un nom étrange.
16:25
We will overestimate the similarity of our universe.
309
985540
3920
De la même façon, nous surestimons la similitude entre nos univers.
16:29
And I think it's a really interesting question,
310
989460
2360
C’est une question vraiment intéressante
16:31
how much they do indeed diverge.
311
991820
1800
de déterminer l’amplitude de leur divergence.
16:33
You will probably remember this famous dress,
312
993620
2720
Vous souvenez-vous de cette robe célèbre,
16:36
this photo of a dress half the world saw as blue and black,
313
996380
3680
la photo d’une robe que la moitié du monde voyait bleue et noire,
16:40
and the other half saw as white and gold.
314
1000060
2640
et l’autre moitié du monde la voyait blanche et dorée.
16:42
AS: You're a white and gold person? DB: Yeah, yeah.
315
1002700
4680
AS : Vous êtes plutôt blanc et doré ? DB : Oui.
16:47
AS: I'm a blue and black person.
316
1007380
1600
AS : Je suis plutôt bleu et noir.
16:49
I was right, the real dress is actually blue and black.
317
1009020
2640
J’avais raison, la vraie robe est bleue et noire.
16:51
(Laughter)
318
1011660
1200
(Rires)
16:52
AS: Never mind ...
319
1012860
1800
AS : Peu importe.
16:55
DB: We could argue about that.
320
1015180
2240
DB : Nous pourrions en débattre.
16:57
AS: We couldn't. It really is blue and black.
321
1017460
2240
AS : Non, elle est vraiment bleue et noire.
16:59
I talked to the dress designer. The actual one is blue and black.
322
1019700
3320
J’en ai parlé tout le designer, la vraie robe est bleue et noire.
17:03
There's no argument there.
323
1023020
1920
C’est imparable.
17:05
But the thing that made that so weird
324
1025980
2920
Mais ce qui rend tout ça étrange,
17:08
is that it's not that we vaguely see it as one color or the other,
325
1028940
4600
c’est que nous ne discernons pas vaguement une couleur ou l’autre,
17:13
we really see that blueness and blackness or whiteness and goldness
326
1033540
3760
on voit vraiment le bleu, le noir, le blanc et l’or
17:17
as really existing in the world.
327
1037300
1640
comme s’ils existaient dans le monde.
17:18
And that was an interesting lever
328
1038940
2800
Ce fut un levier intéressant
17:21
into a recognition of how different our perceptual universes might be.
329
1041780
5000
dans la reconnaissance de combien nos univers de perception peuvent diverger.
17:26
And in fact, a study we're doing at Sussex over the next year or two,
330
1046820
3840
Nous allons réaliser une étude dans le Sussex durant un ou deux ans,
17:30
we're trying to characterize the amount of perceptual diversity
331
1050660
5680
pour tenter de caractériser l’amplitude de la diversité de perception
17:36
that is just there to be discovered.
332
1056380
3120
qui attend d’être découverte.
17:39
We're usually only aware of it at the extremes,
333
1059500
2280
Nous en sommes habituellement conscients dans ses formes extrêmes,
17:41
people call things like neurodiversity,
334
1061820
2640
ce qu’on appelle la neurodiversité
17:44
where people have experiences that are so different,
335
1064500
2880
quand des personnes ont des expériences si différentes
17:47
they manifest in different behaviors.
336
1067380
2240
et les manifestent dans des comportements différents.
17:49
But I think there's this, sort of, big dark matter
337
1069660
2480
Je suis convaincu qu’il y a une matière noire
17:52
of individual diversity in perception that we know very little about,
338
1072140
3400
de la diversité individuelle de la perception dont nous ignorons tout.
17:55
but it's there.
339
1075540
1200
Mais elle existe.
17:56
DB: I'm glad we could put to rest a major internet debate
340
1076740
3680
DB : Je suis ravi que nous puissions clôturer un débat massif sur Internet
18:00
and come down firmly on the blue and black side of things.
341
1080460
4880
et définir clairement le bleu et le noir des choses.
18:05
Daniella wants to know,
342
1085380
1240
Daniella demande ceci :
18:06
"Could you explain how memory is involved in this perception of a self?"
343
1086660
4880
«Pouvez-vous expliquer comment la mémoire contribue à la perception du moi ? »
18:13
AS: Just as there are many different aspects of selfhood,
344
1093060
3160
AS : Tout comme il y a divers aspects de l’identité propre,
18:16
there are many different kinds of memory, too.
345
1096260
2440
il y a différentes sortes de mémoire.
18:18
I think colloquially, in everyday language,
346
1098740
2400
Je pense que verbalement, dans le langage quotidien,
18:21
when we talk about memory,
347
1101140
1360
quand on évoque la mémoire,
18:22
we often talk about autobiographical memory or episodic memory,
348
1102500
5320
on parle de mémoire autobiographique ou épisodique, comme :
18:27
like "What did I have for breakfast?"
349
1107860
1840
«Qu’ai-je pris au petit-déjeuner ? »
18:29
"When did I last go for a walk?"
350
1109740
2800
«Quand me suis-je promené récemment ? »
18:32
These kinds of things.
351
1112540
1440
Ce genre de choses.
18:34
"When did I last have the pleasure of talking to David?"
352
1114020
3320
«Quelle est la dernière fois que j’ai pu parler à David ? »
18:37
These are the memories of things that pertain to me
353
1117340
3240
Ce sont des souvenirs de choses qui s’imprègnent en moi
18:40
as a continuous individual over time.
354
1120620
3120
en tant qu’individu continu dans le temps.
18:43
That's one way in which memory plays into self,
355
1123740
3240
C’est une des façons qu’utilise la mémoire pour tisser le moi,
18:47
and that part of memory can go away, and self remains --
356
1127020
4640
et cette partie-là de la mémoire peut disparaître, mais le moi persiste
18:51
back to the earlier point.
357
1131700
1240
comme une entité sans passé.
18:52
There's a famous case I talk about in the book,
358
1132940
2240
Je parle d’un cas célèbre dans mon libre,
18:55
of a guy called Clive Wearing,
359
1135220
1920
un type qui s’appelle Clive Wearing,
18:57
who had a brain disease, an encephalopathy,
360
1137180
4480
qui a souffert d’une maladie du cerveau, une encéphalopathie,
19:01
which basically obliterated his ability to lay down new autobiographical memories.
361
1141700
6600
qui a éliminé sa capacité à ancrer des souvenirs autobiographiques neufs.
19:08
He lost his hippocampus,
362
1148660
1840
Il a perdu son hippocampe,
19:10
which is a brain region very important for this function.
363
1150540
3480
la région du cerveau cruciale pour cette fonction.
19:14
His wife described it as him living in a permanent present tense,
364
1154020
5160
Son épouse le décrit comme vivant dans un présent permanent,
19:19
of between seven to 30 seconds.
365
1159220
2800
qui dure entre 7 et 30 secondes.
19:22
And then, everything was new.
366
1162060
1400
Ensuite, tout est neuf à nouveau.
19:23
It's very, very difficult to put yourself in the shoes of somebody like that.
367
1163500
3720
C’est très difficile de se mettre à la place de telles personnes.
19:27
But other aspects of his self remained.
368
1167220
3200
Toutefois, d’autres pans de son moi ont subsisté.
19:30
But then, there are all sorts of other aspects of memory
369
1170980
2920
Mais il y a toutes sortes d’aspects de la mémoire
19:33
that probably also play into what it is to be you or to be me.
370
1173940
5720
qui entre probablement en jeu dans ce qui fait qui nous sommes.
19:39
We have semantic memory.
371
1179700
2960
Nous avons la mémoire sémantique.
19:42
We just know things,
372
1182700
1240
Nous savons des choses,
19:43
like we know what the capital of France is, who the president is,
373
1183940
4520
comme quelle est la capitale de la France ou qui est le président -
19:48
I hope so, I don't know.
374
1188500
2080
enfin, je l’espère.
19:50
Sometimes, that's a good thing. Sometimes, that's not a good thing.
375
1190980
3160
Parfois, c’est une bonne chose, mais parfois, non.
19:54
And all of these things that get encoded in memory
376
1194180
3280
Et tous ces éléments qui sont encodés dans la mémoire
19:57
shape our self too.
377
1197460
2320
modulent aussi notre moi.
19:59
And then finally, there's perceptual memory.
378
1199780
3640
Enfin, il y a la mémoire de la perception.
20:03
It's not that experience is like a video recording that we can replay,
379
1203420
4720
Ça ne ressemble pas à une vidéo qu’on enregistre et rejoue.
20:08
but everything we experience changes the way we perceive things in the future,
380
1208180
4400
Mais tous nos ressentis transforment la manière dont nous percevons le monde
20:12
and the way we perceive things is also, in my view,
381
1212620
2400
et cette façon de percevoir les choses est aussi, selon moi,
20:15
part of what it is to be a self.
382
1215060
1840
un pan constitutif de notre moi.
20:16
Actually, I just want to say,
383
1216940
1480
Je voudrais dire
20:18
one of the really interesting questions here,
384
1218460
2120
que la question vraiment intéressante ici,
20:20
and one of the things we're working on --
385
1220580
3120
et on fait des recherches sur le sujet -
20:23
Imagine a typical day.
386
1223700
4000
imaginez une journée typique.
20:27
You go through your typical day,
387
1227740
2720
Vous traversez votre journée typique,
20:30
you're experiencing a continuous stream of inputs.
388
1230500
2640
et vous ressentez un flux continu d’éléments entrants.
20:33
Now you blink, of course, and so on, but more or less,
389
1233140
2800
Certes, vous clignez des yeux mais, quoi qu’on en dise,
20:35
there's this continuous stream of inputs.
390
1235980
2040
c’est un flux continu d’informations.
20:38
Yet when we remember a day,
391
1238020
2160
Pour autant, quand nous nous souvenons de notre journée,
20:40
it's usually in chunks, these autobiographical chunks:
392
1240220
3640
c’est souvent en morceaux, en parcelles autobiographiques :
20:43
"I did this, I did that, I did the other, this happened."
393
1243900
3000
«J’ai dit ça, j’ai fait ceci et ça, ceci est arrivé. »
20:46
So a really important question
394
1246940
2240
Dès lors, la question cruciale est :
20:49
is, "How does this chunking process happen?"
395
1249180
3400
«Comment ce processus de parcellisation a-t-il lieu ? »
20:52
"How does the brain extract meaningful episodes
396
1252620
3720
«Comment le cerveau extrait-il les épisodes qui ont du sens
20:56
from a relatively continuous flow of data?"
397
1256380
3560
d’un flux relativement continu de données ?»
20:59
And it's kind of disturbing,
398
1259980
1520
C’est plutôt perturbant
21:01
how little of any given day we remember.
399
1261540
3240
du nombre vraiment petit de choses dont nous nous souvenons.
21:04
So it's a very selective process,
400
1264820
2000
C’est donc un processus très sélectif,
21:06
and that's something that I think is going to be useful
401
1266820
2640
et c’est une chose qui sera utile, je pense,
21:09
not only for basic neuroscience,
402
1269500
1600
non seulement pour les neurosciences
21:11
but, for instance, in helping people with memory loss and impairments,
403
1271100
3960
mais aussi pour aider les gens qui ont des troubles de la mémoire,
21:15
because you could, for instance, have a camera,
404
1275060
2200
car on pourrait, par exemple, avoir une caméra,
21:17
and then, you could predict what aspects of their day would constitute a memory,
405
1277300
3880
et ensuite prédire quels aspects de leurs journées constituent la mémoire
21:21
and that can be very, very useful for them and for their carers.
406
1281180
3200
et cela pourrait être très utile pour eux-mêmes et leurs soignants.
21:24
DB: The brain clearly has a good editor.
407
1284420
3640
DB : Le cerveau est manifestement un bon centre de tri.
21:28
You call us, people, "feeling machines" in your book.
408
1288100
5080
Vous nous appelez dans votre livre des machines qui ressentent.
21:33
Care to expand on that?
409
1293180
2320
Pourriez-vous dérouler votre pensée ?
21:35
AS: Yeah, that's right.
410
1295540
1200
AS : Eh bien, nous ne sommes pas des ordinateurs cognitifs,
21:36
Well, we're not cognitive computers, we are feeling machines.
411
1296740
3280
mais des machines qui ressentent.
21:40
And I think this is true at the level of making decisions,
412
1300020
3360
C’est vrai au niveau de la prise de décision,
21:43
but for me, it's really at the heart of how to understand life,
413
1303420
5600
mais selon moi, c’est au cœur de la façon dont nous comprenons la vie,
21:49
mind and consciousness.
414
1309020
2160
l’esprit et la conscience.
21:51
And this, really, is the idea that --
415
1311180
4000
Et cela est vraiment l’idée que -
21:55
In consciousness science, we tended to think things like vision --
416
1315180
3960
Dans les sciences de la conscience,
on pense souvent que la vision, par exemple -
21:59
Vision as being the royal road to understanding consciousness.
417
1319180
3400
est la voie royale pour comprendre la conscience.
22:02
Vision is easy to study, and we're very visual creatures.
418
1322620
2720
La vision est facile à étudier et nous sommes des créatures visuelles.
22:05
But fundamentally,
419
1325820
1200
Mais fondamentalement,
22:07
brains evolved and develop and operate from moment to moment
420
1327020
4080
le cerveau a évolué, s’est développé et opère d’un moment à l’autre
22:11
to keep the body alive,
421
1331140
1480
pour garder le corps en vie,
22:12
always in light of this deep physiological imperative
422
1332620
3640
toujours à la lumière de cet impératif physiologique profond
22:16
to help the organism persist in remaining an organism,
423
1336300
6000
d’aider l’organisme à subsister en tant qu’organisme vivant,
22:22
in remaining alive.
424
1342340
1720
à rester en vie.
22:24
And that fundamental role of brains,
425
1344100
5640
Et ce rôle fondamental du cerveau,
22:29
that's what, in my view, gave rise to any kind of perception.
426
1349780
4760
c’est ce qui a, selon moi, donné naissance à toutes les formes de perception.
22:34
In order to regulate something,
427
1354540
1560
Pour réguler quelque chose,
22:36
you need to be able to predict what happens to it.
428
1356100
2480
on doit pouvoir prédire ce qui lui arrive.
22:38
It's this whole apparatus of prediction and prediction error
429
1358620
3520
Tout cet appareil de prédiction et de prédiction des erreurs
22:42
that undergirds all of our perceptual experiences,
430
1362180
2400
qui sous-tend tous nos ressentis de perception,
22:44
including the self,
431
1364580
1400
y inclus le moi,
22:46
has its origin in this role
432
1366020
2800
trouve son origine dans ce rôle
22:48
that's tightly coupled to the physiology of the body.
433
1368820
2920
étroitement associé à la physiologie du corps.
22:51
And that's why, I think, we're feeling machines,
434
1371740
2320
C’est pour ça que nous sommes des machines qui ressentent,
22:54
we're not just computers
435
1374060
1960
pas de simples ordinateurs
22:56
that happen to be implemented on meat machines.
436
1376060
3360
qui fonctionneraient sur des machines charnelles.
22:59
DB: Thank you, Anil, for chatting with us today.
437
1379460
2920
DB : Merci Anil d’avoir pris le temps de parler avec nous.
23:02
AS: Really enjoyed it.
438
1382380
1160
AS : Avec plaisir, merci, David.
23:03
AS: Thanks a lot, David. DB: Thank you.
439
1383580
1840
DB : Merci.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7