Anil Seth: How your brain invents your "self" | TED

108,222 views ・ 2021-11-24

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Transcriber:
0
0
7000
Tradutor: Joana Rodrigues Revisora: Margarida Ferreira
00:04
Who am I? Who is anyone, really?
1
4700
2960
00:09
When I wake up in the morning and open my eyes,
2
9100
2240
00:11
a world appears.
3
11340
1480
00:12
These days, since I've hardly been anywhere,
4
12860
2080
Quem sou eu? Quem é quem, na verdade?
00:14
it's a very familiar world:
5
14980
1360
00:16
there's the wardrobe beyond the end of the bed,
6
16380
2400
Quando acordo de manhã e abro os olhos,
00:18
the shuttered windows and the shrieking of seagulls,
7
18780
2840
aparece um mundo.
00:21
which drives Brighton residents like me absolutely crazy.
8
21660
3560
Ultimamente, como não vou a lado nenhum,
é um mundo muito conhecido:
há o guarda-roupa ao fundo da cama,
00:26
But even more familiar is the experience of being a self,
9
26100
3600
as janelas com os estores fechados e o som das gaivotas,
00:29
of being me,
10
29740
1520
que enlouquecem os moradores de Brighton, como eu.
00:31
that glides into existence at almost the same time.
11
31260
3840
Mas ainda mais familiar é a experiência de ter um ego,
00:35
Now this experience of selfhood is so mundane
12
35620
3600
de ser eu,
00:39
that its appearance, usually, just happens without us noticing at all.
13
39260
5320
que entra em cena quase no mesmo instante.
Esta experiência de ter uma consciência própria é tão normal
00:45
We take our selves for granted,
14
45100
2240
00:47
but we shouldn't.
15
47340
1160
que acontece, muitas das vezes, sem sequer nos apercebermos.
00:49
How things seem is not how they are.
16
49220
2840
00:52
For most of us, most of the time,
17
52700
1600
Damos isso como garantido,
00:54
it seems as though the self, your self, is an enduring and unified entity --
18
54300
6160
mas não devíamos.
As coisas não são o que parecem.
01:00
in essence, a unique identity.
19
60500
2320
Para a maioria de nós, na maior parte do tempo,
01:03
Perhaps it seems as though the self is the recipient
20
63220
2560
parece que o nosso ego é uma unidade consistente e duradoura,
01:05
of wave upon wave of perceptions,
21
65820
3200
em essência, uma identidade própria.
01:09
as if the world just pours itself into the mind
22
69020
3120
Talvez pareça que o ego vai recebendo
01:12
through the transparent windows of the senses.
23
72180
2600
01:14
Perhaps it seems as though the self is the decision-maker in chief,
24
74780
4760
perceções em vagas após vagas,
como se o mundo estivesse a derramar-se para dentro da mente
01:19
deciding what to do next and then doing it,
25
79580
2440
através das janelas transparentes dos sentidos.
01:22
or, as the case may be, doing something else.
26
82020
2520
Talvez pareça que o ego é que está a tomar decisões,
01:25
We sense, we think and we act.
27
85140
3160
01:28
This is how things seem.
28
88780
1600
a decidir o que fazer a seguir e executá-lo,
ou, como pode acontecer, fazer uma coisa diferente.
01:31
How things are is very different,
29
91660
2640
Nós sentimos, pensamos e agimos.
01:34
and the story of how and why this is so
30
94340
2320
01:36
is what I want to give you a flavor of today.
31
96700
2720
Isto é o que parece.
01:40
In this story, the self is not the thing that does the perceiving.
32
100260
5000
Mas a verdade é muito diferente,
e a história de como e porque isso acontece
01:45
The self is a perception too,
33
105260
1680
é um pouco o que vos quero trazer hoje.
01:46
or rather, it's the collection of related perceptions.
34
106980
3680
Nesta história, o ego não é aquilo que perceciona.
01:51
Experiences of the self and of the world
35
111580
3240
O próprio ego também é uma perceção,
01:54
turn out to be kinds of controlled hallucinations,
36
114820
3600
ou melhor, é uma série de perceções relacionadas entre si.
01:58
brain-based best guesses
37
118460
1600
Experiências do eu e do mundo
02:00
that remain tied to the world and the body
38
120100
2600
02:02
in ways determined not by their accuracy,
39
122740
3160
acabam por ser uma espécie de alucinações controladas,
02:05
but by their utility,
40
125940
1720
conjeturas do cérebro
02:07
by their usefulness for the organism in the business of staying alive.
41
127700
4720
que se mantêm ligadas ao mundo e ao corpo
não por serem corretas,
02:13
Now the basic idea is quite simple,
42
133860
1960
mas por serem úteis,
02:15
and it goes back a very long way in both science and philosophy --
43
135860
3160
por nos ajudarem a mantermo-nos vivos.
02:19
all the way back, in fact, to Plato
44
139020
2480
02:21
and to the shadows cast by firelight on the walls of a cave,
45
141540
4040
A ideia básica é simples,
e é muito antiga na ciência e na filosofia
02:25
shadows which the prisoners within took to be the real world.
46
145620
3680
— tão antiga como Platão —
02:30
Raw sensory signals,
47
150380
1920
e as sombras causadas pelo fogo nas paredes da caverna,
02:32
the electromagnetic waves that impinge upon our retinas,
48
152300
2880
sombras que os prisioneiros no seu interior achavam ser o mundo real.
02:35
the pressure waves that assault our eardrums, and so on,
49
155220
3560
02:38
well, they're always ambiguous and uncertain.
50
158780
3080
A informação sensorial em estado bruto,
as ondas eletromagnéticas que chegam às nossas retinas,
02:41
Although they reflect really existing things in the world,
51
161900
3880
as ondas de pressão que atacam os nossos tímpanos, e assim em diante,
02:45
they do so only indirectly.
52
165820
2280
são sempre ambíguas e incertas.
02:48
The eyes are not transparent windows from a self out onto a world,
53
168700
4080
Mesmo refletindo coisas que existem mesmo no mundo,
02:52
nor are the ears,
54
172820
1240
02:54
nor are any of our senses.
55
174060
1920
refletem-nas indiretamente.
02:55
The perceptual world that arises for us in each conscious moment --
56
175980
4120
Os olhos não são janelas transparentes de um eu que olha para o mundo,
03:00
a world full of objects and people,
57
180140
2240
nem os ouvidos,
03:02
with properties like shape, color and position --
58
182380
3680
nem nenhum dos nossos sentidos.
A perceção do mundo que nos chega a cada momento consciente
03:06
is always and everywhere created by the brain,
59
186100
3240
— um mundo cheio de objetos e pessoas,
03:09
through a process of what we can call “inference,”
60
189380
3520
com propriedades como formas, cores e posições —
03:12
of under-the-hood, neurally implemented brain-based best guessing.
61
192900
4080
é sempre criado pelo cérebro,
03:17
Now ...
62
197780
1240
através de um processo a que chamamos “inferência”,
03:19
Here's a red coffee cup.
63
199060
1720
previsões baseadas no funcionamento misterioso dos neurónios no nosso cérebro.
03:22
When I see this red coffee cup, when I consciously see it,
64
202380
4360
03:26
that's because "red coffee cup" is my brain's best guess
65
206780
3600
Agora...
Isto é uma caneca vermelha.
03:30
of the hidden and ultimately unknowable sensory signals that reach my eyes.
66
210420
5120
Quando tomo consciência que estou a ver uma caneca vermelha
é porque “caneca vermelha” é o melhor palpite do meu cérebro,
03:36
And just think about the redness itself, for a moment.
67
216580
3200
dadas as misteriosas impressões sensoriais que chegam aos meus olhos.
03:39
Does the color red exist in the world?
68
219820
2440
03:42
No, it doesn't.
69
222300
1200
03:43
And we don't need neuroscience to tell us this.
70
223500
2200
03:45
Newton discovered long ago that all the colors we experience,
71
225740
2920
Por um momento, pensemos apenas no facto de ser vermelha.
03:48
the rainbow of the visible spectrum,
72
228700
1840
Esta cor existe no mundo?
03:50
are based on just a few wavelengths of electromagnetic radiation,
73
230540
3720
Não, não existe.
Não precisamos de neurociência para saber isto.
03:54
which itself is, of course, entirely colorless.
74
234260
3240
Newton descobriu há muito tempo que as cores que vemos,
o arco-íris no espetro visível,
03:58
For us humans,
75
238060
1160
são baseadas apenas na medida da onda de frequência da radiação eletromagnética,
03:59
a whole universe of color is generated from just three of these wavelengths,
76
239220
6040
que, em si, claro que não tem cor absolutamente nenhuma.
04:05
corresponding to the three types of cells in our retinas.
77
245580
3200
Para nós, seres humanos,
todo um universo de cores se forma
04:09
Color-wise, this thin slice of reality, this is where we live.
78
249580
5240
a partir apenas de três destes comprimentos de onda,
04:14
Our experience of color --
79
254860
1400
correspondentes a três tipos de células nas nossas retinas.
04:16
indeed, our experience of anything --
80
256300
2680
Em termos de cores, nós vivemos nesta pequena fatia de realidade.
04:18
is both less than and more than whatever the real world really is.
81
258980
4840
A nossa perceção da cor
— na verdade, a nossa perceção de qualquer coisa —
04:25
Now what's happening when we experience color
82
265220
2200
04:27
is that the brain is tracking an invariance,
83
267420
2200
é, ao mesmo tempo, menos e mais do que existe mesmo no mundo real.
04:29
a regularity in how objects and surfaces reflect light.
84
269660
6480
Então, o que acontece quando experienciamos cor
é que o cérebro está a detetar padrões,
04:36
It's making a best guess,
85
276140
1280
04:37
a top-down, inside-out prediction,
86
277420
2240
uma regularidade na forma como objetos e superfícies refletem luz.
04:39
about the causes of the relevant sensory signals,
87
279660
2360
04:42
and the content of that prediction --
88
282020
2000
04:44
that's what we experience as red.
89
284060
2600
Está a dar o seu melhor palpite,
uma previsão baseada na informação que tem
sobre o que está na origem desses sinais sensoriais relevantes,
04:48
Does this mean that red is in the brain, rather than the world?
90
288180
4160
e o conteúdo dessa previsão.
04:52
Well, no.
91
292380
1880
É o que experienciamos como a cor vermelha.
04:54
The experience of redness requires both the world and a brain,
92
294260
4120
Isto quer dizer que o vermelho está só no cérebro e não no mundo?
04:58
unless you're dreaming, but let's not worry about that for now.
93
298420
3080
Bem, não.
05:01
Nothing in the brain is actually red.
94
301540
2480
A experiência de ver o vermelho requer ambos, o mundo e o cérebro,
05:04
Cézanne, the great impressionist painter,
95
304780
2040
05:06
once said that color is where the brain and the universe meet.
96
306860
4320
a não ser que estejamos a sonhar, mas isso não é para agora.
Nada no cérebro é mesmo vermelho.
05:11
Now the upshot of all this
97
311900
1280
05:13
is that perceptual experience is what I've come to call,
98
313180
2720
Cézanne, o grande pintor impressionista,
05:15
drawing on the words of others,
99
315940
1600
disse uma vez que a cor é onde o cérebro e o universo se encontram.
05:17
a “controlled hallucination.”
100
317540
2120
A conclusão disto
05:20
Now this is a tricky term, prone to misunderstandings,
101
320300
3080
é que a experiência da perceção é o que comecei a chamar de,
05:23
so let me be clear.
102
323380
1280
05:24
What I mean is that the brain is continuously generating predictions
103
324700
4320
usando palavras de outros,
uma “alucinação controlada”.
Esta expressão pode ser enganadora,
05:29
about the causes of sensory signals,
104
329060
2320
05:31
whether these come from the world or from the body,
105
331380
3200
por isso quero clarificar.
O que quero dizer é que o cérebro está constantemente a fazer previsões
05:34
and the sensory signals themselves serve as prediction errors,
106
334580
3720
sobre o que estará na origem das impressões sensoriais,
05:38
reporting a difference
107
338340
1160
05:39
between what the brain expects and what it gets,
108
339500
3280
quer venham do mundo exterior, quer venham do corpo,
05:42
so that the predictions can be continuously updated.
109
342820
3520
e as próprias impressões sensoriais servem para prever erros,
detetar diferenças
05:47
Perception isn't a process of reading out sensory signals
110
347500
4080
entre o que o cérebro espera e o que obtém,
05:51
in a bottom-up or outside-in direction.
111
351580
3120
para que as previsões sejam continuamente atualizadas.
05:54
It's always an active construction,
112
354700
2440
A perceção não é uma forma de ler impressões sensoriais
05:57
an inside-out, top-down neuronal fantasy
113
357180
3560
06:00
that is yoked to reality
114
360780
1320
de baixo para cima ou de fora para dentro.
06:02
in a never-ending dance of prediction and prediction error.
115
362100
4000
É sempre uma construção ativa,
uma fantasia neuronal de dentro para fora, de cima para baixo
06:07
Now I call this process controlled hallucination
116
367100
2400
06:09
to emphasize just this point.
117
369540
1920
que está associada à realidade
numa dança eterna entre previsões corretas e incorretas.
06:12
All of our experiences are active constructions
118
372020
2520
06:14
arising from within,
119
374540
1360
06:15
and there's a continuity here,
120
375900
1560
Eu chamo a isto alucinação controlada
06:17
between normal perception and what we typically call hallucination,
121
377460
4240
para sublinhar este ponto.
Todas as nossas experiências são construções ativas
06:21
where, for example, people might see or hear things that others don't.
122
381740
4800
que surgem do interior,
e há aqui uma ligação
entre a perceção normal e o que habitualmente chamamos de alucinação,
06:26
But in normal perception,
123
386580
1800
06:28
the control is just as important as the hallucination.
124
388380
4400
em que, por exemplo, há pessoas que veem e ouvem coisas e outras não.
06:32
Our perceptual experiences are not arbitrary.
125
392820
3000
Mas na perceção normal,
06:35
The mind doesn't make up reality.
126
395860
2520
o controlo é tão importante quanto a alucinação.
06:38
While experienced colors need a mind to exist,
127
398940
4680
As nossas experiências percetivas não são arbitrárias.
06:43
physical things, like the coffee cup itself,
128
403660
2640
A mente não inventa a realidade.
06:46
exist in the world whether we're perceiving them or not --
129
406300
2800
Enquanto as cores precisam da mente para existir,
06:49
it’s the way in which these things appear in our conscious experience
130
409140
4440
as coisas físicas, como a caneca,
06:53
that is always a construction,
131
413620
1880
existem no mundo, quer tenhamos perceção delas ou não
06:55
always a creative act of brain-based best guessing.
132
415500
3480
— é a forma como elas aparecem na nossa experiência consciente
07:00
And because we all have different brains,
133
420060
2520
07:02
we will each inhabit our own distinctive, personalized inner universe.
134
422580
5320
que é sempre uma construção,
é sempre um ato criativo do cérebro a tentar adivinhar.
E como todos temos cérebros diferentes,
07:09
Now I've digressed quite far from where we began,
135
429220
2400
07:11
so let me end by returning to the self,
136
431620
2480
todos habitamos o nosso universo interior distinto e personalizado.
07:14
to the experience of being you,
137
434140
2040
07:16
or being me.
138
436220
1120
07:17
They key idea here is that the experience of being a self,
139
437980
3360
Eu divaguei para bastante longe de onde começámos,
por isso vou voltar ao ego,
07:21
being any self,
140
441380
1160
07:22
is also a controlled hallucination, but of a very special kind.
141
442580
4120
à experiência de serem vocês,
ou de ser eu.
A ideia-chave aqui é que a experiência de sermos eu,
07:27
Instead of being about the external world,
142
447020
2760
07:29
experiences of selfhood are fundamentally about regulating and controlling the body.
143
449820
6600
de sermos qualquer ego,
também é uma alucinação controlada, mas de um tipo muito especial.
Em vez de lidar com o mundo exterior,
07:37
And what’s important here is that the experiences of being a self
144
457300
4200
as experiências do eu são fundamentalmente
07:41
are composed of many different parts
145
461500
1760
sobre a regulação e o controlo do corpo.
07:43
that normally hang together in a unified way,
146
463260
3080
E o que é importante aqui é que as experiências de ser um ego
07:46
but which can come apart in, for instance, psychological or neurological disorders,
147
466380
6000
são compostas de muitas partes diferentes
que normalmente funcionam como um todo,
07:52
There are experiences of being a continuous person over time,
148
472420
4080
mas que podem separar-se, como nas desordens psicológicas e neurológicas.
07:56
with a name and a set of memories
149
476500
2000
07:58
shaped by our social and cultural environments.
150
478540
3040
Há experiências de ser uma pessoa contínua ao longo do tempo,
08:02
There are experiences of free will,
151
482180
2800
com um nome e uma série de memórias
08:05
of intending to do something,
152
485020
1440
08:06
or of being the cause of things that happen.
153
486500
2080
formadas pelo nosso ambiente social e cultural.
08:09
There are experiences of perceiving the world
154
489220
2240
Há experiências de livre-arbítrio,
08:11
from a particular perspective, a first-person point of view.
155
491460
3640
de querer fazer algo,
08:15
And then, there are deeply embodied experiences,
156
495860
3400
ou ser a causa de certas coisas acontecerem.
Há experiências de percecionar o mundo
08:19
for instance of identifying with an object in the world
157
499260
2800
de uma perspetiva particular, um ponto de vista em primeira mão.
08:22
that is my body.
158
502100
1160
08:23
These hands, they're my hands.
159
503300
2160
Além disso, há experiências profundamente baseadas no físico,
08:25
And then, of emotion and mood.
160
505940
2680
por exemplo, identificar-se com um objeto no mundo
08:28
And at the deepest-lying, most basal levels,
161
508660
3200
que é o meu corpo.
08:31
experiences of simply being a living body,
162
511860
4160
Estas mãos são as minhas mãos.
E também, emoções e estados de espírito.
08:36
of being alive.
163
516060
1360
E nos níveis basais mais profundos,
08:38
Now my contention is that all these aspects of being a self
164
518540
4400
a experiência de simplesmente ser um corpo vivo,
08:42
are all perceptual predictions of various kinds.
165
522980
3600
de estar vivo.
08:46
And the most basic aspect of being any self
166
526620
2840
O meu argumento é que todos estes aspetos de ser um ego
08:49
is that part of perception
167
529500
1720
08:51
which serves to regulate the interior of the body to keep you alive.
168
531260
5320
são perceções conjeturadas de vários tipos.
E o aspeto mais básico de ser um ego
08:57
And when you pull on this thread, many things follow.
169
537460
3200
é essa parte da perceção
que regula o interior do corpo para nos manter vivos.
09:01
Everything that arises in consciousness is a perceptual prediction,
170
541500
4400
09:05
and all of our conscious experiences,
171
545900
2600
Começa aqui, mas liga-se a muitas outras coisas.
09:08
whether of the self or of the world,
172
548540
2560
Tudo o que surge na nossa consciência é uma conjetura da nossa perceção,
09:11
are all deeply rooted in our nature, as living machines.
173
551100
4320
e todas as nossas experiências conscientes,
09:16
We experience the world around us and ourselves within it,
174
556020
4400
sejam do eu ou do mundo,
são baseadas na nossa natureza de máquinas vivas.
09:20
with, through and because of our living bodies.
175
560420
4200
Experienciamos o mundo à nossa volta e nós dentro dele,
09:25
So who are you, really?
176
565980
1520
09:28
Think of yourself as being like the color red.
177
568860
3280
com os nossos corpos vivos, através deles e por causa deles.
09:32
You exist, but you might not be what you think you are.
178
572860
4080
Então, quem são vocês, realmente?
Pensem em vocês como sendo como a cor vermelha.
09:38
Thank you.
179
578820
1520
09:40
David Biello: A stand-in for the audience. Anil Seth: David is clapping.
180
580380
3480
Existem, mas podem não ser aquilo que pensam que são.
09:43
(Laughter)
181
583900
1280
09:45
AS: That makes me feel better. DB: It was great. Thank you for that.
182
585220
4120
Obrigado.
David Biello: Eu substituo o público.
09:49
I have to say that the thought of my brain floating around in a bony prison
183
589380
3720
Anil Seth: O David está a bater palmas.
09:53
is a disturbing one.
184
593140
2000
AS: Isso faz-me sentir melhor.
09:55
But how do all those billions and trillions of neurons
185
595180
6680
DB: Foi fantástico. Obrigado.
Devo dizer que pensar que o meu cérebro está a flutuar numa prisão feita de ossos
10:01
give rise to this experience of consciousness,
186
601860
4080
é um pouco alarmante.
Mas como é que todos esses milhares de milhões e biliões de neurónios
10:05
in your view?
187
605940
1160
10:07
AS: First, I mean, consciousness is experience,
188
607500
2400
10:09
so I'd use the two terms synonymously there.
189
609940
3080
dão origem a esta experiência de consciência,
10:13
It's the same thing.
190
613060
2840
na sua perspetiva?
10:15
And by the way,
191
615940
1480
AS: Primeiro, a consciência é experiência,
10:17
the idea of your brain wobbling around in its bony vault of a skull
192
617420
4560
por isso usaria os dois termos como sinónimos, neste caso.
10:21
is presumably less disturbing than it doing something else
193
621980
2760
É a mesma coisa.
10:24
and doing something outside of the skull. (Laughter)
194
624780
2800
Além disso,
a ideia do cérebro andar a flutuar dentro de um crânio
10:27
That would be the more worrying situation.
195
627580
2120
10:29
But the question, of course, this is the big question.
196
629740
2640
é supostamente menos alarmante do que estar a fazer outra coisa
10:32
You start off with a simple question, "How does it all happen?"
197
632420
2960
ou fazer algo fora do crânio.
10:35
And this is why there is a long way to go here.
198
635420
3920
Isso seria mais preocupante.
Mas essa pergunta, claro, é a grande questão.
10:40
And there are, I think, two ways to approach this mystery.
199
640060
2760
Começamos com uma pergunta simples: “Como é que tudo isto acontece?”
10:42
So the fundamental question here is ...
200
642860
2320
E é por isso que ainda temos um longo caminho a percorrer.
10:45
What is it about a physical mechanism,
201
645820
2320
10:48
in this case, a neurobiological mechanism,
202
648180
3000
E acho que há duas formas de abordar este mistério.
10:51
86 billion neurons and trillions of connections,
203
651180
3560
A questão fundamental aqui é...
10:54
that can generate any conscious experience?
204
654740
2840
O que é que neste mecanismo físico,
neste caso, um mecanismo neurobiológico
10:57
Put that way, it seems extremely hard,
205
657580
1960
10:59
because conscious experiences seem to be the kinds of things
206
659580
3160
— 86 mil milhões de neurónios e biliões de conexões —
11:02
that cannot be explained in terms of mechanisms,
207
662780
2880
que consegue gerar esta experiência consciente?
11:05
however complicated those mechanisms might be.
208
665660
2280
Visto desta forma, parece muito complicado,
11:07
This is the intuition that David Chalmers famously called "the hard problem."
209
667980
5000
porque as experiências conscientes parecem ser o tipo de coisa
que não podem ser explicados em termos de mecanismos,
11:13
But my approach, as hinted at in this talk,
210
673020
3080
por mais complicados que possam ser.
11:16
is that we can characterize different properties of consciousness --
211
676100
4680
Esta é a intuição que David Chalmers notoriamente chamou de “problema difícil”.
11:20
what a perceptual experience is like,
212
680820
1960
A minha abordagem, que aflorei nesta palestra,
11:22
what an experience of self is like,
213
682820
2920
é que podemos caracterizar diferentes propriedades da consciência
11:25
what the difference between sleep and wakefulness is like.
214
685740
3440
11:29
And in each of those cases, we can tell a story
215
689180
2280
— o que é uma perceção do mundo exterior,
11:31
about how neural mechanisms explain those properties.
216
691460
4640
o que é uma perceção do interior,
qual é a diferença entre dormir e estar acordado.
11:36
In the part of the story we've touched on today,
217
696460
3480
Em cada um destes casos, podemos descrever
11:39
it's all about predictive processing,
218
699980
1840
como os mecanismos neuronais explicam cada uma destas propriedades.
11:41
so the idea is that the brain really does encode within it
219
701820
3600
No que falámos hoje,
11:45
a sort of predictive generative model of the causes of signals from the world,
220
705460
4680
o principal é o processamento preditivo,
11:50
and it's the content of those predictions
221
710180
2280
é a ideia de que o cérebro codifica
11:52
that constitutes our perceptual experience.
222
712460
3360
um modelo que gera certas previsões das causas das perceções do mundo,
11:55
And as we sort of develop and test explanations like this,
223
715820
4520
e são essas previsões
12:00
the intuition is that this hard problem
224
720380
2640
que constituem a nossa experiência percetual.
12:03
of how and why neurons, or whatever it is, in the brain,
225
723060
3600
À medida que desenvolvemos e testamos explicações como esta,
12:06
can generate a conscious experience,
226
726660
1760
12:08
won't be solved directly -- it will be dissolved.
227
728460
2840
a intuição é que este problema difícil
12:11
It will gradually fade away and eventually vanish
228
731340
3520
de como e porquê os neurónios, ou o que seja, no cérebro,
12:14
in a puff of metaphysical smoke.
229
734900
1680
conseguem gerar uma experiência de consciência,
12:16
DB: Katarina wants to talk about anesthesia,
230
736580
4320
não será resolvido diretamente, será dissolvido.
Irá dissolver-se pouco a pouco e por fim desaparecerá
12:20
that experience of having your consciousness kind of turned off.
231
740900
4480
num sopro de fumo metafísico.
12:25
What do we know about this ability to switch a person off,
232
745420
3000
DB: A Katarina quer falar sobre anestesia,
12:28
in a matter of seconds?
233
748420
1600
a experiência de ter a consciência um pouco desligada.
12:30
What is actually happening there, do you think?
234
750020
2640
12:33
AS: Firstly, I think it's one of the best inventions of humanity, ever.
235
753140
4520
O que sabemos sobre esta capacidade de desligar uma pessoa
numa questão de segundos?
12:37
The ability to turn people into objects and then back again into people --
236
757700
4160
O que acha que está a acontecer aqui?
12:41
I wouldn't want to live at a time in history without it.
237
761900
2960
AS: Primeiro, acho que é uma das melhores invenções humanas de sempre.
12:44
Whenever we have this, like,
238
764860
1360
12:46
"Wouldn't it be nice to live in Greek antiquity or something,
239
766260
2880
A capacidade de tornar as pessoas objetos e depois novamente pessoas
12:49
when people swum around, philosophizing, drinking wine?"
240
769180
2840
não quereria viver numa altura da História sem isso.
12:52
Yes, but what about anesthesia?
241
772020
2240
Quando pensamos coisas como,
12:54
(Laughs)
242
774260
1000
“Não seria bom viver na Grécia Antiga ou algo assim,
12:55
That's my response.
243
775300
1240
12:56
It does work, this is a fantastic thing.
244
776580
2040
“quando as pessoas andavam só a filosofar e a beber vinho?”
12:58
How?
245
778660
1160
12:59
Here's an enormous opportunity for consciousness science,
246
779860
2840
Sim, mas e a anestesia?
13:02
because we know what anesthetics do at a very local level.
247
782740
4840
É essa a minha resposta.
Resulta, é uma coisa fantástica.
13:07
We know how they act on different molecules and receptors in the brain.
248
787580
5920
Como?
Temos aqui uma ótima oportunidade de estudo da consciência,
pois sabemos o que os anestésicos fazem a nível local.
13:13
And of course, we know what ultimately happens,
249
793500
3200
13:16
which is that people get knocked out.
250
796740
2000
Sabemos como funcionam em diferentes moléculas e recetores no cérebro.
13:18
And by the way, it's not like going to sleep.
251
798740
2120
13:20
Under general anesthesia, you're really not there.
252
800860
2520
E claro, sabemos o que acontece no fim,
13:23
It's an oblivion comparable with the oblivion before birth
253
803420
4480
ou seja, que as pessoas perdem os sentidos.
13:27
or after death.
254
807900
1760
E não é o mesmo que dormir.
Sob anestesia geral, não estamos mesmo lá.
13:30
So the real question is, "What is happening?"
255
810740
2320
É um nada comparável a antes de nascer
13:33
How is the local action of anesthetics affect global brain dynamics
256
813060
5840
ou depois de morrer.
13:38
so as to explain this disappearance of consciousness?
257
818940
3800
A verdadeira questão aqui é: “O que está a acontecer?”
Como é que a ação local da anestesia afeta a dinâmica global do cérebro
13:42
And to cut a long story very short, what seems to be happening
258
822780
4800
13:47
is that the different parts of the brain
259
827620
3000
de modo a explicar esse desaparecimento de consciência?
13:50
become functionally disconnected from each other,
260
830620
3200
Para resumir muito, o que parece estar a acontecer
13:53
and by that I mean, they speak to each other less.
261
833860
3800
é que diferentes partes do cérebro
13:57
The brain is still active,
262
837660
1920
13:59
but communication between brain areas becomes disrupted in specific ways.
263
839620
5320
continuam a funcionar em separado,
quero dizer que falam menos entre si.
14:04
and there’s still a lot we need to learn
264
844980
1920
14:06
about the precise ways in which this disconnection happens --
265
846900
3840
O cérebro ainda está ativo,
mas a comunicação entre as diferentes áreas quebra-se de formas específicas.
14:10
what are the signatures of the loss of consciousness?
266
850780
3320
Ainda há muito a aprender
14:15
There are many different kinds of anesthetic,
267
855020
2240
sobre estas formas específicas em que esta desconexão acontece
14:17
but whichever variety of anesthetic you take,
268
857300
2120
14:19
when it works, this is what you see.
269
859420
2040
quais são as marcas da perda de consciência?
14:21
DB: I think some folks such as Jasmine and more anonymous folks
270
861500
3920
Há muitos tipos de anestésicos,
14:25
are troubled by this idea that what I call red
271
865420
5160
mas qualquer que seja a variedade que se toma,
quando resulta, é isto que se vê.
DB: Penso que algumas pessoas como a Jasmine e outras
14:30
might be a different color for you and for everyone else.
272
870580
3680
ficaram perturbadas por esta ideia de que aquilo a que chamamos vermelho
14:34
Is there a way of knowing if we're all hallucinating reality
273
874300
5080
14:39
in a similar way or not?
274
879420
2720
pode ser uma cor diferente para nós e para os outros.
14:42
AS: Again, this is a lovely topic,
275
882620
1960
Há alguma forma de saber se estamos a alucinar a realidade
14:44
and it really gets to the heart of how I've been thinking
276
884620
4200
da mesma forma ou não?
14:48
about perception,
277
888860
1160
14:50
because one of the aspects of perception that I think is easy to overlook
278
890020
3480
AS: Mais uma vez, este é um ótimo ponto
14:53
is that the contents of perception seem real, right?
279
893500
5520
e vai ao centro da minha visão
sobre perceção,
porque um dos aspetos da perceção que penso que será fácil de deixar passar
14:59
The redness of this coffee cup,
280
899020
1760
15:00
it seems to be a mind-independent,
281
900820
2920
é que as nossas perceções parecem reais, certo?
15:03
really existing property of the external world.
282
903740
3200
15:07
Now, certain aspects of this coffee cup are mind-independent.
283
907340
3840
O vermelho da caneca
parece ser independente da mente,
15:11
Its solidity is mind-independent.
284
911180
2040
uma propriedade que existe fora no mundo real.
15:13
If I throw it at you, David, across the Atlantic,
285
913260
3160
15:16
and you don't see it coming, it will hit you in the head, it will hurt.
286
916420
3480
Certos aspetos desta caneca são independentes da mente.
15:19
That doesn't depend on you seeing it,
287
919940
1880
A sua solidez é independente da mente.
15:21
but the redness does depend on a mind.
288
921820
3080
Se eu a atirar para si, David, e atravessar o Atlântico,
e não estiver à espera, vai bater-lhe na cabeça e vai doer.
15:25
And to the extent that things depend on a mind,
289
925220
3400
15:28
they're going to be different for each of us.
290
928660
3160
Isso não depende de como vemos,
mas o vermelho depende da mente.
15:31
Now, they may not be that different.
291
931820
2120
15:33
In philosophy, there's this argument of the inverted spectrum,
292
933940
4480
E na medida em que as coisas dependem da mente
elas vão ser diferentes para cada um de nós.
15:38
so if I see red, is that the same as you seeing green or blue, let's say?
293
938420
4480
Podem não ser muito diferentes.
15:42
And we might never know.
294
942940
1320
Na filosofia, há o argumento do espectro invertido,
15:44
I don't have that much truck with that particular thought experiment.
295
944300
3440
que é, se eu vejo vermelho, os outros veem verde ou azul?
15:47
Like many thought experiments, it pushes things a little bit too far.
296
947740
4400
Talvez nunca saberemos.
15:52
I think the reality is that we see things like colors,
297
952180
3760
Eu não tenho particularmente muitas bases nessas considerações.
15:55
maybe we see them similar, but not exactly the same,
298
955980
3920
Como em muitos exercícios intelectuais, leva as coisas um pouco longe.
15:59
and we probably overestimate the degree of similarity
299
959900
4680
Eu penso que o que acontece na realidade quando vemos coisas como cores,
16:04
between our perceptual worlds,
300
964620
1440
é que as vemos parecidas, mas não exatamente iguais,
16:06
because they're all filtered through language.
301
966100
3200
e provavelmente sobrestimamos o grau de semelhança
16:09
I mean, I just used the word “red,” and there are many shades of red;
302
969300
3240
16:12
painters would say, "What red?"
303
972580
1920
entre os nossos mundos de perceção,
16:14
I remember when I was decorating my house,
304
974500
2080
porque são filtrados pela linguagem.
16:16
it's like, "I want to paint the walls white."
305
976580
2400
Isto é, eu usei a palavra “vermelho” e há muitos tons de vermelho;
16:19
How many shades of white are there?
306
979020
2560
16:21
This is too many.
307
981620
1680
os pintores diriam: “Que vermelho?”
Lembro-me de quando estava a decorar a minha casa,
16:23
And they have weird names, which doesn't help.
308
983340
2160
16:25
We will overestimate the similarity of our universe.
309
985540
3920
e “Quero pintar as paredes de branco.”
Quantos tons de branco existem?
16:29
And I think it's a really interesting question,
310
989460
2360
Demasiados.
16:31
how much they do indeed diverge.
311
991820
1800
E têm nomes esquisitos, o que não ajuda.
16:33
You will probably remember this famous dress,
312
993620
2720
Vamos sobrestimar a semelhança do nosso universo próprio.
16:36
this photo of a dress half the world saw as blue and black,
313
996380
3680
E penso que é uma questão muito interessante
16:40
and the other half saw as white and gold.
314
1000060
2640
quanto é que eles realmente divergem.
16:42
AS: You're a white and gold person? DB: Yeah, yeah.
315
1002700
4680
Provavelmente, lembram-se daquele vestido famoso,
aquela foto de um vestido que metade do mundo via como azul e preto,
16:47
AS: I'm a blue and black person.
316
1007380
1600
e a outra metade via branco e dourado.
16:49
I was right, the real dress is actually blue and black.
317
1009020
2640
16:51
(Laughter)
318
1011660
1200
AS: Você é dos que viam branco e dourado? DB: Sim, sim.
16:52
AS: Never mind ...
319
1012860
1800
16:55
DB: We could argue about that.
320
1015180
2240
AS: Eu sou do azul e preto.
16:57
AS: We couldn't. It really is blue and black.
321
1017460
2240
Eu tinha razão, o vestido verdadeiro é, na verdade, azul e preto.
16:59
I talked to the dress designer. The actual one is blue and black.
322
1019700
3320
AS: Adiante...
17:03
There's no argument there.
323
1023020
1920
DB: Podíamos discutir isso.
17:05
But the thing that made that so weird
324
1025980
2920
AS: Não podíamos. É mesmo azul e preto.
17:08
is that it's not that we vaguely see it as one color or the other,
325
1028940
4600
Eu falei com o estilista. O verdadeiro é azul e preto.
Aqui não há discussão.
17:13
we really see that blueness and blackness or whiteness and goldness
326
1033540
3760
Mas o que foi tão estranho
17:17
as really existing in the world.
327
1037300
1640
é que não vemos levemente uma cor ou outra,
17:18
And that was an interesting lever
328
1038940
2800
17:21
into a recognition of how different our perceptual universes might be.
329
1041780
5000
vemos mesmo aquele azul e preto ou aquele branco e dourado
como se existissem no mundo.
17:26
And in fact, a study we're doing at Sussex over the next year or two,
330
1046820
3840
E isso foi uma forma interessante
17:30
we're trying to characterize the amount of perceptual diversity
331
1050660
5680
de reconhecermos quão diferentes podem ser os nossos universos de perceção.
Na verdade, vamos fazer um estudo em Sussex dentro de um a dois anos,
17:36
that is just there to be discovered.
332
1056380
3120
17:39
We're usually only aware of it at the extremes,
333
1059500
2280
para tentar caracterizar o grau de diversidade percetual
17:41
people call things like neurodiversity,
334
1061820
2640
17:44
where people have experiences that are so different,
335
1064500
2880
que está ali para ser descoberto.
17:47
they manifest in different behaviors.
336
1067380
2240
Geralmente, só vemos os extremos,
17:49
But I think there's this, sort of, big dark matter
337
1069660
2480
o que se chama de neurodiversidade,
17:52
of individual diversity in perception that we know very little about,
338
1072140
3400
em que pessoas têm experiências tão diferentes,
17:55
but it's there.
339
1075540
1200
que se comportam de formas diferentes.
17:56
DB: I'm glad we could put to rest a major internet debate
340
1076740
3680
Mas acho que há esta espécie de grande matéria escura
18:00
and come down firmly on the blue and black side of things.
341
1080460
4880
de diversidade individual na perceção,
de que sabemos muito pouco, mas que está lá.
18:05
Daniella wants to know,
342
1085380
1240
DB: Estou contente de termos resolvido um grande debate na Internet
18:06
"Could you explain how memory is involved in this perception of a self?"
343
1086660
4880
e chegado ao lado azul e preto das coisas.
18:13
AS: Just as there are many different aspects of selfhood,
344
1093060
3160
A Daniella quer saber
“Pode explicar como a memória está envolvida na perceção do ego?”
18:16
there are many different kinds of memory, too.
345
1096260
2440
18:18
I think colloquially, in everyday language,
346
1098740
2400
18:21
when we talk about memory,
347
1101140
1360
AS: Tal como há diferentes aspetos do eu,
18:22
we often talk about autobiographical memory or episodic memory,
348
1102500
5320
também há diferentes tipos de memória.
18:27
like "What did I have for breakfast?"
349
1107860
1840
Eu penso que em todas as línguas,
18:29
"When did I last go for a walk?"
350
1109740
2800
quando falamos coloquialmente de memória,
falamos frequentemente de memórias autobiográficas ou episódicas,
18:32
These kinds of things.
351
1112540
1440
18:34
"When did I last have the pleasure of talking to David?"
352
1114020
3320
como: “O que comi ao pequeno-almoço?”
18:37
These are the memories of things that pertain to me
353
1117340
3240
“Qual foi a última vez que dei um passeio?”
18:40
as a continuous individual over time.
354
1120620
3120
Este tipo de coisas.
“Quando foi a última vez que tive o prazer de falar com o David?”
18:43
That's one way in which memory plays into self,
355
1123740
3240
Este tipo de memórias estão relacionados comigo
18:47
and that part of memory can go away, and self remains --
356
1127020
4640
como um indivíduo contínuo ao longo do tempo.
18:51
back to the earlier point.
357
1131700
1240
18:52
There's a famous case I talk about in the book,
358
1132940
2240
Esta é uma das formas em que a memória influencia o sentido de eu
18:55
of a guy called Clive Wearing,
359
1135220
1920
e isso pode desaparecer e o eu ficar
18:57
who had a brain disease, an encephalopathy,
360
1137180
4480
— voltamos ao ponto inicial.
19:01
which basically obliterated his ability to lay down new autobiographical memories.
361
1141700
6600
Há um caso famoso de que falo no meu livro
de um homem chamado Clive Wearing,
que tinha uma doença cerebral, uma encefalopatia,
19:08
He lost his hippocampus,
362
1148660
1840
19:10
which is a brain region very important for this function.
363
1150540
3480
que, basicamente, o impedia de criar novas memórias autobiográficas.
19:14
His wife described it as him living in a permanent present tense,
364
1154020
5160
Ele perdeu o seu hipocampo,
19:19
of between seven to 30 seconds.
365
1159220
2800
que é uma zona do cérebro muito importante para esta função.
19:22
And then, everything was new.
366
1162060
1400
19:23
It's very, very difficult to put yourself in the shoes of somebody like that.
367
1163500
3720
A mulher dele descreveu-o como vivendo permanentemente no momento presente
19:27
But other aspects of his self remained.
368
1167220
3200
de entre sete a trinta segundos.
19:30
But then, there are all sorts of other aspects of memory
369
1170980
2920
E logo tudo se renovava.
É muito, muito difícil colocarmo-nos na pele de alguém assim.
19:33
that probably also play into what it is to be you or to be me.
370
1173940
5720
Mas os outros aspetos do seu ego mantiveram-se.
19:39
We have semantic memory.
371
1179700
2960
Mas depois, há uma série de outros aspetos da memória
19:42
We just know things,
372
1182700
1240
que provavelmente também interagem no que significa seres tu ou ser eu.
19:43
like we know what the capital of France is, who the president is,
373
1183940
4520
19:48
I hope so, I don't know.
374
1188500
2080
Temos uma memória semântica.
19:50
Sometimes, that's a good thing. Sometimes, that's not a good thing.
375
1190980
3160
Apenas sabemos coisas,
como sabemos a capital de França ou quem é o presidente,
19:54
And all of these things that get encoded in memory
376
1194180
3280
esperemos, não sei.
19:57
shape our self too.
377
1197460
2320
19:59
And then finally, there's perceptual memory.
378
1199780
3640
Por vezes, é uma coisa boa. Por vezes, não é uma coisa tão boa.
Todas estas coisas que são codificadas na nossa memória
20:03
It's not that experience is like a video recording that we can replay,
379
1203420
4720
também modelam o nosso sentido de nós mesmos.
20:08
but everything we experience changes the way we perceive things in the future,
380
1208180
4400
Finalmente, temos a memória percetiva.
Não é que a experiência seja como uma gravação que podemos voltar a ver,
20:12
and the way we perceive things is also, in my view,
381
1212620
2400
20:15
part of what it is to be a self.
382
1215060
1840
20:16
Actually, I just want to say,
383
1216940
1480
mas tudo o que experienciamos muda como percecionamos as coisas no futuro
20:18
one of the really interesting questions here,
384
1218460
2120
20:20
and one of the things we're working on --
385
1220580
3120
e como percecionamos as coisas, no meu ponto de vista,
20:23
Imagine a typical day.
386
1223700
4000
também faz parte do que constitui o nosso eu.
Na verdade, quero só dizer
que uma das questões realmente interessantes aqui,
20:27
You go through your typical day,
387
1227740
2720
e uma das coisas em que estamos a trabalhar...
20:30
you're experiencing a continuous stream of inputs.
388
1230500
2640
Imaginem um dia típico.
20:33
Now you blink, of course, and so on, but more or less,
389
1233140
2800
20:35
there's this continuous stream of inputs.
390
1235980
2040
Vivem o seu dia normal,
20:38
Yet when we remember a day,
391
1238020
2160
vão tendo uma linha contínua de estímulos.
20:40
it's usually in chunks, these autobiographical chunks:
392
1240220
3640
Pestanejam, claro, mas, no geral,
20:43
"I did this, I did that, I did the other, this happened."
393
1243900
3000
há um contínuo de informações a entrar.
20:46
So a really important question
394
1246940
2240
Mas quando nos lembramos desse dia,
é geralmente em bocados, em pedaços autobiográficos:
20:49
is, "How does this chunking process happen?"
395
1249180
3400
20:52
"How does the brain extract meaningful episodes
396
1252620
3720
“Eu fiz isto, fiz aquilo, fiz aqueloutro, isto aconteceu.”
Então, uma questão muito importante é:
20:56
from a relatively continuous flow of data?"
397
1256380
3560
“Como acontece este processamento em partes?”
20:59
And it's kind of disturbing,
398
1259980
1520
21:01
how little of any given day we remember.
399
1261540
3240
“Como é que o cérebro extrai episódios significativos
21:04
So it's a very selective process,
400
1264820
2000
“de um fluxo contínuo de informações?”
21:06
and that's something that I think is going to be useful
401
1266820
2640
E é um pouco preocupante
21:09
not only for basic neuroscience,
402
1269500
1600
lembrarmo-nos tão pouco de cada dia.
21:11
but, for instance, in helping people with memory loss and impairments,
403
1271100
3960
É um processo muito seletivo,
21:15
because you could, for instance, have a camera,
404
1275060
2200
e é algo que acho que será muito útil
21:17
and then, you could predict what aspects of their day would constitute a memory,
405
1277300
3880
não só para as bases da neurociência,
mas, por exemplo, para ajudar pessoas com perda ou danos de memória,
21:21
and that can be very, very useful for them and for their carers.
406
1281180
3200
porque podíamos, por exemplo, ter uma câmara,
21:24
DB: The brain clearly has a good editor.
407
1284420
3640
e conseguir prever quais as partes do dia que iriam constituir uma memória,
21:28
You call us, people, "feeling machines" in your book.
408
1288100
5080
e isso pode ser muito útil para as pessoas e para quem cuida delas.
DB: O cérebro, claramente, tem um bom editor.
21:33
Care to expand on that?
409
1293180
2320
21:35
AS: Yeah, that's right.
410
1295540
1200
21:36
Well, we're not cognitive computers, we are feeling machines.
411
1296740
3280
No seu livro, chama as pessoas de “máquinas de sentir”.
21:40
And I think this is true at the level of making decisions,
412
1300020
3360
Podia explicar isso melhor?
21:43
but for me, it's really at the heart of how to understand life,
413
1303420
5600
AS: Sim, certo.
Bem, não somos computadores cognitivos, somos máquinas de sentir.
E penso que isto é verdadeiro ao nível de tomar decisões,
21:49
mind and consciousness.
414
1309020
2160
21:51
And this, really, is the idea that --
415
1311180
4000
mas para mim, está mesmo na base de compreender a vida,
21:55
In consciousness science, we tended to think things like vision --
416
1315180
3960
a mente e a consciência.
21:59
Vision as being the royal road to understanding consciousness.
417
1319180
3400
E esta é a ideia de que
22:02
Vision is easy to study, and we're very visual creatures.
418
1322620
2720
— na ciência da consciência, tendemos a considerar a visão —
22:05
But fundamentally,
419
1325820
1200
22:07
brains evolved and develop and operate from moment to moment
420
1327020
4080
a visão é o caminho real para perceber a consciência.
22:11
to keep the body alive,
421
1331140
1480
A visão é fácil de estudar, e nós somos criaturas muito visuais.
22:12
always in light of this deep physiological imperative
422
1332620
3640
Mas, fundamentalmente,
os cérebros evoluíram, desenvolveram-se e funcionam de momento a momento
22:16
to help the organism persist in remaining an organism,
423
1336300
6000
para manter o corpo vivo,
sempre sob este profundo imperativo fisiológico
22:22
in remaining alive.
424
1342340
1720
22:24
And that fundamental role of brains,
425
1344100
5640
de ajudar o organismo a continuar a ser um organismo,
22:29
that's what, in my view, gave rise to any kind of perception.
426
1349780
4760
a manter-se vivo.
E esse papel fundamental do cérebro
22:34
In order to regulate something,
427
1354540
1560
22:36
you need to be able to predict what happens to it.
428
1356100
2480
22:38
It's this whole apparatus of prediction and prediction error
429
1358620
3520
é o que, na minha opinião, deu origem a qualquer dos tipos de perceção.
22:42
that undergirds all of our perceptual experiences,
430
1362180
2400
Para conseguir regular alguma coisa,
22:44
including the self,
431
1364580
1400
é preciso conseguir prever o que lhe acontece.
22:46
has its origin in this role
432
1366020
2800
É todo este aparelho de previsão e erro de previsão
22:48
that's tightly coupled to the physiology of the body.
433
1368820
2920
que está subjacente à nossa experiência de perceção,
22:51
And that's why, I think, we're feeling machines,
434
1371740
2320
incluindo o ego,
22:54
we're not just computers
435
1374060
1960
tem origem neste papel
22:56
that happen to be implemented on meat machines.
436
1376060
3360
muito ligado à fisiologia do corpo.
22:59
DB: Thank you, Anil, for chatting with us today.
437
1379460
2920
E penso que é por isso que somos máquinas de sentir,
23:02
AS: Really enjoyed it.
438
1382380
1160
não somos apenas computadores
23:03
AS: Thanks a lot, David. DB: Thank you.
439
1383580
1840
que estão inseridos em máquinas feitas de carne.
DB: Obrigado, Anil, por falar connosco hoje.
AS: Eu gostei muito.
- Muito obrigado, David. - Obrigado.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7