The quest to understand consciousness | Antonio Damasio

575,193 views ・ 2011-12-19

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Orsolya Szemere Lektor: Anna Patai
00:15
I'm here to talk about
0
15260
2000
Azért jöttem, hogy
00:17
the wonder and the mystery
1
17260
3000
a tudatos elme csodájáról
00:20
of conscious minds.
2
20260
3000
és titokzatosságáról beszéljek.
00:23
The wonder is about the fact
3
23260
2000
A csoda azzal kapcsolatos,
00:25
that we all woke up this morning
4
25260
2000
hogy mindannyian felébredtünk ma reggel
00:27
and we had with it
5
27260
2000
és ezzel egyetemben
00:29
the amazing return of our conscious mind.
6
29260
3000
csodálatos módon visszatért tudatos elménk is!
00:32
We recovered minds with a complete sense of self
7
32260
3000
Visszanyertük elménket teljes öntudatunkkal együtt,
00:35
and a complete sense of our own existence,
8
35260
3000
valamint létezésünk teljes érzékelésével együtt,
00:38
yet we hardly ever pause to consider this wonder.
9
38260
2000
mégis alig állunk meg, hogy ezt a csodát szemügyre vegyük.
00:40
We should, in fact,
10
40260
2000
Pedig jó volna,
00:42
because without having this possibility of conscious minds,
11
42260
4000
mert e tudatos elme létezése nélkül
00:46
we would have no knowledge whatsoever
12
46260
2000
nem lenne semmiféle tudásunk,
00:48
about our humanity;
13
48260
2000
emberi létünkre vonatkozóan;
00:50
we would have no knowledge whatsoever about the world.
14
50260
3000
valamint a világra vonatkozóan sem.
00:53
We would have no pains, but also no joys.
15
53260
2000
Nem lenne fájdalmunk, ám örömünk sem.
00:55
We would have no access to love
16
55260
3000
Nem lennénk képesek szeretni,
00:58
or to the ability to create.
17
58260
3000
vagy alkotni.
01:01
And of course, Scott Fitzgerald said famously
18
61260
3000
És persze, ahogy Scott Fitzgerald híres mondása is jelzi,
01:04
that "he who invented consciousness
19
64260
3000
"Aki feltalálta a tudatot,
01:07
would have a lot to be blamed for."
20
67260
3000
na, őt kell mindenért hibáztatni!"
01:10
But he also forgot
21
70260
2000
Ám elfelejtette,
01:12
that without consciousness,
22
72260
2000
hogy enélkül a tudatosság nélkül
01:14
he would have no access to true happiness
23
74260
3000
nem lenne hozzáférésünk az igazi boldogsághoz,
01:17
and even the possibility of transcendence.
24
77260
2000
de még a transzcendencia elérésére sem.
01:19
So much for the wonder, now for the mystery.
25
79260
3000
Ennyit a csoda részéről, nézzük most a titokzatosságot.
01:22
This is a mystery
26
82260
2000
Olyan titok ez,
01:24
that has really been extremely hard to elucidate.
27
84260
3000
amit tényleg rendkívül nehéz megvilágítani.
01:27
All the way back into early philosophy
28
87260
3000
Egészen a korai filozófiák kezdetén,
01:30
and certainly throughout the history of neuroscience,
29
90260
3000
és egész bizonyosan az idegtudomány kezdetén is
01:33
this has been one mystery
30
93260
3000
olyan titok volt ez,
01:36
that has always resisted elucidation,
31
96260
2000
ami mindig ellenállt a megvilágításnak,
01:38
has got major controversies.
32
98260
2000
mert komoly ellentmondásokkal bír.
01:40
And there are actually many people
33
100260
2000
És tényleg nagyon sok ember létezik,
01:42
that think we should not even touch it;
34
102260
2000
aki szerint érinteni sem kéne,
01:44
we should just leave it alone, it's not to be solved.
35
104260
2000
hanem hanyagolni, mert nem azért van, hogy megoldjuk.
01:46
I don't believe that,
36
106260
2000
Én ebben nem hiszek,
01:48
and I think the situation is changing.
37
108260
2000
és szerintem a helyzet is változik.
01:50
It would be ridiculous to claim
38
110260
2000
Nevetséges volna azt állítani,
01:52
that we know how we make consciousness
39
112260
3000
hogy tudjuk, hogyan lehet létrehozni a tudatot
01:55
in our brains,
40
115260
2000
az agyunkban,
01:57
but we certainly can begin
41
117260
2000
elkezdhetjük azonban
01:59
to approach the question,
42
119260
2000
megközelíteni a kérdést,
02:01
and we can begin to see the shape of a solution.
43
121260
3000
és kezdjük is látni a megoldást formálódni.
02:04
And one more wonder to celebrate
44
124260
3000
És még egy ünnepelni való csoda az,
02:07
is the fact that we have imaging technologies
45
127260
4000
hogy vannak olyan képalkotó technológiáink,
02:11
that now allow us to go inside the human brain
46
131260
4000
amik ma már lehetővé teszik, hogy belelássunk az emberi agyba,
02:15
and be able to do, for example,
47
135260
2000
és képesek legyünk megtenni ezt,
02:17
what you're seeing right now.
48
137260
2000
amit itt látnak például.
02:19
These are images that come from Hanna Damasio's lab,
49
139260
3000
Ezek a képek Hanna Damasio laborából valók,
02:22
and which show you, in a living brain,
50
142260
3000
s amelyek az élő agyban mutatják meg nekünk,
02:25
the reconstruction of that brain.
51
145260
2000
az agy rekonstrukcióját.
02:27
And this is a person who is alive.
52
147260
2000
Ez itt egy élő ember!
02:29
This is not a person
53
149260
2000
Ez nem egy boncolás közben
02:31
that is being studied at autopsy.
54
151260
3000
vizsgált ember.
02:34
And even more --
55
154260
2000
Sőt, mi több,
02:36
and this is something that one can be really amazed about --
56
156260
3000
és ez tényleg valami olyan, amire aztán táthatjuk a szánkat --
02:39
is what I'm going to show you next,
57
159260
2000
amit itt mutatok a következőkben,
02:41
which is going underneath the surface of the brain
58
161260
3000
az az agy felszíne alá hatolva
02:44
and actually looking in the living brain
59
164260
3000
ténylegesen belekukucskál az élő agyba,
02:47
at real connections, real pathways.
60
167260
3000
valódi kapcsolódásokat, idegpályákat mutatva.
02:50
So all of those colored lines
61
170260
3000
Az összes színes vonal
02:53
correspond to bunches of axons,
62
173260
3000
idegnyúlványok kötegeinek felel meg,
02:56
the fibers that join cell bodies
63
176260
2000
a rostoknak, amelyek a sejttesteket
02:58
to synapses.
64
178260
3000
a szinapszisokhoz kapcsolják.
03:01
And I'm sorry to disappoint you, they don't come in color.
65
181260
2000
És sajnálom, ha csalódást okozok vele, de nem ilyen színesek.
03:03
But at any rate, they are there.
66
183260
3000
De mindenesetre ott vannak.
03:06
The colors are codes for the direction,
67
186260
2000
A színek az irányok kódjai,
03:08
from whether it is back to front
68
188260
2000
mutatva, hogy vajon hátulról előre,
03:10
or vice versa.
69
190260
2000
vagy fordítva haladnak-e.
03:12
At any rate, what is consciousness?
70
192260
3000
Szóval akkor, mi is a tudat?
03:15
What is a conscious mind?
71
195260
2000
Mi a tudatos elme?
03:17
And we could take a very simple view
72
197260
2000
Vehetünk egy nagyon egyszerű véleményt,
03:19
and say, well, it is that which we lose
73
199260
4000
miszerint az, amit elveszítünk,
03:23
when we fall into deep sleep without dreams,
74
203260
5000
amikor álom nélküli mély alvásba süllyedünk,
03:28
or when we go under anesthesia,
75
208260
2000
vagy amikor altatnak minket,
03:30
and it is what we regain
76
210260
2000
és amit visszanyerünk, amikor
03:32
when we recover from sleep
77
212260
2000
felébredünk az alvásból
03:34
or from anesthesia.
78
214260
2000
vagy az altatásból.
03:36
But what is exactly that stuff that we lose under anesthesia,
79
216260
4000
De mi is igazából az a dolog, amit elveszítünk altatásban,
03:40
or when we are in deep, dreamless sleep?
80
220260
2000
vagy az alvás nélküli mély álomban?
03:42
Well first of all,
81
222260
2000
Hát először is,
03:44
it is a mind,
82
224260
2000
az elme,
03:46
which is a flow of mental images.
83
226260
2000
amely mentális képek árama tulajdonképpen.
03:48
And of course consider images
84
228260
2000
És persze értjük ezalatt
03:50
that can be sensory patterns,
85
230260
2000
azokat az érzékszervi behatásokat is,
03:52
visual, such as you're having right now
86
232260
2000
amik lehetnek vizuálisak, mint ahogy most éppen érzékelik
03:54
in relation to the stage and me,
87
234260
2000
a színpadot, rajta engem,
03:56
or auditory images,
88
236260
2000
vagy hanghatások,
03:58
as you are having now in relation to my words.
89
238260
2000
ahogy most a szavaimat érzékelik.
04:00
That flow of mental images
90
240260
2000
Az ilyen fajta mentális képek árama
04:02
is mind.
91
242260
2000
az elme.
04:04
But there is something else
92
244260
2000
De van még valami más is,
04:06
that we are all experiencing in this room.
93
246260
2000
amit mindannyian megtapasztalunk ebben a teremben.
04:08
We are not passive exhibitors
94
248260
2000
Nem csupán passzív megnyilvánítói vagyunk
04:10
of visual or auditory
95
250260
3000
vizuális, hallható,
04:13
or tactile images.
96
253260
2000
vagy tapintható képeknek.
04:15
We have selves.
97
255260
2000
Van énünk is.
04:17
We have a Me
98
257260
2000
Van bennünk egy ÉN,
04:19
that is automatically present
99
259260
2000
aki automatikusan van jelen
04:21
in our minds right now.
100
261260
2000
az elménkben most is.
04:23
We own our minds.
101
263260
2000
Az elménk a 'mienk'.
04:25
And we have a sense that it's everyone of us
102
265260
3000
És fel tudjuk fogni, hogy mindannyian,
04:28
that is experiencing this --
103
268260
2000
akik megtapasztaljuk ugyanezt --
04:30
not the person who is sitting next to you.
104
270260
3000
nem azok vagyunk, aki mellettünk ül.
04:33
So in order to have a conscious mind,
105
273260
3000
Tehát ahhoz, hogy legyen egy tudatos elménk,
04:36
you have a self within the conscious mind.
106
276260
4000
van egy énünk is a tudatos elmében.
04:40
So a conscious mind is a mind with a self in it.
107
280260
3000
Tehát a tudatos elme egy énnel rendelkező elme.
04:43
The self introduces the subjective perspective in the mind,
108
283260
3000
Az én mutatja meg az elmének a szubjektív perspektívát,
04:46
and we are only fully conscious
109
286260
2000
és csak akkor válunk teljesen tudatossá,
04:48
when self comes to mind.
110
288260
2000
amikor az én felébred az elmében.
04:50
So what we need to know to even address this mystery
111
290260
3000
Tehát amit tudnunk kell, ahhoz, hogy akár csak megközelítsük is ezt a titkot,
04:53
is, number one, how are minds are put together in the brain,
112
293260
3000
legelőször is, hogy az elménk hogy helyezkedik el az agyban,
04:56
and, number two, how selves are constructed.
113
296260
4000
másodszor pedig, hogyan épül fel az én.
05:00
Now the first part, the first problem,
114
300260
3000
Nos az első rész, az első kérdés
05:03
is relatively easy -- it's not easy at all --
115
303260
3000
viszonylag egyszerű -- persze egyáltalán nem egyszerű --
05:06
but it is something that has been approached gradually in neuroscience.
116
306260
4000
de ez legalább fokozatosan fel lett derítve az idegtudomány által.
05:10
And it's quite clear that, in order to make minds,
117
310260
3000
És egész világos, hogy az elme felderítéséhez
05:13
we need to construct neural maps.
118
313260
3000
idegi térképeket kell készítenünk.
05:16
So imagine a grid, like the one I'm showing you right now,
119
316260
3000
Képzeljünk hát el egy rácsot, mint amit itt mutatok éppen,
05:19
and now imagine, within that grid,
120
319260
2000
és most képzeljük el, a rácson belül,
05:21
that two-dimensional sheet,
121
321260
2000
ezt a kétdimenziós lapot,
05:23
imagine neurons.
122
323260
2000
képzeljünk el neuronokat.
05:25
And picture, if you will,
123
325260
2000
És képzeljünk magunk elé, ha akarunk,
05:27
a billboard, a digital billboard,
124
327260
2000
egy kijelzőt, egy digitális kijelzőt,
05:29
where you have elements
125
329260
2000
ahol egyes elemek lehetnek
05:31
that can be either lit or not.
126
331260
2000
kivilágítva, vagy nem kivilágítva.
05:33
And depending on how you create the pattern
127
333260
3000
És attól függően, hogy hogyan alkotjuk meg
05:36
of lighting or not lighting,
128
336260
3000
a mintát a kivilágítással,
05:39
the digital elements,
129
339260
2000
a digitális elemeket,
05:41
or, for that matter, the neurons in the sheet,
130
341260
2000
vagy ha akarjuk a lapon lévő neuronokat,
05:43
you're going to be able to construct a map.
131
343260
2000
képesek leszünk megalkotni egy térképet.
05:45
This, of course, is a visual map that I'm showing you,
132
345260
3000
Ez persze egy vizuális térkép, amit itt mutatok,
05:48
but this applies to any kind of map --
133
348260
2000
de ugyanez vonatkozik minden térképre --
05:50
auditory, for example, in relation to sound frequencies,
134
350260
3000
hangra, pl. a hangfrekvenciákból adódóan,
05:53
or to the maps that we construct with our skin
135
353260
3000
vagy azokra a térképekre, amiket a bőrünk által alkotunk
05:56
in relation to an object that we palpate.
136
356260
3000
az alapján a tárgy alapján, amit tapintunk.
05:59
Now to bring home the point
137
359260
2000
Nos, hogy érthetővé tegyem,
06:01
of how close it is --
138
361260
2000
hogy mennyire is közel van --
06:03
the relationship between the grid of neurons
139
363260
3000
a kapcsolat a neuronok rácsa
06:06
and the topographical arrangement
140
366260
2000
és a neuronok aktivitásának
06:08
of the activity of the neurons
141
368260
2000
topografikus elrendezése,
06:10
and our mental experience --
142
370260
2000
valamint a mentális tapasztalatunk között --
06:12
I'm going to tell you a personal story.
143
372260
2000
elmesélek Önöknek egy személyes sztorit.
06:14
So if I cover my left eye --
144
374260
3000
Tehát, ha letakarom a bal szememet --
06:17
I'm talking about me personally, not all of you --
145
377260
2000
magamról beszélek itt, nem Önökről --
06:19
if I cover my left eye,
146
379260
2000
ha letakarom a bal szememet,
06:21
I look at the grid -- pretty much like the one I'm showing you.
147
381260
3000
és a rácsra nézek -- egészen hasonlóra, ahhoz, amit itt mutatok most Önöknek.
06:24
Everything is nice and fine and perpendicular.
148
384260
3000
Minden teljesen rendben van, merőlegesek.
06:27
But sometime ago, I discovered
149
387260
2000
De nemsokkal ezelőtt észrevettem,
06:29
that if I cover my left eye,
150
389260
3000
hogy ha letakarom a bal szememet,
06:32
instead what I get is this.
151
392260
2000
ezt látom helyette.
06:34
I look at the grid and I see a warping
152
394260
3000
A rácsra nézek és egy elcsavarodást látok
06:37
at the edge of my central-left field.
153
397260
3000
a bal-közép mezőm sarkában.
06:40
Very odd -- I've analyzed this for a while.
154
400260
2000
Nagyon fura -- elemezgettem egy ideig.
06:42
But sometime ago,
155
402260
3000
De nemrégiben
06:45
through the help of an opthamologist colleague of mine,
156
405260
3000
egy szemorvos kollégám,
06:48
Carmen Puliafito,
157
408260
2000
Carmen Puliafito segítségével
06:50
who developed a laser scanner of the retina,
158
410260
3000
aki kifejlesztett egy lézer szkennert a retinára,
06:53
I found out the the following.
159
413260
2000
a következőre jöttem rá:
06:55
If I scan my retina
160
415260
2000
Ha a retinámat
06:57
through the horizontal plane that you see there in the little corner,
161
417260
3000
a horizontális felülete mentén szkennelem be, amit itt látnak ebben a kis sarokban,
07:00
what I get is the following.
162
420260
2000
a következőt kapom:
07:02
On the right side, my retina is perfectly symmetrical.
163
422260
3000
Jobboldalon a retinám tökéletesen szimmetrikus.
07:05
You see the going down towards the fovea
164
425260
3000
Láthatjuk a lejtést a pálcika irányába,
07:08
where the optic nerve begins.
165
428260
2000
ahol a szemideg indul.
07:10
But on my left retina there is a bump,
166
430260
2000
A bal retinámnál azonban van egy dudor,
07:12
which is marked there by the red arrow.
167
432260
2000
amit a piros nyíl jelez.
07:14
And it corresponds to a little cyst
168
434260
2000
Egy kis cisztának felel meg,
07:16
that is located below.
169
436260
2000
ami alatta helyezkedik el.
07:18
And that is exactly what causes
170
438260
3000
És ez okozza a képi látásom
07:21
the warping of my visual image.
171
441260
3000
számára a csavarodást.
07:24
So just think of this:
172
444260
2000
Gondoljuk csak el:
07:26
you have a grid of neurons,
173
446260
2000
van egy idegrácsunk,
07:28
and now you have a plane mechanical change
174
448260
4000
és most létrejön egy egészen szimpla mechanikus változás
07:32
in the position of the grid,
175
452260
2000
a rács pozíciójában,
07:34
and you get a warping of your mental experience.
176
454260
2000
és az eredmény egy csavarodás a mentális tapasztalat számára!
07:36
So this is how close
177
456260
2000
Tehát ennyire van közel
07:38
your mental experience
178
458260
2000
a mentális tapasztalatunk
07:40
and the activity of the neurons in the retina,
179
460260
3000
és a retina neuronjainak aktivitása,
07:43
which is a part of the brain located in the eyeball,
180
463260
3000
amely tulajdonképpen az agynak egy része, csak épp a szemgolyóban helyezkedik el,
07:46
or, for that matter, a sheet of visual cortex.
181
466260
3000
vagy, ha akarjuk, a vizuális kortex egy vetülete.
07:49
So from the retina
182
469260
2000
Tehát a retinából
07:51
you go onto visual cortex.
183
471260
2000
a vizuális kortexbe jutunk.
07:53
And of course, the brain adds on
184
473260
2000
És természetesen az agy hozzátesz
07:55
a lot of information
185
475260
2000
még egy csomó információt
07:57
to what is going on
186
477260
2000
ahhoz, ami a retinán keresztül
07:59
in the signals that come from the retina.
187
479260
2000
érkező jelekben zajlik.
08:01
And in that image there,
188
481260
2000
És ezen a képen itt,
08:03
you see a variety of islands
189
483260
2000
különböző szigeteket látunk arról,
08:05
of what I call image-making regions in the brain.
190
485260
3000
amit én az agy képalkotó részeinek nevezek.
08:08
You have the green for example,
191
488260
2000
Itt van pl. a zöld,
08:10
that corresponds to tactile information,
192
490260
2000
ami a tapintásból fakadó információknak felel meg,
08:12
or the blue that corresponds to auditory information.
193
492260
3000
vagy a kék, ami a hang jeleket mutatja.
08:15
And something else that happens
194
495260
2000
És még az is történik,
08:17
is that those image-making regions
195
497260
3000
hogy azok a képalkotó területek
08:20
where you have the plotting
196
500260
2000
ahol ezeknek az idegi térképeknek
08:22
of all these neural maps,
197
502260
2000
az ábrázolása van,
08:24
can then provide signals
198
504260
2000
jeleket küldhetnek
08:26
to this ocean of purple that you see around,
199
506260
3000
ebbe a lila óceánba, amit itt körben látnak,
08:29
which is the association cortex,
200
509260
2000
ami pedig az asszociációs agykéreg,
08:31
where you can make records of what went on
201
511260
3000
ahol feljegyzések készülnek arról,
08:34
in those islands of image-making.
202
514260
2000
hogy mi történt a képalkotó szigeteken.
08:36
And the great beauty
203
516260
2000
És a legnagyobb szépség ebben az,
08:38
is that you can then go from memory,
204
518260
3000
ezután ki lehet indulni a memóriából,
08:41
out of those association cortices,
205
521260
2000
az asszociációs agykéregből,
08:43
and produce back images
206
523260
3000
és képeket alkotni
08:46
in the very same regions that have perception.
207
526260
3000
ugyanazokon a területeken, ahol azokat felfogtuk.
08:49
So think about how wonderfully convenient and lazy
208
529260
3000
Gondolják csak el, mennyire kényelmes
08:52
the brain is.
209
532260
2000
és lusta egyben az agy.
08:54
So it provides certain areas
210
534260
2000
Ellát bizonyos területeket képalkotó
08:56
for perception and image-making.
211
536260
2000
és felfogó részekkel,
08:58
And those are exactly the same
212
538260
2000
és ugyanazok a részek lesznek azok,
09:00
that are going to be used for image-making
213
540260
3000
amelyeket a képalkotásra is felhasznál,
09:03
when we recall information.
214
543260
3000
amikor visszaidézzük az információt.
09:06
So far the mystery of the conscious mind
215
546260
3000
Nos, a tudatos elme titokzatossága
09:09
is diminishing a little bit
216
549260
2000
már halványul kissé,
09:11
because we have a general sense
217
551260
2000
mert van némi általános képünk arról,
09:13
of how we make these images.
218
553260
2000
hogyan is jönnek létre ezek a képek.
09:15
But what about the self?
219
555260
2000
De mi a helyzet az énnel?
09:17
The self is really the elusive problem.
220
557260
3000
Az én aztán tényleg egy nehezen megfogható probléma.
09:20
And for a long time,
221
560260
2000
Hosszú időn át
09:22
people did not even want to touch it,
222
562260
2000
az emberek nem is akarták érinteni,
09:24
because they'd say,
223
564260
2000
mert, mint mondták:
09:26
"How can you have this reference point, this stability,
224
566260
3000
"honnan is lehetne olyan referenciapontunk, olyan stabilitás,
09:29
that is required to maintain
225
569260
2000
ami ahhoz szükséges, hogy fenntartsuk
09:31
the continuity of selves day after day?"
226
571260
3000
az én állandóságát nap, mint nap?"
09:34
And I thought about a solution to this problem.
227
574260
3000
Kitaláltam egy megoldást erre a kérdésre.
09:37
It's the following.
228
577260
2000
Ez pedig a következő:
09:39
We generate brain maps
229
579260
2000
Agyi térképeket hozunk létre
09:41
of the body's interior
230
581260
2000
a test belső teréről,
09:43
and use them as the reference for all other maps.
231
583260
3000
és azokat használjuk referenciapontként az összes térképhez.
09:46
So let me tell you just a little bit about how I came to this.
232
586260
3000
Hadd világítsam meg egy kicsit, hogyan jutottam erre.
09:49
I came to this because,
233
589260
2000
Úgy jutottam ide,
09:51
if you're going to have a reference that we know as self --
234
591260
4000
mert hát ha van egy referencia pontunk, amit énként ismerünk --
09:55
the Me, the I
235
595260
2000
az ÉN,
09:57
in our own processing --
236
597260
3000
a saját felfogásunk szerint --
10:00
we need to have something that is stable,
237
600260
2000
akkor kell valami, ami stabil,
10:02
something that does not deviate much
238
602260
3000
valami olyan, ami nem nagyon változik,
10:05
from day to day.
239
605260
2000
napról napra.
10:07
Well it so happens that we have a singular body.
240
607260
2000
Nos, hát úgy esett, hogy egyetlen testtel rendelkezünk.
10:09
We have one body, not two, not three.
241
609260
3000
Egy testünk van, nem kettő, nem három.
10:12
And so that is a beginning.
242
612260
2000
Tehát ez a kiindulópont.
10:14
There is just one reference point, which is the body.
243
614260
2000
Csak egyetlen referenciapont van, mégpedig a test.
10:16
But then, of course, the body has many parts,
244
616260
3000
A testnek persze van sok része.
10:19
and things grow at different rates,
245
619260
2000
és ezek különböző arányban növekednek,
10:21
and they have different sizes and different people;
246
621260
2000
különböző méretűek és különböznek az emberek is;
10:23
however, not so with the interior.
247
623260
3000
másképp van azonban ez a bensőnkkel.
10:26
The things that have to do
248
626260
2000
Azoknak a dolgoknak, amiknek köze van
10:28
with what is known as our internal milieu --
249
628260
2000
ahhoz, amit belső milliőként ismerünk --
10:30
for example, the whole management
250
630260
2000
például, a testünk egész vegyi üzemének
10:32
of the chemistries within our body
251
632260
2000
menedzsmentje
10:34
are, in fact, extremely maintained
252
634260
2000
valójában kitűnően
10:36
day after day
253
636260
2000
karban vannak tartva napról napra
10:38
for one very good reason.
254
638260
2000
egyetlen okból kifolyólag.
10:40
If you deviate too much
255
640260
2000
Ha ugyanis túl sokat változtatunk
10:42
in the parameters
256
642260
2000
a paramétereken,
10:44
that are close to the midline
257
644260
2000
amelyek az életet lehetővé tevő
10:46
of that life-permitting survival range,
258
646260
3000
túlélési tartomány középéhez közel esnek,
10:49
you go into disease or death.
259
649260
2000
megbetegszünk, vagy meghalunk.
10:51
So we have an in-built system
260
651260
3000
Ezért van egy, a saját életünkbe
10:54
within our own lives
261
654260
2000
beépített rendszerünk,
10:56
that ensures some kind of continuity.
262
656260
3000
ami biztosít valamiféle folyamatosságot.
10:59
I like to call it an almost infinite sameness from day to day.
263
659260
3000
Szeretem úgy nevezni, hogy szinte végtelen azonosság napról-napra.
11:02
Because if you don't have that sameness, physiologically,
264
662260
4000
Ugyanis, ha nincs meg ez az élettani azonosság,
11:06
you're going to be sick or you're going to die.
265
666260
2000
akkor megbetegszünk, vagy meghalunk.
11:08
So that's one more element for this continuity.
266
668260
3000
Ez tehát még egy eleme a folyamatosságnak.
11:11
And the final thing
267
671260
2000
És végül
11:13
is that there is a very tight coupling
268
673260
2000
van egy nagyon szoros párkapcsolat
11:15
between the regulation of our body within the brain
269
675260
4000
az agyon belüli testszabályozás
11:19
and the body itself,
270
679260
2000
és maga a test közt,
11:21
unlike any other coupling.
271
681260
3000
amely nem hasonlít egyik kapcsolathoz sem.
11:24
So for example, I'm making images of you,
272
684260
2000
Tehát pl. képeket alkotok Önökről,
11:26
but there's no physiological bond
273
686260
3000
nincs azonban semmiféle fizikai kötelék
11:29
between the images I have of you as an audience
274
689260
3000
az Önökről, mint közönségről alkotott képek,
11:32
and my brain.
275
692260
2000
valamint az agyam közt.
11:34
However, there is a close, permanently maintained bond
276
694260
4000
Van azonban egy közeli folyamatosan fenntartott kapcsolat
11:38
between the body regulating parts of my brain
277
698260
3000
az agyamnak a testemet szabályozó része
11:41
and my own body.
278
701260
2000
és a saját testem közt.
11:43
So here's how it looks. Look at the region there.
279
703260
3000
Nos, így néz ez ki. Nézzék ezt a területet.
11:46
There is the brain stem in between the cerebral cortex
280
706260
3000
Ott van ugyanis az agytörzs az agykéreg
11:49
and the spinal cord.
281
709260
2000
és a gerincoszlop közt.
11:51
And it is within that region
282
711260
2000
És éppen ez a rész
11:53
that I'm going to highlight now
283
713260
2000
-- ahogy meg fogom mutatni Önöknek, --
11:55
that we have this housing
284
715260
3000
ad otthont a test összes
11:58
of all the life-regulation devices
285
718260
3000
életet szabályozó
12:01
of the body.
286
721260
2000
berendezésének.
12:03
This is so specific that, for example,
287
723260
3000
Ez annyira jellemző,
12:06
if you look at the part that is covered in red
288
726260
3000
hogy pl. ha vesszük a piros színű részt
12:09
in the upper part of the brain stem,
289
729260
2000
az agytörzs felső részén,
12:11
if you damage that as a result of a stroke, for example,
290
731260
3000
ha sérül agyvérzés következtében pl.
12:14
what you get is coma
291
734260
2000
akkor kómába kerülünk,
12:16
or vegetative state,
292
736260
2000
vagy vegetatív állapotba,
12:18
which is a state, of course,
293
738260
2000
ami egy olyan állapot,
12:20
in which your mind disappears,
294
740260
2000
amiben eltűnik az elme,
12:22
your consciousness disappears.
295
742260
3000
eltűnik a tudat!
12:25
What happens then actually
296
745260
2000
Ami akkor valójában történik,
12:27
is that you lose the grounding of the self,
297
747260
3000
nem más, mint hogy elveszítjük az én alapját,
12:30
you have no longer access to any feeling of your own existence,
298
750260
3000
nem lesz többé hozzáférésünk a saját létezésünkkel kapcsolatos semmilyen érzéshez,
12:33
and, in fact, there can be images going on,
299
753260
3000
és lehetséges ugyan, hogy áramlanak képek,
12:36
being formed in the cerebral cortex,
300
756260
2000
amik az agykéregben keletkeztek,
12:38
except you don't know they're there.
301
758260
2000
csak éppen nincs tudomásunk róluk!
12:40
You have, in effect, lost consciousness
302
760260
3000
Tényleges tudatvesztés következik be,
12:43
when you have damage to that red section of the brain stem.
303
763260
4000
amikor agytörzsünk e pirosra festett része sérül.
12:47
But if you consider the green part of the brain stem,
304
767260
3000
De ha vesszük az agytörzs zöld részét,
12:50
nothing like that happens.
305
770260
2000
semmi ilyen nem történik!
12:52
It is that specific.
306
772260
2000
Ez ennyire jellemző erre a részre.
12:54
So in that green component of the brain stem,
307
774260
3000
Tehát ha az agytörzs ezen zöld részén
12:57
if you damage it, and often it happens,
308
777260
3000
szenvedünk sérülést, s ez gyakran megesik,
13:00
what you get is complete paralysis,
309
780260
2000
teljes bénulás következik be,
13:02
but your conscious mind is maintained.
310
782260
3000
a tudatos elménk azonban sértetlen marad.
13:05
You feel, you know, you have a fully conscious mind
311
785260
3000
Érzünk, emlékezünk, teljességgel tudatában vagyunk a dolgoknak,
13:08
that you can report very indirectly.
312
788260
3000
amiről egészen indirekt módon jelzéseket adhatunk.
13:11
This is a horrific condition. You don't want to see it.
313
791260
3000
Ez egy szörnyű állapot. Nem hiszem, hogy látni akarják.
13:14
And people are, in fact, imprisoned
314
794260
2000
Az emberek tulajdonképpen
13:16
within their own bodies,
315
796260
2000
saját testük börtönébe szorulnak,
13:18
but they do have a mind.
316
798260
2000
elméjük azonban ép marad.
13:20
There was a very interesting film,
317
800260
2000
Volt egy nagyon érdekes film,
13:22
one of the rare good films done
318
802260
2000
a kevés jó filmek egyike,
13:24
about a situation like this,
319
804260
2000
egy ilyen esetről,
13:26
by Julian Schnabel some years ago
320
806260
2000
amit Julian Schnabel készített néhány éve
13:28
about a patient that was in that condition.
321
808260
3000
egy betegről, aki ilyen állapotban volt.
13:31
So now I'm going to show you a picture.
322
811260
2000
Most mutatok Önöknek egy képet.
13:33
I promise not to say anything about this,
323
813260
2000
Megígérem, hogy nem mondok róla semmit,
13:35
except this is to frighten you.
324
815260
2000
mivel csak azért van itt, hogy megijessze Önöket.
13:37
It's just to tell you
325
817260
2000
Csak azért van itt, hogy megmutassa Önöknek,
13:39
that in that red section of the brain stem,
326
819260
3000
hogy abban a piros részben ott az agytörzsnél,
13:42
there are, to make it simple,
327
822260
2000
hogy egyszerűen fogalmazzak, ott vannak
13:44
all those little squares that correspond to modules
328
824260
3000
azok a kis négyzetecskék, amik megfelelnek
13:47
that actually make brain maps
329
827260
3000
azoknak a moduloknak, amik feltérképezik
13:50
of different aspects of our interior,
330
830260
3000
a belsőnk különböző aspektusait,
13:53
different aspects of our body.
331
833260
2000
a testünk különböző aspektusait.
13:55
They are exquisitely topographic
332
835260
3000
Gyönyörűen kirajzolódnak,
13:58
and they are exquisitely interconnected
333
838260
2000
és gyönyörűen mutatják az összeköttetéseket
14:00
in a recursive pattern.
334
840260
2000
az ismétlődő mintákban.
14:02
And it is out of this and out of this tight coupling
335
842260
3000
És hiszem, hogy ebből, ill. a test és agytörzs
14:05
between the brain stem and the body
336
845260
2000
ezen szoros kötéséből,
14:07
that I believe -- and I could be wrong,
337
847260
2000
-- és persze tévedhetek is,
14:09
but I don't think I am --
338
849260
2000
bár nem hiszem, hogy tévednék --
14:11
that you generate this mapping of the body
339
851260
3000
alkotjuk meg a test feltérképezését
14:14
that provides the grounding for the self
340
854260
3000
ami az én számára az alapot adja,
14:17
and that comes in the form of feelings --
341
857260
2000
és ami érzések formájában jelentkezik --
14:19
primordial feelings, by the way.
342
859260
2000
az eredendő érzéseket értve ezalatt.
14:21
So what is the picture that we get here?
343
861260
2000
Akkor tehát milyen kép rajzolódott ki előttünk?
14:23
Look at "cerebral cortex," look at "brain stem,"
344
863260
2000
Nézzük meg az "agykérget", az "agytörzset",
14:25
look at "body,"
345
865260
2000
a "testet",
14:27
and you get the picture of the interconnectivity
346
867260
3000
és megkapjuk az összeköttetések rajzolatát,
14:30
in which you have the brain stem providing the grounding for the self
347
870260
4000
amelyben az agytörzs biztosítja az alapot az én számára,
14:34
in a very tight interconnection with the body.
348
874260
3000
a testtel nagyon szoros összeköttetésben.
14:37
And you have the cerebral cortex
349
877260
2000
És ott van az agykéreg is,
14:39
providing the great spectacle of our minds
350
879260
3000
amely az elménk nagy látószögét adja,
14:42
with the profusion of images
351
882260
2000
képek pazar bőségét,
14:44
that are, in fact, the contents of our minds
352
884260
3000
amelyek valójában az elménk tartalma,
14:47
and that we normally pay most attention to,
353
887260
3000
és amire általában leginkább odafigyelünk,
14:50
as we should, because that's really
354
890260
2000
ahogy kell is, mert az valójában
14:52
the film that is rolling in our minds.
355
892260
2000
az a film, ami pörög az elménkben.
14:54
But look at the arrows.
356
894260
2000
De nézzük csak a nyilakat.
14:56
They're not there for looks.
357
896260
2000
Nem csak mutiból vannak ott.
14:58
They're there because there's this very close interaction.
358
898260
3000
Azért vannak ott, mert ott nagyon közeli interakció zajlik.
15:01
You cannot have a conscious mind
359
901260
2000
Nem lehet tudatos elméje annak,
15:03
if you don't have the interaction
360
903260
2000
akinek nincs interakció
15:05
between cerebral cortex and brain stem.
361
905260
2000
az agykérge és agytörzse közt.
15:07
You cannot have a conscious mind
362
907260
2000
Nem lehet tudatos elméje annak,
15:09
if you don't have the interaction
363
909260
2000
akinek nincs interakció
15:11
between the brain stem and the body.
364
911260
2000
az agytörzse és a teste közt.
15:13
Another thing that is interesting
365
913260
2000
Van még egy dolog, ami nagyon érdekes,
15:15
is that the brain stem that we have
366
915260
2000
hogy az olyan agytörzs, mint ami nekünk is van,
15:17
is shared with a variety of other species.
367
917260
2000
nagyon sok más fajnál is megtalálható.
15:19
So throughout vertebrates,
368
919260
2000
A gerinceseknél
15:21
the design of the brain stem is very similar to ours,
369
921260
3000
az agytörzs nagyon hasonló a miénkhez,
15:24
which is one of the reasons why I think
370
924260
2000
ami az egyik oka annak, hogy azt gondolom,
15:26
those other species have conscious minds like we do.
371
926260
3000
hogy azoknak a fajoknak is ugyanolyan tudatos elméjük van, mint nekünk.
15:29
Except that they're not as rich as ours,
372
929260
3000
Talán annyi a különbség, hogy az övék nem olyan gazdag, mint a miénk,
15:32
because they don't have a cerebral cortex like we do.
373
932260
2000
mivel nincs olyan agykérgük, mint nekünk.
15:34
That's where the difference is.
374
934260
2000
Ennyi a különbség.
15:36
And I strongly disagree with the idea
375
936260
3000
És komolyan ellenzem azt az elképzelést,
15:39
that consciousness should be considered
376
939260
3000
miszerint a tudatot az agykéreg
15:42
as the great product of the cerebral cortex.
377
942260
2000
nagy eredményének kéne tekintenünk.
15:44
Only the wealth of our minds is,
378
944260
2000
Csak elménk gazdagsága függ ettől,
15:46
not the very fact that we have a self
379
946260
3000
nem maga a tény, hogy énnel rendelkezünk,
15:49
that we can refer
380
949260
2000
ami által saját létezésünket
15:51
to our own existence,
381
951260
2000
képesek vagyunk felfogni,
15:53
and that we have any sense of person.
382
953260
4000
és ami miatt személyiség tudattal is rendelkezünk.
15:57
Now there are three levels of self to consider --
383
957260
3000
Nos, az énnek 3 szintje van, amit figyelembe kell venni --
16:00
the proto, the core and the autobiographical.
384
960260
3000
a proto-, az alap-, és az önéletrajzi.
16:03
The first two are shared
385
963260
2000
Az első kettővel nagyon-nagyon sok
16:05
with many, many other species,
386
965260
2000
más faj is rendelkezik,
16:07
and they are really coming out
387
967260
2000
és ezek nagyrészt az agytörzsből
16:09
largely of the brain stem
388
969260
2000
indulnak ki, és abból, az agykéregből,
16:11
and whatever there is of cortex in those species.
389
971260
3000
amilyen azoknak a fajoknak éppen van.
16:14
It's the autobiographical self
390
974260
2000
Az önéletrajzi éntudat az,
16:16
which some species have, I think.
391
976260
2000
ami szerintem csak néhány fajnak van.
16:18
Cetaceans and primates have also
392
978260
3000
A cetfélék és a főemlősök rendelkeznek
16:21
an autobiographical self to a certain degree.
393
981260
2000
bizonyos fokú önéletrajzi tudattal.
16:23
And everybody's dogs at home
394
983260
2000
És a kutyáinknak otthon
16:25
have an autobiographical self to a certain degree.
395
985260
3000
szintén van bizonyos fokú öntudata.
16:28
But the novelty is here.
396
988260
2000
Az újdonság azonban ebben rejlik.
16:30
The autobiographical self is built
397
990260
2000
Az önéletrajzi tudat a múlt emlékeire,
16:32
on the basis of past memories
398
992260
2000
és az általunk eltervezettekre
16:34
and memories of the plans that we have made;
399
994260
3000
való emlékezésre alapul;
16:37
it's the lived past and the anticipated future.
400
997260
3000
amik a megélt múlt és a várható jövő.
16:40
And the autobiographical self
401
1000260
2000
És az önéletrajzi én az, ami ösztönzi
16:42
has prompted extended memory, reasoning,
402
1002260
3000
a széleskörű memóriát, a gondolkodást,
16:45
imagination, creativity and language.
403
1005260
2000
a képzelőerőt, a kreativitást és a nyelvérzéket.
16:47
And out of that came the instruments of culture --
404
1007260
3000
Ebből származnak aztán a kultúra intézményei --
16:50
religions, justice,
405
1010260
2000
a vallások, igazságszolgáltatás,
16:52
trade, the arts, science, technology.
406
1012260
2000
kereskedelem, a művészetek, a tudomány, a technológia.
16:54
And it is within that culture
407
1014260
2000
És ebben a kultúrában tudunk aztán
16:56
that we really can get --
408
1016260
2000
valami olyanhoz jutni,
16:58
and this is the novelty --
409
1018260
2000
-- és ez az újdonság benne --
17:00
something that is not entirely set by our biology.
410
1020260
4000
ami nem teljesen a biológiánk függvénye,
17:04
It is developed in the cultures.
411
1024260
2000
hanem a kultúrákban fejlődött ki,
17:06
It developed in collectives of human beings.
412
1026260
4000
az emberi lények csoportjaiban fejlődött ki.
17:10
And this is, of course, the culture
413
1030260
2000
és ez természetesen az a kultúra,
17:12
where we have developed something that I like to call
414
1032260
3000
ahol kifejlesztettünk valami olyasmit, amit szeretek
17:15
socio-cultural regulation.
415
1035260
2000
társadalmi-kulturális szabályozásnak nevezni.
17:17
And finally, you could rightly ask,
416
1037260
2000
Végezetül jogosan felmerülhet bennünk a kérdés,
17:19
why care about this?
417
1039260
2000
hogy miért is érdemes ezekkel foglalkozni?
17:21
Why care if it is the brain stem or the cerebral cortex
418
1041260
3000
Minek tudni, hogy vajon az agytörzstől, vagy az agykéregtől
17:24
and how this is made?
419
1044260
2000
függenek-e ezek és hogyan épülnek fel?
17:26
Three reasons. First, curiosity.
420
1046260
2000
3 okból. Az első a kíváncsiság.
17:28
Primates are extremely curious --
421
1048260
2000
A főemlősök végtelenül kíváncsiak
17:30
and humans most of all.
422
1050260
2000
-- az ember kiváltképpen.
17:32
And if we are interested, for example,
423
1052260
3000
És ha pl. érdeklődünk aziránt,
17:35
in the fact that anti-gravity
424
1055260
2000
hogy az antigravitáció
17:37
is pulling galaxies away from the Earth,
425
1057260
2000
eltávolítja a Földtől a galaxisokat,
17:39
why should we not be interested in what is going on
426
1059260
2000
miért ne érdeklődnénk az iránt,
17:41
inside of human beings?
427
1061260
3000
ami bennünk, emberi lényekben belül zajlik?
17:44
Second, understanding society and culture.
428
1064260
2000
Második ok: a társadalom és kultúra megértése.
17:46
We should look
429
1066260
2000
Oda kéne figyelni,
17:48
at how society and culture
430
1068260
2000
hogy a társadalom és a kultúra
17:50
in this socio-cultural regulation
431
1070260
2000
ebben a társadalmi-kulturális szabályozásban
17:52
are a work in progress.
432
1072260
2000
mennyire előrehaladottak.
17:54
And finally, medicine.
433
1074260
2000
Végül: az orvostudomány.
17:56
Let's not forget that some of the worst diseases
434
1076260
2000
Ne feledkezzünk el arról, hogy az emberiség
17:58
of humankind
435
1078260
2000
néhány legszörnyebb betegsége
18:00
are diseases such as depression,
436
1080260
2000
a depresszió,
18:02
Alzheimer's disease, drug addiction.
437
1082260
3000
az Alzheimer-kór, a drogfüggőség.
18:05
Think of strokes that can devastate your mind
438
1085260
3000
Gondoljunk az agyvérzésre, ami tönkreteheti az elménket,
18:08
or render you unconscious.
439
1088260
2000
vagy öntudatlanná válhatunk következtében.
18:10
You have no prayer
440
1090260
3000
Esélyünk sincs
18:13
of treating those diseases effectively
441
1093260
3000
ezeket a betegségeket hatékonyan kezelni
18:16
and in a non-serendipitous way
442
1096260
2000
és nem csak a szerencsére hagyatkozni,
18:18
if you do not know how this works.
443
1098260
2000
ha nem tudjuk, ezek a dolgok hogyan működnek.
18:20
So that's a very good reason
444
1100260
2000
Ez tehát egy nagyon jó érv arra,
18:22
beyond curiosity
445
1102260
2000
hogy a kíváncsiságon túl
18:24
to justify what we're doing,
446
1104260
2000
igazoljuk, hogy van értelme annak, amit teszünk
18:26
and to justify having some interest in what is going on in our brains.
447
1106260
3000
és igazoljuk, hogy érdekel bennünket az, ami az agyunkban zajlik.
18:29
Thank you for your attention.
448
1109260
2000
Köszönöm, hogy meghallgattak.
18:31
(Applause)
449
1111260
5000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7