What is consciousness? - Michael S. A. Graziano

1,415,981 views ・ 2019-02-11

TED-Ed


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Beatrix Turán Lektor: Péter Pallós
00:06
Here are two images of a house.
0
6657
2420
Íme, két kép ugyanarról a házról.
00:09
There’s one obvious difference,
1
9077
2270
Van egy nyilvánvaló különbség a kettő között,
00:11
but to this patient, P.S.,
2
11347
2460
ám e páciens, P.S. számára
00:13
they looked completely identical.
3
13807
2800
a két kép tökéletesen egyformának látszik.
00:16
P.S. had suffered a stroke that damaged the right side of her brain,
4
16607
3760
P.S.-t agyi érkatasztrófa érte, amely károsította jobb agyféltekéjét,
00:20
leaving her unaware of everything on her left side.
5
20367
3650
így semmit nem érzékel, ami a bal oldalán történik.
00:24
But though she could discern no difference between the houses,
6
24017
3540
De annak ellenére, hogy nem észlelt különbséget a két ház között,
00:27
when researchers asked her which she would prefer to live in,
7
27557
3390
amikor kutatók megkérdezték, melyikben lakna szívesebben,
00:30
she chose the house that wasn’t burning—
8
30947
2840
azt választotta, amelyik nem égett –
00:33
not once, but again and again.
9
33787
3110
nemcsak egyszer, hanem újra meg újra.
00:36
P.S.’s brain was still processing information
10
36897
3420
P.S. agya továbbra is feldolgozta
00:40
from her whole field of vision.
11
40317
2120
az összes elé kerülő információt.
00:42
She could see both images
12
42437
1660
Mindkét képet látta
00:44
and tell the difference between them,
13
44097
1980
és meg tudta állapítani a különbséget,
00:46
she just didn’t know it.
14
46077
1760
egyszerűen nem tudta, hogy meg tudja.
00:47
If someone threw a ball at her left side,
15
47837
2710
Ha valaki labdát dobna teste bal oldala felé,
00:50
she might duck.
16
50547
980
talán kitérne előle.
00:51
But she wouldn’t have any awareness of the ball,
17
51527
3250
Ám nem érzékelné a labdát, és nem tudná,
00:54
or any idea why she ducked.
18
54777
2680
miért tett kitérő mozdulatot.
00:57
P.S.’s condition,
19
57457
1420
P.S. betegsége,
00:58
known as hemispatial neglect,
20
58877
2270
az ún. neglekt szindróma,
01:01
reveals an important distinction between the brain’s processing of information
21
61147
4840
fontos különbségre mutat rá az agyi információ-feldolgozás
01:05
and our experience of that processing.
22
65987
3177
és az általunk érzékelt információ-feldolgozás között.
01:09
That experience is what we call consciousness.
23
69164
3870
A különbség: a tudat.
01:13
We are conscious of both the external world and our internal selves—
24
73034
5010
Tudatában vagyunk mind a külvilágnak, mind belső világunknak –
01:18
we are aware of an image
25
78044
1771
éppúgy tudatában vagyunk egy képnek,
01:19
in much the same way we are aware of ourselves looking at an image,
26
79815
3870
mint saját magunknak, amint egy képet nézünk,
01:23
or our inner thoughts and emotions.
27
83685
2770
vagy mint legbensőbb gondolatainknak és érzelmeinknek.
01:26
But where does consciousness come from?
28
86455
2510
Honnan ered a tudat?
01:28
Scientists, theologians, and philosophers
29
88965
2850
Tudósok, teológusok és filozófusok
01:31
have been trying to get to the bottom of this question for centuries—
30
91815
3810
évszázadok óta próbálnak a kérdés végére járni,
01:35
without reaching any consensus.
31
95625
2600
anélkül hogy megegyezésre jutnának.
01:38
One recent theory is that
32
98225
1710
Az egyik újabb elmélet szerint
01:39
consciousness is the brain’s imperfect picture of its own activity.
33
99935
4930
a tudat az agy pontatlan képe saját tevékenységéről.
01:44
To understand this theory,
34
104865
1470
Az elmélet megértésében segít,
01:46
it helps to have a clear idea
35
106335
1630
ha pontos képünk van arról,
01:47
of one important way the brain processes information from our senses.
36
107965
4830
hogyan dolgozza fel agyunk az érzékszerveinktől érkező infót.
01:52
Based on sensory input,
37
112795
1609
Az érzékszervi benyomások alapján
01:54
it builds models,
38
114404
1360
az agy modelleket épít,
01:55
which are continuously updating, simplified descriptions
39
115764
3400
amelyek a világ tárgyainak és eseményeinek
01:59
of objects and events in the world.
40
119164
2940
folyton frissülő, egyszerűsített leírásai.
02:02
Everything we know is based on these models.
41
122104
3350
Minden, amit tudunk, e modelleken alapul.
02:05
They never capture every detail of the things they describe,
42
125454
3590
A modellek sosem írják le tárgyuk minden egyes részletét,
02:09
just enough for the brain to determine appropriate responses.
43
129044
4053
csak annyit, amennyi alapján agyunk meghatározhatja a megfelelő reakciót.
02:13
For instance, one model built deep into the visual system
44
133397
3480
Pl. a látórendszerünkbe mélyen beépült egyik modell
02:16
codes white light as brightness without color.
45
136877
3260
a fehér fényt mint színtelen ragyogást írja le.
02:20
In reality,
46
140137
1060
A valóságban viszont a fehér fény
02:21
white light includes wavelengths
47
141197
1790
02:22
that correspond to all the different colors we can see.
48
142987
3350
az összes látható színű,
más-más hullámhosszú fényekből áll.
02:26
Our perception of white light is wrong and oversimplified,
49
146337
3690
Fényérzékelésünk helytelen és túlságosan leegyszerűsített,
02:30
but good enough for us to function.
50
150027
2460
de elég ahhoz, hogy boldoguljunk.
02:32
Likewise, the brain’s model of the physical body
51
152487
2640
Hasonlóképpen, agyunk modellje a testünkről
02:35
keeps track of the configuration of our limbs,
52
155127
2670
számon tartja végtagjaink elrendezését,
02:37
but not of individual cells or even muscles,
53
157797
3190
ám nem nem figyel az egyes sejtekre vagy akár izmokra,
02:40
because that level of information isn’t needed to plan movement.
54
160987
3980
mert a mozgás megtervezéséhez szükségtelen ilyen mélységű adat.
02:44
If it didn’t have the model keeping track of the body’s size, shape,
55
164967
3740
Ha agyunk nem modellezné pontosan testünk méretét, alakját
02:48
and how it is moving at any moment,
56
168707
1970
és pillanatnyi mozgását,
02:50
we would quickly injure ourselves.
57
170677
2410
könnyen sérülést okozhatnánk magunknak.
02:53
The brain also needs models of itself.
58
173087
2710
Az agynak szüksége van modellekre saját magáról is.
02:55
For example,
59
175797
870
Például,
02:56
the brain has the ability to pay attention to specific objects and events.
60
176667
4520
agyunk képes odafigyelni konkrét tárgyakra és eseményekre.
03:01
It also controls that focus,
61
181187
2171
Irányítja is, hogy mire figyel,
03:03
shifting it from one thing to another,
62
183358
1910
egyik tárgyról a másikra fókuszál,
03:05
internal and external,
63
185268
1490
belső és külső történésekre,
03:06
according to our needs.
64
186758
1610
szükségleteink szerint.
03:08
Without the ability to direct our focus,
65
188368
2210
Az összpontosítás képessége nélkül
03:10
we wouldn’t be able to assess threats, finish a meal, or function at all.
66
190578
4740
nem tudnánk felmérni a veszélyeket, megebédelni vagy egyáltalán: működni.
03:15
To control focus effectively,
67
195318
2179
A hatékony összpontosítás érdekében
03:17
the brain has to construct a model of its own attention.
68
197497
3410
agyunknak modelleznie kell saját figyelmét is.
03:20
With 86 billion neurons constantly interacting with each other,
69
200907
3960
86 milliárd idegsejt van egymással állandó kölcsönhatásban, ezért lehetetlen,
03:24
there’s no way the brain’s model of its own information processing
70
204867
3790
hogy agyunk modellje saját információ-feldolgozásáról
03:28
can be perfectly self-descriptive.
71
208657
2460
teljesen leírja önmagát.
03:31
But like the model of the body,
72
211117
1670
Ám mint testünk
03:32
or our conception of white light,
73
212787
2110
vagy a fehér fény modelljének,
03:34
it doesn’t have to be.
74
214897
1630
ennek sem kell teljesnek lennie.
03:36
Our certainty that we have a metaphysical, subjective experience
75
216527
3810
Bizonyosságunk, hogy átélünk valamely metafizikai, szubjektív élményt
03:40
may come from one of the brain’s models,
76
220337
2310
származhat agyunk egyik modelljétől,
03:42
a cut-corner description of what it means to process information
77
222647
3730
amely leegyszerűsített formában leírja, mit jelent infót értelmezni
03:46
in a focused and deep manner.
78
226377
2820
koncentráltan és mélyen.
03:49
Scientists have already begun trying to figure out
79
229197
2670
Tudósok már elkezdték kutatni,
03:51
how the brain creates that self model.
80
231867
2920
hogyan modellezi magát agyunk.
03:54
MRI studies are a promising avenue for pinpointing the networks involved.
81
234787
4730
Az MRI-kutatások segíthetnek meghatározni az ebben részt vevő hálózatokat.
03:59
These studies compare patterns of neural activation
82
239517
2980
E kutatások összehasonlítják az agyműködés mintázatát,
04:02
when someone is and isn’t conscious of a sensory stimulus, like an image.
83
242497
5010
amikor tudatában vagyunk egy ingernek, pl. egy képnek, és amikor nem.
04:07
The results show that the areas needed for visual processing
84
247507
3440
Az eredmények szerint a képi érzékelést végző területek
04:10
are activated whether or not the participant is aware of the image,
85
250947
3969
működésbe lépnek, akár tudatában van az alany a képnek, akár nincs,
04:14
but a whole additional network lights up
86
254916
2761
ám egy további hálózat csak akkor lép működésbe,
04:17
only when they are conscious of seeing the image.
87
257677
3710
amikor az alany tudatában van a képnek.
04:21
Patients with hemispatial neglect, like P.S.,
88
261387
2850
A neglekt szindrómás betegeknél, mint pl. P.S.-nél,
04:24
typically have damage to one particular part of this network.
89
264237
4230
gyakran károsodott e hálózat egyik része.
04:28
More extensive damage to the network can sometimes lead to a vegetative state,
90
268467
4322
A hálózat kiterjedtebb károsodása néha vegetatív állapothoz vezethet,
04:32
with no sign of consciousness.
91
272789
2930
a tudatosság minden jele nélkül.
04:35
Evidence like this brings us closer to understanding
92
275719
2780
E bizonyítékok közelebb visznek ahhoz, hogy megértsük,
04:38
how consciousness is built into the brain,
93
278499
2750
hogyan épül a tudat az agyba,
04:41
but there’s still much more to learn.
94
281249
1900
ám még sokat kell tanulnunk.
04:43
For instance,
95
283149
860
Például az,
04:44
the way neurons in the networks related to consciousness
96
284009
2850
hogyan dolgoznak fel konkrét infókat
04:46
compute specific pieces of information
97
286859
2540
a tudathoz kötődő hálózatok idegsejtjei,
04:49
is outside the scope of our current technology.
98
289399
2970
a jelenlegi technikával nem tárható fel.
04:52
As we approach questions of consciousness with science,
99
292369
3080
A tudat kérdéseit tudományosan vizsgálva
04:55
we’ll open new lines of inquiry into human identity.
100
295449
3530
új utakat nyitunk az emberi identitás megismerése felé.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7