How we read each other's minds | Rebecca Saxe

560,652 views ・ 2009-09-11

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Orsolya Szemere Lektor: Robert Toth Dr
00:12
Today I'm going to talk to you about the problem of other minds.
0
12160
3000
Ma más emberek elméjének problematikájáról fogok Önöknek beszélni.
00:15
And the problem I'm going to talk about
1
15160
2000
És ez nem az a szokásos probléma lesz,
00:17
is not the familiar one from philosophy,
2
17160
3000
amit a filozófiából jól imerünk,
00:20
which is, "How can we know
3
20160
2000
azaz, hogy "Honnan is tudhatjuk, hogy
00:22
whether other people have minds?"
4
22160
2000
másoknak is van-e elméje?"
00:24
That is, maybe you have a mind,
5
24160
2000
Azaz, lehet, hogy Önnek van,
00:26
and everyone else is just a really convincing robot.
6
26160
3000
de mindenki más esetleg egyszerűen egy meggyőző robot!
00:29
So that's a problem in philosophy,
7
29160
2000
Na, a filozófiai megközelítés ilyen.
00:31
but for today's purposes I'm going to assume
8
31160
2000
De a mai cél elérése érdekében felteszem,
00:33
that many people in this audience have a mind,
9
33160
2000
hogy itt e közönségben sok embernek van elméje,
00:35
and that I don't have to worry about this.
10
35160
2000
és hogy így emiatt nem kell aggódnom.
00:37
There is a second problem that is maybe even more familiar to us
11
37160
3000
Van még egy gond, ami lehet, hogy még ismerősebb,
00:40
as parents and teachers and spouses
12
40160
3000
szülőként, tanárként, házastársként,
00:43
and novelists,
13
43160
2000
valamint íróként.
00:45
which is, "Why is it so hard
14
45160
2000
Ami a következő: "miért olyan nehéz
00:47
to know what somebody else wants or believes?"
15
47160
2000
megtudni, hogy mások mit akarnak, ill. gondolnak?"
00:49
Or perhaps, more relevantly,
16
49160
2000
Vagy még pontosabban fogalmazva,
00:51
"Why is it so hard to change what somebody else wants or believes?"
17
51160
3000
"Miért olyan nehéz megváltoztatni azt, amit más akar, ill. gondol?
00:54
I think novelists put this best.
18
54160
2000
Azt gondolom, az írók minden tőlük telhetőt megtesznek.
00:56
Like Philip Roth, who said,
19
56160
2000
Mint Philip Roth, aki szerint:
00:58
"And yet, what are we to do about this terribly significant business
20
58160
3000
"És mégis, mi közünk más emberek
01:01
of other people?
21
61160
2000
oly szörnyen jelentős ügyeihez?
01:03
So ill equipped are we all,
22
63160
2000
Oly mérhetetlenül rosszul felszereltek vagyunk ahhoz,
01:05
to envision one another's interior workings
23
65160
2000
hogy meglássuk egymás belső munkálkodásait
01:07
and invisible aims."
24
67160
2000
és felfoghatatlan céljait."
01:09
So as a teacher and as a spouse,
25
69160
3000
Tehát mind tanárként, mind házastársként
01:12
this is, of course, a problem I confront every day.
26
72160
2000
szembekerülök ezzel a kérdéssel nap, mint nap.
01:14
But as a scientist, I'm interested in a different problem of other minds,
27
74160
3000
Ám tudósként másféleképpen foglalkoztat engem a többi ember elméje,
01:17
and that is the one I'm going to introduce to you today.
28
77160
3000
és ezt fogom ma Önöknek bemutatni.
01:20
And that problem is, "How is it so easy
29
80160
2000
A kérdés pedig ez: "Hogy lehet olyan könnyű
01:22
to know other minds?"
30
82160
2000
más emberek elméjét megismerni?"
01:24
So to start with an illustration,
31
84160
2000
Hogy képekkel kezdjünk,
01:26
you need almost no information,
32
86160
2000
szinte semmi információra nincs szükségünk,
01:28
one snapshot of a stranger,
33
88160
2000
egy pillanatkép egy idegenről,
01:30
to guess what this woman is thinking,
34
90160
2000
hogy kitaláljuk, vajon ez a nő épp mire gondol,
01:32
or what this man is.
35
92160
3000
vagy hogy milyen ez a férfi.
01:35
And put another way, the crux of the problem is
36
95160
2000
Hogy máshonnan közelítsem, a kérdés keresztje az,
01:37
the machine that we use for thinking about other minds,
37
97160
3000
hogy a mások elméjéről való gondolkodásra használatos gépezetünk,
01:40
our brain, is made up of pieces, brain cells,
38
100160
3000
az agyunk, apró darabkákból áll össze, agysejtekből,
01:43
that we share with all other animals, with monkeys
39
103160
2000
amik pontosan ugyanolyanok, mint más állatokéi, majmokéi
01:45
and mice and even sea slugs.
40
105160
3000
egerekéi, vagy akár a tengeri csigákéi.
01:48
And yet, you put them together in a particular network,
41
108160
3000
És mégis, ha egy bizonyos hálózattá szerveződnek,
01:51
and what you get is the capacity to write Romeo and Juliet.
42
111160
3000
olyan kapacitást kaphatunk, ami képes Rómeó és Júliát írni!"
01:54
Or to say, as Alan Greenspan did,
43
114160
2000
Vagy, hogy Alan Greenspant említsem,
01:56
"I know you think you understand what you thought I said,
44
116160
3000
"Tudom, hogy azt gondolod, hogy érted, amit gondolsz, hogy mondtam,
01:59
but I'm not sure you realize that what you heard
45
119160
2000
de nem vagyok biztos abban, hogy rájössz-e, hogy amit hallottál
02:01
is not what I meant."
46
121160
2000
nem az, amit én ezalatt értettem."
02:03
(Laughter)
47
123160
3000
(Nevetés)
02:06
So, the job of my field of cognitive neuroscience
48
126160
2000
Tehát a kognitív idegtudomány területén végzett munkám feladata,
02:08
is to stand with these ideas,
49
128160
2000
hogy kiállja a versenyt ezekkel az elképzelésekkel,
02:10
one in each hand.
50
130160
2000
melyekből minden kézre jut egy.
02:12
And to try to understand how you can put together
51
132160
3000
És hogy megpróbáljuk megérteni hogyan hozhatunk össze
02:15
simple units, simple messages over space and time, in a network,
52
135160
4000
egyszerű részeket, egyszerű üzeneteket, téren és időn át, egy hálózatba,
02:19
and get this amazing human capacity to think about minds.
53
139160
4000
hogy megkapjuk ezt a lenyűgöző képességet: az elméről való elmélkedést.
02:23
So I'm going to tell you three things about this today.
54
143160
3000
3 dolgot fogok erről ma megosztani Önökkel.
02:26
Obviously the whole project here is huge.
55
146160
3000
Nyilvánvalóan hatalmas projektről van szó.
02:29
And I'm going to tell you just our first few steps
56
149160
3000
Mindössze a kezdeti néhány lépést fogom ecsetelni,
02:32
about the discovery of a special brain region
57
152160
2000
az agy egy speciális részének felfedezéséről,
02:34
for thinking about other people's thoughts.
58
154160
2000
ami arra hivatott, hogy mások gondolatairól elmélkedjen.
02:36
Some observations on the slow development of this system
59
156160
2000
Néhány megfigyelést ennek a rendszernek a lassú fejlődéséről,
02:38
as we learn how to do this difficult job.
60
158160
4000
ahogy tanuljuk e nehéz munka elvégzését.
02:42
And then finally, to show that some of the differences
61
162160
2000
És végül, hogy bemutassam, hogy néhány köztünk lévő
02:44
between people, in how we judge others,
62
164160
3000
különbség abban, ahogy egymást megítéljük,
02:47
can be explained by differences in this brain system.
63
167160
4000
az agyrendszerünk közti különbséggel magyarázható.
02:51
So first, the first thing I want to tell you is that
64
171160
2000
Az első dolog tehát, amit mondani szeretnék,
02:53
there is a brain region in the human brain, in your brains,
65
173160
3000
az az, hogy van egy terület az emberi agyban, az agyunkban,
02:56
whose job it is to think about other people's thoughts.
66
176160
3000
aminek az a feladata, hogy más emberek gondolatait vizsgálja.
02:59
This is a picture of it.
67
179160
2000
Ez egy kép erről a területről.
03:01
It's called the Right Temporo-Parietal Junction.
68
181160
2000
Jobboldali temporo-parietális elágazásnak nevezik.
03:03
It's above and behind your right ear.
69
183160
2000
A jobb fülünk fölött és mögött helyezkedik el.
03:05
And this is the brain region you used when you saw the pictures I showed you,
70
185160
2000
Ez az az agyterület, amit akkor is használtak pl. amikor a képeket mutattam,
03:07
or when you read Romeo and Juliet
71
187160
2000
vagy amikor a Rómeó és Júliát olvasták,
03:09
or when you tried to understand Alan Greenspan.
72
189160
3000
vagy amikor Alan Greenspant akarták megérteni.
03:12
And you don't use it for solving any other kinds of logical problems.
73
192160
4000
És nem használjuk semmi másféle logikai probléma megoldásához.
03:16
So this brain region is called the Right TPJ.
74
196160
3000
Tehát ezt az agyterületet RTPJ-nek nevezzük (angolul).
03:19
And this picture shows the average activation
75
199160
2000
Ez a kép mutatja az átlagos aktivitását
03:21
in a group of what we call typical human adults.
76
201160
2000
egy csoport tipikus felnőtt embernél.
03:23
They're MIT undergraduates.
77
203160
2000
Műszaki egyetemistákról van szó.
03:25
(Laughter)
78
205160
4000
(nevetés)
03:29
The second thing I want to say about this brain system
79
209160
2000
A második, amit erről az agyrendszerről el szeretnék mondani,
03:31
is that although we human adults
80
211160
2000
az az, hogy habár mi felnőttek
03:33
are really good at understanding other minds,
81
213160
2000
nagyon jók vagyunk mások gondolatainak megértésében,
03:35
we weren't always that way.
82
215160
2000
nem voltunk mindig azok.
03:37
It takes children a long time to break into the system.
83
217160
3000
A gyerekeknek nagyon sokáig tart betörni ebbe a rendszerbe!
03:40
I'm going to show you a little bit of that long, extended process.
84
220160
4000
Szeretnék egy szakaszt bemutatni ebből a hosszú folyamatból.
03:44
The first thing I'm going to show you is a change between age three and five,
85
224160
3000
Az első az a változás lesz, ami 3 és 5 éves kor közt megy végbe,
03:47
as kids learn to understand
86
227160
2000
aminek során a gyermekek megértik,
03:49
that somebody else can have beliefs that are different from their own.
87
229160
3000
hogy más embereknek az övéiktől egészen eltérő hiteik lehetnek.
03:52
So I'm going to show you a five-year-old
88
232160
2000
Mutatok egy ötévest,
03:54
who is getting a standard kind of puzzle
89
234160
2000
aki kap egy sima rejtvényt,
03:56
that we call the false belief task.
90
236160
3000
amit tévhit feladatnak nevezünk.
03:59
Rebecca Saxe (Video): This is the first pirate. His name is Ivan.
91
239160
3000
Video: Ez az első kalóz, akit Ivánnak hívnak.
04:02
And you know what pirates really like?
92
242160
2000
Tudod milyenek az igazi kalózok?
04:04
Child: What? RS: Pirates really like cheese sandwiches.
93
244160
3000
A kalózok nagyon szeretik a sajtos szendvicset.
04:07
Child: Cheese? I love cheese!
94
247160
3000
Gyerek: Sajt? Imádom a sajtot!
04:10
RS: Yeah. So Ivan has this cheese sandwich,
95
250160
2000
R.S: Igen. Tehát Iván eszi a sajtos szendvicset.
04:12
and he says, "Yum yum yum yum yum!
96
252160
2000
és azt mondogatja, "Nyam, nyam, nyam!
04:14
I really love cheese sandwiches."
97
254160
2000
Imádom a sajtos szendvicset!"
04:16
And Ivan puts his sandwich over here, on top of the pirate chest.
98
256160
4000
És Iván ideteszi a szendvicsét, a pénzesládikára.
04:20
And Ivan says, "You know what? I need a drink with my lunch."
99
260160
4000
És azt mondja? "Tudod mit? Inni is szeretnék az ebédem mellé."
04:24
And so Ivan goes to get a drink.
100
264160
3000
És akkor Iván elmegy italért.
04:27
And while Ivan is away
101
267160
2000
És mialatt Iván nincs itt,
04:29
the wind comes,
102
269160
3000
szél kerekedik,
04:32
and it blows the sandwich down onto the grass.
103
272160
2000
és lefújja a szendvicsét a fűbe.
04:34
And now, here comes the other pirate.
104
274160
4000
És akkor jön egy másik kalóz.
04:38
This pirate is called Joshua.
105
278160
3000
Őt Joshuának hívják.
04:41
And Joshua also really loves cheese sandwiches.
106
281160
2000
És Joshua is imádja a sajtos szendvicset.
04:43
So Joshua has a cheese sandwich and he says,
107
283160
2000
Így aztán Joshua is eszik egy sajtos szendvicset, majd azt mondja,
04:45
"Yum yum yum yum yum! I love cheese sandwiches."
108
285160
4000
"Nyam, nyam, nyam! Imádom a sajtos szendvicset."
04:49
And he puts his cheese sandwich over here on top of the pirate chest.
109
289160
3000
És odateszi a sajtos szendvicsét a pénzesládikára.
04:52
Child: So, that one is his.
110
292160
2000
Gyerek: Akkor ez az övé.
04:54
RS: That one is Joshua's. That's right.
111
294160
2000
R:S.: Igen, ez Joshuáé. Így van.
04:56
Child: And then his went on the ground.
112
296160
2000
Gyerek: És az övé esett le a földre.
04:58
RS: That's exactly right.
113
298160
2000
R.S.: Pontosan így van.
05:00
Child: So he won't know which one is his.
114
300160
2000
Gyerek: Akkor ő nem fogja tudni, melyik az övé!
05:02
RS: Oh. So now Joshua goes off to get a drink.
115
302160
3000
R.S.: Aha, most Joshua megy el italért.
05:05
Ivan comes back and he says, "I want my cheese sandwich."
116
305160
4000
Iván vissazjön és azt mondja, "megeszem a sajtos szendvicsemet."
05:09
So which one do you think Ivan is going to take?
117
309160
3000
Szerinted melyiket fogja Iván felvenni?
05:12
Child: I think he is going to take that one.
118
312160
2000
Gyerek: Szerintem ezt.
05:14
RS: Yeah, you think he's going to take that one? All right. Let's see.
119
314160
2000
R.S.: Igen, azt gondolod azt veszi el? Rendben. Nézzük meg.
05:16
Oh yeah, you were right. He took that one.
120
316160
3000
Igen, igazad volt. Azt vette el.
05:19
So that's a five-year-old who clearly understands
121
319160
2000
Ez egy 5 éves, aki teljesen tisztán felfogja,
05:21
that other people can have false beliefs
122
321160
2000
hogy másoknak lehetnek hibás hiedelmeik
05:23
and what the consequences are for their actions.
123
323160
2000
és hogy tetteiknek milyen következményei vannak.
05:25
Now I'm going to show you a three-year-old
124
325160
3000
Most megmutatok egy 3 évest
05:28
who got the same puzzle.
125
328160
2000
aki ugyanazt a puzzle-t kapta.
05:30
RS: And Ivan says, "I want my cheese sandwich."
126
330160
2000
Video: R.S.: És Iván azt mondja, "Megeszem a sajtos szendvicsemet"
05:32
Which sandwich is he going to take?
127
332160
3000
Melyiket fogja elvenni?
05:35
Do you think he's going to take that one? Let's see what happens.
128
335160
2000
Szerinted ezt fogja elvenni? Nézzük, mi történik!
05:37
Let's see what he does. Here comes Ivan.
129
337160
2000
Nézzük, mit tesz? Itt jön Iván.
05:39
And he says, "I want my cheese sandwich."
130
339160
3000
És azt mondja, "Megeszem a sajtos szendvicsemet."
05:42
And he takes this one.
131
342160
2000
És elveszi ezt.
05:44
Uh-oh. Why did he take that one?
132
344160
3000
Ó, jaj! Miért ezt vette e?
05:47
Child: His was on the grass.
133
347160
4000
Gyerek: Mert az övé a füvön volt.
05:51
So the three-year-old does two things differently.
134
351160
3000
R.S.: Tehát a 3 éves két dolgot máshogy csinál.
05:54
First, he predicts Ivan will take the sandwich
135
354160
3000
Először is azt jósolja, hogy Iván azt a szendvicset fogja
05:57
that's really his.
136
357160
2000
elvenni, ami tényleg az övé.
05:59
And second, when he sees Ivan taking the sandwich where he left his,
137
359160
4000
És másodszor, amikor látja, hogy Iván onnan veszi el a szendvicset veszi el, ahol ő az övét hagyta,
06:03
where we would say he's taking that one because he thinks it's his,
138
363160
3000
ahol mi azt mondanánk, hogy azért veszi azt el, mert azt hiszi, az az övé,
06:06
the three-year-old comes up with another explanation:
139
366160
3000
a 3 éves egy másfajta magyarázattal jön.
06:09
He's not taking his own sandwich because he doesn't want it,
140
369160
2000
Azért nem a sajátját veszi el, mert nem azt akarja,
06:11
because now it's dirty, on the ground.
141
371160
2000
mert az már koszos, hiszen a földön van.
06:13
So that's why he's taking the other sandwich.
142
373160
2000
Ezért veszi el a másikat.
06:15
Now of course, development doesn't end at five.
143
375160
4000
Természetesen a fejlődés nem áll meg 5 éves korunkban.
06:19
And we can see the continuation of this process
144
379160
2000
És láthatjuk a folytatódását ennek a tanulási folyamatnak,
06:21
of learning to think about other people's thoughts
145
381160
2000
amivel más emberek gondolatait tanuljuk meg értelmezni,
06:23
by upping the ante
146
383160
2000
???
06:25
and asking children now, not for an action prediction,
147
385160
3000
és a gyerekektől most nem előrejelzést kérünk,
06:28
but for a moral judgment.
148
388160
2000
hanem morális ítéletet.
06:30
So first I'm going to show you the three-year-old again.
149
390160
2000
Először most a 3 évest mutatom megint.
06:32
RS.: So is Ivan being mean and naughty for taking Joshua's sandwich?
150
392160
3000
Video: R.S.: Akkor Iván egy hitvány rosszcsont, hogy elvette Joshua szendvicsét?
06:35
Child: Yeah.
151
395160
1000
Gyerek: Igen.
06:36
RS: Should Ivan get in trouble for taking Joshua's sandwich?
152
396160
3000
R.S.: Meg kéne büntetni Ivánt, amiért elvette Joshua szendvicsét?
06:39
Child: Yeah.
153
399160
2000
Gyerek: Igen.
06:41
So it's maybe not surprising he thinks it was mean of Ivan
154
401160
2000
R.S.: Lehet, hogy nem meglepő hogy azt gondolja hitványság volt Iván részéről
06:43
to take Joshua's sandwich,
155
403160
2000
elvenni Joshua szendvicsét.
06:45
since he thinks Ivan only took Joshua's sandwich
156
405160
2000
Mivel azt gondolja, hogy Iván azért vette el Joshua szendvicsét,
06:47
to avoid having to eat his own dirty sandwich.
157
407160
3000
hogy ne kelljen az összekoszolódott szendvicsét megenni.
06:50
But now I'm going to show you the five-year-old.
158
410160
2000
Most megmutatom az 5 évest.
06:52
Remember the five-year-old completely understood
159
412160
2000
Emlékezzenek vissza rá, hogy az 5 éves tökéletesen
06:54
why Ivan took Joshua's sandwich.
160
414160
2000
értette, Iván miért Joshua szendvicsét vette el.
06:56
RS: Was Ivan being mean and naughty
161
416160
2000
Video: R.S.: Iván rosszcsont volt,
06:58
for taking Joshua's sandwich?
162
418160
2000
amiért elvette Joshua szendvicsét?
07:00
Child: Um, yeah.
163
420160
2000
Gyerek: Hm, igen.
07:02
And so, it is not until age seven
164
422160
2000
R.S.: És egészen 7 éves korig
07:04
that we get what looks more like an adult response.
165
424160
3000
nem kapunk olyan választ, ami akár már felnőtté is lehetne.
07:07
RS: Should Ivan get in trouble for taking Joshua's sandwich?
166
427160
3000
Video: R.S.: Ivánnak bűnhődnie kell azért, mert elvette Joshua szendvicsét?
07:10
Child: No, because the wind should get in trouble.
167
430160
2000
Gyerek: Nem, a szélnek kéne bűnhődnie!
07:12
He says the wind should get in trouble
168
432160
3000
R.S. Azt mondja, a szélnek kéne bűnhődnie,
07:15
for switching the sandwiches.
169
435160
2000
amiért a szendvicseket kicserélte.
07:17
(Laughter)
170
437160
2000
(Nevetés)
07:19
And now what we've started to do in my lab
171
439160
2000
És akkor elkezdtük azt csinálni a laboromban,
07:21
is to put children into the brain scanner
172
441160
2000
hogy a gyerekeket agyszkennerbe helyeztük,
07:23
and ask what's going on in their brain
173
443160
3000
hogy megvizsgáljuk, mi megy végbe az agyukban,
07:26
as they develop this ability to think about other people's thoughts.
174
446160
3000
mialatt kifejlesztik ezt a képességet, hogy más emberek gondolatain gondolkozzanak.
07:29
So the first thing is that in children we see this same brain region, the Right TPJ,
175
449160
4000
Tehát, először is, a gyerekeknél ugyanezt az agyi területet, az RTPJ-t vizsgáljuk,
07:33
being used while children are thinking about other people.
176
453160
3000
mialatt a gyerekek másokon gondolkoznak.
07:36
But it's not quite like the adult brain.
177
456160
2000
Nem egészen olyan ez, mint a felnőtt agy.
07:38
So whereas in the adults, as I told you,
178
458160
2000
Mint ahol, amint említettem Önöknek,
07:40
this brain region is almost completely specialized --
179
460160
3000
az agynak ez a része szinte teljességgel specializálódott.
07:43
it does almost nothing else except for thinking about other people's thoughts --
180
463160
3000
Szinte semmi mást nem tesz, mint más emberek gondolatait elemzi.
07:46
in children it's much less so,
181
466160
2000
Gyermekeknél sokkal kevésbé van ez így,
07:48
when they are age five to eight,
182
468160
2000
amikor 5 és 8 éves kor közt vannak,
07:50
the age range of the children I just showed you.
183
470160
2000
abban a korban, amit bemutattam az imént.
07:52
And actually if we even look at eight to 11-year-olds,
184
472160
3000
És egyébként, még ha 8 és 11 év köztieket nézünk is,
07:55
getting into early adolescence,
185
475160
2000
egészen a serdülőkor kezdetéig,
07:57
they still don't have quite an adult-like brain region.
186
477160
3000
még nekik sincs teljesen felnőtt-szerű agyterületük.
08:00
And so, what we can see is that over the course of childhood
187
480160
3000
Tehát azt figyelhetjük meg, hogy a gyermekkor során
08:03
and even into adolescence,
188
483160
2000
egészen a serdülőkorig,
08:05
both the cognitive system,
189
485160
2000
mind a kognitív rendszer,
08:07
our mind's ability to think about other minds,
190
487160
2000
elménknek az a képessége, hogy mások elméjén gondolkodjunk,
08:09
and the brain system that supports it
191
489160
2000
mind az agynak azon része, amely ezt támogatja,
08:11
are continuing, slowly, to develop.
192
491160
3000
lassan,de folyamatosan fejlődik.
08:14
But of course, as you're probably aware,
193
494160
2000
De amint valószínűleg ennek tudatában vannak,
08:16
even in adulthood,
194
496160
2000
akár még felnőttkorban is különböznek az emberek
08:18
people differ from one another in how good they are
195
498160
2000
egymástól abban, hogy mennyire jók a mások
08:20
at thinking of other minds, how often they do it
196
500160
2000
gondolatain való gondolkodásban, milyen gyakran teszik ezt,
08:22
and how accurately.
197
502160
2000
és mennyire pontosak ebben.
08:24
And so what we wanted to know was, could differences among adults
198
504160
3000
És még azt is meg akartuk tudni, vajon a felnőttek közti különbség,
08:27
in how they think about other people's thoughts
199
507160
2000
hogy hogyan gondolkodnak mások gondolatairól,
08:29
be explained in terms of differences in this brain region?
200
509160
3000
megmagyarázható-e ennek az agyterületnek a különbségeivel.
08:32
So, the first thing that we did is we gave adults a version
201
512160
3000
Tehát ennek érdekében az első, amit tettünk, hogy adtunk a felnőtteknek
08:35
of the pirate problem that we gave to the kids.
202
515160
2000
egy ilyen kalóz-féle rejtvényt, amit a gyerekeknek is.
08:37
And I'm going to give that to you now.
203
517160
2000
Megmutatom ezt most Önöknek is.
08:39
So Grace and her friend are on a tour of a chemical factory,
204
519160
3000
Grace és a barátja egy vegyi üzemben vannak gyárlátogatáson,
08:42
and they take a break for coffee.
205
522160
2000
és éppen kávészünetet tartanak.
08:44
And Grace's friend asks for some sugar in her coffee.
206
524160
3000
Grace barátja kér egy kis cukrot a kávéjába.
08:47
Grace goes to make the coffee
207
527160
3000
Grace elmegy kávét készíteni,
08:50
and finds by the coffee a pot
208
530160
2000
és talál a kávé mellett egy tálkát,
08:52
containing a white powder, which is sugar.
209
532160
3000
amiben fehér por van, ami cukor.
08:55
But the powder is labeled "Deadly Poison,"
210
535160
3000
De az van ráírva "halálos méreg".
08:58
so Grace thinks that the powder is a deadly poison.
211
538160
3000
Így Grace azt hiszi, hogy ez halálos méreg.
09:01
And she puts it in her friend's coffee.
212
541160
2000
És beleteszi a barátja kávéjába.
09:03
And her friend drinks the coffee, and is fine.
213
543160
3000
A barátja megissza a kávét, és nincs semmi baja.
09:06
How many people think it was morally permissible
214
546160
2000
Hányan gondolják azt, hogy morális szempontból megengedhető az,
09:08
for Grace to put the powder in the coffee?
215
548160
4000
hogy Grace beletette a port a kávéba?
09:12
Okay. Good. (Laughter)
216
552160
3000
OK, akkor jó. (Nevetés)
09:15
So we ask people, how much should Grace be blamed
217
555160
3000
Tehát, akkor most megkérdezzük az embereket, hogy mennyire kell Grace-t
09:18
in this case, which we call a failed attempt to harm?
218
558160
2000
gondatlanságból elkövetett bűnnel vádolni ez esetben.
09:20
And we can compare that to another case,
219
560160
2000
Összehasonlíthatjuk egy másik esettel is,
09:22
where everything in the real world is the same.
220
562160
2000
ahol minden ugyanaz a valóságban.
09:24
The powder is still sugar, but what's different is what Grace thinks.
221
564160
3000
A por még mindig cukor, a különbség abban van, amit Grace gondol.
09:27
Now she thinks the powder is sugar.
222
567160
3000
Most úgy gondolja, hogy a por - cukor.
09:30
And perhaps unsurprisingly, if Grace thinks the powder is sugar
223
570160
3000
És talán nem meglepő, ha Grace így gondolja,
09:33
and puts it in her friend's coffee,
224
573160
2000
és így tesz a barátja kávéjába,
09:35
people say she deserves no blame at all.
225
575160
2000
az emberek egyáltalán nem akarják őt vádolni.
09:37
Whereas if she thinks the powder was poison, even though it's really sugar,
226
577160
4000
Amikor azonban azt gondolja, hogy a por méreg, még akkor is, ha az valójában cukor,
09:41
now people say she deserves a lot of blame,
227
581160
3000
az emberek azt mondják, nagyon is elítélendő,
09:44
even though what happened in the real world was exactly the same.
228
584160
3000
még akkor is, ha a valóságban ugyanaz történt.
09:47
And in fact, they say she deserves more blame
229
587160
2000
És tényleg azt mondják, hogy jobban hibáztatható
09:49
in this case, the failed attempt to harm,
230
589160
2000
ebben az esetben, a gondatlanságból elkövetett vétek esetén,
09:51
than in another case,
231
591160
2000
mint a másik esetben,
09:53
which we call an accident.
232
593160
2000
amit véletlen balesetnek nevezünk.
09:55
Where Grace thought the powder was sugar,
233
595160
2000
Amikor Grace azt gondolta, hogy a por cukor,
09:57
because it was labeled "sugar" and by the coffee machine,
234
597160
2000
mert az volt ráírva, és mert ott volt a kávégép mellett,
09:59
but actually the powder was poison.
235
599160
2000
valójában azonban méreg volt.
10:01
So even though when the powder was poison,
236
601160
3000
Tehát még amikor méreg is volt,
10:04
the friend drank the coffee and died,
237
604160
3000
és a barát megitta a kávét és meghalt,
10:07
people say Grace deserves less blame in that case,
238
607160
3000
az emberek szerint Gracet akkor is kevesebb vád illeti,
10:10
when she innocently thought it was sugar,
239
610160
2000
amikor ártatlanul azt gondolta, hogy cukor volt,
10:12
than in the other case, where she thought it was poison
240
612160
2000
mint a másik esetben, amikor azt gondolta, hogy méreg,
10:14
and no harm occurred.
241
614160
3000
de nem történt semmi baj.
10:17
People, though, disagree a little bit
242
617160
2000
Az emberek azért kissé eltérő nézeten vannak
10:19
about exactly how much blame Grace should get
243
619160
2000
abban a tekintetben, hogy mennyire vádolható Grace
10:21
in the accident case.
244
621160
2000
abban az esetben, amikor megtörtént a baj.
10:23
Some people think she should deserve more blame,
245
623160
2000
Néhányan azon a véleményen vannak, hogy azért több
10:25
and other people less.
246
625160
2000
szemrehányást érdemel, mások szerint kevesebbet.
10:27
And what I'm going to show you is what happened when we look inside
247
627160
2000
Most pedig azt fogom megmutatni Önöknek, mi történt, amikor belenéztünk
10:29
the brains of people while they're making that judgment.
248
629160
2000
azoknak az agyába, akik éppen az ítélkeztek.
10:31
So what I'm showing you, from left to right,
249
631160
2000
Tehát most balróól jobbra azt mutatom be,
10:33
is how much activity there was in this brain region,
250
633160
3000
mennyire volt aktív ez az agyterület.
10:36
and from top to bottom, how much blame
251
636160
2000
Fentről lefele pedig, hogy mennyire hibáztatható
10:38
people said that Grace deserved.
252
638160
2000
Grace az emberek szerint.
10:40
And what you can see is, on the left
253
640160
2000
Azt láthatjuk, hogy bal oldalon,
10:42
when there was very little activity in this brain region,
254
642160
2000
ahol az emberek nem nagyon vették számításba a jóhiszeműséget,
10:44
people paid little attention to her innocent belief
255
644160
3000
amint azt az agyterület alacsony aktivitása mutatja,
10:47
and said she deserved a lot of blame for the accident.
256
647160
3000
szerintük nagyon is vétkes a baleset miatt.
10:50
Whereas on the right, where there was a lot of activity,
257
650160
2000
Míg a jobb oldalon, ahol magas aktivitást mutat,
10:52
people paid a lot more attention to her innocent belief,
258
652160
3000
az emberek inkább számításba vették a jóhiszeműségét,
10:55
and said she deserved a lot less blame
259
655160
2000
szerintük kevésbé hibás amiatt,
10:57
for causing the accident.
260
657160
2000
hogy baleset lett belőle.
10:59
So that's good, but of course
261
659160
2000
Ez jó, de természetesen inkább arra lenne szükségünk,
11:01
what we'd rather is have a way to interfere
262
661160
2000
hogy lehetőségünk legyen beavatkozni
11:03
with function in this brain region,
263
663160
2000
az agy ezen területének működésébe,
11:05
and see if we could change people's moral judgment.
264
665160
3000
és elő tudjuk idézni, hogy más emberek erkölcsi ítéleteit befolyásolni tudjuk!
11:08
And we do have such a tool.
265
668160
2000
És van ilyen eszközünk!
11:10
It's called Trans-Cranial Magnetic Stimulation,
266
670160
2000
Trans-cranialis mágneses stimulációnak hívják,
11:12
or TMS.
267
672160
2000
azaz TMS-nek (angolul).
11:14
This is a tool that lets us pass a magnetic pulse
268
674160
2000
Ez egy olyan eszköz, amely lehetővé teszi, hogy mágneses impulzust
11:16
through somebody's skull, into a small region of their brain,
269
676160
4000
bocsássunk át valakinek a koponyáján, az agy egészen kicsi területére,
11:20
and temporarily disorganize the function of the neurons in that region.
270
680160
4000
és időlegesen kibillentsük működőképességéből azon terület neuronjait.
11:24
So I'm going to show you a demo of this.
271
684160
2000
Bemutatok egy demot erről.
11:26
First, I'm going to show you that this is a magnetic pulse.
272
686160
3000
Először is azt mutatom be, hogy ez egy mágneses impulzus,
11:29
I'm going to show you what happens when you put a quarter on the machine.
273
689160
3000
bemutatom, mi történik, amikor egy negyedet állítunk be a gépen.
11:32
When you hear clicks, we're turning the machine on.
274
692160
4000
Amikor a klikket hallani, akkor kapcsoljuk be a gépet.
11:42
So now I'm going to apply that same pulse to my brain,
275
702160
3000
Most alkalmazom ugyanezt az impulzust az agyam azon részére,
11:45
to the part of my brain that controls my hand.
276
705160
2000
amely a kezemet irányítja.
11:47
So there is no physical force, just a magnetic pulse.
277
707160
3000
Tehát fizikai ráhatás nincs, csak mágneses impulzus.
11:54
Woman (Video): Ready, Rebecca? RS: Yes.
278
714160
2000
Video: Nő: Készen áll? Rebecca Saxe: Igen.
11:57
Okay, so it causes a small involuntary contraction in my hand
279
717160
3000
Rendben, tehát egy kis akaratlan rándulást okoz a kezemben
12:00
by putting a magnetic pulse in my brain.
280
720160
3000
amikor a mágneses impulzus az agyamra lett irányítva.
12:03
And we can use that same pulse,
281
723160
2000
És használhatjuk ugyanezt az impulzust
12:05
now applied to the RTPJ,
282
725160
2000
most az RTPJ-nél is, hogy szemügyre vegyük,
12:07
to ask if we can change people's moral judgments.
283
727160
3000
vajon más emberek erkölcsi ítéleteire is hatással lehetünk-e.
12:10
So these are the judgments I showed you before, people's normal moral judgments.
284
730160
2000
Ezek az ítéletek, amiket az előbb mutattam be, az emberek normál erkölcsi ítéletei.
12:12
And then we can apply TMS to the RTPJ
285
732160
3000
És akkor alkalmazhatjuk a TMS-t az RTPJ-nél,
12:15
and ask how people's judgments change.
286
735160
2000
és feltehetjük a kérdést, hogy változnak-e az emberek ítéletei.
12:17
And the first thing is, people can still do this task overall.
287
737160
4000
Először is, az emberek így is meg tudják csinálni a feladatot,
12:21
So their judgments of the case when everything was fine
288
741160
2000
Úgy, hogy az ítéletük arról az esetről, amikor minden rendben ment,
12:23
remain the same. They say she deserves no blame.
289
743160
3000
ugyanaz maradt. Szerintük nem vétkes.
12:26
But in the case of a failed attempt to harm,
290
746160
4000
De abban az esetben, a sikertelen ártó szándék esetén,
12:30
where Grace thought that it was poison, although it was really sugar,
291
750160
3000
ahol Grace azt hitte méreg, pedig valójában cukor volt,
12:33
people now say it was more okay, she deserves less blame
292
753160
3000
az emberek szerint kevesebb vádat érdemel, nem annyira volt baj,
12:36
for putting the powder in the coffee.
293
756160
3000
hogy a port a kávéba tette.
12:39
And in the case of the accident, where she thought that it was sugar,
294
759160
2000
Abban az esetben azonban, amikor baleset történt, amikor azt gondolta cukor,
12:41
but it was really poison and so she caused a death,
295
761160
3000
de valójában méreg volt, és így halált okozott,
12:44
people say that it was less okay, she deserves more blame.
296
764160
6000
az emberek szerint ez kevésbé OK, komolyabb vádat érdemel.
12:50
So what I've told you today is that
297
770160
2000
Tehát ma azt magyaráztam el,
12:52
people come, actually, especially well equipped
298
772160
4000
hogy az emebrek valójában egész jól fel vannak szerelve ahhoz,
12:56
to think about other people's thoughts.
299
776160
2000
hogy más emberek gondolatain elmélkedjenek.
12:58
We have a special brain system
300
778160
2000
Van egy speciális agyrendszerünk, amely lehetővé teszi
13:00
that lets us think about what other people are thinking.
301
780160
3000
számunkra a más emberek gondolatain való elmélkedést.
13:03
This system takes a long time to develop,
302
783160
2000
Ennek a rendszernek a kifejlődése hosszú időt vesz igénybe,
13:05
slowly throughout the course of childhood and into early adolescence.
303
785160
3000
lassan fejlődik a gyermekkor folyamán, egész a serdülőkor kezdetéig.
13:08
And even in adulthood, differences in this brain region
304
788160
3000
És még a felnőttkorban is, az agy ezen régiói közti különbségek
13:11
can explain differences among adults
305
791160
2000
magyarázhatják meg azokat a különbségeket a felnőttek közt,
13:13
in how we think about and judge other people.
306
793160
3000
ahogy más emberekről gondolkodunk és ítélkezünk.
13:16
But I want to give the last word back to the novelists,
307
796160
3000
De szeretném az utolsó szót visszaadni az írónak.
13:19
and to Philip Roth, who ended by saying,
308
799160
3000
Philip Roth-nak, aki azzal fejezte be,
13:22
"The fact remains that getting people right
309
802160
2000
"A lényeg akkor is az marad, hogy nem az az élet értelme,
13:24
is not what living is all about anyway.
310
804160
2000
hogy más emebreket rávegyünk az általunk helyesnek véltre.
13:26
It's getting them wrong that is living.
311
806160
2000
Rossz irányba vezeti őket, ha azt gondolják, erről szól az élet.
13:28
Getting them wrong and wrong and wrong,
312
808160
3000
Rossz és rossz és rossz irányba!
13:31
and then on careful reconsideration,
313
811160
2000
Még ha alaposan átgondolják, akkor is
13:33
getting them wrong again."
314
813160
2000
csak rossz irányba vezet ez."
13:35
Thank you.
315
815160
2000
Köszönöm.
13:37
(Applause)
316
817160
10000
(Taps)
13:47
Chris Anderson: So, I have a question. When you start talking about using
317
827160
2000
Chris Anderson: Amikor arról kezd beszélni, hogy mágneses
13:49
magnetic pulses to change people's moral judgments,
318
829160
3000
impulzusokkal lehet emberek erkölcsi ítélkezését befolyásolni,
13:52
that sounds alarming.
319
832160
3000
az nagyon riasztónak hangzik!
13:55
(Laughter)
320
835160
1000
(Nevetés)
13:56
Please tell me that you're not taking phone calls from the Pentagon, say.
321
836160
4000
Kérem, mondja, hogy nem kap telefonhívásokat a Pentagontól, kérem!
14:00
RS: I'm not.
322
840160
2000
Rebecca Saxe: Nem kapok.
14:02
I mean, they're calling, but I'm not taking the call.
323
842160
3000
Azaz kapok, de nem veszem fel!
14:05
(Laughter)
324
845160
1000
(Nevetés)
14:06
CA: They really are calling?
325
846160
2000
C.A.: Tényleg hívják?
14:08
So then seriously,
326
848160
3000
Dehát akkor nagyon komolyan úgy gondolom,
14:11
you must lie awake at night sometimes
327
851160
3000
hogy éjszakánként gyakran fekszik álmatlanul,
14:14
wondering where this work leads.
328
854160
2000
azon tépelődve, vajon hova vezeti ez a munka!
14:16
I mean, you're clearly an incredible human being,
329
856160
2000
Úgy értem, Ön tényleg egy lenyűgöző emberi lény,
14:18
but someone could take this knowledge
330
858160
3000
De valaki ellophatja ezt a tudást,
14:21
and in some future
331
861160
2000
és valamely jövőben,
14:23
not-torture chamber,
332
863160
2000
nem egy kínzókamrában, olyan dolgokat művelhet,
14:25
do acts that people here might be worried about.
333
865160
3000
amivel kapcsolatban az ittlévők komolyan aggódhatnak.
14:28
RS: Yeah, we worry about this.
334
868160
2000
R.S.: Igen, foglalkozunk ezzel.
14:30
So, there's a couple of things to say about TMS.
335
870160
3000
De van egy sor dolog , amit a TMS-szel kapcsolatban el kell mondani.
14:33
One is that you can't be TMSed without knowing it.
336
873160
2000
Az egyik, hogy nem lehet senkin alkalmazni anélkül, hogy az embernek tudomása ne lenne róla.
14:35
So it's not a surreptitious technology.
337
875160
3000
Tehát nem egy burkolt technológia.
14:38
It's quite hard, actually, to get those very small changes.
338
878160
3000
Valójában elég nehézkesen lehet ilyen kis változásokat elérni.
14:41
The changes I showed you are impressive to me
339
881160
3000
A bemutatott változtatások azért tűnnek olyan hatásosnak,
14:44
because of what they tell us about the function of the brain,
340
884160
2000
mert azt mutatják be, hogy az az agyterület mire való.
14:46
but they're small on the scale
341
886160
2000
De nagyon kis mértékben
14:48
of the moral judgments that we actually make.
342
888160
2000
hatottak ezek valójában az erkölcsi ítélkezésre.
14:50
And what we changed was not people's
343
890160
2000
És nem abba avatkoztunk bele, hogy
14:52
moral judgments when they're deciding what to do,
344
892160
3000
milyen erkölcsi ítélkezés szerint döntenek valamely cselekvés mellett az emberek,
14:55
when they're making action choices.
345
895160
2000
amikor döntést hoznak!
14:57
We changed their ability to judge other people's actions.
346
897160
3000
Hanem abba a képességükbe, hogy mások tetteit hogyan ítéljenek meg!
15:00
And so, I think of what I'm doing not so much as
347
900160
2000
Ezért nem igazán úgy gondolok arra, amit teszek,
15:02
studying the defendant in a criminal trial,
348
902160
2000
hogy a vádlottat tanulmányozom egy bírósági ügyben,
15:04
but studying the jury.
349
904160
2000
hanem inkább az esküdtszéket!
15:06
CA: Is your work going to lead to any recommendations
350
906160
3000
C.A.: Várható, hogy a munkája valamilyen oktatással kapcsolatos
15:09
in education, to perhaps bring up
351
909160
3000
ajánláshoz vezet, talán hogy olyan gyermeknemzedéket
15:12
a generation of kids able to make fairer moral judgments?
352
912160
5000
tudjunk felnevelni, akik tisztességesebb erkölcsi ítéletekre jutnak?
15:17
RS: That's one of the idealistic hopes.
353
917160
3000
R.S.: Ez az egyik eszményi törekvésünk.
15:20
The whole research program here of studying
354
920160
4000
Az egész itteni kutatási program, az emberi agy jellegzetes
15:24
the distinctive parts of the human brain is brand new.
355
924160
4000
részeinek tanulmányozása, még teljesen újkeletű.
15:28
Until recently, what we knew about the brain
356
928160
2000
Eddig csupa olyan dolgot tudtunk csak az agyról,
15:30
were the things that any other animal's brain could do too,
357
930160
3000
amiket bármely más állatfaj egyedeinek agya is képes megtenni.
15:33
so we could study it in animal models.
358
933160
2000
Így képesek vagyunk ezeket állati modelleken is tanulmányozni.
15:35
We knew how brains see, and how they control the body
359
935160
2000
Tudjuk, hogyan lát az agy, hogyan irányítja a testet
15:37
and how they hear and sense.
360
937160
2000
és hogyan hall és érzékel.
15:39
And the whole project of understanding
361
939160
3000
És az egész projekt, mely arról szól,
15:42
how brains do the uniquely human things --
362
942160
2000
hogy az agy a kizárólag emberre jellemző dolgokat hogyan végzi,
15:44
learn language and abstract concepts,
363
944160
3000
mint pl. a nyelv, az elvont elméletek,
15:47
and thinking about other people's thoughts -- that's brand new.
364
947160
2000
és más emberek gondolatain való elmélkedés, ezek teljesen újak.
15:49
And we don't know yet what the implications will be
365
949160
2000
És azt sem tudjuk ilyenformán, mik lesznek majd az alkalmazásaik,
15:51
of understanding it.
366
951160
2000
amikor majd megértjük őket.
15:53
CA: So I've got one last question. There is this thing called
367
953160
2000
C.A.: Akkor most egyetlen utolsó kérdésem van már csak. Itt van ez a
15:55
the hard problem of consciousness,
368
955160
2000
"A tudat nehéz problémája" kérdés,
15:57
that puzzles a lot of people.
369
957160
2000
ami oly sokakat zavarba ejt.
15:59
The notion that you can understand
370
959160
3000
Lehet, hogy ez az az eszme,
16:02
why a brain works, perhaps.
371
962160
2000
ami által megérthetjük, miért működőképes az agy.
16:04
But why does anyone have to feel anything?
372
964160
3000
De miért kell bárkinek is bármit éreznie?
16:07
Why does it seem to require these beings who sense things
373
967160
3000
Miért tűnik úgy, hogy szükség van ezekre a dolgokra,
16:10
for us to operate?
374
970160
2000
amik érzékelik ezeket a dolgokat számunkra?
16:12
You're a brilliant young neuroscientist.
375
972160
3000
Ön egy fantasztikus fiatal neurológus.
16:15
I mean, what chances do you think there are
376
975160
2000
Akarom mondani, milyen esélyei vannak arra,
16:17
that at some time in your career,
377
977160
2000
hogy karrierje egy pontján valaki,
16:19
someone, you or someone else,
378
979160
2000
Ön, vagy valaki más,
16:21
is going to come up with some paradigm shift
379
981160
2000
előáll valamiféle paradigmaváltással,
16:23
in understanding what seems an impossible problem?
380
983160
4000
a jelenleg megoldhatatlannak tűnő probléma megoldására.
16:27
RS: I hope they do. And I think they probably won't.
381
987160
4000
R.S.: Remélem így lesz! Ugyanakkor azt gondolom, hogy nem így lesz.
16:31
CA: Why?
382
991160
3000
C.A.: Miért?
16:34
RS: It's not called the hard problem of consciousness for nothing.
383
994160
3000
R.S.: Mert a neve nem: "A tudat nehéz problémája - a semmiért".
16:37
(Laughter)
384
997160
2000
(Nevetés)
16:39
CA: That's a great answer. Rebecca Saxe, thank you very much. That was fantastic.
385
999160
3000
C.A.: Hát ez a válasz óriási! Rebecca Saxe, nagyon köszönjük. Fantasztikus volt.
16:42
(Applause)
386
1002160
4000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7