The pattern behind self-deception | Michael Shermer

735,937 views ・ 2010-06-14

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Bíborka Szántó Lektor: Laszlo Kereszturi
00:16
So since I was here last in '06,
0
16260
3000
Amióta legutóbb itt voltam, 2006-ban,
00:19
we discovered that global climate change
1
19260
2000
felfedeztük, hogy a globális klímaváltozás
00:21
is turning out to be a pretty serious issue,
2
21260
2000
meglehetősen komoly dolognak tűnik.
00:23
so we covered that fairly extensively
3
23260
2000
Ezt a témát eléggé részletesen tárgyaltuk
00:25
in Skeptic magazine.
4
25260
2000
a Skeptic folyóiratban
00:27
We investigate all kinds
5
27260
2000
Kutatunk, vizsgálunk mindenféle
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
tudományos vagy kvázi-tudományos problémát.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
De úgy tűnik, nem kell ezek miatt aggódnunk,
00:34
because the world's going to end in 2012.
8
34260
2000
mert 2012-ben világvége lesz.
00:36
Another update:
9
36260
2000
Egy másik friss információ:
00:38
You will recall I introduced you guys
10
38260
2000
Emlékeznek rá, bemutattam Önöknek
00:40
to the Quadro Tracker.
11
40260
2000
a Quadro Trackert-t (a Pozitív Molekulalokátort).
00:42
It's like a water dowsing device.
12
42260
2000
Ez egy vízkereső eszközre hasonlít.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Egy üreges műanyag darab forgó antennával.
00:47
And you walk around, and it points to things.
14
47260
2000
Ahogy járkálsz vele, rámutat dolgokra.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Mint mikor marihuánát keresel a diákok szekrényeiben,
00:52
it'll point right to somebody.
16
52260
2000
valakire rámutat.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, bocsánat. (Nevetés)
00:56
This particular one that was given to me
18
56260
2000
Ez a darab, amit kaptam,
00:58
finds golf balls,
19
58260
2000
golflabdákat talál meg,
01:00
especially if you're at a golf course
20
60260
2000
főleg, ha golfpályán vagy,
01:02
and you check under enough bushes.
21
62260
3000
és elég bokor alatt megnézed.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Szóval, a "Mit árthat egy ilyen buta dolog, mint ez" kategória alatt
01:08
this device, the ADE 651,
23
68260
3000
ezt az eszközt, az ADE 651-et
01:11
was sold to the Iraqi government
24
71260
3000
eladták az iraki kormánynak
01:14
for 40,000 dollars apiece.
25
74260
2000
darabonként 40.000 dollárért.
01:16
It's just like this one, completely worthless,
26
76260
2000
Pont ilyen volt, mint ez, teljességgel haszontalan,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
atekintetben, hogy állítólag az "elektrosztatikus
01:20
magnetic ion attraction,"
28
80260
3000
mágneses ionvonzás" elve szerint működött,
01:24
which translates to
29
84260
2000
amely a következőt jelenti:
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"áltudományos ostobaság" -- ez lenne a helyes kifejezés --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
amelyben összefűzöl néhány jól hangzó szót,
01:31
but it does absolutely nothing.
32
91260
2000
de magának az eszköznek semmi haszna nincs.
01:33
In this case, at trespass points,
33
93260
3000
Ilyen esetben, az átjáró pontoknál,
01:36
allowing people to go through
34
96260
2000
amelyek átengednek embereket,
01:38
because your little tracker device said they were okay,
35
98260
3000
mert a kis nyomozó eszköz azt mondta, rendben vannak,
01:41
actually cost lives.
36
101260
3000
emberéletekbe kerülhet.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Veszélyes tehát az áltudomány,
01:46
in believing in this sort of thing.
38
106260
3000
a hit az ilyenfajta dolgokban.
01:49
So what I want to talk about today is belief.
39
109260
3000
Amiről ma szeretnék beszélni, az a hit.
01:52
I want to believe,
40
112260
2000
Hinni akarok,
01:54
and you do too.
41
114260
2000
mint ahogyan Önök is.
01:56
And in fact, I think my thesis here is that
42
116260
2000
És tulajdonképpen, azt hiszem, azt állítom, hogy
01:58
belief is the natural state of things.
43
118260
2000
a hit a dolgok természetes rendje.
02:00
It is the default option. We just believe.
44
120260
2000
Az az alapértelmezett választás. Egyszerűen hiszünk.
02:02
We believe all sorts of things.
45
122260
2000
Mindenféle dolgot elhiszünk.
02:04
Belief is natural;
46
124260
2000
A hit természetes.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
A hitetlenség, a szkepticizmus, a tudomány nem természetesek.
02:08
It's more difficult.
48
128260
2000
Sokkal nehezebbek.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Kényelmetlen nem elhinni a dolgokat.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Olyan, mint Fox Mulder az X-aktákban,
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
ki akar hinni az UFÓ-kban? Hát, mi.
02:18
and the reason for that is because
52
138260
2000
Ennek az az oka, hogy
02:20
we have a belief engine in our brains.
53
140260
3000
az agyunkban működik egy ún. hit-gépezet.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
Lényegében mintakereső főemlősök vagyunk.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Összefüggéseket keresünk: A kapcsolódik B-hez; B kapcsolódik C-hez.
02:29
And sometimes A really is connected to B,
56
149260
3000
És néha A valóban kapcsolódik B-hez.
02:32
and that's called association learning.
57
152260
2000
Ezt hívják asszociatív tanulásnak.
02:34
We find patterns, we make those connections,
58
154260
3000
Mintákat fedezünk fel, kapcsolatokat teremtünk,
02:37
whether it's Pavlov's dog here
59
157260
2000
akár Pavlov kutyájáról van szó,
02:39
associating the sound of the bell with the food,
60
159260
3000
amely a csengő hangját az étellel kötötte össze,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
és nyálazni kezdett, amikor a csengő hangját meghallotta,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
akár az egérről Skinner kísérletében,
02:46
in which he's having an association
63
166260
2000
amelyben az egér összeköti
02:48
between his behavior and a reward for it,
64
168260
2000
a viselkedését a kapott jutalommal,
02:50
and therefore he repeats the behavior.
65
170260
2000
és ezért újra meg újra megismétli azt.
02:52
In fact, what Skinner discovered
66
172260
2000
Tulajdonképpen, amit Skinner felfedezett,
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
az, hogy ha beteszel egy galambot egy ilyen dobozba,
02:57
and he has to press one of these two keys,
68
177260
2000
és neki e két gomb közül az egyiket kell megnyomnia,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
megpróbálja kitalálni, mi a minta,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
ha cserébe jutalmat adsz neki ebbe a tálkába.
03:03
if you just randomly assign rewards
71
183260
3000
Ha véletlenszerűen jutalmazod,
03:06
such that there is no pattern,
72
186260
2000
úgy, hogy nincs benne mintázat,
03:08
they will figure out any kind of pattern.
73
188260
2000
a galamb mégis kitalál valamilyen mintázatot.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
És bármit is csinált azelőtt, hogy megjutalmaztad őt,
03:12
they repeat that particular pattern.
75
192260
2000
ismételni fogja azt a bizonyos mintát.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Időnként kétszer megfordult az óra járásával ellentétes irányba,
03:17
once clockwise and peck the key twice.
77
197260
3000
egyszer pedig azzal megegyező irányba, és a csőrével kétszer megkopogtatta a gombot.
03:20
And that's called superstition,
78
200260
2000
Ezt nevezik babonának.
03:22
and that, I'm afraid,
79
202260
2000
És ez, attól tartok,
03:24
we will always have with us.
80
204260
2000
mindig jellemezni fog bennünket.
03:26
I call this process "patternicity" --
81
206260
2000
Ezt a folyamatot "mintázatkeresésnek" hívom,
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
amely az a hajlamunk, hogy értelmes mintázatokat találjunk,
03:30
in both meaningful and meaningless noise.
83
210260
3000
mind az értelmes, mind pedig az értelmetlen zavarban.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Amikor ezt tesszük, kétféle hibát követünk el:
03:36
A Type I error, or false positive,
85
216260
2000
A I. hibatípus vagy a hibás pozitív döntés
03:38
is believing a pattern is real
86
218260
2000
az, hogy valódinak hisszük a mintát,
03:40
when it's not.
87
220260
2000
amikor nem az.
03:42
Our second type of error is a false negative.
88
222260
2000
A második hibatípus, a hibás negatív döntés.
03:44
A Type II error is not believing
89
224260
2000
A II. hibatípus során nem hisszük
03:46
a pattern is real when it is.
90
226260
3000
valódinak a mintázatot, amikor ez valóban az.
03:49
So let's do a thought experiment.
91
229260
2000
Hadd végezzünk egy gondolatkísérletet.
03:51
You are a hominid three million years ago
92
231260
2000
Ön most egy hárommmillió évvel ezelőtti emberszabású,
03:53
walking on the plains of Africa.
93
233260
3000
Afrika síkságain sétál.
03:56
Your name is Lucy, okay?
94
236260
2000
A neve Lucy, rendben?
03:58
And you hear a rustle in the grass.
95
238260
2000
És susogást hall a fűben.
04:00
Is it a dangerous predator,
96
240260
2000
Vajon egy veszélyes ragadozó
04:02
or is it just the wind?
97
242260
2000
vagy csak a szél?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
A döntés, amit hoz, a legfontosabb lehet az életében.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Ha azt gondolja, hogy a fűsusogás egy veszélyes ragadozó,
04:10
and it turns out it's just the wind,
100
250260
2000
és végül kiderül, hogy csak a szél volt,
04:12
you've made an error in cognition,
101
252260
2000
gondolkodásbeli hibát követett el,
04:14
made a Type I error, false positive.
102
254260
2000
az I. hibatípust, hibás pozitív döntést hozott.
04:16
But no harm. You just move away.
103
256260
2000
De semmi baj. Továbbáll.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Elővigyázatosabb. Éberebb.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Másrészt, ha Ön azt gondolta, hogy a szél suhogtatja a füvet,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
és mégis az derül ki, hogy egy veszélyes ragadozó az,
04:25
you're lunch.
107
265260
2000
akkor Önből ebéd lesz,
04:27
You've just won a Darwin award.
108
267260
2000
és Darwin-díjban részesülhet..
04:29
You've been taken out of the gene pool.
109
269260
2000
Kikerül a génállományból.
04:31
Now the problem here is that
110
271260
2000
A probléma a következő:
04:33
patternicities will occur whenever the cost
111
273260
2000
a mintázatkeresési hajlam akkor jelenik meg, amikor annak az ára,
04:35
of making a Type I error
112
275260
2000
hogy az I. hibatípust kövessük el,
04:37
is less than the cost of making a Type II error.
113
277260
2000
alacsonyabb, mint a II. hibatípus elkövetése.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Ez egyébként az egyetlen egyenlet az előadásban.
04:41
We have a pattern detection problem
115
281260
2000
Egy mintázatfelismerési problémáról beszélünk,
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
vagyis: az első és a második hibatípus közötti különbség megállapítása
04:46
is highly problematic,
117
286260
2000
nagyon problematikus,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
főleg másodperctöredéken múló, élet-halál helyzetekben.
04:51
So the default position
119
291260
2000
Ezért az alapértelmezett állapot az,
04:53
is just: Believe all patterns are real --
120
293260
2000
hogy "higgy el minden valódi mintázatot".
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Minden fűsusogás veszélyes ragadozót jelent,
04:58
and not just the wind.
122
298260
2000
és nem csupán a szél okozza."
05:00
And so I think that we evolved ...
123
300260
2000
És, azt hiszem, az evolúció során
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
a természetes szelekció úgy alakította a "hit-gépezetünket",
05:05
our pattern-seeking brain processes,
125
305260
2000
a mintázatkereső agyi folyamatainkat,
05:07
to always find meaningful patterns
126
307260
2000
hogy mindig értelmes mintázatokat találjunk,
05:09
and infuse them with these sort of
127
309260
2000
és ötvözzük ezeket azokkal a
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
ragadozó vagy szándékkal rendelkező cselekvőkkel, amelyekre még visszatérek.
05:14
So for example, what do you see here?
129
314260
2000
Például, mit látnak itt?
05:16
It's a horse head, that's right.
130
316260
2000
Ez egy lófej, valóban.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Lónak néz ki. Lónak kell lennie.
05:20
That's a pattern.
132
320260
2000
Ez egy mintázat.
05:22
And is it really a horse?
133
322260
2000
De valóban ló?
05:24
Or is it more like a frog?
134
324260
3000
Vagy inkább egy békára hasonlít?
05:27
See, our pattern detection device,
135
327260
2000
Látják, a mintázatkereső berendezésünk,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
amely az elülső cinguláris kéregben van --
05:32
it's our little detection device there --
137
332260
3000
-- a mi kis jelzőkészülékünk ott --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
könnyen becsapható, és ez a baj.
05:37
For example, what do you see here?
139
337260
2000
Mit látnak itt, például?
05:39
Yes, of course, it's a cow.
140
339260
3000
Igen, persze. Ez egy tehén.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Amint felkészítem az agyat -- ezt kognitív előfeszítésnek hívják --
05:45
once I prime the brain to see it,
142
345260
2000
arra, hogy ezt lássák,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
ismét megjelenik a kép, a vonalminta segítsége nélkül is.
05:50
And what do you see here?
144
350260
2000
És mit látnak itt?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Egyesek dalmátkutyát látnak.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Igen, ott van. És ott az előfeszítés, a körvonal.
05:56
So when I go back without the prime,
147
356260
2000
Tehát, amikor a körvonal nélkül megyek vissza,
05:58
your brain already has the model
148
358260
2000
az agyunkban már megvan a modell
06:00
so you can see it again.
149
360260
2000
így ismét látjuk.
06:02
What do you see here?
150
362260
3000
Mit látnak itt?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
A Szaturnusz bolygót. Igen, így van
06:07
How about here?
152
367260
3000
És ott?
06:10
Just shout out anything you see.
153
370260
3000
Kiáltsák, bármit is látnak.
06:14
That's a good audience, Chris.
154
374260
2000
Ez jó hallgatóság, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Mert ezen valóban semmi sincs. Illetve, állítólag nincs semmi.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Ez egy Jennifer Whitson által elvégzett kísérlet
06:22
at U.T. Austin
157
382260
2000
az Austin Egyetemen,
06:24
on corporate environments
158
384260
2000
vállalati környezetben
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
arról, hogy vajon a bizonytalanság és az ellenőrizhetetlenség érzései
06:29
makes people see illusory patterns.
160
389260
2000
arra késztetik-e az embereket, hogy illuzórikus mintázatokat lássanak.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Vagyis, majdnem mindenki a Szaturnusz bolygót látja.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Azok a személyek, akiket olyan helyzetbe hoztak, hogy azt érezzék, nincs a kezükben az irányítás,
06:37
are more likely to see something in this,
163
397260
2000
hajlamosabbak belelátni valamit ebbe a képbe,
06:39
which is allegedly patternless.
164
399260
3000
ami ugye feltehetően mintázat nélküli.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Más szavakkal, a mintázatok felfedezésére való hajlam
06:45
goes up when there's a lack of control.
166
405260
3000
egyenes arányban növekszik az ellenőrzés hiányának érzésével.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
A baseball-játékosok például hírhedten babonásak
06:51
when they're batting,
168
411260
2000
amikor ütnek,
06:53
but not so much when they're fielding.
169
413260
2000
de akkor nem, amikor védenek.
06:55
Because fielders are successful
170
415260
2000
Mert a védők sikeresek
06:57
90 to 95 percent of the time.
171
417260
2000
az esetek 90-95 százalékában.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
A legjobb ütők tízből hét alkalommal tévednek.
07:02
So their superstitions, their patternicities,
173
422260
2000
Tehát a babonáik, a mintázatalkotásra való hajlamuk
07:04
are all associated with feelings of lack of control
174
424260
3000
az ellenőrzés hiányának érzéseivel párosulnak
07:07
and so forth.
175
427260
2000
és így tovább.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Mit látnak ezen, ebben a mezőben?
07:13
Anybody see an object there?
177
433260
2000
Lát valaki ott egy tárgyat?
07:15
There actually is something here,
178
435260
2000
Valóban van itt valami,
07:17
but it's degraded.
179
437260
2000
de zajos a kép.
07:19
While you're thinking about that,
180
439260
2000
Amíg ezen gondolkodnak,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
ezt a kísérletet Susan Blackmore végezte el,
07:23
a psychologist in England,
182
443260
2000
egy angol pszichológus,
07:25
who showed subjects this degraded image
183
445260
2000
aki megmutatta a kísérleti alanyoknak ezt a zajos képet,
07:27
and then ran a correlation between
184
447260
2000
majd korrelációt állított fel az eredményeik
07:29
their scores on an ESP test:
185
449260
2000
és az ESP-teszten elért pontszámaik között,
07:31
How much did they believe in the paranormal,
186
451260
2000
hogy mennyire hisznek a paranormális,
07:33
supernatural, angels and so forth.
187
453260
3000
természetfeletti jelenségekben, az angyalokban stb.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Azt találta, hogy azok, akik magas pontszámot értek el az ESP skálán,
07:39
tended to not only see
189
459260
2000
hajlamosabbakk voltak nemcsak arra, hogy
07:41
more patterns in the degraded images
190
461260
2000
több mintát lássanak a zajos képeken,
07:43
but incorrect patterns.
191
463260
2000
hanem hogy helytelen mintákat is lássanak.
07:45
Here is what you show subjects.
192
465260
2000
Itt van, amit a kísérleti személyeknek mutatnak.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
A hal 20, 50 százalékkal zajosabb,
07:50
and then the one I showed you,
194
470260
2000
majd amit én mutattam Önöknek,
07:52
70 percent.
195
472260
2000
70 százalékkal.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Hasonló kísérletet végzett egy [svájci] pszichológus,
07:56
named Peter Brugger,
197
476260
2000
akit Peter Bruggernek hívnak,
07:58
who found significantly more meaningful patterns
198
478260
3000
és aki azt találta, hogy szignifikánsan több értelmes mintázat
08:01
were perceived on the right hemisphere,
199
481260
2000
képződik a jobb agyféltekében,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
a bal látómezőn keresztül, mint a bal agyféltekében.
08:06
So if you present subjects the images such
201
486260
2000
Tehát, ha az ilyen képeket úgy mutatják a kísérleti alanyoknak,
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
hogy a képek nem a bal, hanem a jobb agyféltekébe kerülnek feldolgozásra,
08:11
then they're more likely to see patterns
203
491260
2000
akkor az alanyok hajlamosabbak mintázatok észlelésére,
08:13
than if you put it on the left hemisphere.
204
493260
2000
mint hogyha a bal agyféltekébe kerülnének ezek a képek.
08:15
Our right hemisphere appears to be
205
495260
2000
A jobb agyféltekünk lehet az a hely,
08:17
where a lot of this patternicity occurs.
206
497260
2000
ahol a mintázatalkotás folyamatának többsége történik.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Tehát azt próbáljuk csinálni, hogy "behatolunk" az agyba,
08:21
to see where all this happens.
208
501260
2000
hogy lássuk, hol történik mindez.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger és kollégája, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
L-DOPA-t adtak kísérleti alanyaiknak.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
Az L-DOPA olyan drog, mint ahogy tudják, amellyel a Parkinson-kórt kezelik,
08:31
which is related to a decrease in dopamine.
212
511260
3000
ez a dopaminszint csökkenésével áll összefüggésben.
08:34
L-DOPA increases dopamine.
213
514260
2000
Az L-DOPA növeli a dopaminszintet.
08:36
An increase of dopamine caused
214
516260
2000
És a dopaminszint növelése következtében
08:38
subjects to see more patterns
215
518260
2000
a kísérleti alanyok több mintázatot láttak,
08:40
than those that did not receive the dopamine.
216
520260
2000
mint azok, akik nem kaptak dopamint.
08:42
So dopamine appears to be the drug
217
522260
2000
A dopamin tehát, úgy tűnik, az a drog
08:44
associated with patternicity.
218
524260
2000
amely összefüggésbe hozható a mintázatalkotással.
08:46
In fact, neuroleptic drugs
219
526260
2000
Valójában a neuroleptikus szereket
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
a pszichotikus viselkedés kezelésére használják,
08:50
things like paranoia, delusions
221
530260
2000
mint például a paranoia, az érzékcsalódás
08:52
and hallucinations,
222
532260
2000
és a hallucinálás
08:54
these are patternicities.
223
534260
2000
- ezek mind a mintázatalkotásra való túlzott hajlammal hozhatók kapcsolatba.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Ezek helytelen mintázatok. Hibás pozitív döntések. Az első hibatípusba tartoznak.
08:59
And if you give them drugs
225
539260
2000
És ha olyan gyógyszert adnak a pácienseknek,
09:01
that are dopamine antagonists,
226
541260
2000
amelyek dopamincsökkentők,
09:03
they go away.
227
543260
2000
akkor ezek elmúlnak.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Vagyis, ha csökkented a dopamin mennyiséget,
09:07
and their tendency to see
229
547260
2000
akkor a túlzott mintázatalkotási hajlamuk is
09:09
patterns like that decreases.
230
549260
2000
csökken.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Másrészt, az amfetaminok, mint például a kokain,
09:14
are dopamine agonists.
232
554260
2000
dopaminnövelők.
09:16
They increase the amount of dopamine.
233
556260
2000
Ezek növelik a dopaminmennyiséget.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Tehát valószínűbb ilyenkor, hogy euforikus állapotban érzed magad,
09:21
creativity, find more patterns.
235
561260
2000
kreativabb vagy, és több mintázatot találsz.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Nemrégiben láttam Robin Williams-et
09:25
talk about how he thought he was much funnier
237
565260
2000
beszélni arról, hogy úgy gondolja, sokkal mulatságosabb volt,
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
amikor kokaint fogyasztott, amikor drogproblémai voltak, mint most.
09:30
So perhaps more dopamine
239
570260
2000
Tehát lehetséges, hogy a dopamintöbblet
09:32
is related to more creativity.
240
572260
2000
többletkreativitással jár együtt.
09:34
Dopamine, I think, changes
241
574260
2000
A dopamin, azt hiszem megváltoztatja a
09:36
our signal-to-noise ratio.
242
576260
2000
azt az arányt, ahogyan a bizonytalan dolgokra reagálunk.
09:38
That is, how accurate we are
243
578260
2000
Vagyis azt, hogy mennyire vagyunk pontosak
09:40
in finding patterns.
244
580260
2000
a mintázatok felfedezésében.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Ha túl alacsony, akkor valószínűbb, hogy több II. hibatípust követünk el.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Figyelmen kívül hagyjuk a valódi mintázatokat. Nem akarunk túl szkeptikusak lenni.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Ha túlságosan szkeptikusak vagyunk, akkor nagyon érdekes jó ötleteket mulasztunk el.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Ha egyensúly van, kreatívak vagyunk, és mégsem dőlünk be túl gyakran az ostobaságoknak.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Ha túl magas, talán mindenhol mintázatokat látunk.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Minden alkalommal, amikor valaki ránk néz, azt gondoljuk, az emberek bámulnak.
10:00
You think people are talking about you.
251
600260
2000
Azt hisszük, az emberek rólunk beszélnek.
10:02
And if you go too far on that, that's just simply
252
602260
2000
És ha ezt túlzásba visszük, akkor egyszerűen
10:04
labeled as madness.
253
604260
2000
ezt őrültségnek nevezik.
10:06
It's a distinction perhaps we might make
254
606260
2000
Talán különbséget tehetünk
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
a következő két Nobel-díjas között: Richard Feynman
10:10
and John Nash.
256
610260
2000
és John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Az egyik mindössze a megfelelő számú
10:14
of patterns to win a Nobel Prize.
258
614260
2000
mintázatot látja ahhoz, hogy Nobel-díjat kapjon.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
A másikuk is látja ezeket, de talán túl sok mintát is lát.
10:18
And we then call that schizophrenia.
260
618260
3000
És ezt szkizofréniának nevezzük.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Tehát a bizonytalanra történő reagálás mértéke mintázatdetektori probléma elé állít bennünket.
10:24
And of course you all know exactly
262
624260
2000
És természetesen Önök mindannyian pontosan tudják,
10:26
what this is, right?
263
626260
2000
hogy mi ez, persze.
10:28
And what pattern do you see here?
264
628260
2000
És milyen mintázatot látnak itt?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Ismét az elülső cinguláris kérgüket teszem próbára
10:33
causing you conflicting pattern detections.
266
633260
3000
ahogy arra késztetem Önöket, hogy szembeállítsanak mintázatokat.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Természetesen tudják, hogy ezek Via Uno cipők.
10:38
These are sandals.
268
638260
3000
Szandálok.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Meglehetősen szexi lábak, meg kell hogy mondjam.
10:44
Maybe a little Photoshopped.
270
644260
2000
Talán kissé Photoshop segítségével retusáltak.
10:46
And of course, the ambiguous figures
271
646260
2000
És természetesen a kétértelmű ábrák,
10:48
that seem to flip-flop back and forth.
272
648260
2000
amelyekben mintha az előtér és a háttér váltakozna.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Úgy látszik, amin sokat gondolkodunk,
10:52
influences what you
274
652260
2000
befolyásolja azt, hogy
10:54
tend to see.
275
654260
2000
mit vagyunk hajlamosak látni.
10:56
And you see the lamp here, I know.
276
656260
2000
Itt egy lámpát látnak, biztos vagyok benne.
10:58
Because the lights on here.
277
658260
3000
A fények miatt.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Természetesen, a környezetvédelmi mozgalomnak köszönhetően
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
mindannyian érzékenyek vagyunk a tengeri emlősök helyzetére.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Amit látnak ezen a bizonyos kétértelmű ábrán,
11:09
is, of course, the dolphins, right?
281
669260
2000
természetesen delfinek, helyes.
11:11
You see a dolphin here,
282
671260
2000
Egy delfint látnak itt.
11:13
and there's a dolphin,
283
673260
2000
És ott is egy delfin.
11:15
and there's a dolphin.
284
675260
2000
És ott is egy delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Egy delfinfarok van ott.
11:20
(Laughter)
286
680260
3000
(Nevetés)
11:25
If we can give you conflicting data, again,
287
685260
3000
Ha egymásnak ellentmondó adatokat mutatok be, ismét,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
akkor az elülső cinguláris kérgük hiperaktívvá válik.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Ha a kép alsó felét nézik, minden rendben. Ha a felsőt, akkor ellentmondó adatokat kapnak.
11:34
And then we have to flip the image
290
694260
2000
És aztán meg kell forgatni a képet ahhoz,
11:36
for you to see that it's a set up.
291
696260
2000
hogy lássák, ez csalás.
11:40
The impossible crate illusion.
292
700260
2000
A lehetetlen láda illúzió.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Könnyű becsapni az agyat két dimenzióban.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Most azt mondják, "Ugyan már, Shermer, ezt bárki meg tudja csinálni,
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
egy általános pszichológiai írásban."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Itt a néhai, nagyszerű Jerry Andrus
11:50
"impossible crate" illusion in 3D,
297
710260
3000
lehetetlen láda illúziója 3D-ben
11:53
in which Jerry is standing inside
298
713260
2000
amelyben Jerry a
11:55
the impossible crate.
299
715260
2000
lehetetlen láda belsejében áll.
11:57
And he was kind enough to post this
300
717260
2000
És nagylelkűen megosztotta ezt velünk
11:59
and give us the reveal.
301
719260
2000
és felnyitotta a szemünket.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Természetesen, a kameraszög az oka az egésznek. A fényképész ott áll.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
És úgy tűnik, mintha ez a tábla eltakarná ezt, ez meg emezt, és így tovább.
12:07
But even when I take it away,
304
727260
2000
de még akkor is, amikor visszatérünk az eredeti képhez,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
az illúzió nagyon erős, mert az agyunk akképp programozott,
12:11
to find those certain kinds of patterns.
306
731260
3000
hogy megtaláljuk azokat a bizonyos fajta mintázatokat.
12:14
This is a fairly new one
307
734260
2000
Ez a kép viszonylag új,
12:16
that throws us off because of the conflicting patterns
308
736260
2000
amely félrevezet bennünket az egymásnak ellentmondó mintázatok miatt,
12:18
of comparing this angle with that angle.
309
738260
3000
amelyeket a két szög összehasonlításából kapunk.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
Tulajdonképpen ugyanaz a kép van egymás mellett.
12:24
So what you're doing is comparing that angle
311
744260
2000
Azt csináljuk, hogy hibásan hasonlítjuk össze azt a szöget
12:26
instead of with this one, but with that one.
312
746260
2000
ezzel, ahelyett.
12:28
And so your brain is fooled.
313
748260
2000
Így az agyunk becsapódik.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Még egyszer mondom, a mintázatkereső berendezésünk csapódik be.
12:32
Faces are easy to see
315
752260
2000
Az arcokat egyszerű felismerni,
12:34
because we have an additional evolved
316
754260
2000
mert van egy kiegészítő
12:36
facial recognition software
317
756260
2000
arcfelismerő szoftverünk
12:38
in our temporal lobes.
318
758260
3000
a halántéklebenyünkben.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Itt van néhány arc a szikla oldalán.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
De nem is vagyok biztos abban, hogy valóban ott vannak - ez a Photoshop munkája is lehet.
12:47
But anyway, the point is still made.
321
767260
2000
De akárhogy is van, a lényeg ugyanaz.
12:49
Now which one of these looks odd to you?
322
769260
2000
Melyik tűnik e képek közül furcsának?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Gondolkodás nélkül, melyik tűnik furcsának?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
A bal oldali. Rendben. Megforgatom úgy,
12:55
so it'll be the one on the right.
325
775260
2000
hogy a jobb oldalra kerüljön.
12:57
And you are correct.
326
777260
2000
És igazuk van.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Ezt a viszonylag híres illúziót -- Margaret Thatcherrel csinálták meg először.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Mindig helyettesítik a politikusokat.
13:04
Well, why is this happening?
329
784260
2000
Vajon miért történik ez?
13:06
Well, we know exactly where it happens,
330
786260
2000
Tudjuk pontosan, hogy hol történik,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
a haléntéklebenyben, a jobb oldalon, valahol itt a fülünk fölött.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
Egy kis struktúrában, amelynek fusiform gyrus a neve.
13:14
And there's two types of cells that do this,
333
794260
2000
Kétfajta sejt teszi ezt,
13:16
that record facial features either globally,
334
796260
3000
amelyek közül az egyik az arcot globálisan,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
a másik pedig a specifikus arconásokat rögzíti, ez utóbbiak nagy, gyorsan kisülő sejtek,
13:21
first look at the general face.
336
801260
2000
elsőként az arc általános vonásait vizsgálják meg.
13:23
So you recognize Obama immediately.
337
803260
2000
Így egyből felismerik Obamát.
13:25
And then you notice something quite
338
805260
2000
Majd észreveszik, hogy valami
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
kicsit fura a szem és a száj körül.
13:29
Especially when they're upside down,
340
809260
2000
Főként, amikor ezek meg vannak fordulva.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Itt az általános arcfelismerő szoftverünk lép működésbe.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Visszatérve a gondolatkísérletünkhöz,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
amelyben Ön egy emberszabású, aki az afrikai síkságon sétál.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Csak a szél vagy egy veszélyes ragadozó?
13:42
What's the difference between those?
345
822260
2000
Mi a különbség a kettő között?
13:44
Well, the wind is inanimate;
346
824260
2000
Hát, a szél nem élőlény,
13:46
the dangerous predator is an intentional agent.
347
826260
2000
a veszélyes ragadozó pedig szándékkal rendelkező cselekvő lény.
13:48
And I call this process agenticity.
348
828260
2000
Ezt a folyamatot okozókeresésnek hívom.
13:50
That is the tendency to infuse patterns
349
830260
2000
Ez az a hajlam, hogy megtöltsük a mintázatokat
13:52
with meaning, intention and agency,
350
832260
2000
jelentéssel, illetve szándékoltságot és okozót tételezzünk fel mögöttük,
13:54
often invisible beings from the top down.
351
834260
3000
sokszor láthatatlan lényeket, akik onnan "felülről" igazgatnak.
13:57
This is an idea that we got
352
837260
2000
Ez az elképzelés
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
egy TED-előadó kollégától származik, Dan Dennett-től,
14:01
who talked about taking the intentional stance.
354
841260
2000
aki a szándékolt viselkedésről beszélt itt.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Valami hasonlóról van itt szó, amely, kiterjesztve, azt gondolom, többféle dolgot megmagyarázhat,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
lelkeket, kísérteteket, szellemeket, démonokat, angyalokat,
14:09
aliens, intelligent designers,
357
849260
2000
földönkívülieket, intelligens tervezést,
14:11
government conspiracists
358
851260
2000
kormányösszeesküvést
14:13
and all manner of invisible agents
359
853260
2000
és mindenféle láthatatlan cselekvőt,
14:15
with power and intention, are believed
360
855260
2000
amely hatalommal és szándékkal rendelkezik, és amelyről azt hisszük,
14:17
to haunt our world and control our lives.
361
857260
2000
hogy kísérti a világot vagy hatalmában tartja az életünket.
14:19
I think it's the basis of animism
362
859260
2000
Úgy gondolom, ez az alapja az animizmusnak,
14:21
and polytheism and monotheism.
363
861260
3000
illetve a több- és egyistenhitűségnek.
14:24
It's the belief that aliens are somehow
364
864260
2000
Ez az a hit, hogy a földönkívüliek valahogyan
14:26
more advanced than us, more moral than us,
365
866260
2000
fejlettebbek, mint mi, erkölcsösebbek, mint mi,
14:28
and the narratives always are
366
868260
2000
és a történet róluk mindig úgy szól,
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
hogy majd jönnek, és megmentenek minket onnan fentről.
14:33
The intelligent designer's always portrayed
368
873260
2000
Az intelligens tervezőt mindig
14:35
as this super intelligent, moral being
369
875260
3000
szuperintelligens, erkölcsös lényként ábrázolják,
14:38
that comes down to design life.
370
878260
2000
aki lejön, hogy megtervezze az életet.
14:40
Even the idea that government can rescue us --
371
880260
2000
Még annak a gondolatnak is, hogy a kormány megmenthet minket.
14:42
that's no longer the wave of the future,
372
882260
2000
Nincs köze ahhoz, ahogyan a jövőt látjuk.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Hanem ez, azt hiszem, egyfajta ún. "okozókeresés",
14:46
projecting somebody up there,
374
886260
2000
valakinek a kivetítése "odafentre",
14:48
big and powerful, will come rescue us.
375
888260
2000
aki hatalmas és erős, és aki megment minket.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
És ez, azt hiszem, az alapja az összesküvés-elméleteknek is.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Valaki áll a dolgok mögött és mozgatja a szálakat,
14:55
whether it's the Illuminati
378
895260
2000
ez lehet akár az Illuminati
14:57
or the Bilderbergers.
379
897260
2000
vagy a Bilderberg csoporthoz tartozó.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
De van egy mintázatkereső probléma, nem?
15:01
Some patterns are real and some are not.
381
901260
2000
Egyes mintázatok valódiak, mások pedig nem.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Kennedy összesküvés vagy egy magányos gyilkos áldozata lett?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Ha a helyszínre megyünk -- vannak ott emberek bármelyik napon --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
mint ahogyan én is odamentem, itt -- akik mutatják, hol álltak a különböző lövészek.
15:12
My favorite one was he was in the manhole.
385
912260
3000
A kedvencem, amikor azt mondják, a csatornanyílásban állt.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Kiugrott az utolsó pillanatban, és lőtt.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
De természetesen, Lincoln összeesküvés áldozata lett.
15:20
So we can't just uniformly dismiss
388
920260
2000
Tehát nem hagyhatjuk egységesen figyelmen kívül
15:22
all patterns like that.
389
922260
2000
az összes ilyen mintázatot.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Mert, valljuk be, egyes mintázatok valódiak.
15:26
Some conspiracies really are true.
391
926260
2000
Egyes összeesküvések valóban léteztek.
15:30
Explains a lot, maybe.
392
930260
2000
Talán ez sok mindent megmagyaráz.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
9/11-nek szintén van összeesküvés-elmélete. Összeesküvés.
15:35
We did a whole issue on it.
394
935260
2000
Készítettünk egy egész lapszámot erről.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 Al Kaida tag kitervelte, hogy repülőgépeket épületeknek irányít,
15:39
constitutes a conspiracy.
396
939260
2000
és ez összeesküvés.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
De azok, akik "tudják" a 9/11 mögötti "igazságot", nem ezt gondolják.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Ők azt hiszik, a Bush-kormányzat belső munkája volt.
15:46
Well, that's a whole other lecture.
399
946260
2000
De hát ez egy egészen más történet.
15:48
You know how we know that 9/11
400
948260
2000
De tudják, hogy honnan tudjuk, hogy 9/11-et
15:50
was not orchestrated by the Bush administration?
401
950260
2000
nem a Bush-kormány rendezte meg?
15:52
Because it worked.
402
952260
2000
Mert működött.
15:54
(Laughter)
403
954260
3000
(Nevetés)
15:57
(Applause)
404
957260
3000
(Taps)
16:00
So we are natural-born dualists.
405
960260
2000
Tehát született dualisták vagyunk.
16:02
Our agenticity process comes from
406
962260
2000
Az okozókeresés folyamata
16:04
the fact that we can enjoy movies like these.
407
964260
2000
abból a tényből származik, hogy szeretjük az ilyen filmeket.
16:06
Because we can imagine, in essence,
408
966260
2000
Mert lényegében elképzelhetjük
16:08
continuing on.
409
968260
2000
a folytatást.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Tudjuk, hogy a halántéklebeny ingerlésével
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
előidézhető a testen kívüliség élménye,
16:14
near-death experiences,
412
974260
2000
halálközeli élmény,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
és ez elérhető pusztán azáltal, hogy egy elektródát helyezünk a halántéklebenyre.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Vagy előidézhető eszméletvesztéssel
16:21
by accelerating in a centrifuge.
415
981260
2000
miközben egy centrifugában forgatnak.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Hipoxia vagy oxigénhiányos állapot következik be.
16:26
And the brain then senses
417
986260
2000
És az agy
16:28
that there's an out-of-body experience.
418
988260
2000
a testen kívüliség állapotát érzékeli.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Használhatják -- mint ahogyan én is tettem --
16:32
Michael Persinger's God Helmet,
420
992260
2000
Michael Persinger ún. "isten sisakját",
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
amely elektromágneses hullámokkal bombázza a halántéklebenyt.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
És ez a testen kívüliség élményét idézi elő.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Egy kis videóklippel fejezem be az előadásom,
16:41
that sort of brings all this together.
424
1001260
2000
amely összefoglalja, amiről beszéltem.
16:43
It's just a minute and a half.
425
1003260
2000
Csak egy és fél perc az egész.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
A hallottakat a várakozás hatalma és a hit hatalma fogalmaiba foglalja össze.
16:48
Go ahead and roll it.
427
1008260
2000
Elindíthatják.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Mesélő: Ezt a helyet választották a meghallgatások megrendezésére
16:53
for an advert for lip balm.
429
1013260
2000
egy ajakbalzsam reklámnak.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Nő: Reméljük, ennek egy részletét felhasználhatjuk
16:57
in a national commercial, right?
431
1017260
2000
egy országos reklámban is, igen.
16:59
And this is test on some lip balms
432
1019260
2000
Néhány ajakbalzsamat tesztelünk,
17:01
that we have over here.
433
1021260
2000
amik ott vannak.
17:03
And these are our models who are going to help us,
434
1023260
2000
És itt vannak a modellek, akik segítenek nekünk,
17:05
Roger and Matt.
435
1025260
2000
Roger és Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Van egy saját ajakbalzsamunk,
17:09
and we have a leading brand.
437
1029260
2000
és van egy másik, híres márkájú balzsam.
17:11
Would you have any problem
438
1031260
2000
Gondot okozna
17:13
kissing our models to test it?
439
1033260
2000
megcsókolni a modelljeinket, hogy leteszteljük a balzsamokat?
17:15
Girl: No.
440
1035260
2000
Lány: Nem.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Nő: Nem lenne gond? (Lány: Nem.) Nő: Tehát benne van.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Lány: Benne vagyok. (Nő: Oké.)
17:21
So this is a blind test.
443
1041260
3000
Ez tehát egy bekötött szemmel végzett teszt.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Arra kérem, menjen előre,
17:26
and put a blindfold on.
445
1046260
2000
és takarja be a szemét.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Oké, lát valamit? (Lány: Nem.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Húzza rá a szemére, hogy lefele se lásson. (Lány: Oké.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Nő: Most semmit sem lát, igaz?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Lány: Igen. (Nő: Oké.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Amit figyelni fogok a teszt alatt az,
17:41
is how it protects your lips,
451
1061260
3000
hogy a balzsam mennyire védi az ajkait,
17:44
the texture, right,
452
1064260
2000
a textúráját,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
és hogy esetleg meg tudja-e állapítani az ízét vagy sem.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Lány: Oké. (Nő: Végzett már csóktesztet valaha?)
17:52
Girl: No.
455
1072260
2000
Lány: Nem.
17:54
Woman: Take a step here.
456
1074260
2000
Nő: Lépjen ide.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Oké, most csücsörítsen.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Erősen csücsörítsen, és hajoljon enyhén előre, oké.
18:06
(Music)
459
1086260
4000
(Zene)
18:10
(Laughter)
460
1090260
5000
(Nevetés)
18:19
(Laughter)
461
1099260
3000
(Nevetés)
18:30
Woman: Okay.
462
1110260
2000
Oké.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
És, Jennifer, milyen érzés volt?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Jó.
18:36
(Laughter)
465
1116260
7000
(Nevetés)
18:43
Girl: Oh my God!
466
1123260
2000
Lány: Ó, Istenem.
18:45
(Laughter)
467
1125260
4000
(Nevetés)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Nagyon köszönöm. Köszönöm. Köszönöm.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7