The pattern behind self-deception | Michael Shermer

735,481 views ・ 2010-06-14

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Pawel Banas Korekta: Anna Chadzynska
00:16
So since I was here last in '06,
0
16260
3000
Od czasu kiedy byłem tutaj ostatni raz w 2006 roku,
00:19
we discovered that global climate change
1
19260
2000
odkryliśmy, że globalne ocieplenie
00:21
is turning out to be a pretty serious issue,
2
21260
2000
okazało się być naprawdę poważnym problemem.
00:23
so we covered that fairly extensively
3
23260
2000
Poświęciliśmy temu zagadnieniu całkiem sporo miejsca
00:25
in Skeptic magazine.
4
25260
2000
w magazynie "Skeptic".
00:27
We investigate all kinds
5
27260
2000
Zbadaliśmy wszelkiego rodzaju
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
naukowe i pseudonaukowe kontrowersje.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Lecz okazało się, że nie ma się o co martwić,
00:34
because the world's going to end in 2012.
8
34260
2000
ponieważ świat i tak skończy się w 2012 roku.
00:36
Another update:
9
36260
2000
Następna aktualizacja:
00:38
You will recall I introduced you guys
10
38260
2000
Przypomnicie sobie, że przedstawiłem wam
00:40
to the Quadro Tracker.
11
40260
2000
"Quadro Tracker".
00:42
It's like a water dowsing device.
12
42260
2000
Jest to coś w rodzaju różdżki.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Po prostu pusty w środku kawałek plastiku z obracającą się wkoło antenką.
00:47
And you walk around, and it points to things.
14
47260
2000
Chodzisz sobie wokoło i wskazujesz na różne rzeczy.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Na przykład jeśli szukasz marihuany w szafkach studentów,
00:52
it'll point right to somebody.
16
52260
2000
to coś wskaże bezpośrednio jakąś osobę.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Och, przepraszam. (Śmiechy)
00:56
This particular one that was given to me
18
56260
2000
To konkretne urządzenie, które zostało mi podarowane
00:58
finds golf balls,
19
58260
2000
znajduje piłeczki do golfa,
01:00
especially if you're at a golf course
20
60260
2000
zwłaszcza jeśli jesteś na polu golfowym
01:02
and you check under enough bushes.
21
62260
3000
i sprawdzisz wystarczającą liczbę krzaków.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
W kategorii "Jaką krzywdę może spowodować tak głupia rzecz jak to?",
01:08
this device, the ADE 651,
23
68260
3000
to urządzenie, ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
zostało sprzedane władzom Iraku
01:14
for 40,000 dollars apiece.
25
74260
2000
za 40 tyś. dolarów od sztuki.
01:16
It's just like this one, completely worthless,
26
76260
2000
Jest dokładnie jak to, kompletnie bezużyteczne,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
i rzekomo działało na zasadzie
01:20
magnetic ion attraction,"
28
80260
3000
"elektrostatycznego przyciągania jonów",
01:24
which translates to
29
84260
2000
co można tłumaczyć jako
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"pseudonaukowa bzdura" - to jest odpowiednie określenie -
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
która łączy razem przypadkowe słowa tak aby dobrze brzmiały,
01:31
but it does absolutely nothing.
32
91260
2000
ale jest całkowicie bezużyteczne.
01:33
In this case, at trespass points,
33
93260
3000
W tym przypadku na punktach kontrolnych,
01:36
allowing people to go through
34
96260
2000
przepuszczanie ludzi przez bramkę,
01:38
because your little tracker device said they were okay,
35
98260
3000
ponieważ ten mały wykrywacz niczego nie wykrył,
01:41
actually cost lives.
36
101260
3000
naprawdę kosztuje czyjeś życie.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Niebezpieczeństwo pseudonauki tkwi
01:46
in believing in this sort of thing.
38
106260
3000
we wierze w tego typu rzeczy.
01:49
So what I want to talk about today is belief.
39
109260
3000
Tak więc, chciałbym dzisiaj porozmawiać o wierze.
01:52
I want to believe,
40
112260
2000
Chcę wierzyć
01:54
and you do too.
41
114260
2000
i ty także.
01:56
And in fact, I think my thesis here is that
42
116260
2000
W rzeczywistości, teza która postawię tutaj mówi, że
01:58
belief is the natural state of things.
43
118260
2000
wiara jest naturalnym stanem rzeczy.
02:00
It is the default option. We just believe.
44
120260
2000
Jest to opcja domyślna. Po prostu wierzymy.
02:02
We believe all sorts of things.
45
122260
2000
Wierzymy w wiele różnych rzeczy.
02:04
Belief is natural;
46
124260
2000
Wiara jest naturalna.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
Brak wiary, sceptycyzm, nauka - to nie jest naturalne.
02:08
It's more difficult.
48
128260
2000
Jest trudniejsze.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Niewygodnie jest nie wierzyć.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Tak jak Fox Mulder w "Z archiwum X",
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
który chce wierzyć w UFO. Wszyscy chcemy.
02:18
and the reason for that is because
52
138260
2000
A robimy to dlatego, że
02:20
we have a belief engine in our brains.
53
140260
3000
w naszym mózgach funkcjonuje mechanizm wiary.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
W pierwszym rzędzie, jesteśmy istotami szukającymi wzorców.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Łączymy punkty: A łączy się z B, B łączy się z C.
02:29
And sometimes A really is connected to B,
56
149260
3000
I czasami A rzeczywiście łączy się z B.
02:32
and that's called association learning.
57
152260
2000
I jest to nauka metodą skojarzeń.
02:34
We find patterns, we make those connections,
58
154260
3000
Znajdujemy wzory, tworzymy powiązania,
02:37
whether it's Pavlov's dog here
59
157260
2000
czy jest to pies Pawłowa,
02:39
associating the sound of the bell with the food,
60
159260
3000
który kojarzy dźwięk dzwonka z jedzeniem
02:42
and then he salivates to the sound of the bell,
61
162260
2000
i ślini się za każdym razem gdy go usłyszy,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
czy też jest to szczur w klatce Skinnera,
02:46
in which he's having an association
63
166260
2000
który znajduje powiązanie
02:48
between his behavior and a reward for it,
64
168260
2000
pomiędzy swoim zachowaniem a nagrodą,
02:50
and therefore he repeats the behavior.
65
170260
2000
dlatego wciąż powtarza dane zachowanie.
02:52
In fact, what Skinner discovered
66
172260
2000
W rzeczywistości, Skinner odkrył,
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
że jeśli włożysz gołębia do takiej klatki jak ta
02:57
and he has to press one of these two keys,
68
177260
2000
i zmusisz go do wciskania jednego z tych dwóch wpustów
02:59
and he tries to figure out what the pattern is,
69
179260
2000
i on próbuje pojąć jaki wzór został zastosowany
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
a ty dajesz mu małą nagrodę do zbiorniczka.
03:03
if you just randomly assign rewards
71
183260
3000
Jeśli po prostu będziesz je losowo nagradzał
03:06
such that there is no pattern,
72
186260
2000
tak że nie będzie istniał żaden wzorzec,
03:08
they will figure out any kind of pattern.
73
188260
2000
to i tak go wymyślą.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
I cokolwiek robiły na chwilę przed uzyskaniem nagrody
03:12
they repeat that particular pattern.
75
192260
2000
powtarzają właśnie ten określony wzorzec.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Czasami obracały się nawet dwa razy w kierunku przeciwnym do obrotów wskazówek zegara,
03:17
once clockwise and peck the key twice.
77
197260
3000
raz zgodnie z ruchem wskazówek zegara, dziobiąc dwa razy wpust.
03:20
And that's called superstition,
78
200260
2000
I to jest właśnie zabobon.
03:22
and that, I'm afraid,
79
202260
2000
I obawiam się,
03:24
we will always have with us.
80
204260
2000
że zawsze będzie z nami.
03:26
I call this process "patternicity" --
81
206260
2000
Nazywam ten proces paternifikacją,
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
tj. skłonność do zauważania wzorców,
03:30
in both meaningful and meaningless noise.
83
210260
3000
tam gdzie są i tam gdzie ich nie ma.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Wykonując ten proces, popełniamy dwa rodzaje błędów.
03:36
A Type I error, or false positive,
85
216260
2000
Błąd pierwszego rodzaju, lub alfa-błąd,
03:38
is believing a pattern is real
86
218260
2000
to wynajdywanie wzorców tam,
03:40
when it's not.
87
220260
2000
gdzie ich nie ma.
03:42
Our second type of error is a false negative.
88
222260
2000
Natomiast błąd drugiego rodzaju, beta-błąd.
03:44
A Type II error is not believing
89
224260
2000
Typ drugi występuje gdy nie wierzymy,
03:46
a pattern is real when it is.
90
226260
3000
że wzorzec zachodzi, gdy ten jest całkiem realny.
03:49
So let's do a thought experiment.
91
229260
2000
Tak więc, zróbmy eksperyment.
03:51
You are a hominid three million years ago
92
231260
2000
Jesteś hominidem sprzed 3 milionów lat
03:53
walking on the plains of Africa.
93
233260
3000
stąpającym po równinach Afryki.
03:56
Your name is Lucy, okay?
94
236260
2000
Masz na imię Lucy, zgoda?
03:58
And you hear a rustle in the grass.
95
238260
2000
I słyszysz szelest w trawie.
04:00
Is it a dangerous predator,
96
240260
2000
Czy jest to niebezpieczny drapieżnik,
04:02
or is it just the wind?
97
242260
2000
czy to po prostu wiatr?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Twoja następna decyzja może być najważniejszą decyzją w twoim życiu.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Jeśli myślisz, że szelest w trawie oznacza niebezpiecznego drapieżnika,
04:10
and it turns out it's just the wind,
100
250260
2000
a okaże się, że jest to tylko wiatr,
04:12
you've made an error in cognition,
101
252260
2000
będzie to jedynie błąd poznawczy,
04:14
made a Type I error, false positive.
102
254260
2000
błąd pierwszego rodzaju, alfa-błąd.
04:16
But no harm. You just move away.
103
256260
2000
Ale nic się nie stało. Po prostu oddalasz się.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Jesteś bardziej uważny. Jesteś bardziej czujny.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Z drugiej strony jeśli uwierzysz, że szelest w trawie jest wynikiem wiatru,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
a okaże się jednak, że jest to niebezpieczny drapieżca,
04:25
you're lunch.
107
265260
2000
stajesz się przekąską.
04:27
You've just won a Darwin award.
108
267260
2000
Właśnie zdobyłeś nagrodę Darwina.
04:29
You've been taken out of the gene pool.
109
269260
2000
Zostałeś wyeliminowany z puli genów.
04:31
Now the problem here is that
110
271260
2000
Problem polega na tym, że
04:33
patternicities will occur whenever the cost
111
273260
2000
wzorce pojawią się ilekroć koszt
04:35
of making a Type I error
112
275260
2000
popełnienia błędu pierwszego typu
04:37
is less than the cost of making a Type II error.
113
277260
2000
jest mniejszy od kosztu popełnienia błędu drugiego typu.
04:39
This is the only equation in the talk by the way.
114
279260
2000
To jest jedyne równanie w tej prezentacji.
04:41
We have a pattern detection problem
115
281260
2000
Mamy problem w wykrywaniu wzorców,
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
szacowanie różnic pomiędzy błędem pierwszego i drugiego typu
04:46
is highly problematic,
117
286260
2000
jest wysoce skomplikowane,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
zwłaszcza gdy w ułamku sekundy musimy zadecydować o sprawach życia i śmierci.
04:51
So the default position
119
291260
2000
Tak więc, postawa domyślna
04:53
is just: Believe all patterns are real --
120
293260
2000
to po prostu wiara w to, że wszelkie wzorce są prawdziwe.
04:55
All rustles in the grass are dangerous predators
121
295260
3000
Każdy szelest trawy oznacza niebezpiecznego drapieżce,
04:58
and not just the wind.
122
298260
2000
a nie wiatr.
05:00
And so I think that we evolved ...
123
300260
2000
Tak więc, sądzę, że się rozwinęliśmy...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
To dobór naturalny stoi za naszą skłonnością do wiary,
05:05
our pattern-seeking brain processes,
125
305260
2000
naszymi szukającymi wzorców procesami mózgowymi,
05:07
to always find meaningful patterns
126
307260
2000
aby zawsze znaleźć sensowny wzorzec
05:09
and infuse them with these sort of
127
309260
2000
i napełnić go pewnego rodzaju
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
drapieżczymi lub celowymi działaniami do których jeszcze wrócę.
05:14
So for example, what do you see here?
129
314260
2000
Tak więc dla przykładu, co tutaj widzicie?
05:16
It's a horse head, that's right.
130
316260
2000
To jest głowa konia.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Wygląda jak koń. To musi być koń.
05:20
That's a pattern.
132
320260
2000
To jest wzorzec.
05:22
And is it really a horse?
133
322260
2000
Czy to naprawdę koń?
05:24
Or is it more like a frog?
134
324260
3000
Czy może jednak żaba?
05:27
See, our pattern detection device,
135
327260
2000
Widzicie, nasze urządzenie do wykrywania wzorców,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
ulokowane jest w przednim zakręcie obręczy kory mózgowej -
05:32
it's our little detection device there --
137
332260
3000
Jest to nasz mały detektor, który
05:35
can be easily fooled, and this is the problem.
138
335260
2000
można łatwo oszukać i to jest właśnie problem.
05:37
For example, what do you see here?
139
337260
2000
Co widzicie tutaj na przykład?
05:39
Yes, of course, it's a cow.
140
339260
3000
Oczywiście. To jest krowa.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Kiedy przygotuję mózg - nazywa się to torowaniem -
05:45
once I prime the brain to see it,
142
345260
2000
kiedy już przygotuję mózg aby to widzieć,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
wyskakuje z powrotem nawet bez narzuconego wzorca.
05:50
And what do you see here?
144
350260
2000
A co widzicie tutaj?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Niektórzy widzą dalmatyńczyka.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Tak, to prawda i to jest właśnie torowanie.
05:56
So when I go back without the prime,
147
356260
2000
Tak więc, kiedy wracam bez torowania,
05:58
your brain already has the model
148
358260
2000
twój mózg już posiada model,
06:00
so you can see it again.
149
360260
2000
tak, że znowu możesz go zobaczyć.
06:02
What do you see here?
150
362260
3000
Co tutaj widzicie?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Planeta Saturn. Tak, dobrze.
06:07
How about here?
152
367260
3000
A tutaj?
06:10
Just shout out anything you see.
153
370260
3000
Po prostu krzyczcie gdy coś zobaczycie.
06:14
That's a good audience, Chris.
154
374260
2000
Ta publiczność jest niezła, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Ponieważ nic tutaj nie ma. Rzekomo nic nie ma.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Jest to eksperyment wykonany przez Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
z Uniwersytetu Teksańskiego w Austin
06:24
on corporate environments
158
384260
2000
dotyczący środowisk korporacyjnych
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
i czy uczucia niepewności i braku kontroli
06:29
makes people see illusory patterns.
160
389260
2000
powodują, że ludzie widzą iluzoryczne wzorce.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Prawie wszyscy widzą planetę Saturn.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Ludzie, którzy znajdują się w warunkach odczucia braku kontroli
06:37
are more likely to see something in this,
163
397260
2000
są bardziej skłonni widzieć coś,
06:39
which is allegedly patternless.
164
399260
3000
co przypuszczalnie pozbawione jest wzorca.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Innymi słowy, skłonność do znajdowania wzorców
06:45
goes up when there's a lack of control.
166
405260
3000
wzrasta w sytuacji braku kontroli.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Na przykład, zabobonność wśród graczy w baseballa jest powszechnie znana,
06:51
when they're batting,
168
411260
2000
zwłaszcza wśród zawodników używających kija,
06:53
but not so much when they're fielding.
169
413260
2000
lecz zdecydowanie mniejsza wśród zawodników z pola.
06:55
Because fielders are successful
170
415260
2000
Dlatego, że zawodnicy z pola odnoszą sukces
06:57
90 to 95 percent of the time.
171
417260
2000
w 90 do 95 procent przypadków.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Najlepsi zawodnicy uderzający kijem chybiają w 7 na 10 przypadków.
07:02
So their superstitions, their patternicities,
173
422260
2000
Tak więc, ich zabobonność, ich paternifikacja
07:04
are all associated with feelings of lack of control
174
424260
3000
jest w całości związana z uczuciem braku kontroli
07:07
and so forth.
175
427260
2000
i tak dalej.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Co widzicie w tym określonym przypadku, na tym polu?
07:13
Anybody see an object there?
177
433260
2000
Czy ktoś widzi tutaj jakiś obiekt?
07:15
There actually is something here,
178
435260
2000
W rzeczywistości coś się tutaj znajduje,
07:17
but it's degraded.
179
437260
2000
lecz jest mocno niewyraźne.
07:19
While you're thinking about that,
180
439260
2000
Kiedy zastanawiacie się nad tym,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
ten eksperyment został wykonany przez Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
angielską psycholog,
07:25
who showed subjects this degraded image
183
445260
2000
która przedstawiła badanym to niewyraźne zdjęcie,
07:27
and then ran a correlation between
184
447260
2000
a później sprawdziła czy zachodzi korelacja z
07:29
their scores on an ESP test:
185
449260
2000
ich wynikami testu na postrzeganie pozazmysłowe,
07:31
How much did they believe in the paranormal,
186
451260
2000
jak bardzo wierzą w zjawiska paranormalne,
07:33
supernatural, angels and so forth.
187
453260
3000
siły nadprzyrodzone, anioły i tym podobne.
07:36
And those who scored high on the ESP scale,
188
456260
3000
I ci co zdobyli najwięcej punktów w teście,
07:39
tended to not only see
189
459260
2000
mieli skłonność do dostrzegania, nie tylko
07:41
more patterns in the degraded images
190
461260
2000
większej ilości wzorców na tle tego niewyraźnego zdjęcia,
07:43
but incorrect patterns.
191
463260
2000
ale również wzorców, które są nieprawdziwe.
07:45
Here is what you show subjects.
192
465260
2000
Oto co pokazujesz badanym.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Widoczność ryby jest zdegradowana o 20 procent, 50 procent,
07:50
and then the one I showed you,
194
470260
2000
i to które pokazałem wam wcześniej,
07:52
70 percent.
195
472260
2000
o 70 procent.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Podobny eksperyment został przeprowadzony przez szwajcarskiego psychologa,
07:56
named Peter Brugger,
197
476260
2000
Petera Bruggera,
07:58
who found significantly more meaningful patterns
198
478260
3000
który odkrył, że zdecydowanie więcej sensownych wzorców
08:01
were perceived on the right hemisphere,
199
481260
2000
tworzy się w prawej półkuli mózgu
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
poprzez pole widzenia oka lewego, niż w lewej półkuli mózgu.
08:06
So if you present subjects the images such
201
486260
2000
Tak więc, jeśli przedstawisz badanym zdjęcia tak,
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
że znajdą one swój finał w prawej półkuli mózgu zamiast w lewej,
08:11
then they're more likely to see patterns
203
491260
2000
to będą bardziej skłonni dostrzec wzorce
08:13
than if you put it on the left hemisphere.
204
493260
2000
niż gdyby zostały odebrane przez lewa półkulę.
08:15
Our right hemisphere appears to be
205
495260
2000
Nasza prawa półkula mózgowa okazuje się być
08:17
where a lot of this patternicity occurs.
206
497260
2000
miejscem gdzie pojawia bardzo dużo wzorców.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Tak więc, spróbujmy przewiercić się do mózgu
08:21
to see where all this happens.
208
501260
2000
aby zobaczyć gdzie to wszystko się dzieje.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger i jego kolega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
podali badanym L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA jest lekiem podawanym pacjentom chorym na Parkinsona,
08:31
which is related to a decrease in dopamine.
212
511260
3000
chorobą związaną z ubytkiem dopaminy.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA zwiększa stężenie dopaminy.
08:36
An increase of dopamine caused
214
516260
2000
Wzrost stężenia dopaminy powoduje,
08:38
subjects to see more patterns
215
518260
2000
że badana grupa widzi więcej wzorców,
08:40
than those that did not receive the dopamine.
216
520260
2000
niż grupa, która nie otrzymała dopaminy.
08:42
So dopamine appears to be the drug
217
522260
2000
Tak więc, dopamina okazuje się być lekiem,
08:44
associated with patternicity.
218
524260
2000
który związany jest ze skłonnością do zauważania wzorców.
08:46
In fact, neuroleptic drugs
219
526260
2000
W istocie, leki przeciwpsychotyczne,
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
które są używane do eliminowania zachowań psychotycznych,
08:50
things like paranoia, delusions
221
530260
2000
takich jak paranoja, urojenia,
08:52
and hallucinations,
222
532260
2000
czy halucynacje,
08:54
these are patternicities.
223
534260
2000
zwiększają skłonność do dostrzegania wzorców.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
To są błędne wzorce, alfa-błędy, błędy pierwszego rodzaju.
08:59
And if you give them drugs
225
539260
2000
I jeśli podasz im leki,
09:01
that are dopamine antagonists,
226
541260
2000
które blokują produkcję dopaminy,
09:03
they go away.
227
543260
2000
one zanikają.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Zmniejszasz stężenie dopaminy
09:07
and their tendency to see
229
547260
2000
i ich skłonność to widzenia
09:09
patterns like that decreases.
230
549260
2000
wzorców również się zmniejsza.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Z drugiej strony, narkotyki takie jak kokaina,
09:14
are dopamine agonists.
232
554260
2000
są agonistami dopaminy.
09:16
They increase the amount of dopamine.
233
556260
2000
Zwiększają stężenie dopaminy.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Mamy większą skłonność do odczuwania stanu euforii,
09:21
creativity, find more patterns.
235
561260
2000
stajemy się bardziej kreatywni, znajdujemy większą ilości wzorców.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
W istocie, widziałem ostatnio Robina Williamsa,
09:25
talk about how he thought he was much funnier
237
565260
2000
mówiącego o tym, że myślał że był bardziej zabawny,
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
kiedy zażywał kokainę i był uzależniony, niż teraz.
09:30
So perhaps more dopamine
239
570260
2000
Możliwe, że większa ilość dopaminy
09:32
is related to more creativity.
240
572260
2000
zwiększa naszą kreatywność.
09:34
Dopamine, I think, changes
241
574260
2000
Dopamina, jak sądzę, zmienia
09:36
our signal-to-noise ratio.
242
576260
2000
nasz współczynnik sygnału do szumu.
09:38
That is, how accurate we are
243
578260
2000
To znaczy, jak często znajdujemy
09:40
in finding patterns.
244
580260
2000
prawidłowe wzorce.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Jeśli jest zbyt niski, to mamy skłonność do robienia zbyt wielu błędów II rodzaju.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Nie dostrzegasz prawdziwego wzorca. Nie chcemy być przesadnie sceptyczni.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Jeśli jesteś zbyt sceptyczny, nie dostrzegasz wielu interesujących dobrych pomysłów.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Idealnie - jesteś kreatywny, a mimo tego nie wierzysz w zbyt wiele bzdur.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Zbyt wysoki wynik; możliwe, że widzisz wzorce wszędzie.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Zawsze, kiedy ktoś na ciebie spojrzy, myślisz że ludzie się na ciebie gapią.
10:00
You think people are talking about you.
251
600260
2000
Wydaje ci się, że rozmawiają o tobie.
10:02
And if you go too far on that, that's just simply
252
602260
2000
I jeśli zaczniesz przesadzać, to po prostu
10:04
labeled as madness.
253
604260
2000
otrzymasz etykietkę szaleńca.
10:06
It's a distinction perhaps we might make
254
606260
2000
Jest różnica, jeśli oczywiście można tak powiedzieć,
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
pomiędzy dwoma laureatami Nobla, Richardem Feynmanem,
10:10
and John Nash.
256
610260
2000
a Joshem Nashem.
10:12
One sees maybe just the right number
257
612260
2000
Jeden z nich może widzi odpowiednią ilość
10:14
of patterns to win a Nobel Prize.
258
614260
2000
wzorców aby wygrać nagrodę Nobla.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
Drugi również, ale może widzi zbyt wiele wzorców.
10:18
And we then call that schizophrenia.
260
618260
3000
A to już jest schizofrenia.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Tak więc, współczynnik sygnału do szumu odsłania nam problem związany z wykrywaniem wzorców.
10:24
And of course you all know exactly
262
624260
2000
I oczywiście wszyscy dokładnie wiemy
10:26
what this is, right?
263
626260
2000
co to jest.
10:28
And what pattern do you see here?
264
628260
2000
Jaki wzorzec widzicie tutaj?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Znowu testuję wasz przedni zakręt obręczy kory mózgowej
10:33
causing you conflicting pattern detections.
266
633260
3000
powodując problem w wykrywaniu wzorców.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Oczywiście to są buty Via Uno.
10:38
These are sandals.
268
638260
3000
Sandały.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Naprawdę seksowne stopy, muszę powiedzieć.
10:44
Maybe a little Photoshopped.
270
644260
2000
Może troszeczkę wyretuszowane.
10:46
And of course, the ambiguous figures
271
646260
2000
I oczywiście, wieloznaczne figury,
10:48
that seem to flip-flop back and forth.
272
648260
2000
które wyglądają jakby się przewracały w te i we wte.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Okazało się, że to o czym myślisz w dużym stopniu
10:52
influences what you
274
652260
2000
wpływa na to co
10:54
tend to see.
275
654260
2000
zamierzasz zobaczyć.
10:56
And you see the lamp here, I know.
276
656260
2000
Tutaj widać lampę, tak wiem.
10:58
Because the lights on here.
277
658260
3000
Ponieważ światło jest powyżej.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Oczywiście, dzięki ekologom
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
wszyscy jesteśmy uczuleni na trudną sytuację morskich ssaków.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Tak więc, to co widzicie w tej konkretnej, wieloznacznej figurze
11:09
is, of course, the dolphins, right?
281
669260
2000
to oczywiście delfiny, prawda?
11:11
You see a dolphin here,
282
671260
2000
Tutaj widać delfina.
11:13
and there's a dolphin,
283
673260
2000
I tam jest delfin.
11:15
and there's a dolphin.
284
675260
2000
I tam też jest delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
A tam jest ogon delfina.
11:20
(Laughter)
286
680260
3000
(Śmiechy)
11:25
If we can give you conflicting data, again,
287
685260
3000
Jeśli podamy wam sprzeczne informacje, znowu,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
wasza kora mózgowa zmieni się w super napęd.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Jeśli patrzysz na dolną cześć zdjęcia to jest OK. Jeśli na górną część, wtedy otrzymujesz sprzeczne informacje.
11:34
And then we have to flip the image
290
694260
2000
A gdy obrócisz zdjęcie
11:36
for you to see that it's a set up.
291
696260
2000
wtedy zrozumiesz, że zdjęcie jest ustawione.
11:40
The impossible crate illusion.
292
700260
2000
Iluzja niemożliwej skrzynki.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Łatwo jest oszukać mózg w 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Mówicie, "Ech, daj spokój Shermer, każdy może to zrobić
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
posługując się przewodnikiem do psychologii dla początkujących"
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Tak więc, tutaj Jerry Andrus przedstawia wspaniałą
11:50
"impossible crate" illusion in 3D,
297
710260
3000
iluzję "niemożliwej skrzynki" w 3D,
11:53
in which Jerry is standing inside
298
713260
2000
w której Jerry stoi wewnątrz
11:55
the impossible crate.
299
715260
2000
niemożliwej skrzynki.
11:57
And he was kind enough to post this
300
717260
2000
W dodatku był na tyle miły aby nam to przysłać
11:59
and give us the reveal.
301
719260
2000
i wyjawić jak to działa.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Oczywiście kąt ustawienia kamery jest wszystkim. Fotograf jest tutaj.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
A ta deska wygląda jakby zachodziła na tą, a ta na tamtą i tak dalej,
12:07
But even when I take it away,
304
727260
2000
nawet jeśli oddzielimy deski od siebie,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
iluzja jest tak silna ze względu na sposób w jaki nasz mózg
12:11
to find those certain kinds of patterns.
306
731260
3000
znajduje pewnego rodzaju wzorce.
12:14
This is a fairly new one
307
734260
2000
To jest całkiem nowa rzecz,
12:16
that throws us off because of the conflicting patterns
308
736260
2000
która nas odrzuca ze względu na sprzeczne wzorce
12:18
of comparing this angle with that angle.
309
738260
3000
porównując jeden kąt z drugim kątem.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
W rzeczywistości są to te same zdjęcia.
12:24
So what you're doing is comparing that angle
311
744260
2000
Tak więc, robisz to w ten sposób, że porównujesz ten kąt
12:26
instead of with this one, but with that one.
312
746260
2000
z tamtym zamiast z tym.
12:28
And so your brain is fooled.
313
748260
2000
I twój mózg został oszukany.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Ponownie, twoje urządzenie do wykrywania wzorców zostało oszukane.
12:32
Faces are easy to see
315
752260
2000
W łatwy sposób rozpoznajemy twarze,
12:34
because we have an additional evolved
316
754260
2000
ponieważ mamy rozwinięte dodatkowe
12:36
facial recognition software
317
756260
2000
oprogramowanie do rozpoznawania twarzy
12:38
in our temporal lobes.
318
758260
3000
w naszych płatach skroniowych.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Tutaj mamy kilka twarzy na zboczu góry.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Nawet nie jestem pewien czy... to mogło być retuszowane w Photoshopie.
12:47
But anyway, the point is still made.
321
767260
2000
W każdym razie, sens przekazu został zachowany.
12:49
Now which one of these looks odd to you?
322
769260
2000
Który z nich wydaje się wam, że wygląda dziwacznie?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Szybko, który z nich wygląda dziwnie?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Ten z lewej. OK. Obrócę zdjęcie,
12:55
so it'll be the one on the right.
325
775260
2000
tak że ten z lewej będzie po prawej.
12:57
And you are correct.
326
777260
2000
I macie racje.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Raczej sławna iluzja - pierwszy raz zrobiono ją z Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Obecnie robią to z każdym politykiem.
13:04
Well, why is this happening?
329
784260
2000
Tak więc, dlaczego tak się dzieje?
13:06
Well, we know exactly where it happens,
330
786260
2000
Dokładnie wiemy gdzie się to dzieje,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
w płatach skroniowych, na wskroś, troszkę nad twoim uchem.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
W niewielkiej strukturze zwanej zakręt wrzecionowaty.
13:14
And there's two types of cells that do this,
333
794260
2000
I istnieją dwa rodzaje komórek, które są za to odpowiedzialne,
13:16
that record facial features either globally,
334
796260
3000
jedne zapamiętują elementy twarzy w sposób ogólny
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
inne w sposób specyficzny, błyskawicznie reagujące komórki,
13:21
first look at the general face.
336
801260
2000
poprzez pierwsze ogólne spojrzenie na twarz.
13:23
So you recognize Obama immediately.
337
803260
2000
Tak więc, natychmiast rozpoznajecie Obamę.
13:25
And then you notice something quite
338
805260
2000
Lecz później zwracacie uwagę, że coś
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
dziwnego dzieje się z jego oczami i ustami.
13:29
Especially when they're upside down,
340
809260
2000
Zwłaszcza gdy twarze znajdują się do góry nogami.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Masz wtedy do czynienia z ogólnym systemem rozpoznawania twarzy.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Powracając do naszego małego eksperymentu myślowego,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
w którym jesteś hominidem chodzącym po równinach Afryki.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Czy to tylko wiatr czy niebezpieczny drapieżnik?
13:42
What's the difference between those?
345
822260
2000
Jaka jest między nimi różnica?
13:44
Well, the wind is inanimate;
346
824260
2000
Wiatr jest nieożywiony, bez życia;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
niebezpieczny drapieżnik jest czynnikiem celowym (intencjonalnym).
13:48
And I call this process agenticity.
348
828260
2000
I nazywam ten proces agentyfikacją.
13:50
That is the tendency to infuse patterns
349
830260
2000
Czyli tendencją do wypełniania wzorców
13:52
with meaning, intention and agency,
350
832260
2000
znaczeniami, intencjami lub celowością,
13:54
often invisible beings from the top down.
351
834260
3000
często niewidzialnymi istotami z góry do dołu.
13:57
This is an idea that we got
352
837260
2000
Jest to pewna idea, którą stworzył
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
jeden z uczestników TEDa, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
który mówił o przyjmowaniu intencjonalnej postawy.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Jest to osobnik, który ma rozbudowany sposób wyjaśniania wiele różnych rzeczy,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
dusz, duchów, upiorów, bogów, demonów, aniołów,
14:09
aliens, intelligent designers,
357
849260
2000
kosmitów, inteligentnych stwórców,
14:11
government conspiracists
358
851260
2000
spiskowców
14:13
and all manner of invisible agents
359
853260
2000
i innych wszelkiego rodzaju niewidzialnych agentów
14:15
with power and intention, are believed
360
855260
2000
posiadających moc i intencje, i wierzących w to, że
14:17
to haunt our world and control our lives.
361
857260
2000
nawiedzają nasz świat i kontrolują nasze życia.
14:19
I think it's the basis of animism
362
859260
2000
Myślę, że jest to podstawa animizmu,
14:21
and polytheism and monotheism.
363
861260
3000
politeizmu i monoteizmu.
14:24
It's the belief that aliens are somehow
364
864260
2000
Jest to wiara, że kosmici są w jakiś sposób
14:26
more advanced than us, more moral than us,
365
866260
2000
bardziej zaawansowani od nas, bardziej moralni od nas,
14:28
and the narratives always are
366
868260
2000
a narracja jest zawsze taka, że
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
oni przybędą z wysokości aby nas ochronić i ocalić.
14:33
The intelligent designer's always portrayed
368
873260
2000
Zwolennicy inteligentnego stwórcy zawsze przedstawiają go
14:35
as this super intelligent, moral being
369
875260
3000
jako super inteligentną i moralną istotę,
14:38
that comes down to design life.
370
878260
2000
która zjawia się tutaj aby wykreować życie.
14:40
Even the idea that government can rescue us --
371
880260
2000
Nawet idea, że rząd może nas ocalić.
14:42
that's no longer the wave of the future,
372
882260
2000
Nie jest już dłużej głosem przyszłości.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Lecz jest to jak sądzę rodzaj agentyfikacji,
14:46
projecting somebody up there,
374
886260
2000
wyobrażanie sobie kogoś gdzieś tam w górze,
14:48
big and powerful, will come rescue us.
375
888260
2000
wielkiego i potężnego, który przybędzie i nas ocali.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
I jest to również jak sądzę podstawa teorii spiskowych.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Istnieje ktoś, kto z ukrycia pociąga za wszystkie sznurki,
14:55
whether it's the Illuminati
378
895260
2000
nieważne czy są to Iluminaci
14:57
or the Bilderbergers.
379
897260
2000
czy też Klub Bilderberga.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Lecz czyż nie jest to problem w wykrywaniu wzorców?
15:01
Some patterns are real and some are not.
381
901260
2000
Niektóre wzorce są prawdziwe, inne nie.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Czy zamach na JFK był wynikiem spisku czy też był to pojedynczy zamachowiec?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Jeśli udasz się w tamto miejsce - ludzie są tam praktycznie cały czas -
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
tak jak ja tam się udałem; tutaj pokazują mi gdzie znajdowali się strzelcy.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Moja ulubiona teoria to ta, która mówi że strzelec ukrywał się w studzience ściekowej.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
A strzelec wyskoczył z niej w ostatniej sekundzie i oddał strzał.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Lecz oczywiście, Lincoln zginął w wyniku spisku.
15:20
So we can't just uniformly dismiss
388
920260
2000
Tak więc, nie możemy po prosty odrzucić
15:22
all patterns like that.
389
922260
2000
wszystkich wzorców tego typu.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Ponieważ, spójrzmy prawdzie w oczy, niektóre wzorce są prawdziwe.
15:26
Some conspiracies really are true.
391
926260
2000
Niektóre teorie spiskowe rzeczywiście istnieją naprawdę.
15:30
Explains a lot, maybe.
392
930260
2000
Być może to wiele wyjaśnia.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Również zamach z 11 września ma swoją teorię spiskową. To jest spisek.
15:35
We did a whole issue on it.
394
935260
2000
Poświęciliśmy temu tematowi całe wydanie.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 członków Al-Kaidy umówiło się, że wlecą samolotami w budynki,
15:39
constitutes a conspiracy.
396
939260
2000
to stanowi spisek.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Lecz nie to mają na myśli członkowie ruchu "Prawda 9/11".
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Oni uważają, że była to robota administracji Busha.
15:46
Well, that's a whole other lecture.
399
946260
2000
To jest temat na zupełnie osobny wykład.
15:48
You know how we know that 9/11
400
948260
2000
Ale wiecie dlaczego wiemy, że zamach z 11 września
15:50
was not orchestrated by the Bush administration?
401
950260
2000
nie był zorganizowany przez administrację Busha?
15:52
Because it worked.
402
952260
2000
Ponieważ się udał.
15:54
(Laughter)
403
954260
3000
(Śmiechy)
15:57
(Applause)
404
957260
3000
(Brawa)
16:00
So we are natural-born dualists.
405
960260
2000
Tak więc, jesteśmy urodzonymi dualistami.
16:02
Our agenticity process comes from
406
962260
2000
Nasza agentyfikacja jest następstwem
16:04
the fact that we can enjoy movies like these.
407
964260
2000
faktu, że możemy dobrze się bawić oglądając tego typu filmy.
16:06
Because we can imagine, in essence,
408
966260
2000
Ponieważ potrafimy wyobrażać sobie, w tym wypadku,
16:08
continuing on.
409
968260
2000
ciągłość.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Wiemy, że jeśli stymulujemy płat skroniowy,
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
możemy wywołać uczucie przebywania poza ciałem,
16:14
near-death experiences,
412
974260
2000
doświadczyć własnej śmierci,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
można to zrobić dotykając elektrodami płata skroniowego w tamtym miejscu.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Lub poprzez utratę przytomności
16:21
by accelerating in a centrifuge.
415
981260
2000
w wirówce przeciążeniowej.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Doświadczasz hipoksji lub niedotlenienia.
16:26
And the brain then senses
417
986260
2000
A wtedy mózg kreuje
16:28
that there's an out-of-body experience.
418
988260
2000
uczucie przebywania poza ciałem.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Można spróbować - ja próbowałem -
16:32
Michael Persinger's God Helmet,
420
992260
2000
"hełm boga" Michaela Presingera,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
który bombarduje twój płat skroniowy falami elektromagnetycznymi.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
I pojawia się uczucie przebywania poza ciałem.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Tak więc, zamierzam zakończyć ten wykład krótkim filmikiem,
16:41
that sort of brings all this together.
424
1001260
2000
który w pewien sposób łączy to wszystko razem.
16:43
It's just a minute and a half.
425
1003260
2000
To tylko półtorej minuty.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Wiąże to wszystko ze sobą w siłę nadziei i siłę wiary.
16:48
Go ahead and roll it.
427
1008260
2000
Nie ma co czekać, puśćcie film.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Narrator: to jest miejsce, gdzie się odbywają sfingowane przesłuchania
16:53
for an advert for lip balm.
429
1013260
2000
do roli w reklamie balsamu do ust.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Kobieta: Mamy nadzieje, że uda nam się wykorzystać tą część
16:57
in a national commercial, right?
431
1017260
2000
w ogólnokrajowej reklamie.
16:59
And this is test on some lip balms
432
1019260
2000
Jest to test kilku balsamów do ust,
17:01
that we have over here.
433
1021260
2000
które tutaj mamy.
17:03
And these are our models who are going to help us,
434
1023260
2000
A to są modele, którzy będą nam pomagać,
17:05
Roger and Matt.
435
1025260
2000
Roger i Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Mamy nasz własny balsam do ust
17:09
and we have a leading brand.
437
1029260
2000
oraz inną wiodącą markę.
17:11
Would you have any problem
438
1031260
2000
Czy miałabyś problem aby
17:13
kissing our models to test it?
439
1033260
2000
pocałować naszych modeli aby je przetestować?
17:15
Girl: No.
440
1035260
2000
Dziewczyna: Nie.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Kobieta: Nie miałabyś? (Dziewczyna: Nie.) Kobieta: Uważasz, że to w porządku?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Dziewczyna: Dla mnie może być. (Kobieta: OK)
17:21
So this is a blind test.
443
1041260
3000
Tak więc, jest to ślepa próba.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Zamierzam cię poprosić
17:26
and put a blindfold on.
445
1046260
2000
abyś założyła opaskę na oczy.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Kay, czy coś teraz widzisz? (Dziewczyna: Nie.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Ściągnij trochę abyś nie widziała nawet patrząc w dół. (Dziewczyna: OK.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Kobiety: Czy teraz już zupełnie nic nie widzisz?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Dziewczyna: Nie. (Kobieta: OK)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
A teraz w czasie tego testu zamierzam obserwować
17:41
is how it protects your lips,
451
1061260
3000
jak balsam chroni twoje usta,
17:44
the texture, right,
452
1064260
2000
strukturę
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
i jeśli możesz spróbuj wyczuć jakiś smak lub jego brak.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Dziewczyna: OK. (Kobieta: Czy brałaś już kiedyś udział w takim teście?)
17:52
Girl: No.
455
1072260
2000
Dziewczyna: Nie.
17:54
Woman: Take a step here.
456
1074260
2000
Kobieta: Podejdź tutaj.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
OK, a teraz chciałabym abyś wydęła usta
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Mocno wydmij usta i pochyl się troszeczkę, OK.
18:06
(Music)
459
1086260
4000
(Muzyka)
18:10
(Laughter)
460
1090260
5000
(Śmiechy)
18:19
(Laughter)
461
1099260
3000
(Śmiechy)
18:30
Woman: Okay.
462
1110260
2000
OK
18:32
And, Jennifer, how did that feel?
463
1112260
2000
A teraz Jennifer, jak wrażenia?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Pozytywne.
18:36
(Laughter)
465
1116260
7000
(Śmiechy)
18:43
Girl: Oh my God!
466
1123260
2000
Dziewczyna: Och mój Boże.
18:45
(Laughter)
467
1125260
4000
(Śmiechy)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Dziękuję bardzo. Dziękuję. Dzięki.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7