The pattern behind self-deception | Michael Shermer

736,418 views ・ 2010-06-14

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Peter Haglund Granskare: Lotta Holmberg
00:16
So since I was here last in '06,
0
16260
3000
Så, sedan jag var här sist 2006
00:19
we discovered that global climate change
1
19260
2000
har vi upptäckt att global klimatförändring
00:21
is turning out to be a pretty serious issue,
2
21260
2000
visar sig vara en synnerligen allvarlig sak.
00:23
so we covered that fairly extensively
3
23260
2000
Varför vi genomlös det ganska så rejält
00:25
in Skeptic magazine.
4
25260
2000
i tidningsmagasinet Skeptic.
00:27
We investigate all kinds
5
27260
2000
Vi undersökte all tänkbara
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
vetenskapliga och kvasi-vetenskapliga kontroverser.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Men det visar sig att vi inte behöver oroa oss över dessa saker
00:34
because the world's going to end in 2012.
8
34260
2000
eftersom jorden kommer att utplånas år 2012.
00:36
Another update:
9
36260
2000
Ytterligare en uppdatering:
00:38
You will recall I introduced you guys
10
38260
2000
Ni kommer ihåg att jag introducerade för er
00:40
to the Quadro Tracker.
11
40260
2000
slagrutan Quadro.
00:42
It's like a water dowsing device.
12
42260
2000
Den fungerar precis som en slagruta för att hitta vatten.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Den består av en bit ihålig plast med en antenn som snurrar omkring.
00:47
And you walk around, and it points to things.
14
47260
2000
Så när du knallar omkring så pekar den på saker.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Så om du letar efter marijuana i studentkorridorernas skåp,
00:52
it'll point right to somebody.
16
52260
2000
så kommer den att peka ut det.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Åh, förlåt. (Skratt)
00:56
This particular one that was given to me
18
56260
2000
Det här specifika exemplaret som jag fick
00:58
finds golf balls,
19
58260
2000
hittar golf bollar
01:00
especially if you're at a golf course
20
60260
2000
säsrkilt om du är på en golfbana
01:02
and you check under enough bushes.
21
62260
3000
och tittar under tillräckligt många buskar.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Nåväl, under kategorin "Vad är det för harm med tramsiga saker som det här?"
01:08
this device, the ADE 651,
23
68260
3000
den här saken, ADE 651
01:11
was sold to the Iraqi government
24
71260
3000
såldes till den Irakiska staten
01:14
for 40,000 dollars apiece.
25
74260
2000
för 40 000 dollar styck.
01:16
It's just like this one, completely worthless,
26
76260
2000
Den är, precis som den här, totalt värdelös,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
med påståendet att den fungerar med "elektrostatisk
01:20
magnetic ion attraction,"
28
80260
3000
magnetisk jon attraktion,"
01:24
which translates to
29
84260
2000
vilket översätts till
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"psedovetenskapligt skitsnack" -- skulle vara ett bra ordval --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
när man sätter ihop en massa ord som i sig låter bra
01:31
but it does absolutely nothing.
32
91260
2000
men inte betyder något alls.
01:33
In this case, at trespass points,
33
93260
3000
I detta fall, vid säkerhetskontroller,
01:36
allowing people to go through
34
96260
2000
lät man människor gå igenom
01:38
because your little tracker device said they were okay,
35
98260
3000
baserat på grönt ljus från den här lilla spårarprylen,
01:41
actually cost lives.
36
101260
3000
vilket faktiskt kostade liv.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Så det finns en fara i psedovetenskap,
01:46
in believing in this sort of thing.
38
106260
3000
i att tro på den här sortens saker.
01:49
So what I want to talk about today is belief.
39
109260
3000
Så vad jag vill prata om här idag är tilltro.
01:52
I want to believe,
40
112260
2000
Jag vill tro,
01:54
and you do too.
41
114260
2000
och du också.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Och faktiskt, jag tror att min tes här är att
01:58
belief is the natural state of things.
43
118260
2000
tilltro är sakernas naturliga tillstånd.
02:00
It is the default option. We just believe.
44
120260
2000
Det är det som är förvalt. Vi har tilltro.
02:02
We believe all sorts of things.
45
122260
2000
Vi tror på alla möjliga sorters saker.
02:04
Belief is natural;
46
124260
2000
Tro är naturligt.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
Misstro, skepticism, vetenskap, är inte naturligt.
02:08
It's more difficult.
48
128260
2000
Det är svårare.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Det är inte komfortabelt att inte tro på saker.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Så som Fox Molder i "Arkiv X,"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
som vill tro på UFOs? Nå, vi alla gör det.
02:18
and the reason for that is because
52
138260
2000
Och anledningen till det är att
02:20
we have a belief engine in our brains.
53
140260
3000
vi har en tilltro maskin i vår hjärna.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
I grunden är vi mönstersökande primater.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Vi sammanfogar punkterna: A är fogad till B; B är fogad till C.
02:29
And sometimes A really is connected to B,
56
149260
3000
Och ibland är faktiskt A sammankopplad med B.
02:32
and that's called association learning.
57
152260
2000
Och det kallas associations inlärning.
02:34
We find patterns, we make those connections,
58
154260
3000
Vi hittar mönster, vi skapar dessa kopplingar,
02:37
whether it's Pavlov's dog here
59
157260
2000
oavsett om det är Pavlovs hund här
02:39
associating the sound of the bell with the food,
60
159260
3000
som kopplar samman ljudet av klockan med mat,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
och därigenom utsöndrar saliv vid ljudet av en klocka,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
eller om det är en av Prof. Skinners labråttor,
02:46
in which he's having an association
63
166260
2000
som får en association
02:48
between his behavior and a reward for it,
64
168260
2000
mellan dennes beteende och belöning för det,
02:50
and therefore he repeats the behavior.
65
170260
2000
och därför repeterar det beteendet.
02:52
In fact, what Skinner discovered
66
172260
2000
Faktiskt är det så, att vad Prof. Skinner upptäckte
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
var att om du hade en duva i en låda som den här,
02:57
and he has to press one of these two keys,
68
177260
2000
och den fick trycka på en av två nycklar
02:59
and he tries to figure out what the pattern is,
69
179260
2000
för att lista ut vilket mönster det var
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
som skulle ge honom en liten belöning i lådan där.
03:03
if you just randomly assign rewards
71
183260
3000
Om man helt slumpmässigt delade ut belöningar
03:06
such that there is no pattern,
72
186260
2000
på så sätt att det inte fanns ett mönster,
03:08
they will figure out any kind of pattern.
73
188260
2000
kom de att hitta på vilket mönster som helst
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Och vad de än hittade på precis innan de blev belönade
03:12
they repeat that particular pattern.
75
192260
2000
repeterade de det särskilda mönstret.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Ibland till och med att snurra runt två gånger motsols,
03:17
once clockwise and peck the key twice.
77
197260
3000
en gång med sols och dubbelpicka på nyckeln.
03:20
And that's called superstition,
78
200260
2000
Och det är vad som kallas vidskepelse.
03:22
and that, I'm afraid,
79
202260
2000
Och det, är jag rädd,
03:24
we will always have with us.
80
204260
2000
kommer alltid att följa oss.
03:26
I call this process "patternicity" --
81
206260
2000
Jag kallar den här processen "mönsterstrukturera"
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
det vill säga, tendensen att finna meningsfulla strukturella mönster,
03:30
in both meaningful and meaningless noise.
83
210260
3000
av både meningsfull och meningslöst brus.
03:33
When we do this process, we make two types of errors.
84
213260
3000
När vi kör den här processen, gör vi två typer av fel.
03:36
A Type I error, or false positive,
85
216260
2000
Ett typ 1 fel, eller positivt falskt,
03:38
is believing a pattern is real
86
218260
2000
är att tro att ett mönster är riktigt
03:40
when it's not.
87
220260
2000
när det inte är det.
03:42
Our second type of error is a false negative.
88
222260
2000
Den andra feltypen är ett negativt falskt fel.
03:44
A Type II error is not believing
89
224260
2000
Ett typ 2 fel är att inte tro
03:46
a pattern is real when it is.
90
226260
3000
att ett mönster är riktigt när det är det.
03:49
So let's do a thought experiment.
91
229260
2000
Så låt oss göra ett tankeexprimetn.
03:51
You are a hominid three million years ago
92
231260
2000
Du är en huminid för tre miljoner år sedan
03:53
walking on the plains of Africa.
93
233260
3000
gåendes på Afrikas slätter.
03:56
Your name is Lucy, okay?
94
236260
2000
Du heter Lucy, ok?
03:58
And you hear a rustle in the grass.
95
238260
2000
Och du hör ett rassel i gräset.
04:00
Is it a dangerous predator,
96
240260
2000
Är det ett farligt rovdjur,
04:02
or is it just the wind?
97
242260
2000
eller är det bara vinden?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Ditt nästa beslut kan vara det mest betydelsefulla i ditt liv.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Nå, om du tror att rasslet i gräset är ett farligt rovdjur
04:10
and it turns out it's just the wind,
100
250260
2000
och det visar sig vara bara vinden,
04:12
you've made an error in cognition,
101
252260
2000
så har du gjort ett tankefel,
04:14
made a Type I error, false positive.
102
254260
2000
ett typ 1 fel, positivt falskt.
04:16
But no harm. You just move away.
103
256260
2000
Men ingen skada skedd, Du bara går vidare.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Du är mer försiktig och mer vaksam.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Å andra sidan, om du tror att rasslet i gräset bara är vinden,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
och det visar sig vara ett farligt rovdjur,
04:25
you're lunch.
107
265260
2000
så är du lunch.
04:27
You've just won a Darwin award.
108
267260
2000
Du har vunnit ett "Darwin Award".
04:29
You've been taken out of the gene pool.
109
269260
2000
Du har tagits bort från gen-poolen.
04:31
Now the problem here is that
110
271260
2000
Problemet här är att
04:33
patternicities will occur whenever the cost
111
273260
2000
mönsterstrukturer uppkommer så fort priset
04:35
of making a Type I error
112
275260
2000
för att göra ett typ 1 fel
04:37
is less than the cost of making a Type II error.
113
277260
2000
är mindre än priset att göra ett typ 2 fel.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Detta är den enda ekvationen i föredraget förresten.
04:41
We have a pattern detection problem
115
281260
2000
Vi har ett mönsterigenkännings problem
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
vilket ligger i att värdera skillnaden mellan ett typ 1 och ett typ 2 fel
04:46
is highly problematic,
117
286260
2000
är mycket svårt.
04:48
especially in split-second, life-and-death situations.
118
288260
3000
speciellt i ögonblickliga, livshotande situationer.
04:51
So the default position
119
291260
2000
Så det förprogrammerade
04:53
is just: Believe all patterns are real --
120
293260
2000
är att "tro att alla mönsterstrukturer är riktiga."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Allt rasslande i gräset är farliga rovdjur
04:58
and not just the wind.
122
298260
2000
och inte bara vinden."
05:00
And so I think that we evolved ...
123
300260
2000
Och så tror jag att vi utvecklades ...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
det fanns ett naturligt urval av böjelsen att ha en inbillningsmotor,
05:05
our pattern-seeking brain processes,
125
305260
2000
att ha en mönster-letande process i hjärnan,
05:07
to always find meaningful patterns
126
307260
2000
att alltid finna meningsfulla mönster
05:09
and infuse them with these sort of
127
309260
2000
och delge dessa den här sorten av
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
rovdjurs- eller avsiktliga innebörder som jag kommer att komma tillbaka till.
05:14
So for example, what do you see here?
129
314260
2000
Så som exempel, vad ser ni här?
05:16
It's a horse head, that's right.
130
316260
2000
Det är en hästs huvud, det är riktigt.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Det ser ut som en häst. Det måste vara en häst.
05:20
That's a pattern.
132
320260
2000
Det är ett mönster.
05:22
And is it really a horse?
133
322260
2000
Men är det verkligen en häst?
05:24
Or is it more like a frog?
134
324260
3000
Eller är det mer likt en groda?
05:27
See, our pattern detection device,
135
327260
2000
Ni förstår, vår mönster detektor,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
vilken verkar vara belägen i anterior cingulate cortex --
05:32
it's our little detection device there --
137
332260
3000
det är vår lilla detektor där --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
kan lätt luras, och det är problemet.
05:37
For example, what do you see here?
139
337260
2000
Till exempel, vad ser ni här?
05:39
Yes, of course, it's a cow.
140
339260
3000
Ja, så klart. Det är en ko.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Så fort jag instruerar hjärnan -- det kallas kognitiv preparering --
05:45
once I prime the brain to see it,
142
345260
2000
så fort jag instruerar hjärnan att se det,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
så poppar det tillbaks igen utan att behöva mönstret jag föreslagit hjärnan.
05:50
And what do you see here?
144
350260
2000
Och vad ser ni här?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Vissa människor ser en Dalmatiner.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Ja, där är den. Och här är anvisningen.
05:56
So when I go back without the prime,
147
356260
2000
Så när jag går tillbaka utan anvisningen,
05:58
your brain already has the model
148
358260
2000
så har din hjärna redan modellen
06:00
so you can see it again.
149
360260
2000
så att du kan se det igen.
06:02
What do you see here?
150
362260
3000
Vad ser du här?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Planet Saturnus. Ja, det är bra.
06:07
How about here?
152
367260
3000
Vad sägs om det här?
06:10
Just shout out anything you see.
153
370260
3000
Ropa bara ut något ni ser.
06:14
That's a good audience, Chris.
154
374260
2000
Det var en bra publik, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
För det finns ingenting i det här. Nåväl, det påstås inte finnas någonting.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Det är ett experiment gjort av Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
vid U.T Austin
06:24
on corporate environments
158
384260
2000
på företagsmiljöer
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
och huruvida känslor av osäkerhet och att vara utan kontroll
06:29
makes people see illusory patterns.
160
389260
2000
får människor att se illusoriska mönster.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Det vill säga, nästan alla ser planeten Saturnus.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Människor som sätts i ett tillstånd av att vara utom kontroll
06:37
are more likely to see something in this,
163
397260
2000
är mer benägna att se något i det här,
06:39
which is allegedly patternless.
164
399260
3000
vilket påstås vara utan mönster.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Med andra ord, böjelsen att finna mönster
06:45
goes up when there's a lack of control.
166
405260
3000
ökar när man upplever sig sakna kontroll.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Till exempel så är baseball spelare ökänt vidskepliga
06:51
when they're batting,
168
411260
2000
när de spelar som slagmän,
06:53
but not so much when they're fielding.
169
413260
2000
men inte så mycket när de spelar som utespelare.
06:55
Because fielders are successful
170
415260
2000
Detta för att utespelare lyckas
06:57
90 to 95 percent of the time.
171
417260
2000
90 till 95 procent av gångerna.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
De bästa slagmännen misslyckas 7 av 10 gånger.
07:02
So their superstitions, their patternicities,
173
422260
2000
Så deras vidskeplighet, deras mönsterstrukturerande,
07:04
are all associated with feelings of lack of control
174
424260
3000
är alla associerade med en känsla av att inte ha kontroll
07:07
and so forth.
175
427260
2000
och så vidare.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Vad ser ni en det här speciella bilden, i det här fältet?
07:13
Anybody see an object there?
177
433260
2000
Kan någon se ett föremål här?
07:15
There actually is something here,
178
435260
2000
Det finns faktiskt något där,
07:17
but it's degraded.
179
437260
2000
men det är lågupplöst.
07:19
While you're thinking about that,
180
439260
2000
Medan ni tänker på det,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
detta var ett experiment genomfört av Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
en psykolog i England,
07:25
who showed subjects this degraded image
183
445260
2000
vilken visade försökspersoner den här lågupplösta bilden
07:27
and then ran a correlation between
184
447260
2000
och analyserade sedan en korrelation mellan
07:29
their scores on an ESP test:
185
449260
2000
deras poäng och en ESP test,
07:31
How much did they believe in the paranormal,
186
451260
2000
dvs hur mycket de tror på det paranormala,
07:33
supernatural, angels and so forth.
187
453260
3000
övernaturliga, änglar och så vidare.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Och av dem som fick höga poäng på ESP skalan,
07:39
tended to not only see
189
459260
2000
tenderade att, inte bara se
07:41
more patterns in the degraded images
190
461260
2000
fler mönster i de lågupplösta bilderna,
07:43
but incorrect patterns.
191
463260
2000
men också felaktiga mönster.
07:45
Here is what you show subjects.
192
465260
2000
Här är vad du visar försökspersonerna.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Fisken är lågupplöst till 20 procent, 50 procent
07:50
and then the one I showed you,
194
470260
2000
och sedan den jag visade er,
07:52
70 percent.
195
472260
2000
70 procent.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Ett liknande experiment genomfördes av en annan [Schweizisk] psykolog
07:56
named Peter Brugger,
197
476260
2000
vid namn Peter Brugger,
07:58
who found significantly more meaningful patterns
198
478260
3000
som fann signifikant fler meningsfulla mönster
08:01
were perceived on the right hemisphere,
199
481260
2000
när de uppfattades av högra hjärnhalvan,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
via det vänstra synfältet, än av vänstra halvan.
08:06
So if you present subjects the images such
201
486260
2000
Så om du presenterar bilder för försökspersonen så att
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
de kommer att uppfattas av den högra hjärnhalvan snarare än den vänstra
08:11
then they're more likely to see patterns
203
491260
2000
är det mer sannolikt att de kommer att se mönster
08:13
than if you put it on the left hemisphere.
204
493260
2000
än om du presenterar de för vänstra halvan.
08:15
Our right hemisphere appears to be
205
495260
2000
Vår högra hjärnhalva verkar vara
08:17
where a lot of this patternicity occurs.
206
497260
2000
där mycket av detta mönsterstrukturerande sker.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Så vad vi försöker göra är att borra oss in i hjärnan
08:21
to see where all this happens.
208
501260
2000
för att underöka vad allt det här sker någonstans.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger och hans kollega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
gav försökspersoner L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA är en drog, som ni vet, man ger för behandling av Parkinsons,
08:31
which is related to a decrease in dopamine.
212
511260
3000
vilken är relaterad till en minskning av dopamin.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA ökar dopaminet.
08:36
An increase of dopamine caused
214
516260
2000
Och en ökning av dopaminet orsakade
08:38
subjects to see more patterns
215
518260
2000
försökspersoner att se fler mönster
08:40
than those that did not receive the dopamine.
216
520260
2000
än de som inte fick dopaminet.
08:42
So dopamine appears to be the drug
217
522260
2000
Så dopamin verkar vara den drog
08:44
associated with patternicity.
218
524260
2000
som associeras med mönsterstrukturerande.
08:46
In fact, neuroleptic drugs
219
526260
2000
Faktiskt är det så att, antipsykotiska läkemedel,
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
som används för att eliminera psykotiska beteenden,
08:50
things like paranoia, delusions
221
530260
2000
saker som paranoia, vanföreställningar
08:52
and hallucinations,
222
532260
2000
och hallunisationer,
08:54
these are patternicities.
223
534260
2000
är mönsterstrukturerare.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Det är felaktiga mönster, De är positivt falska. De är av typ 1 fel.
08:59
And if you give them drugs
225
539260
2000
Och om du ger dem läkemedel
09:01
that are dopamine antagonists,
226
541260
2000
som är dopaminsänkande,
09:03
they go away.
227
543260
2000
så försvinner det.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Det vill säga, sänker du mängden av dopamin,
09:07
and their tendency to see
229
547260
2000
och deras tendens att se
09:09
patterns like that decreases.
230
549260
2000
mönster minskar också.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Å andra sidan, amfetaminer som kokain,
09:14
are dopamine agonists.
232
554260
2000
är dopminhöjande.
09:16
They increase the amount of dopamine.
233
556260
2000
De ökar mängden dopamin.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Så det är troligt att du känner dig vara i ett eforiskt tillstånd,
09:21
creativity, find more patterns.
235
561260
2000
kreativt, och finna fler mönster.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Det är att jag hörde Robin Williams nyligen
09:25
talk about how he thought he was much funnier
237
565260
2000
prata om hur han tyckte sig vara mycket roligare
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
när han tog kokain, när han hade det problemet, än nu.
09:30
So perhaps more dopamine
239
570260
2000
Så kanske hög dopaminhalt
09:32
is related to more creativity.
240
572260
2000
är relaterad till hög kreativitet.
09:34
Dopamine, I think, changes
241
574260
2000
Dopaminet, tror jag, förändrar
09:36
our signal-to-noise ratio.
242
576260
2000
vårt signal-brus-förhållande.
09:38
That is, how accurate we are
243
578260
2000
Det vill säga, hur precisa vi är
09:40
in finding patterns.
244
580260
2000
i att finna mönster.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Om det är för lågt, så är du troligen benägen att göra för många typ 2 fel.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Du missar det faktiska mönstret. Du vill inte vara för skeptisk.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Är du alltför skeptisk, kommer du att missa det riktigt intressanta bra idéerna.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Precis rätt nivå, så är du kreativ, men går inte på för mycket strunt.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
För hög nivå och du kanske ser mönster överallt.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Varje gång någon tittar på dig, tror du att folk stirrar ut dig.
10:00
You think people are talking about you.
251
600260
2000
Du tror att folk pratar om dig.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Och går du för långt åt det hållet, är det helt enkelt
10:04
labeled as madness.
253
604260
2000
rubricerat som galenskap.
10:06
It's a distinction perhaps we might make
254
606260
2000
Det är distinktion vi kanske kan göra
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
mellan två Nobelpristagare, Richard Feynman
10:10
and John Nash.
256
610260
2000
och John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Den ene ser kanske precis rätt antal
10:14
of patterns to win a Nobel Prize.
258
614260
2000
mönster för att vinna ett Nobelpris.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
Den andra också, men kanske för många mönster.
10:18
And we then call that schizophrenia.
260
618260
3000
Och vi kallar det då schizofreni.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Så signal-brus-förhållandet ger oss ett mönster-detektions problem.
10:24
And of course you all know exactly
262
624260
2000
Och så klart ni alla vet exakt
10:26
what this is, right?
263
626260
2000
vad det här är, eller hur.
10:28
And what pattern do you see here?
264
628260
2000
Och vilket mönster ser ni här?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Igen, sätter jag er anterior cingulate cortex på prov här,
10:33
causing you conflicting pattern detections.
266
633260
3000
och orsakar er en konflikt i mönster detektionen.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Ni vet, förstås, att detta är Via Uno skor.
10:38
These are sandals.
268
638260
3000
Det är sandaler.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Rätt sexiga fötter, måste jag säga.
10:44
Maybe a little Photoshopped.
270
644260
2000
Kanske lite bildbehandlade.
10:46
And of course, the ambiguous figures
271
646260
2000
Och förstås, de tvetydiga figurerna
10:48
that seem to flip-flop back and forth.
272
648260
2000
som ser ut att byta fram och åter.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Det visar sig att det du tänker mycket på
10:52
influences what you
274
652260
2000
influerar vad du
10:54
tend to see.
275
654260
2000
tenderar att se.
10:56
And you see the lamp here, I know.
276
656260
2000
Och ni ser en lampa här, vet jag.
10:58
Because the lights on here.
277
658260
3000
För att ljuset är på här.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Och förstås, tack vara miljörörelsen
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
så är vi alla känsliga för marina däggdjurs svåra situation.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Så vad ni ser i den här speciella, tvetydiga figuren
11:09
is, of course, the dolphins, right?
281
669260
2000
är förstås delfinerna, eller hur.
11:11
You see a dolphin here,
282
671260
2000
Du ser delfiner här.
11:13
and there's a dolphin,
283
673260
2000
Och där är en delfin.
11:15
and there's a dolphin.
284
675260
2000
Och där en delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Det där är en delfins stjärtfena, killar.
11:20
(Laughter)
286
680260
3000
(Skratt)
11:25
If we can give you conflicting data, again,
287
685260
3000
Om vi kan ge er motstridiga data, igen,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
kommer era ACC att gå in i hyperdrift.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Om ni tittar här nere, så är det ok. Om du tittar upp här, så ges motstridiga data.
11:34
And then we have to flip the image
290
694260
2000
Och vi måste bilden
11:36
for you to see that it's a set up.
291
696260
2000
för att ni skall se att det är en iscensättning.
11:40
The impossible crate illusion.
292
700260
2000
Illusionen den omöjliga lådan.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Det är lätt att lura hjärnan i 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Så ni säger, "Äh kom igen Shermer, alla kan göra det
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
i en psykologi grundkurstext finns illusioner som den där."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Nå här är den framlidne, store Jerry Andrus
11:50
"impossible crate" illusion in 3D,
297
710260
3000
"omöjliga låda" illusion i 3D,
11:53
in which Jerry is standing inside
298
713260
2000
i vilken Jerry står inne i
11:55
the impossible crate.
299
715260
2000
den omöjliga lådan.
11:57
And he was kind enough to post this
300
717260
2000
Och han var snäll nog att publicera den här
11:59
and give us the reveal.
301
719260
2000
och låta oss se hur det går till.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Såklart, kameravinkel är allt. Fotografen är där borta.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Och den här brädan ser ut att överlappa den här, och den här med den, och så vidare.
12:07
But even when I take it away,
304
727260
2000
Men även då jag tar bort den så
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
är illusionen så kraftfull för att hjärnan är kopplad
12:11
to find those certain kinds of patterns.
306
731260
3000
att finna de där speciella sorternas mönster.
12:14
This is a fairly new one
307
734260
2000
Det här är en ganska ny
12:16
that throws us off because of the conflicting patterns
308
736260
2000
som ställer till det för oss genom motstridiga data
12:18
of comparing this angle with that angle.
309
738260
3000
i jämförelsen mellan den här vinkeln och den där.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
Det är faktiskt exakt samma bild lagd sida vid sida.
12:24
So what you're doing is comparing that angle
311
744260
2000
Så vad du gör är att du jämför den vinkeln
12:26
instead of with this one, but with that one.
312
746260
2000
inte med den här, utan med den där.
12:28
And so your brain is fooled.
313
748260
2000
Och så blir din hjärna lurad.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Återigen, din mönster detektor är lurad.
12:32
Faces are easy to see
315
752260
2000
Ansikten är lätta att se
12:34
because we have an additional evolved
316
754260
2000
för att vi har ytterligare utvecklad
12:36
facial recognition software
317
756260
2000
mjukvara för ansiktsigenkänning
12:38
in our temporal lobes.
318
758260
3000
i tinningsloben.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Här är några ansikten på sidan av en klippa.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Jag är faktiskt inte riktigt säker om det är -- det kan vara bildbehandlat.
12:47
But anyway, the point is still made.
321
767260
2000
Men oavsett, poängen är gjord.
12:49
Now which one of these looks odd to you?
322
769260
2000
Nu vilken av de här två tycker ni verkar konstiga?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
I snabb överblick, vilken verkar konstig?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Den till vänster. Okey. Så jag roterar den,
12:55
so it'll be the one on the right.
325
775260
2000
så att den blir den till höger.
12:57
And you are correct.
326
777260
2000
Och ni har rätt.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
En ganska berömd illusion -- gjordes första gången med Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
De förbättrar politiker hela tiden.
13:04
Well, why is this happening?
329
784260
2000
Nå, varför sker det här?
13:06
Well, we know exactly where it happens,
330
786260
2000
Vi vet precis varför det sker,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
i tinningsloben, rätt över, typ ovanför ditt öra där.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
I en liten struktur som kallas "fusiform gyrus".
13:14
And there's two types of cells that do this,
333
794260
2000
Det finns två typer av celler som gör det här,
13:16
that record facial features either globally,
334
796260
3000
som tar in ansiktsegenskaper antingen i helhet
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
speciellt dessa stora, snabb-reagerande cellerna,
13:21
first look at the general face.
336
801260
2000
som reagerar på det generella ansiktet.
13:23
So you recognize Obama immediately.
337
803260
2000
Så du känner igen Obama omedelbart.
13:25
And then you notice something quite
338
805260
2000
Och sedan noterar du någonting som
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
är aningen lite udda med ögonen och munnen.
13:29
Especially when they're upside down,
340
809260
2000
Speciellt när ansiktet är upp och ned,
13:31
you're engaging that general facial recognition software there.
341
811260
3000
så tar du till den generella mjukvaran för ansiktsigenkänning.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Nå jag sade tidigare i vårt lilla tanke experiment,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
du är en hominid som går på Afrikas slätter.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Är det bara vinden eller är det ett farligt rovdjur?
13:42
What's the difference between those?
345
822260
2000
Vad är skillnaden mellan dessa två?
13:44
Well, the wind is inanimate;
346
824260
2000
Nå, vinden är inte levande;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
det farliga rovdjuret är en medveten agent.
13:48
And I call this process agenticity.
348
828260
2000
Och jag kallar den här processen agentivitet.
13:50
That is the tendency to infuse patterns
349
830260
2000
Det är benägenheten att inge mönster
13:52
with meaning, intention and agency,
350
832260
2000
med mening, syfte och agentur,
13:54
often invisible beings from the top down.
351
834260
3000
ofta osynliga varelser från ovan och ned.
13:57
This is an idea that we got
352
837260
2000
Det här är en idé som vi fått
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
från en TED kamrat här, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
som talade om att välja det medvetna ställningstagandet.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Så det är en expanderad typ av det som förklarar, tror jag, en hel del olika saker,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
själar, andar, spöken, gudar, demoner, änglar,
14:09
aliens, intelligent designers,
357
849260
2000
utomjordingar, inteliigenta designers,
14:11
government conspiracists
358
851260
2000
regerings konspiratoriker
14:13
and all manner of invisible agents
359
853260
2000
och alla sorters av osynliga agenter
14:15
with power and intention, are believed
360
855260
2000
med makt och intention, tros
14:17
to haunt our world and control our lives.
361
857260
2000
ansätta vår värld och kontrollera våra liv.
14:19
I think it's the basis of animism
362
859260
2000
Jag tror att det är basen till animism
14:21
and polytheism and monotheism.
363
861260
3000
och polyteism och monoteism.
14:24
It's the belief that aliens are somehow
364
864260
2000
Det är tron att utomjordingar är på något sätt
14:26
more advanced than us, more moral than us,
365
866260
2000
mer avancerade än vi, har högre moral än vi,
14:28
and the narratives always are
366
868260
2000
och som berättelsen alltid går
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
att de har kommit för att rädda och frälsa oss från ovan.
14:33
The intelligent designer's always portrayed
368
873260
2000
Den intelligenta designern porträtteras alltid
14:35
as this super intelligent, moral being
369
875260
3000
som denna super intelligenta, moraliska varelse
14:38
that comes down to design life.
370
878260
2000
som kommer ned för att formgiva liv.
14:40
Even the idea that government can rescue us --
371
880260
2000
Även tanken att regeringen kan rädda us.
14:42
that's no longer the wave of the future,
372
882260
2000
Vilket inte längre är en hållbar tanke.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Men det är, tror jag, en typ av agentivitet,
14:46
projecting somebody up there,
374
886260
2000
projektionen att någon där uppe,
14:48
big and powerful, will come rescue us.
375
888260
2000
stor och mäktig skall komma och rädda oss.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Och detta är också, tror jag, basen i konspirations teorier.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Det finns någon där bakom som drar i alla tåtar.
14:55
whether it's the Illuminati
378
895260
2000
antingen det är Illuminati
14:57
or the Bilderbergers.
379
897260
2000
eller Bilderberggruppen.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Men det är ett mönster detektions problem, är det inte.
15:01
Some patterns are real and some are not.
381
901260
2000
Vissa mönster är riktiga andra är det inte.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Var JFK mördad av en konspiration eller av en ensam mördare?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Nå, om du åker dit -- så finner du människor varje dag --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
som när jag var där, här - som visade mig var de olika skyttarna varit.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Min favorit är att han befann sig i en gatubrunn.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Och att han tittade fram i sista sekund och sköt.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Men såklart, Lincoln blev mördad genom en konspiration.
15:20
So we can't just uniformly dismiss
388
920260
2000
Så vi kan inte konstant avfärda
15:22
all patterns like that.
389
922260
2000
alla sådana mönster.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
För att, låt oss inse det, vissa mönster är riktiga.
15:26
Some conspiracies really are true.
391
926260
2000
Vissa konspirationer är faktiskt sanna.
15:30
Explains a lot, maybe.
392
930260
2000
Förklarar en del, kanske.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Och 9/11 har en konspirations teori. Det är en konspiration.
15:35
We did a whole issue on it.
394
935260
2000
Vi gjorde ett helt tidningsnummer (Skeptic magazine) om det.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 medlemmar av Al Quaida som planerade att flyga plan in i byggnader
15:39
constitutes a conspiracy.
396
939260
2000
utgör en konspiration.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Men det är inte vad "9/11 sanningssägarna" menar.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
De menar att det var ett inside jobb av Bush administrationen.
15:46
Well, that's a whole other lecture.
399
946260
2000
Nå, det är en hel föreläsning i säg.
15:48
You know how we know that 9/11
400
948260
2000
Men vet ni hur vi vet att 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
inte var orkestrerat av Bush administrationen?
15:52
Because it worked.
402
952260
2000
För att det fungerade.
15:54
(Laughter)
403
954260
3000
(Skratt)
15:57
(Applause)
404
957260
3000
(Applåder)
16:00
So we are natural-born dualists.
405
960260
2000
Så vi är naturligt dualistiska.
16:02
Our agenticity process comes from
406
962260
2000
Vår agentivitet process kommer av
16:04
the fact that we can enjoy movies like these.
407
964260
2000
det faktum att vi kan njuta av filmer som de här.
16:06
Because we can imagine, in essence,
408
966260
2000
För att vi kan fantisera, i andemeningen
16:08
continuing on.
409
968260
2000
vidareutveckla tanken.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Vi vet att om du stimulerar tinningsloben,¨
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
så kan man få fram en känsla av en utomkroppslig upplevelse,
16:14
near-death experiences,
412
974260
2000
nära döden upplevelse,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
vilket man kan göra genom bara låta en elektrod beröra tinningsloben där.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Eller så kan man föra det genom förlust av medvetandet,
16:21
by accelerating in a centrifuge.
415
981260
2000
i accelerationen i en centrifug.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Du får hypoxi, eller brist på syre,
16:26
And the brain then senses
417
986260
2000
Och hjärnan upplever
16:28
that there's an out-of-body experience.
418
988260
2000
att det är en utomkroppslig upplevelse.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Du kan använda -- vilket jag gjorde, åkte och testade --
16:32
Michael Persinger's God Helmet,
420
992260
2000
Michael Persingers Gudshjälm,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
vilken bombarderar dina tinningslober med electromagnetiska vågor.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Och du får en känsla av utomkroppslig upplevelse.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Så, jag kommer att sluta här med ett kort video klipp
16:41
that sort of brings all this together.
424
1001260
2000
som på sätt och vis knytar allt detta samman.
16:43
It's just a minute and a half.
425
1003260
2000
Det är bara en och en halv minut.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Det knyter ihop allt det vi pratat om i kraften av förväntan och kraften i tron.
16:48
Go ahead and roll it.
427
1008260
2000
Kom igen och kör bandet.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Berättarröst: Detta är arenan man valt för sina falska auditions,
16:53
for an advert for lip balm.
429
1013260
2000
för en reklamfilm för läppbalsam.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Kvinna: Vi hoppas att vi kan använda en del av detta
16:57
in a national commercial, right?
431
1017260
2000
för en nationell reklamkampanj, ok.
16:59
And this is test on some lip balms
432
1019260
2000
Och detta är en test av vissa läppbalsam
17:01
that we have over here.
433
1021260
2000
som vi har där borta.
17:03
And these are our models who are going to help us,
434
1023260
2000
Detta är våra modeller som kommer att hjälpa oss,
17:05
Roger and Matt.
435
1025260
2000
Roger och Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Och vi har vår egna läppbalsma,
17:09
and we have a leading brand.
437
1029260
2000
och vi har ett marknadsledande märke.
17:11
Would you have any problem
438
1031260
2000
SKulle du ha något emot
17:13
kissing our models to test it?
439
1033260
2000
at kyssa våra modeller för att testa dessa.
17:15
Girl: No.
440
1035260
2000
Flicka: Nej.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Kvinna: Inte det? (Flicka: Nej.) Kvinna: Du tycker att det är ok.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Flicka: Det är helt ok. (Kvinna: Okej.)
17:21
So this is a blind test.
443
1041260
3000
Så detta är en blindtest.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Jag skulle vilja be dig att gå
17:26
and put a blindfold on.
445
1046260
2000
och ta på dig en ögonbindel.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Kay, kan du se något? (Flicka: Nej.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Sätt den så att du inte ens kan se nedåt. (Flicka: Okej.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Kvinna: Det är helt mörkt nu, eller?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Flicka: Ja. (Kvinna: Okej.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Nu, vad jag kommer att titta efter i det här testet
17:41
is how it protects your lips,
451
1061260
3000
är hur det skyddar dina läppar,
17:44
the texture, right,
452
1064260
2000
texturen, liksom,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
och kanske om du kan skönja någon smak eller inte.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Flicka: Okej. (Kvinna: Har du någonsin gjort ett kysstest förut?)
17:52
Girl: No.
455
1072260
2000
Flicka: Nej.
17:54
Woman: Take a step here.
456
1074260
2000
Kvinna: Ta ett steg hit.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Okej, nu vill jag att du putar med munnen.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Puta ordentligt och luta dig framåt en liten bit, okej.
18:06
(Music)
459
1086260
4000
(Musik)
18:10
(Laughter)
460
1090260
5000
(Skratt)
18:19
(Laughter)
461
1099260
3000
(Skratt)
18:30
Woman: Okay.
462
1110260
2000
Okej.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Och, Jennifer, hur kändes det?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Bra.
18:36
(Laughter)
465
1116260
7000
(Skratt)
18:43
Girl: Oh my God!
466
1123260
2000
Flicka: Oh, my God.
18:45
(Laughter)
467
1125260
4000
(Skratt)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Tack så hemskt mycket, Tack. Tackar.
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7