The pattern behind self-deception | Michael Shermer

736,418 views ・ 2010-06-14

TED


Dobbeltklik venligst på de engelske undertekster nedenfor for at afspille videoen.

Translator: David J. Kreps Finnemann Reviewer: Anders Finn Jørgensen
00:16
So since I was here last in '06,
0
16260
3000
Siden jeg var her i '06,
00:19
we discovered that global climate change
1
19260
2000
har vi fundet ud af at de globale klimaforandringer
00:21
is turning out to be a pretty serious issue,
2
21260
2000
viser sig at være et temmelig alvorligt emne,
00:23
so we covered that fairly extensively
3
23260
2000
så vi har dækket det i temmelig stort omfang
00:25
in Skeptic magazine.
4
25260
2000
i magasinet Skeptic.
00:27
We investigate all kinds
5
27260
2000
Vi undersøger alle mulige former
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
for videnskabelige og pseudo-videnskabelige kontroverser,
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
men det viser sig at vi ikke behøver at bekymre sig om noget af dette
00:34
because the world's going to end in 2012.
8
34260
2000
fordi verden ender i 2012.
00:36
Another update:
9
36260
2000
En anden update:
00:38
You will recall I introduced you guys
10
38260
2000
I husker måske at jeg introducerede jer for
00:40
to the Quadro Tracker.
11
40260
2000
Quadro Tracker.
00:42
It's like a water dowsing device.
12
42260
2000
Det er ligesom et vandsøgende apparat.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Det er bare et hult stykke plastik med en antenne der drejer rundt.
00:47
And you walk around, and it points to things.
14
47260
2000
Og man går rundt, og den peger på ting.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Ligesom når man leder efter marihuana i de studerendes skabe,
00:52
it'll point right to somebody.
16
52260
2000
vil den pege direkte på nogen.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Åh, undskyld. (Latter)
00:56
This particular one that was given to me
18
56260
2000
Denne bestemte model der blev givet til mig
00:58
finds golf balls,
19
58260
2000
finder golfbolde,
01:00
especially if you're at a golf course
20
60260
2000
specielt når man går på en golfbane
01:02
and you check under enough bushes.
21
62260
3000
og man kigger under nok buske.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Jamen, under kategorien "Hvad skade kan denne slags fjollede ting gøre?"
01:08
this device, the ADE 651,
23
68260
3000
dette apparat, ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
blev solgt til den irakiske regering
01:14
for 40,000 dollars apiece.
25
74260
2000
for 40.000 dollars stykket.
01:16
It's just like this one, completely worthless,
26
76260
2000
Den er helt magen til denne, totalt ubrugelig,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
og den virkede efter sigende med "statisk
01:20
magnetic ion attraction,"
28
80260
3000
magnetisk ion tiltrækning,"
01:24
which translates to
29
84260
2000
hvilket oversat betyder
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"pseudovidenskabeligt vås" -- det ville være det pæne ord --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
hvor man binder et par ord sammen der lyder fint,
01:31
but it does absolutely nothing.
32
91260
2000
men det gør absolut ingenting.
01:33
In this case, at trespass points,
33
93260
3000
I dette tilfælde, ved kontrolposter,
01:36
allowing people to go through
34
96260
2000
tillod det folk at gå igennem
01:38
because your little tracker device said they were okay,
35
98260
3000
fordi ens lille søge apparat fortalte en at de var okay,
01:41
actually cost lives.
36
101260
3000
kostede det faktisk liv.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Der er altså en fare med pseudovidenskab,
01:46
in believing in this sort of thing.
38
106260
3000
med at tro på denne slags ting.
01:49
So what I want to talk about today is belief.
39
109260
3000
Det jeg vil tale om i dag er tro.
01:52
I want to believe,
40
112260
2000
Jeg vil gerne tro,
01:54
and you do too.
41
114260
2000
og det vil I også.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Og faktisk, tror jeg min tese her er at
01:58
belief is the natural state of things.
43
118260
2000
tro er tingenes naturlige tilstand.
02:00
It is the default option. We just believe.
44
120260
2000
Det er standardindstillingen. Vi tror bare.
02:02
We believe all sorts of things.
45
122260
2000
Vi tror på alle mulige ting.
02:04
Belief is natural;
46
124260
2000
Tro er naturlig;
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
mistro, skepticisme, videnskab, er ikke naturligt.
02:08
It's more difficult.
48
128260
2000
Det er sværere.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Det er ubehageligt ikke at tro på ting.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Ligesom Fox Mulder i "Strengt Fortroligt,"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
der vil tro på ufoer? Jamen, det vil vi alle,
02:18
and the reason for that is because
52
138260
2000
og grunden til det er at
02:20
we have a belief engine in our brains.
53
140260
3000
vi alle har en tro maskine i vores hjerne.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
Dybest set, er vi mønster-søgende primater.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Vi forbinder prikkerne med hinanden: A er forbundet med B; B er forbundet med C:
02:29
And sometimes A really is connected to B,
56
149260
3000
Og nogle gange er A virkelig forbundet med B,
02:32
and that's called association learning.
57
152260
2000
og det kaldes sammenkædet læring.
02:34
We find patterns, we make those connections,
58
154260
3000
Vi finder mønstre, vi laver de forbindelser,
02:37
whether it's Pavlov's dog here
59
157260
2000
hvadenten det er Pavlovs hunde her
02:39
associating the sound of the bell with the food,
60
159260
3000
der associerer lyden af en klokke med maden,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
og så savler han ved lyden af klokken,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
eller om det er en Skinner rotte,
02:46
in which he's having an association
63
166260
2000
hvor han har en association
02:48
between his behavior and a reward for it,
64
168260
2000
mellem hans adfærd og belønningen for det,
02:50
and therefore he repeats the behavior.
65
170260
2000
og derfor gentager han adfærden.
02:52
In fact, what Skinner discovered
66
172260
2000
Faktisk, var det Skinner opdagede,
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
at hvis man putter en due i en kasse som denne,
02:57
and he has to press one of these two keys,
68
177260
2000
og han skal trykke på en af disse to knapper,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
og han prøver at finde ud af hvad mønsteret er,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
og man giver ham en lille belønning i kassen der --
03:03
if you just randomly assign rewards
71
183260
3000
hvis man bare vilkårligt uddeler belønninger
03:06
such that there is no pattern,
72
186260
2000
så der ikke er et mønster,
03:08
they will figure out any kind of pattern.
73
188260
2000
vil de finde på et hvilket som helst mønster.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Og hvad de end gjorde inden de fik belønningen,
03:12
they repeat that particular pattern.
75
192260
2000
så gentager de det bestemte mønster.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Nogle gange var det endda at sno rundt om sig selv to gange mod uret,
03:17
once clockwise and peck the key twice.
77
197260
3000
en gang med uret, og trykke to gange på knappen.
03:20
And that's called superstition,
78
200260
2000
Og det kaldes overtro,
03:22
and that, I'm afraid,
79
202260
2000
og det, er jeg bange for,
03:24
we will always have with us.
80
204260
2000
vil vi altid have med os.
03:26
I call this process "patternicity" --
81
206260
2000
Jeg kalder denne process "patternicity" --
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
det vil sige, tendensen til at finde meningsfulde mønstre
03:30
in both meaningful and meaningless noise.
83
210260
3000
i både meningsfuld og meningsløs støj.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Når vi gennemgår denne process, begår vi to typer fejl.
03:36
A Type I error, or false positive,
85
216260
2000
En Type I fejl, eller falsk positiv,
03:38
is believing a pattern is real
86
218260
2000
er at tro på at mønsteret er ægte
03:40
when it's not.
87
220260
2000
når det ikke passer.
03:42
Our second type of error is a false negative.
88
222260
2000
Vores anden type fejl er den falske negative.
03:44
A Type II error is not believing
89
224260
2000
En Type II fejl er ikke at tro
03:46
a pattern is real when it is.
90
226260
3000
på et mønster, når det virkelig er der.
03:49
So let's do a thought experiment.
91
229260
2000
Lad os lave et lille eksperiment her.
03:51
You are a hominid three million years ago
92
231260
2000
Man var en hominid for tre millioner år siden
03:53
walking on the plains of Africa.
93
233260
3000
der gik på Afrikas sletter.
03:56
Your name is Lucy, okay?
94
236260
2000
Ens navn er Lucy, okay?
03:58
And you hear a rustle in the grass.
95
238260
2000
Og man hører en raslen i græsset.
04:00
Is it a dangerous predator,
96
240260
2000
Er det et farligt rovdyr,
04:02
or is it just the wind?
97
242260
2000
eller er det bare vinden?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Ens næste beslutning kunne være den vigtigste i ens liv.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Jamen, hvis man mener at raslen i græsset er et farligt rovdyr,
04:10
and it turns out it's just the wind,
100
250260
2000
og det viser sig at det bare er vinden,
04:12
you've made an error in cognition,
101
252260
2000
har man begået en fejl i opfattelse,
04:14
made a Type I error, false positive.
102
254260
2000
en Type I fejl, falsk positiv.
04:16
But no harm. You just move away.
103
256260
2000
Men ingen skade. Man flytter sig.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Man er mere forsigtig. Man er mere overvågen.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
På den anden side, hvis man tror på at den raslen i græsset bare er vinden,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
og det viser sig at være et farligt rovdyr,
04:25
you're lunch.
107
265260
2000
er man middagsmad.
04:27
You've just won a Darwin award.
108
267260
2000
Man har lige vundet en Darwin pris.
04:29
You've been taken out of the gene pool.
109
269260
2000
Man er blevet fjernet fra genpuljen.
04:31
Now the problem here is that
110
271260
2000
Nu er problemet her
04:33
patternicities will occur whenever the cost
111
273260
2000
at 'patterniciteter' vil opstå når omkostningen
04:35
of making a Type I error
112
275260
2000
ved at begå en Type I fejl
04:37
is less than the cost of making a Type II error.
113
277260
2000
er mindre end at begå en Type II fejl.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Dette er den eneste ligning i foredraget for øvrigt.
04:41
We have a pattern detection problem
115
281260
2000
Vi har et mønster-opfattelses-problem
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
der er, at opfatte forskellen mellem en Type I fejl og en Type II fejl
04:46
is highly problematic,
117
286260
2000
er dybt problematisk,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
specielt i split-sekunder, liv-eller-død situationer.
04:51
So the default position
119
291260
2000
Så standardindstillingen
04:53
is just: Believe all patterns are real --
120
293260
2000
er bare: Tro på at alle mønstre er ægte --
04:55
All rustles in the grass are dangerous predators
121
295260
3000
Al raslen i græsset er farlige rovdyr
04:58
and not just the wind.
122
298260
2000
og ikke bare vinden.
05:00
And so I think that we evolved ...
123
300260
2000
Så jeg tror vi har udviklet os ...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
der var en naturlig udvælgelse for tilbøjeligheden til vores tro maskiner,
05:05
our pattern-seeking brain processes,
125
305260
2000
vores mønstersøgende hjerneprocesser,
05:07
to always find meaningful patterns
126
307260
2000
til altid at finde meningsfyldte mønstre
05:09
and infuse them with these sort of
127
309260
2000
og indgyde dem med denne form for
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
rovdyrsagtige eller bevidste agenter som jeg vil vende tilbage til.
05:14
So for example, what do you see here?
129
314260
2000
For eksempel, hvad ser I her?
05:16
It's a horse head, that's right.
130
316260
2000
Det er et hestehoved, det er rigtigt.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Det ligner en hest. Det må være en hest.
05:20
That's a pattern.
132
320260
2000
Det er et mønster.
05:22
And is it really a horse?
133
322260
2000
Og er det virkelig en hest?
05:24
Or is it more like a frog?
134
324260
3000
Eller er det mere som en frø?
05:27
See, our pattern detection device,
135
327260
2000
Se, vores mønster-opfattelses-apparat,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
som viser sig at være placeret i den forreste cingulate cortex --
05:32
it's our little detection device there --
137
332260
3000
det er vores lille opfattelses apparat der --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
kan nemt snydes, og det er problemet.
05:37
For example, what do you see here?
139
337260
2000
For eksempel, hvad ser I her?
05:39
Yes, of course, it's a cow.
140
339260
3000
Ja, selvfølgelig, det er en ko.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Når jeg klargør hjernen -- det kaldes kognitiv klargøring --
05:45
once I prime the brain to see it,
142
345260
2000
når jeg klargør hjernen til at se det,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
hopper det frem igen, selv uden mønsteret som jeg har lagt hen over det.
05:50
And what do you see here?
144
350260
2000
Og hvad ser I her?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Nogle folk ser en dalmatiner.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Ja, der er den. Og der er klargøringen.
05:56
So when I go back without the prime,
147
356260
2000
Så når jeg går tilbage uden klargøringen,
05:58
your brain already has the model
148
358260
2000
har ens hjerne allerede modellen
06:00
so you can see it again.
149
360260
2000
så man kan se den igen.
06:02
What do you see here?
150
362260
3000
Hvad ser I her?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Planeten Saturn. Ja, det er godt.
06:07
How about here?
152
367260
3000
Hvad med her?
06:10
Just shout out anything you see.
153
370260
3000
Bare råb hvad som helst I ser.
06:14
That's a good audience, Chris.
154
374260
2000
Det er et godt publikum, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Fordi der er ikke noget i dette. Jamen, der er efter sigende ingenting her.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Dette er et eksperiment der udføres af Jennifer Whiston
06:22
at U.T. Austin
157
382260
2000
ved U.T. Austin
06:24
on corporate environments
158
384260
2000
om forretningsmiljøer,
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
og om følelsen af usikkerhed og at være ude af kontrol
06:29
makes people see illusory patterns.
160
389260
2000
får folk til at se indbildte mønstre.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Det vil sige, næsten alle ser planeten Saturn.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Folk der bliver sat i omgivelser hvor de føler sig ude af kontrol
06:37
are more likely to see something in this,
163
397260
2000
ser med større sandsynlighed noget i dette,
06:39
which is allegedly patternless.
164
399260
3000
som angiveligt er uden mønster.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Med andre ord, tilbøjeligheden til at finde disse mønstre
06:45
goes up when there's a lack of control.
166
405260
3000
stiger, når der er en mangel på kontrol.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
For eksempel, er baseball-spillere notorisk overtroiske
06:51
when they're batting,
168
411260
2000
når de slår,
06:53
but not so much when they're fielding.
169
413260
2000
men ikke så meget når de står på græsset.
06:55
Because fielders are successful
170
415260
2000
Fordi markspillerne er succesrige
06:57
90 to 95 percent of the time.
171
417260
2000
90 til 95 af tiden.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
De bedste slåere slår fejl syv ud af 10 gange.
07:02
So their superstitions, their patternicities,
173
422260
2000
Så deres overtro, deres 'patternicities'
07:04
are all associated with feelings of lack of control
174
424260
3000
er alle associeret med følelser om mangel på kontrol
07:07
and so forth.
175
427260
2000
og så videre.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Hvad ser I i dette bestemte billede her, i dette felt?
07:13
Anybody see an object there?
177
433260
2000
Nogen der ser nogen objekter her?
07:15
There actually is something here,
178
435260
2000
Der er faktisk noget her,
07:17
but it's degraded.
179
437260
2000
men det er forringet.
07:19
While you're thinking about that,
180
439260
2000
Mens I tænker på det,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
dette var et eksperiment der blev udført af Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
en psykolog i England,
07:25
who showed subjects this degraded image
183
445260
2000
der viste forsøgspersoner dette forringede billede
07:27
and then ran a correlation between
184
447260
2000
og kørte så en sammenhæng mellem
07:29
their scores on an ESP test:
185
449260
2000
deres score på en ESP test:
07:31
How much did they believe in the paranormal,
186
451260
2000
Hvor meget troede de på det paranormale,
07:33
supernatural, angels and so forth.
187
453260
3000
det overnaturlige, engle og så videre.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Og dem der scorede højt på ESP skalaen,
07:39
tended to not only see
189
459260
2000
havde en tendens til ikke kun at se
07:41
more patterns in the degraded images
190
461260
2000
flere mønstre i de forringede billeder
07:43
but incorrect patterns.
191
463260
2000
men forkerte mønstre.
07:45
Here is what you show subjects.
192
465260
2000
Her er hvad man viser en forsøgsperson.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Fisken er forringet 20 procent, 50 procent,
07:50
and then the one I showed you,
194
470260
2000
og så den jeg viste jer,
07:52
70 percent.
195
472260
2000
70 procent.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Et lignende eksperiment blev udført af en anden [schweizisk] psykolog
07:56
named Peter Brugger,
197
476260
2000
der hedder Peter Brugger,
07:58
who found significantly more meaningful patterns
198
478260
3000
der fandt ud af at væsentlig flere meningsfulde mønstre
08:01
were perceived on the right hemisphere,
199
481260
2000
blev opfattet i den højre hjernehalvdel,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
igennem det venstre synsfelt, end den venstre hjernehalvdel.
08:06
So if you present subjects the images such
201
486260
2000
Hvis man præsenterer billeder for forsøgspersoner
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
så det ender i den højre hjernehalvdel i stedet for den venstre,
08:11
then they're more likely to see patterns
203
491260
2000
så er der større sandsynlighed for at de vil se mønstre
08:13
than if you put it on the left hemisphere.
204
493260
2000
end hvis man sætter det i den venstre hjernehalvdel.
08:15
Our right hemisphere appears to be
205
495260
2000
Vores højre hjernehalvdel ser ud til at være
08:17
where a lot of this patternicity occurs.
206
497260
2000
hvor meget af denne 'patternicity' opstår.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Det vi prøver er at bore ind i hjernen
08:21
to see where all this happens.
208
501260
2000
til det punkt hvor dette alt sammen foregår.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger og hans kollega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
gav forsøgspersonerne L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA er et lægemiddel, som I ved, der gives til at behandle Parkinsons,
08:31
which is related to a decrease in dopamine.
212
511260
3000
som er relateret til et fald i dopamin.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA forøger dopamin.
08:36
An increase of dopamine caused
214
516260
2000
En forøgelse af dopamin forårsagede
08:38
subjects to see more patterns
215
518260
2000
at forsøgspersonerne så flere mønstre
08:40
than those that did not receive the dopamine.
216
520260
2000
end dem der ikke fik dopamin.
08:42
So dopamine appears to be the drug
217
522260
2000
Så dopamin ser ud til at være stoffet
08:44
associated with patternicity.
218
524260
2000
der er associeret med 'patternicity'.
08:46
In fact, neuroleptic drugs
219
526260
2000
Faktisk, bliver neuroleptiske lægemidler
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
brugt til at eliminere psykotisk adfærd,
08:50
things like paranoia, delusions
221
530260
2000
ting som paranoia, vrangforestillinger
08:52
and hallucinations,
222
532260
2000
og hallucinationer,
08:54
these are patternicities.
223
534260
2000
det er 'patternicities'.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
De er ukorrekte mønstre. De er falske positiver. De er Type I fejl.
08:59
And if you give them drugs
225
539260
2000
Og hvis man giver dem lægemidler
09:01
that are dopamine antagonists,
226
541260
2000
der er dopaminhæmmere,
09:03
they go away.
227
543260
2000
forsvinder de.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Det vil sige, man nedsætter mængden af dopamin,
09:07
and their tendency to see
229
547260
2000
og deres tendens er at se
09:09
patterns like that decreases.
230
549260
2000
mønstre som det formindskes.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
På den anden side, amfetaminer som kokain
09:14
are dopamine agonists.
232
554260
2000
er dopaminantagonister.
09:16
They increase the amount of dopamine.
233
556260
2000
De forøger deres mængde af dopamin.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Der er altså større sandsynlighed for at man føler sig euforisk,
09:21
creativity, find more patterns.
235
561260
2000
kreativ, finder flere mønstre.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Faktisk, så jeg Robin Williams for nylig
09:25
talk about how he thought he was much funnier
237
565260
2000
tale om hvordan han troede han var meget sjovere
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
når han brugte kokain, da han havde den vane, end nu.
09:30
So perhaps more dopamine
239
570260
2000
Måske er mere dopamin
09:32
is related to more creativity.
240
572260
2000
relateret til mere kreativitet.
09:34
Dopamine, I think, changes
241
574260
2000
Dopamin, mener jeg, forandrer
09:36
our signal-to-noise ratio.
242
576260
2000
vores signal-støj forhold.
09:38
That is, how accurate we are
243
578260
2000
Det vil sige, hvor nøjagtige vi er
09:40
in finding patterns.
244
580260
2000
til at finde mønstre.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Hvis det er for lavt, vil man være mere tilbøjelig til at begå for mange Type II fejl.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Man ser ikke de virkelige mønstre. Man vil ikke være for skeptisk.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Hvis man er for skeptisk, misser man de virkelig gode, interessante ideer.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Helt rigtigt, er man kreativ, og man falder ikke for for meget vrøvl
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
For højt, og måske ser man mønstre over alt.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Hver gang nogen ser på en, tror man at folk stirrer på en.
10:00
You think people are talking about you.
251
600260
2000
Man tror at folk taler om en.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Og hvis man går for langt med det, er det bare
10:04
labeled as madness.
253
604260
2000
stemplet som galskab.
10:06
It's a distinction perhaps we might make
254
606260
2000
Det er en skelnen vi måske ville lave
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
mellem to Nobelprisvindere, Richard Feynman
10:10
and John Nash.
256
610260
2000
og John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Den ene ser måske det helt rigtige antal
10:14
of patterns to win a Nobel Prize.
258
614260
2000
mønstre til at vinde en Nobelpris.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
Også den anden, men måske for mange mønstre.
10:18
And we then call that schizophrenia.
260
618260
3000
Og det kalder vi skizofreni.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Signal-støjforholdet forelægger så et problem for os med henblik på mønster genkendelse.
10:24
And of course you all know exactly
262
624260
2000
Og selvfølgelig ved I alle sammen præcis
10:26
what this is, right?
263
626260
2000
hvad dette er, ikke?
10:28
And what pattern do you see here?
264
628260
2000
Og hvilket mønster ser I her?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Igen, tester jeres forreste cingulate cortex her,
10:33
causing you conflicting pattern detections.
266
633260
3000
og skaber modstridende mønstergenkendelse.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
I ved, selvfølgelig, er dette Via Uno sko.
10:38
These are sandals.
268
638260
3000
Dette er sandaler.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Temmelig sexede fødder, må jeg sige.
10:44
Maybe a little Photoshopped.
270
644260
2000
Måske en lille smule photoshoppet.
10:46
And of course, the ambiguous figures
271
646260
2000
Og selvfølgelig, de tvetydige figurer
10:48
that seem to flip-flop back and forth.
272
648260
2000
der ser ud til at slå frem og tilbage.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Det viser sig at det man tænker ofte over
10:52
influences what you
274
652260
2000
har indflydelse på det
10:54
tend to see.
275
654260
2000
man ser.
10:56
And you see the lamp here, I know.
276
656260
2000
Og man ser lampen her, I ved.
10:58
Because the lights on here.
277
658260
3000
Fordi lyset står derpå.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Selvfølgelig, takket være miljøorganisationerne
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
er vi alle følsomme overfor havpattedyrs vanskelige situation.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Det man ser i denne bestemte tvetydige figur
11:09
is, of course, the dolphins, right?
281
669260
2000
er, selvfølgelig, delfinerne, ikke?
11:11
You see a dolphin here,
282
671260
2000
Man ser delfinen her,
11:13
and there's a dolphin,
283
673260
2000
og det er en delfin,
11:15
and there's a dolphin.
284
675260
2000
og der er en delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Det er en delfinhale der, gutter.
11:20
(Laughter)
286
680260
3000
(Latter)
11:25
If we can give you conflicting data, again,
287
685260
3000
Hvis vi kan give jer modstridende data igen,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
vil ens ACC slå over i hyperdrive.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Hvis man kigger hernede, er det fint. Hvis man ser deroppe, så får man modstridende data.
11:34
And then we have to flip the image
290
694260
2000
Og så skal vi vende billedet
11:36
for you to see that it's a set up.
291
696260
2000
for at man kan se at det er en fælde.
11:40
The impossible crate illusion.
292
700260
2000
Det umulige kasse illusion.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Det er nemt at narre hjernen i 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Så man siger, "Ah, kom nu Shermer, det kan alle i Psyk 101 gøre
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
med en tekst illusion som den."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Jamen her er den nu afdøde Jerry Andrus's
11:50
"impossible crate" illusion in 3D,
297
710260
3000
"umulige kasse" illusion i 3D,
11:53
in which Jerry is standing inside
298
713260
2000
hvor Jerry står inden i
11:55
the impossible crate.
299
715260
2000
den umulige kasse.
11:57
And he was kind enough to post this
300
717260
2000
Og han var så venlig at poste dette
11:59
and give us the reveal.
301
719260
2000
og vise os hemmeligheden.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Selvfølgelig er kameravinklen afgørende. Fotografen er derovre,
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
og dette bræt ser ud til at overlappe denne, og denne og denne, og så videre.
12:07
But even when I take it away,
304
727260
2000
Men selv når jeg fjerner det,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
er illusionen så stærk på grund af måden som hjernen er sat sammen på
12:11
to find those certain kinds of patterns.
306
731260
3000
til at finde forskellige mønstre.
12:14
This is a fairly new one
307
734260
2000
Dette er en forholdsvis ny en
12:16
that throws us off because of the conflicting patterns
308
736260
2000
der snyder os på grund af de modstridende mønstre
12:18
of comparing this angle with that angle.
309
738260
3000
der sammenligner denne vinkel med den vinkel.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
Faktisk, er det nøjagtig det samme billede ved siden af hinanden.
12:24
So what you're doing is comparing that angle
311
744260
2000
Det man gør er at man sammenligner den vinkel
12:26
instead of with this one, but with that one.
312
746260
2000
i stedet for med denne, men med den.
12:28
And so your brain is fooled.
313
748260
2000
Så ens hjerne bliver snydt.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Og alligevel, bliver ens mønstergenkendelses- apparater narret.
12:32
Faces are easy to see
315
752260
2000
Ansigter er nemme at se
12:34
because we have an additional evolved
316
754260
2000
fordi vi har en ekstra udviklet
12:36
facial recognition software
317
756260
2000
ansigtsgenkendelses software
12:38
in our temporal lobes.
318
758260
3000
i vores tindingelapper.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Her er nogle ansigter på en klippeside.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Jeg er faktisk ikke så sikker på at dette er -- dette er muligvis manipuleret.
12:47
But anyway, the point is still made.
321
767260
2000
Uanset hvad, er pointen stadig fremsat.
12:49
Now which one of these looks odd to you?
322
769260
2000
Hvilken en af disse synes I ser mærkelig ud?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
En hurtig reaktion, hvilken en ser mærkelig ud?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Den til venstre. Okay. Så jeg drejer den
12:55
so it'll be the one on the right.
325
775260
2000
så det vil være den til højre.
12:57
And you are correct.
326
777260
2000
Og I har ret.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
En temmelig kendt illusion -- det blev gjort første gang med Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
De udnytter politikkerne hver gang.
13:04
Well, why is this happening?
329
784260
2000
Jamen, hvorfor sker dette?
13:06
Well, we know exactly where it happens,
330
786260
2000
Jamen, vi ved præcis hvor det sker,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
i tindingelappperne, tværs over, lidt over øret der på en måde,
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
i en lille struktur der hedder gyrus fusiformis.
13:14
And there's two types of cells that do this,
333
794260
2000
Og der er to typer celler der gør dette,
13:16
that record facial features either globally,
334
796260
3000
der registrerer ansigtstræk enten globalt,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
eller særligt disse store, hurtigt affyrende celler,
13:21
first look at the general face.
336
801260
2000
der først kigger på det generelle ansigt.
13:23
So you recognize Obama immediately.
337
803260
2000
Så man genkender Obama med det samme.
13:25
And then you notice something quite
338
805260
2000
Og så lægger man mærke til noget temmelig
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
mærkeligt ved øjnene og munden.
13:29
Especially when they're upside down,
340
809260
2000
Specielt når de vender på hovedet,
13:31
you're engaging that general facial recognition software there.
341
811260
3000
tilkobler man den generelle ansigts- genkendelsessoftware der.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Jeg sagde i vores lille tankeeksperiment,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
at man er en hominide der går på sletterne i Afrika.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Er det bare vinden eller et farligt rovdyr?
13:42
What's the difference between those?
345
822260
2000
Hvad er forskellen på de to?
13:44
Well, the wind is inanimate;
346
824260
2000
Jamen, vinden er død;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
det farlige rovdyr er en bevidst agent.
13:48
And I call this process agenticity.
348
828260
2000
Og jeg kalder denne process 'agenticity'.
13:50
That is the tendency to infuse patterns
349
830260
2000
Det er tendensen til at tilføre mening, intention
13:52
with meaning, intention and agency,
350
832260
2000
og agent til mønstre,
13:54
often invisible beings from the top down.
351
834260
3000
ofte værende usynlige fra toppen og ned.
13:57
This is an idea that we got
352
837260
2000
Dette er en ide vi fik
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
fra en medTEDster her, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
der talte om at tage den bevidste holdning.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Der er en type af det der er udvidet for at forklare, tror jeg, mange forskellige ting:
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
sjæle, ånder, spøgelser, guder, dæmoner, engle,
14:09
aliens, intelligent designers,
357
849260
2000
rumvæsner, intelligente designere,
14:11
government conspiracists
358
851260
2000
regeringskonspiratorer
14:13
and all manner of invisible agents
359
853260
2000
og alle mulige slags usynlige agenter
14:15
with power and intention, are believed
360
855260
2000
med magt og hensigt, menes
14:17
to haunt our world and control our lives.
361
857260
2000
at hjemsøge vores verden og kontrollere vores liv.
14:19
I think it's the basis of animism
362
859260
2000
Jeg mener det er basen af animisme
14:21
and polytheism and monotheism.
363
861260
3000
og polyteisme og monoteisme.
14:24
It's the belief that aliens are somehow
364
864260
2000
Det er troen på hvis rumvæsener på en eller anden måde
14:26
more advanced than us, more moral than us,
365
866260
2000
er mere avanceret end os, mere moralske end os,
14:28
and the narratives always are
366
868260
2000
og beretningerne er altid
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
at de kommer her for at redde os og undsætte os fra det ophøjede.
14:33
The intelligent designer's always portrayed
368
873260
2000
De intelligente designere bliver altid fremstillet
14:35
as this super intelligent, moral being
369
875260
3000
som disse super intelligente, moralske væsener
14:38
that comes down to design life.
370
878260
2000
der kommer herned for at designe liv.
14:40
Even the idea that government can rescue us --
371
880260
2000
Selv ideen at regeringen kan redde os --
14:42
that's no longer the wave of the future,
372
882260
2000
det er ikke længere en bølge fra fremtiden,
14:44
but that is, I think, a type of agenticity:
373
884260
2000
men det er, tror jeg, en form for 'agenticity':
14:46
projecting somebody up there,
374
886260
2000
at projicere nogen deroppe,
14:48
big and powerful, will come rescue us.
375
888260
2000
store og magtfulde, der kommer og redder os.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Og dette er også, mener jeg, grundlaget for konspirationsteorier.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Der er nogen der gemmer sig i baggrunden og trækker i snorene,
14:55
whether it's the Illuminati
378
895260
2000
hvad enten det er Illuminati
14:57
or the Bilderbergers.
379
897260
2000
eller Bilderbergers.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Men dette er et mønster genkendelsesproblem, er det ikke?
15:01
Some patterns are real and some are not.
381
901260
2000
Nogle mønstre er virkelige og nogle er ikke.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Blev JFK snigmyrdet af en konspiration eller af en enlig attentatmand?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Jamen, hvis man tænker sådan -- der er mennesker der på en hvilken som helst dag --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
som da jeg var der, her -- og viste mig hvor de forskellige skytter var.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Min yndlings var at han var i mandehullet.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Og han hoppede ud i sidste øjeblik, og skød.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Men selvfølgelig, blev Lincoln snigmyrdet af en konspiration.
15:20
So we can't just uniformly dismiss
388
920260
2000
Vi kan ikke bare afvise alle
15:22
all patterns like that.
389
922260
2000
denne slags mønstre.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Fordi, lad os være ærlige, nogle mønstre er virkelige.
15:26
Some conspiracies really are true.
391
926260
2000
Nogle konspirationer er ægte.
15:30
Explains a lot, maybe.
392
930260
2000
Det forklarer meget, måske.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Og 9/11 har en konspirationsteori. Det er en konspiration.
15:35
We did a whole issue on it.
394
935260
2000
Vi udgav et helt nummer om det.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
Nitten medlemmer af Al Queda der planlagde at flyve de fly ind i bygningerne
15:39
constitutes a conspiracy.
396
939260
2000
udgør en konspiration.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Men det er ikke det "9/11 sandsøgere" tror.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
De tror at det var en insider job opgave fra Bush embedet.
15:46
Well, that's a whole other lecture.
399
946260
2000
Jamen, det er en hel anden forelæsning.
15:48
You know how we know that 9/11
400
948260
2000
Ved I hvordan vi ved at 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
ikke blev organiseret af Bush embedet?
15:52
Because it worked.
402
952260
2000
Fordi det fungerede.
15:54
(Laughter)
403
954260
3000
(Latter)
15:57
(Applause)
404
957260
3000
(Bifald)
16:00
So we are natural-born dualists.
405
960260
2000
Så vi er naturlig-fødte dualister.
16:02
Our agenticity process comes from
406
962260
2000
Vores 'agenticitet' process stammer fra
16:04
the fact that we can enjoy movies like these.
407
964260
2000
det faktum at vi kan nyde film som denne.
16:06
Because we can imagine, in essence,
408
966260
2000
Fordi vi kan forestille os, egentlig,
16:08
continuing on.
409
968260
2000
at fortsætte.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Vi ved at hvis man kan stimulere tindingelapperne,
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
kan man producere en følelse af ud af kroppen oplevelser,
16:14
near-death experiences,
412
974260
2000
nærdøds oplevelser,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
hvilket man kan gøre bare ved at berøre tindingelapperne med en elektrode her.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Eller man kan gøre det gennem tab af bevidsthed,
16:21
by accelerating in a centrifuge.
415
981260
2000
ved at accelerere i en centrifuge.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Man får hypoxia, eller et lavt iltindhold.
16:26
And the brain then senses
417
986260
2000
Og hjernen føler
16:28
that there's an out-of-body experience.
418
988260
2000
at der er en ud af kroppen oplevelse.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Man kan bruge -- hvilket jeg gjorde, gik ud og gjorde --
16:32
Michael Persinger's God Helmet,
420
992260
2000
Michael Persingers Gud Hjelm,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
der bombarderer ens tindingelapper med elektromagnetiske bølger.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Og man får en følelse af en ud af kroppen oplevelse.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Så jeg vil slutte af med et kort videoklip
16:41
that sort of brings all this together.
424
1001260
2000
der på en måder binder alt dette sammen.
16:43
It's just a minute and a half.
425
1003260
2000
Det er kun halvandet minut.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Det binder alt dette sammen til forventningens magt og troens magt.
16:48
Go ahead and roll it.
427
1008260
2000
Værsgo og tænd for det.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Fortæller: Dette er stedet de valgte til deres falske prøver
16:53
for an advert for lip balm.
429
1013260
2000
for en reklame læbebalsam.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Kvinde. Vi håber vi kan bruge en del af dette
16:57
in a national commercial, right?
431
1017260
2000
i en national reklame, ikke?
16:59
And this is test on some lip balms
432
1019260
2000
Og dette er en prøve op nogle læbebalsam
17:01
that we have over here.
433
1021260
2000
som vi har herovre.
17:03
And these are our models who are going to help us,
434
1023260
2000
Og dette er vores modeller der vil hjælpe os,
17:05
Roger and Matt.
435
1025260
2000
Roger og Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Og vi har vores egen læbebalsam,
17:09
and we have a leading brand.
437
1029260
2000
og vi har et ledende brand.
17:11
Would you have any problem
438
1031260
2000
Ville du have nogen problemer
17:13
kissing our models to test it?
439
1033260
2000
med at kysse vores modeller for at teste den?
17:15
Girl: No.
440
1035260
2000
Pige: Nej.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Kvinde: Ville du ikke? (Pige: Nej.) Kvinde: Du ville mene det er i orden.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Pige: Det ville være i orden. (Kvinde: Okay.)
17:21
So this is a blind test.
443
1041260
3000
Dette er en blindtest.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Jeg vil bede dig om at tage
17:26
and put a blindfold on.
445
1046260
2000
bind for øjnene.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Kay, kan du se noget? (Pige: Nej.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Træk i det så du ikke engang kan se ned. (Pige: Okay.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Kvinde: Det er helt mørkt nu, ikke?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Pige: Ja. (Kvinde: Okay.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Det jeg vil se på i denne test
17:41
is how it protects your lips,
451
1061260
3000
er hvordan det beskytter dine læber,
17:44
the texture, right,
452
1064260
2000
teksturen, ikke,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
og måske hvis du kan skimte en smag eller ej.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Pige: Okay. (Kvinde: Har du nogensinde prøvet en kyssetest før?)
17:52
Girl: No.
455
1072260
2000
Pige: Nej.
17:54
Woman: Take a step here.
456
1074260
2000
Kvinde. Tag et skridt her.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Okay, nu vil jeg bede dig om at knibe munden sammen.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Knib munden godt sammen og læn dig lidt frem, okay?
18:06
(Music)
459
1086260
4000
(Musik)
18:10
(Laughter)
460
1090260
5000
(Latter)
18:19
(Laughter)
461
1099260
3000
(Latter)
18:30
Woman: Okay.
462
1110260
2000
Kvinde: Okay.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Og, Jennifer, hvordan føltes det?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Godt.
18:36
(Laughter)
465
1116260
7000
(Latter)
18:43
Girl: Oh my God!
466
1123260
2000
Pige: Åh gud!
18:45
(Laughter)
467
1125260
4000
(Latter)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Mange tak. Tak. Tak.
Om denne hjemmeside

På dette websted kan du se YouTube-videoer, der er nyttige til at lære engelsk. Du vil se engelskundervisning, der er udført af førsteklasses lærere fra hele verden. Dobbeltklik på de engelske undertekster, der vises på hver videoside, for at afspille videoen derfra. Underteksterne ruller i takt med videoafspilningen. Hvis du har kommentarer eller ønsker, bedes du kontakte os ved hjælp af denne kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7