The pattern behind self-deception | Michael Shermer

Michael Shermer: Das Muster hinter Selbsttäuschung.

735,937 views ・ 2010-06-14

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Mario Sandri Lektorat: Martina Panzer
00:16
So since I was here last in '06,
0
16260
3000
Also, seit ich das letzte Mal hier war, im Jahre 2006,
00:19
we discovered that global climate change
1
19260
2000
ist uns klar geworden, dass der globale Klimawandel
00:21
is turning out to be a pretty serious issue,
2
21260
2000
ein ziemlich ernstes Problem ist.
00:23
so we covered that fairly extensively
3
23260
2000
Wir haben das Thema ziemlich ausführlich in
00:25
in Skeptic magazine.
4
25260
2000
der Zeitschrift "Sceptic" (Skeptiker) behandelt.
00:27
We investigate all kinds
5
27260
2000
Wir untersuchen alle möglichen
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
wissenschaftlichen und quasi-wissenschaftlichen Streitfragen.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Aber wie sich herausstellt müssen wir uns über all dies keine Sorgen machen
00:34
because the world's going to end in 2012.
8
34260
2000
da die Welt im Jahre 2012 sowieso untergeht.
00:36
Another update:
9
36260
2000
Und noch eine Neuigkeit:
00:38
You will recall I introduced you guys
10
38260
2000
Sie erinnern sich, dass ich Ihnen
00:40
to the Quadro Tracker.
11
40260
2000
den Quadro-Detektor vorgestellt hatte.
00:42
It's like a water dowsing device.
12
42260
2000
Es ist eine Art Wünschelrute.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Er ist nichts anderes als ein hohles Stück Plastik mit einer schwenkbaren Antenne.
00:47
And you walk around, and it points to things.
14
47260
2000
Man läuft also herum und es zeigt auf irgendwas.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Wenn man z.B. nach Marihuana in Schließfächern von Schülern sucht,
00:52
it'll point right to somebody.
16
52260
2000
wird er umgehend auf jemanden zeigen.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, Entschuldigung. (Gelächter)
00:56
This particular one that was given to me
18
56260
2000
Dieser hier wurde mir von jemandem gegeben,
00:58
finds golf balls,
19
58260
2000
und er findet Golfbälle,
01:00
especially if you're at a golf course
20
60260
2000
insbesondere, wenn man auf dem Golfplatz ist
01:02
and you check under enough bushes.
21
62260
3000
und unter genügend Gebüschen nachschaut.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Nun, in der Kategorie "Aber was schadet dieses unsinnige Zeug denn schon?"
01:08
this device, the ADE 651,
23
68260
3000
wurde dieses Gerät, das ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
für 40.000 Dollar pro Stück
01:14
for 40,000 dollars apiece.
25
74260
2000
an die irakische Regierung verkauft.
01:16
It's just like this one, completely worthless,
26
76260
2000
Es ist genau wie dieses hier absolut wertlos
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
und arbeitet per "Elektrostatisch
01:20
magnetic ion attraction,"
28
80260
3000
magnetischer Ionenanziehung",
01:24
which translates to
29
84260
2000
was übersetzt bedeutet
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"pseudowissenschaftlicher Unfug" -- um es nett zu sagen --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
bei dem man eine Reihe gut klingender Wörter aneinanderreiht,
01:31
but it does absolutely nothing.
32
91260
2000
und es leistet absolut gar nichts.
01:33
In this case, at trespass points,
33
93260
3000
Wie hier bei Sicherheitskontrollen,
01:36
allowing people to go through
34
96260
2000
kann das Leben kosten, weil Personen
01:38
because your little tracker device said they were okay,
35
98260
3000
passieren von denen der kleine Detektor meinte,
01:41
actually cost lives.
36
101260
3000
dass die O.K seien.
01:44
So there is a danger to pseudoscience,
37
104260
2000
In der Pseudowissenschaft, an solche Dinge
01:46
in believing in this sort of thing.
38
106260
3000
zu glauben, liegt also eine Gefahr.
01:49
So what I want to talk about today is belief.
39
109260
3000
Worüber ich heute sprechen möchte ist Glauben.
01:52
I want to believe,
40
112260
2000
Ich möchte glauben,
01:54
and you do too.
41
114260
2000
und Sie möchten es auch.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Ich denke sogar, und das ist meine zentrale Aussage:
01:58
belief is the natural state of things.
43
118260
2000
Glaube ist die natürliche Lage der Dinge.
02:00
It is the default option. We just believe.
44
120260
2000
Es ist die Standardannahme. Wir glauben ganz einfach.
02:02
We believe all sorts of things.
45
122260
2000
Wir glauben alle möglichen Dinge.
02:04
Belief is natural;
46
124260
2000
Glaube ist natürlich.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
Unglaube, Skepsis, Wissenschaft sind nicht natürlich.
02:08
It's more difficult.
48
128260
2000
Sie sind schwieriger,
02:10
It's uncomfortable to not believe things.
49
130260
2000
Es ist unbequem nicht zu glauben.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
So wie Fox Mulder in der Serie "Akte X",
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
der an UFOs glauben möchte? Nun, das wollen wir alle.
02:18
and the reason for that is because
52
138260
2000
Und der Grund für alles das ist
02:20
we have a belief engine in our brains.
53
140260
3000
die Glaubensmaschine in unseren Gehirnen.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
Im Wesentlichen sind wir alle mustersuchende Primaten.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Wir verbinden die Punkte: A ist mit B verbunden; B ist mit C verbunden.
02:29
And sometimes A really is connected to B,
56
149260
3000
Und manchmal ist A tatsächlich mit B verbunden.
02:32
and that's called association learning.
57
152260
2000
Und das nennt man assoziatives Lernen.
02:34
We find patterns, we make those connections,
58
154260
3000
Wir finden Muster, wir stellen diese Verbindungen her,
02:37
whether it's Pavlov's dog here
59
157260
2000
egal ob Pawlows Hund, der das Läuten
02:39
associating the sound of the bell with the food,
60
159260
3000
einer Klingel mit Fressen assoziiert, und dem dann
02:42
and then he salivates to the sound of the bell,
61
162260
2000
beim reinen Läuten einer Klingel der Speichel fliesst,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
oder eine von Skinners Ratten
02:46
in which he's having an association
63
166260
2000
bei denen er eine Assoziation
02:48
between his behavior and a reward for it,
64
168260
2000
zwischen dem Verhalten und einer Belohnung herstellt,
02:50
and therefore he repeats the behavior.
65
170260
2000
und die Ratte daraufhin ihr Verhalten wiederholt.
02:52
In fact, what Skinner discovered
66
172260
2000
Was Skinner tatsächlich entdeckte ist,
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
dass wenn man eine Taube in eine Kiste wie diese hier setzt
02:57
and he has to press one of these two keys,
68
177260
2000
und sie eine von den zwei Tasten drücken muss,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
und man ihr dann, während sie versucht herauszufinden
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
was das Muster ist, eine kleine Belohnung verabreicht
03:03
if you just randomly assign rewards
71
183260
3000
und zufällig Belohnungen ausschüttet,
03:06
such that there is no pattern,
72
186260
2000
so dass es kein Muster gibt,
03:08
they will figure out any kind of pattern.
73
188260
2000
sie jede Art von Muster findet.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Und was auch immer sie gerade vor dem Erhalten der Belohnung tat,
03:12
they repeat that particular pattern.
75
192260
2000
dieses Muster wiederholt sie.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Manchmal war es einfach nur sich zweimal entgegen dem und einmal im
03:17
once clockwise and peck the key twice.
77
197260
3000
Uhrzeigersinn im Kreis zu drehen und zwei mal auf die Taste zu picken.
03:20
And that's called superstition,
78
200260
2000
Und das heißt dann Aberglaube.
03:22
and that, I'm afraid,
79
202260
2000
Und das, so fürchte ich,
03:24
we will always have with us.
80
204260
2000
werden wir nie ganz loswerden.
03:26
I call this process "patternicity" --
81
206260
2000
Diesen Prozess nennen ich "Musterhaftigkeit",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
die Neigung, bedeutungsvolle Muster zu finden
03:30
in both meaningful and meaningless noise.
83
210260
3000
in sowohl sinnhaftem als auch sinnlosem Rauschen.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Bei diesem Prozess gehen machen wir zwei Arten von Fehlern.
03:36
A Type I error, or false positive,
85
216260
2000
Ein Fehler erster Art, oder ein falsch positives Ergebnis
03:38
is believing a pattern is real
86
218260
2000
ist zu glauben, dass ein Muster echt ist
03:40
when it's not.
87
220260
2000
wenn es das nicht ist.
03:42
Our second type of error is a false negative.
88
222260
2000
Ein Fehler zweiter Art ist ein falsch negatives Ergebnis.
03:44
A Type II error is not believing
89
224260
2000
Ein Fehler zweiter Art ist der Unglaube,
03:46
a pattern is real when it is.
90
226260
3000
dass ein Muster echt ist, obwohl es das ist.
03:49
So let's do a thought experiment.
91
229260
2000
Machen wir ein Gedankenexperiment.
03:51
You are a hominid three million years ago
92
231260
2000
Sie sind ein Hominide vor drei Millionen Jahren,
03:53
walking on the plains of Africa.
93
233260
3000
unterwegs im afrikanischen Flachland.
03:56
Your name is Lucy, okay?
94
236260
2000
Sie heißen Lucy, O.K.
03:58
And you hear a rustle in the grass.
95
238260
2000
Und Sie hören ein Rascheln im Gras.
04:00
Is it a dangerous predator,
96
240260
2000
Ist das ein gefährliches Raubtier
04:02
or is it just the wind?
97
242260
2000
oder nur der Wind?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Ihre nächste Entscheidung könnte die wichtigste in Ihrem Leben sein.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Nun, wenn sie denken, dass das Rascheln im Gras ein gefährliches Raubtier ist
04:10
and it turns out it's just the wind,
100
250260
2000
es dann aber doch nur der Wind war,
04:12
you've made an error in cognition,
101
252260
2000
haben sie einen Denkfehler,
04:14
made a Type I error, false positive.
102
254260
2000
einen Fehler erster Art, falsch positiv gemacht.
04:16
But no harm. You just move away.
103
256260
2000
Kein großer Schaden! Sie gehen einfach weiter.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Sie sind jetzt ein bisschen vorsichtiger, ein bisschen wachsamer.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Wenn Sie allerdings glauben, dass das Rascheln im Gras nur der Wind ist,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
und es sich dann als gefährliches Raubtier entpuppt,
04:25
you're lunch.
107
265260
2000
sind Sie Mittagessen.
04:27
You've just won a Darwin award.
108
267260
2000
Sie haben soeben einen Darwin Award gewonnen.
04:29
You've been taken out of the gene pool.
109
269260
2000
Sie wurden aus dem Genpool entfernt.
04:31
Now the problem here is that
110
271260
2000
Das Problem hierbei ist nun,
04:33
patternicities will occur whenever the cost
111
273260
2000
dass Musterhaftigkeit immer dann vorkommt,
04:35
of making a Type I error
112
275260
2000
wenn der Preis für einen Fehler erster Art
04:37
is less than the cost of making a Type II error.
113
277260
2000
geringer ist als der Preis für einen Fehler zweiter Art.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Dies ist übrigens die einzige Gleichung in meiner Präsentation.
04:41
We have a pattern detection problem
115
281260
2000
Wir haben ein Mustererkennungsproblem,
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
das Einschätzen des Unterschiedes zwischen einem Fehler erster und zweiter Art
04:46
is highly problematic,
117
286260
2000
hoch problematisch ist,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
besonders in Situationen, wo Sekundenbruchteile über Leben und Tod entscheiden können.
04:51
So the default position
119
291260
2000
Das bedeutet, die Standardsituation
04:53
is just: Believe all patterns are real --
120
293260
2000
ist schlicht "Nehme an, dass alle Muster echt sind."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Jedes Rascheln im Gras ist ein gefährliches Raubtier
04:58
and not just the wind.
122
298260
2000
und niemals einfach nur der Wind."
05:00
And so I think that we evolved ...
123
300260
2000
Und ich glaube, so haben wir uns entwickelt...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
es gab natürliche Selektion für den Hang zu unseren Glaubensmaschinen,
05:05
our pattern-seeking brain processes,
125
305260
2000
unseren mustersuchenden Hirnprozessen,
05:07
to always find meaningful patterns
126
307260
2000
immer bedeutsame Muster zu finden
05:09
and infuse them with these sort of
127
309260
2000
und ihnen diese irgendwie räuberischen
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
oder absichtsvollen Kräfte einzuflößen, auf die ich zurückkommen werde.
05:14
So for example, what do you see here?
129
314260
2000
Was zum Beispiel sehen Sie hier?
05:16
It's a horse head, that's right.
130
316260
2000
Richtig, ein Pferdekopf.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Es sieht aus wie ein Pferd, dann muss es auch ein Pferd sein.
05:20
That's a pattern.
132
320260
2000
Das ist ein Muster.
05:22
And is it really a horse?
133
322260
2000
Aber ist es wirklich ein Pferd?
05:24
Or is it more like a frog?
134
324260
3000
Oder ist es eher ein Frosch?
05:27
See, our pattern detection device,
135
327260
2000
Unser Musterdetektor,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
der sich anscheinend im anterioren cingulären Cortex befindet --
05:32
it's our little detection device there --
137
332260
3000
das ist unser kleiner Detektor hier --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
lässt sich leicht hereinlegen, und das ist das Problem.
05:37
For example, what do you see here?
139
337260
2000
Was zum Beispiel sehen Sie hier?
05:39
Yes, of course, it's a cow.
140
339260
3000
Ja, natürlich. Eine Kuh.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Wenn ich das Gehirn einmal prime -- das nennt man kognitives Priming --
05:45
once I prime the brain to see it,
142
345260
2000
Wenn ich das Gehirn prime, das zu sehen,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
springt es immer wieder hervor, auch ohne das Muster, das ich darüber gelegt habe.
05:50
And what do you see here?
144
350260
2000
Und was sehen Sie hier?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Einige Leute sehen einen Dalmatiner.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Ja, da ist er. Und hier ist der Prime.
05:56
So when I go back without the prime,
147
356260
2000
Wenn ich dann ohne den Prime zurück gehe,
05:58
your brain already has the model
148
358260
2000
besitzt Ihr Gehirn schon das Modell
06:00
so you can see it again.
149
360260
2000
so, dass sie ihn wieder sehen können.
06:02
What do you see here?
150
362260
3000
Was sehen Sie hier?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Den Planeten Saturn. Das ist gut.
06:07
How about here?
152
367260
3000
Und wie sieht es hiermit aus?
06:10
Just shout out anything you see.
153
370260
3000
Rufen Sie mir einfach alles, was Sie sehen zu.
06:14
That's a good audience, Chris.
154
374260
2000
Das ist ein gutes Publikum, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Weil hier nichts drin ist. Naja, angeblich ist hier nichts.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Dies ist ein Experiment über Unternehmens-Umgebungen,
06:22
at U.T. Austin
157
382260
2000
das von Jennifer Whitson
06:24
on corporate environments
158
384260
2000
an der Universität von Texas in Austin durchgeführt wurde
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
und testen sollte, ob Gefühle von Unsicherheit und Kontrolllosigkeit
06:29
makes people see illusory patterns.
160
389260
2000
die Leute eingebildete Mustern sehen lässt.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
So ziemlich jeder erkennt den Planeten Saturn.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Menschen, die man die Lage versetzt, sich außer Kontrolle zu fühlen
06:37
are more likely to see something in this,
163
397260
2000
sehen hier mit höherer Wahrscheinlichkeit etwas in dem hier,
06:39
which is allegedly patternless.
164
399260
3000
was ja angeblich ohne Muster ist.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Mit anderen Worten: Die Neigung, diese Muster zu finden
06:45
goes up when there's a lack of control.
166
405260
3000
steigt wenn es einen Mangel an Kontrollmöglichkeiten gibt.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Baseballspieler sind z.B. für ihren Aberglauben bekannt,
06:51
when they're batting,
168
411260
2000
wenn sie schlagen,
06:53
but not so much when they're fielding.
169
413260
2000
aber nicht so sehr, wenn sie im Feld spielen.
06:55
Because fielders are successful
170
415260
2000
Weil Feldspieler zu
06:57
90 to 95 percent of the time.
171
417260
2000
90 bis 95% erfolgreich sind.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Selbst die besten Batter versagen in sieben von zehn Fällen.
07:02
So their superstitions, their patternicities,
173
422260
2000
Ihr Aberglaube, ihre Musterhaftigkeit
07:04
are all associated with feelings of lack of control
174
424260
3000
sind also alle mit Gefühlen des Mangels an Kontrolle
07:07
and so forth.
175
427260
2000
und so weiter verbunden.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Was sehen Sie in diesem hier, in dieser Fläche?
07:13
Anybody see an object there?
177
433260
2000
Kann irgendjemand ein Objekt ausmachen?
07:15
There actually is something here,
178
435260
2000
Es ist tatsächlich etwas hier,
07:17
but it's degraded.
179
437260
2000
aber es es wurde entfremdet.
07:19
While you're thinking about that,
180
439260
2000
Während Sie darüber nachdenken,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
dies war ein Experiment, das von Susan Blackmore, einer
07:23
a psychologist in England,
182
443260
2000
Psychologin in England, durchgeführt wurde,
07:25
who showed subjects this degraded image
183
445260
2000
die ihren Probanden dieses entfremdete Bild zeigte
07:27
and then ran a correlation between
184
447260
2000
und dann eine Korrelation mit ihren Ergebnissen
07:29
their scores on an ESP test:
185
449260
2000
in einem ASP-Test durchführte,
07:31
How much did they believe in the paranormal,
186
451260
2000
inwieweit sie an das Paranormale glaubten,
07:33
supernatural, angels and so forth.
187
453260
3000
an das Übernatürliche, Engel und so fort.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Und die, die hohe Werte auf der ASP-Skala hatten,
07:39
tended to not only see
189
459260
2000
neigten dazu, nicht nur mehr Muster
07:41
more patterns in the degraded images
190
461260
2000
in den entfremdeten Bildern zu sehen,
07:43
but incorrect patterns.
191
463260
2000
sondern auch Falsche.
07:45
Here is what you show subjects.
192
465260
2000
Hier ist was man den Probanden zeigt.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Dieser Fisch ist zu 20% entfremdet, 50%
07:50
and then the one I showed you,
194
470260
2000
und dann der, den ich Ihnen gezeigt habe,
07:52
70 percent.
195
472260
2000
zu 70%.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Ein ähnliches Experiment wurde von einem anderen schweizer Psychologen,
07:56
named Peter Brugger,
197
476260
2000
Peter Brugger durchgeführt,
07:58
who found significantly more meaningful patterns
198
478260
3000
der herausfand, dass signifikant mehr sinnhafte Muster
08:01
were perceived on the right hemisphere,
199
481260
2000
über das linke Gesichtsfeld, in der rechten Hirnhälfte
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
wahrgenommen wurden als in der linken Hirnhälfte.
08:06
So if you present subjects the images such
201
486260
2000
Wenn Sie also Probanden Bilder so präsentieren,
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
dass sie in der rechten anstatt der linken Hirnhälfte ankommen,
08:11
then they're more likely to see patterns
203
491260
2000
dann sehen die mit höherer Wahrscheinlichkeit Muster,
08:13
than if you put it on the left hemisphere.
204
493260
2000
als wenn man sie auf die linke Hirnhälfte lenkt.
08:15
Our right hemisphere appears to be
205
495260
2000
Unsere rechte Hirnhälfte ist anscheinend
08:17
where a lot of this patternicity occurs.
206
497260
2000
wo ein Großteil dieser Musterhaftigkeit vorkommt.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Was wäre, wenn wir versuchten ins Gehirn hinein zu bohren
08:21
to see where all this happens.
208
501260
2000
um zu sehen, wo all dies geschieht?
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger und seine Kollegin Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
verabreichten ihren Probanden L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA wird, wie Sie wissen, für die Behandlung der Parkinson-Krankheit eingesetzt,
08:31
which is related to a decrease in dopamine.
212
511260
3000
die mit einer Verringerung von Dopamin in Verbindung steht.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA erhöht Dopamin.
08:36
An increase of dopamine caused
214
516260
2000
Eine erhöhtes Dopamin bewirkte, dass
08:38
subjects to see more patterns
215
518260
2000
Probanden mehr Muster sehen
08:40
than those that did not receive the dopamine.
216
520260
2000
als diejenigen, die kein Dopamin bekamen.
08:42
So dopamine appears to be the drug
217
522260
2000
Dopamin ist anscheinend der Stoff,
08:44
associated with patternicity.
218
524260
2000
der in Verbindung mit Musterverwaltung steht.
08:46
In fact, neuroleptic drugs
219
526260
2000
Und tatsächlich sind diese Dinge, gegen die
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
Neuroleptika eingesetzt werden, psychotisches Verhalten,
08:50
things like paranoia, delusions
221
530260
2000
Paranoia, Wahnvorstellungen
08:52
and hallucinations,
222
532260
2000
und Halluzinationen
08:54
these are patternicities.
223
534260
2000
Musterhaftigkeiten.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
All dies sind falsche Muster. Das sind falsche Positive, Fehler erster Art.
08:59
And if you give them drugs
225
539260
2000
Und wenn man Medikamente verabreicht,
09:01
that are dopamine antagonists,
226
541260
2000
die Dopamin unterdrücken,
09:03
they go away.
227
543260
2000
verschwinden sie.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Das bedeutet, man verringert die Dopaminmenge,
09:07
and their tendency to see
229
547260
2000
und die Neigung, Muster
09:09
patterns like that decreases.
230
549260
2000
dieser Art zu sehen geht zurück.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Auf der anderen Seite sind Amphetamine wie Kokain
09:14
are dopamine agonists.
232
554260
2000
Dopamin-Agonisten.
09:16
They increase the amount of dopamine.
233
556260
2000
Sie erhöhen die Dopaminmenge.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Sie fühlen sich mit höherer Wahrscheinlichkeit
09:21
creativity, find more patterns.
235
561260
2000
euphorisch, kreativer, finden mehr Muster.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Vor kurzem sah ich Robin Williams darüber
09:25
talk about how he thought he was much funnier
237
565260
2000
sprechen, wie er sich selbst als viel lustiger empfand,
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
als er Kokain konsumierte, als er dieses Problem hatte, verglichen mit heute.
09:30
So perhaps more dopamine
239
570260
2000
Mehr Dopamin ist also vielleicht
09:32
is related to more creativity.
240
572260
2000
mit mehr Kreativität verbunden.
09:34
Dopamine, I think, changes
241
574260
2000
Ich denke, dass Dopamin unser
09:36
our signal-to-noise ratio.
242
576260
2000
Signal-Rausch-Verhältnis beeinflusst.
09:38
That is, how accurate we are
243
578260
2000
Das heißt, wie präzise wir
09:40
in finding patterns.
244
580260
2000
Muster finden können.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Wenn es zu niedrig ist machen wir zu viele Fehler zweiter Art.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Sie übersehen die echten Muster. Sie wollen nicht zu skeptisch sein.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Wenn Sie zu skeptisch sind übersehen Sie die wirklich interessanten guten Ideen.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Genau richtig, und Sie sind kreativ und fallen nicht auf zu viel Unsinn rein.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Zu hoch und Sie sehen vielleicht überall Muster.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Jedes Mal, wenn jemand Sie ansieht glauben Sie, dass Leute Sie anstarren.
10:00
You think people are talking about you.
251
600260
2000
Sie glauben, dass Leute über Sie reden.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Und wenn Sie zu weit gehen bezeichnet man das
10:04
labeled as madness.
253
604260
2000
als Wahnsinn.
10:06
It's a distinction perhaps we might make
254
606260
2000
Dies ist ein Unterschied, den wir vielleicht zwischen zwei
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
Nobelpreisträgern machen, Richard Feynman
10:10
and John Nash.
256
610260
2000
und John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Einer sieht vielleicht genau die richtige Anzahl
10:14
of patterns to win a Nobel Prize.
258
614260
2000
von Mustern, um den Nobelpreis zu gewinnen.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
Der andere auch, aber er sieht vielleicht zu viele Muster.
10:18
And we then call that schizophrenia.
260
618260
3000
Und das nennen wir dann Schizophrenie.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Das Signal-Rausch-Verhältnis konfrontiert uns dann mit einem Problem der Mustererkennung.
10:24
And of course you all know exactly
262
624260
2000
Und natürlich wissen Sie alle genau
10:26
what this is, right?
263
626260
2000
was das ist, richtig?
10:28
And what pattern do you see here?
264
628260
2000
Welches Muster sehen Sie hier?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Ich teste jetzt Ihren anterioren cingulären Cortex noch einmal
10:33
causing you conflicting pattern detections.
266
633260
3000
und bringe Sie zu widerstreitenden Mustererkennungen.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Wie Sie natürlich wissen sind dies Schuhe von Via Uno.
10:38
These are sandals.
268
638260
3000
Sandalen.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Diese Füße sind schon ziemlich sexy muss ich sagen.
10:44
Maybe a little Photoshopped.
270
644260
2000
Vielleicht ein bisschen mit Photoshop nachbearbeitet.
10:46
And of course, the ambiguous figures
271
646260
2000
Und natürlich, die mehrdeutigen Figuren,
10:48
that seem to flip-flop back and forth.
272
648260
2000
die anscheinend hin und her springen.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Wie sich herausstellt beeinflusst das, woran
10:52
influences what you
274
652260
2000
wir häufig denken das,
10:54
tend to see.
275
654260
2000
was wir zu sehen neigen.
10:56
And you see the lamp here, I know.
276
656260
2000
Und ich weiß, hier sehen Sie die Lampe.
10:58
Because the lights on here.
277
658260
3000
Weil das Licht an ist.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Und wegen der Umweltbewegung sind wir natürlich alle
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
sensibilisiert für der Notlage der Meeressäuger.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Was Sie in dieser mehrdeutigen Figur sehen
11:09
is, of course, the dolphins, right?
281
669260
2000
sind natürlich die Delfine, richtig.
11:11
You see a dolphin here,
282
671260
2000
Da ist ein Delfin hier.
11:13
and there's a dolphin,
283
673260
2000
Und da ist einer.
11:15
and there's a dolphin.
284
675260
2000
Und dort ist ein Delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Das ist der Schwanz eines Delfins, Leute.
11:20
(Laughter)
286
680260
3000
(Gelächter)
11:25
If we can give you conflicting data, again,
287
685260
3000
Wenn wir Ihnen jetzt wieder widersprüchliche Daten geben können
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
wird Ihr ACC in den Hyperantrieb gehen.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Hier unten ist alles in Ordnung. Aber hier oben erhalten Sie widersprüchliche Daten.
11:34
And then we have to flip the image
290
694260
2000
Und dann müssen wir das Bild kippen,
11:36
for you to see that it's a set up.
291
696260
2000
damit Sie sehen, dass es eine Falle ist.
11:40
The impossible crate illusion.
292
700260
2000
Die Illusion der unmöglichen Lattenkiste.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Es ist einfach, das Gehirn in 2D hinters Licht zu führen.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Sie sagen jetzt: "Och komm, Shermer, das kann doch jeder
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
in einem Einführungstext in die Psychologie mit so einer Illusion."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Nun, hier die unmögliche Lattenkiste des verstorbenen,
11:50
"impossible crate" illusion in 3D,
297
710260
3000
großartigen Jerry Andrus in 3D,
11:53
in which Jerry is standing inside
298
713260
2000
mit Jerry mitten in
11:55
the impossible crate.
299
715260
2000
der unmöglichen Kiste stehend.
11:57
And he was kind enough to post this
300
717260
2000
Und er war so freundlich, das zu posten
11:59
and give us the reveal.
301
719260
2000
und uns die Auflösung zu geben.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Natürlich ist das Geheimnis der Kamerawinkel. Der Fotograf steht hier drüben.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Diese Latte scheint mit dieser zu überlappen, und diese mit dieser und so weiter.
12:07
But even when I take it away,
304
727260
2000
Aber selbst wenn ich es wieder entferne,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
ist die Illusion so stark, zu zeigen wie Gehirne verdrahtet sind,
12:11
to find those certain kinds of patterns.
306
731260
3000
um diese Art von Muster zu entdecken.
12:14
This is a fairly new one
307
734260
2000
Dies hier ist ein ziemlich neues
12:16
that throws us off because of the conflicting patterns
308
736260
2000
das uns wegen der widerstreitenden Muster aus der Bahn wirft.
12:18
of comparing this angle with that angle.
309
738260
3000
Wir vergleichen diesen Winkel mit diesem.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
Tatsächlich ist das genau das selbe Bild Seite an Seite.
12:24
So what you're doing is comparing that angle
311
744260
2000
Sie vergleichen diesen Winkel
12:26
instead of with this one, but with that one.
312
746260
2000
mit diesem anstatt mit diesem.
12:28
And so your brain is fooled.
313
748260
2000
Und ihr Gehirn fällt darauf herein.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Und schon wieder wurden ihre Musterdetektoren hinters Licht geführt.
12:32
Faces are easy to see
315
752260
2000
Gesichter sind einfach zu erkennen,
12:34
because we have an additional evolved
316
754260
2000
weil wir zusätzlich in unseren Temporallappen
12:36
facial recognition software
317
756260
2000
Software für Gesichtskennung
12:38
in our temporal lobes.
318
758260
3000
entwickelt haben.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Hier sind ein paar Gesichter im Felsen.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Ich bin mir nicht ganz sicher -- da könnte Photoshop geholfen haben.
12:47
But anyway, the point is still made.
321
767260
2000
Aber egal, das Prinzip funktioniert.
12:49
Now which one of these looks odd to you?
322
769260
2000
Welches von diesen hier sieht seltsam aus?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
In einer schnellen Reaktion, in welchem ist etwas falsch?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Im linken. O.K., ich drehe es herum
12:55
so it'll be the one on the right.
325
775260
2000
so, dass es jetzt zu ihrer Rechten ist.
12:57
And you are correct.
326
777260
2000
Und Sie hatten recht.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Eine ziemlich bekannte Illusion -- wurde zuerst mit Margaret Thatcher gemacht.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Jetzt tauschen sie jedes mal die Politiker aus.
13:04
Well, why is this happening?
329
784260
2000
Nun, wieso passiert das?
13:06
Well, we know exactly where it happens,
330
786260
2000
Wir wissen genau wo es passiert,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
im Temporallappen, direkt gegenüber, in etwa über Ihrem Ohr dort.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
In einer Gyrus fusiformus genannten Gehirnwindung.
13:14
And there's two types of cells that do this,
333
794260
2000
Und es gibt zwei Arten von Zellen,
13:16
that record facial features either globally,
334
796260
3000
die Gesichtszüge entweder allgemein oder
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
speziell verzeichnen. Diese großen schnellen Zellen
13:21
first look at the general face.
336
801260
2000
schauen zuerst auf das Gesicht im allgemeinen.
13:23
So you recognize Obama immediately.
337
803260
2000
Sie erkennen Obama sofort.
13:25
And then you notice something quite
338
805260
2000
Und dann bemerken Sie, dass da eine Kleinigkeit
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
mit den Augen und dem Mund nicht stimmt.
13:29
Especially when they're upside down,
340
809260
2000
Insbesondere wenn die auf dem Kopf stehen.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Sie benutzen hier Ihre allgemeine Gesichtskennungssoftware.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Ich erwähnte in unserem kleinen Gedankenexperiment vorhin,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
Sie sind ein Hominid im afrikanischen Flachland.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Ist es nur der Wind oder ein gefährliches Raubtier?
13:42
What's the difference between those?
345
822260
2000
Was ist der Unterschied zwischen den beiden?
13:44
Well, the wind is inanimate;
346
824260
2000
Nun, der Wind ist unbelebt;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
das Raubtier ist eine absichtsvoll handelnde Kraft.
13:48
And I call this process agenticity.
348
828260
2000
Ich nenne diesen Prozess Akteurhaftigkeit.
13:50
That is the tendency to infuse patterns
349
830260
2000
Dies ist die Neigung, Mustern Bedeutung,
13:52
with meaning, intention and agency,
350
832260
2000
Absichtlichkeit und Handlungskraft beizumessen,
13:54
often invisible beings from the top down.
351
834260
3000
häufig durch unsichtbare Wesen von oben.
13:57
This is an idea that we got
352
837260
2000
Dieses Konzept haben wir von unserem
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
TED-Kollegen Dan Dennett gelernt,
14:01
who talked about taking the intentional stance.
354
841260
2000
der über die Vorsätzliche Haltung gesprochen hat.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Es ist eine etwas erweiterte Version davon, die hilft so einiges zu erklären,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
Seelen, Geister, Gespenster, Götter, Dämonen, Engel,
14:09
aliens, intelligent designers,
357
849260
2000
Außerirdische, intelligente Designer,
14:11
government conspiracists
358
851260
2000
Verschwörer in der Regierung,
14:13
and all manner of invisible agents
359
853260
2000
und alle möglichen unsichtbaren Akteure
14:15
with power and intention, are believed
360
855260
2000
mit Macht und Absichten, von denen wir glauben, dass
14:17
to haunt our world and control our lives.
361
857260
2000
sie in der Welt herumgeistern und unser Leben kontrollieren.
14:19
I think it's the basis of animism
362
859260
2000
Ich denke, dies ist die Grundlage für Animismus,
14:21
and polytheism and monotheism.
363
861260
3000
und Polytheismus und Monotheismus.
14:24
It's the belief that aliens are somehow
364
864260
2000
Es ist der Glaube, dass Außerirdische uns
14:26
more advanced than us, more moral than us,
365
866260
2000
technisch und moralisch überlegen sind.
14:28
and the narratives always are
366
868260
2000
Und die Geschichte ist immer,
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
dass die herab kommen um uns zu erlösen und zu retten.
14:33
The intelligent designer's always portrayed
368
873260
2000
Der intelligente Designer wird immer als ein
14:35
as this super intelligent, moral being
369
875260
3000
extrem intelligentes, moralisches Wesen dargestellt,
14:38
that comes down to design life.
370
878260
2000
das herunter kommt, um Leben zu gestalten.
14:40
Even the idea that government can rescue us --
371
880260
2000
Selbst der Gedanke, dass die Regierung uns retten kann,
14:42
that's no longer the wave of the future,
372
882260
2000
ist nicht mehr, was er mal war.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Das ist, denke ich eine Art von Akteurhaftigkeit,
14:46
projecting somebody up there,
374
886260
2000
die Projektion, dass jemand von dort oben,
14:48
big and powerful, will come rescue us.
375
888260
2000
groß und machtvoll, kommen wird um uns zu retten.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Und das ist auch die Grundlage für Verschwörungstheorien.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Da ist jemand, der im Verborgenen die Fäden zieht.
14:55
whether it's the Illuminati
378
895260
2000
Egal, ob es die Illuminati sind
14:57
or the Bilderbergers.
379
897260
2000
oder die Bilderberg-Gruppe.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Aber dies ist ein Mustererkennungsproblem, oder?
15:01
Some patterns are real and some are not.
381
901260
2000
Manche Muster sind echt und andere sind es nicht.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Wurde John F. Kennedy durch eine Verschwörung oder einen Einzeltäter ermordet?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Wenn Sie zum Tatort gehen -- da sind jederzeit Leute --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
wie als ich dort war, hier -- die mir zeigten, wo die verschiedenen Schützen waren.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Mein Favorit war dieser, unter dem Kanaldeckel.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Und er kam im letzten Moment raus und schoss.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Aber natürlich wurde Lincoln von einer Verschwörung ermordet.
15:20
So we can't just uniformly dismiss
388
920260
2000
Wir können also nicht alle Muster
15:22
all patterns like that.
389
922260
2000
dieser Art einfach abtun.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Denn, seien wir ehrlich, einige Muster sind echt.
15:26
Some conspiracies really are true.
391
926260
2000
Einige Verschwörungen sind real.
15:30
Explains a lot, maybe.
392
930260
2000
Das erklärt vielleicht einiges.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Der 11. September hat eine Verschwörungstheorie. Es ist eine Verschwörung.
15:35
We did a whole issue on it.
394
935260
2000
Wir hatten dem eine komplette Ausgabe gewidmet.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
Wenn 19 Mitglieder von al-Qaida planen Flugzeuge in Gebäude zu fliegen
15:39
constitutes a conspiracy.
396
939260
2000
ist das eine Verschwörung.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Das ist aber nicht was die Verbreiter der "Wahrheit über den 11. September" denken.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Die denken, dies war ein Geheimdienstoperation der Bush-Regierung.
15:46
Well, that's a whole other lecture.
399
946260
2000
Nun ja, das könnte eine eigene Vorlesung werden.
15:48
You know how we know that 9/11
400
948260
2000
Aber wissen Sie, woher wir wissen, dass der 11. September
15:50
was not orchestrated by the Bush administration?
401
950260
2000
nicht von der Bush-Regierung angezettelt wurde?
15:52
Because it worked.
402
952260
2000
Weil er funktionierte.
15:54
(Laughter)
403
954260
3000
(Gelächter)
15:57
(Applause)
404
957260
3000
(Applaus)
16:00
So we are natural-born dualists.
405
960260
2000
Wir werden als Dualisten geboren.
16:02
Our agenticity process comes from
406
962260
2000
Unser Akteurhaftigkeits-Prozess kommt daher,
16:04
the fact that we can enjoy movies like these.
407
964260
2000
dass wir Filme wie diese hier genießen können.
16:06
Because we can imagine, in essence,
408
966260
2000
Weil wir uns im im wesentlichen vorstellen können
16:08
continuing on.
409
968260
2000
weiter zu existieren.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Wir wissen, dass Sie außer-körperliche
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
und Nahtoderfahrungen erzeugen können,
16:14
near-death experiences,
412
974260
2000
indem Sie den Temporallappen stimulieren,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
z.B. indem man den Temporallappen mit einer Elektrode berührt.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Oder wenn Sie in einer Zentrifuge durch die
16:21
by accelerating in a centrifuge.
415
981260
2000
Beschleunigungskräfte bewusstlos werden.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Sie bekommen Sauerstoffmangel.
16:26
And the brain then senses
417
986260
2000
Und das Gehirn empfindet das als
16:28
that there's an out-of-body experience.
418
988260
2000
außer-körperliche Erfahrung.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Sie können -- was ich getan habe --
16:32
Michael Persinger's God Helmet,
420
992260
2000
Michael Persingers Gotthelm aufsetzen,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
der Ihren Temporallappen mit elektromagnetischen Wellen beschießt.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Und Sie haben das Gefühl einer außer-körperlichen Erfahrung.
16:39
So I'm going to end here with a short video clip
423
999260
2000
So, ich werde hier mit einem kurzen Video abschließen,
16:41
that sort of brings all this together.
424
1001260
2000
dass all dies auf einen Punkt bringt.
16:43
It's just a minute and a half.
425
1003260
2000
Es nur anderthalb Minuten lang.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Es verbindet all dies zur Kraft der Erwartung und des Glaubens.
16:48
Go ahead and roll it.
427
1008260
2000
Film ab.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Sprecher: Dies ist der Ort, der für die vorgetäuschten Vorsprechen für ein Reklame
16:53
for an advert for lip balm.
429
1013260
2000
für einen Lippenbalsam ausgewählt wurde.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Frau: Wir hoffen, dass wir etwas hiervon
16:57
in a national commercial, right?
431
1017260
2000
in einer landesweiten Reklame verwenden können.
16:59
And this is test on some lip balms
432
1019260
2000
Und das wäre der Test für Lippenbalsame,
17:01
that we have over here.
433
1021260
2000
die wir hier drüben haben.
17:03
And these are our models who are going to help us,
434
1023260
2000
Und dies sind unsere Models, die uns helfen werden,
17:05
Roger and Matt.
435
1025260
2000
Roger und Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Und wir haben unseren eigenen Lippenbalsam,
17:09
and we have a leading brand.
437
1029260
2000
und wir haben ein führendes Produkt.
17:11
Would you have any problem
438
1031260
2000
Hätten Sie ein Problem damit,
17:13
kissing our models to test it?
439
1033260
2000
unsere Models zu Testzwecken zu küssen?
17:15
Girl: No.
440
1035260
2000
Mädchen: Nein.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Frau: Sie hätten kein Problem? (Mädchen: Nein.) Frau: Sie wären der Meinung das wäre in Ordnung?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Mädchen: Das wäre in Ordnung. (Frau: O.K.)
17:21
So this is a blind test.
443
1041260
3000
Dies ist ein Blindversuch.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Ich möchte Sie bitten
17:26
and put a blindfold on.
445
1046260
2000
eine Augenbinde anzulegen.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Okee, können Sie irgendetwas sehen? (Mädchen: Nein.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Ziehen Sie daran, so dass Sie nach unten nichts sehen. (Mädchen: O.K.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Frau: Jetzt ist alles schwarz, oder?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Mädchen: Ja. (Frau: O.K.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
So, worauf wir in diesem Versuch achten ist,
17:41
is how it protects your lips,
451
1061260
3000
wie es Ihre Lippen schützt,
17:44
the texture, right,
452
1064260
2000
die Textur, O.K.,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
und vielleicht ob Sie einen Geschmack wahrnehmen können.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Mädchen: O.K. (Frau: Haben Sie jemals an einem Küsstest teilgenommen?)
17:52
Girl: No.
455
1072260
2000
Mädchen: Nein.
17:54
Woman: Take a step here.
456
1074260
2000
Frau: Bitte machen Sie einen Schritt nach hier.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
O.K, ich möchte, dass sie jetzt die Lippen spitzen.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Spitzen und ein wenig hinein lehnen, O.K.
18:06
(Music)
459
1086260
4000
(Musik)
18:10
(Laughter)
460
1090260
5000
(Gelächter)
18:19
(Laughter)
461
1099260
3000
(Gelächter)
18:30
Woman: Okay.
462
1110260
2000
O.K.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Und, Jennifer, wie hat sich das angefühlt?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Gut.
18:36
(Laughter)
465
1116260
7000
(Gelächter)
18:43
Girl: Oh my God!
466
1123260
2000
Mädchen: Ach du meine Güte.
18:45
(Laughter)
467
1125260
4000
(Gelächter)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Ich danke Ihnen sehr. Vielen Dank. Danke.
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7