The pattern behind self-deception | Michael Shermer

Le modèle de l'auto-déception par Michael Shermer

735,937 views

2010-06-14 ・ TED


New videos

The pattern behind self-deception | Michael Shermer

Le modèle de l'auto-déception par Michael Shermer

735,937 views ・ 2010-06-14

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Fabienne Der Hagopian Relecteur: Elisabeth Buffard
00:16
So since I was here last in '06,
0
16260
3000
Depuis la dernière fois que j'étais ici, en 2006,
00:19
we discovered that global climate change
1
19260
2000
nous avons découvert que le changement climatique mondial
00:21
is turning out to be a pretty serious issue,
2
21260
2000
s'avère être un problème vraiment sérieux.
00:23
so we covered that fairly extensively
3
23260
2000
Donc avons donc couvert le sujet assez complètement
00:25
in Skeptic magazine.
4
25260
2000
dans Skeptic magazine.
00:27
We investigate all kinds
5
27260
2000
Nous analysons toutes sortes
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
de controverses scientifiques et quasi-scientifiques.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Mais finalement nous n'avons pas à nous faire de soucis sur ce sujet
00:34
because the world's going to end in 2012.
8
34260
2000
puisque la fin du monde va arriver en 2012.
00:36
Another update:
9
36260
2000
D'autres nouvelles :
00:38
You will recall I introduced you guys
10
38260
2000
Vous vous rappelez sûrement que je vous avais
00:40
to the Quadro Tracker.
11
40260
2000
présenté le Quadro Tracker.
00:42
It's like a water dowsing device.
12
42260
2000
C'est une sorte d'engin radiesthésique qui détecte l'eau.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
C'est juste un tube en plastique avec une antenne qui tourne.
00:47
And you walk around, and it points to things.
14
47260
2000
Et vous marchez et il pointe des choses.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Par exemple, vous cherchez du cannabis dans les vestiaires des étudiants,
00:52
it'll point right to somebody.
16
52260
2000
et il pointera directement vers quelqu'un.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, désolé. (rires)
00:56
This particular one that was given to me
18
56260
2000
On m'a donné cette mission particulière
00:58
finds golf balls,
19
58260
2000
de trouver des balles de golf,
01:00
especially if you're at a golf course
20
60260
2000
spécialement si vous êtes sur un terrain de golf
01:02
and you check under enough bushes.
21
62260
3000
et que vous regardez en dessous d'assez de buissons.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Et bien, dans la catégorie "Quel mal pourrait faire un truc idiot comme cela ?"
01:08
this device, the ADE 651,
23
68260
3000
cet engin, le ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
a été vendu au gouvernement iraquien
01:14
for 40,000 dollars apiece.
25
74260
2000
à 40,000 dollars l'unité.
01:16
It's just like this one, completely worthless,
26
76260
2000
C'est exactement comme celui-ci, complètement inutile,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
qui marcherait soit disant par "attraction électrostatique
01:20
magnetic ion attraction,"
28
80260
3000
magnétique ionique,"
01:24
which translates to
29
84260
2000
ce qui peut se traduire par
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"bêtises pseudo-scientifiques" -- ce serait le bon mot --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
dans lequel vous alignez des mots qui sonnent bien,
01:31
but it does absolutely nothing.
32
91260
2000
mais qui ne fait absolument rien.
01:33
In this case, at trespass points,
33
93260
3000
Dans ce cas, aux points de contrôle,
01:36
allowing people to go through
34
96260
2000
laisser les gens passer
01:38
because your little tracker device said they were okay,
35
98260
3000
parce que votre petit détecteur a dit qu'ils n'étaient pas dangereux,
01:41
actually cost lives.
36
101260
3000
ça peut couter des vies.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Donc il y a des risques associés à la pseudo-science,
01:46
in believing in this sort of thing.
38
106260
3000
à croire à ce genre de choses.
01:49
So what I want to talk about today is belief.
39
109260
3000
Et c'est ce dont je veux vous parler aujourd'hui : la croyance.
01:52
I want to believe,
40
112260
2000
Je veux croire,
01:54
and you do too.
41
114260
2000
et vous aussi.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Et en fait, ma théorie à ce sujet est que
01:58
belief is the natural state of things.
43
118260
2000
croire est l'état naturel des choses.
02:00
It is the default option. We just believe.
44
120260
2000
C'est l'option par défaut. On croit, simplement.
02:02
We believe all sorts of things.
45
122260
2000
On croit des tas de choses.
02:04
Belief is natural;
46
124260
2000
La croyance est naturelle.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
L'incrédulité, le scepticisme, la science ne sont pas naturels.
02:08
It's more difficult.
48
128260
2000
C'est plus difficile.
02:10
It's uncomfortable to not believe things.
49
130260
2000
C'est inconfortable de ne pas croire aux choses.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Alors qui veut, comme Fox Mulder dans "X-Files,"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
croire aux OVNIs ? Et bien nous tous.
02:18
and the reason for that is because
52
138260
2000
Et c'est parce que
02:20
we have a belief engine in our brains.
53
140260
3000
nous avons un moteur à croyance dans nos cerveaux.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
A la base, nous sommes des primates qui cherchent des modèles.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Nous connectons les points : A est connecté à B ; B est connecté à C.
02:29
And sometimes A really is connected to B,
56
149260
3000
Et quelques fois A est vraiment connecté à B.
02:32
and that's called association learning.
57
152260
2000
Et c'est l'apprentissage par associations.
02:34
We find patterns, we make those connections,
58
154260
3000
Nous trouvons des modèles, nous faisons des connexions,
02:37
whether it's Pavlov's dog here
59
157260
2000
que ce soit le cas du chien de Pavlov
02:39
associating the sound of the bell with the food,
60
159260
3000
qui associe le bruit de la cloche à la nourriture,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
et donc le son de la cloche le fait saliver,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
ou que ce soit le rat de Skinner
02:46
in which he's having an association
63
166260
2000
qui associe son comportement
02:48
between his behavior and a reward for it,
64
168260
2000
et la récompense qu'il obtient
02:50
and therefore he repeats the behavior.
65
170260
2000
et donc répète ce comportement.
02:52
In fact, what Skinner discovered
66
172260
2000
En fait, ce que Skinner a découvert
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
c'est que si vous mettez un pigeon dans une boite comme celle-ci,
02:57
and he has to press one of these two keys,
68
177260
2000
et il doit appuyer sur un de ces deux boutons,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
et il essaye de comprendre le modèle à suivre,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
et vous lui donnez de petites récompenses dans la boite, là.
03:03
if you just randomly assign rewards
71
183260
3000
Si vous distribuez les récompenses de façon aléatoire,
03:06
such that there is no pattern,
72
186260
2000
et qu'il n'y a pas de modèle à suivre,
03:08
they will figure out any kind of pattern.
73
188260
2000
ils vont trouver n'importe quel type de modèle.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Et quoi que ce soit qu'ils faisaient avant de recevoir la récompense,
03:12
they repeat that particular pattern.
75
192260
2000
ils vont le refaire.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Parfois c'était même tourner deux fois sur soi-même dans le sens inverse des aiguilles d'une montre,
03:17
once clockwise and peck the key twice.
77
197260
3000
une fois dans le sens des aiguilles d'une montre et toucher le bouton deux fois.
03:20
And that's called superstition,
78
200260
2000
Et c'est ce que l'on appelle la superstition.
03:22
and that, I'm afraid,
79
202260
2000
Et ça, j'en ai peur,
03:24
we will always have with us.
80
204260
2000
nous l'aurons toujours en nous.
03:26
I call this process "patternicity" --
81
206260
2000
J'appelle cette démarche "modélisation",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
c'est-à-dire la tendance à trouver des modèles significatifs
03:30
in both meaningful and meaningless noise.
83
210260
3000
aussi bien dans du bruit significatif que dans du bruit non significatif.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Quand on eprocédons ainsi, on fait deux types d'erreurs.
03:36
A Type I error, or false positive,
85
216260
2000
Une erreur de Type I, ou faux positif,
03:38
is believing a pattern is real
86
218260
2000
est de croire que le modèle existe
03:40
when it's not.
87
220260
2000
quand ce n'est pas le cas.
03:42
Our second type of error is a false negative.
88
222260
2000
Le second type d'erreur est le faux négatif.
03:44
A Type II error is not believing
89
224260
2000
Une erreur de Type II est de ne pas croire qu'il y a un modèle
03:46
a pattern is real when it is.
90
226260
3000
quand il y en a vraiment un.
03:49
So let's do a thought experiment.
91
229260
2000
Alors faisons une petite expérience.
03:51
You are a hominid three million years ago
92
231260
2000
Vous êtes un humain il y a trois millions d'années
03:53
walking on the plains of Africa.
93
233260
3000
en train de marcher dans les plaines d'Afrique.
03:56
Your name is Lucy, okay?
94
236260
2000
Votre nom est Lucy, d'accord ?
03:58
And you hear a rustle in the grass.
95
238260
2000
Et vous entendez un bruissement dans l'herbe.
04:00
Is it a dangerous predator,
96
240260
2000
Est-ce un dangereux prédateur,
04:02
or is it just the wind?
97
242260
2000
ou simplement le vent ?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
La décision que vous allez prendre pourrait être la plus importante de votre vie.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Bon, si vous pensez que le bruissement vient d'un dangereux prédateur
04:10
and it turns out it's just the wind,
100
250260
2000
et que ce n'est que le vent,
04:12
you've made an error in cognition,
101
252260
2000
vous avez fait une erreur cognitive,
04:14
made a Type I error, false positive.
102
254260
2000
une erreur de Type I, un faux positif.
04:16
But no harm. You just move away.
103
256260
2000
Mais il n'y a pas de conséquences. Vous vous êtes juste éloigné.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Vous êtes plus prudent. Vous êtes plus vigilant.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
D'un autre côté, si vous pensez que le bruissement n'est que du vent,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
et que c'est en fait un prédateur,
04:25
you're lunch.
107
265260
2000
vous devenez le plat principal.
04:27
You've just won a Darwin award.
108
267260
2000
Vous venez de remporter le prix Darwin.
04:29
You've been taken out of the gene pool.
109
269260
2000
Vous venez de sortir de la sélection génétique.
04:31
Now the problem here is that
110
271260
2000
Maintenant le problème est que
04:33
patternicities will occur whenever the cost
111
273260
2000
la modélisation va se produire à chaque fois que les conséquences
04:35
of making a Type I error
112
275260
2000
de faire une erreur de Type I
04:37
is less than the cost of making a Type II error.
113
277260
2000
sont moindres que celles de faire une erreur de Type II.
04:39
This is the only equation in the talk by the way.
114
279260
2000
C'est la seule équation ici au fait.
04:41
We have a pattern detection problem
115
281260
2000
Nous avons un problème de détection de modèle
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
c'est-à-dire qu'évaluer la différence entre une erreur de Type I ou de Type II
04:46
is highly problematic,
117
286260
2000
est très problématique,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
spécialement quand il faut prendre une décision immédiate pour sa survie.
04:51
So the default position
119
291260
2000
Donc l'approche par défaut
04:53
is just: Believe all patterns are real --
120
293260
2000
est simplement "croire que tous les modèles sont réels."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Tous les bruits dans l'herbe sont des dangereux prédateurs
04:58
and not just the wind.
122
298260
2000
et pas simplement le vent."
05:00
And so I think that we evolved ...
123
300260
2000
Et donc je pense que nous avons évolué...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
qu'il y a eu une sélection naturelle par nos tendances aux croyances,
05:05
our pattern-seeking brain processes,
125
305260
2000
par notre réflexion pour identifier des modèles,
05:07
to always find meaningful patterns
126
307260
2000
à toujours définir des modèles clairs
05:09
and infuse them with these sort of
127
309260
2000
et y incorporer ces sortes
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
de toile de fond de danger auxquelles je reviendrai plus tard.
05:14
So for example, what do you see here?
129
314260
2000
Par exemple, que voyez-vous ici ?
05:16
It's a horse head, that's right.
130
316260
2000
C'est une tête de cheval, exactement.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Cela ressemble à un cheval, ce doit être un cheval.
05:20
That's a pattern.
132
320260
2000
C'est un modèle.
05:22
And is it really a horse?
133
322260
2000
Et est-ce vraiment un cheval ?
05:24
Or is it more like a frog?
134
324260
3000
Ou est-ce plutôt une grenouille ?
05:27
See, our pattern detection device,
135
327260
2000
Vous voyez, notre système de détection de modèle,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
qui semble être situé dans notre cortex cingulaire antérieur --
05:32
it's our little detection device there --
137
332260
3000
c'est là que se trouve notre appareil de détection --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
peut facilement être induit en erreur et c'est un problème.
05:37
For example, what do you see here?
139
337260
2000
Par exemple, qu'est-ce que vous voyez ici ?
05:39
Yes, of course, it's a cow.
140
339260
3000
Oui, bien sur c'est une vache.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Une fois que j'amorce le cerveau -- c'est l'amorçage cognitif --
05:45
once I prime the brain to see it,
142
345260
2000
une fois que je demande au cerveau de le voir,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
il revient, même sans le modèle que je lui ai imposé.
05:50
And what do you see here?
144
350260
2000
Et qu'est-ce que vous voyez ici ?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Certaines personnes voient un dalmatien.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Oui, le voilà. Et voilà l'amorce.
05:56
So when I go back without the prime,
147
356260
2000
Donc quand je recommence sans l'amorce,
05:58
your brain already has the model
148
358260
2000
votre cerveau a déjà acquis le modèle
06:00
so you can see it again.
149
360260
2000
et vous pouvez donc le voir à nouveau.
06:02
What do you see here?
150
362260
3000
Qu'est-ce que vous voyez ici ?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
La planète saturne. Oui, c'est bien.
06:07
How about here?
152
367260
3000
Et ici ?
06:10
Just shout out anything you see.
153
370260
3000
Criez simplement ce que vous voyez.
06:14
That's a good audience, Chris.
154
374260
2000
C'est un bon public, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Parce qu'il n'y a rien ici. Bon, c'est supposé n'être rien.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
C'est une expérience faite par Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
à l'Université d'Austin
06:24
on corporate environments
158
384260
2000
sur l'environnement des entreprises
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
et la question de savoir si les sentiments d'incertitude et d'absence de contrôle
06:29
makes people see illusory patterns.
160
389260
2000
poussent les gens à identifier des modèles qui n'existent pas.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
En fait, presque tout le monde voit la planète saturne.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Les gens que l'on met dans une situation où ils n'ont pas le sentiment de contrôler quoi que ce soit
06:37
are more likely to see something in this,
163
397260
2000
ont davantage tendance à voir quelque chose ici,
06:39
which is allegedly patternless.
164
399260
3000
alors qu'il n'est pas sensé y avoir quoi que ce soit.
06:42
In other words, the propensity to find these patterns
165
402260
3000
En d'autres termes, la tendance à trouver des modèles
06:45
goes up when there's a lack of control.
166
405260
3000
augmente quand il y a un manque de contrôle.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Par exemple, les joueurs de baseball sont connus pour être superstitieux
06:51
when they're batting,
168
411260
2000
quand ils battent,
06:53
but not so much when they're fielding.
169
413260
2000
et moins quand ils sont en défense.
06:55
Because fielders are successful
170
415260
2000
Parce que les joueurs dans le champ réussissent
06:57
90 to 95 percent of the time.
171
417260
2000
90 à 95 pour cent du temps.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Les meilleurs batteurs manquent 7 fois sur 10.
07:02
So their superstitions, their patternicities,
173
422260
2000
Alors leurs superstitions, leurs modélisations,
07:04
are all associated with feelings of lack of control
174
424260
3000
sont associées à un manque de contrôle
07:07
and so forth.
175
427260
2000
et ainsi de suite.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Que voyez-vous dans celle ci, dans ce champ ?
07:13
Anybody see an object there?
177
433260
2000
Quelqu'un voit voit-il un objet ?
07:15
There actually is something here,
178
435260
2000
En fait il y a quelque chose,
07:17
but it's degraded.
179
437260
2000
mais c'est dégradé.
07:19
While you're thinking about that,
180
439260
2000
Pendant que vous y réfléchissez,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
c'était une expérience réalisée par Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
une psychologue en Angleterre,
07:25
who showed subjects this degraded image
183
445260
2000
qui montrait à ses sujets cette image dégradée
07:27
and then ran a correlation between
184
447260
2000
et ensuite a calculé la corrélation entre
07:29
their scores on an ESP test:
185
449260
2000
leurs scores à un test d' ESP (perception extra sensorielle),
07:31
How much did they believe in the paranormal,
186
451260
2000
leur croyance dans le paranormal,
07:33
supernatural, angels and so forth.
187
453260
3000
le super-naturel, les anges etc.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Et ceux qui avaient un score élevé sur l'échelle d'EPS,
07:39
tended to not only see
189
459260
2000
avaient tendance, non seulement à voir
07:41
more patterns in the degraded images
190
461260
2000
davantage de formes dans les images dégradées,
07:43
but incorrect patterns.
191
463260
2000
mais des formes qui n'existaient pas.
07:45
Here is what you show subjects.
192
465260
2000
Voici ce que vous montrez aux sujets.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Le poisson est dégradé à 20 pour cent, 50 pour cent
07:50
and then the one I showed you,
194
470260
2000
et finalement celui que je vous montre,
07:52
70 percent.
195
472260
2000
à 70 pour cent.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Une expérience similaire a été faite par un autre psychologue suisse,
07:56
named Peter Brugger,
197
476260
2000
Peter Brugger,
07:58
who found significantly more meaningful patterns
198
478260
3000
qui a découvert que davantage de formes qui avaient un sens
08:01
were perceived on the right hemisphere,
199
481260
2000
étaient perçues dans l'hémisphère droit,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
par le champ visuel gauche, que dans l'hémisphère gauche.
08:06
So if you present subjects the images such
201
486260
2000
Donc si vous présentez des images aux sujets de façon
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
qu'elles arrivent dans l'hémisphère droit plutôt que dans le gauche,
08:11
then they're more likely to see patterns
203
491260
2000
alors il y a plus de chances qu'ils identifient des formes
08:13
than if you put it on the left hemisphere.
204
493260
2000
que si vous les mettez dans l'hémisphère gauche.
08:15
Our right hemisphere appears to be
205
495260
2000
Notre hémisphère droit semble donc être le lieu
08:17
where a lot of this patternicity occurs.
206
497260
2000
où beaucoup de modélisation prend place.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Donc ce que nous essayons de faire est de creuser le cerveau
08:21
to see where all this happens.
208
501260
2000
pour voir ce qu'y passe.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger et sa collègue Christine Mohr
08:26
gave subjects L-DOPA.
210
506260
2000
ont donné du L-DOPA aux sujets.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
Le L-DOPA comme vous le savez est un médicament utilisé pour traiter la maladie de Parkinson
08:31
which is related to a decrease in dopamine.
212
511260
3000
qui est liée à une baisse en dopamine.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA augmente la dopamine.
08:36
An increase of dopamine caused
214
516260
2000
Et les sujets qui avaient reçu de la dopamine
08:38
subjects to see more patterns
215
518260
2000
ont commencé à percevoir plus de formes
08:40
than those that did not receive the dopamine.
216
520260
2000
que ceux qui n'en avaient pas reçu.
08:42
So dopamine appears to be the drug
217
522260
2000
Il semble donc que la dopamine soit la substance
08:44
associated with patternicity.
218
524260
2000
associée avec la modélisation.
08:46
In fact, neuroleptic drugs
219
526260
2000
En fait les substances neuroleptiques
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
utilisées pour éliminer les comportements psychotiques,
08:50
things like paranoia, delusions
221
530260
2000
les choses comme la paranoïa, les illusions
08:52
and hallucinations,
222
532260
2000
et les hallucinations,
08:54
these are patternicities.
223
534260
2000
qui sont toutes des formes de modélisation.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Ce sont des modèles incorrects. Ce sont des faux-positifs. Ce sont des erreurs de Type I.
08:59
And if you give them drugs
225
539260
2000
Et si vous leur donnez des substances
09:01
that are dopamine antagonists,
226
541260
2000
qui sont des antagonistes de la dopamine,
09:03
they go away.
227
543260
2000
elles disparaissent.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Donc si vous diminuez le niveau de dopamine,
09:07
and their tendency to see
229
547260
2000
leur tendance à voir des modèles,
09:09
patterns like that decreases.
230
549260
2000
des formes, diminue.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
A l'opposé, les amphétamines comme la cocaïne
09:14
are dopamine agonists.
232
554260
2000
sont des agonistes de la dopamine.
09:16
They increase the amount of dopamine.
233
556260
2000
Ils augmentent la quantité de dopamine.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Donc vous avez tendance à être dans un état euphorique,
09:21
creativity, find more patterns.
235
561260
2000
créatif et à trouver davantage de formes.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
En fait, j'ai récemment vu Robin Williams
09:25
talk about how he thought he was much funnier
237
565260
2000
parler du fait qu'il était beaucoup plus drôle
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
quand il prenait de la cocaïne, quand il avait ce problème, que maintenant.
09:30
So perhaps more dopamine
239
570260
2000
Alors peut-être que plus de dopamine
09:32
is related to more creativity.
240
572260
2000
est liée à la créativité.
09:34
Dopamine, I think, changes
241
574260
2000
Je pense que la dopamine change
09:36
our signal-to-noise ratio.
242
576260
2000
notre rapport bruit-signal.
09:38
That is, how accurate we are
243
578260
2000
C'est-à-dire notre fiabilité
09:40
in finding patterns.
244
580260
2000
dans l'identification des modèles.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Si il est trop bas, vous avez plus de chances de faire plus d'erreurs de Type II.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Vous ratez les vrais modèles. Vous ne voulez pas être trop sceptique.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Si vous êtes trop sceptique, vous allez manquer les idées vraiment intéressantes.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Bien équilibré, vous êtes créatif mais sans vous laisser trop avoir.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Trop élevé, et vous voyez des modèles partout.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
A chaque fois que quelqu'un vous regarde, vous pensez que les gens vous dévisagent.
10:00
You think people are talking about you.
251
600260
2000
Vous pensez que les gens parlent de vous.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Et si vous allez trop loin dans cette direction, c'est simplement
10:04
labeled as madness.
253
604260
2000
considéré comme de la folie.
10:06
It's a distinction perhaps we might make
254
606260
2000
C'est peut-être la distinction que l'on pourrait faire
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
entre deux prix Nobel, Richard Feynman
10:10
and John Nash.
256
610260
2000
et John Nash.
10:12
One sees maybe just the right number
257
612260
2000
L'un voit peut-être le bon nombre
10:14
of patterns to win a Nobel Prize.
258
614260
2000
de modèles pour gagner un prix Nobel.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
L'autre les voit aussi, mais peut-être même trop de modèles.
10:18
And we then call that schizophrenia.
260
618260
3000
Et alors on appelle ça la schizophrénie.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Donc le rapport bruit-signal nous pose un problème de détection de modèle.
10:24
And of course you all know exactly
262
624260
2000
Et bien sûr vous savez tous exactement
10:26
what this is, right?
263
626260
2000
ce que c'est, n'est-ce pas ?
10:28
And what pattern do you see here?
264
628260
2000
Et quelle forme voyez-vous ici ?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Encore une fois, c'est votre cortex cingulaire antérieur que je teste ici,
10:33
causing you conflicting pattern detections.
266
633260
3000
ce qui provoque chez vous des conflits de détections des formes.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Vous savez bien sûr que ce sont des chaussures Via Uno.
10:38
These are sandals.
268
638260
3000
Ce sont des sandales.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Voilà de beaux pieds je dois dire.
10:44
Maybe a little Photoshopped.
270
644260
2000
Peut-être un peu retouchés.
10:46
And of course, the ambiguous figures
271
646260
2000
Et bien sûr, les formes ambigües
10:48
that seem to flip-flop back and forth.
272
648260
2000
qui semblent basculer en avant et en arrière.
10:50
It turns out what you're thinking about a lot
273
650260
2000
En fait ce à quoi vous pensez beaucoup
10:52
influences what you
274
652260
2000
influence ce que
10:54
tend to see.
275
654260
2000
vous avez tendance à voir.
10:56
And you see the lamp here, I know.
276
656260
2000
Et je sais que vous voyez la lampe, là.
10:58
Because the lights on here.
277
658260
3000
A cause des lumières ici.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Bien sûr, grâce à la tendance écologiste
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
nous sommes tous sensibles à la situation désespérée des mammifères marins.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Donc ce que vous voyez dans cette image ambigüe
11:09
is, of course, the dolphins, right?
281
669260
2000
ce sont, bien sûr, les dauphins.
11:11
You see a dolphin here,
282
671260
2000
Vous voyez un dauphin là.
11:13
and there's a dolphin,
283
673260
2000
Et voilà un dauphin.
11:15
and there's a dolphin.
284
675260
2000
Et voilà un dauphin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
C'est la queue d'un dauphin là, vous voyez ?
11:20
(Laughter)
286
680260
3000
(rires)
11:25
If we can give you conflicting data, again,
287
685260
3000
Si on vous donne à nouveau des données conflictuelles,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
votre cortex cingulaire antérieur (ACC) va accélérer.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Si vous regardez en bas, ça va. Si vous regardez en haut, alors vous recevez des données conflictuelles.
11:34
And then we have to flip the image
290
694260
2000
Et il faut qu'on retourne l'image
11:36
for you to see that it's a set up.
291
696260
2000
pour que vous voyiez c'est un trucage.
11:40
The impossible crate illusion.
292
700260
2000
L'illusion de la boite impossible.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
C'est facile de tromper le cerveau en 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Alors vous dîtes, "Allez Shermer, n'importe qui peut faire ça
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
dans un cours de psycho pour débutant avec une illusion comme celle-là ."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Et bien voici l'illusion de la boite impossible en 3D
11:50
"impossible crate" illusion in 3D,
297
710260
3000
du regretté grand maître Jerry Andrus,
11:53
in which Jerry is standing inside
298
713260
2000
où Jerry se tient debout à l'intérieur de
11:55
the impossible crate.
299
715260
2000
la boite impossible.
11:57
And he was kind enough to post this
300
717260
2000
Et il a été assez gentil pour publier ceci
11:59
and give us the reveal.
301
719260
2000
et nous expliquer le truc.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Bien sûr c'est l'angle de l'appareil photo qui fait tout. Le photographe est là-bas.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Et cette planche semble passer au dessus de celle-là, et celle-ci au dessus de l'autre et ainsi de suite.
12:07
But even when I take it away,
304
727260
2000
Mais même quand je l'enlève,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
l'illusion est tellement puissante à cause de la façon dont nos que nos cerveaux
12:11
to find those certain kinds of patterns.
306
731260
3000
sont programmés pour voir certains type de formes.
12:14
This is a fairly new one
307
734260
2000
C'est une illusion assez nouvelle
12:16
that throws us off because of the conflicting patterns
308
736260
2000
qui nous induit en erreur à cause des formes conflictuelles
12:18
of comparing this angle with that angle.
309
738260
3000
quand on compare cet angle et cet angle.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
En fait, c'est exactement la même image mise côte à côte.
12:24
So what you're doing is comparing that angle
311
744260
2000
Alors ce que vous faîtes c'est de comparer cet angle
12:26
instead of with this one, but with that one.
312
746260
2000
avec celui-ci au lieu de celui-là.
12:28
And so your brain is fooled.
313
748260
2000
Et votre cerveau se fait avoir.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
A nouveau, votre système de détection des modèles a été induit en erreur.
12:32
Faces are easy to see
315
752260
2000
Les visages sont faciles à voir
12:34
because we have an additional evolved
316
754260
2000
parce que nous avons un programme avancé
12:36
facial recognition software
317
756260
2000
supplémentaire pour la reconnaissance faciale
12:38
in our temporal lobes.
318
758260
3000
dans nos lobes temporaux.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Voilà des figures gravées sur un rocher.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Je ne suis même pas sûr que ce soit --- ce pourrait être un montage.
12:47
But anyway, the point is still made.
321
767260
2000
Mais quoi qu'il en soit,la preuve est faite.
12:49
Now which one of these looks odd to you?
322
769260
2000
Maintenant lequel de ceux-ci vous paraît bizarre?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Vite, lequel paraît bizarre?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Celui sur la gauche. Okay. Alors je vais le retourner
12:55
so it'll be the one on the right.
325
775260
2000
donc il sera sur la droite.
12:57
And you are correct.
326
777260
2000
Et vous avez raison.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Un truc assez connu -- fait pour la première fois avec Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Maintenant ils passent d'un homme politique à l'autre tout le temps.
13:04
Well, why is this happening?
329
784260
2000
Bon, alors pourquoi est-ce que cela arrive ?
13:06
Well, we know exactly where it happens,
330
786260
2000
Et bien, nous savons exactement où cela se passe,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
dans le lobe temporal, juste de l'autre côté, presque au-dessus de votre oreille, là.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
Dans un petit ensemble qui s'appelle le gyrus fusiforme.
13:14
And there's two types of cells that do this,
333
794260
2000
Et il y a deux types de cellules qui font cela,
13:16
that record facial features either globally,
334
796260
3000
qui enregistrent les éléments faciaux soit globalement,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
soit spécialement ces grosses cellules qui réagissent rapidement
13:21
first look at the general face.
336
801260
2000
et regardent en premier la forme générale d'un visage.
13:23
So you recognize Obama immediately.
337
803260
2000
Et vous reconnaissez tout de suite Obama.
13:25
And then you notice something quite
338
805260
2000
Et ensuite vous remarquez qu'il y a quelque chose
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
d'un peu bizarre avec les yeux et la bouche.
13:29
Especially when they're upside down,
340
809260
2000
Spécialement quand ils sont à l'envers.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
C'est votre programme de reconnaissance faciale qui se met en route.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Maintenant j'ai dit plus tôt quand nous faisions notre petite expérience,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
que vous étiez un humain marchant dans les plaines d'Afrique.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Est-ce que c'est le vent ou un dangereux prédateur ?
13:42
What's the difference between those?
345
822260
2000
Quelle est la différence entre les deux ?
13:44
Well, the wind is inanimate;
346
824260
2000
Et bien le vent est inanimé ;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
le dangereux prédateur est un agent avec des intentions.
13:48
And I call this process agenticity.
348
828260
2000
Et j'appelle ce process l'agenticité.
13:50
That is the tendency to infuse patterns
349
830260
2000
C'est la tendance à donner aux modèles un sens,
13:52
with meaning, intention and agency,
350
832260
2000
une intention et un agent,
13:54
often invisible beings from the top down.
351
834260
3000
souvent des êtres invisibles qui descendent sur nous.
13:57
This is an idea that we got
352
837260
2000
C'est une idée qu'on a eu
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
d'un collègue TEDster ici, Dan Denett,
14:01
who talked about taking the intentional stance.
354
841260
2000
qui parlait de prendre le parti de l'intention.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Alors c'est ce genre de chose étendu pour expliquer, je pense, beaucoup de choses,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
les âmes, les esprits, les fantômes, les dieux, les démons, les anges,
14:09
aliens, intelligent designers,
357
849260
2000
les extra-terrestres, les créateurs intelligents,
14:11
government conspiracists
358
851260
2000
les gouvernements qui conspirent
14:13
and all manner of invisible agents
359
853260
2000
et toutes sortes d'agents invisibles
14:15
with power and intention, are believed
360
855260
2000
avec du pouvoir et une intention, qui sont considérés comme
14:17
to haunt our world and control our lives.
361
857260
2000
hantant notre monde et contrôlant nos vies.
14:19
I think it's the basis of animism
362
859260
2000
Je pense que c'est la base de l'animisme,
14:21
and polytheism and monotheism.
363
861260
3000
du polythéisme et du monothéisme.
14:24
It's the belief that aliens are somehow
364
864260
2000
C'est la croyance que les extra-terrestres sont
14:26
more advanced than us, more moral than us,
365
866260
2000
plus évolués que nous, plus moraux que nous,
14:28
and the narratives always are
366
868260
2000
et les récits disent toujours
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
qu'ils viennent d'en haut pour nous sauver et nous secourir.
14:33
The intelligent designer's always portrayed
368
873260
2000
Le créateur intelligent est toujours représenté
14:35
as this super intelligent, moral being
369
875260
3000
comme cet être moral, super intelligent,
14:38
that comes down to design life.
370
878260
2000
qui descend sur terre pour créer la vie.
14:40
Even the idea that government can rescue us --
371
880260
2000
Même l'idée que le gouvernement peut nous sauver.
14:42
that's no longer the wave of the future,
372
882260
2000
Ce n'est plus de la science fiction.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Mais je pense que c'est un genre d'agenticité,
14:46
projecting somebody up there,
374
886260
2000
le fait de projeter que quelqu'un là-haut,
14:48
big and powerful, will come rescue us.
375
888260
2000
de grand et puissant viendra nous sauver.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Et c'est aussi, je pense, la base des théories de conspiration.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Il y a quelqu'un caché derrière les décors qui tire les ficelles,
14:55
whether it's the Illuminati
378
895260
2000
que ce soient les Illuminati
14:57
or the Bilderbergers.
379
897260
2000
ou les Bilderbergers.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Mais c'est un problème de détection des modèles, n'est-ce pas ?
15:01
Some patterns are real and some are not.
381
901260
2000
Des modèles existent et d'autres non.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
Est-ce que JFK a été victime d'une conspiration ou d'un assassin isolé ?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Bon, si on va par là -- il y a toujours des gens --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
comme quand j'y ai été -- qui montrent où étaient les différents tireurs .
15:12
My favorite one was he was in the manhole.
385
912260
3000
Mon explication préférée est celui qui était caché dans l'égout
15:15
And he popped out at the last second, took that shot.
386
915260
3000
et il est sorti au dernier moment pour tirer.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Mais bien sûr Lincoln a été victime d'une conspiration.
15:20
So we can't just uniformly dismiss
388
920260
2000
Donc on ne peut pas se contenter d'ignorer
15:22
all patterns like that.
389
922260
2000
tous les modèles d'emblée.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Parce qu'il faut bien reconnaître que certains modèles sont réels.
15:26
Some conspiracies really are true.
391
926260
2000
Certains complots sont réels.
15:30
Explains a lot, maybe.
392
930260
2000
Cela explique peut-être beaucoup de choses.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Et il y a une théorie de conspiration derrière le 11 septembre. C'est une conspiration.
15:35
We did a whole issue on it.
394
935260
2000
On a fait tout un sujet là-dessus.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 membres d'Al Queda qui complotent pour faire voler des avions dans des immeubles
15:39
constitutes a conspiracy.
396
939260
2000
constituent une conspiration.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Mais ce n'est pas ce que les "partisans de la vérité sur le 11 septembre" pensent.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Ils pensent que c'était un coup monté de l'intérieur par l'administration Bush.
15:46
Well, that's a whole other lecture.
399
946260
2000
Bon, il y a de quoi faire une autre présentation la-dessus.
15:48
You know how we know that 9/11
400
948260
2000
Mais savez-vous comment on sait que le 11 septembre
15:50
was not orchestrated by the Bush administration?
401
950260
2000
n'a pas été organisé par l'administration Bush ?
15:52
Because it worked.
402
952260
2000
Parce que ça a marché.
15:54
(Laughter)
403
954260
3000
(rires)
15:57
(Applause)
404
957260
3000
(applaudissements)
16:00
So we are natural-born dualists.
405
960260
2000
Donc nous sommes des dualistes de naissance.
16:02
Our agenticity process comes from
406
962260
2000
Notre process d'agenticité vient du fait
16:04
the fact that we can enjoy movies like these.
407
964260
2000
que nous pouvons apprécier des films comme ceux là.
16:06
Because we can imagine, in essence,
408
966260
2000
Parce que, dans le fond, nous pouvons
16:08
continuing on.
409
968260
2000
imaginer continuer.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Nous savons que si vous stimulez le lobe temporal,
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
vous pouvez créer une sensation d'expérience "hors du corps",
16:14
near-death experiences,
412
974260
2000
près de la mort,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
ce que vous pouvez obtenir simplement en touchant le lobe temporal là avec une électrode.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Ou vous pouvez le faire par perte de conscience,
16:21
by accelerating in a centrifuge.
415
981260
2000
en subissant l'accélération d'une centrifugeuse.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Vous avez une hypoxie, ou une baisse d'oxygène.
16:26
And the brain then senses
417
986260
2000
Et le cerveau sent bien alors
16:28
that there's an out-of-body experience.
418
988260
2000
qu'il y a une expérience "hors du corps".
16:30
You can use -- which I did, went out and did --
419
990260
2000
Vous pouvez utiliser -- ce que j'ai fait --
16:32
Michael Persinger's God Helmet,
420
992260
2000
le "Casque de Dieu" de Michael Persinger
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
qui bombarde vos lobes temporaux avec des ondes électro-magnétiques.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Et ça vous donne une idée de c'est qu'est une expérience "hors du corps".
16:39
So I'm going to end here with a short video clip
423
999260
2000
Donc je vais finir avec une courte vidéo
16:41
that sort of brings all this together.
424
1001260
2000
qui en quelque sorte capture bien le tout.
16:43
It's just a minute and a half.
425
1003260
2000
Ca dure juste une minute et demi.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
La vidéo résume le tout avec le pouvoir de l'espérance et le pouvoir de la croyance.
16:48
Go ahead and roll it.
427
1008260
2000
Alllez-y, lancez la vidéo.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Narrateur : C'est le cadre choisi pour les fausses auditions
16:53
for an advert for lip balm.
429
1013260
2000
pour une pub pour du baume pour les lèvres.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
La femme : Nous espérons pouvoir en utiliser une partie
16:57
in a national commercial, right?
431
1017260
2000
pour un spot national.
16:59
And this is test on some lip balms
432
1019260
2000
Et voilà les tests de quelques baumes pour les lèvres
17:01
that we have over here.
433
1021260
2000
que nous avons ici.
17:03
And these are our models who are going to help us,
434
1023260
2000
Et voici les modèles qui vont nous aider,
17:05
Roger and Matt.
435
1025260
2000
Roger et Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Et nous avons notre propre baume pour les lèvres,
17:09
and we have a leading brand.
437
1029260
2000
et nous avons une marque connue.
17:11
Would you have any problem
438
1031260
2000
Est-ce que cela vous poserait un problème
17:13
kissing our models to test it?
439
1033260
2000
d'embrasser nos modèles pour le test ?
17:15
Girl: No.
440
1035260
2000
La fille : Non.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
La femme : Non, vraiment ? (La fille : Non) La femme : Vous pensez que ça irait.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
La fille : Ce serait sans problème. (La femme : Okay.)
17:21
So this is a blind test.
443
1041260
3000
Donc c'est un test aveugle.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Je vais vous demander de commencer
17:26
and put a blindfold on.
445
1046260
2000
et de mettre un bandeau sur vos yeux.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
OK, pouvez-vous voir quoi que ce soit maintenant ?
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Tirez-le vers le bas pour ne pas voir par en dessous. (La fille : d'accord.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
La femme : Vous êtes complètement aveugle maintenant, n'est-ce pas ?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
La fille : Oui. (La femme : D'accord.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Maintenant ce que nous allons étudier dans ce test,
17:41
is how it protects your lips,
451
1061260
3000
c'est comment vos ça protège vos lèvres,
17:44
the texture, right,
452
1064260
2000
oui, la texture, c'est ça,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
et peut être voir si vous pouvez distinguer un parfum ou pas.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
La fille : D'accord. (La femme : Avez-vous déjà fait un test avec un baiser ?)
17:52
Girl: No.
455
1072260
2000
La fille : Non.
17:54
Woman: Take a step here.
456
1074260
2000
La femme : avancez d'un pas.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
OK. Maintenant avancez vos lèvres.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Comme si vous alliez faire un bisou et penchez-vous un petit peu.
18:06
(Music)
459
1086260
4000
(Musique)
18:10
(Laughter)
460
1090260
5000
(rires)
18:19
(Laughter)
461
1099260
3000
(rires)
18:30
Woman: Okay.
462
1110260
2000
D'accord.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Et alors Jennifer, comment était-ce ?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer : Bien.
18:36
(Laughter)
465
1116260
7000
(rires)
18:43
Girl: Oh my God!
466
1123260
2000
La fille : Oh mon dieu.
18:45
(Laughter)
467
1125260
4000
(rires)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer : Merci beaucoup. Merci. Merci.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7