The pattern behind self-deception | Michael Shermer

729,942 views ・ 2010-06-14

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Roberta Mura Revisore: Giacomo Boschi
00:16
So since I was here last in '06,
0
16260
3000
Dall’ultima volta che sono stato qui nel 2006,
00:19
we discovered that global climate change
1
19260
2000
abbiamo scoperto che il cambiamento climatico globale
00:21
is turning out to be a pretty serious issue,
2
21260
2000
si sta rivelando una questione piuttosto seria.
00:23
so we covered that fairly extensively
3
23260
2000
Per cui abbiamo ampiamente trattato l’argomento
00:25
in Skeptic magazine.
4
25260
2000
nel periodico “Skeptic”. (Scettico, ndt)
00:27
We investigate all kinds
5
27260
2000
Noi investighiamo qualsiasi tipo
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
di controversia scientifica e quasi scientifica.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Ma a quanto pare non c’è bisogno di preoccuparsi di alcuna di queste cose
00:34
because the world's going to end in 2012.
8
34260
2000
perché il mondo finirà nel 2012.
00:36
Another update:
9
36260
2000
Un altro aggiornamento:
00:38
You will recall I introduced you guys
10
38260
2000
vi ricorderete che presentai a tutti voi
00:40
to the Quadro Tracker.
11
40260
2000
il “Quadro Tracker”.
00:42
It's like a water dowsing device.
12
42260
2000
È come un dispositivo da rabdomanti.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Si tratta di un pezzo di plastica cavo con un antenna ruotante.
00:47
And you walk around, and it points to things.
14
47260
2000
Tu cammini, e quello indica delle cose.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Ad esempio, se stai cercando della marijuana nell’armadietto di uno studente,
00:52
it'll point right to somebody.
16
52260
2000
punterà dritto a qualcuno.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, scusi. (Risate).
00:56
This particular one that was given to me
18
56260
2000
In particolare, questo che è stato regalato a me
00:58
finds golf balls,
19
58260
2000
trova le palline da golf,
01:00
especially if you're at a golf course
20
60260
2000
specialmente se ti trovi in un campo da golf
01:02
and you check under enough bushes.
21
62260
3000
e cerchi sotto un numero sufficiente di cespugli.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Bene, sotto la categoria “Che danno possono fare dispositivi sciocchi come questo?”
01:08
this device, the ADE 651,
23
68260
3000
questo dispositivo, l’ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
è stato venduto al governo Iracheno
01:14
for 40,000 dollars apiece.
25
74260
2000
per 40.000 $ al pezzo.
01:16
It's just like this one, completely worthless,
26
76260
2000
Ed è esattamente come questo, completamente inutile,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
nel senso che avrebbe dovuto presumibilmente funzionare per via di
01:20
magnetic ion attraction,"
28
80260
3000
“attrazione elettrostatica magnetica di ioni",
01:24
which translates to
29
84260
2000
che si traduce in
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
“idiozia pseudoscientifica” -- sarebbe la parola adatta --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
- ossia un gruppo di parole che suonano bene,
01:31
but it does absolutely nothing.
32
91260
2000
ma che non significano assolutamente niente.
01:33
In this case, at trespass points,
33
93260
3000
In questo caso, ai punti di controllo,
01:36
allowing people to go through
34
96260
2000
permettere alle persone di passare
01:38
because your little tracker device said they were okay,
35
98260
3000
perché il dispositivo diceva che erano a posto,
01:41
actually cost lives.
36
101260
3000
costa vite umane.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Per cui si corrono dei rischi con la pseudoscienza,
01:46
in believing in this sort of thing.
38
106260
3000
credendo in questo genere di cose.
01:49
So what I want to talk about today is belief.
39
109260
3000
Per cui oggi voglio parlarvi del credere.
01:52
I want to believe,
40
112260
2000
Io voglio credere,
01:54
and you do too.
41
114260
2000
e anche voi lo volete.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Ed infatti, credo che la mia tesi sia che
01:58
belief is the natural state of things.
43
118260
2000
credere sia lo stato naturale delle cose.
02:00
It is the default option. We just believe.
44
120260
2000
È l’opzione di base. Semplicemente, noi crediamo.
02:02
We believe all sorts of things.
45
122260
2000
E crediamo in qualsiasi tipo di cose.
02:04
Belief is natural;
46
124260
2000
Credere è naturale.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
L’incredulità, lo scetticismo, la scienza, non sono naturali.
02:08
It's more difficult.
48
128260
2000
Sono più difficili.
02:10
It's uncomfortable to not believe things.
49
130260
2000
È scomodo non credere in qualcosa.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Per cui come Fox Mulder in “X-Files”,
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
chi vuole credere negli UFO? Be', noi tutti.
02:18
and the reason for that is because
52
138260
2000
E la ragione è che
02:20
we have a belief engine in our brains.
53
140260
3000
abbiamo un motore della credenza nei nostri cervelli.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
In sostanza, siamo dei primati cercatori di schemi.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Uniamo i punti: A è connesso a B; B è connesso a C.
02:29
And sometimes A really is connected to B,
56
149260
3000
Ed a volte A è veramente connesso a B.
02:32
and that's called association learning.
57
152260
2000
Questo è l'apprendimento per associazione.
02:34
We find patterns, we make those connections,
58
154260
3000
Troviamo schemi e facciamo connessioni,
02:37
whether it's Pavlov's dog here
59
157260
2000
che si tratti dei cani di Pavlov
02:39
associating the sound of the bell with the food,
60
159260
3000
che associano il suono di una campanella al cibo,
02:42
and then he salivates to the sound of the bell,
61
162260
2000
producendo poi saliva al solo suono della campanella,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
o che si tratti delle cavie di Skinner,
02:46
in which he's having an association
63
166260
2000
in cui si ha un'associazione
02:48
between his behavior and a reward for it,
64
168260
2000
tra il suo comportamento ed una ricompensa,
02:50
and therefore he repeats the behavior.
65
170260
2000
con conseguente ripetizione del comportamento.
02:52
In fact, what Skinner discovered
66
172260
2000
Di fatto, ciò che Skinner ha scoperto
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
è che se si mette un piccione in una scatola come questa,
02:57
and he has to press one of these two keys,
68
177260
2000
dove deve premere uno di due bottoni,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
e cerca di immaginare quale sia lo schema,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
e gli si mette una piccola ricompensa nella scatola.
03:03
if you just randomly assign rewards
71
183260
3000
Se si assegnano in maniera casuale delle ricompense
03:06
such that there is no pattern,
72
186260
2000
in modo tale che non ci sia uno schema,
03:08
they will figure out any kind of pattern.
73
188260
2000
si immagineranno un qualsiasi tipo di schema.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
E qualsiasi cosa essi stessero facendo prima di ottenere la ricompensa,
03:12
they repeat that particular pattern.
75
192260
2000
tale cosa viene ripetuta.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
A volte poteva trattarsi di girare su se stessi due volte in senso antiorario,
03:17
once clockwise and peck the key twice.
77
197260
3000
una volta in senso orario e quindi beccare due volte sul bottone.
03:20
And that's called superstition,
78
200260
2000
E questa si chiama superstizione.
03:22
and that, I'm afraid,
79
202260
2000
E mi spiace ma
03:24
we will always have with us.
80
204260
2000
sarà sempre con noi.
03:26
I call this process "patternicity" --
81
206260
2000
Chiamo questo processo “schemicità",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
cioè, la tendenza a trovare uno schema con significato
03:30
in both meaningful and meaningless noise.
83
210260
3000
sia nel rumore con significato che senza.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Quando attiviamo questo processo, commettiamo due tipi di errori.
03:36
A Type I error, or false positive,
85
216260
2000
L’errore di Tipo 1, o falso positivo,
03:38
is believing a pattern is real
86
218260
2000
si ha quando si crede che uno schema sia reale
03:40
when it's not.
87
220260
2000
quando non lo è.
03:42
Our second type of error is a false negative.
88
222260
2000
Il secondo tipo di errore è un falso negativo.
03:44
A Type II error is not believing
89
224260
2000
L’errore di Tipo II si ha quando non si crede
03:46
a pattern is real when it is.
90
226260
3000
che uno schema sia corretto quando lo è.
03:49
So let's do a thought experiment.
91
229260
2000
Facciamo un esperimento mentale.
03:51
You are a hominid three million years ago
92
231260
2000
Sei un ominide, 3 milioni di anni fa,
03:53
walking on the plains of Africa.
93
233260
3000
che cammina in una piana in Africa.
03:56
Your name is Lucy, okay?
94
236260
2000
Il tuo nome è Lucy, ok?
03:58
And you hear a rustle in the grass.
95
238260
2000
Senti un fruscio tra l’erba.
04:00
Is it a dangerous predator,
96
240260
2000
Si tratta di un predatore pericoloso
04:02
or is it just the wind?
97
242260
2000
o è solo il vento?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
La decisione che stai per prendere potrebbe essere la più importante della tua vita.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Allora, se pensi che il fruscio nell'erba sia un pericoloso predatore
04:10
and it turns out it's just the wind,
100
250260
2000
e di fatto è solo il vento,
04:12
you've made an error in cognition,
101
252260
2000
hai commesso un errore di cognizione,
04:14
made a Type I error, false positive.
102
254260
2000
hai commesso un errore di Tipo I, un falso positivo.
04:16
But no harm. You just move away.
103
256260
2000
Non ci sono danni. Semplicemente ti sposti,
04:18
You're more cautious. You're more vigilant.
104
258260
2000
fai più attenzione e sei più vigile.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
D’altro canto, se credi che si tratti solo di vento
04:22
and it turns out it's a dangerous predator,
106
262260
3000
ma in realtà si rivela essere un predatore,
04:25
you're lunch.
107
265260
2000
tu diventi un pranzo.
04:27
You've just won a Darwin award.
108
267260
2000
Hai appena vinto un premio Darwin.
04:29
You've been taken out of the gene pool.
109
269260
2000
Sei stato tirato fuori dal pool genetico.
04:31
Now the problem here is that
110
271260
2000
Il problema a questo punto è che
04:33
patternicities will occur whenever the cost
111
273260
2000
la schemicità si ripeterà ogni volta che il costo
04:35
of making a Type I error
112
275260
2000
di commettere un errore di Tipo I
04:37
is less than the cost of making a Type II error.
113
277260
2000
è minore del costo di commettere un errore di Tipo II.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Questa è l’unica equazione del discorso, comunque.
04:41
We have a pattern detection problem
115
281260
2000
Abbiamo un problema di rilevamento dello schema
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
cioè, valutare la differenza tra un errore di tipo I e di tipo II
04:46
is highly problematic,
117
286260
2000
è veramente problematico,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
specialmente quando è questione di secondi ed è un caso di vita o di morte.
04:51
So the default position
119
291260
2000
Per cui la posizione di base è
04:53
is just: Believe all patterns are real --
120
293260
2000
“credere che tutti gli schemi siano veri”.
04:55
All rustles in the grass are dangerous predators
121
295260
3000
Qualsiasi fruscio tra l’erba è un predatore pericoloso
04:58
and not just the wind.
122
298260
2000
e non semplicemente il vento.
05:00
And so I think that we evolved ...
123
300260
2000
Per cui credo che ci siamo evoluti...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
c'è stata una selezione naturale della propensione dei motori del credere,
05:05
our pattern-seeking brain processes,
125
305260
2000
i nostri processi cerebrali che cercano schemi,
05:07
to always find meaningful patterns
126
307260
2000
a trovare sempre degli schemi con significato
05:09
and infuse them with these sort of
127
309260
2000
ed infonderli di agenti predatori
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
od intenzionali sui quali ritornerò più in là.
05:14
So for example, what do you see here?
129
314260
2000
Per esempio, che cosa vedete qui?
05:16
It's a horse head, that's right.
130
316260
2000
È una testa di cavallo, corretto.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Sembra un cavallo. Deve essere un cavallo.
05:20
That's a pattern.
132
320260
2000
Quello è uno schema.
05:22
And is it really a horse?
133
322260
2000
Ed è veramente un cavallo?
05:24
Or is it more like a frog?
134
324260
3000
O si tratta di una rana?
05:27
See, our pattern detection device,
135
327260
2000
Vedete, il nostro dispositivo di rilevamento di schemi,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
che si trova nella corteccia cingolata anteriore --
05:32
it's our little detection device there --
137
332260
3000
è quel piccolo dispositivo di rilevamento lì –
05:35
can be easily fooled, and this is the problem.
138
335260
2000
si fa prendere in giro facilmente, e questo è il problema.
05:37
For example, what do you see here?
139
337260
2000
Per esempio, cosa vedete lì?
05:39
Yes, of course, it's a cow.
140
339260
3000
Si, certo, è una mucca.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Una volta che preparo il cervello – si chiama preparazione cognitiva –
05:45
once I prime the brain to see it,
142
345260
2000
una volta che preparo il cervello a vedere ciò,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
esce di nuovo anche senza lo schema che inizialmente avevo imposto.
05:50
And what do you see here?
144
350260
2000
E cosa vedete lì?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Alcune persone vedono un dalmata.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Si, eccolo lì. Ed ecco la preparazione cognitiva.
05:56
So when I go back without the prime,
147
356260
2000
Quindi quando ci ritorno senza la preparazione,
05:58
your brain already has the model
148
358260
2000
il cervello ha già il modello
06:00
so you can see it again.
149
360260
2000
per cui potete vederlo di nuovo.
06:02
What do you see here?
150
362260
3000
Cosa vedete lì?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Il pianeta saturno. Sì, molto bene.
06:07
How about here?
152
367260
3000
E lì?
06:10
Just shout out anything you see.
153
370260
3000
Sì, gridate qualsiasi cosa voi pensate di vedere.
06:14
That's a good audience, Chris.
154
374260
2000
È una buona platea questa, Chris
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Perché non c’è niente qui. Be’, presumibilmente non c’è niente.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Questo è un esperimento condotto da Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
all'università del Texas di Austin
06:24
on corporate environments
158
384260
2000
sugli ambienti aziendali
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
per verificare se le percezioni di incertezza e mancanza di controllo
06:29
makes people see illusory patterns.
160
389260
2000
fanno sì che le persone vedano degli schemi illusori.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Cioè, quasi tutti vedono il pianeta Saturno.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Le persone messe in condizione di avere percezioni di mancanza di controllo
06:37
are more likely to see something in this,
163
397260
2000
è più probabile che vedano qualcosa in questo,
06:39
which is allegedly patternless.
164
399260
3000
che è in teoria privo di ogni schema.
06:42
In other words, the propensity to find these patterns
165
402260
3000
In altre parole, la propensione a trovare questi schemi
06:45
goes up when there's a lack of control.
166
405260
3000
aumenta quando manca il controllo.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Per esempio, i giocatori di baseball sono notoriamente considerati superstiziosi
06:51
when they're batting,
168
411260
2000
quando vanno alla battuta,
06:53
but not so much when they're fielding.
169
413260
2000
ma non altrettanto quando giocano in difesa.
06:55
Because fielders are successful
170
415260
2000
Questo perché i giocatori in difesa non sbagliano
06:57
90 to 95 percent of the time.
171
417260
2000
il 90-95% delle volte.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
I migliori battitori sbagliano 7 volte su 10.
07:02
So their superstitions, their patternicities,
173
422260
2000
Per cui le loro superstizioni, le loro schemicità,
07:04
are all associated with feelings of lack of control
174
424260
3000
sono tutte associate a percezioni di mancanza di controllo
07:07
and so forth.
175
427260
2000
e così via.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Cosa vedete in questo particolare campo?
07:13
Anybody see an object there?
177
433260
2000
C’è qualcuno che vede un oggetto qui?
07:15
There actually is something here,
178
435260
2000
In effetti c’è qualcosa qui,
07:17
but it's degraded.
179
437260
2000
ma è deteriorato.
07:19
While you're thinking about that,
180
439260
2000
Mentre ci pensate,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
si tratta di un esperimento condotto da Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
una psicologa in Inghilterra,
07:25
who showed subjects this degraded image
183
445260
2000
che ha mostrato a degli individui questa immagine degradata
07:27
and then ran a correlation between
184
447260
2000
e quindi ha cercato una correlazione
07:29
their scores on an ESP test:
185
449260
2000
con i loro punteggi in un test ESP,
07:31
How much did they believe in the paranormal,
186
451260
2000
che misura quanto si creda nel paranormale,
07:33
supernatural, angels and so forth.
187
453260
3000
sovrannaturale, angeli etc...
07:36
And those who scored high on the ESP scale,
188
456260
3000
E coloro i quali hanno avuto un punteggio alto nella scala ESP,
07:39
tended to not only see
189
459260
2000
tendevano non solo a vedere
07:41
more patterns in the degraded images
190
461260
2000
più schemi in quella immagine degradata,
07:43
but incorrect patterns.
191
463260
2000
ma anche schemi sbagliati.
07:45
Here is what you show subjects.
192
465260
2000
Ecco cosa viene mostrato agli individui.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Il pesce è degradato al 20%, al 50%
07:50
and then the one I showed you,
194
470260
2000
e infine quello che ho mostrato a voi,
07:52
70 percent.
195
472260
2000
al 70%.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Un esperimento simile è stato condotto da un'altro psicologo svizzero
07:56
named Peter Brugger,
197
476260
2000
di nome Peter Brugger
07:58
who found significantly more meaningful patterns
198
478260
3000
che ha scoperto che molti più schemi significativi
08:01
were perceived on the right hemisphere,
199
481260
2000
sono percepiti nell’emisfero destro,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
tramite il campo visivo sinistro, piuttosto che nell'emisfero sinistro.
08:06
So if you present subjects the images such
201
486260
2000
Per cui se mostri a degli individui le immagini in maniera tale
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
che raggiungano l'emisfero destro piuttosto che il sinistro,
08:11
then they're more likely to see patterns
203
491260
2000
vi sono più probabilità che trovino uno schema
08:13
than if you put it on the left hemisphere.
204
493260
2000
che se raggiungano l'emisfero sinistro.
08:15
Our right hemisphere appears to be
205
495260
2000
Il nostro emisfero destro sembra essere il luogo
08:17
where a lot of this patternicity occurs.
206
497260
2000
dove un sacco di queste schemicità succedono.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Quello che stiamo cercando di fare è esaminare il cervello
08:21
to see where all this happens.
208
501260
2000
per vedere dove tutto questo succede.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger e la sua collega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
hanno somministrato a degli individui della L-DOPA
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
La L-DOPA è una medicina, come sapete, somministrata per trattare il morbo di Parkinson,
08:31
which is related to a decrease in dopamine.
212
511260
3000
che è dovuto ad una riduzione di dopamina.
08:34
L-DOPA increases dopamine.
213
514260
2000
La L-DOPA aumenta la dopamina.
08:36
An increase of dopamine caused
214
516260
2000
Ed un incremento di dopamina ha fatto sì
08:38
subjects to see more patterns
215
518260
2000
che gli individui vedessero più schemi
08:40
than those that did not receive the dopamine.
216
520260
2000
di coloro che non avevano ricevuto la dopamina.
08:42
So dopamine appears to be the drug
217
522260
2000
Per cui la dopamina sembrerebbe essere la droga
08:44
associated with patternicity.
218
524260
2000
associata alla schemicità.
08:46
In fact, neuroleptic drugs
219
526260
2000
Infatti, le medicine neurolettiche
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
che sono usate per eliminare comportamenti psicotici
08:50
things like paranoia, delusions
221
530260
2000
cose come la paranoia, le illusioni
08:52
and hallucinations,
222
532260
2000
e le allucinazioni,
08:54
these are patternicities.
223
534260
2000
si tratta di schemicità.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Si tratta di schemi sbagliati. Sono falsi positivi. Errori di tipo I.
08:59
And if you give them drugs
225
539260
2000
E se gli date delle medicine
09:01
that are dopamine antagonists,
226
541260
2000
che sono antagonisti della dopamina
09:03
they go away.
227
543260
2000
spariscono.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Cioè, diminuendo l'ammontare di dopamina
09:07
and their tendency to see
229
547260
2000
la loro tendenza a vedere
09:09
patterns like that decreases.
230
549260
2000
schemi come quelli diminuisce.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
D'altro canto, le anfetamine come la cocaina
09:14
are dopamine agonists.
232
554260
2000
sono agonisti della dopamina.
09:16
They increase the amount of dopamine.
233
556260
2000
Incrementano l'ammontare di dopamina
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Per cui è più probabile trovarsi in uno stato euforico,
09:21
creativity, find more patterns.
235
561260
2000
creativi, trovare più connessioni.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Di fatto, ho di recente sentito Robin Williams
09:25
talk about how he thought he was much funnier
237
565260
2000
parlare di come pensasse di essere molto più divertente
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
quando si faceva di cocaina, quando aveva quel problema, che adesso.
09:30
So perhaps more dopamine
239
570260
2000
Per cui forse, più dopamina
09:32
is related to more creativity.
240
572260
2000
è legata a più creatività.
09:34
Dopamine, I think, changes
241
574260
2000
La dopamina, penso, cambia
09:36
our signal-to-noise ratio.
242
576260
2000
il nostro rapporto segnale-rumore
09:38
That is, how accurate we are
243
578260
2000
Cioè, quanto accurati siamo
09:40
in finding patterns.
244
580260
2000
nel trovare schemi.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Se è troppo basso, è più probabile che si commettano più errori di tipo II.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Si perdono gli schemi reali. Non si vuole essere troppo scettici.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Se si è troppo scettici, si perdono le idee veramente interessanti.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
In misura giusta, sei creativo ma non caschi per qualsiasi idiozia,
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Un livello troppo elevato e probabilmente si vedono schemi dappertutto.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Ogni volta che qualcuno ti guarda, credi che ti stiano osservando.
10:00
You think people are talking about you.
251
600260
2000
Pensi che le persone stiano parlando di te.
10:02
And if you go too far on that, that's just simply
252
602260
2000
E se si spinge troppo in là, viene semplicemente
10:04
labeled as madness.
253
604260
2000
etichettata come pazzia.
10:06
It's a distinction perhaps we might make
254
606260
2000
Si tratta di una distinzione che probabilmente va fatta
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
tra due premi Nobel, Richard Feynman
10:10
and John Nash.
256
610260
2000
e John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Uno vede, forse, il numero esatto
10:14
of patterns to win a Nobel Prize.
258
614260
2000
di schemi per vincere un premio Nobel.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
L'altro pure, ma forse con troppi schemi.
10:18
And we then call that schizophrenia.
260
618260
3000
Ed è ciò che chiamiamo schizofrenia.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Per cui il rapporto segnale-rumore ci mette davanti ad un problema di individuazione di schemi
10:24
And of course you all know exactly
262
624260
2000
E naturalmente, tutti voi sapete esattamente
10:26
what this is, right?
263
626260
2000
che cosa è questo, giusto.
10:28
And what pattern do you see here?
264
628260
2000
E che cosa vedete qui?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Sto mettendo nuovamente alla prova la vostra corteccia cingolata, qui,
10:33
causing you conflicting pattern detections.
266
633260
3000
portandovi ad individuare degli schemi in conflitto.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Sapete, naturalmente, che si tratta di scarpe Via Uno.
10:38
These are sandals.
268
638260
3000
Sono dei sandali.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Devo dire, dei piedi molto sexy.
10:44
Maybe a little Photoshopped.
270
644260
2000
Forse un po' ritoccati con photoshop.
10:46
And of course, the ambiguous figures
271
646260
2000
E naturalmente, le immagini ambigue,
10:48
that seem to flip-flop back and forth.
272
648260
2000
che sembrano saltellare avanti ed indietro.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Pare che quello a cui pensiamo spesso
10:52
influences what you
274
652260
2000
influenzi quello che
10:54
tend to see.
275
654260
2000
tendiamo a vedere.
10:56
And you see the lamp here, I know.
276
656260
2000
E so che qui vedete la lampada.
10:58
Because the lights on here.
277
658260
3000
perché la luce è accesa qui.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
naturalmente, grazie al movimento ambientalista,
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
siamo tutti sensibili alla causa dei mammiferi marini.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Per cui quello che vedete in questa immagine ambigua,
11:09
is, of course, the dolphins, right?
281
669260
2000
sono, naturalmente, dei delfini, giusto?
11:11
You see a dolphin here,
282
671260
2000
Vedete un delfino qui.
11:13
and there's a dolphin,
283
673260
2000
E c'è un delfino.
11:15
and there's a dolphin.
284
675260
2000
E c'è un delfino.
11:17
That's a dolphin tail there, guys.
285
677260
3000
E c'è una coda di delfino qui, ragazzi.
11:20
(Laughter)
286
680260
3000
(Risate)
11:25
If we can give you conflicting data, again,
287
685260
3000
Se possiamo darvi nuovamente, dei dati in conflitto tra loro,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
la vostra ACC andrà in iperattività.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Se guardate qui giù, va bene. Se guardate qui su, avete informazioni in conflitto.
11:34
And then we have to flip the image
290
694260
2000
E dobbiamo girare l'immagine
11:36
for you to see that it's a set up.
291
696260
2000
per vedere che si tratta di una montatura.
11:40
The impossible crate illusion.
292
700260
2000
L'illusione della scatola impossibile.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
È facile prendersi gioco del cervello in 2 dimensioni.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Potete dire, "Ma dai Shermer, chiunque può farlo
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
in un testo di psicologia di base con un illusione come quella"
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Be', questo è il grande Jerry Andrus, da anziano
11:50
"impossible crate" illusion in 3D,
297
710260
3000
con la sua illusione tridimensionale "scatola impossibile",
11:53
in which Jerry is standing inside
298
713260
2000
nella quale Jerry si trova in piedi dentro
11:55
the impossible crate.
299
715260
2000
alla scatola impossibile.
11:57
And he was kind enough to post this
300
717260
2000
E fu così gentile da aggiungere questo
11:59
and give us the reveal.
301
719260
2000
e rivelarci la verità.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Naturalmente l'angolo della fotografia è tutto. Il fotografo è là.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
E questo bordo sembra sovrapporsi a questo, e questo qui a quest'altro, e così via,
12:07
But even when I take it away,
304
727260
2000
ma anche quando lo tolgo,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
l'illusione è così forte, a dimostrazione di come i nostri cervelli siano fatti
12:11
to find those certain kinds of patterns.
306
731260
3000
per trovare quel tipo di schemi.
12:14
This is a fairly new one
307
734260
2000
Questo è uno relativamente nuovo
12:16
that throws us off because of the conflicting patterns
308
736260
2000
che ci confonde a causa degli schemi contrastanti
12:18
of comparing this angle with that angle.
309
738260
3000
nel confrontare questo angolo con quell'angolo.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
In effetti, è la stessa immagine affiancata.
12:24
So what you're doing is comparing that angle
311
744260
2000
Quello che state facendo è confrontare quell'angolo
12:26
instead of with this one, but with that one.
312
746260
2000
invece che con questo, con quell'angolo.
12:28
And so your brain is fooled.
313
748260
2000
Per cui il vostro cervello è preso in giro.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
E di nuovo, i vostri strumenti di identificazione schemi sono stati presi in giro.
12:32
Faces are easy to see
315
752260
2000
le facce sono facili da vedere
12:34
because we have an additional evolved
316
754260
2000
perché abbiamo un programma aggiuntivo
12:36
facial recognition software
317
756260
2000
ed evoluto di riconoscimento facciale,
12:38
in our temporal lobes.
318
758260
3000
nei nostri lobi temporali.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Ecco alcune facce in una roccia.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Tra l'altro non sono nemmeno sicuro -- questa foto potrebbe essere ritoccata al computer
12:47
But anyway, the point is still made.
321
767260
2000
Ma comunque, il punto è sempre valido.
12:49
Now which one of these looks odd to you?
322
769260
2000
Adesso, quale di questi vi sembra strano?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Spontaneamente, quale vi sembra strano?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Quello a sinistra. Ok, allora lo giro
12:55
so it'll be the one on the right.
325
775260
2000
cosicché sia quello a destra.
12:57
And you are correct.
326
777260
2000
E avete ragione.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Un'illusione abbastanza famosa -- realizzata per la prima volta con Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
adesso, scambiano i politici ogni volta.
13:04
Well, why is this happening?
329
784260
2000
Ebbene, perché questo succede?
13:06
Well, we know exactly where it happens,
330
786260
2000
Be', sappiamo esattamente dove avviene,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
nel lobo temporale, giusto dietro l'orecchio.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
In una piccola struttura chiamata il giro fusiforme.
13:14
And there's two types of cells that do this,
333
794260
2000
E ci sono due tipi di cellule che fanno questo,
13:16
that record facial features either globally,
334
796260
3000
che registrano i lineamenti facciali, o globalmente,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
o specificamente; queste cellule a fuoco rapido
13:21
first look at the general face.
336
801260
2000
guardano dapprima alla faccia in generale.
13:23
So you recognize Obama immediately.
337
803260
2000
Per cui riconoscete Obama immediatamente.
13:25
And then you notice something quite
338
805260
2000
E poi notate qualcosa di strano
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
intorno agli occhi e alla bocca.
13:29
Especially when they're upside down,
340
809260
2000
Specialmente quando sono sotto sopra.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
State utilizzando il programma di riconoscimento facciale in quel caso.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Come dicevo prima, nel nostro piccolo esperimento mentale,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
siete un ominide che cammina nella pianura Africana.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Si tratta del vento o di un pericoloso predatore?
13:42
What's the difference between those?
345
822260
2000
Qual è la differenza tra i due?
13:44
Well, the wind is inanimate;
346
824260
2000
Be', il vento è inanimato,
13:46
the dangerous predator is an intentional agent.
347
826260
2000
il predatore pericoloso è un agente intenzionale.
13:48
And I call this process agenticity.
348
828260
2000
E questo processo lo chiamo "agenticità"
13:50
That is the tendency to infuse patterns
349
830260
2000
ossia la tendenza a infondere negli schemi
13:52
with meaning, intention and agency,
350
832260
2000
significato, intenzione ed azione,
13:54
often invisible beings from the top down.
351
834260
3000
spesso esseri invisibili dal migliore al peggiore.
13:57
This is an idea that we got
352
837260
2000
Questa è un'idea che abbiamo
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
ricevuto da un collega di TED, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
che ha parlato di attitudini mentali.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Si tratta di una idea estesa che spiega molte cose,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
anime, spiriti, fantasmi, dei, demoni, angeli,
14:09
aliens, intelligent designers,
357
849260
2000
alieni, designer intelligenti,
14:11
government conspiracists
358
851260
2000
cospirazioni governative
14:13
and all manner of invisible agents
359
853260
2000
e tutti i tipi di agenti invisibili
14:15
with power and intention, are believed
360
855260
2000
con poteri ed intenzioni, si crede
14:17
to haunt our world and control our lives.
361
857260
2000
che seguano il nostro mondo e controllino le nostre vite.
14:19
I think it's the basis of animism
362
859260
2000
Credo che si tratti della base dell'animismo
14:21
and polytheism and monotheism.
363
861260
3000
e del politeismo e monoteismo.
14:24
It's the belief that aliens are somehow
364
864260
2000
Si tratta della convinzione che gli alieni siano in qualche modo
14:26
more advanced than us, more moral than us,
365
866260
2000
più avanzati di noi, più etici di noi,
14:28
and the narratives always are
366
868260
2000
e la storia è sempre la stessa,
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
ossia che stanno venendo a salvarci e soccorrerci dall'alto.
14:33
The intelligent designer's always portrayed
368
873260
2000
Il designer intelligente è sempre descritto
14:35
as this super intelligent, moral being
369
875260
3000
come questo essere intelligentissimo ed etico
14:38
that comes down to design life.
370
878260
2000
che viene qui per creare la vita.
14:40
Even the idea that government can rescue us --
371
880260
2000
Anche l'idea che il governo ci possa salvare.
14:42
that's no longer the wave of the future,
372
882260
2000
Non è più l'onda del futuro.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Ma si tratta credo, di un tipo di agenticità,
14:46
projecting somebody up there,
374
886260
2000
la proiezione di qualcuno lì in alto,
14:48
big and powerful, will come rescue us.
375
888260
2000
grande e potente che verrà a salvarci.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Ed è anche la base, credo, delle teorie cospirative.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
C'è qualcuno che di nascosto tira le fila,
14:55
whether it's the Illuminati
378
895260
2000
che si tratti degli Illuminati
14:57
or the Bilderbergers.
379
897260
2000
o del gruppo Bilderberg.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Ma si tratta di un problema di identificazione di schemi, giusto?
15:01
Some patterns are real and some are not.
381
901260
2000
Alcuni schemi sono veri, altri non lo sono.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
JFK fu assassinato da una cospirazione o da un assassino?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Be' se ci andate -- ci sono persone lì ogni giorno --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
che ti mostrano dove i diversi cecchini si trovavano.
15:12
My favorite one was he was in the manhole.
385
912260
3000
La mia teoria preferita è che si trovasse in un tombino.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Ed è saltato fuori all'ultimo momento, ed ha sparato.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
E naturalmente, Lincoln fu assassinato da una cospirazione.
15:20
So we can't just uniformly dismiss
388
920260
2000
Per cui non possiamo scartare uniformemente
15:22
all patterns like that.
389
922260
2000
tutti gli schemi come quello.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Perché, ammettiamolo, alcuni schemi sono veri.
15:26
Some conspiracies really are true.
391
926260
2000
Alcune cospirazioni sono realmente vere.
15:30
Explains a lot, maybe.
392
930260
2000
Spiega molte cose, forse.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
E l'11 settembre ha una teoria cospirativa. È una cospirazione.
15:35
We did a whole issue on it.
394
935260
2000
Ci abbiamo dedicato tutto un numero.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 membri di Al Qaida che tramano di abbattere degli aerei su degli edifici
15:39
constitutes a conspiracy.
396
939260
2000
costituisce una cospirazione.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Ma non è quello che "il movimento per la verità" pensa.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Loro credono che si sia trattato di un lavoro interno dell'amministrazione Bush.
15:46
Well, that's a whole other lecture.
399
946260
2000
Be', si tratta di una chiave di lettura completamente differente.
15:48
You know how we know that 9/11
400
948260
2000
Ma voi sapete come sappiamo che l'11 settembre
15:50
was not orchestrated by the Bush administration?
401
950260
2000
non fu orchestrato dall'amministrazione Bush?
15:52
Because it worked.
402
952260
2000
Perché funzionò.
15:54
(Laughter)
403
954260
3000
(Risate)
15:57
(Applause)
404
957260
3000
(Applausi)
16:00
So we are natural-born dualists.
405
960260
2000
Siamo dei dualisti nati,
16:02
Our agenticity process comes from
406
962260
2000
Il nostro processo di agenticità viene
16:04
the fact that we can enjoy movies like these.
407
964260
2000
dal fatto che possiamo goderci film come questi.
16:06
Because we can imagine, in essence,
408
966260
2000
Perché in sostanza, possiamo immaginare
16:08
continuing on.
409
968260
2000
di continuare.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Sappiamo che, se stimoliamo il lobo temporale,
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
si può creare una sensazione di esperienza fuori dal corpo,
16:14
near-death experiences,
412
974260
2000
o di esperienze di pre-morte,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
cosa che può essere fatta semplicemente toccando con un elettrodo il lobo temporale qui.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
O si può fare tramite perdita di coscienza,
16:21
by accelerating in a centrifuge.
415
981260
2000
tramite accelerazione in una centrifuga.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Ti trovi in ipossia, o basso livello di ossigeno,
16:26
And the brain then senses
417
986260
2000
ed il cervello registra
16:28
that there's an out-of-body experience.
418
988260
2000
un'esperienza fuori dal corpo.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Si può usare -- cosa che ho fatto, sono uscito e ho fatto --
16:32
Michael Persinger's God Helmet,
420
992260
2000
il casco di Dio di Michael Persinger,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
che bombarda i tuoi lobi temporali con delle onde elettromagnetiche
16:36
And you get a sense of out-of-body experience.
422
996260
3000
e a te sembra di essere fuori dal corpo.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Termino qui lasciandovi con un video
16:41
that sort of brings all this together.
424
1001260
2000
che in qualche modo riassume tutto.
16:43
It's just a minute and a half.
425
1003260
2000
Si tratta di un minuto e mezzo.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Mette tutto insieme, il potere della speranza e di convinzione.
16:48
Go ahead and roll it.
427
1008260
2000
Mandate il video.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Narratore: questo è il luogo scelto per una falsa audizione
16:53
for an advert for lip balm.
429
1013260
2000
per una pubblicità per un burro di cacao.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Donna: Speriamo di poter usare una parte di questo
16:57
in a national commercial, right?
431
1017260
2000
per una pubblicità nazionale.
16:59
And this is test on some lip balms
432
1019260
2000
Si tratta di un test su alcuni burri di cacao
17:01
that we have over here.
433
1021260
2000
che abbiamo qui.
17:03
And these are our models who are going to help us,
434
1023260
2000
E questi sono i modelli che ci aiuteranno,
17:05
Roger and Matt.
435
1025260
2000
Roger e Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Qui abbiamo il nostro burro di cacao,
17:09
and we have a leading brand.
437
1029260
2000
ed abbiamo una marca popolare.
17:11
Would you have any problem
438
1031260
2000
Sarebbe un problema per te
17:13
kissing our models to test it?
439
1033260
2000
baciare i nostri modelli per provarlo?
17:15
Girl: No.
440
1035260
2000
Ragazza: No.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
-Non sarebbe un problema? -No. -Credi che vada bene.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Ragazza: Benissimo. Donna: Ok.
17:21
So this is a blind test.
443
1041260
3000
Questo è un test cieco.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Ti chiederò di iniziare
17:26
and put a blindfold on.
445
1046260
2000
mettendo una benda.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Ora vedi qualcosa? Ragazza: No.
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Tiralo giù, cosicché tu non possa nemmeno vedere in basso. Ragazza:OK.
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Donna: non vedi niente adesso, giusto?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Ragazza: Si. Donna:OK.
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Bene, quello che voglio scoprire con questo test
17:41
is how it protects your lips,
451
1061260
3000
è come protegge le tue labbra,
17:44
the texture, right,
452
1064260
2000
la consistenza, ok?
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
e possibilmente se distingui alcun sapore o no?
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Ragazza: OK. Donna: Hai mai fatto un test con bacio in vita tua?
17:52
Girl: No.
455
1072260
2000
Ragazza: No.
17:54
Woman: Take a step here.
456
1074260
2000
Donna: Fai un passo avanti.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
ok, adesso voglio che tu sporga le tue labbra.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Sporgi le labbra in maniera chiara e netta, ok?
18:06
(Music)
459
1086260
4000
(Musica)
18:10
(Laughter)
460
1090260
5000
(Risate)
18:19
(Laughter)
461
1099260
3000
(Risate)
18:30
Woman: Okay.
462
1110260
2000
OK.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Allora Jennifer, come ti è sembrato?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Buono.
18:36
(Laughter)
465
1116260
7000
(Risate)
18:43
Girl: Oh my God!
466
1123260
2000
Ragazza: Oh mio Dio!
18:45
(Laughter)
467
1125260
4000
(Risate)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer. Grazie mille. Grazie a tutti. Grazie.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7