The pattern behind self-deception | Michael Shermer

Michael Shermer: El patrón detrás del auto-engaño.

729,912 views

2010-06-14 ・ TED


New videos

The pattern behind self-deception | Michael Shermer

Michael Shermer: El patrón detrás del auto-engaño.

729,912 views ・ 2010-06-14

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Geo Mangiaterra Revisor: Jesus Nuevo-Chiquero
00:16
So since I was here last in '06,
0
16260
3000
Desde que estuve aquí en 2006
00:19
we discovered that global climate change
1
19260
2000
descubrimos que el cambio climático global
00:21
is turning out to be a pretty serious issue,
2
21260
2000
se estaba transformando en algo serio.
00:23
so we covered that fairly extensively
3
23260
2000
Por eso lo cubrimos ampliamente
00:25
in Skeptic magazine.
4
25260
2000
en la revista Skeptic.
00:27
We investigate all kinds
5
27260
2000
Investigamos todos los tipos
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
de controversias científicas y semi científicas.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Pero resulta que no debemos preocuparnos por nada de esto
00:34
because the world's going to end in 2012.
8
34260
2000
porque el mundo se acabará en 2012.
00:36
Another update:
9
36260
2000
Otra noticia es que
00:38
You will recall I introduced you guys
10
38260
2000
recordarán que les presenté
00:40
to the Quadro Tracker.
11
40260
2000
el Quadro Tracker.
00:42
It's like a water dowsing device.
12
42260
2000
Es como un dispositivo que echa agua
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
pero es sólo un pedazo de plástico hueco con una antena que gira,
00:47
And you walk around, and it points to things.
14
47260
2000
y caminas y le apuntas a las cosas.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Como si estuvieras buscando marihuana en el armario de un estudiante,
00:52
it'll point right to somebody.
16
52260
2000
y lo apuntas hacia alguien.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Disculpe. (Risas)
00:56
This particular one that was given to me
18
56260
2000
Este dispositivo en particular
00:58
finds golf balls,
19
58260
2000
es para encontrar pelotas de golf,
01:00
especially if you're at a golf course
20
60260
2000
especialmente si estás en un campo de golf
01:02
and you check under enough bushes.
21
62260
3000
y buscas debajo de los arbustos.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Bien, bajo la categoría "¿Qué daño causa una cosa tonta como esta?"
01:08
this device, the ADE 651,
23
68260
3000
el dispositivo, el ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
fue vendido al gobierno iraquí
01:14
for 40,000 dollars apiece.
25
74260
2000
por 40 mil dólares cada uno.
01:16
It's just like this one, completely worthless,
26
76260
2000
Es igual que este, no tiene ningún valor,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
y supuestamente funciona por "atracción
01:20
magnetic ion attraction,"
28
80260
3000
iónica magnética electrostática",
01:24
which translates to
29
84260
2000
que se traduce como
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"bobada pseudocientífica", sería una palabra amable;
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
donde unes varias palabras que suenan bien
01:31
but it does absolutely nothing.
32
91260
2000
pero no sirve para nada.
01:33
In this case, at trespass points,
33
93260
3000
En este caso, si en los puntos de frontera
01:36
allowing people to go through
34
96260
2000
se permite que la gente pase
01:38
because your little tracker device said they were okay,
35
98260
3000
porque el rastreador dice que está bien
01:41
actually cost lives.
36
101260
3000
en verdad cuesta vidas.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Entonces hay peligro en la pesudociencia,
01:46
in believing in this sort of thing.
38
106260
3000
en creer en este tipo de cosas.
01:49
So what I want to talk about today is belief.
39
109260
3000
Por eso hoy quiero hablar de la creencia.
01:52
I want to believe,
40
112260
2000
Quiero creer,
01:54
and you do too.
41
114260
2000
y tú también.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Y de hecho creo que mi tesis es que
01:58
belief is the natural state of things.
43
118260
2000
la creencia es parte natural de las cosas.
02:00
It is the default option. We just believe.
44
120260
2000
Es la opción por defecto. Simplemente creemos.
02:02
We believe all sorts of things.
45
122260
2000
Creemos en todo tipo de cosas.
02:04
Belief is natural;
46
124260
2000
La creencia es natural.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
La incredulidad, el escepticismo y la ciencia no son naturales.
02:08
It's more difficult.
48
128260
2000
Es más difícil.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Es incómodo no creer en cosas.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Como Fox Mulder en "Expediente X"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
¿quién quiere creen en los OVNIs? Todos queremos.
02:18
and the reason for that is because
52
138260
2000
Y el motivo es porque
02:20
we have a belief engine in our brains.
53
140260
3000
tenemos un motor de creencia en nuestros cerebros.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
Básicamente somos primates buscadores de patrones.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Conectamos los puntos: A se conecta con B, B se conecta con C.
02:29
And sometimes A really is connected to B,
56
149260
3000
Y a veces A sí se conecta con B.
02:32
and that's called association learning.
57
152260
2000
Eso se llama aprendizaje por asociación.
02:34
We find patterns, we make those connections,
58
154260
3000
Encontramos patrones y hacemos esas conexiones,
02:37
whether it's Pavlov's dog here
59
157260
2000
ya se trate del perro de Pavlov
02:39
associating the sound of the bell with the food,
60
159260
3000
que asocia el sonido de la campana con la comida
02:42
and then he salivates to the sound of the bell,
61
162260
2000
y luego saliva con el sonido de la campana;
02:44
or whether it's a Skinnerian rat,
62
164260
2000
o que se trate de la rata de Skinner,
02:46
in which he's having an association
63
166260
2000
donde hace una asociación
02:48
between his behavior and a reward for it,
64
168260
2000
entre el comportamiento y la recompensa por ello
02:50
and therefore he repeats the behavior.
65
170260
2000
y por lo tanto repite el comportamiento.
02:52
In fact, what Skinner discovered
66
172260
2000
De hecho, lo que Skinner descubrió
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
es que si pones una paloma en una caja como esta,
02:57
and he has to press one of these two keys,
68
177260
2000
y tiene que presionar una de estas teclas,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
e intentar descubrir el patrón,
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
y se le da una recompensa en la caja.
03:03
if you just randomly assign rewards
71
183260
3000
Si se asignan recompensas al azar
03:06
such that there is no pattern,
72
186260
2000
para que no haya un patrón,
03:08
they will figure out any kind of pattern.
73
188260
2000
encontrará cualquier tipo de patrón.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Y lo que sea que hacía antes de la recompensa,
03:12
they repeat that particular pattern.
75
192260
2000
lo repetirá.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
A veces era dar dos vueltas en sentido antihorario,
03:17
once clockwise and peck the key twice.
77
197260
3000
una vez en sentido horario y presionar la tecla dos veces.
03:20
And that's called superstition,
78
200260
2000
Y eso se llama superstición.
03:22
and that, I'm afraid,
79
202260
2000
Y me temo que eso
03:24
we will always have with us.
80
204260
2000
siempre lo tendremos entre nosotros.
03:26
I call this process "patternicity" --
81
206260
2000
A este proceso lo llamo "patronicidad",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
es decir, es la tendencia a encontrar patrones significativos
03:30
in both meaningful and meaningless noise.
83
210260
3000
en ruido con y sin significado.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Cuando realizamos este proceso cometemos dos tipos de errores.
03:36
A Type I error, or false positive,
85
216260
2000
El error de tipo 1 o falso positivo,
03:38
is believing a pattern is real
86
218260
2000
que es creer que un patrón es real
03:40
when it's not.
87
220260
2000
cuando no lo es.
03:42
Our second type of error is a false negative.
88
222260
2000
Y el segundo tipo de error es el falso negativo.
03:44
A Type II error is not believing
89
224260
2000
El error de tipo 2 es no creer
03:46
a pattern is real when it is.
90
226260
3000
en un patrón cuando es real.
03:49
So let's do a thought experiment.
91
229260
2000
Hagamos un experimento de reflexión.
03:51
You are a hominid three million years ago
92
231260
2000
Supón que eres un homínido hace 3 millones de años
03:53
walking on the plains of Africa.
93
233260
3000
que camina por las llanuras de África.
03:56
Your name is Lucy, okay?
94
236260
2000
Tu nombre es Lucy, ¿bien?
03:58
And you hear a rustle in the grass.
95
238260
2000
Oyes un crujido en la hierba.
04:00
Is it a dangerous predator,
96
240260
2000
¿Se trata de un depredador peligroso
04:02
or is it just the wind?
97
242260
2000
o es sólo el viento?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Tu próxima decisión podría ser la más importante de tu vida.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Si piensas que el crujido en la hierba es un depredador peligroso
04:10
and it turns out it's just the wind,
100
250260
2000
pero resulta ser el viento,
04:12
you've made an error in cognition,
101
252260
2000
has cometido un error de cognición,
04:14
made a Type I error, false positive.
102
254260
2000
un error de tipo 1, un falso positivo.
04:16
But no harm. You just move away.
103
256260
2000
Pero no sucede nada, simplemente te alejas.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Estás más cauteloso, más alerta.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Por otro lado, si crees que el crujido en la hierba es el viento,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
pero se trata de un depredador peligroso,
04:25
you're lunch.
107
265260
2000
eres el almuerzo.
04:27
You've just won a Darwin award.
108
267260
2000
Te acabas de ganar un premio Darwin.
04:29
You've been taken out of the gene pool.
109
269260
2000
Te han sacado del acervo genético.
04:31
Now the problem here is that
110
271260
2000
El problema aquí es que
04:33
patternicities will occur whenever the cost
111
273260
2000
la patronicidad ocurre cuando el costo
04:35
of making a Type I error
112
275260
2000
de cometer un error de tipo 1
04:37
is less than the cost of making a Type II error.
113
277260
2000
es menor que el costo de cometer un error de tipo 2.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Es la única ecuación de la charla.
04:41
We have a pattern detection problem
115
281260
2000
Tenemos un problema para detectar el patrón
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
y es que evaluar la diferencia entre un error de tipo 1 y de tipo 2
04:46
is highly problematic,
117
286260
2000
es en verdad problemático.
04:48
especially in split-second, life-and-death situations.
118
288260
3000
En especial en situaciones de vida o muerte y en una fracción de segundo.
04:51
So the default position
119
291260
2000
Por eso la postura por defecto
04:53
is just: Believe all patterns are real --
120
293260
2000
es "creer que todos los patrones son reales".
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Todos los crujidos en la hierba son depredadores peligrosos
04:58
and not just the wind.
122
298260
2000
y no sólo el viento".
05:00
And so I think that we evolved ...
123
300260
2000
Por eso pienso que evolucionamos...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
había una selección natural para la tendencia de nuestros motores de creencia,
05:05
our pattern-seeking brain processes,
125
305260
2000
nuestros procesos cerebrales buscadores de patrones,
05:07
to always find meaningful patterns
126
307260
2000
de encontrar siempre patrones significativos
05:09
and infuse them with these sort of
127
309260
2000
e infundirlos con esta especie de
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
agentes depredadores o intencionales de los que hablaré luego.
05:14
So for example, what do you see here?
129
314260
2000
Por eso, por ejemplo, ¿qué ven aquí?
05:16
It's a horse head, that's right.
130
316260
2000
Es la cabeza de un caballo, correcto.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Si parece un caballo debe ser un caballo.
05:20
That's a pattern.
132
320260
2000
Ese es el patrón.
05:22
And is it really a horse?
133
322260
2000
Pero, ¿es en verdad un caballo?
05:24
Or is it more like a frog?
134
324260
3000
¿O se parece más a una rana?
05:27
See, our pattern detection device,
135
327260
2000
¿Lo ven? Nuestro dispositivo de detección de patrones,
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
que al parecer se encuentra en la corteza cingular anterior
05:32
it's our little detection device there --
137
332260
3000
(allí está nuestro dispositivo de detección)
05:35
can be easily fooled, and this is the problem.
138
335260
2000
puede ser engañado fácilmente, y eso es un problema.
05:37
For example, what do you see here?
139
337260
2000
Por ejemplo, ¿qué ven aquí?
05:39
Yes, of course, it's a cow.
140
339260
3000
Por supuesto, es una vaca.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Si predispongo el cerebro -- predisposición cognitiva --
05:45
once I prime the brain to see it,
142
345260
2000
si predispongo el cerebro a ver algo,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
aparece nuevamente incluso sin el patrón que le impuse.
05:50
And what do you see here?
144
350260
2000
Y ¿qué ven aquí?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Algunos ve un perro dálmata.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Y allí está. Esa es la predisposición.
05:56
So when I go back without the prime,
147
356260
2000
Por eso cuando quito la predisposición,
05:58
your brain already has the model
148
358260
2000
el cerebro ya tiene el modelo
06:00
so you can see it again.
149
360260
2000
para que puedan verlo nuevamente.
06:02
What do you see here?
150
362260
3000
¿Qué ven aquí?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
El planeta Saturno. Bien.
06:07
How about here?
152
367260
3000
¿Y aquí?
06:10
Just shout out anything you see.
153
370260
3000
Sólo digan cualquier cosa que vean.
06:14
That's a good audience, Chris.
154
374260
2000
Qué buen público, Chris.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Porque no hay nada aquí. Supuestamente no hay nada.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Este es un experimento de Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
en la Universidad de Texas, Austin
06:24
on corporate environments
158
384260
2000
sobre ambientes corporativos
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
sobre si los sentimientos de incertidumbre y falta de control
06:29
makes people see illusory patterns.
160
389260
2000
causan que la gente vea patrones ilusorios.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Es decir, la mayoría ve el planeta Saturno.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
pero cuando las personas se sienten sin control
06:37
are more likely to see something in this,
163
397260
2000
es más probable que vean algo aquí,
06:39
which is allegedly patternless.
164
399260
3000
una figura supuestamente si patrón.
06:42
In other words, the propensity to find these patterns
165
402260
3000
En otras palabras, la tendencia a ver estos patrones
06:45
goes up when there's a lack of control.
166
405260
3000
aumenta cuando no hay control.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Por ejemplo, los jugadores de béisbol son muy supersticiosos
06:51
when they're batting,
168
411260
2000
cuando batean,
06:53
but not so much when they're fielding.
169
413260
2000
pero no tanto cuando están en el campo.
06:55
Because fielders are successful
170
415260
2000
Porque los jugadores de campo tienen éxito
06:57
90 to 95 percent of the time.
171
417260
2000
del 90 al 95 por ciento de las veces.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Y los mejores bateadores fallan 7 de 10 veces.
07:02
So their superstitions, their patternicities,
173
422260
2000
Por eso su superstición, su patronicidad,
07:04
are all associated with feelings of lack of control
174
424260
3000
está asociada con los sentimientos de falta de control
07:07
and so forth.
175
427260
2000
y así, sucesivamente.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
¿Qué ven en esta imagen, en este campo?
07:13
Anybody see an object there?
177
433260
2000
¿Alguien ve algún objeto aquí?
07:15
There actually is something here,
178
435260
2000
De hecho sí hay algo,
07:17
but it's degraded.
179
437260
2000
pero está degradado.
07:19
While you're thinking about that,
180
439260
2000
Mientras piensan en eso,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
este es un experimento de Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
una psicóloga de Inglaterra,
07:25
who showed subjects this degraded image
183
445260
2000
que le mostró esta imagen a algunas personas
07:27
and then ran a correlation between
184
447260
2000
y luego dedujo una correlación entre
07:29
their scores on an ESP test:
185
449260
2000
sus puntajes en una prueba de percepción extrasensorial,
07:31
How much did they believe in the paranormal,
186
451260
2000
cuánto creían en lo paranormal,
07:33
supernatural, angels and so forth.
187
453260
3000
lo sobrenatural, los ángeles y ese tipo de cosas.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Y aquellos con los puntajes más altos en la escala
07:39
tended to not only see
189
459260
2000
tendían no sólo a ver
07:41
more patterns in the degraded images
190
461260
2000
más patrones en las imágenes degradadas,
07:43
but incorrect patterns.
191
463260
2000
sino patrones incorrectos.
07:45
Here is what you show subjects.
192
465260
2000
Esto es lo que les mostró a las personas.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
El pez degradado en un 20%, un 50%
07:50
and then the one I showed you,
194
470260
2000
y luego el que les mostré,
07:52
70 percent.
195
472260
2000
en un 70%.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Otro psicólogo suizo llamado Peter Brugger realizó
07:56
named Peter Brugger,
197
476260
2000
un experimento similar.
07:58
who found significantly more meaningful patterns
198
478260
3000
Él descubrió que el hemisferio derecho percibe
08:01
were perceived on the right hemisphere,
199
481260
2000
patrones mucho más significativos,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
a través del campo visual izquierdo, que el hemisferio izquierdo.
08:06
So if you present subjects the images such
201
486260
2000
Por eso si le muestran esta imagen a una persona, tal que
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
acabe en el hemisferio derecho en lugar del izquierdo,
08:11
then they're more likely to see patterns
203
491260
2000
es más probable que vea patrones
08:13
than if you put it on the left hemisphere.
204
493260
2000
que si lo ponen en el hemisferio izquierdo.
08:15
Our right hemisphere appears to be
205
495260
2000
Al parecer, es en el hemisferio derecho
08:17
where a lot of this patternicity occurs.
206
497260
2000
donde ocurre la mayoría de esta patronicidad.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Por eso, intentamos ver en qué parte del cerebro
08:21
to see where all this happens.
208
501260
2000
ocurre todo esto.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger y su colega, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
le administraron L-dopa a un grupo de personas.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
La L-Dopa es un fármaco para trata la enfermedad de Parkinson,
08:31
which is related to a decrease in dopamine.
212
511260
3000
que está relacionada con una disminución de la dopamina,
08:34
L-DOPA increases dopamine.
213
514260
2000
La L-dopa aumenta la dopamina.
08:36
An increase of dopamine caused
214
516260
2000
Y el aumento de dopamina
08:38
subjects to see more patterns
215
518260
2000
causa que las persona vean más patrones
08:40
than those that did not receive the dopamine.
216
520260
2000
que aquellas que no recibieron dopamina.
08:42
So dopamine appears to be the drug
217
522260
2000
Parece que la dopamina es el fármaco
08:44
associated with patternicity.
218
524260
2000
asociado con la patronicidad.
08:46
In fact, neuroleptic drugs
219
526260
2000
Se usan fármacos neurolépticos
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
para eliminar el comportamiento psicótico,
08:50
things like paranoia, delusions
221
530260
2000
como la paranoia, el delirio
08:52
and hallucinations,
222
532260
2000
y las alucinaciones,
08:54
these are patternicities.
223
534260
2000
que son patronicidades.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Son patrones incorrectos. Falsos positivos. Errores de tipo1.
08:59
And if you give them drugs
225
539260
2000
Y si se administran fármacos
09:01
that are dopamine antagonists,
226
541260
2000
antagonistas de la dopamina,
09:03
they go away.
227
543260
2000
desaparecen.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Es decir, si se disminuye la cantidad de dopamina,
09:07
and their tendency to see
229
547260
2000
disminuye la tendencia a ver
09:09
patterns like that decreases.
230
549260
2000
patrones de ese tipo.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Por otro lado, las anfetaminas, como la cocaína,
09:14
are dopamine agonists.
232
554260
2000
son agonistas de la dopamina.
09:16
They increase the amount of dopamine.
233
556260
2000
Aumenten la cantidad de dopamina.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Por eso es más probable que se sientan eufóricos,
09:21
creativity, find more patterns.
235
561260
2000
creativos, que encuentren más patrones.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
De hecho, hace poco vi a Robin Williams
09:25
talk about how he thought he was much funnier
237
565260
2000
hablando sobre cómo era más cómico
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
cuando consumía cocaína, cuando tenía ese problema, que ahora.
09:30
So perhaps more dopamine
239
570260
2000
Tal vez una mayor cantidad de dopamina
09:32
is related to more creativity.
240
572260
2000
esté relacionada con una mayor creatividad.
09:34
Dopamine, I think, changes
241
574260
2000
Creo que la dopamina cambia
09:36
our signal-to-noise ratio.
242
576260
2000
nuestra relación señal-ruido.
09:38
That is, how accurate we are
243
578260
2000
Es decir, cómo de certero somos
09:40
in finding patterns.
244
580260
2000
encontrando patrones.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Si está muy baja, es probable que cometas más errores de tipo 2.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Te pierdes los patrones reales. Y no quieres ser demasiado escéptico.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Si eres demasiado escéptico, te perderás las ideas interesantes.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
En la medida justa, eres creativo y no crees mucho en tonterías.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Si está muy alta tal vez veas patrones en todos lados.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Cada vez que alguien te mire pensarás que te está analizando.
10:00
You think people are talking about you.
251
600260
2000
Pensarás que la gente habla de ti.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Y si se te va la mano con eso, simplemente
10:04
labeled as madness.
253
604260
2000
se clasifica como locura.
10:06
It's a distinction perhaps we might make
254
606260
2000
Tal vez debamos hacer una distinción
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
entre dos ganadores del Nobel, como Richard Feynman
10:10
and John Nash.
256
610260
2000
y John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Uno ve la cantidad adecuada
10:14
of patterns to win a Nobel Prize.
258
614260
2000
de patrones como para ganar el premio Nobel.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
El otro también, pero tal vez sean demasiados patrones
10:18
And we then call that schizophrenia.
260
618260
3000
y se lo llama esquizofrenia.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Por eso, la relación señal-ruido nos plantea un problema de detección de patrones.
10:24
And of course you all know exactly
262
624260
2000
Seguro que todos saben exactamente
10:26
what this is, right?
263
626260
2000
qué es esto, ¿verdad?
10:28
And what pattern do you see here?
264
628260
2000
¿Qué patrón ven aquí?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Otra vez estoy evaluando su corteza cingular anterior,
10:33
causing you conflicting pattern detections.
266
633260
3000
con una detección de patrones contradictoria.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Obviamente saben que estos son zapatos Via Uno.
10:38
These are sandals.
268
638260
3000
Son sandalias.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Debo decir que son pies muy seductores.
10:44
Maybe a little Photoshopped.
270
644260
2000
Tal vez un poco photoshopeados.
10:46
And of course, the ambiguous figures
271
646260
2000
Y por supuesto que son imágenes ambiguas
10:48
that seem to flip-flop back and forth.
272
648260
2000
que parecen dar un giro.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Resulta que lo que piensan más a menudo
10:52
influences what you
274
652260
2000
influencia lo que
10:54
tend to see.
275
654260
2000
tienden a ver.
10:56
And you see the lamp here, I know.
276
656260
2000
Y sé que aquí ven la lámpara
10:58
Because the lights on here.
277
658260
3000
porque tiene la luz encendida.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Y gracias al movimiento ambientalista
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
somos sensibles a la difícil situación de los mamíferos marinos.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Por eso lo que ven en esta imagen ambigua
11:09
is, of course, the dolphins, right?
281
669260
2000
es un delfín, por supuesto.
11:11
You see a dolphin here,
282
671260
2000
Aquí ven un delfín.
11:13
and there's a dolphin,
283
673260
2000
porque hay un delfín.
11:15
and there's a dolphin.
284
675260
2000
Hay un delfín.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Eso es una cola de delfín.
11:20
(Laughter)
286
680260
3000
(Risas)
11:25
If we can give you conflicting data, again,
287
685260
3000
Entonces si les damos información contradictoria,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
su corteza cingular anterior va a ponerse hiperactiva.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Si miran abajo está bien, pero si miran arriba la información es contradictoria.
11:34
And then we have to flip the image
290
694260
2000
Por eso tenemos que girar la imagen
11:36
for you to see that it's a set up.
291
696260
2000
para que vean que es una trampa.
11:40
The impossible crate illusion.
292
700260
2000
La ilusión del cajón imposible.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Es fácil burlar el cerebro en 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Por eso dirían "Shermer, todos podemos hacer eso
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
en un texto básico sobre la psique con ese tipo de ilusión".
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Pero aquí está el difunto Jerry Andrus
11:50
"impossible crate" illusion in 3D,
297
710260
3000
con la ilusión del "cajón imposible" en 3D
11:53
in which Jerry is standing inside
298
713260
2000
y Jerry está de pie dentro
11:55
the impossible crate.
299
715260
2000
del cajón imposible.
11:57
And he was kind enough to post this
300
717260
2000
Él fue amable y publicó esto
11:59
and give us the reveal.
301
719260
2000
y nos reveló la forma.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Todo está en el ángulo de la cámara. El fotógrafo está allí.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Y parece que esta tabla se superpone con la otra, y esta con la otra, etc.
12:07
But even when I take it away,
304
727260
2000
Pero aún cuando lo quito,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
la ilusión es muy fuerte por cómo están configurados nuestros cerebros
12:11
to find those certain kinds of patterns.
306
731260
3000
para encontrar ese tipo de patrones.
12:14
This is a fairly new one
307
734260
2000
Este es uno más nuevo
12:16
that throws us off because of the conflicting patterns
308
736260
2000
que nos despista debido a los patrones contradictorios
12:18
of comparing this angle with that angle.
309
738260
3000
de comparar este ángulo con aquel ángulo.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
De hecho, es la misma foto de lado a lado,
12:24
So what you're doing is comparing that angle
311
744260
2000
y están comparando aquel ángulo
12:26
instead of with this one, but with that one.
312
746260
2000
en lugar de este ángulo.
12:28
And so your brain is fooled.
313
748260
2000
Por eso engaña al cerebro.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Y una vez más engaña a su dispositivo de detección de patrones.
12:32
Faces are easy to see
315
752260
2000
Es fácil ver rostros
12:34
because we have an additional evolved
316
754260
2000
porque contamos con un evolucionado
12:36
facial recognition software
317
756260
2000
software de reconocimiento de rostros
12:38
in our temporal lobes.
318
758260
3000
en nuestro lóbulo temporal.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Aquí se ven algunos rostros sobre una roca.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Tal vez han usado Photoshop,
12:47
But anyway, the point is still made.
321
767260
2000
pero de cualquier modo nos vale.
12:49
Now which one of these looks odd to you?
322
769260
2000
¿Cuál de estas imégenes se ve rara?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Rápido, ¿cuál se ve rara?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
La de la izquierda, bien. La voy a rotar.
12:55
so it'll be the one on the right.
325
775260
2000
Ahora es la de la derecha.
12:57
And you are correct.
326
777260
2000
Y tienen razón.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Una ilusión famosa que primero se hizo con Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Ahora le cambiaron el político.
13:04
Well, why is this happening?
329
784260
2000
¿Qué es lo que sucede?
13:06
Well, we know exactly where it happens,
330
786260
2000
Sabemos bien dónde sucede,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
en el lóbulo temporal, casi sobre las orejas.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
En una estructura llamada circunvolución fusiforme.
13:14
And there's two types of cells that do this,
333
794260
2000
Existen dos tipos de célula que hacen esto,
13:16
that record facial features either globally,
334
796260
3000
graban características de los rostros de manera global
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
o específica. Estas células de disparo rápido
13:21
first look at the general face.
336
801260
2000
primero ven el rostro general.
13:23
So you recognize Obama immediately.
337
803260
2000
Por eso reconocen a Obama enseguida.
13:25
And then you notice something quite
338
805260
2000
Y luego notan algo un poco
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
raro en los ojos y la boca.
13:29
Especially when they're upside down,
340
809260
2000
En especial si está dada vuelta,
13:31
you're engaging that general facial recognition software there.
341
811260
3000
comprometen el software de reconocimiento de rostros.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Bien, les dije antes en el experimento de reflexión,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
supón que eres un homínido que camina por África.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
¿Se trata del viento o es un depredador peligroso?
13:42
What's the difference between those?
345
822260
2000
¿Cuál es la diferencia entre ambos?
13:44
Well, the wind is inanimate;
346
824260
2000
Bien, el viento es inanimado;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
el depredador peligroso es un agente intencionado.
13:48
And I call this process agenticity.
348
828260
2000
A este proceso lo llamo agenticidad.
13:50
That is the tendency to infuse patterns
349
830260
2000
Es la tendencia a infundir patrones
13:52
with meaning, intention and agency,
350
832260
2000
con significado, intención y agenticidad,
13:54
often invisible beings from the top down.
351
834260
3000
a agentes invisibles desde las alturas.
13:57
This is an idea that we got
352
837260
2000
Esta idea la tomamos de
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
un compañero de TED, Dan Dennett,
14:01
who talked about taking the intentional stance.
354
841260
2000
quien habló sobre tomar la postura intencional.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Es algo así, expandido para explicar, creo, muchas cosas diferentes:
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
almas, espíritus, fantasmas, dioses, demonios, ángeles,
14:09
aliens, intelligent designers,
357
849260
2000
extraterrestres, diseñadores inteligentes,
14:11
government conspiracists
358
851260
2000
conspiradores del gobierno
14:13
and all manner of invisible agents
359
853260
2000
y toda forma de agente invisible
14:15
with power and intention, are believed
360
855260
2000
con el poder y la intención y que se cree
14:17
to haunt our world and control our lives.
361
857260
2000
que rondan nuestro mundo y controlan nuestras vidas.
14:19
I think it's the basis of animism
362
859260
2000
Creo que es la base del animismo,
14:21
and polytheism and monotheism.
363
861260
3000
el politeísmo y el monoteísmo.
14:24
It's the belief that aliens are somehow
364
864260
2000
Es la creencia de que los extraterrestres son
14:26
more advanced than us, more moral than us,
365
866260
2000
más avanzados y tienen más moralidad que nosotros.
14:28
and the narratives always are
366
868260
2000
Y la historia siempre cuenta
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
que vienen a salvarnos y rescatarnos desde las alturas.
14:33
The intelligent designer's always portrayed
368
873260
2000
Siempre se describe al diseñador inteligente
14:35
as this super intelligent, moral being
369
875260
3000
como este ser súper inteligente y moral
14:38
that comes down to design life.
370
878260
2000
que baja a diseñar la vida.
14:40
Even the idea that government can rescue us --
371
880260
2000
Incluso la idea de que el gobierno puede rescatarnos.
14:42
that's no longer the wave of the future,
372
882260
2000
Esa ya no es la moda del futuro.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Pero creo que es un tipo de agenticidad,
14:46
projecting somebody up there,
374
886260
2000
el de proyectar a alguien grande y poderoso,
14:48
big and powerful, will come rescue us.
375
888260
2000
que vendrá a rescatarnos desde las alturas.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Y creo que también es la base de las teorías de conspiración.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Existe alguien escondido que maneja los hilos,
14:55
whether it's the Illuminati
378
895260
2000
ya sean los Illuminati
14:57
or the Bilderbergers.
379
897260
2000
o los Bilderbergers.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Pero es un problema de detección de patrones, ¿no?
15:01
Some patterns are real and some are not.
381
901260
2000
Algunos patrones son reales y otros no.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
¿A JKF lo asesinó una conspiración o una sola persona?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Bien, si van allí, y hay gente cualquier día
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
como cuando fui yo, que muestran dónde fueron los diferentes disparos.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Mi preferido es el que estaba en un pozo,
15:15
And he popped out at the last second, took that shot.
386
915260
3000
y salió en el último segundo y disparó.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Pero igualmente Lincoln fue asesinado por una conspiración.
15:20
So we can't just uniformly dismiss
388
920260
2000
Por eso no podemos descartar
15:22
all patterns like that.
389
922260
2000
todos los patrones así.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Porque, vamos, algunos patrones sí son reales.
15:26
Some conspiracies really are true.
391
926260
2000
Algunas conspiraciones sí son verdaderas.
15:30
Explains a lot, maybe.
392
930260
2000
Esto tal vez explica mucho.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
El 9/11 tiene una teoría de conspiración. Es una conspiración.
15:35
We did a whole issue on it.
394
935260
2000
Escribimos todo un número al respecto.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 miembros de Al Queda tramando para estrellar aviones
15:39
constitutes a conspiracy.
396
939260
2000
en edificios, sí es una conspiración.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Pero eso no es lo que piensan los "buscaverdades del 9/11".
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Ellos creen que fue un trabajo interno del gobierno de Bush.
15:46
Well, that's a whole other lecture.
399
946260
2000
Bien, eso es otra lectura.
15:48
You know how we know that 9/11
400
948260
2000
¿Saben cómo reconocemos que el 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
no fue orquestado por el gobierno de Bush?
15:52
Because it worked.
402
952260
2000
Porque funcionó.
15:54
(Laughter)
403
954260
3000
(Risas)
15:57
(Applause)
404
957260
3000
(Aplausos)
16:00
So we are natural-born dualists.
405
960260
2000
Somos dualistas por naturaleza.
16:02
Our agenticity process comes from
406
962260
2000
Nuestro proceso de agenticidad viene
16:04
the fact that we can enjoy movies like these.
407
964260
2000
del hecho de que podemos disfrutar de estas películas.
16:06
Because we can imagine, in essence,
408
966260
2000
Porque podemos imaginarnos
16:08
continuing on.
409
968260
2000
seguir adelante.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Sabemos que si se estimula el lóbulo temporal
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
se puede producir una sensación de experiencia extracorporal,
16:14
near-death experiences,
412
974260
2000
experiencia cercana a la muerte,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
que se logra mediante un electrodo aquí en el lóbulo temporal.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
O mediante la pérdida de conciencia,
16:21
by accelerating in a centrifuge.
415
981260
2000
mediante la aceleración centrífuga.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Si tienen hipoxia o el oxígeno bajo,
16:26
And the brain then senses
417
986260
2000
el cerebro siente
16:28
that there's an out-of-body experience.
418
988260
2000
que hay una experiencia extracorporal.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Pueden usar, yo mismo lo probé,
16:32
Michael Persinger's God Helmet,
420
992260
2000
el Casco de Dios de Michael Persinger,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
que bombardea los lóbulos temporales con ondas electromagnéticas
16:36
And you get a sense of out-of-body experience.
422
996260
3000
y vives una experiencia extracorporal.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Entonces voy a terminar con un video
16:41
that sort of brings all this together.
424
1001260
2000
que resume un poco todo esto.
16:43
It's just a minute and a half.
425
1003260
2000
Dura sólo un minuto y medio y
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
une todo esto con el poder de las expectativas y de la creencia.
16:48
Go ahead and roll it.
427
1008260
2000
Pónganlo por favor.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Este es el lugar que se eligió para las audiciones falsas
16:53
for an advert for lip balm.
429
1013260
2000
de un anuncio de protector labial.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Esperamos poder usar parte de eso
16:57
in a national commercial, right?
431
1017260
2000
en un comercial nacional.
16:59
And this is test on some lip balms
432
1019260
2000
Esto es una prueba de protectores labiales
17:01
that we have over here.
433
1021260
2000
que tenemos aquí.
17:03
And these are our models who are going to help us,
434
1023260
2000
Y estos son los modelos que nos ayudarán,
17:05
Roger and Matt.
435
1025260
2000
Roger y Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Tenemos nuestro protector labial
17:09
and we have a leading brand.
437
1029260
2000
y una marca líder.
17:11
Would you have any problem
438
1031260
2000
¿Tendrías algún problema en
17:13
kissing our models to test it?
439
1033260
2000
besar a los modelos para probarlo?
17:15
Girl: No.
440
1035260
2000
No.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
- ¿No? - No. - ¿Pensarías que está bien?
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
- Estaría bien. - OK.
17:21
So this is a blind test.
443
1041260
3000
Esta es un prueba a ciegas.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Te voy a pedir que
17:26
and put a blindfold on.
445
1046260
2000
te pongas una venda.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Bien, ¿ves algo? - No.
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Bájalo así no puedes ver hacia abajo. - OK.
17:34
Woman: It's completely blind now, right?
448
1054260
2000
- No ves nada, ¿verdad?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
- Sí. - OK.
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Lo que vamos a buscar en esta prueba
17:41
is how it protects your lips,
451
1061260
3000
es cuánto protege tus labios,
17:44
the texture, right,
452
1064260
2000
la textura.
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
y si puedes descubrir el sabor.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
- OK. - ¿Alguna vez has hecho una prueba de besos?
17:52
Girl: No.
455
1072260
2000
- No.
17:54
Woman: Take a step here.
456
1074260
2000
- Acércate aquí.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Bien, ahora déjate besar.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Acércate un poco y déjate besar, ¿bien?.
18:06
(Music)
459
1086260
4000
(Música)
18:10
(Laughter)
460
1090260
5000
(Risas)
18:19
(Laughter)
461
1099260
3000
(Risas)
18:30
Woman: Okay.
462
1110260
2000
Bien.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
¿Cómo lo sentiste Jennifer?
18:34
Jennifer: Good.
464
1114260
2000
- Bien
18:36
(Laughter)
465
1116260
7000
(Risas)
18:43
Girl: Oh my God!
466
1123260
2000
- Oh por Dios.
18:45
(Laughter)
467
1125260
4000
(Risas)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer - Muchas gracias. Gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7