Do you really know why you do what you do? | Petter Johansson

193,440 views ・ 2018-03-27

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Paula Motter Revisor: Analia Padin
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
¿Por qué pensamos que los ricos deben pagar más impuestos?
00:16
Why did you buy the latest iPhone?
1
16400
2376
¿Por qué compramos el último iPhone?
00:18
Why did you pick your current partner?
2
18800
2456
¿Por qué elegimos a nuestra actual pareja?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
¿Y por qué tanta gente votó por Donald Trump?
00:24
What were the reasons, why did they do it?
4
24720
2520
¿Cuáles fueron los motivos? ¿Por qué lo hicieron?
00:27
So we ask this kind of question all the time,
5
27990
2106
Hacemos estas preguntas todo el tiempo
00:30
and we expect to get an answer.
6
30120
1736
y esperamos que nos den una respuesta.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Y cuando nos preguntan a nosotros esperamos poder responder;
00:35
to simply tell why we did as we did.
8
35040
2480
poder explicar, simplemente, por qué hicimos lo que hicimos.
00:38
But do we really know why?
9
38440
1720
Pero ¿lo sabemos realmente?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Cuando decimos que preferimos a George Clooney sobre Tom Hanks
00:44
due to his concern for the environment,
11
44479
2057
por su compromiso con el medio ambiente,
00:46
is that really true?
12
46560
1200
¿es realmente cierto?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Se puede ser totalmente sincero y creer genuinamente
00:51
that this is the reason that drives your choice,
14
51080
2936
en el motivo que explica nuestra elección,
00:54
but to me, it may still feel like something is missing.
15
54040
2600
pero yo creo que algo está faltando.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Tal como están las cosas, y dada la naturaleza de la subjetividad,
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
resulta muy difícil poder demostrarle a alguien que se ha equivocado.
01:06
So I'm an experimental psychologist,
18
66600
2136
Soy psicólogo experimental,
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
y en el laboratorio hemos estado tratando de resolver este problema.
01:12
So we wanted to create an experiment
20
72320
2176
Queríamos diseñar un experimento
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
que nos permitiera cuestionar lo que la gente dice de sí misma,
01:18
regardless of how certain they may seem.
22
78080
2680
independientemente de cuán segura parezca.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Pero engañar a las personas sobre lo que piensan no es fácil,
01:24
So we turned to the professionals.
24
84720
2376
por eso recurrimos a los profesionales:
01:27
The magicians.
25
87120
1200
los magos.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Son expertos en crear la ilusión de una libre elección.
Cuando dicen "Elige cualquier naipe",
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
lo único que sabemos es que esa elección ya no es libre.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Pues bien, luego de intercambiar ideas
01:40
with a group of Swedish magicians,
30
100600
1856
con un grupo de magos suecos,
01:42
and they helped us create a method
31
102480
1642
creamos un método
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
para poder manipular el resultado de las decisiones de la gente.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
De esta manera, podríamos saber cuándo la gente se equivoca,
01:51
even if they don't know this themselves.
34
111720
2040
aun sin saberlo.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Les mostraré ahora un breve video sobre esta manipulación.
01:59
So it's quite simple.
36
119160
1416
Es muy simple.
02:00
The participants make a choice,
37
120600
2136
Los participantes deben elegir una opción,
02:02
but I end up giving them the opposite.
38
122760
2256
pero yo les doy la opción que descartaron.
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Y luego veremos cómo reaccionaron y qué dijeron.
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
Es sencillo, pero traten de detectar dónde está el truco.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Esto fue filmado con participantes
que no sabían cómo era la prueba.
(Video)
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
P. Johansson: Hola. Soy Petter. Mujer: Hola, soy Becka.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
PJ: Te mostraré unas fotografías
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
y debes decidir cuál de estas personas te parece más atractiva.
02:27
Becka: OK.
46
147560
1216
Becka: Muy bien.
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
PJ: Y a veces te preguntaré también por qué la elegiste.
02:32
Becka: OK.
48
152000
1216
Becka: Perfecto.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
PJ: ¿Lista? Becka: Sí.
02:43
PJ: Why did you prefer that one?
50
163120
1816
PJ: ¿Por qué elegiste esa?
02:44
Becka: The smile, I think.
51
164960
1496
Becka: Por la sonrisa, creo.
02:46
PJ: Smile.
52
166480
1200
PJ: La sonrisa.
02:52
Man: One on the left.
53
172400
1240
Hombre: La de la izquierda.
02:57
Again, this one just struck me.
54
177520
1640
De nuevo, simplemente me gusta.
02:59
Interesting shot.
55
179760
1616
Una foto interesante.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Soy fotógrafo. Me gusta la iluminación y la toma.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
Petter Johansson: Pero este es el truco.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Video) Mujer 1: Esta.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
PJ: Les doy la otra foto, no la que eligieron.
03:20
And let's see what happens.
60
200520
1600
Y veamos qué ocurre.
03:28
Woman 2: Um ...
61
208240
1200
Mujer 2: Mm...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Lo veo más inocente que el hombre de la otra foto.
03:45
Man: The one on the left.
63
225360
1240
Hombre: La de la izquierda.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Me gusta la sonrisa, la forma de la nariz y de la cara.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
La veo más interesante; me gusta el peinado.
04:00
Woman 3: This one.
66
240040
1200
Mujer 3: Esta.
04:03
I like the smirky look better.
67
243520
1576
Me gusta esa sonrisa afectada.
04:05
PJ: You like the smirky look better?
68
245120
2000
PJ: Te gusta más esa sonrisa.
04:09
(Laughter)
69
249680
3176
(Risas)
04:12
Woman 3: This one.
70
252880
1200
Mujer 3: Este.
04:15
PJ: What made you choose him?
71
255280
1400
PJ: ¿Por qué lo elegiste?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Mujer 3: No sé, se parece un poco al Hobbit.
04:20
(Laughter)
73
260440
2056
(Risas)
04:22
PJ: And what happens in the end
74
262520
1496
PJ: ¿Y qué ocurre cuando al final les digo cómo es el experimento de verdad?
04:24
when I tell them the true nature of the experiment?
75
264040
3096
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
Es todo. Ahora te haré unas preguntas.
04:29
Man: Sure.
77
269640
1216
Hombre: Seguro
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
PJ: ¿Qué te pareció? ¿Fácil o difícil?
04:33
Man: It was easy.
79
273880
1240
Hombre: Fácil.
04:36
PJ: During the experiments,
80
276040
1336
PJ: Durante el experimento,
04:37
I actually switched the pictures three times.
81
277400
3336
cambié las fotografías tres veces.
04:40
Was this anything you noticed?
82
280760
1576
¿Lo notaste?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Hombre: No, en absoluto.
04:44
PJ: Not at all? Man: No.
84
284200
1496
PJ: ¿Para nada? Hombre: No.
04:45
Switching the pictures as far as ...
85
285720
2096
Cambiar las fotos... ¿en qué sentido?
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
PJ: Claro, tú elegías una, pero yo te daba la otra.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Hombre: La otra ... No.
04:53
No. Shows you how much my attention span was.
88
293520
2256
Bueno, esto demuestra cuán concentrado estaba.
04:55
(Laughter)
89
295800
1520
(Risas)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
PJ: ¿Notaste que durante el experimento a veces yo cambiaba las fotografías?
05:01
I switched the pictures?
91
301920
2136
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Mujer 2: No, no me di cuenta.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
PJ: Tú elegías una, pero yo te daba la otra.
05:09
No inclination of that happening?
94
309920
1616
¿Ninguna sospecha de lo que ocurría?
05:11
Woman 2: No.
95
311560
1576
Mujer 2: No.
05:13
Woman 2: I did not notice.
96
313160
1256
No me di cuenta.
05:14
(Laughs)
97
314440
1936
(Risas)
05:16
PJ: Thank you.
98
316400
1216
PJ: Gracias.
05:17
Woman 2: Thank you.
99
317640
1376
Mujer 2: Gracias a ti.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
Petter Johansson: Como habrán notado,
05:21
the trick is that I have two cards in each hand,
101
321120
2256
el truco es que tengo dos fotos en cada mano
05:23
and when I hand one of them over,
102
323400
1576
y, cuando les entrego una de ellas,
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
la foto negra se confunde con el color negro de la mesa.
05:30
So using pictures like this,
104
330640
1736
En este tipo de experimentos,
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
menos del 20 % de los participantes suele detectar el truco.
05:36
And as you saw in the movie,
106
336800
1416
Y como vieron en el video,
05:38
when in the end we explain what's going on,
107
338240
3176
cuando al final se les cuenta la verdad,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
se muestran muy sorprendidos
y a menudo se resisten a creer que ha habido un truco.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Esto demuestra que el efecto es bastante contundente y genuino.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Pero si a Uds. les interesa el autoconocimiento, como a mí,
05:53
the more interesting bit is,
111
353320
1336
la parte más interesante es cómo justificaron sus decisiones.
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
05:58
So we've done a lot of analysis
113
358640
1496
Analizamos las explicaciones que dan los participantes.
06:00
of the verbal reports in these experiments.
114
360160
2080
06:03
And this graph simply shows
115
363360
2456
Este gráfico muestra
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
que si comparamos lo que dicen en un experimento manipulado
06:10
with a nonmanipulated trial,
117
370640
1376
respecto de uno no manipulado, es decir,
06:12
that is when they explain a normal choice they've made
118
372040
2776
cuando explican una decisión real y una donde el resultado es manipulado,
06:14
and one where we manipulated the outcome,
119
374840
2496
06:17
we find that they are remarkably similar.
120
377360
2456
vemos que las explicaciones son increíblemente parecidas.
06:19
So they are just as emotional, just as specific,
121
379840
3056
Son igual de emocionales, igual de específicas,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
expresadas con el mismo nivel de certeza.
06:27
So the strong conclusion to draw from this
123
387120
2336
Entonces, la firme conclusión
06:29
is that if there are no differences
124
389480
2216
es que si no hay diferencias
06:31
between a real choice and a manipulated choice,
125
391720
3696
entre una elección real y una elección manipulada,
06:35
perhaps we make things up all the time.
126
395440
2440
quizá estemos inventando cosas todo el tiempo.
06:38
But we've also done studies
127
398680
1336
Pero también hicimos estudios
donde tratamos de relacionar lo que dicen con la cara que eligen.
06:40
where we try to match what they say with the actual faces.
128
400040
3016
06:43
And then we find things like this.
129
403080
1880
Y descubrimos esto.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Este participante eligió la chica de la izquierda,
06:50
he ended up with the one to the right.
131
410840
1856
pero le dimos la foto de la derecha.
06:52
And then, he explained his choice like this.
132
412720
2816
Y justificó su elección diciendo:
06:55
"She is radiant.
133
415560
1296
"Es radiante.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Preferiría acercarme a ella en un bar y no a la otra chica.
Y me gustan los pendientes".
07:00
And I like earrings."
135
420000
1616
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
Lo que inicialmente lo llevó a elegir la chica de la izquierda
07:05
it can't have been the earrings,
137
425160
1576
no fueron precisamente los pendientes, pues quien los tenía puestos era la otra.
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Este es un claro ejemplo de una construcción 'a posteriori':
07:13
So they just explained the choice afterwards.
140
433440
2800
justificaron la decisión después.
07:17
So what this experiment shows is,
141
437320
2296
Este experimento muestra
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
que si no logramos detectar que nuestra elección fue cambiada,
07:23
we will immediately start to explain them in another way.
143
443320
3200
inmediatamente intentaremos explicarla de alguna manera.
07:27
And what we also found
144
447520
1256
Y descubrimos también que muchas veces los participantes
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
terminan prefiriendo la alternativa que habían elegido bajo un engaño.
07:32
that they were led to believe they liked.
146
452040
2256
07:34
So if we let them do the choice again,
147
454320
2016
O sea que, si les damos a elegir de nuevo,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
eligen la imagen que antes habían rechazado.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Este efecto se llama "ceguera a la elección".
07:43
And we've done a number of different studies --
150
463840
2216
Hemos hecho una variedad de estudios
07:46
we've tried consumer choices,
151
466080
2536
sobre la elección del consumidor,
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
elecciones realizadas con base en el sabor y el olor
e incluso problemas de razonamiento.
07:53
But what you all want to know is of course
153
473080
2056
Pero lo que queremos saber
es si esta conducta también rige decisiones más complejas e importantes.
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
07:59
Like those concerning moral and political issues.
155
479120
3080
Por ejemplo, las relacionadas con cuestiones morales y políticas.
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
El siguiente experimento requiere cierto contexto.
08:08
So in Sweden, the political landscape
157
488640
4256
En Suecia, el panorama político
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
está dominado por dos coaliciones: una de derecha y una de izquierda.
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Y los votantes pueden fluctuar entre partidos dentro de cada coalición,
08:22
but there is very little movement between the coalitions.
160
502160
2760
pero hay muy poco movimiento entre una coalición y la otra.
08:25
And before each elections,
161
505680
1976
Y, antes de cada elección,
08:27
the newspapers and the polling institutes
162
507680
4216
los periódicos y los institutos de sondeo
08:31
put together what they call "an election compass"
163
511920
2616
crearon lo que ellos llaman "una brújula electoral",
08:34
which consists of a number of dividing issues
164
514560
3336
que consiste en una serie de temas polémicos
08:37
that sort of separates the two coalitions.
165
517920
2336
que dividen a ambas coaliciones.
08:40
Things like if tax on gasoline should be increased
166
520280
3735
Por ejemplo: si el impuesto a la gasolina debería incrementarse.
08:44
or if the 13 months of paid parental leave
167
524039
4096
O si los 13 meses de licencia pagada por paternidad o maternidad
08:48
should be split equally between the two parents
168
528159
2496
deberían dividirse equitativamente entre ambos padres
08:50
in order to increase gender equality.
169
530679
2721
para fomentar la igualdad de género.
08:54
So, before the last Swedish election,
170
534840
2216
Pues bien, antes de las últimas elecciones en Suecia,
08:57
we created an election compass of our own.
171
537080
2600
creamos nuestra propia brújula electoral.
09:00
So we walked up to people in the street
172
540480
2136
Salimos a la calle y le preguntamos a la gente
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
si quería participar de una rápida encuesta política.
09:06
So first we had them state their voting intention
174
546000
2456
Primero les pedimos que manifestaran
su intención de voto entre las dos coaliciones.
09:08
between the two coalitions.
175
548480
1360
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
Luego les pedimos que respondieran estas 12 preguntas.
09:14
They would fill in their answers,
177
554360
1976
Completaban con sus respuestas,
09:16
and we would ask them to discuss,
178
556360
1616
y luego les pedíamos que explicaran, por ejemplo:
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
¿Por qué considera que el impuesto a la gasolina debería incrementarse?
09:23
And we'd go through the questions.
180
563520
2096
Y así seguimos con las otras preguntas.
09:25
Then we had a color coded template
181
565640
3896
Luego, usando una plantilla con códigos en colores,
09:29
that would allow us to tally their overall score.
182
569560
2936
calculamos el puntaje total.
09:32
So this person would have one, two, three, four
183
572520
3456
Así, esta persona tendría uno, dos, tres, cuatro ...
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
cinco, seis, siete, ocho ... nueve puntos a la izquierda,
09:39
so he would lean to the left, basically.
185
579320
2680
lo cual indica su tendencia a la izquierda, básicamente.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
Y finalmente, debían expresar nuevamente su intención de voto.
09:48
But of course, there was also a trick involved.
187
588160
2280
Pero, claro, también aquí había un truco.
09:51
So first, we walked up to people,
188
591360
2176
Primero nos acercábamos a las personas,
09:53
we asked them about their voting intention
189
593560
2056
les preguntábamos su intención de voto
09:55
and then when they started filling in,
190
595640
2256
y, mientras completaban las respuestas,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
nosotros escribíamos las respuestas que iban en dirección opuesta.
10:03
We would put it under the notepad.
192
603400
2576
Poníamos esas repuestas debajo del bloc de notas.
10:06
And when we get the questionnaire,
193
606000
2776
Y cuando nos devolvían el cuestionario,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
simplemente las pegábamos encima de las respuestas del participante.
(Risas)
10:16
So there, it's gone.
195
616000
1240
Y allí está.
Y luego preguntábamos por cada una de las respuestas:
10:24
And then we would ask about each of the questions:
196
624280
2376
10:26
How did you reason here?
197
626680
1536
"¿Cuál fue su razonamiento en este punto?".
10:28
And they'll state the reasons,
198
628240
1736
Exponían sus razones,
10:30
together we will sum up their overall score.
199
630000
2480
juntos calculábamos el puntaje total.
10:34
And in the end, they will state their voting intention again.
200
634800
3680
Y al final escribían nuevamente su intención de voto.
10:41
So what we find first of all here,
201
641960
1656
Lo primero que descubrimos
10:43
is that very few of these manipulations are detected.
202
643640
4216
es que estas manipulaciones son detectadas muy pocas veces.
10:47
And they're not detected in the sense that they realize,
203
647880
2656
Con 'detectar' no me refiero a que digan:
10:50
"OK, you must have changed my answer,"
204
650560
1856
"Tendrás que haber cambiado mi respuesta",
10:52
it was more the case that,
205
652440
1256
sino más bien:
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Está bien, debo haber malinterpretado la pregunta.
10:56
Can I please change it?"
207
656920
1240
¿Puedo cambiarla?".
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Y aunque hayamos corregido algunas de estas manipulaciones,
11:04
the overall majority was missed.
209
664240
2136
la gran mayoría pasó desapercibida.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Así que logramos cambiar el 90 % de las respuestas de los participantes
11:10
from left to right, right to left, their overall profile.
211
670080
3160
de izquierda a derecha, de derecha a izquierda; su perfil general.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
¿Y qué sucede cuando se les pide justificar esas decisiones?
11:20
And here we find much more interesting verbal reports
213
680160
3056
En este punto, las explicaciones son mucho más interesantes
11:23
than compared to the faces.
214
683240
2016
en comparación con la prueba de las caras.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
La gente dijo cosas como estas. Las leeré:
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"El control gubernamental a gran escala de correos electrónicos e Internet
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
debería estar permitido para combatir el delito y el terrorismo internacional".
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"¿Está de acuerdo en cierto modo con esta afirmación?". "Sí".
11:40
"So how did you reason here?"
219
700580
1500
"¿Cómo justifica su postura?".
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"Bueno...
es tan difícil luchar contra el delito y el terrorismo internacional
11:48
I think there should be those kinds of tools."
221
708560
2776
que creo que deberían existir herramientas de este tipo".
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Y luego la persona recuerda un artículo publicado en el periódico matutino,
11:55
"Like in the newspaper today,
223
715000
1616
"En el periódico de hoy
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
dicen que pueden escuchar los móviles de la prisión
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
si el líder de una banda quiere seguir delinquiendo desde adentro.
12:03
And I think it's madness that we have so little power
226
723600
2816
Es una locura no tener el poder suficiente
12:06
that we can't stop those things
227
726440
1656
parar poner freno a estas cosas
12:08
when we actually have the possibility to do so."
228
728120
2936
cuando en realidad existe la posibilidad de hacerlo".
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
Y luego se ve una vacilación sobre el final:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"No me gusta que tengan acceso a todo lo que uno hace,
pero creo que a la larga vale la pena".
12:16
but I still think it's worth it in the long run."
231
736400
2576
12:19
So, if you didn't know that this person
232
739000
2536
Si ignoráramos que esta persona
12:21
just took part in a choice blindness experiment,
233
741560
2256
participó de un experimento de ceguera a la elección,
12:23
I don't think you would question
234
743840
1856
no cuestionaríamos su sinceridad.
12:25
that this is the true attitude of that person.
235
745720
3120
12:29
And what happens in the end, with the voting intention?
236
749800
2856
¿Y qué pasa después con la intención de voto?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Lo que descubrimos también está influenciado por el cuestionario.
12:37
So we have 10 participants
238
757400
1736
Hay 10 participantes
12:39
shifting from left to right or from right to left.
239
759160
2976
que fluctúan de la izquierda a la derecha, y viceversa.
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Hay otros 19 que fluctúan de una intención de voto segura
12:44
to being uncertain.
241
764720
1456
a otra incierta.
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Otros van de la incertidumbre a la intención segura.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
Y después están los que manifiestan incertidumbre en todo el cuestionario.
12:54
And that number is interesting
244
774080
1576
Y este grupo es interesante porque,
12:55
because if you look at what the polling institutes say
245
775680
4616
según los institutos de sondeo,
13:00
the closer you get to an election,
246
780320
1656
cuanto más cerca está la elección
13:02
the only people that are sort of in play
247
782000
2136
los únicos votos que están en juego
13:04
are the ones that are considered uncertain.
248
784160
2656
son los de la gente que está en la franja de indecisos.
13:06
But we show there is a much larger number
249
786840
3216
Pero nosotros demostramos que hay un número mucho mayor de personas
13:10
that would actually consider shifting their attitudes.
250
790080
2800
que consideran la posibilidad de cambiar de opinión.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Y en este punto aclaro que no está permitido usar este método
13:17
as an actual method to change people's votes
252
797160
2616
para alterar el voto de la gente
13:19
before an election,
253
799800
1496
antes de una elección;
13:21
and we clearly debriefed them afterwards
254
801320
3616
nosotros les explicamos después
13:24
and gave them every opportunity to change back
255
804960
2296
y les dimos la oportunidad de retroceder y decidirse
13:27
to whatever they thought first.
256
807280
2480
por la elección inicial.
13:30
But what this shows is that if you can get people
257
810600
2336
Esto demuestra que si podemos hacer que la gente vea la postura opuesta
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
y se haga sus propios cuestionamientos,
13:38
that could actually make them change their views.
259
818520
2920
podría cambiar de opinión.
13:42
OK.
260
822400
1200
Bien.
13:44
So what does it all mean?
261
824760
1656
¿Qué significa todo esto?
13:46
What do I think is going on here?
262
826440
2416
¿Qué les parece que está sucediendo aquí?
13:48
So first of all,
263
828880
1216
En primer lugar, gran parte de lo que llamamos autoconocimiento,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
es en realidad interpretación subjetiva.
13:55
So I see myself make a choice,
265
835000
2496
Hago una elección y, cuando debo justificarla,
13:57
and then when I'm asked why,
266
837520
2776
14:00
I just try to make as much sense of it as possible
267
840320
2536
simplemente intento explicarla
14:02
when I make an explanation.
268
842880
1936
de la manera más racional posible.
14:04
But we do this so quickly and with such ease
269
844840
3016
Pero lo hacemos tan rápido y con tanta facilidad
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
que creemos saber la respuesta cuando explicamos el porqué.
14:13
And as it is an interpretation,
271
853040
3096
Y como es una interpretación,
14:16
of course we sometimes make mistakes.
272
856160
2296
a veces cometemos errores,
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
de la misma manera en que cometemos errores
al intentar entender a otras personas.
14:23
So beware when you ask people the question "why"
274
863160
3696
Por eso debemos tener cuidado al preguntar "¿por qué?".
14:26
because what may happen is that, if you asked them,
275
866880
4896
Porque lo que puede pasar si preguntamos
14:31
"So why do you support this issue?"
276
871800
4016
"¿Por qué tienes esta postura?".
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"¿Por qué sigues en este trabajo o en esta relación?",
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
es que estemos creando una actitud
14:42
that wasn't there before you asked the question.
279
882520
2240
que no existía antes de hacer la pregunta.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Y esto es importante también en nuestra vida profesional,
14:48
or it could be.
281
888640
1216
o podría serlo.
14:49
If, say, you design something and then you ask people,
282
889880
2536
Si diseñas algo y luego preguntas,
14:52
"Why do you think this is good or bad?"
283
892440
2256
"¿Por qué piensa Ud. que esto es bueno o malo?".
14:54
Or if you're a journalist asking a politician,
284
894720
3056
O si eres un periodista que entrevista a un político,
14:57
"So, why did you make this decision?"
285
897800
2376
"¿Por qué tomó Ud. esta decisión?".
15:00
Or if indeed you are a politician
286
900200
1936
O si eres un político
15:02
and try to explain why a certain decision was made.
287
902160
2640
e intentas explicar por qué tomaste una determinada decisión.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Puede resultar inquietante,
15:09
But if you want to look at it from a positive direction,
289
909680
3496
pero si vemos el lado positivo,
15:13
it could be seen as showing,
290
913200
1736
se lo puede interpretar
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
como que somos más flexibles de lo que creemos,
15:18
We can change our minds.
292
918360
1896
que podemos cambiar de opinión,
15:20
Our attitudes are not set in stone.
293
920280
2456
que nuestras opiniones no son inamovibles.
15:22
And we can also change the minds of others,
294
922760
3176
Y también podemos cambiar la opinión de otros,
15:25
if we can only get them to engage with the issue
295
925960
2376
con solo hacerlos razonar para que vean la postura opuesta.
15:28
and see it from the opposite view.
296
928360
1680
15:31
And in my own personal life, since starting with this research --
297
931400
3936
Y en mi vida personal, desde que empecé con esta investigación,
15:35
So my partner and I, we've always had the rule
298
935360
2576
con mi pareja acordamos
15:37
that you're allowed to take things back.
299
937960
2296
que está permitido retractarse.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Si dije que algo me gustaba el año pasado
15:42
doesn't mean I have to like it still.
301
942640
2040
no significa que me deba seguir gustando.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Liberarse de la necesidad de mantenerse en una posición
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
representa un gran alivio y facilita las relaciones.
15:53
Anyway, so the conclusion must be:
304
953720
2360
La conclusión, entonces, es:
15:57
know that you don't know yourself.
305
957320
2496
Debes saber que no te conoces...
15:59
Or at least not as well as you think you do.
306
959840
2320
o al menos no tan bien como crees.
16:03
Thanks.
307
963480
1216
Gracias.
16:04
(Applause)
308
964720
4640
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7