Do you really know why you do what you do? | Petter Johansson

189,870 views ・ 2018-03-27

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Leonardo Silva Revisor: Maricene Crus
00:12
So why do you think the rich should pay more in taxes?
0
12800
3560
Por que você acha que os ricos devem pagar mais impostos?
00:16
Why did you buy the latest iPhone?
1
16400
2376
Por que você comprou o iPhone mais recente?
00:18
Why did you pick your current partner?
2
18800
2456
Por que escolheu seu companheiro atual?
00:21
And why did so many people vote for Donald Trump?
3
21280
3416
E por que tantos norte-americanos votaram em Donald Trump?
00:24
What were the reasons, why did they do it?
4
24720
2520
Quais foram as razões? Por que você fez isso?
00:27
So we ask this kind of question all the time,
5
27990
2106
Fazemos esse tipo de pergunta o tempo todo
00:30
and we expect to get an answer.
6
30120
1736
e esperamos obter uma resposta.
00:31
And when being asked, we expect ourselves to know the answer,
7
31880
3136
Quando nos perguntam essas coisas, esperamos ter uma resposta
00:35
to simply tell why we did as we did.
8
35040
2480
que simplesmente explique por que agimos de tal forma.
00:38
But do we really know why?
9
38440
1720
Mas será que sabemos mesmo a razão?
00:41
So when you say that you prefer George Clooney to Tom Hanks,
10
41000
3456
Quando você diz que prefere o George Clooney ao Tom Hanks,
00:44
due to his concern for the environment,
11
44479
2057
devido à sua preocupação com o ambiente,
00:46
is that really true?
12
46560
1200
será que isso é verdade?
00:48
So you can be perfectly sincere and genuinely believe
13
48560
2496
Você pode ser totalmente sincero
e realmente acreditar que essa é a razão da sua escolha,
00:51
that this is the reason that drives your choice,
14
51080
2936
00:54
but to me, it may still feel like something is missing.
15
54040
2600
mas, pra mim, ainda pode parecer que algo não bate.
00:57
As it stands, due to the nature of subjectivity,
16
57560
3176
Devido à natureza da subjetividade dessas questões,
01:00
it is actually very hard to ever prove that people are wrong about themselves.
17
60760
4320
na verdade é bem difícil provar que as pessoas estão erradas sobre si mesmas.
01:06
So I'm an experimental psychologist,
18
66600
2136
Eu sou psicólogo experimental
01:08
and this is the problem we've been trying to solve in our lab.
19
68760
3536
e é esse o problema que estamos tentando solucionar em nossos estudos.
01:12
So we wanted to create an experiment
20
72320
2176
Queríamos criar um experimento
01:14
that would allow us to challenge what people say about themselves,
21
74520
3536
que nos permitisse desafiar o que as pessoas dizem sobre si mesmas,
01:18
regardless of how certain they may seem.
22
78080
2680
independentemente do quanto pareçam convictas.
01:21
But tricking people about their own mind is hard.
23
81960
2736
Mas enganar as pessoas sobre suas próprias opiniões é difícil.
01:24
So we turned to the professionals.
24
84720
2376
Então, buscamos ajuda profissional:
01:27
The magicians.
25
87120
1200
a dos mágicos.
Eles são especialistas em criar a ilusão da livre escolha.
01:29
So they're experts at creating the illusion of a free choice.
26
89120
2896
Quando eles dizem: "Pegue uma carta, qualquer carta",
01:32
So when they say, "Pick a card, any card,"
27
92040
2296
01:34
the only thing you know is that your choice is no longer free.
28
94360
2920
a única coisa que você sabe é que sua escolha não é mais livre.
01:38
So we had a few fantastic brainstorming sessions
29
98200
2376
Tivemos algumas reuniões fantásticas e proveitosas
01:40
with a group of Swedish magicians,
30
100600
1856
com um grupo de mágicos suecos que nos ajudaram a elaborar um método
01:42
and they helped us create a method
31
102480
1642
01:44
in which we would be able to manipulate the outcome of people's choices.
32
104147
3973
com o qual pudéssemos manipular o resultado das escolhas das pessoas.
01:48
This way we would know when people are wrong about themselves,
33
108760
2936
Assim, saberíamos quando estivessem erradas sobre si mesmas,
01:51
even if they don't know this themselves.
34
111720
2040
mesmo que não soubessem disso.
01:54
So I will now show you a short movie showing this manipulation.
35
114480
4656
Vou mostrar agora um breve vídeo que mostra essa manipulação.
01:59
So it's quite simple.
36
119160
1416
É bem simples.
02:00
The participants make a choice,
37
120600
2136
Os participantes fazem uma escolha, mas acabo lhes dando o oposto.
02:02
but I end up giving them the opposite.
38
122760
2256
02:05
And then we want to see: How did they react, and what did they say?
39
125040
3520
Depois, queremos saber como eles reagiram e o que disseram.
02:09
So it's quite simple, but see if you can spot the magic going on.
40
129240
3160
É bem simples, mas veja se você consegue perceber a mágica acontecendo.
02:13
And this was shot with real participants, they don't know what's going on.
41
133440
3520
Isso foi filmado com participantes reais, que não sabem o que está acontecendo.
(Vídeo) Petter Johansson: Oi, meu nome é Petter.
02:19
(Video) Petter Johansson: Hi, my name's Petter.
42
139000
2216
Mulher: Oi, me chamo Becka.
02:21
Woman: Hi, I'm Becka.
43
141240
1215
PJ: Vou te mostrar fotos como esta,
02:22
PJ: I'm going to show you pictures like this.
44
142479
2137
e você terá que decidir qual acha mais atraente.
02:24
And you'll have to decide which one you find more attractive.
45
144640
2896
Becka: Tudo bem.
02:27
Becka: OK.
46
147560
1216
02:28
PJ: And then sometimes, I will ask you why you prefer that face.
47
148800
3176
PJ: De vez em quando vou perguntar por que você prefere o rosto que escolheu.
02:32
Becka: OK.
48
152000
1216
Becka: Tudo bem.
02:33
PJ: Ready? Becka: Yeah.
49
153240
1200
PJ: Preparada? Becka: Sim.
02:43
PJ: Why did you prefer that one?
50
163120
1816
PJ: Por que escolheu esse?
02:44
Becka: The smile, I think.
51
164960
1496
Becka: Pelo sorriso, eu acho.
02:46
PJ: Smile.
52
166480
1200
PJ: Sorriso.
02:52
Man: One on the left.
53
172400
1240
Homem: A da esquerda.
02:57
Again, this one just struck me.
54
177520
1640
Ela me chamou a atenção.
02:59
Interesting shot.
55
179760
1616
Bela foto.
03:01
Since I'm a photographer, I like the way it's lit and looks.
56
181400
3000
Como sou fotógrafo, gosto da luminosidade e da aparência.
03:06
Petter Johansson: But now comes the trick.
57
186280
2040
PJ: É aí que entra o truque.
03:10
(Video) Woman 1: This one.
58
190120
1280
(Vídeo) Mulher: Essa.
03:16
PJ: So they get the opposite of their choice.
59
196240
2280
PJ: E recebem o oposto do que escolheram.
03:20
And let's see what happens.
60
200520
1600
Vejamos o que acontece.
03:28
Woman 2: Um ...
61
208240
1200
Mulher 2: Hum...
03:35
I think he seems a little more innocent than the other guy.
62
215760
2800
Acho que ele parece um pouco mais inocente que o outro.
03:45
Man: The one on the left.
63
225360
1240
Homem: A da esquerda.
03:49
I like her smile and contour of the nose and face.
64
229280
3696
Gosto do sorriso dela e do contorno do nariz e do rosto.
03:53
So it's a little more interesting to me, and her haircut.
65
233000
2760
É um pouquinho mais atraente pra mim, além do cabelo.
04:00
Woman 3: This one.
66
240040
1200
Mulher 3: Essa.
04:03
I like the smirky look better.
67
243520
1576
Prefiro o de sorriso maroto.
04:05
PJ: You like the smirky look better?
68
245120
2000
PJ: Prefere o de sorriso maroto?
Mulher 3: Sim.
04:09
(Laughter)
69
249680
3176
(Risos)
04:12
Woman 3: This one.
70
252880
1200
Mulher 3: Essa.
04:15
PJ: What made you choose him?
71
255280
1400
PJ: O que a fez escolhê-lo?
04:17
Woman 3: I don't know, he looks a little bit like the Hobbit.
72
257520
2896
Mulher 3: Sei lá, ele parece um pouco com o Hobbit.
04:20
(Laughter)
73
260440
2056
(Risos)
04:22
PJ: And what happens in the end
74
262520
1496
PJ: E o que acontece no fim
quando revelo o verdadeiro objetivo do experimento?
04:24
when I tell them the true nature of the experiment?
75
264040
3096
04:27
Yeah, that's it. I just have to ask a few questions.
76
267160
2456
É isso. Só tenho que fazer algumas perguntas.
04:29
Man: Sure.
77
269640
1216
Homem: Claro.
04:30
PJ: What did you think of this experiment, was it easy or hard?
78
270880
2976
PJ: O que achou do experimento? Foi fácil ou difícil?
04:33
Man: It was easy.
79
273880
1240
Homem: Foi fácil. PJ: Fácil?
PJ: Durante os experimentos, troquei as fotos três vezes.
04:36
PJ: During the experiments,
80
276040
1336
04:37
I actually switched the pictures three times.
81
277400
3336
04:40
Was this anything you noticed?
82
280760
1576
Você notou?
04:42
Man: No. I didn't notice any of that.
83
282360
1816
Homem: Não, não percebi nada.
04:44
PJ: Not at all? Man: No.
84
284200
1496
PJ: Nada mesmo? Homem: Não.
04:45
Switching the pictures as far as ...
85
285720
2096
Você trocou as fotos, tipo...
04:47
PJ: Yeah, you were pointing at one of them but I actually gave you the opposite.
86
287840
3816
PJ: Pois é, você apontava pra uma, mas eu lhe dava a outra.
04:51
Man: The opposite one. OK, when you --
87
291680
1816
Homem: A outra... Tá, não.
04:53
No. Shows you how much my attention span was.
88
293520
2256
Isso mostra como estava meu grau de atenção.
04:55
(Laughter)
89
295800
1520
(Risos)
04:58
PJ: Did you notice that sometimes during the experiment
90
298880
3016
PJ: Notou que, às vezes, durante o experimento,
05:01
I switched the pictures?
91
301920
2136
eu troquei as fotos?
05:04
Woman 2: No, I did not notice that.
92
304080
2016
Mulher 2: Não, não percebi.
05:06
PJ: You were pointing at one, but then I gave you the other one.
93
306120
3000
PJ: Você apontava pra uma, mas eu lhe dava a outra.
05:09
No inclination of that happening?
94
309920
1616
Não percebeu quando fiz isso?
05:11
Woman 2: No.
95
311560
1576
Mulher 2: Não.
05:13
Woman 2: I did not notice.
96
313160
1256
Não percebi.
05:14
(Laughs)
97
314440
1936
(Risos)
05:16
PJ: Thank you.
98
316400
1216
PJ: Obrigado.
05:17
Woman 2: Thank you.
99
317640
1376
Mulher 2: Obrigada.
05:19
PJ: OK, so as you probably figured out now,
100
319040
2056
PJ: Bom, como vocês já devem ter percebido,
05:21
the trick is that I have two cards in each hand,
101
321120
2256
o truque é que tenho duas cartas em cada mão
05:23
and when I hand one of them over,
102
323400
1576
e, quando entrego uma delas,
a preta meio que desaparece na superfície escura da mesa.
05:25
the black one kind of disappears into the black surface on the table.
103
325000
4360
05:30
So using pictures like this,
104
330640
1736
Usando fotos assim,
05:32
normally not more than 20 percent of the participants detect these tries.
105
332400
4376
geralmente não mais que 20% dos participantes detectam essas manobras.
05:36
And as you saw in the movie,
106
336800
1416
Como vocês viram no vídeo,
05:38
when in the end we explain what's going on,
107
338240
3176
quando explicamos no fim o que aconteceu,
05:41
they're very surprised and often refuse to believe the trick has been made.
108
341440
4376
as pessoas ficam bem surpresas e normalmente se recusam a crer no truque.
05:45
So this shows that this effect is quite robust and a genuine effect.
109
345840
4776
Isso mostra que esse efeito é bem consistente e natural.
05:50
But if you're interested in self-knowledge, as I am,
110
350640
2656
Se vocês tiverem interesse em autoconhecimento, como eu,
05:53
the more interesting bit is,
111
353320
1336
o mais interessante é:
05:54
OK, so what did they say when they explained these choices?
112
354680
3936
o que elas disseram quando explicaram essas escolhas?
05:58
So we've done a lot of analysis
113
358640
1496
Fizemos muitas análises dos relatos verbais nesses experimentos.
06:00
of the verbal reports in these experiments.
114
360160
2080
06:03
And this graph simply shows
115
363360
2456
Esse gráfico mostra simplesmente
06:05
that if you compare what they say in a manipulated trial
116
365840
4776
que, se compararmos o que dizem num teste manipulado
06:10
with a nonmanipulated trial,
117
370640
1376
com o que dizem num teste não manipulado,
06:12
that is when they explain a normal choice they've made
118
372040
2776
ou seja, quando explicam uma escolha normal que fizeram
06:14
and one where we manipulated the outcome,
119
374840
2496
e uma em que nós interferimos,
06:17
we find that they are remarkably similar.
120
377360
2456
vemos que as explicações são incrivelmente semelhantes.
06:19
So they are just as emotional, just as specific,
121
379840
3056
São tão emocionais, tão específicas quanto,
06:22
and they are expressed with the same level of certainty.
122
382920
3200
e são expressas com o mesmo grau de certeza.
06:27
So the strong conclusion to draw from this
123
387120
2336
A grande conclusão que tiramos disso
06:29
is that if there are no differences
124
389480
2216
é que, se não há diferença entre uma escolha real e uma escolha manipulada,
06:31
between a real choice and a manipulated choice,
125
391720
3696
06:35
perhaps we make things up all the time.
126
395440
2440
talvez inventemos as coisas o tempo todo.
06:38
But we've also done studies
127
398680
1336
Também fizemos estudos
em que tentamos combinar o que elas dizem e os rostos reais,
06:40
where we try to match what they say with the actual faces.
128
400040
3016
06:43
And then we find things like this.
129
403080
1880
e descobrimos coisas como esta.
06:45
So here, this male participant, he preferred the girl to the left,
130
405760
5056
Aqui, um participante preferiu a moça à esquerda,
06:50
he ended up with the one to the right.
131
410840
1856
mas acabou com a da direita,
06:52
And then, he explained his choice like this.
132
412720
2816
e ele justificou sua escolha assim:
06:55
"She is radiant.
133
415560
1296
"Ela é radiante.
06:56
I would rather have approached her at the bar than the other one.
134
416880
3096
Num bar, eu abordaria ela em vez da outra.
E adoro brincos".
07:00
And I like earrings."
135
420000
1616
07:01
And whatever made him choose the girl on the left to begin with,
136
421640
3496
Independentemente do que o tenha feito escolher a moça à esquerda no início,
07:05
it can't have been the earrings,
137
425160
1576
não pode ter sido os brincos, pois era a moça da direita que os usava.
07:06
because they were actually sitting on the girl on the right.
138
426760
2856
07:09
So this is a clear example of a post hoc construction.
139
429640
3776
Esse é um exemplo claro de construção pós-evento.
07:13
So they just explained the choice afterwards.
140
433440
2800
As pessoas simplesmente justificaram a escolha depois.
07:17
So what this experiment shows is,
141
437320
2296
Esse experimento mostra
07:19
OK, so if we fail to detect that our choices have been changed,
142
439640
3656
que, bem, se não conseguimos perceber que nossas escolhas foram manipuladas,
07:23
we will immediately start to explain them in another way.
143
443320
3200
imediatamente começamos a justificá-las de outra forma.
07:27
And what we also found
144
447520
1256
Também descobrimos
07:28
is that the participants often come to prefer the alternative,
145
448800
3216
que os participantes geralmente passam a preferir a outra opção
07:32
that they were led to believe they liked.
146
452040
2256
a que foram induzidos a acreditar que gostavam.
07:34
So if we let them do the choice again,
147
454320
2016
Se os deixamos escolher novamente,
07:36
they will now choose the face they had previously rejected.
148
456360
3760
vão escolher o rosto que haviam rejeitado antes.
07:41
So this is the effect we call "choice blindness."
149
461520
2296
Chamamos esse efeito de "cegueira de escolha".
07:43
And we've done a number of different studies --
150
463840
2216
Realizamos diversos estudos:
tentamos com escolhas de consumo,
07:46
we've tried consumer choices,
151
466080
2536
07:48
choices based on taste and smell and even reasoning problems.
152
468640
4416
escolhas baseadas em cheiro e até em solução de problemas.
Mas é claro que todos queremos saber:
07:53
But what you all want to know is of course
153
473080
2056
será que isso se aplica a escolhas mais complexas e relevantes,
07:55
does this extend also to more complex, more meaningful choices?
154
475160
3936
07:59
Like those concerning moral and political issues.
155
479120
3080
como as relacionadas a questões morais e políticas?
08:04
So the next experiment, it needs a little bit of a background.
156
484400
4216
Antes de mostrar o próximo experimento, preciso explicar algumas coisas.
08:08
So in Sweden, the political landscape
157
488640
4256
Na Suécia,
o cenário político é dominado por um bloco de esquerda e um bloco de direita.
08:12
is dominated by a left-wing and a right-wing coalition.
158
492920
3360
08:17
And the voters may move a little bit between the parties within each coalition,
159
497720
4416
Alguns eleitores trocam de partidos dentro de cada bloco,
08:22
but there is very little movement between the coalitions.
160
502160
2760
mas trocam muito pouco de bloco.
08:25
And before each elections,
161
505680
1976
Antes de cada período de eleições,
08:27
the newspapers and the polling institutes
162
507680
4216
os jornais e institutos de pesquisa
08:31
put together what they call "an election compass"
163
511920
2616
realizam o que eles chamam de "termômetro eleitoral",
08:34
which consists of a number of dividing issues
164
514560
3336
que consiste de algumas perguntas sobre questões polêmicas
08:37
that sort of separates the two coalitions.
165
517920
2336
que meio que distinguem os dois blocos,
08:40
Things like if tax on gasoline should be increased
166
520280
3735
coisas do tipo: se o imposto sobre a gasolina deve aumentar
08:44
or if the 13 months of paid parental leave
167
524039
4096
ou se os 13 meses pagos da licença parental
08:48
should be split equally between the two parents
168
528159
2496
devem ser divididos igualmente entre pai e mãe
08:50
in order to increase gender equality.
169
530679
2721
visando à igualdade de gênero.
08:54
So, before the last Swedish election,
170
534840
2216
Bem, antes das últimas eleições na Suécia,
08:57
we created an election compass of our own.
171
537080
2600
realizamos nosso próprio termômetro eleitoral.
09:00
So we walked up to people in the street
172
540480
2136
Abordamos pessoas nas ruas
09:02
and asked if they wanted to do a quick political survey.
173
542640
3336
e perguntamos se queriam participar de uma pesquisa política rápida.
09:06
So first we had them state their voting intention
174
546000
2456
Primeiro, perguntamos sua intenção de voto,
09:08
between the two coalitions.
175
548480
1360
se na esquerda ou na direita.
09:10
Then we asked them to answer 12 of these questions.
176
550560
3776
Depois pedimos que respondessem 12 dessas perguntas.
09:14
They would fill in their answers,
177
554360
1976
Elas preenchiam suas respostas e pedíamos que justificassem:
09:16
and we would ask them to discuss,
178
556360
1616
09:18
so OK, why do you think tax on gas should be increased?
179
558000
5496
"Mas por que você acha que o imposto sobre a gasolina precisa aumentar?"
09:23
And we'd go through the questions.
180
563520
2096
E fazíamos isso com todas as perguntas.
09:25
Then we had a color coded template
181
565640
3896
Então, usávamos uma tabela codificada por cores
09:29
that would allow us to tally their overall score.
182
569560
2936
que nos permitia calcular a pontuação geral.
09:32
So this person would have one, two, three, four
183
572520
3456
Essa pessoa teria um, dois, três, quatro,
09:36
five, six, seven, eight, nine scores to the left,
184
576000
3296
cinco, seis, sete, oito, nove pontos para a esquerda.
09:39
so he would lean to the left, basically.
185
579320
2680
Então, basicamente, se inclinaria para a esquerda.
09:42
And in the end, we also had them fill in their voting intention once more.
186
582800
4440
No fim, também as fizemos preencher sua intenção de voto mais uma vez.
09:48
But of course, there was also a trick involved.
187
588160
2280
Claro, também havia um truque.
09:51
So first, we walked up to people,
188
591360
2176
Primeiro, abordávamos as pessoas, perguntávamos sua intenção de voto
09:53
we asked them about their voting intention
189
593560
2056
09:55
and then when they started filling in,
190
595640
2256
e, quando começavam a preencher,
09:57
we would fill in a set of answers going in the opposite direction.
191
597920
5456
preenchíamos um grupo de respostas opostas.
10:03
We would put it under the notepad.
192
603400
2576
Colocávamos embaixo do bloco de notas.
10:06
And when we get the questionnaire,
193
606000
2776
Quando pegávamos o questionário,
10:08
we would simply glue it on top of the participant's own answer.
194
608800
3320
simplesmente o colávamos em cima das respostas dos participantes.
Aí, pronto,
10:16
So there, it's gone.
195
616000
1240
10:24
And then we would ask about each of the questions:
196
624280
2376
questionávamos sobre cada pergunta:
10:26
How did you reason here?
197
626680
1536
"Qual foi seu raciocínio aqui?"
10:28
And they'll state the reasons,
198
628240
1736
Eles explicavam, e juntos calculávamos a pontuação geral.
10:30
together we will sum up their overall score.
199
630000
2480
10:34
And in the end, they will state their voting intention again.
200
634800
3680
No fim, eles informavam sua intenção de voto novamente.
10:41
So what we find first of all here,
201
641960
1656
A primeira coisa que descobrimos
10:43
is that very few of these manipulations are detected.
202
643640
4216
é que pouquíssimas dessas manipulações são percebidas,
10:47
And they're not detected in the sense that they realize,
203
647880
2656
não "percebidas" no sentido de: "Tá, vocês mudaram minha resposta",
10:50
"OK, you must have changed my answer,"
204
650560
1856
mas mais no sentido de:
10:52
it was more the case that,
205
652440
1256
10:53
"OK, I must've misunderstood the question the first time I read it.
206
653720
3176
"Devo ter entendido mal a pergunta na primeira vez em que a li. Posso mudar?"
10:56
Can I please change it?"
207
656920
1240
10:59
And even if a few of these manipulations were changed,
208
659080
5136
Mesmo que algumas dessas manipulações fossem mudadas,
11:04
the overall majority was missed.
209
664240
2136
a grande maioria passava despercebida.
11:06
So we managed to switch 90 percent of the participants' answers
210
666400
3656
Conseguíamos alterar 90% das respostas dos participantes
11:10
from left to right, right to left, their overall profile.
211
670080
3160
de esquerda para direita e vice-versa, seu perfil geral.
11:14
And what happens then when they are asked to motivate their choices?
212
674800
4400
O que acontecia quando pedíamos que justificassem suas escolhas?
11:20
And here we find much more interesting verbal reports
213
680160
3056
Aqui encontramos relatos verbais muito mais interessantes
11:23
than compared to the faces.
214
683240
2016
se comparados aos rostos.
11:25
People say things like this, and I'll read it to you.
215
685280
3360
As pessoas dizem coisas como esta que vou ler pra vocês.
11:29
So, "Large-scale governmental surveillance of email and internet traffic
216
689720
3736
"O monitoramento em larga escala de e-mails e tráfego de internet
11:33
ought to be permissible as means to combat international crime and terrorism."
217
693480
4336
deve ser admitido como forma de combate a crimes internacionais e ao terrorismo".
11:37
"So you agree to some extent with this statement." "Yes."
218
697840
2716
"Então, de alguma forma, você concorda com a frase." "Sim."
11:40
"So how did you reason here?"
219
700580
1500
"Qual foi seu raciocínio aqui?"
11:43
"Well, like, as it is so hard to get at international crime and terrorism,
220
703600
4936
"Bem, como é difícil desvendar crimes internacionais e terrorismo,
11:48
I think there should be those kinds of tools."
221
708560
2776
acho que devem existir esses tipos de recursos."
11:51
And then the person remembers an argument from the newspaper in the morning.
222
711360
3616
Aí, a pessoa se lembra de um argumento do jornal que leu de manhã.
11:55
"Like in the newspaper today,
223
715000
1616
"No jornal de hoje,
11:56
it said they can like, listen to mobile phones from prison,
224
716640
3376
estava escrito que eles podem ouvir conversas via celular em prisões,
12:00
if a gang leader tries to continue his crimes from inside.
225
720040
3536
caso um criminoso tente dar continuidade aos seus crimes de dentro da prisão.
12:03
And I think it's madness that we have so little power
226
723600
2816
Acho loucura termos tão pouco poder pra evitar essas coisas,
12:06
that we can't stop those things
227
726440
1656
12:08
when we actually have the possibility to do so."
228
728120
2936
se há algo que de fato podemos fazer."
12:11
And then there's a little bit back and forth in the end:
229
731080
2696
E aí, há uma pequena hesitação no final:
12:13
"I don't like that they have access to everything I do,
230
733800
2576
"Não gosto que tenham acesso a tudo que faço,
mas ainda assim acho que vale a pena no fim das contas".
12:16
but I still think it's worth it in the long run."
231
736400
2576
12:19
So, if you didn't know that this person
232
739000
2536
Sem saber que essa pessoa acabara de participar
12:21
just took part in a choice blindness experiment,
233
741560
2256
de um experimento de cegueira de escolha,
12:23
I don't think you would question
234
743840
1856
acho que vocês não questionariam
12:25
that this is the true attitude of that person.
235
745720
3120
que essa seja a verdadeira opinião dessa pessoa.
12:29
And what happens in the end, with the voting intention?
236
749800
2856
E o que acontece no fim com a intenção de votação?
12:32
What we find -- that one is also clearly affected by the questionnaire.
237
752680
4696
Descobrimos que as pessoas são claramente influenciadas pelo questionário.
12:37
So we have 10 participants
238
757400
1736
Temos dez participantes mudando de esquerda para direita.
12:39
shifting from left to right or from right to left.
239
759160
2976
12:42
We have another 19 that go from clear voting intention
240
762160
2536
Temos outros 19 que passam de uma intenção clara de voto à incerteza.
12:44
to being uncertain.
241
764720
1456
12:46
Some go from being uncertain to clear voting intention.
242
766200
3096
Alguns passam da incerteza a uma clara intenção de voto.
12:49
And then there is a number of participants staying uncertain throughout.
243
769320
4736
E alguns participantes continuam na incerteza durante todo o experimento.
12:54
And that number is interesting
244
774080
1576
Isso é interessante
12:55
because if you look at what the polling institutes say
245
775680
4616
porque, se avaliarmos o que os institutos de pesquisas afirmam perto das eleições,
13:00
the closer you get to an election,
246
780320
1656
as únicas pessoas que meio que estão no jogo são as que não têm certeza.
13:02
the only people that are sort of in play
247
782000
2136
13:04
are the ones that are considered uncertain.
248
784160
2656
13:06
But we show there is a much larger number
249
786840
3216
Mas mostramos que há um número bem maior de pessoas
13:10
that would actually consider shifting their attitudes.
250
790080
2800
que na verdade estariam dispostas a mudar de opinião.
13:13
And here I must point out, of course, that you are not allowed to use this
251
793640
3496
Devo esclarecer, é claro, que não se pode usar isso
13:17
as an actual method to change people's votes
252
797160
2616
como método para mudar o voto das pessoas antes de uma eleição.
13:19
before an election,
253
799800
1496
13:21
and we clearly debriefed them afterwards
254
801320
3616
Obviamente as interrogamos depois
13:24
and gave them every opportunity to change back
255
804960
2296
e lhes demos todas as chances de mudar para a opinião que tinham antes.
13:27
to whatever they thought first.
256
807280
2480
13:30
But what this shows is that if you can get people
257
810600
2336
Mas descobrimos que se você consegue fazer com que as pessoas
13:32
to see the opposite view and engage in a conversation with themselves,
258
812960
5536
vejam o ponto de vista oposto e conversem consigo mesmas,
13:38
that could actually make them change their views.
259
818520
2920
elas podem na verdade acabar mudando de opinião.
13:42
OK.
260
822400
1200
Pois bem.
13:44
So what does it all mean?
261
824760
1656
O que isso tudo significa? O que acredito que aconteça aqui?
13:46
What do I think is going on here?
262
826440
2416
13:48
So first of all,
263
828880
1216
Antes de mais nada,
13:50
a lot of what we call self-knowledge is actually self-interpretation.
264
830120
4856
muito do que consideramos autoconhecimento é na verdade autointerpretação.
13:55
So I see myself make a choice,
265
835000
2496
Eu me vejo fazendo uma escolha
13:57
and then when I'm asked why,
266
837520
2776
e, quando me pergunto por quê,
14:00
I just try to make as much sense of it as possible
267
840320
2536
simplesmente tento ao máximo justificá-la ao explicá-la.
14:02
when I make an explanation.
268
842880
1936
14:04
But we do this so quickly and with such ease
269
844840
3016
Mas fazemos isso tão rápido e com tanta facilidade
14:07
that we think we actually know the answer when we answer why.
270
847880
4280
que achamos que sabemos a resposta quando respondemos por quê.
14:13
And as it is an interpretation,
271
853040
3096
Como se trata de uma interpretação, claro que às vezes cometemos erros,
14:16
of course we sometimes make mistakes.
272
856160
2296
14:18
The same way we make mistakes when we try to understand other people.
273
858480
3520
da mesma forma que os cometemos quando tentamos entender outras pessoas.
14:23
So beware when you ask people the question "why"
274
863160
3696
Então, tenha cuidado ao perguntar "por quê" aos outros
14:26
because what may happen is that, if you asked them,
275
866880
4896
pois o que pode acontecer é que, se você perguntar:
14:31
"So why do you support this issue?"
276
871800
4016
"Mas por que você apoia esse posicionamento?",
14:35
"Why do you stay in this job or this relationship?" --
277
875840
3216
"Por que continua nesse emprego ou nesse relacionamento?",
14:39
what may happen when you ask why is that you actually create an attitude
278
879080
3416
o que pode acontecer é você acabar criando uma opinião
14:42
that wasn't there before you asked the question.
279
882520
2240
que não existia antes de você fazer a pergunta.
14:45
And this is of course important in your professional life, as well,
280
885440
3176
Claro que isso também é importante em nossa vida profissional,
14:48
or it could be.
281
888640
1216
ou poderia ser;
14:49
If, say, you design something and then you ask people,
282
889880
2536
por exemplo, se você cria algo e aí pergunta às pessoas:
14:52
"Why do you think this is good or bad?"
283
892440
2256
"Por que você acha isso bom ou ruim?",
14:54
Or if you're a journalist asking a politician,
284
894720
3056
ou se você é jornalista e pergunta a um político:
14:57
"So, why did you make this decision?"
285
897800
2376
"Por que o senhor tomou essa decisão?",
15:00
Or if indeed you are a politician
286
900200
1936
ou se você mesmo é um político
15:02
and try to explain why a certain decision was made.
287
902160
2640
e tenta explicar por que uma decisão foi tomada.
15:06
So this may all seem a bit disturbing.
288
906080
3576
Isso tudo pode parecer perturbador,
15:09
But if you want to look at it from a positive direction,
289
909680
3496
mas se quisermos analisar por uma perspectiva positiva,
15:13
it could be seen as showing,
290
913200
1736
poderia ser visto assim:
15:14
OK, so we're actually a little bit more flexible than we think.
291
914960
3376
"Tá, na verdade somos um pouco mais flexíveis do que achamos ser.
15:18
We can change our minds.
292
918360
1896
Podemos mudar de ideia,
15:20
Our attitudes are not set in stone.
293
920280
2456
nossas opiniões não são imutáveis,
15:22
And we can also change the minds of others,
294
922760
3176
e podemos também mudar a opinião dos outros
15:25
if we can only get them to engage with the issue
295
925960
2376
se conseguirmos fazê-los avaliar a questão e enxergá-la do ponto de vista oposto".
15:28
and see it from the opposite view.
296
928360
1680
15:31
And in my own personal life, since starting with this research --
297
931400
3936
Desde que iniciei essa pesquisa, a minha própria vida pessoal...
15:35
So my partner and I, we've always had the rule
298
935360
2576
Eu e minha companheira sempre tivemos uma regra:
15:37
that you're allowed to take things back.
299
937960
2296
podemos voltar atrás nas coisas que dizemos.
15:40
Just because I said I liked something a year ago,
300
940280
2336
Eu ter dito um ano atrás que gostava de algo
15:42
doesn't mean I have to like it still.
301
942640
2040
não significa que ainda tenho que gostar.
15:45
And getting rid of the need to stay consistent
302
945480
2816
Não termos a obrigação de mantermos nossas opiniões
15:48
is actually a huge relief and makes relational life so mush easier to live.
303
948320
4360
é na verdade um grande alívio e torna a vida a dois bem mais fácil.
15:53
Anyway, so the conclusion must be:
304
953720
2360
Enfim, a conclusão é a seguinte:
15:57
know that you don't know yourself.
305
957320
2496
tenha consciência de que você não conhece a si mesmo,
15:59
Or at least not as well as you think you do.
306
959840
2320
pelo menos não tão bem quanto você acredita.
16:03
Thanks.
307
963480
1216
Obrigado.
16:04
(Applause)
308
964720
4640
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7