Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Transcriber:
0
0
7000
Tradutor: Alex Santana Revisor: Wanderley Jesus
Ora, a uns anos atrás eu estava em um churrasco com amigos e familiares.
Como de costume, a gente falava do clima , da comida ou coisas para assistir.
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Nada inusitado até um dos participantes casualmente comentar
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
que ele e sua esposa não transavam há muito tempo .
00:21
So nothing out of the ordinary
3
21876
3080
00:24
until one attendee casually mentioned
4
24996
2920
Como se pode imaginar, o local foi tomado por um silêncio constrangedor.
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
Até que um garoto de seis anos que veio para o churrasco com seus pais
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
desabafou que seus pais transavam bastante
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
e ele conseguia ouvi-los todas as vezes.
E então o churrasco continuou como se nada tivesse acontecido.
00:42
blurted out that his parents had lots of sex
8
42796
3680
00:46
and he could hear them all the time.
9
46516
2280
Bom, quando eu não estou em um churrasco,
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
estou pesquisando como pessoas interagem entre si
e como isso é passado para suas interações com tecnologias,
00:55
Now, when I'm not having barbecues,
11
55516
2000
então, sem muitas surpresas,
00:57
I am researching how people interact with each other
12
57556
3360
depois desta interação social, bastante singular, no churrasco,
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
fiquei me perguntando porque a gente, a plateia,
01:05
so not all too surprisingly,
14
65356
2160
estava ignorando completamente o que o adulto compartilhou aquela noite.
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
01:11
I was left wondering why we, the audience,
16
71916
3520
Então porque o silêncio e por que a risada pelo comentário do garoto?
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
Bem, ambos estavam quebrando a regra social:
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
nunca fale sobre sexo, dinheiro ou política na mesa de jantar.
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Assumimos que um adulto conheça esta regra e a siga.
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
Então, quando tal expectativa é quebrada,
punimos o infrator adequadamente -- no nosso caso, com ignorância.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
01:39
So when such expectations are broken,
22
99116
2840
Contudo, quando uma criança quebra tal regra,
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
atribuímos isto a sua compreensão ingênua das nossas maneiras sociais
01:47
When a child, however, breaks such a rule,
24
107996
2840
e até uma determinada idade ao menos, não os punimos, abertamente, por isso.
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
Obviamente, não há um livro de regras oficial
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
para comportamentos apropriados socialmente
ou mesmo tópicos aceitos socialmente no jantar.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Na verdade, nossas normas sociais são normalmente códigos de condutas tácitos
e mudam com o tempo, da mesma forma que nós mudamos e aprendemos.
02:08
or even socially accepted dinner topics.
28
128396
3000
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
Menos de um ano atrás, por exemplo,
era considerado rude não apertar as mãos
02:16
and they change over time as we as a society change and learn.
30
136436
4800
quando somos apresentados a alguém.
Poucos meses e uma proliferação mundial da corona vírus depois
02:22
Less than a year ago, for instance,
31
142316
2120
02:24
it was considered impolite not to shake hands
32
144436
3000
e apertar as mãos pode ser algo para que alguém faça cara feia
02:27
when introducing yourself to someone.
33
147436
2840
e até mesmo ter se tornado uma coisa do passado.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
A maneira que aprendemos estas regras sociais
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
são predominantemente por meio de recompensas e punições sociais.
02:38
and maybe even a thing of the past.
36
158436
2400
Agora, como animais sociais,
02:41
The way we learn these social rules then
37
161796
2440
nós buscamos aprovação social e queremos evitar a desaprovação de outros.
02:44
is mostly by social rewards and social punishments.
38
164236
4720
Então nós agimos de maneira que é socialmente aceito
02:48
Now, as social animals,
39
168996
2040
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
e apresentamos de uma maneira socialmente desejável para os outros.
02:56
So we act in a way that is socially accepted
41
176356
3440
Queremos ser vistos como um indivíduo inteligente, bem sucedido,
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
esportivo e ativo, criativo, empático e possivelmente tudo de uma vez.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Agora, através da mídia social, nós aspiramos por aprovação social,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
e com ela, nossa necessidade de auto apresentação e perfeição disparou
03:17
Now, through social media, our strive for social approval,
45
197036
4680
Certamente, há um lado negativo para isto.
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
Em algumas interações sociais, nós não apenas procuramos por aprovação
03:26
has skyrocketed.
47
206556
1480
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
mas constantemente tememos a desaprovação alheia
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
quando não podemos atender às expectativas deles.
03:37
but we also constantly fear other's disapproval
50
217796
3800
Considere um adulto com problema de incontinência
ou um vício em droga.
03:41
when we cannot live up to their expectations.
51
221636
2720
se ele ou ela tiver de falar com um profissional de saúde
03:45
Just consider an adult with incontinence problems
52
225436
3280
O que você espera descobrir?
03:48
or a drug addiction.
53
228756
1880
Ou se um soldado retornando de um combate
03:50
If he or she had to talk to a health care professional,
54
230676
4320
tiver de falar dos seus medos e problemas,
03:55
what would you expect to find?
55
235036
1800
você acha que eles se abririam facilmente?
03:57
Or if a soldier returned from combat
56
237796
2720
Um time de pesquisadores da USC analisou exatamente isso.
04:00
and had to talk about their fears or problems,
57
240556
3280
Então eles procuraram nos arquivos do Exército Norte Americano.
04:03
do you think they would open up easily?
58
243876
2000
Tradicionalmente, soldados tinham que ser entrevistados
04:07
A team of USC researchers examined just that.
59
247396
3760
por um profissional de saúde depois de retornar do combate
04:11
So they looked at the data from the US Army.
60
251156
3200
para verificar se está tudo certo.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Agora, interessantemente,
os pesquisadores descobriram que soldados
04:17
by a human health care professional when returning from combat
62
257156
4040
dificilmente reportavam algum problema
após seu retorno.
04:21
to check if everything is OK.
63
261196
2640
Com certeza, muitos deles estavam realmente bem,
04:23
Now, interestingly,
64
263876
1280
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
mas os pesquisadores também suspeitaram
04:28
after their returns.
66
268876
2160
que muitos soldados não ousavam compartilhar seus problemas abertamente.
04:31
Surely many of them were truly fine,
67
271076
2840
04:33
but the researchers also suspected
68
273956
2560
Afinal, soldados são treinados para serem pessoas fortes e corajosas
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
que aprendem a não mostrarem fraquezas.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Então admitir abertamente ter problemas de saúde,
problemas com o sono ou ter pesadelos
04:47
that learn not to show any weaknesses.
71
287156
2400
não é algo fácil de se fazer para soldados.
04:50
So openly admitting to have health problems,
72
290276
3760
A questão então, por fim, se torna
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
como podemos ajudar pessoas a se abrirem mais facilmente
04:57
is not something easy to do for soldiers.
74
297396
2840
e se preocuparem menos com o julgamento alheio?
05:00
The question then ultimately becomes
75
300236
2800
Bem, lembra do que eu disse mais cedo?
05:03
how can we help individuals open up more easily
76
303076
3800
Nós esperamos avaliação social em qualquer interação social.
05:06
and worry less about the judgment of others?
77
306916
2640
05:11
Well, remember what I said earlier.
78
311356
2640
Então que tal se removermos a parte social desta interação?
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Isto é exatamente o que o grupo nos Estados Unidos fez.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Assim, eles desenvolveram um entrevistador virtual chamado SimSensei.
Então, SimSensei é um avatar virtual que tem uma aparência humana
05:24
This is exactly what the team in the US did.
81
324556
3120
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
e que pode interagir com clientes através de conversas naturais.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
Agora, quando estavam retornando combate,
os soldados foram entrevistados pelo avatar digital
05:37
and can interact with clients through natural conversations.
84
337516
4200
ao invés de um humano profissional de saúde.
05:41
Now, when returning from combat,
85
341756
2120
E o que aconteceu? Bem, uma vez que
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
o SimSensei foi apresentado,
soldados informaram mais problemas de saúde,
05:47
instead of that human health care professional.
87
347316
2320
como estar tendo pesadelos ou problemas para dormir.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
Quer dizer que maquinas podem ajudar a remover a parte social da equação
05:55
soldiers reported more health problems,
89
355196
3080
05:58
like having nightmares or trouble sleeping.
90
358276
2760
e ajudar pessoas a se abrirem mais facilmente.
06:02
So machines can help remove the social from the equation
91
362836
4280
Mas, tenham cuidado, nem todas as maquinas são feitas igualmente
Considerando os avanços tremendos na tecnologia como computação gráfica
06:07
and help people open up more easily.
92
367116
2440
06:10
But careful, not all machines are created equal.
93
370836
3720
ou processamento de linguagem natural,
máquinas tem se tornado incrivelmente humanizadas.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
A questão então, finalmente, se torna:
06:19
or natural language processing,
95
379076
2200
Quais regras nós aplicamos nessas interações?
06:21
machines have become increasingly humanlike.
96
381276
3760
Ainda aplicamos regras sociais quando interagimos com maquinas humanizadas?
06:25
The question then ultimately becomes,
97
385076
2600
06:27
which rules do we apply in these interactions?
98
387716
3200
Então começamos a nos preocupar com julgamento social novamente?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Exatamente isso o que examinei em minha pesquisa.
Ao lado de colegas, desenvolvemos uma série de chatbots.
06:39
So do we start to worry about social judgment again?
100
399036
3080
Estes chatbots foram programados para simular conversas baseadas em texto
06:43
This is exactly what I examine in my research.
101
403156
3600
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
e eles foram projetados para ser tanto bem social e humano
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
quanto bem funcional e maquinal.
Então, por exemplo,
06:56
and they were designed to be either very social and humanlike
104
416876
4360
nossos bots humanizados usam as chamadas defluência veloz
07:01
or very functional and machine-like.
105
421236
2720
e deixas de linguagem social,
07:03
So, for instance,
106
423996
2040
tais como “ooohh”, “aaaahh”, “hhmm” que nós humanos amamos usar em conversas
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
07:10
and social language cues,
108
430436
1600
para sinalizar nossa presença aos parceiros da conversa.
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
Em contraste, nossos bots maquinais
careciam de tais deixas sociais e simplesmente se atinham
07:19
to signal our presence to conversation partners.
110
439116
4240
aos pontos de discussão.
Como estamos interessados em quantas pessoas se abririam
07:23
In contrast, our machine-like bots
111
443356
2760
nestas diferentes conversas,
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
fazemos uma série de perguntas,
07:30
Since we were interested in how much people would open up
113
450396
2800
que gradualmente ficavam mais e mais pessoal,
07:33
in these different conversations,
114
453196
2440
até o ponto em que pedimos aos participantes
07:35
we ask participants a number of questions,
115
455676
2920
para compartilhar informações bem delicadas sobre eles.
07:38
which gradually grew more and more personal,
116
458636
3480
Agora, considerando as descobertas da pesquisa anterior,
07:42
up to the point where we would ask participants
117
462116
2520
07:44
to share possibly very delicate information about themselves.
118
464676
4160
tal como aquela do Exército dos Estados Unidos,
nós esperávamos que as pessoas aplicaria mais regras sociais
07:49
Now, considering the findings from prior research,
119
469756
2720
nas suas interações com esses bots humanizados
07:52
such as the one from the US Army before,
120
472516
3320
e agiriam dessa forma.
07:55
we expected that people would apply more social rules
121
475876
4240
Então, o que descobrimos?
08:00
in their interactions with these humanlike bots
122
480116
2920
Bem, exatamente isso.
Quer dizer que participantes interagindo com nossos bots humanizados
08:03
and act accordingly.
123
483076
1640
08:05
So what did we find?
124
485596
1680
estavam mais preocupados com a avaliação social
08:08
Well, exactly that.
125
488556
1600
e como resultado desta apreensão social
08:10
So participants interacting with our humanlike bots
126
490156
3880
eles também deram respostas mas socialmente desejáveis.
08:14
were more concerned about social evaluation
127
494076
3640
Deixe-me dar um exemplo.
08:17
and as a result of this social apprehension,
128
497756
2480
Uma das perguntas mais delicadas que fizemos aos participantes
08:20
they also gave more socially desirable responses.
129
500236
5080
foi o número de quantos parceiros sexuais que eles tiveram.
08:25
Let me give you an example.
130
505316
1960
Quando estavam interagindo com nosso bot humanizado,
08:27
One of the most delicate questions that we asked participants
131
507276
3680
homens relatavam ter tido significantemente mais parceiros sexuais
08:30
was the number of prior sex partners they had had.
132
510996
3320
e mulheres relatavam ter significantemente menos
08:35
When interacting with our humanlike bot,
133
515276
3160
08:38
men reported to have significantly more prior sex partners
134
518436
4920
do que homens e mulheres interagindo com nosso bot mecanizado.
08:43
and women reported to have significantly less
135
523356
3360
Então, o que isso tudo nos diz?
Bem, primeiro, homens parecem melhores tendo tido mais parceiros sexuais.
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
e mulheres tendo menos.
08:52
So what does this all tell us?
137
532036
1920
Claramente, isso já diz muito
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
sobre o que diferentes sexos consideram socialmente desejável
08:58
and women by having less.
139
538716
1640
e como nossas expectativas na sociedade ainda difere entre gêneros.
09:01
Clearly, this already says a lot
140
541116
1760
09:02
about what the different sexes consider socially desirable
141
542916
4080
Porém isto abre um tópico totalmente novo
09:07
and how our expectations in society still differ across genders.
142
547036
5680
que deixarei para outros especialistas discutirem.
Segundo e talvez mais importante, numa perspectiva de psicologia do consumidor.
09:13
But this opens up a whole new topic
143
553676
2520
09:16
that I will better leave for other experts to discuss.
144
556196
2960
As pessoas se abrem mais facilmente quando elas interagem com maquinas
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
que são aparentemente apenas isso -- maquinas.
09:26
People open up more easily when they interact with machines
146
566956
4320
Hoje, muito suor, dinheiro e lágrimas
são empregadas para a criação de maquinas basicamente indistinguíveis para nós.
09:31
that are apparently just that -- machines.
147
571276
3560
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Portanto, esta pesquisa pode mostrar
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
que algumas vezes permitir uma maquina ser uma máquina é na verdade, algo bom.
09:43
Now, this research can show
150
583156
1680
O que me traz ao meu terceiro ponto.
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
Estas maquinas interativas tem sido altamente criticadas a tempos.
Você pode ter ouvido que Siri, Alexa ou outros
09:51
Which brings me to my third point.
152
591716
1680
deixa seus filhos rudes ou mal-educados.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Com sorte, esta pesquisa pode mostrar a você
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
um ótimo lado positivo destas maquinas interativas.
10:01
make your kids rude or impolite.
155
601796
2400
Em época de mídia social e nossa constante caça pelo próximo “curtir”,
10:05
Hopefully, this research can show you
156
605356
1880
10:07
a great upside of these machine interactions.
157
607236
3040
maquinas podem nos dar crescimento --
nos ajudar a encontrar aquela criança novamente
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
e dar, a nossa constante necessidade de auto apresentação e perfeição,
10:16
machines can give us grownups --
159
616196
2920
um intervalo.
10:19
help us find that inner child again
160
619116
2760
Finalmente, não precisamos nos preocupar
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
se o número de parceiros sexuais é muito alto ou baixo,
10:26
a time-out.
162
626236
1800
e em vez disso está tudo bem simplesmente ser quem somos.
10:28
For once, we do not need to worry
163
628076
2040
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
Por fim, então, eu acho que essas maquinas podem nos lembrar
10:34
and instead it is OK to simply be who we are.
165
634676
4520
de um elemento central do que faz um bom parceiro de conversa:
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
não julgar.
então, da próxima vez que você possa encontrar
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
uma situação social única como a minha no churrasco,
10:49
being nonjudgmental.
168
649876
2160
tente julgar menos
quando outra pessoa compartilha abertamente
10:52
so the next time you might encounter
169
652076
2160
seus pensamentos, sentimentos e problemas com você.
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
Muitas maquinas já fazem isso e talvez devêssemos fazer isso também.
10:58
try to be less judgmental
171
658116
1800
10:59
when another person openly shares
172
659956
1960
11:01
their thoughts, feelings and problems with you.
173
661956
3080
Muito obrigada.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
11:09
Thank you very much.
175
669876
1240
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7