Anne Scherer: Why we're more honest with machines than people | TED

88,044 views ・ 2021-07-29

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Transcriber:
0
0
7000
Tradutor: Ana Sofia Ferreira Revisora: Margarida Ferreira
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Há uns anos, fiz um churrasco para amigos e família.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Como de costume, falámos do tempo, da boa comida ou das boas séries para ver.
00:21
So nothing out of the ordinary
3
21876
3080
Nada fora do comum,
00:24
until one attendee casually mentioned
4
24996
2920
até que um dos convidados comentou descontraidamente
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
que ele e a mulher não tinham sexo há muito tempo.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Como podem imaginar, seguiu-se um silêncio constrangedor.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Até que um menino de seis anos que estava no churrasco com os pais
00:42
blurted out that his parents had lots of sex
8
42796
3680
deixa escapar que os pais dele faziam muito sexo
00:46
and he could hear them all the time.
9
46516
2280
e que ele os ouvia a toda a hora.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
Depois o churrasco continuou como se nada fosse.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Quando não estou a fazer churrascos,
00:57
I am researching how people interact with each other
12
57556
3360
investigo como é que as pessoas interagem umas com as outras
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
e como é que isso passa para a sua interação com as tecnologias.
01:05
so not all too surprisingly,
14
65356
2160
Então, sem grande surpresa
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
depois desta interação social muito particular no churrasco,
01:11
I was left wondering why we, the audience,
16
71916
3520
fiquei a pensar porque é que nós, que estávamos a assistir,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
ignorámos à grande o que o adulto partilhou tão abertamente connosco.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Porquê o silêncio e depois os risos perante o comentário da criança?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Bem, ambos quebraram uma regra social:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
nunca falar de sexo, de dinheiro ou de política à mesa.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Assumimos que um adulto conheça esta regra e a cumpra.
01:39
So when such expectations are broken,
22
99116
2840
Então, quando essa expetativa é gorada, sancionamos o transgressor
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
. — neste caso, ignorando-o.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Mas quando é uma criança a quebrar a mesma regra,
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
atribuímos isso à sua compreensão ingénua das boas maneiras
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
e, pelo menos até uma certa idade, não a sancionamos assumidamente.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Claro que não há um manual oficial de comportamentos socialmente apropriados
02:08
or even socially accepted dinner topics.
28
128396
3000
nem sequer de assuntos socialmente aceitáveis para um jantar.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
Na verdade, as nossas normas sociais são normalmente códigos de conduta tácitos
02:16
and they change over time as we as a society change and learn.
30
136436
4800
que mudam ao longo do tempo, à medida que a sociedade muda e aprende.
02:22
Less than a year ago, for instance,
31
142316
2120
Há menos de um ano, por exemplo,
02:24
it was considered impolite not to shake hands
32
144436
3000
era considerada má educação não dar um aperto de mão
02:27
when introducing yourself to someone.
33
147436
2840
quando nos apresentavam a alguém.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Uns meses depois, com a propagação global do coronavírus,
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
apertar a mão pode ser mal visto
02:38
and maybe even a thing of the past.
36
158436
2400
e até considerado uma coisa do passado.
02:41
The way we learn these social rules then
37
161796
2440
Portanto aprendemos estas normas sociais
02:44
is mostly by social rewards and social punishments.
38
164236
4720
sobretudo através de recompensas e sanções sociais.
02:48
Now, as social animals,
39
168996
2040
Como animais sociais,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
procuramos a aprovação social e queremos evitar que nos desaprovem.
02:56
So we act in a way that is socially accepted
41
176356
3440
Por isso agimos de forma socialmente aceitável
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
e apresentamo-nos aos outros de forma socialmente desejável.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Queremos ser vistos como pessoas inteligentes, bem-sucedidas,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
desportivas e ativas, criativas, empáticas e possivelmente tudo isso ao mesmo tempo.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
Através das redes sociais, o nosso esforço pela aprovação social
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
e, com ele, a nossa necessidade de autoapresentação e perfeição
03:26
has skyrocketed.
47
206556
1480
disparou.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Claro que há o reverso da medalha.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
Em qualquer interação social, não procuramos apenas a aprovação alheia.
03:37
but we also constantly fear other's disapproval
50
217796
3800
Também receamos constantemente a reprovação dos outros
03:41
when we cannot live up to their expectations.
51
221636
2720
quando não conseguimos corresponder às suas expetativas.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Pensem num adulto com problemas de incontinência
03:48
or a drug addiction.
53
228756
1880
ou de toxicodependência.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Se essa pessoa tiver de falar com um profissional da saúde,
03:55
what would you expect to find?
55
235036
1800
o que esperariam encontrar?
03:57
Or if a soldier returned from combat
56
237796
2720
Ou se um soldado regressado de combate
04:00
and had to talk about their fears or problems,
57
240556
3280
tiver de falar sobre os seus medos ou problemas,
04:03
do you think they would open up easily?
58
243876
2000
acham que se abriria facilmente?
04:07
A team of USC researchers examined just that.
59
247396
3760
Investigadores da Universidade da Califórnia
04:11
So they looked at the data from the US Army.
60
251156
3200
Pegaram em dados do exército dos EUA.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Habitualmente, os soldados tinham de ser entrevistados
04:17
by a human health care professional when returning from combat
62
257156
4040
por um profissional de saúde humano quando regressavam de combate
04:21
to check if everything is OK.
63
261196
2640
para ver se estava tudo bem.
04:23
Now, interestingly,
64
263876
1280
Curiosamente,
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
os investigadores descobriram
que os soldados não relatavam quaisquer problemas
04:28
after their returns.
66
268876
2160
depois de regressarem.
04:31
Surely many of them were truly fine,
67
271076
2840
Claro que muitos deles estavam mesmo bem,
04:33
but the researchers also suspected
68
273956
2560
mas os investigadores também suspeitaram
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
que muitos dos soldados não ousavam falar abertamente dos seus problemas.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Afinal, os soldados são treinados para serem fortes e corajosos
04:47
that learn not to show any weaknesses.
71
287156
2400
e aprendem a não demonstrar fraquezas.
04:50
So openly admitting to have health problems,
72
290276
3760
Portanto reconhecer abertamente ter problemas de saúde,
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
ter dificuldade em dormir ou ter pesadelos,
04:57
is not something easy to do for soldiers.
74
297396
2840
não é algo fácil para os soldados.
05:00
The question then ultimately becomes
75
300236
2800
A questão que se coloca é então:
05:03
how can we help individuals open up more easily
76
303076
3800
como podemos ajudar as pessoas a abrirem-se mais facilmente
05:06
and worry less about the judgment of others?
77
306916
2640
e a preocuparem-se menos com o julgamento dos outros?
05:11
Well, remember what I said earlier.
78
311356
2640
Lembrem-se do que disse anteriormente.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Esperamos avaliação social em qualquer interação social.
05:19
So how about we remove the social from the interaction?
80
319796
3880
E se retirássemos da interação a parte social?
05:24
This is exactly what the team in the US did.
81
324556
3120
Foi exatamente isso que a equipa norte-americana fez.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Desenvolveram um entrevistador virtual chamado SimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
O SimSensei é um avatar digital que tem um aspeto de ser humano
05:37
and can interact with clients through natural conversations.
84
337516
4200
e consegue interagir com os clientes através de conversas naturais.
05:41
Now, when returning from combat,
85
341756
2120
Quando regressavam de combate,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
os soldados passaram a ser entrevistados pelo avatar digital
05:47
instead of that human health care professional.
87
347316
2320
em vez do profissional de saúde humano.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
E o que aconteceu? Assim que o SimSensei foi instituído,
05:55
soldiers reported more health problems,
89
355196
3080
os soldados começaram a relatar mais problemas de saúde,
05:58
like having nightmares or trouble sleeping.
90
358276
2760
como pesadelos ou dificuldade em dormir.
06:02
So machines can help remove the social from the equation
91
362836
4280
Portanto as máquinas podem ajudar a retirar a parte social da equação
06:07
and help people open up more easily.
92
367116
2440
e ajudam as pessoas a abrirem-se mais facilmente.
06:10
But careful, not all machines are created equal.
93
370836
3720
Mas cuidado, nem todas as máquinas são iguais.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Considerando os avanços tremendos em tecnologias como gráficos informáticos
06:19
or natural language processing,
95
379076
2200
ou processamento de linguagem natural,
06:21
machines have become increasingly humanlike.
96
381276
3760
as máquinas têm-se tornado cada vez mais semelhantes aos humanos.
06:25
The question then ultimately becomes,
97
385076
2600
A questão que se coloca é:
06:27
which rules do we apply in these interactions?
98
387716
3200
que regras aplicamos nestas interações?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Continuamos a aplicar regras sociais quando interagem com máquinas humanoides?
06:39
So do we start to worry about social judgment again?
100
399036
3080
Voltamos então a preocuparmo-nos com o julgamento social?
06:43
This is exactly what I examine in my research.
101
403156
3600
É exatamente isto que eu analiso na minha investigação.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Juntamente com outros colegas,
desenvolvemos uma série de robôs de conversação.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Estes robôs de conversação foram programados
para simular conversas por escrita
06:56
and they were designed to be either very social and humanlike
104
416876
4360
e foram concebidos para serem muito sociais e parecidos com pessoas
07:01
or very functional and machine-like.
105
421236
2720
ou muito funcionais e parecidos com máquinas.
07:03
So, for instance,
106
423996
2040
Por exemplo,
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
os nossos robôs humanoides usam as chamadas disfluências
07:10
and social language cues,
108
430436
1600
e sugestões sociais,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
como “oh”, “ah”, “hum”
que nós, humanos, adoramos usar nas nossas conversas,
07:19
to signal our presence to conversation partners.
110
439116
4240
para assinalar a nossa presença aos interlocutores..
07:23
In contrast, our machine-like bots
111
443356
2760
Por outro lado, os robôs mecânicos
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
não tinham sugestões sociais e limitavam-se aos assuntos de conversa.
07:30
Since we were interested in how much people would open up
113
450396
2800
Como estávamos interessados em saber quanto as pessoas se abririam
07:33
in these different conversations,
114
453196
2440
nestas diferentes conversas,
07:35
we ask participants a number of questions,
115
455676
2920
fizemos várias perguntas aos participantes,
07:38
which gradually grew more and more personal,
116
458636
3480
cada vez mais pessoais,
07:42
up to the point where we would ask participants
117
462116
2520
até ao ponto de lhes pedirmos
07:44
to share possibly very delicate information about themselves.
118
464676
4160
para nos darem informações muito delicadas sobre si mesmos.
07:49
Now, considering the findings from prior research,
119
469756
2720
Considerando os resultados de investigações anteriores,
07:52
such as the one from the US Army before,
120
472516
3320
como a do exército dos EUA,
07:55
we expected that people would apply more social rules
121
475876
4240
esperávamos que as pessoas aplicassem mais regras sociais
08:00
in their interactions with these humanlike bots
122
480116
2920
nas interações com os robôs humanoides
08:03
and act accordingly.
123
483076
1640
e agissem em conformidade.
08:05
So what did we find?
124
485596
1680
O que é que descobrimos?
08:08
Well, exactly that.
125
488556
1600
Isso mesmo.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Os participantes que interagiram com os robôs humanoides
08:14
were more concerned about social evaluation
127
494076
3640
estavam mais preocupados com a avaliação social
08:17
and as a result of this social apprehension,
128
497756
2480
e, como tal,
08:20
they also gave more socially desirable responses.
129
500236
5080
também davam respostas mais socialmente desejáveis.
08:25
Let me give you an example.
130
505316
1960
Vou dar-vos um exemplo.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Uma das perguntas mais delicadas que fizemos aos participantes
08:30
was the number of prior sex partners they had had.
132
510996
3320
era o número de parceiros sexuais que já tinham tido.
08:35
When interacting with our humanlike bot,
133
515276
3160
Ao interagir com o robô humanoide,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
os homens disseram ter tido bastante mais parceiros sexuais
08:43
and women reported to have significantly less
135
523356
3360
e as mulheres disseram ter tido bastante menos
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
do que os homens e mulheres que interagiram com o robô mecânico.
08:52
So what does this all tell us?
137
532036
1920
O que é que isto nos diz?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Bem, antes de mais, que os homens querem mostrar que tiveram mais parceiras
08:58
and women by having less.
139
538716
1640
e as mulheres que tiveram menos.
09:01
Clearly, this already says a lot
140
541116
1760
Claramente, isto diz muito
09:02
about what the different sexes consider socially desirable
141
542916
4080
sobre o que os diferentes sexos consideram socialmente desejável
09:07
and how our expectations in society still differ across genders.
142
547036
5680
e que as nossas expetativas na sociedade ainda são diferentes nos dois géneros.
09:13
But this opens up a whole new topic
143
553676
2520
Mas isto é uma temática
09:16
that I will better leave for other experts to discuss.
144
556196
2960
que eu vou deixar para outros peritos.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
Segundo, e talvez mais importante acerca do comportamento do consumidor,
09:26
People open up more easily when they interact with machines
146
566956
4320
as pessoas abrem-se mais facilmente quando interagem com máquinas
09:31
that are apparently just that -- machines.
147
571276
3560
que aparentam ser isso mesmo, máquinas.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Hoje em dia, gasta-se muito suor, dinheiro e lágrimas
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
a tornar estas máquinas quase impossíveis de distinguir de nós.
09:43
Now, this research can show
150
583156
1680
Este estudo demonstra
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
que, por vezes, deixar uma máquina ser máquina até é bom.
09:51
Which brings me to my third point.
152
591716
1680
O que me leva ao terceiro ponto.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Estas interações com máquinas têm sido por vezes criticadas.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Já devem ter ouvido que a Siri, a Alexa ou outros
10:01
make your kids rude or impolite.
155
601796
2400
tornam as crianças malcriadas ou indelicadas.
10:05
Hopefully, this research can show you
156
605356
1880
Espero que este estudo possa mostrar
10:07
a great upside of these machine interactions.
157
607236
3040
uma grande vantagem destas interações com máquinas.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
Na era das redes sociais e da nossa constante caça de “gosto”,
10:16
machines can give us grownups --
159
616196
2920
as máquinas podem dar-nos a nós, adultos...
10:19
help us find that inner child again
160
619116
2760
podem ajudar-nos a reencontrar a nossa criança interior
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
e proporcionar uma pausa
à nossa constante necessidade de autoapresentação e perfeição
10:26
a time-out.
162
626236
1800
10:28
For once, we do not need to worry
163
628076
2040
Por uma vez, não temos de nos preocupar
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
se o número de parceiros sexuais é demasiado elevado ou demasiado baixo,
10:34
and instead it is OK to simply be who we are.
165
634676
4520
e sentimo-nos bem em sermos simplesmente quem somos.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
Por último, acho que estas máquinas podem lembrar-nos
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
um elemento central para se ter uma boa conversa:
10:49
being nonjudgmental.
168
649876
2160
não julgar.
10:52
so the next time you might encounter
169
652076
2160
Então, da próxima vez que se encontrarem
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
numa situação social peculiar como a minha no churrasco,
10:58
try to be less judgmental
171
658116
1800
tentem ser menos críticos
10:59
when another person openly shares
172
659956
1960
quando outra pessoa partilha abertamente convosco
11:01
their thoughts, feelings and problems with you.
173
661956
3080
os seus pensamentos, sentimentos e problemas.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Muitas máquinas já fazem isso.
Talvez nós também devêssemos fazer o mesmo.
11:09
Thank you very much.
175
669876
1240
Muito obrigada.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7