Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


Fai dobre clic nos subtítulos en inglés a continuación para reproducir o vídeo.

00:00
Transcriber:
0
0
7000
Translator: Mario Cal Reviewer: Xosé María Moreno
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Hai uns anos, estaba facendo unha barbacoa con amigos e parentes.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Coma de costume, falabamos do tempo, da comida e do que botaban na tele.
00:21
So nothing out of the ordinary
3
21876
3080
Nada fóra do normal
00:24
until one attendee casually mentioned
4
24996
2920
ata que un dos convidados mencionou como de pasada
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
que a súa muller e máis el levaban moito sen ter relacións.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Como imaxinaredes, o que seguiu foi un incómodo silencio.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Entón un neno de seis anos que viñera cos pais
00:42
blurted out that his parents had lots of sex
8
42796
3680
soltou que os seus pais facíano moitísimo
00:46
and he could hear them all the time.
9
46516
2280
e que el os oía todo o tempo.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
E a barbacoa continuou como se non pasase nada.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Cando non estou facendo barbacoas,
00:57
I am researching how people interact with each other
12
57556
3360
estou investigando como interactúan as persoas
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
e como iso se transfire ás interaccións coas tecnoloxías,
01:05
so not all too surprisingly,
14
65356
2160
así que, como era de esperar,
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
tras esa singular interacción social da barbacoa,
01:11
I was left wondering why we, the audience,
16
71916
3520
quedei a pensar por que nós, a audiencia,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
ignoramos de forma tan clara o que o adulto compartiu abertamente.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Por que o silencio e logo as gargalladas diante do comentario do neno?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Ao cabo, ámbolos dous estaban a romper unha norma social:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
na mesa non se fala de sexo, cartos ou política.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Damos por sentado que un adulto coñece e respeta esa norma.
01:39
So when such expectations are broken,
22
99116
2840
Cando non se cumpre esa expectativa,
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
sancionamos ao infractor como corresponde: no noso caso, ignorándoo.
01:47
When a child, however, breaks such a rule,
24
107996
2840
En cambio, cando un neno rompe a norma,
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
atribuímolo á súa inxenuidade no que fai ás convencións sociais
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
e, ao menos ata certa idade, non o sancionamos abertamente.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Está claro que non hai normas oficiais sobre a conduta socialmente apropiada
02:08
or even socially accepted dinner topics.
28
128396
3000
ou sobre os temas de conversa aceptables na mesa.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
De feito, as normas sociais adoitan ser códigos de conduta non escritos
02:16
and they change over time as we as a society change and learn.
30
136436
4800
que van mudando a medida que nós mudamos e aprendemos como sociedade.
02:22
Less than a year ago, for instance,
31
142316
2120
Hai menos dun ano, por exemplo,
02:24
it was considered impolite not to shake hands
32
144436
3000
considerábase de mala educación non dar a man
02:27
when introducing yourself to someone.
33
147436
2840
cando te presentabas.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Uns meses e unha epidemia de coronavirus máis tarde,
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
dar a man pode estar mal visto
02:38
and maybe even a thing of the past.
36
158436
2400
ou mesmo ser un costume doutro tempo.
02:41
The way we learn these social rules then
37
161796
2440
Aprendemos estas normas sociais
02:44
is mostly by social rewards and social punishments.
38
164236
4720
esencialmente a base de premios e castigos sociais.
02:48
Now, as social animals,
39
168996
2040
Como animais sociais,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
buscamos a aprobación e fuximos da desaprobación dos demais.
02:56
So we act in a way that is socially accepted
41
176356
3440
Así que actuamos dun modo socialmente aceptable
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
e presentámonos ante os demais de forma socialmente desexable.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Queremos que nos vexan como individuos intelixentes, triunfadores,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
deportistas, activos, creativos, empáticos ou mesmo todo iso á vez.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
A través das redes sociais, o noso afán por obter aprobación social
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
e a conseguinte necesidade de presentarnos e de ser perfectos
03:26
has skyrocketed.
47
206556
1480
disparouse.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Como é lóxico, todo isto ten un lado negativo.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
En cada interacción social, non só buscamos a aprobación
03:37
but we also constantly fear other's disapproval
50
217796
3800
senón que tememos constantemente a desaprobación dos demais
03:41
when we cannot live up to their expectations.
51
221636
2720
cando non estamos á altura das súas expectativas.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Pensade, por exemplo, nun adulto con problemas de incontinencia
03:48
or a drug addiction.
53
228756
1880
ou adicción ás drogas.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Se esa persoa ten que falar cun profesional da saúde,
03:55
what would you expect to find?
55
235036
1800
que esperaríades?
03:57
Or if a soldier returned from combat
56
237796
2720
Ou se un soldado que regresa dunha misión de combate
04:00
and had to talk about their fears or problems,
57
240556
3280
tivese que comentar os seus medos e problemas,
04:03
do you think they would open up easily?
58
243876
2000
pensades que lle resultaría fácil falar?
04:07
A team of USC researchers examined just that.
59
247396
3760
Na Universidade de Southern California investigaron precisamente iso.
04:11
So they looked at the data from the US Army.
60
251156
3200
Analizaron os datos do exército norteamericano.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Tradicionalmente, os soldados tiñan que entrevistarse
04:17
by a human health care professional when returning from combat
62
257156
4040
cun membro do persoal médico ao voltaren das súas misións,
04:21
to check if everything is OK.
63
261196
2640
para comprobar que todo estaba ben.
04:23
Now, interestingly,
64
263876
1280
Curiosamente,
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
os investigadores descubriron que apenas informaban de problemas
04:28
after their returns.
66
268876
2160
tras o seu retorno.
04:31
Surely many of them were truly fine,
67
271076
2840
Seguro que moitos estaban perfectamente,
04:33
but the researchers also suspected
68
273956
2560
pero os investigadores sospeitaban
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
que moitos soldados non se atrevían a falar abertamente dos seus problemas.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Despois de todo, entrénanos para ser individuos fortes e valentes
04:47
that learn not to show any weaknesses.
71
287156
2400
que aprendan a non mostrarse vulnerables.
04:50
So openly admitting to have health problems,
72
290276
3760
Así que admitir abertamente que ten problemas de saúde,
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
que non dorme ben ou ten pesadelos,
04:57
is not something easy to do for soldiers.
74
297396
2840
non é doado para un soldado.
05:00
The question then ultimately becomes
75
300236
2800
En última instancia, a cuestión é entón
05:03
how can we help individuals open up more easily
76
303076
3800
como axudarmos aos individuos a abrírense con máis facilidade
05:06
and worry less about the judgment of others?
77
306916
2640
e preocupárense menos polos xuízos dos demais.
05:11
Well, remember what I said earlier.
78
311356
2640
Lembrade o que dixen antes.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Agardamos avaliación social en calquera interacción social.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Pero, e se eliminamos o social da interacción?
05:24
This is exactly what the team in the US did.
81
324556
3120
Iso exactamente foi o que fixeron estes investigadores.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Crearon un entrevistador virtual chamado SlimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
SlimSensei é un avatar dixital de aspecto humano
05:37
and can interact with clients through natural conversations.
84
337516
4200
que pode interactuar cos clientes nunha conversa espontánea.
05:41
Now, when returning from combat,
85
341756
2120
Así que, ao voltar dunha misión,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
os soldados entrevistábanse co avatar dixital
05:47
instead of that human health care professional.
87
347316
2320
no canto de facelo co personal médico.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
E que aconteceu? Pois cando lles presentaban a SlimSensei,
05:55
soldiers reported more health problems,
89
355196
3080
so soldados informaban de máis problemas de saúde,
05:58
like having nightmares or trouble sleeping.
90
358276
2760
como pesadelos ou dificultade para durmir.
06:02
So machines can help remove the social from the equation
91
362836
4280
As máquinas axudan a eliminar o social da ecuación
06:07
and help people open up more easily.
92
367116
2440
e facilitan que as persoas se abran.
06:10
But careful, not all machines are created equal.
93
370836
3720
Pero coidado, non todas as máquinas son creadas iguais.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Se nos fixamos nos enormes avances en tecnoloxías como a infografía
06:19
or natural language processing,
95
379076
2200
ou o procesamento da linguaxe natural,
06:21
machines have become increasingly humanlike.
96
381276
3760
as máquinas parécense cada vez máis aos humanos.
06:25
The question then ultimately becomes,
97
385076
2600
En definitiva, a cuestión pasa a ser
06:27
which rules do we apply in these interactions?
98
387716
3200
que regras aplicamos nestas interaccións?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Seguimos aplicando as normas sociais con esas máquinas de aspecto humano?
06:39
So do we start to worry about social judgment again?
100
399036
3080
E entón volvemos preocuparnos polos xuizos sociais?
06:43
This is exactly what I examine in my research.
101
403156
3600
Isto é precisamente o que estudo nas miñas investigacións.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Os meus colegas e máis eu creamos unha serie de bots de conversa.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Estes bots estaban programados para simular conversas escritas
06:56
and they were designed to be either very social and humanlike
104
416876
4360
e estaban deseñados para ser moi sociais e parecerse aos humanos
07:01
or very functional and machine-like.
105
421236
2720
ou moi funcionais como as máquinas.
07:03
So, for instance,
106
423996
2040
Por exemplo,
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
os bots humanizados cometen fallos de fluidez
07:10
and social language cues,
108
430436
1600
e usan sinais lingüísticos sociais,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
como eses “ajá“, “mmm” que os humanos usamos moito nas nosas conversas
07:19
to signal our presence to conversation partners.
110
439116
4240
para indicar a nosa presenza aos outros participantes.
07:23
In contrast, our machine-like bots
111
443356
2760
En cambio, os bots máis mecánicos
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
carecían deses sinais sociais e cinguíanse ao tema de discusión.
07:30
Since we were interested in how much people would open up
113
450396
2800
Dado que nos interesaba ver canto se soltaban as persoas
07:33
in these different conversations,
114
453196
2440
nas distintas conversas,
07:35
we ask participants a number of questions,
115
455676
2920
facíamoslles aos participantes unha serie de preguntas,
07:38
which gradually grew more and more personal,
116
458636
3480
que eran cada vez máis persoais,
07:42
up to the point where we would ask participants
117
462116
2520
ata o punto de pedirlles que compartisen
07:44
to share possibly very delicate information about themselves.
118
464676
4160
detalles posiblemente delicados sobre si mesmos.
07:49
Now, considering the findings from prior research,
119
469756
2720
Tendo en conta os resultados de investigacións previas,
07:52
such as the one from the US Army before,
120
472516
3320
como a dos soldados norteamericanos,
07:55
we expected that people would apply more social rules
121
475876
4240
esperabamos que as persoas aplicasen máis normas sociais
08:00
in their interactions with these humanlike bots
122
480116
2920
nas súas interaccións cos bots humanizados
08:03
and act accordingly.
123
483076
1640
e actuasen en consecuencia.
08:05
So what did we find?
124
485596
1680
E que descubrimos?
08:08
Well, exactly that.
125
488556
1600
Pois precisamente iso.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Os participantes que interactuaban cos nosos bots humanizados
08:14
were more concerned about social evaluation
127
494076
3640
estaban máis preocupados pola avaliación social
08:17
and as a result of this social apprehension,
128
497756
2480
e, como consecuencia desta aprehensión social,
08:20
they also gave more socially desirable responses.
129
500236
5080
as súas respostas eran tamén máis socialmente desexables.
08:25
Let me give you an example.
130
505316
1960
Vouvos poñer un exemplo.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Unha das preguntas máis delicadas que lles faciamos
08:30
was the number of prior sex partners they had had.
132
510996
3320
era o número de parellas sexuais previas.
08:35
When interacting with our humanlike bot,
133
515276
3160
Cando interactuaban cos nosos bots humanizados,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
os homes declaraban un número significativamente maior de parellas
08:43
and women reported to have significantly less
135
523356
3360
e as mulleres un número significativamente menor
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
cós homes e mulleres que interactuaban cos bots máis mecánicos.
08:52
So what does this all tell us?
137
532036
1920
Que nos di todo isto?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Primeiro, que os homes queren quedar ben tendo máis parellas sexuais previas
08:58
and women by having less.
139
538716
1640
e as mulleres, tendo menos.
09:01
Clearly, this already says a lot
140
541116
1760
Está claro que isto xa di moito
09:02
about what the different sexes consider socially desirable
141
542916
4080
sobre o que cada sexo entende como socialmente desexable
09:07
and how our expectations in society still differ across genders.
142
547036
5680
e sobre como as nosas expectativas sociais seguen a diferir segundo o xénero.
09:13
But this opens up a whole new topic
143
553676
2520
Pero isto lévanos a outro tema totalmente distinto
09:16
that I will better leave for other experts to discuss.
144
556196
2960
que prefiro deixarlles a outros expertos.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
Segundo, se cadra máis importante, desde a psicoloxía do consumidor.
09:26
People open up more easily when they interact with machines
146
566956
4320
As persoas sóltanse máis facilmente cando interactúan con máquinas
09:31
that are apparently just that -- machines.
147
571276
3560
que parecen ser só iso: máquinas.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Hoxe, moita suor, cartos e bágoas
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
invístense en construír máquinas practicamente idénticas a nós.
09:43
Now, this research can show
150
583156
1680
Pero esta investigación demostra
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
que ás veces, en realidade, é bo que unha máquina sexa unha máquina.
09:51
Which brings me to my third point.
152
591716
1680
Isto lévame ao meu terceiro punto.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Estas interaccións coas máquinas reciben moitas críticas en ocasións.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Se cadra escoitastes algunha vez que Siri, Alexa ou outras
10:01
make your kids rude or impolite.
155
601796
2400
converten aos vosos fillos nuns maleducados.
10:05
Hopefully, this research can show you
156
605356
1880
Con sorte, esta investigación demostrará
10:07
a great upside of these machine interactions.
157
607236
3040
un importante aspecto positivo destas interaccións coas máquinas.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
Nestes tempos de redes sociais e constante busca doutro “Gústame”,
10:16
machines can give us grownups --
159
616196
2920
as máquinas poden aportarnos aos adultos,
10:19
help us find that inner child again
160
619116
2760
axudarnos a reencontrar ese neno interior
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
e darlle á nosa constante necesidade de presentarnos e ser perfectos
10:26
a time-out.
162
626236
1800
un respiro.
10:28
For once, we do not need to worry
163
628076
2040
Por unha vez, non temos que preocuparnos
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
por se o número de parellas previas é demasiado alto ou demasiado baixo,
10:34
and instead it is OK to simply be who we are.
165
634676
4520
e, no canto diso, está ben ser simplemente quen somos.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
En última instancia, penso que estas máquinas poden lembrarnos
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
unha característica esencial do bo conversador:
10:49
being nonjudgmental.
168
649876
2160
non xulga ao interlocutor.
10:52
so the next time you might encounter
169
652076
2160
Así que a próxima vez que vos atopedes
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
nunha situación social única como a que vivín eu naquela barbacoa,
10:58
try to be less judgmental
171
658116
1800
tratade de ser menos críticos
10:59
when another person openly shares
172
659956
1960
cando outra persoa comparte abertamente
11:01
their thoughts, feelings and problems with you.
173
661956
3080
os seus pensamentos, sentimentos ou problemas con vós.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Moitas máquinas xa fan así e se cadra nós tamén deberiamos.
11:09
Thank you very much.
175
669876
1240
Moitas grazas.
About this website

Este sitio presentarache vídeos de YouTube que son útiles para aprender inglés. Verás clases de inglés impartidas por profesores de primeiro nivel de todo o mundo. Fai dobre clic nos subtítulos en inglés que aparecen en cada páxina de vídeo para reproducir o vídeo desde alí. Os subtítulos desprázanse sincronizados coa reprodución do vídeo. Se tes algún comentario ou solicitude, póñase en contacto connosco a través deste formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7