Anne Scherer: Why we're more honest with machines than people | TED

88,058 views

2021-07-29 ・ TED


New videos

Anne Scherer: Why we're more honest with machines than people | TED

88,058 views ・ 2021-07-29

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Transcriber:
0
0
7000
Traductor: Daniela Pardo Revisor: Sebastian Betti
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Hace algunos años, estaba en un asado con amigos y familia.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Como de costumbre, hablamos del clima, de comida o recomendaciones de series.
00:21
So nothing out of the ordinary
3
21876
3080
Nada fuera de lo común,
00:24
until one attendee casually mentioned
4
24996
2920
hasta que un invitado mencionó de repente
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
que él y su esposa llevaban mucho tiempo sin tener relaciones sexuales.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Como podrán imaginarse, hubo un silencio incómodo.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Hasta que a un niño de seis años, que había ido con sus padres,
00:42
blurted out that his parents had lots of sex
8
42796
3680
se le escapó decir que sus padres lo hacían mucho
00:46
and he could hear them all the time.
9
46516
2280
y que los escuchaba todo el tiempo.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
Continuamos con la comida como si nada hubiera pasado.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Ahora, cuando no estoy en reuniones así,
00:57
I am researching how people interact with each other
12
57556
3360
investigo cómo interactúa la gente entre sí
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
y cómo eso se transfiere a sus interacciones con la tecnología.
01:05
so not all too surprisingly,
14
65356
2160
Como no es de sorprender,
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
después de esta peculiar interacción social en la reunión
01:11
I was left wondering why we, the audience,
16
71916
3520
me quedé pensando por qué nosotros, como audiencia,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
ignoramos tanto lo que el adulto compartió tan abiertamente ese día.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
¿Por qué ese silencio y luego esas risas tras el comentario del niño?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Bueno, ambos estaban rompiendo una regla social:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
nunca hablar sobre sexo, dinero o política en la mesa.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Suponemos que un adulto conoce esta regla y la respeta.
01:39
So when such expectations are broken,
22
99116
2840
Así que, si se rompen esas expectativas
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
sancionamos al ofensor como corresponde, en este caso, ignorándolo.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Sin embargo, cuando un niño rompe la regla
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
se lo atribuimos a su inocente comprensión de nuestros modales sociales
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
y al menos hasta cierta edad, no los castigamos por ello.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Evidentemente, no hay un manual oficial de comportamientos socialmente adecuados
02:08
or even socially accepted dinner topics.
28
128396
3000
o temas de conversación aceptados durante la cena.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
De hecho, nuestras normas sociales suelen ser códigos tácitos de conducta,
02:16
and they change over time as we as a society change and learn.
30
136436
4800
que cambian con el tiempo
conforme como sociedad cambiamos y aprendemos.
02:22
Less than a year ago, for instance,
31
142316
2120
Por ejemplo, hace menos de un año,
02:24
it was considered impolite not to shake hands
32
144436
3000
se consideraba descortés no dar la mano
02:27
when introducing yourself to someone.
33
147436
2840
cuando te presentaban a alguien.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Unos meses después con el esparcimiento mundial del coronavirus,
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
dar la mano es algo por lo que te podrían fruncir el ceño
02:38
and maybe even a thing of the past.
36
158436
2400
y que podría ser cosa del pasado.
02:41
The way we learn these social rules then
37
161796
2440
La manera en que aprendemos estas reglas sociales
02:44
is mostly by social rewards and social punishments.
38
164236
4720
suele ser con recompensas y castigos sociales.
02:48
Now, as social animals,
39
168996
2040
Entonces, como animales sociales,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
buscamos la aprobación social y queremos evitar la desaprobación.
02:56
So we act in a way that is socially accepted
41
176356
3440
Así que podemos comportarnos de una manera socialmente aceptada
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
y presentarnos de una manera socialmente recomendable con otros.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Queremos que nos vean como individuos inteligentes, exitosos,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
deportistas, activos, creativos, empáticos y, posiblemente, todo esto a la vez.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
A través de las redes sociales nos esforzamos por la aprobación social,
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
y con ello, nuestra necesidad de perfección y causar impresión
03:26
has skyrocketed.
47
206556
1480
se ha disparado.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Pero está claro que hay otra cara de la moneda.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
En cada interacción social, no solo buscamos la aprobación del otro,
03:37
but we also constantly fear other's disapproval
50
217796
3800
sino que también le tememos a la desaprobación de otros
03:41
when we cannot live up to their expectations.
51
221636
2720
si no cumplimos con sus expectativas.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Imaginen un adulto con problemas de incontinencia
03:48
or a drug addiction.
53
228756
1880
o una adicción a drogas.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Si él o ella tuviera que hablar con un profesional de la salud,
03:55
what would you expect to find?
55
235036
1800
¿qué creerían encontrar?
03:57
Or if a soldier returned from combat
56
237796
2720
O si un soldado regresa de combate
04:00
and had to talk about their fears or problems,
57
240556
3280
y tiene que hablar sobre sus miedos o sus problemas,
04:03
do you think they would open up easily?
58
243876
2000
¿creen que se abriría fácilmente?
04:07
A team of USC researchers examined just that.
59
247396
3760
Justo eso examinaron en la Universidad del Sur de California.
04:11
So they looked at the data from the US Army.
60
251156
3200
Revisaron los datos del Ejército de EE.UU.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Como de costumbre, los profesionales de la salud
04:17
by a human health care professional when returning from combat
62
257156
4040
entrevistaban soldados al regresar de combate
04:21
to check if everything is OK.
63
261196
2640
para revisar si todo estaba bien.
04:23
Now, interestingly,
64
263876
1280
Pero, es interesante,
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
descubrieron que los soldados casi no reportaban problemas a su regreso.
04:28
after their returns.
66
268876
2160
04:31
Surely many of them were truly fine,
67
271076
2840
Seguro muchos de ellos sí estaban bien,
04:33
but the researchers also suspected
68
273956
2560
pero los investigadores sospechaban
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
que muchos soldados no se atrevían a compartir sus problemas abiertamente.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Después de todo, se les entrena para ser personas fuertes y valientes
04:47
that learn not to show any weaknesses.
71
287156
2400
que aprenden a no mostrar debilidades.
04:50
So openly admitting to have health problems,
72
290276
3760
Admitir que se tienen problemas de salud,
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
problemas para dormir o pesadillas
04:57
is not something easy to do for soldiers.
74
297396
2840
no es algo fácil para los soldados.
05:00
The question then ultimately becomes
75
300236
2800
Por lo tanto, la cuestión termina siendo
05:03
how can we help individuals open up more easily
76
303076
3800
cómo ayudar a que la gente se abra más
05:06
and worry less about the judgment of others?
77
306916
2640
y se preocupe menos por lo que piensen los demás.
05:11
Well, remember what I said earlier.
78
311356
2640
Recordemos lo que dije antes.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Esperamos que haya una evaluación en cada interacción social.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Entonces, ¿qué tal si le quitamos lo social a las interacciones?
05:24
This is exactly what the team in the US did.
81
324556
3120
Esto es exactamente lo que hizo el equipo de EE. UU.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
De hecho, crearon un entrevistador virtual llamado SimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
SimSensei es un avatar digital que tiene apariencia humana
05:37
and can interact with clients through natural conversations.
84
337516
4200
y puede interactuar con clientes teniendo conversaciones naturales.
05:41
Now, when returning from combat,
85
341756
2120
Al regresar de combate,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
a los soldados ahora los entrevistaba un avatar digital
05:47
instead of that human health care professional.
87
347316
2320
en lugar del humano profesional de la salud.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
¿Qué sucedió con esto?
Con la introducción de SimSensei
05:55
soldiers reported more health problems,
89
355196
3080
los soldados reportaron más problemas de salud,
05:58
like having nightmares or trouble sleeping.
90
358276
2760
como tener pesadillas o dificultad para dormir.
06:02
So machines can help remove the social from the equation
91
362836
4280
Es decir, las máquinas pueden quitar lo “social” de la ecuación,
06:07
and help people open up more easily.
92
367116
2440
lo que le ayuda a la gente a abrirse más fácilmente.
06:10
But careful, not all machines are created equal.
93
370836
3720
Pero no todas las máquinas son creadas de la misma manera.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Considerando los grandes avances tecnológicos como gráficos de computadora
06:19
or natural language processing,
95
379076
2200
o el procesamiento natural de idiomas,
06:21
machines have become increasingly humanlike.
96
381276
3760
las máquinas se han vuelto muy humanoides.
06:25
The question then ultimately becomes,
97
385076
2600
Entonces, la cuestión sería:
06:27
which rules do we apply in these interactions?
98
387716
3200
¿qué reglas aplicamos en estas interacciones?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
¿Seguimos aplicado reglas sociales al interactuar con máquinas humanoides?
06:39
So do we start to worry about social judgment again?
100
399036
3080
¿Empezamos a preocuparnos por los juicios sociales nuevamente?
06:43
This is exactly what I examine in my research.
101
403156
3600
De esto se trata mi investigación.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Mis colegas y yo desarrollamos algunos bots conversacionales.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Estaban programados para simular conversaciones basadas en textos
06:56
and they were designed to be either very social and humanlike
104
416876
4360
y estaban diseñados para ser muy sociales y humanoides,
07:01
or very functional and machine-like.
105
421236
2720
o muy funcionales y mecanizados.
07:03
So, for instance,
106
423996
2040
Entonces, por ejemplo,
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
nuestros bots humanoides usaban lo que llamamos disfluencia de velocidad
07:10
and social language cues,
108
430436
1600
y señales sociales del lenguaje,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
como los “ajá“ o “hmmm” que nos encanta usar en conversaciones,
07:19
to signal our presence to conversation partners.
110
439116
4240
para remarcar nuestra presencia con nuestros compañeros de conversación.
07:23
In contrast, our machine-like bots
111
443356
2760
Por otro lado, nuestros bots mecánicos
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
no tenían estas señales sociales, apegándose a los puntos de conversación.
07:30
Since we were interested in how much people would open up
113
450396
2800
Ya que lo que nos interesaba era qué tanto se abrían
07:33
in these different conversations,
114
453196
2440
en estas distintas conversaciones
07:35
we ask participants a number of questions,
115
455676
2920
le hicimos algunas preguntas a los participantes
07:38
which gradually grew more and more personal,
116
458636
3480
que se volvían más y más personales,
07:42
up to the point where we would ask participants
117
462116
2520
hasta llegar al punto en el que pedíamos
07:44
to share possibly very delicate information about themselves.
118
464676
4160
que compartieran información quizá delicada sobre ellos.
07:49
Now, considering the findings from prior research,
119
469756
2720
Considerando los hallazgos de investigaciones previas,
07:52
such as the one from the US Army before,
120
472516
3320
como la que mencioné con el ejército de EE. UU.,
07:55
we expected that people would apply more social rules
121
475876
4240
esperábamos que la gente aplicara más reglas sociales
08:00
in their interactions with these humanlike bots
122
480116
2920
en sus interacciones con los bots humanoides
08:03
and act accordingly.
123
483076
1640
y se comportaran de tal forma.
08:05
So what did we find?
124
485596
1680
¿Qué descubrimos?
08:08
Well, exactly that.
125
488556
1600
Precisamente eso.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Los participantes que interactuaban con nuestros bots humanoides
08:14
were more concerned about social evaluation
127
494076
3640
estaban más preocupados por la evaluación social
08:17
and as a result of this social apprehension,
128
497756
2480
y como resultado de esa aprehensión social
08:20
they also gave more socially desirable responses.
129
500236
5080
también dieron respuestas más socialmente aceptadas.
08:25
Let me give you an example.
130
505316
1960
Les daré un ejemplo.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Una de las preguntas más sensibles que le hicimos a los participantes
08:30
was the number of prior sex partners they had had.
132
510996
3320
era sobre el número de parejas sexuales que tuvieron anteriormente.
08:35
When interacting with our humanlike bot,
133
515276
3160
Al interactuar con nuestro bot humanoide,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
los hombres decían tener muchas más parejas sexuales
08:43
and women reported to have significantly less
135
523356
3360
y las mujeres decían tener muchas menos
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
que los hombres y mujeres que interactuaron con el bot mecánico.
08:52
So what does this all tell us?
137
532036
1920
¿Qué nos dice esto?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
En primer lugar, los hombres quieren verse bien al tener más parejas
08:58
and women by having less.
139
538716
1640
y las mujeres al tener menos.
09:01
Clearly, this already says a lot
140
541116
1760
Evidentemente, esto ya dice mucho
09:02
about what the different sexes consider socially desirable
141
542916
4080
sobre lo que se considera socialmente aceptado para los diferentes sexos
09:07
and how our expectations in society still differ across genders.
142
547036
5680
y cómo nuestras expectativas sociales siguen variando por género.
09:13
But this opens up a whole new topic
143
553676
2520
Pero esto da paso a un nuevo tema
09:16
that I will better leave for other experts to discuss.
144
556196
2960
que dejaré para otros expertos.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
En segundo lugar, quizá más importante, de una perspectiva psicológica de consumo.
09:26
People open up more easily when they interact with machines
146
566956
4320
La gente se abre más fácilmente cuando interactúa con máquinas
09:31
that are apparently just that -- machines.
147
571276
3560
que aparentemente son solo eso, máquinas.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Hoy en día, se pone mucho esfuerzo, dinero y lágrimas
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
para crear máquinas casi idénticas a nosotros.
09:43
Now, this research can show
150
583156
1680
Esta investigación demuestra
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
que a veces es bueno dejar que una máquina sea una máquina.
09:51
Which brings me to my third point.
152
591716
1680
Lo que me lleva al tercer punto.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Estas interacciones con máquinas han sido muy criticadas en ocasiones.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Seguro han escuchado que Siri, Alexa u otros
10:01
make your kids rude or impolite.
155
601796
2400
hacen que sus hijos sean groseros.
10:05
Hopefully, this research can show you
156
605356
1880
Espero que esta investigación muestre
10:07
a great upside of these machine interactions.
157
607236
3040
el lado positivo de las interacciones con máquinas.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
En estas épocas de redes sociales y la búsqueda del próximo “like”,
10:16
machines can give us grownups --
159
616196
2920
las máquinas pueden ayudar a los adultos
10:19
help us find that inner child again
160
619116
2760
a encontrar su niño interior nuevamente
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
y darle un respiro a esa necesidad de impresiones y perfección.
10:26
a time-out.
162
626236
1800
10:28
For once, we do not need to worry
163
628076
2040
Por una vez, no debe preocuparnos
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
si el número de parejas sexuales es muy alto o muy bajo,
10:34
and instead it is OK to simply be who we are.
165
634676
4520
En lugar de eso, está bien que simplemente seamos quienes somos.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
Finalmente, creo que las máquinas pueden recordarnos
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
un elemento básico de un buen compañero de conversación:
10:49
being nonjudgmental.
168
649876
2160
no juzgar.
10:52
so the next time you might encounter
169
652076
2160
Así que, la próxima vez que se encuentren
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
en una situación social particular como en la que me encontré yo,
10:58
try to be less judgmental
171
658116
1800
traten de juzgar menos cuando otra persona comparta abiertamente
10:59
when another person openly shares
172
659956
1960
11:01
their thoughts, feelings and problems with you.
173
661956
3080
sus pensamientos, sentimientos y problemas con Uds.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Muchas máquinas ya lo hacen, quizá nosotros también deberíamos hacerlo.
11:09
Thank you very much.
175
669876
1240
Muchas gracias.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7