Anne Scherer: Why we're more honest with machines than people | TED

75,339 views

2021-07-29・ 1960    55


For a genuine conversation, consider talking to a robot; the less humanized, the better. Consumer researcher Anne Scherer shares her findings on why some machines get us to open up better than actual people, revealing fascinating insights about human nature that could lead to more honest interactions in our day-to-day lives. Visit http://TED.com to get our entire library of TED Talks, transcripts, translations, personalized talk recommendations and more. The TED Talks channel features the best talks and performances from the TED Conference, where the world's leading thinkers and doers give the talk of their lives in 18 minutes (or less). Look for talks on Technology, Entertainment and Design -- plus science, business, global issues, the arts and more. You're welcome to link to or embed these videos, forward them to others and share these ideas with people you know. Become a TED Member: http://ted.com/membership Follow TED on Twitter: http://twitter.com/TEDTalks Like TED on Facebook: http://facebook.com/TED Subscribe to our channel: http://youtube.com/TED TED's videos may be used for non-commercial purposes under a Creative Commons License, Attribution–Non Commercial–No Derivatives (or the CC BY – NC – ND 4.0 International) and in accordance with our TED Talks Usage Policy (https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy). For more information on using TED for commercial purposes (e.g. employee learning, in a film or online course), please submit a Media Request at https://media-requests.ted.com

Instruction

Double-click on the English captions to play the video from there.

00:00
Transcriber:
Traductor: Daniela Pardo Revisor: Sebastian Betti
00:12
Now, a few years back, I was having a barbecue with friends and family.
Hace algunos años, estaba en un asado con amigos y familia.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
Como de costumbre, hablamos del clima, de comida o recomendaciones de series.
00:21
So nothing out of the ordinary
Nada fuera de lo común,
00:24
until one attendee casually mentioned
hasta que un invitado mencionó de repente
00:27
that he and his wife hadn't had sex in a long time.
que él y su esposa llevaban mucho tiempo sin tener relaciones sexuales.
00:33
As you can imagine, what followed was an awkward silence.
Como podrán imaginarse, hubo un silencio incómodo.
00:38
Until a six-year-old boy attending the barbecue with his parents
Hasta que a un niño de seis años, que había ido con sus padres,
00:42
blurted out that his parents had lots of sex
se le escapó decir que sus padres lo hacían mucho
00:46
and he could hear them all the time.
y que los escuchaba todo el tiempo.
00:49
And then the barbecue continued as if nothing had happened.
Continuamos con la comida como si nada hubiera pasado.
00:55
Now, when I'm not having barbecues,
Ahora, cuando no estoy en reuniones así,
00:57
I am researching how people interact with each other
investigo cómo interactúa la gente entre sí
01:00
and how that transfers to their interactions with technologies,
y cómo eso se transfiere a sus interacciones con la tecnología.
01:05
so not all too surprisingly,
Como no es de sorprender,
01:07
after this very unique social interaction at the barbecue,
después de esta peculiar interacción social en la reunión
01:11
I was left wondering why we, the audience,
me quedé pensando por qué nosotros, como audiencia,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
ignoramos tanto lo que el adulto compartió tan abiertamente ese día.
01:21
So why the silence and then the laughter at the boy's comment?
¿Por qué ese silencio y luego esas risas tras el comentario del niño?
01:26
Well, both of them were breaking a social rule:
Bueno, ambos estaban rompiendo una regla social:
01:30
never talk about sex, money or politics at a dinner table.
nunca hablar sobre sexo, dinero o política en la mesa.
01:34
We assume that an adult knows this rule and sticks to it.
Suponemos que un adulto conoce esta regla y la respeta.
01:39
So when such expectations are broken,
Así que, si se rompen esas expectativas
01:41
we sanction the offender accordingly -- in our case, with ignorance.
sancionamos al ofensor como corresponde, en este caso, ignorándolo.
01:47
When a child, however, breaks such a rule,
Sin embargo, cuando un niño rompe la regla
01:50
we attribute this to their naive understanding of our social manners
se lo atribuimos a su inocente comprensión de nuestros modales sociales
01:55
and up to a certain age at least, do not openly sanction them for it.
y al menos hasta cierta edad, no los castigamos por ello.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
Evidentemente, no hay un manual oficial de comportamientos socialmente adecuados
02:08
or even socially accepted dinner topics.
o temas de conversación aceptados durante la cena.
02:12
In fact, our social norms are usually unwritten codes of conduct,
De hecho, nuestras normas sociales suelen ser códigos tácitos de conducta,
02:16
and they change over time as we as a society change and learn.
que cambian con el tiempo
conforme como sociedad cambiamos y aprendemos.
02:22
Less than a year ago, for instance,
Por ejemplo, hace menos de un año,
02:24
it was considered impolite not to shake hands
se consideraba descortés no dar la mano
02:27
when introducing yourself to someone.
cuando te presentaban a alguien.
02:30
A few months and the worldwide spread of the coronavirus later
Unos meses después con el esparcimiento mundial del coronavirus,
02:34
and shaking hands may be something to be frowned upon
dar la mano es algo por lo que te podrían fruncir el ceño
02:38
and maybe even a thing of the past.
y que podría ser cosa del pasado.
02:41
The way we learn these social rules then
La manera en que aprendemos estas reglas sociales
02:44
is mostly by social rewards and social punishments.
suele ser con recompensas y castigos sociales.
02:48
Now, as social animals,
Entonces, como animales sociales,
02:51
we aim for social approval and want to avoid other's disapproval.
buscamos la aprobación social y queremos evitar la desaprobación.
02:56
So we act in a way that is socially accepted
Así que podemos comportarnos de una manera socialmente aceptada
02:59
and present ourselves in a socially desirable way to others.
y presentarnos de una manera socialmente recomendable con otros.
03:04
So we want to be seen as an individual that is smart, successful,
Queremos que nos vean como individuos inteligentes, exitosos,
03:09
sporty and active, creative, empathic and possibly all that at once.
deportistas, activos, creativos, empáticos y, posiblemente, todo esto a la vez.
03:17
Now, through social media, our strive for social approval,
A través de las redes sociales nos esforzamos por la aprobación social,
03:21
and with it, our need for self-presentation and perfection
y con ello, nuestra necesidad de perfección y causar impresión
03:26
has skyrocketed.
se ha disparado.
03:29
Clearly, there is a flip side to all of this.
Pero está claro que hay otra cara de la moneda.
03:33
In any social interaction, we do not only look for others' approval,
En cada interacción social, no solo buscamos la aprobación del otro,
03:37
but we also constantly fear other's disapproval
sino que también le tememos a la desaprobación de otros
03:41
when we cannot live up to their expectations.
si no cumplimos con sus expectativas.
03:45
Just consider an adult with incontinence problems
Imaginen un adulto con problemas de incontinencia
03:48
or a drug addiction.
o una adicción a drogas.
03:50
If he or she had to talk to a health care professional,
Si él o ella tuviera que hablar con un profesional de la salud,
03:55
what would you expect to find?
¿qué creerían encontrar?
03:57
Or if a soldier returned from combat
O si un soldado regresa de combate
04:00
and had to talk about their fears or problems,
y tiene que hablar sobre sus miedos o sus problemas,
04:03
do you think they would open up easily?
¿creen que se abriría fácilmente?
04:07
A team of USC researchers examined just that.
Justo eso examinaron en la Universidad del Sur de California.
04:11
So they looked at the data from the US Army.
Revisaron los datos del Ejército de EE.UU.
04:14
Traditionally, soldiers had to be interviewed
Como de costumbre, los profesionales de la salud
04:17
by a human health care professional when returning from combat
entrevistaban soldados al regresar de combate
04:21
to check if everything is OK.
para revisar si todo estaba bien.
04:23
Now, interestingly,
Pero, es interesante,
04:25
the researchers found that soldiers hardly reported any problems
descubrieron que los soldados casi no reportaban problemas a su regreso.
04:28
after their returns.
04:31
Surely many of them were truly fine,
Seguro muchos de ellos sí estaban bien,
04:33
but the researchers also suspected
pero los investigadores sospechaban
04:36
that many soldiers did not dare to share their problems openly.
que muchos soldados no se atrevían a compartir sus problemas abiertamente.
04:41
After all, soldiers are trained to be strong and brave individuals
Después de todo, se les entrena para ser personas fuertes y valientes
04:47
that learn not to show any weaknesses.
que aprenden a no mostrar debilidades.
04:50
So openly admitting to have health problems,
Admitir que se tienen problemas de salud,
04:54
to have trouble sleeping or to have nightmares
problemas para dormir o pesadillas
04:57
is not something easy to do for soldiers.
no es algo fácil para los soldados.
05:00
The question then ultimately becomes
Por lo tanto, la cuestión termina siendo
05:03
how can we help individuals open up more easily
cómo ayudar a que la gente se abra más
05:06
and worry less about the judgment of others?
y se preocupe menos por lo que piensen los demás.
05:11
Well, remember what I said earlier.
Recordemos lo que dije antes.
05:14
We expect social evaluation in any social interaction.
Esperamos que haya una evaluación en cada interacción social.
05:19
So how about we remove the social from the interaction?
Entonces, ¿qué tal si le quitamos lo social a las interacciones?
05:24
This is exactly what the team in the US did.
Esto es exactamente lo que hizo el equipo de EE. UU.
05:27
In fact, they developed a virtual interviewer called SimSensei.
De hecho, crearon un entrevistador virtual llamado SimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
SimSensei es un avatar digital que tiene apariencia humana
05:37
and can interact with clients through natural conversations.
y puede interactuar con clientes teniendo conversaciones naturales.
05:41
Now, when returning from combat,
Al regresar de combate,
05:43
soldiers were now interviewed by the digital avatar
a los soldados ahora los entrevistaba un avatar digital
05:47
instead of that human health care professional.
en lugar del humano profesional de la salud.
05:50
And what happened? Well, once SimSensei was introduced,
¿Qué sucedió con esto?
Con la introducción de SimSensei
05:55
soldiers reported more health problems,
los soldados reportaron más problemas de salud,
05:58
like having nightmares or trouble sleeping.
como tener pesadillas o dificultad para dormir.
06:02
So machines can help remove the social from the equation
Es decir, las máquinas pueden quitar lo “social” de la ecuación,
06:07
and help people open up more easily.
lo que le ayuda a la gente a abrirse más fácilmente.
06:10
But careful, not all machines are created equal.
Pero no todas las máquinas son creadas de la misma manera.
06:14
Considering the tremendous advancements in technologies like computer graphics
Considerando los grandes avances tecnológicos como gráficos de computadora
06:19
or natural language processing,
o el procesamiento natural de idiomas,
06:21
machines have become increasingly humanlike.
las máquinas se han vuelto muy humanoides.
06:25
The question then ultimately becomes,
Entonces, la cuestión sería:
06:27
which rules do we apply in these interactions?
¿qué reglas aplicamos en estas interacciones?
06:32
Do we still apply social rules when we interact with humanlike machines?
¿Seguimos aplicado reglas sociales al interactuar con máquinas humanoides?
06:39
So do we start to worry about social judgment again?
¿Empezamos a preocuparnos por los juicios sociales nuevamente?
06:43
This is exactly what I examine in my research.
De esto se trata mi investigación.
06:46
Together with colleagues, we have developed a series of chatbots.
Mis colegas y yo desarrollamos algunos bots conversacionales.
06:51
These chatbots were programmed to simulate text-based conversations
Estaban programados para simular conversaciones basadas en textos
06:56
and they were designed to be either very social and humanlike
y estaban diseñados para ser muy sociales y humanoides,
07:01
or very functional and machine-like.
o muy funcionales y mecanizados.
07:03
So, for instance,
Entonces, por ejemplo,
07:06
our humanlike bots use so-called speed disfluencies
nuestros bots humanoides usaban lo que llamamos disfluencia de velocidad
07:10
and social language cues,
y señales sociales del lenguaje,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
como los “ajá“ o “hmmm” que nos encanta usar en conversaciones,
07:19
to signal our presence to conversation partners.
para remarcar nuestra presencia con nuestros compañeros de conversación.
07:23
In contrast, our machine-like bots
Por otro lado, nuestros bots mecánicos
07:26
lacked such social cues and simply kept to the talking points.
no tenían estas señales sociales, apegándose a los puntos de conversación.
07:30
Since we were interested in how much people would open up
Ya que lo que nos interesaba era qué tanto se abrían
07:33
in these different conversations,
en estas distintas conversaciones
07:35
we ask participants a number of questions,
le hicimos algunas preguntas a los participantes
07:38
which gradually grew more and more personal,
que se volvían más y más personales,
07:42
up to the point where we would ask participants
hasta llegar al punto en el que pedíamos
07:44
to share possibly very delicate information about themselves.
que compartieran información quizá delicada sobre ellos.
07:49
Now, considering the findings from prior research,
Considerando los hallazgos de investigaciones previas,
07:52
such as the one from the US Army before,
como la que mencioné con el ejército de EE. UU.,
07:55
we expected that people would apply more social rules
esperábamos que la gente aplicara más reglas sociales
08:00
in their interactions with these humanlike bots
en sus interacciones con los bots humanoides
08:03
and act accordingly.
y se comportaran de tal forma.
08:05
So what did we find?
¿Qué descubrimos?
08:08
Well, exactly that.
Precisamente eso.
08:10
So participants interacting with our humanlike bots
Los participantes que interactuaban con nuestros bots humanoides
08:14
were more concerned about social evaluation
estaban más preocupados por la evaluación social
08:17
and as a result of this social apprehension,
y como resultado de esa aprehensión social
08:20
they also gave more socially desirable responses.
también dieron respuestas más socialmente aceptadas.
08:25
Let me give you an example.
Les daré un ejemplo.
08:27
One of the most delicate questions that we asked participants
Una de las preguntas más sensibles que le hicimos a los participantes
08:30
was the number of prior sex partners they had had.
era sobre el número de parejas sexuales que tuvieron anteriormente.
08:35
When interacting with our humanlike bot,
Al interactuar con nuestro bot humanoide,
08:38
men reported to have significantly more prior sex partners
los hombres decían tener muchas más parejas sexuales
08:43
and women reported to have significantly less
y las mujeres decían tener muchas menos
08:46
than those men and women interacting with our mechanistic bot.
que los hombres y mujeres que interactuaron con el bot mecánico.
08:52
So what does this all tell us?
¿Qué nos dice esto?
08:53
Well, first, men want to look good by having more prior sex partners
En primer lugar, los hombres quieren verse bien al tener más parejas
08:58
and women by having less.
y las mujeres al tener menos.
09:01
Clearly, this already says a lot
Evidentemente, esto ya dice mucho
09:02
about what the different sexes consider socially desirable
sobre lo que se considera socialmente aceptado para los diferentes sexos
09:07
and how our expectations in society still differ across genders.
y cómo nuestras expectativas sociales siguen variando por género.
09:13
But this opens up a whole new topic
Pero esto da paso a un nuevo tema
09:16
that I will better leave for other experts to discuss.
que dejaré para otros expertos.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
En segundo lugar, quizá más importante, de una perspectiva psicológica de consumo.
09:26
People open up more easily when they interact with machines
La gente se abre más fácilmente cuando interactúa con máquinas
09:31
that are apparently just that -- machines.
que aparentemente son solo eso, máquinas.
09:34
Today, a lot of sweat, money and tears
Hoy en día, se pone mucho esfuerzo, dinero y lágrimas
09:37
is put into making machines basically indistinguishable from us.
para crear máquinas casi idénticas a nosotros.
09:43
Now, this research can show
Esta investigación demuestra
09:44
that sometimes letting a machine be a machine is actually a good thing.
que a veces es bueno dejar que una máquina sea una máquina.
09:51
Which brings me to my third point.
Lo que me lleva al tercer punto.
09:54
These machine interactions have been highly criticized at times.
Estas interacciones con máquinas han sido muy criticadas en ocasiones.
09:58
So you may have heard that Siri, Alexa or others
Seguro han escuchado que Siri, Alexa u otros
10:01
make your kids rude or impolite.
hacen que sus hijos sean groseros.
10:05
Hopefully, this research can show you
Espero que esta investigación muestre
10:07
a great upside of these machine interactions.
el lado positivo de las interacciones con máquinas.
10:11
In times of social media and our constant hunt for the next “like,”
En estas épocas de redes sociales y la búsqueda del próximo “like”,
10:16
machines can give us grownups --
las máquinas pueden ayudar a los adultos
10:19
help us find that inner child again
a encontrar su niño interior nuevamente
10:21
and give our constant need for self-presentation and perfection
y darle un respiro a esa necesidad de impresiones y perfección.
10:26
a time-out.
10:28
For once, we do not need to worry
Por una vez, no debe preocuparnos
10:30
if the number of prior sex partners is too high or too low,
si el número de parejas sexuales es muy alto o muy bajo,
10:34
and instead it is OK to simply be who we are.
En lugar de eso, está bien que simplemente seamos quienes somos.
10:40
Ultimately, then, I think that these machines can remind us
Finalmente, creo que las máquinas pueden recordarnos
10:44
of a central element of what makes a good conversation partner:
un elemento básico de un buen compañero de conversación:
10:49
being nonjudgmental.
no juzgar.
10:52
so the next time you might encounter
Así que, la próxima vez que se encuentren
10:54
a unique social situation like mine at the barbecue,
en una situación social particular como en la que me encontré yo,
10:58
try to be less judgmental
traten de juzgar menos cuando otra persona comparta abiertamente
10:59
when another person openly shares
11:01
their thoughts, feelings and problems with you.
sus pensamientos, sentimientos y problemas con Uds.
11:05
Many machines do this already, and maybe so should we.
Muchas máquinas ya lo hacen, quizá nosotros también deberíamos hacerlo.
11:09
Thank you very much.
Muchas gracias.
About this site

This site was created for the purpose of learning English through video.

Each video can be played with simultaneous captions in English and your native language.

Double-click on the English captions will play the video from there.

If you have any comments or suggestions, please contact us using this contact form.