Anne Scherer: Why we're more honest with machines than people | TED

88,043 views

2021-07-29 ・ TED


New videos

Anne Scherer: Why we're more honest with machines than people | TED

88,043 views ・ 2021-07-29

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Transcriber:
0
0
7000
Traducteur: Manon VH Relecteur: Claire Ghyselen
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Il y a quelques années,
j’avais organisĂ© un barbecue avec des amis et de la famille.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Comme d’habitude, nous parlions mĂ©tĂ©o, gastronomie, ou des sĂ©ries tĂ©lĂ© Ă  voir.
00:21
So nothing out of the ordinary
3
21876
3080
Donc rien qui ne sorte de l’ordinaire
00:24
until one attendee casually mentioned
4
24996
2920
jusqu’à ce que quelqu’un mentionne fortuitement
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
que lui et sa femme n’avaient pas eu de relation sexuelle depuis longtemps.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Vous vous en doutez, ce propos fut suivi d’un silence gĂȘnant.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Jusqu’à ce qu’un garçon de 6 ans qui accompagnait ses parents au barbecue
00:42
blurted out that his parents had lots of sex
8
42796
3680
laisse Ă©chapper que ses parents avaient beaucoup de relations sexuelles
00:46
and he could hear them all the time.
9
46516
2280
et qu’il pouvait les entendre tout le temps.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
Et le barbecue a continuĂ© comme si de rien n’était.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Quand je ne fais pas de barbecues,
00:57
I am researching how people interact with each other
12
57556
3360
je fais des recherches sur les interactions entre les personnes
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
et comment cela se traduit dans leur interaction avec la technologie.
01:05
so not all too surprisingly,
14
65356
2160
Donc, sans trop de surprise,
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
aprĂšs ce moment social vraiment unique au barbecue,
01:11
I was left wondering why we, the audience,
16
71916
3520
je me suis demandé pourquoi nous, le public,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
avions ignoré de maniÚre patente ce que cette personne adulte nous avait confié
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Pourquoi ce silence et ensuite le rire au commentaire du petit garçon ?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Eh bien, les deux brisaient une rĂšgle sociale :
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
ne jamais parler de sexe, d’argent ou de politique au düner.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
On prĂ©sume qu’un adulte connaĂźt la rĂšgle et s’y tient.
01:39
So when such expectations are broken,
22
99116
2840
Donc lorsque de telles attentes sont brisées,
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
nous punissons le fautif en conséquence --
dans notre cas, en l’ignorant.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Toutefois, quand c’est un enfant qui brise une telle rùgle,
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
nous attribuons cela à leur compréhension naïve de nos maniÚres sociales
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
et jusqu’à un certain ñge, en tout les cas,
on ne les sanctionne pas ouvertement pour cela.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Manifestement, il n’y a pas de manuel officiel d’étiquette
02:08
or even socially accepted dinner topics.
28
128396
3000
ou mĂȘme de sujets de conversation socialement acceptables Ă  un dĂźner.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
En fait, nos normes sociales sont généralement des codes de conduite tacites
02:16
and they change over time as we as a society change and learn.
30
136436
4800
et qui évoluent avec le temps et à mesure que nous, en tant que société,
Ă©voluons et apprenons.
02:22
Less than a year ago, for instance,
31
142316
2120
Il y a moins d’un an, par exemple,
02:24
it was considered impolite not to shake hands
32
144436
3000
ne pas serrer la main Ă©tait impoli
02:27
when introducing yourself to someone.
33
147436
2840
lorsque nous nous prĂ©sentions Ă  quelqu’un.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Mais quelques mois aprĂšs la propagation du coronavirus dans le monde,
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
on désapprouve parfois le serrement de main,
02:38
and maybe even a thing of the past.
36
158436
2400
c’est peut-ĂȘtre mĂȘme rĂ©volu.
02:41
The way we learn these social rules then
37
161796
2440
Nous apprenons ces rĂšgles sociales
02:44
is mostly by social rewards and social punishments.
38
164236
4720
principalement à travers les récompenses ou punitions sociales sociales.
02:48
Now, as social animals,
39
168996
2040
Or, en tant qu’animaux sociaux,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
nous visons l’approbation sociale et voulons Ă©viter la dĂ©sapprobation.
02:56
So we act in a way that is socially accepted
41
176356
3440
Donc, nous agissons d’une maniĂšre socialement acceptĂ©e
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
et nous nous prĂ©sentons d’une maniĂšre socialement dĂ©sirable pour les autres.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Nous voulons ĂȘtre vus comme quelqu’un d’intelligent, qui rĂ©ussit dans la vie,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
de sportif, actif, crĂ©atif, emphatique et peut-ĂȘtre tout cela Ă  la fois.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
À travers les rĂ©seaux sociaux, notre quĂȘte d’approbation sociale,
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
accompagnĂ©e de notre besoin d’image de soi et de perfection,
03:26
has skyrocketed.
47
206556
1480
a atteint des sommets.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Évidemment, il y a un revers à tout cela.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
Dans toute interaction sociale,
nous ne recherchons pas seulement l’approbation de l’autre,
03:37
but we also constantly fear other's disapproval
50
217796
3800
mais nous avons aussi constamment peur de sa désapprobation
03:41
when we cannot live up to their expectations.
51
221636
2720
quand on ne peut pas ĂȘtre Ă  la hauteur de leurs attentes.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Imaginez simplement un adulte qui souffre de problùmes d’incontinence,
03:48
or a drug addiction.
53
228756
1880
ou d’une dĂ©pendance.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Si il ou elle devait s’adresser Ă  un professionnel de la santĂ©,
03:55
what would you expect to find?
55
235036
1800
que pensez-vous qu’il va se passer ?
03:57
Or if a soldier returned from combat
56
237796
2720
Ou imaginez un soldat de retour du combat
04:00
and had to talk about their fears or problems,
57
240556
3280
qui doit s’ouvrir au sujet de ses craintes ou problùmes,
04:03
do you think they would open up easily?
58
243876
2000
pensez-vous qu’il pourrait se confier facilement ?
04:07
A team of USC researchers examined just that.
59
247396
3760
Une Ă©quipe de chercheurs de l’universitĂ© Southern California a Ă©tudiĂ© cela.
04:11
So they looked at the data from the US Army.
60
251156
3200
Ils ont Ă©tudiĂ© les donnĂ©es de l’armĂ©e amĂ©ricaine.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Traditionnellement, les soldats doivent ĂȘtre reçus
04:17
by a human health care professional when returning from combat
62
257156
4040
par un professionnel de la santé quand ils reviennent du combat
04:21
to check if everything is OK.
63
261196
2640
pour vérifier que tout va bien.
04:23
Now, interestingly,
64
263876
1280
Curieusement, les chercheurs ont découvert
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
que les soldats ne signalaient presqu’aucun problùme
04:28
after their returns.
66
268876
2160
aprĂšs leur retour Ă  la maison.
04:31
Surely many of them were truly fine,
67
271076
2840
Beaucoup d’entre eux allaient sĂ»rement trĂšs bien,
04:33
but the researchers also suspected
68
273956
2560
mais les chercheurs soupçonnaient également
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
que beaucoup de soldats n’osent pas partager ouvertement leurs problùmes.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
AprĂšs tout, on forme les soldats pour ĂȘtre forts et courageux
04:47
that learn not to show any weaknesses.
71
287156
2400
et pour ne jamais montrer aucune faiblesse.
04:50
So openly admitting to have health problems,
72
290276
3760
Dùs lors, un soldat n’admettra pas facilement et ouvertement
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
avoir des problÚmes de santé,
04:57
is not something easy to do for soldiers.
74
297396
2840
avoir du mal Ă  dormir, ou avoir des cauchemars.
05:00
The question then ultimately becomes
75
300236
2800
La question se resume donc Ă  ceci :
05:03
how can we help individuals open up more easily
76
303076
3800
comment peut-on aider les personnes Ă  se confier plus facilement
05:06
and worry less about the judgment of others?
77
306916
2640
et à moins se soucier du jugement d’autrui ?
05:11
Well, remember what I said earlier.
78
311356
2640
Eh bien souvenez-vous de ce que j’ai dit prĂ©cĂ©demment.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
On s’attend Ă  une Ă©valuation sociale dans chaque interaction sociale.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Alors, pourquoi pas supprimer le cĂŽtĂ© social de l’interaction ?
05:24
This is exactly what the team in the US did.
81
324556
3120
C’est exactement ce que l’équipe aux États-Unis a fait.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Ils ont dĂ©veloppĂ© un enquĂȘteur virtuel nommĂ© SimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
SimSensei est un avatar numĂ©rique Ă  l’apparence humaine
05:37
and can interact with clients through natural conversations.
84
337516
4200
qui peut interagir avec des clients dans des conversations naturelles.
05:41
Now, when returning from combat,
85
341756
2120
En revenant du combat,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
les soldats Ă©taient donc interrogĂ©s par l’avatar numĂ©rique
05:47
instead of that human health care professional.
87
347316
2320
au lieu du professionnel de la santé.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
Et que s’est-il passĂ© ?
Eh bien, avec SimSensei, les soldats signalaient plus de problÚmes de santé,
05:55
soldiers reported more health problems,
89
355196
3080
05:58
like having nightmares or trouble sleeping.
90
358276
2760
comme des cauchemars ou de l’insomnie.
06:02
So machines can help remove the social from the equation
91
362836
4280
Donc, les machines peuvent aider Ă  ĂŽter le social de l’équation
06:07
and help people open up more easily.
92
367116
2440
et Ă  encourager les gens Ă  se confier plus facilement.
06:10
But careful, not all machines are created equal.
93
370836
3720
Mais attention. toutes les machines ne sont pas créées égales.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Avec les progrĂšs considĂ©rables dans des technologies comme l’infographie
06:19
or natural language processing,
95
379076
2200
ou le traitement du langage naturel,
06:21
machines have become increasingly humanlike.
96
381276
3760
les machines sont devenues de plus en plus humaines.
06:25
The question then ultimately becomes,
97
385076
2600
Une nouvelle question Ă©merge alors :
06:27
which rules do we apply in these interactions?
98
387716
3200
quelles rĂšgles allons nous appliquer pour ces interactions-lĂ  ?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Appliquerons-nous encore les rĂšgles sociales
dans nos interactions avec des machines humaines ?
06:39
So do we start to worry about social judgment again?
100
399036
3080
Allons-nous à nouveau nous inquiéter du jugement social ?
06:43
This is exactly what I examine in my research.
101
403156
3600
Cette question est au cƓur de mes recherches.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Avec des collĂšgues, nous avons dĂ©veloppĂ© une sĂ©rie d’agents conversationnels.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Ces agents sont programmés pour simuler des conversations textuelles
06:56
and they were designed to be either very social and humanlike
104
416876
4360
et conçus pour ĂȘtre soit trĂšs sociaux et humains,
07:01
or very functional and machine-like.
105
421236
2720
soit trĂšs fonctionnels et robotiques.
07:03
So, for instance,
106
423996
2040
Ainsi, par exemple,
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
nos robots humains utilisent ce qu’on appelle des diffluences verbales
07:10
and social language cues,
108
430436
1600
et des indices du langage social,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
comme les « oho », « aha » et autres « hmm »
que nous, humains, adorons utiliser dans nos conversations
07:19
to signal our presence to conversation partners.
110
439116
4240
pour signaler notre présence à nos partenaires conversationnels.
07:23
In contrast, our machine-like bots
111
443356
2760
En contraste, nos machines robotiques
ne disposaient pas de ces indices du langage social
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
et s’en tenaient aux points de discussion.
07:30
Since we were interested in how much people would open up
113
450396
2800
Comme nous voulions déterminer le degré de confiance de personnes
07:33
in these different conversations,
114
453196
2440
dans ces différentes conversations,
07:35
we ask participants a number of questions,
115
455676
2920
nous avons posé un certain nombre de questions aux participants
07:38
which gradually grew more and more personal,
116
458636
3480
qui devenaient progressivement de plus en plus personnelles,
07:42
up to the point where we would ask participants
117
462116
2520
jusqu’au moment oĂč nous demandions aux participants
07:44
to share possibly very delicate information about themselves.
118
464676
4160
de partager des informations peut-ĂȘtre trĂšs sensibles sur eux-mĂȘmes.
07:49
Now, considering the findings from prior research,
119
469756
2720
Sur base des résultats de recherches précédentes,
07:52
such as the one from the US Army before,
120
472516
3320
comme ceux de l’armĂ©e amĂ©ricaine,
07:55
we expected that people would apply more social rules
121
475876
4240
nous nous attendions Ă  ce que les gens appliquent plus de rĂšgles sociales
08:00
in their interactions with these humanlike bots
122
480116
2920
dans leurs interactions avec les robots à l’apparence humaine
08:03
and act accordingly.
123
483076
1640
et agissent en conséquence.
08:05
So what did we find?
124
485596
1680
Et qu’avons-nous dĂ©couvert ?
08:08
Well, exactly that.
125
488556
1600
Eh bien, exactement cela.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Quand les participants interagissaient avec nos robots humains,
08:14
were more concerned about social evaluation
127
494076
3640
ils se souciaient plus de l’évaluation sociale
08:17
and as a result of this social apprehension,
128
497756
2480
et à cause de cette appréhension sociale,
08:20
they also gave more socially desirable responses.
129
500236
5080
ils fournissaient des réponses socialement plus souhaitables.
08:25
Let me give you an example.
130
505316
1960
Je vais vous donner un exemple.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Une des questions les plus délicates que nous avons posées aux participants
08:30
was the number of prior sex partners they had had.
132
510996
3320
portait sur le nombre de partenaires sexuels qu’ils avaient eu.
08:35
When interacting with our humanlike bot,
133
515276
3160
Quand ils interagissent avec nos robots humains,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
les hommes ont indiqué avoir nettement plus de partenaires sexuels
08:43
and women reported to have significantly less
135
523356
3360
et les femmes en avoir significativement moins
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
que ceux et celles qui interagissaient avec notre robot mécanique.
08:52
So what does this all tell us?
137
532036
1920
Quels les enseignements retirons-nous ?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Les hommes veulent ĂȘtre bien vus en ayant plus de partenaires sexuels
08:58
and women by having less.
139
538716
1640
et les femmes, en en ayant moins.
09:01
Clearly, this already says a lot
140
541116
1760
Clairement, cela en dit déjà beaucoup
09:02
about what the different sexes consider socially desirable
141
542916
4080
sur ce que les différents sexes considÚrent comme socialement désirable
09:07
and how our expectations in society still differ across genders.
142
547036
5680
et sur la variation de nos attentes selon les genres.
09:13
But this opens up a whole new topic
143
553676
2520
Mais cela ouvre un nouveau champ d’étude
09:16
that I will better leave for other experts to discuss.
144
556196
2960
que je vais plutĂŽt confier Ă  d’autres spĂ©cialistes.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
DeuxiĂšmement, et peut-ĂȘtre encore plus important,
du point de vue de la psychologie consommateur,
09:26
People open up more easily when they interact with machines
146
566956
4320
les gens se confient plus facilement quand ils interagissent avec des machines
09:31
that are apparently just that -- machines.
147
571276
3560
qui ressemblent Ă  des machines.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Aujourd’hui, beaucoup de sueur, d’argent et de larmes
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
sont investi dans la conception de machines semblables à l’homme.
09:43
Now, this research can show
150
583156
1680
Ces recherches mettent en relief
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
que parfois, il est prĂ©fĂ©rable de laisser une machine ĂȘtre une machine.
09:51
Which brings me to my third point.
152
591716
1680
Ce qui m’amùne à mon troisiùme point.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Les interactions machines sont parfois vivement critiquées.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Vous avez peut-ĂȘtre entendu dire que Siri, Alexa et d’autres
10:01
make your kids rude or impolite.
155
601796
2400
rendent vos enfants grossiers ou impolis.
Mes recherches vous montrent, je l’espùre,
10:05
Hopefully, this research can show you
156
605356
1880
10:07
a great upside of these machine interactions.
157
607236
3040
un trĂšs grand avantage de ces interactions avec les machines.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
À l’ùre des rĂ©seaux sociaux et de notre chasse perpĂ©tuelle au prochain « like »,
10:16
machines can give us grownups --
159
616196
2920
les machines peuvent nous donner Ă  nous adultes --
10:19
help us find that inner child again
160
619116
2760
peuvent nous épauler pour retrouver notre enfant intérieur
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
et mettre en pause notre besoin constant de présentation de soi et de perfection.
10:26
a time-out.
162
626236
1800
Pour une fois, plus besoin de nous inquiéter
10:28
For once, we do not need to worry
163
628076
2040
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
si le nombre de nos partenaires sexuels est trop important ou trop petit.
10:34
and instead it is OK to simply be who we are.
165
634676
4520
À la place, nous pouvons ĂȘtre qui nous sommes.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
Pour conclure, je dirai que ces machines nous rappellent
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
un élément crucial pour faire un bon partenaire de conversation :
10:49
being nonjudgmental.
168
649876
2160
ne pas porter de jugement.
10:52
so the next time you might encounter
169
652076
2160
Donc, la prochaine fois que vous rencontrez
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
une situation sociale unique comme la mienne au barbecue,
10:58
try to be less judgmental
171
658116
1800
essayez de moins juger
10:59
when another person openly shares
172
659956
1960
la personne qui partage ouvertement ses pensées, émotions et soucis avec vous.
11:01
their thoughts, feelings and problems with you.
173
661956
3080
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
De nombreuses machines le font déjà, et sans doute devrions-nous les imiter.
11:09
Thank you very much.
175
669876
1240
Merci beaucoup.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7