Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Transcriber:
0
0
7000
Переводчик: Tatyana Peruzzi Редактор: Alena Chernykh
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Несколько лет назад мы собрались с друзьями и родственниками на пикник.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Как обычно, мы говорили о погоде, вкусной еде и о том, что посмотреть.
00:21
So nothing out of the ordinary
3
21876
3080
В общем, ничего необычного,
00:24
until one attendee casually mentioned
4
24996
2920
пока один из присутствующих не упомянул о том,
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
что они с женой уже давно не занимались любовью.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Как вы можете себе представить, за этим последовало неловкое молчание.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Пока шестилетний мальчик, который был на пикнике с родителями,
00:42
blurted out that his parents had lots of sex
8
42796
3680
не огорошил всех, сказав,
что его родители часто занимаются сексом, и он их постоянно слышит.
00:46
and he could hear them all the time.
9
46516
2280
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
После этого посиделки продолжились, как ни в чём не бывало.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Сейчас, когда я не могу выехать на пикник,
00:57
I am researching how people interact with each other
12
57556
3360
я изучаю то, как люди взаимодействуют между собой,
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
и как это переносится на их взаимодействие с техникой.
01:05
so not all too surprisingly,
14
65356
2160
Поэтому, совсем не удивительно,
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
что, после такой вполне необычной ситуации на пикнике, я начала задаваться вопросом,
01:11
I was left wondering why we, the audience,
16
71916
3520
а почему-же мы, присутствующие, были настолько рады проигнорировать то,
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
чем один из взрослых так открыто поделился с нами в тот вечер.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Почему было молчание, а затем смех после замечания мальчика?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Они оба нарушили социальное правило:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
никогда не говорить о сексе, деньгах или политике за обеденным столом.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Мы полагаем, что взрослые знают об этом правиле и придерживаются его.
01:39
So when such expectations are broken,
22
99116
2840
И когда такие ожидания не оправдываются, мы наказываем
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
провинившегося соответствующим образом, в нашем случае, игнорированием.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Однако же, когда ребёнок нарушает такую норму,
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
мы списываем это на его наивное понимание манер поведения,
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
и, хотя бы, до определённого возраста, открыто не выражаем неодобрение.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Естественно, официального кодекса социально приемлемого поведения
02:08
or even socially accepted dinner topics.
28
128396
3000
или даже допустимых тем для обсуждения за столом не существует.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
На самом деле, наши социальные нормы — это обычно неписанные нормы поведения,
02:16
and they change over time as we as a society change and learn.
30
136436
4800
и они меняются с течением времени, когда мы, как общество, меняемся и узнаём новое.
02:22
Less than a year ago, for instance,
31
142316
2120
Менее года назад, например,
02:24
it was considered impolite not to shake hands
32
144436
3000
считалось невежливым не обменяться рукопожатиями
02:27
when introducing yourself to someone.
33
147436
2840
при знакомстве с кем-либо.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Прошло несколько месяцев, по всему миру распространилась коронавирусная инфекция,
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
и к протянутой руке могут отнестись с неодобрением
02:38
and maybe even a thing of the past.
36
158436
2400
или даже посчитать пережитком прошлого.
02:41
The way we learn these social rules then
37
161796
2440
Мы познаём эти социальные нормы в основном
02:44
is mostly by social rewards and social punishments.
38
164236
4720
посредством социального поощрения и социального неодобрения.
02:48
Now, as social animals,
39
168996
2040
И мы, будучи социальными существами,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
стремимся к социальному одобрению и хотим избежать неодобрения со стороны других.
02:56
So we act in a way that is socially accepted
41
176356
3440
Поэтому мы действуем так, как общество принимает,
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
и ведём себя так, как общество хочет, чтобы мы себя вели.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Мы хотим выглядеть умными, успешными, спортивными людьми,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
а также активными, творческими, чуткими и, возможно, всё это одновременно.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
Сейчас из-за социальных сетей наше стремление к общественному одобрению
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
и, вместе с ним, наша потребность в самоутверждении и самосовершенствовании
03:26
has skyrocketed.
47
206556
1480
взлетели до небес.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Безусловно, у всего этого есть обратная сторона.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
При любом социальном взаимодействии мы не только стремимся к одобрению другими,
03:37
but we also constantly fear other's disapproval
50
217796
3800
но также постоянно боимся неодобрения со стороны других людей,
03:41
when we cannot live up to their expectations.
51
221636
2720
когда мы не можем соответствовать их ожиданиям.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Просто представьте себе взрослого человека с проблемой недержания
03:48
or a drug addiction.
53
228756
1880
или наркозависимого.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Если он или она должен поговорить с медицинским работником,
03:55
what would you expect to find?
55
235036
1800
какую реакцию он будет ожидать?
03:57
Or if a soldier returned from combat
56
237796
2720
Или же если солдат вернулся с поля боя,
04:00
and had to talk about their fears or problems,
57
240556
3280
и он должен поговорить о своих страхах и проблемах.
04:03
do you think they would open up easily?
58
243876
2000
Легко ли ему будет открыться?
04:07
A team of USC researchers examined just that.
59
247396
3760
Команда исследователей Университета USC как раз-таки исследовала это.
04:11
So they looked at the data from the US Army.
60
251156
3200
Они рассмотрели данные сухопутных войск армии США.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Обычно солдаты проходили собеседование
04:17
by a human health care professional when returning from combat
62
257156
4040
с медицинским работником после их возвращения из боя,
04:21
to check if everything is OK.
63
261196
2640
для того, чтобы проверить, что всё в порядке.
04:23
Now, interestingly,
64
263876
1280
Что весьма примечательно,
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
исследователи заметили, что солдаты едва ли сообщали о каких-либо проблемах
04:28
after their returns.
66
268876
2160
после их возвращения.
04:31
Surely many of them were truly fine,
67
271076
2840
Конечно, многие из них были действительно в порядке,
04:33
but the researchers also suspected
68
273956
2560
но исследователи также предполагали,
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
что многие солдаты не решались поделиться своими проблемами открыто.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
В конце концов, солдат готовят быть сильными и бравыми личностями,
04:47
that learn not to show any weaknesses.
71
287156
2400
не склонными показывать свои слабости.
04:50
So openly admitting to have health problems,
72
290276
3760
Поэтому открытое признание каких-либо проблем со здоровьем,
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
проблем со сном или того, что их мучают кошмары,
04:57
is not something easy to do for soldiers.
74
297396
2840
не даётся солдатам легко.
05:00
The question then ultimately becomes
75
300236
2800
Тогда неизбежно возникает вопрос:
05:03
how can we help individuals open up more easily
76
303076
3800
как мы можем помочь людям легче открыться
05:06
and worry less about the judgment of others?
77
306916
2640
и меньше беспокоиться по поводу их оценки другими?
05:11
Well, remember what I said earlier.
78
311356
2640
Так вот, вспомните, о чём я говорила раньше.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Мы ожидаем социальную оценку при любых взаимодействиях с обществом.
05:19
So how about we remove the social from the interaction?
80
319796
3880
А что будет, если убрать общество из процесса взаимодействия?
05:24
This is exactly what the team in the US did.
81
324556
3120
Именно это и сделала команда в США.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Если точнее, они разработали виртуального анкетёра по имени СимСенсей.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
СимСенсей -- это цифровой аватар, имеющий человеческую внешность
05:37
and can interact with clients through natural conversations.
84
337516
4200
и способный взаимодействовать с клиентами, используя естественный диалог.
05:41
Now, when returning from combat,
85
341756
2120
Теперь, после возвращения из боя,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
солдат опрашивает цифровой аватар
05:47
instead of that human health care professional.
87
347316
2320
вместо медицинского работника.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
И что же произошло?
После введения СимСенсея, солдаты начали больше говорить о проблемах со здоровьем,
05:55
soldiers reported more health problems,
89
355196
3080
05:58
like having nightmares or trouble sleeping.
90
358276
2760
таких как кошмары и проблемы со сном.
06:02
So machines can help remove the social from the equation
91
362836
4280
Получается, что машины могут помочь удалить социальный момент из уравнения
06:07
and help people open up more easily.
92
367116
2440
и помочь людям открыться более свободно.
06:10
But careful, not all machines are created equal.
93
370836
3720
Но надо быть осторожными, не все машины созданы одинаковыми.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Учитывая огромный прогресс в сфере таких технологий, как компьютерная графика
06:19
or natural language processing,
95
379076
2200
или обработка естественного языка,
06:21
machines have become increasingly humanlike.
96
381276
3760
машины становятся все более и более похожими на людей.
06:25
The question then ultimately becomes,
97
385076
2600
В конце концов встаёт вопрос:
06:27
which rules do we apply in these interactions?
98
387716
3200
какие нормы применяются при таких взаимодействиях?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Применяем ли мы также социальные нормы при общении с человекоподобными машинами?
06:39
So do we start to worry about social judgment again?
100
399036
3080
Начинает ли нас опять волновать оценка общества?
06:43
This is exactly what I examine in my research.
101
403156
3600
Именно это я изучаю в моём исследовании.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Вместе с коллегами мы разработали серию чат-ботов.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Эти чат-боты были запрограммированы на имитацию текстовых диалогов,
06:56
and they were designed to be either very social and humanlike
104
416876
4360
и они спроектированы так, чтобы быть либо очень общительными и человекоподобными,
07:01
or very functional and machine-like.
105
421236
2720
либо очень функциональными и действующими как машины.
07:03
So, for instance,
106
423996
2040
Так, например,
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
наши человекоподобные боты используют так называемые «слова-паразиты»
07:10
and social language cues,
108
430436
1600
и реплики разговорной речи,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
такие как «ого-го», «ага», «хм», которые мы, люди, любим использовать в разговорах,
07:19
to signal our presence to conversation partners.
110
439116
4240
чтобы показать наше присутствие тому, с кем мы общаемся.
07:23
In contrast, our machine-like bots
111
443356
2760
Машиноподобные же боты, напротив,
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
не используют реплики разговорной речи, а чётко придерживаются предмета разговора.
07:30
Since we were interested in how much people would open up
113
450396
2800
Так как нам было интересно, насколько люди раскроются
07:33
in these different conversations,
114
453196
2440
в таких разных диалогах,
07:35
we ask participants a number of questions,
115
455676
2920
мы задали участникам несколько вопросов,
07:38
which gradually grew more and more personal,
116
458636
3480
которые постепенно становились всё более и более личными,
07:42
up to the point where we would ask participants
117
462116
2520
вплоть до того, что мы попросили участников поделиться,
07:44
to share possibly very delicate information about themselves.
118
464676
4160
потенциально очень деликатной информацией о них.
07:49
Now, considering the findings from prior research,
119
469756
2720
Учитывая результаты ранее проведённых исследований,
07:52
such as the one from the US Army before,
120
472516
3320
например, проведённого исследования в отношении армии США,
07:55
we expected that people would apply more social rules
121
475876
4240
мы ожидали, что люди будут применять больше социальных норм
08:00
in their interactions with these humanlike bots
122
480116
2920
при взаимодействии с человекоподобными ботами
и действовать соответственно.
08:03
and act accordingly.
123
483076
1640
08:05
So what did we find?
124
485596
1680
И каков же был результат?
08:08
Well, exactly that.
125
488556
1600
Ну... именно это мы и получили.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Участников, взаимодействующих с человекоподобными ботами,
08:14
were more concerned about social evaluation
127
494076
3640
больше волновала социальная оценка
08:17
and as a result of this social apprehension,
128
497756
2480
и в результате этой социальной обеспокоенности,
08:20
they also gave more socially desirable responses.
129
500236
5080
они также давали ответы, более желательные с точки зрения общества.
08:25
Let me give you an example.
130
505316
1960
Приведу один пример.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Одним из наиболее деликатных вопросов, которые мы задавали участникам,
08:30
was the number of prior sex partners they had had.
132
510996
3320
было число бывших сексуальных партнёров.
08:35
When interacting with our humanlike bot,
133
515276
3160
При общении с человекоподобным ботом,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
мужчины говорили, что у них было значительно больше сексуальных партнёров,
08:43
and women reported to have significantly less
135
523356
3360
а женщины, что значительно меньше,
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
чем те мужчины и женщины, которые общались с машиноподобным ботом.
08:52
So what does this all tell us?
137
532036
1920
И о чём же это всё нам говорит?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Во-первых, мужчины хотят выглядеть лучше за счёт большего числа половых партнеров,
08:58
and women by having less.
139
538716
1640
а женщины — за счёт меньшего.
Только это уже красноречиво говорит,
09:01
Clearly, this already says a lot
140
541116
1760
09:02
about what the different sexes consider socially desirable
141
542916
4080
что считается более желательным в глазах общества для людей разного пола,
09:07
and how our expectations in society still differ across genders.
142
547036
5680
и насколько наши ожидания в обществе всё еще различаются между полами.
09:13
But this opens up a whole new topic
143
553676
2520
Но это открывает абсолютно новую тему,
09:16
that I will better leave for other experts to discuss.
144
556196
2960
которую будет лучше оставить для обсуждения другим экспертам.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
Во-вторых, и, возможно, это более важно, с точки зрения потребительской психологии,
09:26
People open up more easily when they interact with machines
146
566956
4320
людям намного проще раскрыться, когда они взаимодействуют с машинами,
09:31
that are apparently just that -- machines.
147
571276
3560
которые и выглядят просто как машины.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
На сегодняшний день много усилий и денег
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
вкладывается в то, чтобы сделать машины фактически неотличимыми от нас.
09:43
Now, this research can show
150
583156
1680
А это исследование показывает,
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
что фактически оставить машину машиной — хорошая идея.
09:51
Which brings me to my third point.
152
591716
1680
Что приводит меня к третьему пункту.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Эти взаимодействия с машинами нередко критиковались.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Может, вы слышали, что из-за помощников, таких как Siri или Alexa,
10:01
make your kids rude or impolite.
155
601796
2400
дети становятся более грубыми и невежливыми.
10:05
Hopefully, this research can show you
156
605356
1880
Надеюсь, исследование сможет показать
10:07
a great upside of these machine interactions.
157
607236
3040
замечательный потенциал этих взаимодействий с машинами.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
Во времена социальных сетей и постоянной погони за следующим лайком
10:16
machines can give us grownups --
159
616196
2920
машины могут позволить нам, взрослым,
10:19
help us find that inner child again
160
619116
2760
помочь снова найти в себе ребёнка
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
и дать передышку постоянной потребности в самоутверждении и самосовершенствовании.
10:26
a time-out.
162
626236
1800
10:28
For once, we do not need to worry
163
628076
2040
В кои-то веки нам не надо переживать,
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
если у нас было слишком много или слишком мало половых партнеров,
10:34
and instead it is OK to simply be who we are.
165
634676
4520
и, вместо этого, принять, что вполне нормально просто быть такими, как мы есть.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
И наконец, я думаю, что эти машины могут напомнить нам
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
о ключевом элементе того, что делает собеседника хорошим:
10:49
being nonjudgmental.
168
649876
2160
неосуждающем отношении.
10:52
so the next time you might encounter
169
652076
2160
Поэтому, когда вы в следующий раз столкнётесь
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
с уникальной социальной ситуацией, типа моей на пикнике,
10:58
try to be less judgmental
171
658116
1800
постарайтесь быть менее критичным,
10:59
when another person openly shares
172
659956
1960
когда другой человек открыто делится
11:01
their thoughts, feelings and problems with you.
173
661956
3080
своими мыслями, чувствами и проблемами.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Многие машины уже делают это,
может быть, и нам стоит...
11:09
Thank you very much.
175
669876
1240
Большое спасибо.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7