Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Transcriber:
0
0
7000
번역: MinJung KIM 검토: DK Kim
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
몇 년 전 저는 가족, 친구들과 바비큐를 먹고 있었습니다.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
평소처럼 날씨나 맛있는 음식, TV 프로에 대해 이야기했죠.
00:21
So nothing out of the ordinary
3
21876
3080
모든 것이 평범했습니다.
00:24
until one attendee casually mentioned
4
24996
2920
그중 한 명이 아무렇지도 않게
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
자신이 아내와 섹스를 하지 않은 지 오래됐다고 얘기하기 전까지는요.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
짐작하시는 것처럼 어색한 정적이 이어졌습니다.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
부모님을 따라 바비큐 파티에 온 여섯 살짜리 남자 아이가
00:42
blurted out that his parents had lots of sex
8
42796
3680
불쑥 끼어들어 자기 부모님은 섹스를 많이 하고
00:46
and he could hear them all the time.
9
46516
2280
자기는 항상 그 소리를 듣는다고 말할 때까지요.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
그리고 바비큐 파티는 아무 일도 없었던 것처럼 계속됐습니다.
00:55
Now, when I'm not having barbecues,
11
55516
2000
바비큐를 먹지 않을 때 저는
00:57
I am researching how people interact with each other
12
57556
3360
사람들이 서로 어떻게 상호작용하며
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
그것이 기술과의 상호작용에 어떤 영향을 주는지 연구합니다.
01:05
so not all too surprisingly,
14
65356
2160
따라서 별로 놀랍지 않게,
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
바비큐 파티에서 생긴 매우 독특한 사회적 상호작용 후에
01:11
I was left wondering why we, the audience,
16
71916
3520
저는 그날 저녁 왜 그 말을 들은 우리가
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
한 성인이 공개적으로 공유한 일을 아예 무시해버렸는지 궁금했습니다.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
우리는 왜 침묵했고, 왜 아이의 말에는 웃었을까요?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
두 가지는 모두 사회적인 규칙을 깨는 것이었습니다.
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
식사 자리에서 섹스, 돈, 정치에 대해 얘기하지 않기.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
성인이라면 모두 그 규칙을 알고 따를 거라고 생각하죠.
그래서 이런 기대가 깨졌을 때,
01:39
So when such expectations are broken,
22
99116
2840
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
규칙을 어긴 사람에게 벌을 줍니다.
이 경우에는 말을 무시해버렸죠.
01:47
When a child, however, breaks such a rule,
24
107996
2840
그러나 아이들이 규칙을 어겼을 땐
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
그것을 사회적인 예의에 대한 미숙한 이해 탓으로 생각해
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
적어도 어느 정도 나이가 되기 전까진 공개적으로 벌주지 않습니다.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
분명히, 사회적으로 적절한 행동, 식사 시간에 허용되는 대화 주제에 대한
02:08
or even socially accepted dinner topics.
28
128396
3000
공식적인 규정집 같은 것은 없습니다.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
사실, 사회적 규범은 대개 불문율인 행동 수칙이고
02:16
and they change over time as we as a society change and learn.
30
136436
4800
시간이 지나면서 우리 사회가 변함에 따라 함께 바뀝니다.
02:22
Less than a year ago, for instance,
31
142316
2120
예를 들어, 1년도 안 된 전만 해도
02:24
it was considered impolite not to shake hands
32
144436
3000
누군가를 만나는 자리에서 악수를 하지 않는 것은
02:27
when introducing yourself to someone.
33
147436
2840
무례하다고 여겨졌습니다.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
몇 달이 지나 코로나 바이러스가 전 세계에 확산된 후에는
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
악수를 하는 것이 눈살을 찌푸리게 만들고
02:38
and maybe even a thing of the past.
36
158436
2400
일종의 과거가 되어버린 것 같았죠.
02:41
The way we learn these social rules then
37
161796
2440
우리가 사회적 규칙을 배우는 방식은
02:44
is mostly by social rewards and social punishments.
38
164236
4720
대부분 사회적인 보상과 처벌을 통해서입니다.
02:48
Now, as social animals,
39
168996
2040
우리는 사회적 동물로서
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
사회적으로 인정받기를 목표로 하고
타인의 반대를 피하고 싶어합니다.
02:56
So we act in a way that is socially accepted
41
176356
3440
그래서 우리는 사회적으로 허용되는 방식대로 행동하고
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
사회적으로 바람직한 방식으로 다른 사람에게 자신을 표현합니다.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
그래서 우리는 자신이 똑똑하고, 성공적이며
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
활발하고, 창조적이고, 공감 능력이 뛰어난 사람으로,
가능하다면 이 모든 것을 갖춘 사람으로 보이길 원합니다.
최근 소셜미디어 상에서 사회적 인정을 위한 분투와
03:17
Now, through social media, our strive for social approval,
45
197036
4680
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
자기를 드러내고 완벽하고 싶은
우리의 욕구는 끝없이 치솟고 있습니다.
03:26
has skyrocketed.
47
206556
1480
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
분명히 이 모든 것에는 이면이 있습니다.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
모든 사회적 교류에서 우리는 타인의 인정을 바랄 뿐 아니라
03:37
but we also constantly fear other's disapproval
50
217796
3800
타인의 반감을 끊임없이 두려워하기도 합니다.
03:41
when we cannot live up to their expectations.
51
221636
2720
우리가 그들의 기대에 부응하지 못할까봐요.
03:45
Just consider an adult with incontinence problems
52
225436
3280
요실금이 있거나 약물 중독인 사람을 생각해보세요.
03:48
or a drug addiction.
53
228756
1880
03:50
If he or she had to talk to a health care professional,
54
230676
4320
만약 그들이 의료 전문가와 이야기를 한다면
어떤 것들이 예상되시나요?
03:55
what would you expect to find?
55
235036
1800
03:57
Or if a soldier returned from combat
56
237796
2720
혹은 전투에서 돌아온 군인이
04:00
and had to talk about their fears or problems,
57
240556
3280
자신의 두려움과 문제에 대해 얘기해야만 한다면
04:03
do you think they would open up easily?
58
243876
2000
그들이 쉽게 얘기를 털어놓을 거라고 생각하시나요?
04:07
A team of USC researchers examined just that.
59
247396
3760
한 미국 연구팀이 바로 이 문제를 조사했습니다.
04:11
So they looked at the data from the US Army.
60
251156
3200
그들은 미군의 데이터를 살펴봤습니다.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
전통적으로 군인들은 전투에서 복귀하면
04:17
by a human health care professional when returning from combat
62
257156
4040
의료 전문가와 면담을 해야 합니다.
모든 것이 괜찮은지 확인하는 거죠.
04:21
to check if everything is OK.
63
261196
2640
04:23
Now, interestingly,
64
263876
1280
흥미롭게도 연구진이 발견한 것은
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
복귀 후 자신의 문제를 보고하는 군인이 거의 없었다는 겁니다.
04:28
after their returns.
66
268876
2160
당연히 대부분은 정말로 괜찮았을 것입니다.
04:31
Surely many of them were truly fine,
67
271076
2840
04:33
but the researchers also suspected
68
273956
2560
그러나 연구진은 많은 군인들이
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
과감히 자신의 문제를 털어놓지 못했을 거라고 의심했습니다.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
어쨌든 군인들은 강하고 용감한 사람이 되라고 훈련받습니다.
04:47
that learn not to show any weaknesses.
71
287156
2400
어떤 약점이든 드러내지 말라고 배우죠.
04:50
So openly admitting to have health problems,
72
290276
3760
따라서 건강에 문제가 있음을 공개적으로 인정하고
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
잠을 잘 못 자거나 악몽을 꾼다고 얘기하는 것은
04:57
is not something easy to do for soldiers.
74
297396
2840
군인들에게는 쉽지 않습니다.
05:00
The question then ultimately becomes
75
300236
2800
결국 궁극적인 문제는
어떻게 사람들이 더 쉽게 마음을 열 수 있도록 돕고
05:03
how can we help individuals open up more easily
76
303076
3800
05:06
and worry less about the judgment of others?
77
306916
2640
타인의 평가를 덜 걱정하게 만들 수 있는가입니다.
05:11
Well, remember what I said earlier.
78
311356
2640
앞서 했던 얘기를 떠올려보세요.
우리는 모든 사회적 상호작용에서 사회적 평가를 예상합니다.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
05:19
So how about we remove the social from the interaction?
80
319796
3880
만약 상호작용에서 사회적인 것을 지워보면 어떨까요?
05:24
This is exactly what the team in the US did.
81
324556
3120
이것이 바로 미국 연구팀이 한 것입니다.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
그들은 심센세라는 가상 면접자를 개발했습니다.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
심센세는 사람 모습을 한 디지털 아바타로
05:37
and can interact with clients through natural conversations.
84
337516
4200
자연스러운 대화로 사람과 상호작용이 가능합니다.
05:41
Now, when returning from combat,
85
341756
2120
전투에서 복귀한 후
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
군인들은 디지털 아바타와 면담을 했습니다.
05:47
instead of that human health care professional.
87
347316
2320
의료 전문가인 진짜 사람을 대신했죠.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
결과는 어땠을까요?
심센세가 투입되자
05:55
soldiers reported more health problems,
89
355196
3080
군인들은 건강 문제를 더 많이 보고했습니다.
05:58
like having nightmares or trouble sleeping.
90
358276
2760
잠을 잘 못 잔다거나 악몽을 꾼다는 등의 얘기를 했죠.
06:02
So machines can help remove the social from the equation
91
362836
4280
기계는 상호작용의 공식에서 사회적인 것을 제거해
06:07
and help people open up more easily.
92
367116
2440
사람들이 더 쉽게 마음을 열도록 도와줍니다.
06:10
But careful, not all machines are created equal.
93
370836
3720
하지만 모든 기계가 다 그렇진 않다는 것을 주의하세요.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
컴퓨터 그래픽이나 자연어 처리 같은 기술의 엄청난 발전을 고려한다면
06:19
or natural language processing,
95
379076
2200
06:21
machines have become increasingly humanlike.
96
381276
3760
기계는 점점 더 인간처럼 될 것입니다.
그렇다면 본질적인 의문이 생기죠.
06:25
The question then ultimately becomes,
97
385076
2600
06:27
which rules do we apply in these interactions?
98
387716
3200
이들과 하는 상호작용에는 어떤 규칙이 적용되는 것일까요?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
우리는 사람 같은 기계와 상호작용할 때 여전히 사회적인 규칙을 적용할까요?
그렇다면 우리는 다시 사회적 평가를 걱정하게 될까요?
06:39
So do we start to worry about social judgment again?
100
399036
3080
06:43
This is exactly what I examine in my research.
101
403156
3600
저는 바로 이것을 연구했습니다.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
저는 동료들과 함께 여러 챗봇들을 개발했습니다.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
이 챗봇들은 문자 대화들을 흉내내도록 프로그래밍되어 있으며
06:56
and they were designed to be either very social and humanlike
104
416876
4360
매우 사회적이면서 인간 같거나
혹은 매우 기능적이면서 기계 같도록 디자인 되었습니다.
07:01
or very functional and machine-like.
105
421236
2720
07:03
So, for instance,
106
423996
2040
예를 들어서
인간적인 챗봇들은 이른바 즉각적인 추임새나
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
07:10
and social language cues,
108
430436
1600
사회적인 언어 신호를 사용합니다.
“오호“, “아하“, “음”과 같이
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
사람들이 대화 중에 즐겨 사용하는 말들로
07:19
to signal our presence to conversation partners.
110
439116
4240
대화 상대에게 우리 존재를 알리는 신호입니다.
07:23
In contrast, our machine-like bots
111
443356
2760
반대로, 기계적인 챗봇들은
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
이런 사회적 신호가 부족하고 단순히 말하는 요점에 집중합니다.
07:30
Since we were interested in how much people would open up
113
450396
2800
저희는 사람들이 다양한 대화 속에서
얼마나 마음을 여는지를 알고 싶었기 때문에
07:33
in these different conversations,
114
453196
2440
07:35
we ask participants a number of questions,
115
455676
2920
참가자들에게 여러 가지 질문을 했습니다.
07:38
which gradually grew more and more personal,
116
458636
3480
질문은 점진적으로 개인적인 것으로 변했는데
07:42
up to the point where we would ask participants
117
462116
2520
최종적으로는 참가자들에게
07:44
to share possibly very delicate information about themselves.
118
464676
4160
자신에 대한 매우 민감한 정보를 공유할 수 있는지 물었습니다.
07:49
Now, considering the findings from prior research,
119
469756
2720
이전 연구들의 결과를 생각해 봤을 때,
07:52
such as the one from the US Army before,
120
472516
3320
예를 들어 미군들을 대상으로 했던 연구에서 그랬던 것처럼
07:55
we expected that people would apply more social rules
121
475876
4240
저희는 사람들이 사회적인 규칙을
인간 같은 챗봇과의 대화에 더 많이 적용하고
08:00
in their interactions with these humanlike bots
122
480116
2920
그에 맞춰 행동할 거라고 예상했습니다.
08:03
and act accordingly.
123
483076
1640
08:05
So what did we find?
124
485596
1680
실제로는 어땠을까요?
08:08
Well, exactly that.
125
488556
1600
예상했던 그대로입니다.
08:10
So participants interacting with our humanlike bots
126
490156
3880
참가자들은 인간적인 챗봇과 대화할 때
사회적 평가를 더 신경썼습니다.
08:14
were more concerned about social evaluation
127
494076
3640
08:17
and as a result of this social apprehension,
128
497756
2480
그리고 이런 사회적 불안감의 결과로
08:20
they also gave more socially desirable responses.
129
500236
5080
그들은 사회적으로 바람직한 대답을 더 많이 했습니다.
08:25
Let me give you an example.
130
505316
1960
예를 하나 말하자면
08:27
One of the most delicate questions that we asked participants
131
507276
3680
참가자들에게 던진 가장 민감한 질문 중 하나는
08:30
was the number of prior sex partners they had had.
132
510996
3320
과거 성관계를 가졌던 사람의 숫자였습니다.
08:35
When interacting with our humanlike bot,
133
515276
3160
인간적인 챗봇과 대화할 때
08:38
men reported to have significantly more prior sex partners
134
518436
4920
남자들은 훨씬 더 큰 수를 대답했고
08:43
and women reported to have significantly less
135
523356
3360
대여자들은 훨씬 더 작은 수를 대답했습니다.
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
기계적인 챗봇과 대화했던 남자와 여자들에 비해서 말이죠.
이것은 무엇을 뜻하는 걸까요?
08:52
So what does this all tell us?
137
532036
1920
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
먼저, 남자들은 성관계를 가졌던 사람이 많아야 멋져 보인다고 여깁니다.
08:58
and women by having less.
139
538716
1640
여자들은 적어야 한다고 생각하고요.
이미 많이 알려진 이야기이죠.
09:01
Clearly, this already says a lot
140
541116
1760
09:02
about what the different sexes consider socially desirable
141
542916
4080
성별에 따라 사회적으로 바람직하다고 여겨지는 것이 다르고,
우리가 사회에서 기대하는 바 역시 여전히 성별에 따른 차이가 있죠.
09:07
and how our expectations in society still differ across genders.
142
547036
5680
09:13
But this opens up a whole new topic
143
553676
2520
하지만 이것은 완전히 새로운 주제로
09:16
that I will better leave for other experts to discuss.
144
556196
2960
다른 전문가들이 논의할 수 있게 남겨놓도록 하겠습니다.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
두 번째는 소비자 심리학 관점에서 더 중요할 것 같습니다.
09:26
People open up more easily when they interact with machines
146
566956
4320
사람들은 기계와 소통할 때 더 쉽게 마음을 엽니다.
09:31
that are apparently just that -- machines.
147
571276
3560
그것이 분명히 기계처럼 보일 경우예요.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
오늘날 우리는 수많은 땀과 돈, 눈물을 들여
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
인간과 구분할 수 없는 기계를 만들려고 노력합니다.
09:43
Now, this research can show
150
583156
1680
이 연구는 우리에게 말합니다.
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
‘가끔은 기계를 기계처럼 보이게 두는 것이 더 좋습니다.’
09:51
Which brings me to my third point.
152
591716
1680
세 번째 주제로 이어집니다.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
이러한 기계적인 상호작용은 때때로 많은 비판을 받았습니다.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
시리, 알렉사 같은 인공 지능이
아이들을 버릇 없고 무례하게 만든다는 말을 들어보셨을 것입니다.
10:01
make your kids rude or impolite.
155
601796
2400
10:05
Hopefully, this research can show you
156
605356
1880
이 연구가 여러분께 기계와 소통하는 큰 장점을 보여주길 바랍니다.
10:07
a great upside of these machine interactions.
157
607236
3040
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
끝없이 ‘좋아요’를 찾아 헤매는 소셜미디어 시대에
10:16
machines can give us grownups --
159
616196
2920
기계는 성숙한 어른처럼
우리 내면의 어린 아이를 찾게 돕고
10:19
help us find that inner child again
160
619116
2760
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
끊임없이 자신을 드러내고 완벽해 보이고 싶어 하는 우리를
10:26
a time-out.
162
626236
1800
잠시 멈추게 해줍니다.
10:28
For once, we do not need to worry
163
628076
2040
이번에는 섹스 파트너 수가 너무 많은지 너무 적은지 같은 것을
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
걱정할 필요가 없습니다.
10:34
and instead it is OK to simply be who we are.
165
634676
4520
그저 자기 자신 그대로이면 충분하죠.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
결과적으로, 기계들은 우리에게
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
좋은 대화를 위해 가장 핵심적인 것이 무엇인지를 다시금 알려줍니다.
10:49
being nonjudgmental.
168
649876
2160
‘평가하지 않는 것’입니다.
만약 여러분들이 우연히
10:52
so the next time you might encounter
169
652076
2160
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
저처럼 바비큐 파티에서 독특한 사회적 상황에 놓인다면
무언가를 평가하지 않으려고 해보세요.
10:58
try to be less judgmental
171
658116
1800
10:59
when another person openly shares
172
659956
1960
다른 사람이 공개적으로 자신의 생각, 감정, 고민들을 털어놓을 때요.
11:01
their thoughts, feelings and problems with you.
173
661956
3080
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
많은 기계들은 이미 그렇게 했고 우리도 그래야 할 것입니다.
11:09
Thank you very much.
175
669876
1240
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7