Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Transcriber:
0
0
7000
Translator: Dương Tiên Reviewer: Nhị Khánh Trần
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Vài năm trước, tôi dự tiệc thịt nướng cùng gia đình và bạn bè.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Thường chúng tôi nói về thời tiết, đồ ăn hoặc chương trình truyền hình,
00:21
So nothing out of the ordinary
3
21876
3080
như những người bình thường.
00:24
until one attendee casually mentioned
4
24996
2920
Cho đến khi một vị khách kể rằng
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
vợ chồng anh ta đã lâu không quan hệ tình dục.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Bạn có thể tưởng tượng, những gì sau đó là sự im lặng đầy ngượng ngùng.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Cho đến khi cậu con trai 6 tuổi trong bữa tiệc đi cùng ba mẹ
00:42
blurted out that his parents had lots of sex
8
42796
3680
buộc miệng rằng ba mẹ cậu ta đã quan hệ tình dục rất nhiều
00:46
and he could hear them all the time.
9
46516
2280
và cậu có thể nghe thấy rất nhiều lần.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
Và sau đó, bữa tiệc vẫn tiếp tục như chưa có gì xảy ra.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Bây giờ, khi không dự tiệc thịt nướng nữa,
00:57
I am researching how people interact with each other
12
57556
3360
tôi vẫn hay tìm hiểu xem mọi người tương tác với nhau thế nào
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
và làm thế nào để chuyển sự tương tác của họ với công nghệ,
01:05
so not all too surprisingly,
14
65356
2160
mà không tạo quá nhiều bất ngờ.
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
Sau sự kiện tương tác xã hội độc đáo tại bữa tiệc ấy,
01:11
I was left wondering why we, the audience,
16
71916
3520
tôi đã tự hỏi mình tại sao tôi, một vị khán giả
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
phớt lờ những gì người lớn đã rất cởi mở chia sẻ với nhau vào tối hôm ấy.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Vậy tại sao mọi người im lặng và phá lên cười sau lời nói của cậu bé?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
Tất cả chúng ta đã phá vỡ quy luật xã hội
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
không nói về quan hệ tình dục, tiền bạc hay chính trị trên bàn ăn.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Chúng ta cứ giả định rằng người lớn biết và tuân theo quy luật này.
01:39
So when such expectations are broken,
22
99116
2840
Vì vậy khi một số kỳ vọng bị phá vỡ,
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
ta xử phạt những người vi phạm, và với trường hợp trên là sự thờ ơ.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Tuy nhiên, khi một đứa trẻ vi phạm
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
ta lại cho rằng đó là sự thiếu hiểu biết về văn hóa ứng xử trong xã hội.
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
Và ít nhất đến độ tuổi nhất định, không công khai xử phạt họ về điều đó.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Rõ ràng, không có một cuốn sách quy tắc chính thức về những hành vi xã hội
02:08
or even socially accepted dinner topics.
28
128396
3000
hoặc thậm chí về các chủ đề được chấp nhận trong bữa ăn tối.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
Thật ra, các chuẩn mực xã hội thường là quy tắc ứng xử bất thành văn,
02:16
and they change over time as we as a society change and learn.
30
136436
4800
và chúng thay đổi theo thời gian như chúng ta thay đổi xã hội và học hỏi.
02:22
Less than a year ago, for instance,
31
142316
2120
Chưa đầy một năm trước,
02:24
it was considered impolite not to shake hands
32
144436
3000
thật bất lịch sự khi không bắt tay
02:27
when introducing yourself to someone.
33
147436
2840
lúc giới thiệu ai đó với người khác.
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Một vài tháng sau, sự lây lan của vi-rút Corona
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
và bắt tay có thể bị phản đối
02:38
and maybe even a thing of the past.
36
158436
2400
hay thậm chí là một quy tắc lỗi thời.
02:41
The way we learn these social rules then
37
161796
2440
Cách mà ta học những quy tắc xã hội sau đó
02:44
is mostly by social rewards and social punishments.
38
164236
4720
hầu hết là những phần thưởng và trừng phạt từ xã hội.
02:48
Now, as social animals,
39
168996
2040
Bây giờ, như những động vật xã hội,
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
ta hướng tới sự chấp nhận xã hội và tránh sự phản đối của người khác.
02:56
So we act in a way that is socially accepted
41
176356
3440
Vì vậy, ta hành xử theo cách được xã hội chấp nhận
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
và thể hiện bản thân theo cách xã hội mong đợi.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Ta muốn được xem là một cá nhân thông minh, thành công,
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
biết chơi thể thao, năng động, sáng tạo, đồng cảm hoặc có những thứ đó cùng lúc.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
Bây giờ, thông qua mạng xã hội, nỗ lực để được xã hội công nhận,
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
và khẳng định sự hoàn hảo của bản thân
03:26
has skyrocketed.
47
206556
1480
tăng vọt.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Rõ ràng, có một mặt tiêu cực cho tất cả điều này.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
Trong bất kỳ ứng xử xã hội nào, chúng ta không chỉ tìm sự chấp nhận từ người khác,
03:37
but we also constantly fear other's disapproval
50
217796
3800
mà còn sợ sự phản đối của người khác
03:41
when we cannot live up to their expectations.
51
221636
2720
khi ta không thể làm thỏa mãn mong đợi của họ.
03:45
Just consider an adult with incontinence problems
52
225436
3280
Khi người lớn có vấn đề về tiểu tiện
03:48
or a drug addiction.
53
228756
1880
hoặc nghiện thuốc.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
Nếu anh hoặc cô ấy phải nói với chuyên gia chăm sóc sức khỏe,
03:55
what would you expect to find?
55
235036
1800
bạn mong đợi điều gì?
03:57
Or if a soldier returned from combat
56
237796
2720
Hay nếu một chiến binh trở về từ trận chiến
04:00
and had to talk about their fears or problems,
57
240556
3280
và phải nói về nỗi sợ hoặc vấn đề của họ,
04:03
do you think they would open up easily?
58
243876
2000
bạn có nghĩ họ sẽ dễ bày tỏ ?
04:07
A team of USC researchers examined just that.
59
247396
3760
Một nhóm các nhà nghiên cứu của USC đã kiểm tra điều đó.
04:11
So they looked at the data from the US Army.
60
251156
3200
Họ đã nhìn các số liệu từ quân đội US.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Theo truyền thống, các người lính phải được phỏng vấn
04:17
by a human health care professional when returning from combat
62
257156
4040
bởi các chuyên gia chăm sóc sức khỏe sau khi quay về từ trận chiến
04:21
to check if everything is OK.
63
261196
2640
để kiểm tra xem mọi thứ có ổn không.
04:23
Now, interestingly,
64
263876
1280
Thật thú vị,
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
các nhà nghiên cứu phát hiện các người lính hầu như không có vấn đề nào
04:28
after their returns.
66
268876
2160
sau khi họ trở về.
04:31
Surely many of them were truly fine,
67
271076
2840
Chắc chắn, tất cả họ đều ổn,
04:33
but the researchers also suspected
68
273956
2560
nhưng các nghiên cứu cũng đã nghi ngờ
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
rằng nhiều người lính đã sợ chia sẻ về các vấn đề sức khỏe.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Sau đó, binh lính được đào tạo để thành những cá nhân khỏe mạnh và dũng cảm,
04:47
that learn not to show any weaknesses.
71
287156
2400
học cách không để lộ bất kỳ điểm yếu nào.
04:50
So openly admitting to have health problems,
72
290276
3760
Công khai thừa nhận các vấn đề sức khỏe,
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
khó ngủ hoặc gặp ác mộng
04:57
is not something easy to do for soldiers.
74
297396
2840
là điều không dễ làm đối với người lính.
05:00
The question then ultimately becomes
75
300236
2800
Câu hỏi cuối cùng là
05:03
how can we help individuals open up more easily
76
303076
3800
làm thế nào ta giúp các cá nhân mở lòng một cách dễ dàng hơn
05:06
and worry less about the judgment of others?
77
306916
2640
và ít lo lắng hơn về cách người khác nghĩ về họ.
05:11
Well, remember what I said earlier.
78
311356
2640
À, hãy nhớ lại những gì tôi đã nói.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
Chúng ta mong đợi sự đánh giá xã hội trong bất kỳ sự tương tác xã hội.
05:19
So how about we remove the social from the interaction?
80
319796
3880
Vì vậy làm thế nào để ta loại bỏ xã hội từ sự tương tác ?
05:24
This is exactly what the team in the US did.
81
324556
3120
Đó chắc chắn là những gì mà đội nhóm ở Mỹ đã làm.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Thật ra, họ đã tạo ra một người phỏng vấn ảo gọi là SimSensei.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
SimSensei là một nhân vật ảo có hình dáng giống con người
05:37
and can interact with clients through natural conversations.
84
337516
4200
và có thể tương tác với khách hàng thông qua các cuộc trò chuyện tự nhiên.
05:41
Now, when returning from combat,
85
341756
2120
Quay trở về từ trận chiến,
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
các binh lính được phỏng vấn bởi các hình ảnh kỹ thuật số
05:47
instead of that human health care professional.
87
347316
2320
thay vì bởi các chuyên gia y tế.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
Và chuyện gì đã xảy ra ? Ừm, khi SimSensei được giới thiệu,
05:55
soldiers reported more health problems,
89
355196
3080
những người lính đã báo cáo nhiều vấn đề sức khỏe hơn,
05:58
like having nightmares or trouble sleeping.
90
358276
2760
như gặp ác mộng hoặc khó ngủ.
06:02
So machines can help remove the social from the equation
91
362836
4280
Vậy máy móc có thể giúp loại bỏ tương tác xã hội khỏi phương trình
06:07
and help people open up more easily.
92
367116
2440
và giúp người ta mở rộng lòng mình hơn.
06:10
But careful, not all machines are created equal.
93
370836
3720
Nhưng cẩn thận, không phải tất cả máy móc đều được tạo ra giống nhau.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Xem xét đến sự tiến bộ to lớn trong nghệ như đồ họa máy tính
06:19
or natural language processing,
95
379076
2200
hoặc xử lý ngôn ngữ tự nhiên,
06:21
machines have become increasingly humanlike.
96
381276
3760
máy móc đang dần trở nên giống con người.
06:25
The question then ultimately becomes,
97
385076
2600
Câu hỏi đó trở thành,
06:27
which rules do we apply in these interactions?
98
387716
3200
chúng ta áp dụng quy tắc nào trong các sự tương tác này ?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
Ta còn áp dụng các quy tắc ấy khi tương tác với người máy?
06:39
So do we start to worry about social judgment again?
100
399036
3080
Vậy chúng ta có còn lo lắng về sự phán xét xã hội?
06:43
This is exactly what I examine in my research.
101
403156
3600
Đó chính xác là cái tôi đã kiểm nghiệm trong bài nghiên cứu của mình.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Cùng với các dồng nghiệp của mình, chúng tôi đã phát triển một loạt chatbots.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Các chatbots được lập trình để đánh giá các cuộc hội thoại dựa trên văn bản
06:56
and they were designed to be either very social and humanlike
104
416876
4360
và chúng được thiết kế để trông gần gũi như con người
07:01
or very functional and machine-like.
105
421236
2720
hoặc thiết thực như máy móc.
07:03
So, for instance,
106
423996
2040
Ví dụ
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
Chatbot giống như chúng ta sử dụng cái gọi là lỗi tốc độ
07:10
and social language cues,
108
430436
1600
và các ngôn ngữ tín hiệu,
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
như là “oho”, “aha”, “hmms” mà chúng ta thích sử dụng trong các cuộc trò chuyện
07:19
to signal our presence to conversation partners.
110
439116
4240
để báo hiệu sự hiện diện của chúng ta cho đối phương trong cuộc trò chuyện.
07:23
In contrast, our machine-like bots
111
443356
2760
Ngược lại, máy chat tự động
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
thiếu các dấu hiệu xã hội và đơn giản là giữ chủ đề của cuộc nói chuyện.
07:30
Since we were interested in how much people would open up
113
450396
2800
Khi chúng tôi quan tâm đến mọi người sẽ cởi mở bao nhiêu
07:33
in these different conversations,
114
453196
2440
trong từng cuộc trò chuyện khác nhau,
07:35
we ask participants a number of questions,
115
455676
2920
chúng tôi hỏi những người tham gia một số câu hỏi,
07:38
which gradually grew more and more personal,
116
458636
3480
và dần dần nó càng trở nên cá nhân hơn
07:42
up to the point where we would ask participants
117
462116
2520
đến thời điểm chúng tôi hỏi những người tham gia
07:44
to share possibly very delicate information about themselves.
118
464676
4160
chia sẻ những thông tin cá nhân tế nhị.
07:49
Now, considering the findings from prior research,
119
469756
2720
Giờ, xem xét những phát hiện từ các nghiên cứu trước,
07:52
such as the one from the US Army before,
120
472516
3320
như là một cái từ quân đội Mỹ trước đó,
07:55
we expected that people would apply more social rules
121
475876
4240
chúng tôi đã hi vọng rằng mọi người nên áp dụng nhiều quy tắc xã hội
08:00
in their interactions with these humanlike bots
122
480116
2920
trong các tương tác của họ với các bots giống người này
08:03
and act accordingly.
123
483076
1640
và hành động một cách phù hợp.
08:05
So what did we find?
124
485596
1680
Vậy chúng tôi đã tìm thấy gì ?
08:08
Well, exactly that.
125
488556
1600
Chính xác là nó đấy.
08:10
So participants interacting with our humanlike bots
126
490156
3880
Những người tham gia tương tác với các máy chat giống người
08:14
were more concerned about social evaluation
127
494076
3640
đã quan tâm hơn về các đánh giá xã hội
08:17
and as a result of this social apprehension,
128
497756
2480
và kết quả là e ngại xã hội,
08:20
they also gave more socially desirable responses.
129
500236
5080
họ cũng đã đưa ra nhiều phản ứng mong muốn từ xã hội.
08:25
Let me give you an example.
130
505316
1960
Để tôi đưa ra một ví dụ.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Một trong những câu hỏi tế nhị nhất mà chúng tôi hỏi người tham gia
08:30
was the number of prior sex partners they had had.
132
510996
3320
là số người bạn tình mà họ có trước đó.
08:35
When interacting with our humanlike bot,
133
515276
3160
Khi tương tác với các máy chat như người,
08:38
men reported to have significantly more prior sex partners
134
518436
4920
báo cáo của đàn ông cho thấy họ có nhiều bạn tình hơn
08:43
and women reported to have significantly less
135
523356
3360
và phụ nữ báo cáo có ít hơn
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
số người sử dụng cái máy chat tự động này.
08:52
So what does this all tell us?
137
532036
1920
Vậy tất cả điều này nói lên điều gì?
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Đầu tiên, đàn ông muốn trông tốt hơn khi có nhiều bạn tình
08:58
and women by having less.
139
538716
1640
và phụ nữ thì có ít hơn.
09:01
Clearly, this already says a lot
140
541116
1760
Rõ ràng, nó thật sự nói rất nhiều
09:02
about what the different sexes consider socially desirable
141
542916
4080
về những gì giữa các giới tính coi là mong muốn xã hội
09:07
and how our expectations in society still differ across genders.
142
547036
5680
và kỳ vọng của chúng ta trong xã hội khác biệt giữa các giới tính.
09:13
But this opens up a whole new topic
143
553676
2520
Nhưng nó mở ra một chủ đề hoàn toàn mới
09:16
that I will better leave for other experts to discuss.
144
556196
2960
rằng tốt hơn tôi nên để các chuyên gia thảo luận.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
Thứ hai và có thể quan trọng hơn từ góc độ tâm lý của người tiêu dùng.
09:26
People open up more easily when they interact with machines
146
566956
4320
Mọi người cởi mở nhiều hơn khi họ tương tác với máy móc
09:31
that are apparently just that -- machines.
147
571276
3560
dường như chỉ có vậy - máy móc.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Hôm nay, nhiều mồ hôi, tiền và nước mắt
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
được đưa vào chế tạo máy, về cơ bản nó chẳng khác gì với chúng ta.
09:43
Now, this research can show
150
583156
1680
Bây giờ, một nghiên cứu chỉ ra rằng
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
đôi khi để một cái máy là một cái máy thật sự là một điều tốt.
09:51
Which brings me to my third point.
152
591716
1680
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Cái tương tác máy móc này đã đôi khi bị chỉ trích rất nhiều.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Bạn có thể đã nghe đến Siri, Alexa và nhiều ứng dụng khác
10:01
make your kids rude or impolite.
155
601796
2400
khiến con bạn trở nên thô lỗ và bất lịch sự.
10:05
Hopefully, this research can show you
156
605356
1880
Hi vọng rằng, nghiên cứu cho bạn thấy
10:07
a great upside of these machine interactions.
157
607236
3040
một cú lội ngược dòng tuyệt vời của việc tương tác máy móc này.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
Trong thời đại phương tiện truyền thông và việc săn tìm các lượt “thích” tiếp theo
10:16
machines can give us grownups --
159
616196
2920
những chiếc máy có thể giúp chúng ta trưởng thành hơn
10:19
help us find that inner child again
160
619116
2760
giúp chúng ta tìm lại “đứa trẻ bên trong”
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
và dành thời gian cho bản thân để khẳng định tầm nhìn
10:26
a time-out.
162
626236
1800
và làm mới chính mình.
10:28
For once, we do not need to worry
163
628076
2040
Một lần, chúng ta không cần lo lắng
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
nếu số lượng bạn tình trước đây quá cao hoặc quá thấp,
10:34
and instead it is OK to simply be who we are.
165
634676
4520
và thay vào đó đơn giản là chúng ta là ai.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
Cuối cùng, tôi nghĩ những chiếc máy này có thể nhắc nhở chúng ta
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
về yếu tố trung tâm để tạo nên một người nói chuyện tốt:
10:49
being nonjudgmental.
168
649876
2160
không phán xét.
10:52
so the next time you might encounter
169
652076
2160
Vậy lần sau bạn có thể gặp phải
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
một trường hợp xã hội có một không hai như tôi tại bữa tiệc thịt nướng,
10:58
try to be less judgmental
171
658116
1800
hãy cố gắng ít phán xét hơn
10:59
when another person openly shares
172
659956
1960
khi một ai đó thẳng thắn chia sẻ
11:01
their thoughts, feelings and problems with you.
173
661956
3080
suy nghĩ của họ, cảm xúc và vấn đề với bạn.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Nhiều máy móc đã làm được điều này, và có thể chúng ta nên làm thế.
11:09
Thank you very much.
175
669876
1240
Cảm ơn rất nhiều
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7