Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

00:00
Transcriber:
0
0
7000
Translator: Sanntint Tint Reviewer: Myo Aung
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
လွန်ခဲ့တဲ့ နှစ်အနည်းငယ်က သူငယ်ချင်း မိသားစုတွေနဲ့အတူ ဝိုင်းဖွဲ့စားသောက်နေတယ်။
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
ထုံးစံအတိုင်း ရာသီဥတု၊ အစားအစာကောင်း(သို့) ကြည့်စရာ ရုပ်သံပြပွဲတွေအကြောင်း ပြောကြတယ်။
00:21
So nothing out of the ordinary
3
21876
3080
ဒီတော့ တက်ရောက်လာသူတစ်ဦးက
00:24
until one attendee casually mentioned
4
24996
2920
သူနဲ့သူ့ဇနီး လိင်မဆက်ဆံတာ အတော်ကြာပြီလို့
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
အမှတ်မထင် ထည့်မပြောခင်အထိ ဘာမှ ထူးထူးခြားမရှိပါဘူး။
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
စိတ်ကူးကြည့်လို့ရတဲ့တိုင်း ဆက်ဖြစ်လာတာက အနေရခက်တဲ့ တိတ်ဆိတ်မှုပါ။
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
စားသောက်ပွဲကို မိဘတွေနဲ့အတူ တက်ရောက်နေတဲ့ ခြောက်နှစ်သား ကောင်လေးက
00:42
blurted out that his parents had lots of sex
8
42796
3680
သူ့မိဘတွေ လိင်အများကြီး ဆက်ဆံပြီး သူ တစ်ချိန်လုံး ကြားတယ်လို့
00:46
and he could hear them all the time.
9
46516
2280
ရှေ့နောက် မစဉ်းစားဘဲ မပြောခင်အထိပေါ့။
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
ဒီနောက်မှာ ဘာမှ မဖြစ်ခဲ့သလို စားသောက်ဝိုင်းက ဆက်သွားတယ်။
00:55
Now, when I'm not having barbecues,
11
55516
2000
ကဲ ကျွန်မက စားသောက်ဝိုင်း ဖွဲ့မနေဘူး။
00:57
I am researching how people interact with each other
12
57556
3360
လူတွေ အချင်းချင်း တုံ့ပြန်ဆက်သွယ်ပုံနဲ့ နည်းပညာတွေနဲ့အတူ
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
ဒါက သူတို့ရဲ့ တုံ့ပြန်ဆက်သွယ်မှုတွေဆီ ကူးပြောင်းပုံကို သုတေသနလုပ်နေတာဆိုတော့
01:05
so not all too surprisingly,
14
65356
2160
အလွန်အမင်း အံ့ဩစရာမရှိဘူး။
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
ဒီစားသောက်ဝိုင်းက အလွန် ထူးခြားတဲ့ လူမှု တုံ့ပြန်ဆက်သွယ်ရေးနောက်မှာ
01:11
I was left wondering why we, the audience,
16
71916
3520
ကျွန်မ တွေးကျန်ရစ်တာက ကျွန်မတို့ ပရိတ်သတ်ဟာ
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
ဒီညနေမှာ လူကြီးက ပွင့်လင်းစွာ မျှဝေတာကို ဘာကြောင့် ဒီလောက်ကြီး လျစ်လျူရှုခဲ့ကြတာလဲ။
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
ကောင်လေးရဲ့မှတ်ချက်မှာ ဘာကြောင့် တိတ်ဆိတ်ပြီး နောက်မှ ရယ်သံထွက်တာလဲပေါ့။
01:26
Well, both of them were breaking a social rule:
19
86356
3800
နှစ်ယောက်စလုံးက လူမှုရေး စည်းမျဉ်းတစ်ခုကို ချိုးဖောက်နေတာပါ။
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
ညစာ စားပွဲမှာ လိင်၊ပိုက်ဆံနဲ့ နိုင်ငံရေးအကြောင်း လုံးဝ မပြောရ။
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
လူကြီးတစ်ယောက်ဟာ ဒီစည်မျဉ်းကို သိပြီး လိုက်နာတယ်လို့ ကျွန်မတို့ ယူဆကြတယ်။
01:39
So when such expectations are broken,
22
99116
2840
ဒီတော့ ဒီလိုထင်ထားတာတွေကို ချိုးဖောက်တဲ့အခါ
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
ချိုးဖောက်သူတွေကို လိုအပ်သလို အရေးယူကြ တယ်။ ဒီအဖြစ်မှာတော့ လျစ်လျူရှုမှုနဲ့ပေါ့။
01:47
When a child, however, breaks such a rule,
24
107996
2840
ဒါပေမဲ့ ဒီလိုစည်းမျဉ်းကို ကလေးတစ်ယောက် ချိုးဖောက်တဲ့အခါ
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
ဒါကို လူမှုရေးဆိုင်ရာ ပြောပုံဆိုပုံမှာ ရိုးစင်းတဲ့ နားလည်ခြင်းလို့ မှတ်ယူပြီး
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
အနည်းဆုံး အသက်အပိုင်းအခြားအထိ ဒါအတွက် သူတို့ကို ပွင့်လင်းစွာ အပြစ်မပေးကြဘူး။
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
ရှင်းနေတာက လူမှုရေးအရ သင့်လျော်တဲ့ အပြု အမူတွေ(သို့) လူမှုရေးအရ လက်ခံတဲ့ ညစာစားပွဲ
02:08
or even socially accepted dinner topics.
28
128396
3000
အကြောင်းအရာတွေအတွက်တောင် တရားဝင် စည်းမျဉ်းစာအုပ်မရှိဘူး။
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
တကယ်တမ်းက လူမှုရေးစံတွေဆိုတာက အမြဲလိုလို ရေးသားမထားတဲ့ ကျင့်ဝတ်စည်းကမ်းတွေဖြစ်ပြီး
02:16
and they change over time as we as a society change and learn.
30
136436
4800
လူ့အဖွဲ့အစည်းတစ်ခုအနေနဲ့ ပြောင်းလဲ၊ သင်ယူ တာကြောင့် အချိန်ကြာရင် ပြောင်းလဲပါတယ်။
02:22
Less than a year ago, for instance,
31
142316
2120
ဥပမာ၊ လွန်ခဲ့တဲ့ တစ်နှစ် မရှိတရှိအချိန်က
02:24
it was considered impolite not to shake hands
32
144436
3000
သင့်ကို လူတစ်ယောက်နဲ့ မိတ်ဆက်ပေးတဲ့အခါ လက်ဆွဲ နှုတ်မဆက်တာက
02:27
when introducing yourself to someone.
33
147436
2840
မယဉ်ကျေးဘူးလို့ ယူဆခဲ့ကြတယ်။
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
လအနည်းငယ်နဲ့ နောက်ပိုင်း ကိုရိုနာ ဗိုင်းရပ်စ် ကမ္ဘာအနှံ့ ပျံ့နှံ့သွားတော့
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
လက်ဆွဲနှုတ်ဆက်တာက မျက်မှောင်ကြုတ်စရာ ဖြစ်လောက်ပြီး
02:38
and maybe even a thing of the past.
36
158436
2400
ခေတ်ကုန်သွားတာတစ်ခု ဖြစ်လာက်တယ်။
02:41
The way we learn these social rules then
37
161796
2440
ဒီတုန်းက ဒီလူမှုရေး စည်းမျဉ်းတွေကို သင်ယူပုံက
02:44
is mostly by social rewards and social punishments.
38
164236
4720
အများစုက လူမှုရေး ဆုလာဘ်တွေနဲ့ လူမှုရေး ပြစ်ဒဏ်တွေကြောင့်ပါ။
02:48
Now, as social animals,
39
168996
2040
ကဲ လူမှုရေး သတ္တဝါတွေအနေနဲ့
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
လူမှုရေး သဘောတူညီမှုကို ရည်မှန်းပြီး အခြားသူတွေရဲ့ သဘောမတူမှုကို ရှောင်ချင်တယ်။
02:56
So we act in a way that is socially accepted
41
176356
3440
ဒီတော့ လူမှုရေးအရ လက်ခံတဲ့ နည်းလမ်းတစ်ခုနဲ့ ပြုမူပြီး အခြားသူတွေအတွက်
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
လူမှုရေးအရ နှစ်လိုဖွယ် နည်းလမ်းတစ်ခုနဲ့ မိမိကိုယ်မိမိ ပုံဖမ်းကြတယ်။
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
ဒီတော့ တော်တဲ့၊ အောင်မြင်တဲ့၊အားကစား လိုက်စား၊တက်ကြွတဲ့၊ဖန်တီးတတ်၊စာနာတတ်တဲ့၊
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
တတ်နိုင်သရွေ့ အားလုံးတစ်ပြိုင်တည်းဖြစ်တဲ့ တစ်ဦးချင်းအဖြစ် အမြင်ခံချင်ကြတယ်။
03:17
Now, through social media, our strive for social approval,
45
197036
4680
အခု လူမှုမီဒီယာကနေတစ်ဆင့် လူမှုရေး ထောက်ခံမှုအတွက် ကျွန်မတို့ ကြိုးပမ်းကြပြီး
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
ဒါနဲ့အတူ ကိုယ်တိုင် တင်ပြမှုနဲ့ ပြိုင်စံရှားဖြစ်မှုအတွက် လိုအပ်ချက်က
03:26
has skyrocketed.
47
206556
1480
ထိုးတက်သွားခဲ့တယ်။
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
ရှင်းနေတာကတော့ ဒါအားလုံးမှာ အခြားတစ်ဖက်ရှိတာပါ။
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
လူမှု တုံ့ပြန်ဆက်သွယ်မှုတိုင်းမှာ အခြားသူတွေရဲ့ သဘောကျမှုကို ရှာရုံမက
03:37
but we also constantly fear other's disapproval
50
217796
3800
အခြားသူတွေရဲ့ မျှော်မှန်းချက်တွေအတိုင်း လျော်ညီအောင် မနေနိုင်တဲ့အခါ
03:41
when we cannot live up to their expectations.
51
221636
2720
အခြားသူတွေရဲ့ သဘောမကျမှုကိုပါ အမြဲမပြတ် ပူပင်ကြတယ်။
03:45
Just consider an adult with incontinence problems
52
225436
3280
ဆီးဝမ်းမထိန်းနိုင်တဲ့ ပြဿနာတွေ (သို့) မူးယစ်ဆေး စွဲနေတဲ့
03:48
or a drug addiction.
53
228756
1880
လူကြီးယောက်ကိုပဲ တွေးကြည့်ပါ။
03:50
If he or she had to talk to a health care professional,
54
230676
4320
သူဟာ ကျန်းမာရေး စောင့်ရှောက်မှု ပညာရှင်တစ်ယောက်ကို ဆွေးနွေးရတယ်ဆိုရင်
03:55
what would you expect to find?
55
235036
1800
သင် ဘာကို တွေ့ရှိဖို့ မျှော်လင့်လဲ။
03:57
Or if a soldier returned from combat
56
237796
2720
သို့မဟုတ် စစ်သားတစ်ယောက်က တိုက်ပွဲကနေ ပြန်လာပြီး
04:00
and had to talk about their fears or problems,
57
240556
3280
သူ့တို့ရဲ့ ကြောက်စိတ်တွေ(သို့) ပြဿနာတွေကို ပြောရမယ်ဆိုရင်
04:03
do you think they would open up easily?
58
243876
2000
သူတို့ အလွယ်တကူ ဖွင့်ပြောမယ်လို့ ထင်လား။
04:07
A team of USC researchers examined just that.
59
247396
3760
USC သုတေသီ တစ်သင်းက ဒါကို စစ်ဆေးခဲ့ကြတယ်။
04:11
So they looked at the data from the US Army.
60
251156
3200
ဒါနဲ့ အမေရိကန် စစ်တပ်က ဒေတာတွေကို သူတို့ ကြည့်ကြတယ်။
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
အစဉ်အလာအရတော့ စစ်သားတွေ တိုက်ပွဲကနေ ပြန်လာတဲ့အခါ အရာရာ
04:17
by a human health care professional when returning from combat
62
257156
4040
အဆင်ပြေလားဆိုတာ စစ်ဖို့ လူသား ကျန်းမာရေး စောင့်ရှောက်မှု ပညာရှင်တစ်ယောက်နဲ့
04:21
to check if everything is OK.
63
261196
2640
လူတွေ့မေးမြန်းခံရတာပါ။
04:23
Now, interestingly,
64
263876
1280
အခု စိတ်ဝင်စားစရာက
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
ပြန်လာပြီးနောက် စစ်သားတွေဟာ ပြဿနာတွေကို သတင်းမပို့သလောက်ဖြစ်တာကို
04:28
after their returns.
66
268876
2160
သုတေသီတွေ တွေ့ရှိခဲ့တယ်။
04:31
Surely many of them were truly fine,
67
271076
2840
သူတို့ တော်တော်များများက တကယ်ပဲ ကောင်းမွန်တာ သေချာပေမဲ့
04:33
but the researchers also suspected
68
273956
2560
သုတေသီတွေ သံသယရှိသေးတာက
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
စစ်သားများစွာဟာ သူတို့ရဲ့ ပြဿနာတွေကို ပွင့်လင်းစွာ မမျှဝေရဲကြဘူးဆိုတာပါ။
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
နောက်ဆုံးတော့ စစ်သားတွေဟာ သန်မာပြီး ရဲရင့်တဲ့ တစ်ဦးချင်းအဖြစ် ပုံသွင်းခံရပြီး
04:47
that learn not to show any weaknesses.
71
287156
2400
အားနည်းချက်တွေကို မပြသဖို့ သင်ယူခဲ့ရတယ်။
04:50
So openly admitting to have health problems,
72
290276
3760
ဒီတော့ ကျန်းမာရေး ပြဿနာတွေ ရှိတာ၊ အိပ်မရတာတွေရှိတာ၊
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
အိပ်မက်ဆိုးတွေ ရှိတာကို ပွင့်လင်းစွာ ဝန်ခံခြင်းက
04:57
is not something easy to do for soldiers.
74
297396
2840
စစ်သားတွေအတွက် လုပ်ဖို့လွယ်တဲ့ အရာတစ်ခုမဟုတ်ဘူး။
05:00
The question then ultimately becomes
75
300236
2800
ဒီနောက် နောက်ဆုံး ဖြစ်လာတဲ့ မေးခွန်းက အခြားသူတွေရဲ့
05:03
how can we help individuals open up more easily
76
303076
3800
အကဲဖြတ်ချက်တွေနဲ့ပတ်သက်ပြီး တစ်ဦးချင်း တွေကို ပိုလွယ်ကူစွာ ဖွင့်ပြောပြီး
05:06
and worry less about the judgment of others?
77
306916
2640
ပူပန်မှု ပိုနည်းစေဖို့ ဘယ်လို ကူညီနိုင်လဲဆိုတာပါ။
05:11
Well, remember what I said earlier.
78
311356
2640
စောစောက ကျွန်မ ပြောခဲ့တာကို သတိရပါ။
05:14
We expect social evaluation in any social interaction.
79
314036
5720
လူမှု တုံ့ပြန်ဆက်သွယ်မှုတိုင်းမှာ လူမှုရေး တန်ဖိုးဖြတ်မှုကို ကျွန်မတို့မျှော်လင့်တယ်။
05:19
So how about we remove the social from the interaction?
80
319796
3880
ဒီတော့ တုံ့ပြန်ဆက်သွယ်မှုကနေ လူမှုရေး ပုံစံကို ဖယ်ထုတ်လိုက်ရင်ရော။.
05:24
This is exactly what the team in the US did.
81
324556
3120
ဒါက အမေရိကန် ပြည်ထောင်စုက အသင်း တစ်သင်း လုပ်ခဲ့တာ အတိအကျပါ။
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
တကယ်က သူတို့ဟာ SimSensei ခေါ်တဲ့ အသွင်တု တွေ့ဆုံမေးမြန်းသူတစ်ယောက်ကို ဖန်တီးခဲ့တယ်။
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
ဆိုတော့ SimSensei က လူသားလို အသွင်တစ်ခု ရှိတဲ့ ဒစ်ဂျစ်တယ် သဏ္ဌာန်တစ်ခုဖြစ်ပြီး
05:37
and can interact with clients through natural conversations.
84
337516
4200
သဘာဝကျတဲ့ စကားပြောဆိုမှုတွေကနေ ဖောက်သည်တွေနဲ့ တုံ့ပြန်ဆက်သွယ်နိုင်တယ်။
05:41
Now, when returning from combat,
85
341756
2120
ကဲ တိုက်ပွဲကနေ ပြန်လာတဲ့အခါ စစ်သားတွေကို
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
အခုဆို လူသား ကျန်းမာရေး စောင့်ရှောက်မှု ပညာရှင်အစား
05:47
instead of that human health care professional.
87
347316
2320
ဒစ်ဂျစ်တယ် သဏ္ဌာန်က တွေ့ဆုံမေးမြန်းတယ်။
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
ဒါနဲ့ ဘာဖြစ်သွားလဲ။ SimSensei ကို မိတ်ဆက်ပေးလိုက်တာနဲ့
05:55
soldiers reported more health problems,
89
355196
3080
စစ်သားတွေဟာ အိပ်မက်ဆိုးတွေနဲ့ အိပ်မရတာလို
05:58
like having nightmares or trouble sleeping.
90
358276
2760
ကျန်းမာရေး ပြဿနာတွေကို ပိုပြီး သတင်းပို့တယ်။
06:02
So machines can help remove the social from the equation
91
362836
4280
ဒီတော့ စက်က ညီမျှခြင်းကနေ လူမှုရေး ပုံစံကို ဖယ်ရှားဖို့ ကူညီနိုင်ပြီး
06:07
and help people open up more easily.
92
367116
2440
လူတွေကို ပိုလွယ်ကူစွာ ဖွင့်ပြောဖို့ ကူညီနိုင်တယ်။
06:10
But careful, not all machines are created equal.
93
370836
3720
ဒါပေမဲ့ သတိတော့ရှိပါ။ စက်တွေအားလုံးက ညီတူ ဖန်တီးထားတာမဟုတ်ဘူး။
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
ကွန်ပြူတာ ပုံရိပ်တွေ(သို့) သဘာဝ ဘာသာစကား လုပ်ဆောင်ပုံလို နည်းပညာတွေထဲက
06:19
or natural language processing,
95
379076
2200
အံ့မခန်း တိုးတက်မှုတွေကို ထည့်သွင်းစဉ်းစားရင်း
06:21
machines have become increasingly humanlike.
96
381276
3760
စက်တွေက တိုးတိုးပြီး လူသားဆန်လာတယ်။
06:25
The question then ultimately becomes,
97
385076
2600
ဒီနောက် နောက်ဆုံးမှာ မေးခွန်း ဖြစ်လာတာက
06:27
which rules do we apply in these interactions?
98
387716
3200
ဒီတုံ့ပြန်ဆက်သွယ်မှုတွေမှာ ဘယ်စည်းမျဉ်းကို အသုံးချမလဲ။
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
လူသားဆန်တဲ့စက်တွေနဲ့ တုံ့ပြန်ဆက်သွယ်တဲ့အခါ လူမှုရေး စည်းမျဉ်းတွေကို အသုံးချနေဆဲလား။
06:39
So do we start to worry about social judgment again?
100
399036
3080
ဒါဆို လူမှုရေး အကဲဖြတ်ချက်နဲ့ပတ်သက်ပြီး တစ်ဖန် စတင် ပူပင်လား။
06:43
This is exactly what I examine in my research.
101
403156
3600
ဒါက ကျွန်မရဲ့ သုတေသနမှာ စစ်ဆေးတာ အတိအကျပါ။
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
လုပ်ဖော်ကိုင်ဘက်တွေနဲ့အတူ chatbots တသီတတန်းကြီး ဖန်တီးခဲ့တယ်။
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
ဒီ chatbots တွေကို စာသားအခြေခံ စကားပြောဆို မှုတွေကို လှုံဆော်ပေးဖို့ အစီအစဉ်ချထားပြီး
06:56
and they were designed to be either very social and humanlike
104
416876
4360
အလွန် လူမှုရေး(သို့) လူသားဆန်တာ သို့မဟုတ် အလွန် လုပ်ငန်းသဘော
07:01
or very functional and machine-like.
105
421236
2720
(သို့) စက်ဆန်တာဖြစ်ဖို့ ပုံစံထုတ်ထားတယ်။
07:03
So, for instance,
106
423996
2040
ဒီတော့ ဥပမာအနေနဲ့
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
လူသားဆန်တဲ့ bots တွေက speed disfluencies လို့ခေါ်တာတွေနဲ့ လူမှုရေး ဘာသာစကား
07:10
and social language cues,
108
430436
1600
အချက်ပြမှုတွေကို အသုံးပြုတယ်။
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
ဥပမာ “အိုးဟို” “အားဟာ “အွန်း” ဆိုတဲ့ စကားပြော အဖော်တွေကို ကိုယ်ရှိနေတာကို
07:19
to signal our presence to conversation partners.
110
439116
4240
အချက်ပြဖို့ လူသားတွေ စကားပြောတွေမှာ သုံးဖို့ ကြိုက်တာတွေပေါ့။
07:23
In contrast, our machine-like bots
111
443356
2760
ဆန့်ကျင်ဘက်အနေနဲ့ စက်ဆန်တဲ့ bots တွေကတော့
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
ဒီလို လူမှုရေး အချက်ပြမှုတွေ ကင်းမဲ့ပြီး လိုရင်းကိုသာ ဆက်ဆက်ပြောနေတာပါ။
07:30
Since we were interested in how much people would open up
113
450396
2800
ဒီမတူတဲ့ စကားပြောဆိုမှုတွေမှာ လူတွေ ဘယ်လောက် ဖွင့်ပြောမလဲ
07:33
in these different conversations,
114
453196
2440
ဆိုတာကို စိတ်ဝင်စားတာကြောင့်
07:35
we ask participants a number of questions,
115
455676
2920
ပါဝင်သူတွေကို မေးခွန်းတွေ အများကြီး မေးခဲ့တယ်။
07:38
which gradually grew more and more personal,
116
458636
3480
ဒါတွေက တဖြည်းဖြည်း ကိုယ်ရေးကိုယ်တာ ပိုဆန်လာပြီး ပါဝင်သူတွေကိုယ်တိုင်ရဲ့
07:42
up to the point where we would ask participants
117
462116
2520
တတ်နိုင်သရွေ့ အလွန်အနုစိတ်တဲ့ သတင်းအချက်အလက်ကို
07:44
to share possibly very delicate information about themselves.
118
464676
4160
မျှဝေဖို့ သူတို့ကို မေးမယ့်အထိ ဖြစ်သွားတယ်။
07:49
Now, considering the findings from prior research,
119
469756
2720
အရင် အမေရိကန် စစ်တပ်မှ တစ်ခုလိုမျိုး ကြိုတင် သုတေသနမှ
07:52
such as the one from the US Army before,
120
472516
3320
တွေ့ရှိချက်တွေကို ထည့်သွင်းစဉ်းစားရင်း
07:55
we expected that people would apply more social rules
121
475876
4240
လူတွေဟာ လူသားဆန်တဲ့ bots တွေနဲ့ တုံ့ပြန်ဆက်သွယ်ရာမှာ လူမှုရေး
08:00
in their interactions with these humanlike bots
122
480116
2920
စည်းမျဉ်းတွေကို ပိုအသုံးချပြီး လိုအပ်သလို ပြုမူမယ်လို့
08:03
and act accordingly.
123
483076
1640
ကျွန်မတို့ မျှော်လင့်ခဲ့တယ်။
08:05
So what did we find?
124
485596
1680
ဒီတော့ တွေရှိခဲ့တာက ဘာလဲ။
08:08
Well, exactly that.
125
488556
1600
အတိအကျ ဒါပါပဲ။
08:10
So participants interacting with our humanlike bots
126
490156
3880
ဒီတော့ လူသားဆန်တဲ့ bots တွေနဲ့ တုံ့ပြန်ဆက်သွယ်တဲ့ ပါဝင်သူတွေဟာ
08:14
were more concerned about social evaluation
127
494076
3640
လူမှုရေး တန်ဖိုးဖြတ်မှုနဲ့ ပတ်သက်ပြီး ပိုပူပန်ကြကာ
08:17
and as a result of this social apprehension,
128
497756
2480
ဒီလူမှုရေး စိုးရိမ်မှုရဲ့ အကျိုးဆက်တစ်ခုအနေနဲ့
08:20
they also gave more socially desirable responses.
129
500236
5080
သူတို့ဟာ လူမှုရေးအရ ပိုပြီး နှစ်လို့ ဖွယ်ကောင်းတဲ့ တုံ့ပြန်မှုတွေ ပေးတယ်။
08:25
Let me give you an example.
130
505316
1960
ဥပမာတစ်ခု ပေးပါရစေ။
08:27
One of the most delicate questions that we asked participants
131
507276
3680
ပါဝင်တွေကို မေးခဲ့တဲ့ အနုစိတ်အကျဆုံး မေးခွန်းတစ်ခုက
08:30
was the number of prior sex partners they had had.
132
510996
3320
သူတို့မှာ ရှိခဲ့တဲ့ အရင် လိင်ဆက်ဆံဖက် အရေအတွက်ပါ။
08:35
When interacting with our humanlike bot,
133
515276
3160
လူသားဆန်တဲ့ bot နဲ့ တုံ့ပြန်ဆက်သွယ်တဲ့အခါ
08:38
men reported to have significantly more prior sex partners
134
518436
4920
အမျိုးသားတွေက အရင် လိင်ဆက်ဆံဘက်တွေကို သိသိသာသာ ပိုများများ သတင်းပို့ပြီး
08:43
and women reported to have significantly less
135
523356
3360
အမျိုးသမီးတွေက ယန္တရားဆန်တဲ့ bot နဲ့ တုံ့ပြန်ဆက်သွယ်တဲ့
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
အမျိုးသား၊အမျိုးသမီးတွေထက် သိသိသာသာ ပိုနည်းတယ်။
08:52
So what does this all tell us?
137
532036
1920
ဒါအားလုံးက ကျွန်မတို့ကို ဘာပြောပြလဲ။
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
ပထမ၊ အမျိုးသားတွေဟာ လိင်ဆက်ဆံဖက် ပိုရှိခြင်းအားဖြင့် အမြင်ကောင်းချင်ကြပြီး
08:58
and women by having less.
139
538716
1640
အမျိုးသမီးတွေက ပိုနည်းရင်းပါ။
09:01
Clearly, this already says a lot
140
541116
1760
ရှင်းနေတာက မတူတဲ့ လိင်တွေဟာ
09:02
about what the different sexes consider socially desirable
141
542916
4080
လူမှုရေးအရ နှစ်လို့ဖွယ်ရှိတာကို စဉ်းစားတာနဲ့ ကျွန်မတို့မျှော်မှန်းချက်တွေက
09:07
and how our expectations in society still differ across genders.
142
547036
5680
လိင်အသီးအသီးမှာ ကွာခြားနေဆဲဖြစ်ပုံကို ဒါက အများကြီး ပြောပြီးပါပြီ။
09:13
But this opens up a whole new topic
143
553676
2520
ဒါပေမဲ့ ဒါက အခြားကျွမ်းကျင်သူတွေ ဆွေးနွေးဖို့
09:16
that I will better leave for other experts to discuss.
144
556196
2960
ထားလိုက်တာက ပိုကောင်းမယ့် အကြောင်းအရာသစ်တစ်ခုကို ဖွင့်ပြတယ်။
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
ဒုတိယ၊ ပိုပြီး အရေးကြီးနိုင်လောက်တာက စားသုံးသူ စိတ်ပညာ ရှုထောင့်ကနေပါ၊
09:26
People open up more easily when they interact with machines
146
566956
4320
လူတွေဟာ စက်တွေလို့ သိရသရွေ့ စက်တွေနဲ့ တုံ့ပြန်ဆက်သွယ်ရာမှာ
09:31
that are apparently just that -- machines.
147
571276
3560
ပိုလွယ်ကူစွာ ဖွင့်ပြောကြတယ်။
09:34
Today, a lot of sweat, money and tears
148
574876
3000
ဒီနေ့ခေတ်မှာ ချွေး၊ငွေနဲ့ မျက်ရည်များစွာကို
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
ကျွန်မတို့နဲ့ အခြေခံအားဖြင့် ခွဲခြားမရ နိုင်တဲ့ စက်တွေ ဖန်တီးရာမှာ ထည့်သွင်းတယ်။
09:43
Now, this research can show
150
583156
1680
ဒီသုတေသနက ပြသနိုင်တာက
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
တစ်ခါတလေ စက်တစ်လုံးကို စက်တစ်လုံးအဖြစ် ရှိစေတာဟာ ကောင်းတဲ့အရာတစ်ခုဆိုတာပါ။
09:51
Which brings me to my third point.
152
591716
1680
တတိယအချက် ကျွန်မဆီ ယူဆောင်လာတာက
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
ဒီစက် တုံ့ပြန်ဆက်သွယ်မှုတွေကို တစ်ခါတစ်ရံ အလွန်အမင်း ဝေဖန်ခဲ့ကြတယ်။
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
ဒီတော့ Siri Alexa (သို့)အခြားအရာတွေက ကလေးတွေကို ရိုင်းစိုင်း(သို့)
10:01
make your kids rude or impolite.
155
601796
2400
မယဉ်ကျေးအောင် လုပ်တယ်လို့ ကြားဖူးလောက်မှာပါ။
10:05
Hopefully, this research can show you
156
605356
1880
ဒီသုတေသနက စက် တုံ့ပြန်ဆက်သွယ်မှုတွေရဲ့
10:07
a great upside of these machine interactions.
157
607236
3040
အပြုသဘော အမြင်တစ်ခုကို ပြနိုင်တယ်လို့ မျှော်လင့်ပါတယ်။
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
လူမှုမီဒီယာနဲ့ နောက်ထပ် “like”အတွက် အတောမသတ် ရှာတဲ့ခေတ်အတွင်းမှာ
10:16
machines can give us grownups --
159
616196
2920
စက်တွေက ကျွန်မတို့ကို ရင့်ကျက်မှုတွေ ပေးပြီး
10:19
help us find that inner child again
160
619116
2760
ကိုယ်တွင်း အတ္တတစ်ခုကို ပြန်ရှာတွေ့ဖို့ ကူညီနိုင်ကာ
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
ကိုယ်တိုင် တင်ပြတာနဲ့ ပြိုင်စံရှားဖြစ်မှု အတွက် အတောအသတ် လိုအပ်မှု၊
10:26
a time-out.
162
626236
1800
အနားယူချိန်တစ်ခုကို ပေးနိုင်တယ်။
10:28
For once, we do not need to worry
163
628076
2040
တစ်ကြိမ်ပဲဖြစ်ဖြစ် အရင် လိင်ဆက်ဆံဖက်
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
အရေအတွက် များလွန်း(သို့)နည်းလွန်းလား ဆိုတာကို ပူပန်ဖို့မလိုပါဘူး။
10:34
and instead it is OK to simply be who we are.
165
634676
4520
ဒါက ကိုယ်ဘယ်သူဆိုတာနဲ့ကို အဆင်ပြေပါတယ်။
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
နောက်ဆုံးတော့ ဒီစက်တွေက ဘာက စကားပြော ဖော်ကောင်းတစ်ယောက် ဖြစ်စေတာရဲ့
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
အဓိက အစိတ်အပိုင်းတစ်ခုကို သတိပေးလိုက်တာပါ။
10:49
being nonjudgmental.
168
649876
2160
ဝေဖန်တဲ့သူ မဖြစ်ခြင်းပါ။
10:52
so the next time you might encounter
169
652076
2160
နောက်တစ်ကြိမ် ကျွန်မလို စားသောက်ဝိုင်းမှာ
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
ထူးခြားတဲ့ လူမှုရေး အခြေအနေတစ်ခုကို ကြုံနိုင်လောက်တဲ့အခါ
10:58
try to be less judgmental
171
658116
1800
လူတစ်ယောက်က သူ့အတွေးတွေ၊
10:59
when another person openly shares
172
659956
1960
ခံစားချက်တွေ၊ပြဿနာတွေကို သင်နဲ့
11:01
their thoughts, feelings and problems with you.
173
661956
3080
ပွင့်လင်းစွာ မျှဝေတဲ့အခါ ဝေဖန်တာ နည်းဖို့ ကြိုးစားပါ။
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
ဒါကို စက်များစွာက လုပ်နှင့်ပြီးပါပြီ။ ကျွန်မတို့ရော လုပ်နိုင်လောက်ပါတယ်။
11:09
Thank you very much.
175
669876
1240
ကျေးဇူးအများကြီးတင်ပါတယ်။
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7