Anne Scherer: Why we're more honest with machines than people | TED

88,306 views ・ 2021-07-29

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Transcriber:
0
0
7000
المترجم: omar idmassaoud المدقّق: Shimaa Nabil
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
قبل بضع سنوات كنت أقيم حفلة شواء مع الأصدقاء والعائلة.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
تحدثنا كالعادة إما عن الطقس أو الطعام اللذيذ أو البرامج التلفزيونية.
00:21
So nothing out of the ordinary
3
21876
3080
ناقشنا فقط المواضيع المألوفة
00:24
until one attendee casually mentioned
4
24996
2920
إلى أن ذكر أحد الحاضرين بأريحية
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
أنه لم يطارح زوجته الغرام منذ فترة طويلة.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
لك أن تتخيل الصمت المحرج الذي تلى ذلك.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
إلى أن قام طفل في السادسة يحضر حفل الشواء مع والديه
00:42
blurted out that his parents had lots of sex
8
42796
3680
بذكر أن والديه كانا يمارسان الجنس كثيرًا
00:46
and he could hear them all the time.
9
46516
2280
وأنه يستطيع سماعهما طوال الوقت.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
ثم استمر حفل الشواء وكأن شيئا لم يحدث.
00:55
Now, when I'm not having barbecues,
11
55516
2000
عندما لا أقيم حفلات الشواء،
00:57
I am researching how people interact with each other
12
57556
3360
أكون أبحث في كيفية تفاعل الناس بين بعضهم البعض
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
وكيف ينتقل ذلك إلى تفاعلاتهم مع الوسائل التكنولوجية،
01:05
so not all too surprisingly,
14
65356
2160
لذا ليس من المستغرب
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
أنه بعد هذا التفاعل الاجتماعي الفريد في حفل الشواء،
01:11
I was left wondering why we, the audience,
16
71916
3520
شرعت أتساءل لماذا كنا نحن الحاضرون
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
نتجاهل ما شاركه معنا الكبار بأريحية في ذلك المساء.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
فلماذا كنا صامتين ثم ضحكنا على ما قاله الصبي تعقيًبا؟
01:26
Well, both of them were breaking a social rule:
19
86356
3800
كلاهما كانا يخرقان قاعدة اجتماعية:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
لا تتحدث أبدًا عن الجنس أو المال أو السياسة على مائدة العشاء.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
نفترض أن الشخص البالغ يعرف هذه القاعدة ويلتزم بها.
01:39
So when such expectations are broken,
22
99116
2840
لذلك عندما تُكسر هذه التوقعات
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
نعاقب الجاني وفقًا لذلك - في حالتنا، بالتجاهل.
01:47
When a child, however, breaks such a rule,
24
107996
2840
ومع ذلك، عندما يخالف الطفل هذه القاعدة
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
فإننا نعزو ذلك إلى فهمه الساذج بأخلاقنا الاجتماعية
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
وحتى سن معينة على الأقل، لا نعاقبهم علانية على ذلك.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
من الواضح أنه لا يوجد كتاب قواعد رسمي للسلوكيات المناسبة بين الناس
02:08
or even socially accepted dinner topics.
28
128396
3000
أو حتى موضوعات العشاء المقبول مناقشتها.
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
بل عادة ما تكون أعرافنا الاجتماعية مدونات سلوك غير مكتوبة
02:16
and they change over time as we as a society change and learn.
30
136436
4800
وتتغير بمرور الوقت لأننا جزء من مجتمع يتغير ويتعلم.
02:22
Less than a year ago, for instance,
31
142316
2120
منذ أقل من عام، على سبيل المثال،
02:24
it was considered impolite not to shake hands
32
144436
3000
كان من قلة الأدب رفض مصافحة شخص ما عند تقديم نفسك إليه.
02:27
when introducing yourself to someone.
33
147436
2840
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
بعد بضعة أشهر عند انتشار فيروس كورونا في جميع أنحاء العالم
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
قد تكون المصافحة أمرًا يثير الاستياء
02:38
and maybe even a thing of the past.
36
158436
2400
وربما شيئًا عفى عنه الزمن.
02:41
The way we learn these social rules then
37
161796
2440
الطريقة التي نتعلم بها هذه القواعد الاجتماعية
02:44
is mostly by social rewards and social punishments.
38
164236
4720
تتأتى في الغالب من ما يمنحنا إياه المجتمع من مكافآت أو عقوبات.
02:48
Now, as social animals,
39
168996
2040
كوننا حيوانات اجتماعية
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
نحن نهدف إلى القبول ضمن المجتمع ونريد تجنب رفض الآخرين لنا.
02:56
So we act in a way that is socially accepted
41
176356
3440
لذلك نحن نتصرف بطريقة يقبلها المجتمع
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
ونقدم أنفسنا للآخرين بطريقة مرغوبة اجتماعيًا.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
لذلك نريد أن يُنظر إلينا على أننا أذكياء وناجحون
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
ورياضيون ونشطون ومبدعون ومتعاطفون وربما كل ذلك مجتمعًا.
03:17
Now, through social media, our strive for social approval,
45
197036
4680
من خلال وسائل التواصل الاجتماعي، سعينا الحثيث لتلقي رضى المجتمع،
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
وحاجتنا إلى التباهي والكمال
03:26
has skyrocketed.
47
206556
1480
قد تزايد بصورة صاروخية.
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
من الواضح أن هناك جانبًا آخر لكل هذا.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
كيفما كان نوع التفاعل الاجتماعي نحن لا نبحث فقط عن رضى الآخرين
03:37
but we also constantly fear other's disapproval
50
217796
3800
بل نحن نخشى دائمًا رفضهم لنا
03:41
when we cannot live up to their expectations.
51
221636
2720
عندما لا نستطيع أن نرقى لمستوى توقعاتهم.
03:45
Just consider an adult with incontinence problems
52
225436
3280
فكر في شخص بالغ يعاني من سلس البول
03:48
or a drug addiction.
53
228756
1880
أو إدمان المخدرات.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
إذا كان على ذلك الشخص التحدث إلى أخصائي رعاية صحية
03:55
what would you expect to find?
55
235036
1800
فماذا تتوقع أن تجد؟
03:57
Or if a soldier returned from combat
56
237796
2720
أو إذا عاد جندي من القتال
04:00
and had to talk about their fears or problems,
57
240556
3280
واضطر للحديث عن مخاوفه أو مشاكله،
04:03
do you think they would open up easily?
58
243876
2000
هل تعتقد أنه سيشارك مكنوناته بسهولة؟
04:07
A team of USC researchers examined just that.
59
247396
3760
قام باحثون من جامعة جنوب كاليفورنيا بفحص ذلك.
04:11
So they looked at the data from the US Army.
60
251156
3200
فنظروا إلى بيانات من الجيش الأمريكي.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
بحسب ما تقتضيه العادة يخضع الجنود لمقابلة
04:17
by a human health care professional when returning from combat
62
257156
4040
يجريها لهم أخصائي رعاية صحية عند عودتهم من القتال
04:21
to check if everything is OK.
63
261196
2640
للتحقق مما إذا كانت أمورهم بخير.
04:23
Now, interestingly,
64
263876
1280
الأمر المثير للاهتمام،
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
أن الباحثين وجدوا أن الجنود لم يبلغوا عن أي مشاكل إلا نادرًا
04:28
after their returns.
66
268876
2160
وذلك بعد عودتهم.
04:31
Surely many of them were truly fine,
67
271076
2840
من المؤكد أن العديد منهم كانوا على خير ما يرام
04:33
but the researchers also suspected
68
273956
2560
لكن الباحثين يشتبهون أيضًا
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
أن العديد من الجنود لم يجرؤوا على مشاركة مشاكلهم علانية.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
لا عجب في ذلك فالجنود يتم تدريبهم ليكونوا أقوياء وشجعان
04:47
that learn not to show any weaknesses.
71
287156
2400
ويتعلمون عدم إظهار أي نقاط ضعف.
04:50
So openly admitting to have health problems,
72
290276
3760
لذا فالاعتراف صراحة بالرضوخ تحت وطأة مشاكل صحية،
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
أو أنك تعاني من صعوبة في النوم أو تراودك الكوابيس
04:57
is not something easy to do for soldiers.
74
297396
2840
ليس أمرًا هينًا على الجنود.
05:00
The question then ultimately becomes
75
300236
2800
فيصبح السؤال المطروح
05:03
how can we help individuals open up more easily
76
303076
3800
كيف يمكننا مساعدة الأفراد على البوح بمكنوناتهم بسهولة أكبر
05:06
and worry less about the judgment of others?
77
306916
2640
ودرأ القلق بشأن آراء الآخرين؟
05:11
Well, remember what I said earlier.
78
311356
2640
تذكر ما قلته سابقًا.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
نحن نتوقع تقييمًا اجتماعيًا في أي تفاعل اجتماعي.
05:19
So how about we remove the social from the interaction?
80
319796
3880
إذن ماذا عن إزالة الجانب الاجتماعي من التفاعل؟
05:24
This is exactly what the team in the US did.
81
324556
3120
هذا بالضبط ما فعله الباحثون في الولايات المتحدة.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
في الواقع لقد طوروا محاورًا افتراضيًا يسمى “سيمْ سينسَيْ“.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
إن سيمْ سينسَيْ شخصية رقمية ذات مظهر بشري
05:37
and can interact with clients through natural conversations.
84
337516
4200
ويمكنه التفاعل مع العملاء من خلال المحادثات الطبيعية.
05:41
Now, when returning from combat,
85
341756
2120
عند العودة من القتال،
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
يجري الجنود مقابلات مع الصورة الرقمية
05:47
instead of that human health care professional.
87
347316
2320
بدلاً من ذلك الشخص المتخصص في الرعاية الصحية.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
وماذا حدث؟ بمجرد تقديم سيمْ سينسَيْ
05:55
soldiers reported more health problems,
89
355196
3080
أبلغ الجنود عن المزيد من المشكلات الصحية،
05:58
like having nightmares or trouble sleeping.
90
358276
2760
مثل الكوابيس أو صعوبة النوم.
06:02
So machines can help remove the social from the equation
91
362836
4280
لذلك يمكن للآلات أن تساعد في إزالة العنصر الآدمي من المعادلة
06:07
and help people open up more easily.
92
367116
2440
وتسهل على الناس البوح بمكنوناتهم.
06:10
But careful, not all machines are created equal.
93
370836
3720
لكن توخوا الحذر فليست كل الآلات متساوية.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
بالنظر إلى التطورات التكنولوجية الهائلة مثل رسومات الكمبيوتر
06:19
or natural language processing,
95
379076
2200
أو معالجة اللغات الطبيعية،
06:21
machines have become increasingly humanlike.
96
381276
3760
أصبحت الآلات شبيهة بالإنسان أكثر فأكثر.
06:25
The question then ultimately becomes,
97
385076
2600
يصبح السؤال المطروح
06:27
which rules do we apply in these interactions?
98
387716
3200
ما هي القواعد التي يجب أن نطبقها في هذه التفاعلات؟
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
هل علينا تطبيق القواعد الاجتماعية عندما نتفاعل مع آلات تشبه البشر؟
06:39
So do we start to worry about social judgment again?
100
399036
3080
هل نقلق بشأن آراء المجتمع مرة أخرى؟
06:43
This is exactly what I examine in my research.
101
403156
3600
هذا بالضبط موضوع بحثي.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
بالتعاون مع زملائي طورنا مجموعة من روبوتات المحادثة.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
تمت برمجة روبوتات المحادثة هذه لمحاكاة المحادثات النصية
06:56
and they were designed to be either very social and humanlike
104
416876
4360
وقد صُممت لتكون إما اجتماعية للغاية وشبيهة بالبشر
07:01
or very functional and machine-like.
105
421236
2720
أو وظيفية للغاية وشبيهة بالآلة.
07:03
So, for instance,
106
423996
2040
فعلى سبيل المثال،
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
تستخدم روبوتاتنا الشبيهة بالبشر ما يسمى بعدم إتقان السرعة
07:10
and social language cues,
108
430436
1600
ودلالات لغوية اجتماعية
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
مثل "آه" و"آها" و"هممم" التي نستخدم نحن البشر في محادثاتنا
07:19
to signal our presence to conversation partners.
110
439116
4240
لتأكيد وجودنا لمن نشاركهم المحادثة.
07:23
In contrast, our machine-like bots
111
443356
2760
في المقابل، الروبوتات الشبيهة بالآلة
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
كانت تفتقر إلى مثل هذه الدلالات الاجتماعية وناقشت مواضيع الحوار لا أكثر.
07:30
Since we were interested in how much people would open up
113
450396
2800
نظرا لاهتمامنا بمقدار ما يبوح به الأشخاص
07:33
in these different conversations,
114
453196
2440
في هذه المحادثات المختلفة،
07:35
we ask participants a number of questions,
115
455676
2920
سألنا المشاركين عددًا من الأسئلة
07:38
which gradually grew more and more personal,
116
458636
3480
التي تصبح أسئلة شخصية بالتدريج،
07:42
up to the point where we would ask participants
117
462116
2520
إلى أن طلبنا من المشاركين
07:44
to share possibly very delicate information about themselves.
118
464676
4160
البوح بمعلومات قد تكون حساسة للغاية عن أنفسهم.
07:49
Now, considering the findings from prior research,
119
469756
2720
بالنظر إلى النتائج التي توصلت إليها الأبحاث السابقة،
07:52
such as the one from the US Army before,
120
472516
3320
كتلك التي أجراها الجيش الأمريكي من قبل،
07:55
we expected that people would apply more social rules
121
475876
4240
توقعنا أن يطبق الأشخاص المزيد من القواعد الاجتماعية
08:00
in their interactions with these humanlike bots
122
480116
2920
في تفاعلهم مع هذه الروبوتات الشبيهة بالبشر
08:03
and act accordingly.
123
483076
1640
والتصرف وفقًا لذلك.
08:05
So what did we find?
124
485596
1680
إذن ما الذي توصلنا إليه؟
08:08
Well, exactly that.
125
488556
1600
ما توقعناه بالضبط.
08:10
So participants interacting with our humanlike bots
126
490156
3880
فقد كان المشاركون الذين يتفاعلون مع الروبوتات الشبيهة بالبشر
08:14
were more concerned about social evaluation
127
494076
3640
أكثر اهتمامًا بالتقييم الاجتماعي
08:17
and as a result of this social apprehension,
128
497756
2480
وكنتيجة لهذا التخوف الاجتماعي
08:20
they also gave more socially desirable responses.
129
500236
5080
فقد أعطوا أيضًا استجابات مرغوبة اجتماعيًا.
08:25
Let me give you an example.
130
505316
1960
إليكم مثالاً.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
كان أحد أكثر الأسئلة حساسية التي طرحناها على المشاركين
08:30
was the number of prior sex partners they had had.
132
510996
3320
هو عدد الأفراد الذين مارسوا معهم الجنس.
08:35
When interacting with our humanlike bot,
133
515276
3160
عند التفاعل مع روبوتنا الشبيه بالبشر
08:38
men reported to have significantly more prior sex partners
134
518436
4920
أدلى الرجال بممارسة الجنس مع عدد أكبر بكثير
08:43
and women reported to have significantly less
135
523356
3360
وأدلت النساء بعدد أقل بكثير
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
من الرجال والنساء الذين تفاعلوا مع الروبوت الشبيه بالآلة.
08:52
So what does this all tell us?
137
532036
1920
إذن على ماذا يدل هذا؟
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
أولاً، يريد الرجال أن يظهروا بمظهر جيد بممارستهم الجنس مع عدد أكبر
08:58
and women by having less.
139
538716
1640
والنساء بوجود عدد أقل ممن مارسن معه.
09:01
Clearly, this already says a lot
140
541116
1760
من الواضح أن هذا يدل على الكثير
09:02
about what the different sexes consider socially desirable
141
542916
4080
بخصوص ما يعتبره الجنسان مرغوبًا في المجتمع
09:07
and how our expectations in society still differ across genders.
142
547036
5680
وكيف لا تزال توقعاتنا في المجتمع تختلف باختلاف الجنسين.
09:13
But this opens up a whole new topic
143
553676
2520
لكن هذا يفتح موضوعًا جديدًا
09:16
that I will better leave for other experts to discuss.
144
556196
2960
سأتركه للخبراء الآخرين لمناقشته.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
ثانيًا، وربما الأهم، من منظور علم نفس المستهلك.
09:26
People open up more easily when they interact with machines
146
566956
4320
يفصح الناس عما يخالجهم بسهولة أكبر عندما يتفاعلون مع الآلات
09:31
that are apparently just that -- machines.
147
571276
3560
التي تبدو كأنها مجرد آلات.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
اليوم، يُستثمر الكثير من الجهد والمال والدموع
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
في صنع آلات لا يمكن تمييزها عنا.
09:43
Now, this research can show
150
583156
1680
يمكن أن يُظهر هذا البحث
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
أن السماح للآلة أحيانًا بأن تكون آلة هو في الواقع أمر جيد.
09:51
Which brings me to my third point.
152
591716
1680
وبهذا أصل إلى نقطتي الثالثة.
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
تعرضت هذه التفاعلات الآلية لانتقادات شديدة في بعض الأحيان.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
ربما قد سمعت أن سيري أو أليكسا أو غيرهما
10:01
make your kids rude or impolite.
155
601796
2400
يجعل أطفالك قبيحي الخلق أو غير مهذبين.
10:05
Hopefully, this research can show you
156
605356
1880
نأمل أن يُظهر لك هذا البحث
10:07
a great upside of these machine interactions.
157
607236
3040
جانبًا إيجابيًا كبيرًا في هذه التفاعلات مع الآلة.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
في زمن وسائل التواصل الاجتماعي وطمعنا المستمر في حشد "الإعجابات"،
10:16
machines can give us grownups --
159
616196
2920
يمكن للآلات أن تساعدنا نحن الكبار
10:19
help us find that inner child again
160
619116
2760
في العثور على ذلك الطفل بداخلنا مرة أخرى
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
وتعطي حاجتنا المستمرة للتباهي والكمال مهلة للاستراحة.
10:26
a time-out.
162
626236
1800
10:28
For once, we do not need to worry
163
628076
2040
على الأقل هذه المرة لا داعي للقلق
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
مما إذا كان عدد شركائنا الجنسيين مرتفعًا أو منخفضًا،
10:34
and instead it is OK to simply be who we are.
165
634676
4520
وعِوض ذلك من الجيد أن نكون على سجيتنا.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
في النهاية أعتقد أن هذه الآلات بإمكانها تذكيرنا
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
بالعنصر الجوهري الذي يجعل شريك المحادثة جيدًا:
10:49
being nonjudgmental.
168
649876
2160
عدم التسرع في إصدار الأحكام.
10:52
so the next time you might encounter
169
652076
2160
إذن في المرة القادمة التي تجد نفسك
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
في وضع اجتماعي فريد مثل موقفي في حفل الشواء،
10:58
try to be less judgmental
171
658116
1800
حاول ألا تتسرع في الحكم
10:59
when another person openly shares
172
659956
1960
عندما يشارك شخص آخر أفكاره ومشاعره ومشاكله معك بأريحية.
11:01
their thoughts, feelings and problems with you.
173
661956
3080
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
تقوم العديد من الآلات بذلك أصلاً وربما يجب علينا ذلك أيضًا.
11:09
Thank you very much.
175
669876
1240
شكرًا جزيلًا.
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7