Anne Scherer: Why we're more honest with machines than people | TED

88,044 views ・ 2021-07-29

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Transcriber:
0
0
7000
Çeviri: baris ustbas Gözden geçirme: Saliha Karatepeli
00:12
Now, a few years back, I was having a barbecue with friends and family.
1
12596
4720
Bir kaç yıl önce, arkadaşlarım ve ailemle mangal yapıyorduk.
00:17
As usual, we talked about the weather, the good food or TV shows to watch.
2
17316
4520
Her zamanki gibi havadan, lezzetli yemekten
ve izlenecek TV programlarından konuştuk.
00:21
So nothing out of the ordinary
3
21876
3080
Hiçbir şey olağan dışı değildi.
00:24
until one attendee casually mentioned
4
24996
2920
Ta ki bir misafirin rahat bir şekilde
00:27
that he and his wife hadn't had sex in a long time.
5
27956
4040
uzun zamandır karısı ile seks yapmadıklarından bahsedene kadar.
00:33
As you can imagine, what followed was an awkward silence.
6
33116
4000
Tahmin edebileceğiniz üzere sonrasında garip bir sessizlik oldu.
00:38
Until a six-year-old boy attending the barbecue with his parents
7
38196
4560
Ta ki ailesiyle mangala gelmiş altı yaşındaki bir çocuğun
00:42
blurted out that his parents had lots of sex
8
42796
3680
ebeveynlerinin çok fazla seks yaptığını
00:46
and he could hear them all the time.
9
46516
2280
ve sürekli onları duyduğunu ağzından kaçırana kadar.
00:49
And then the barbecue continued as if nothing had happened.
10
49636
4360
Sonrasında da hiçbir şey olmamış gibi mangal devam etti.
00:55
Now, when I'm not having barbecues,
11
55516
2000
Mangal yapmadığım zamanlarda
00:57
I am researching how people interact with each other
12
57556
3360
insanların birbiriyle nasıl etkileşime girdiklerini
01:00
and how that transfers to their interactions with technologies,
13
60956
4400
ve bunun teknolojiyle etkileşimlerine nasıl aktardığını araştırıyorum.
01:05
so not all too surprisingly,
14
65356
2160
Tam beklenildiği gibi
01:07
after this very unique social interaction at the barbecue,
15
67556
4320
mangaldaki bu çok eşsiz sosyal etkileşimden sonra
01:11
I was left wondering why we, the audience,
16
71916
3520
biz seyircilerin o akşam o yetişkinin açık bir şekilde bizimle paylaştığı şeyi
01:15
were so greatly ignoring what the adult so openly shared with us that evening.
17
75436
5280
neden fazlasıyla görmezden geldiğimizi düşünmeye bırakıldım.
01:21
So why the silence and then the laughter at the boy's comment?
18
81556
3880
Çocuğun yorumuna neden önce sessiz kalınıp sonrasında da kahkaha atıldı?
01:26
Well, both of them were breaking a social rule:
19
86356
3800
İkisi de sosyal kuralı yıkmıştı:
01:30
never talk about sex, money or politics at a dinner table.
20
90156
4400
Yemek masasında para, siyaset ve cinsellikle ilgili asla konuşma.
01:34
We assume that an adult knows this rule and sticks to it.
21
94596
4520
Bir yetişkinin bunu bildiğini ve bağlı kaldığını varsayarız.
01:39
So when such expectations are broken,
22
99116
2840
Böyle beklentiler yıkıldığında suçluyu bu doğrultuda cezalandırırız.
01:41
we sanction the offender accordingly -- in our case, with ignorance.
23
101996
4920
Bizim durumumuzda görmezden gelmeyle.
01:47
When a child, however, breaks such a rule,
24
107996
2840
Bir çocuk böyle bir kuralı yıktığında
01:50
we attribute this to their naive understanding of our social manners
25
110876
4720
bunu çocukların sosyal davranışlardaki tecrübesiz anlayışlarına yorarız.
01:55
and up to a certain age at least, do not openly sanction them for it.
26
115636
4960
En azından belli bir yaşa kadar bunun için onları alenen cezalandırmayız.
02:02
Clearly, there is no official rule book for socially appropriate behaviors
27
122156
6240
Toplumsal açıdan kabul edilmiş yemek konuları
ve sosyal açıdan uygun davranışların resmi bir kural kitabı yok.
02:08
or even socially accepted dinner topics.
28
128396
3000
02:12
In fact, our social norms are usually unwritten codes of conduct,
29
132116
4320
Aslında toplumsal normlarımız genellikle geleneksel davranış kurallarıdır.
02:16
and they change over time as we as a society change and learn.
30
136436
4800
Toplum olarak biz öğrendikçe ve değiştikçe zamanla değişirler.
02:22
Less than a year ago, for instance,
31
142316
2120
Örnek olarak, bir yıldan az bir süre önce
02:24
it was considered impolite not to shake hands
32
144436
3000
Kendini birine tanıtırken tokalaşmamanın kabalık olduğu düşünülürdü.
02:27
when introducing yourself to someone.
33
147436
2840
02:30
A few months and the worldwide spread of the coronavirus later
34
150276
4120
Bir kaç ay içinde koronavirüsün dünya çapındaki yayılışı sonrasında
02:34
and shaking hands may be something to be frowned upon
35
154396
4040
tokalaşmak karşı çıkılan bir şey ve hatta geçmişten bir şey olabilir.
02:38
and maybe even a thing of the past.
36
158436
2400
02:41
The way we learn these social rules then
37
161796
2440
Bu toplumsal kuralları öğrenme şeklimiz genelde toplumsal ödül ve cezalardandır.
02:44
is mostly by social rewards and social punishments.
38
164236
4720
02:48
Now, as social animals,
39
168996
2040
Sosyal hayvanlar olarak, toplumsal onay hedefliyoruz
02:51
we aim for social approval and want to avoid other's disapproval.
40
171076
5280
ve diğerlerinin reddetmesinden kaçınmak istiyoruz.
02:56
So we act in a way that is socially accepted
41
176356
3440
Toplumsal yönden kabul edilir şekilde davranırız.
02:59
and present ourselves in a socially desirable way to others.
42
179836
4640
Kendimizi, diğerlerine toplumsal yönden istenen şekilde sunarız.
03:04
So we want to be seen as an individual that is smart, successful,
43
184516
5240
Bir birey olarak şöyle görülmek istiyoruz:
Akıllı, başarılı, sportif, enerjik, yaratıcı ve empatik.
03:09
sporty and active, creative, empathic and possibly all that at once.
44
189796
5880
Mümkünse hepsini aynı anda istiyoruz.
Sosyal medya ile birlikte, toplumsal onay için gayretimiz,
03:17
Now, through social media, our strive for social approval,
45
197036
4680
03:21
and with it, our need for self-presentation and perfection
46
201756
4760
onunla birlikte de benlik sunumu ve mükemmellik ihtiyacımız hızla yükseldi.
03:26
has skyrocketed.
47
206556
1480
03:29
Clearly, there is a flip side to all of this.
48
209276
3760
Açık bir biçimde, tüm bunların bir de diğer tarafı var.
03:33
In any social interaction, we do not only look for others' approval,
49
213076
4680
Herhangi bir sosyal etkileşimde sadece diğerlerinin onayını aramıyoruz.
03:37
but we also constantly fear other's disapproval
50
217796
3800
Ayrıca diğerlerinin beklentilerini karşılayamadığımızda
03:41
when we cannot live up to their expectations.
51
221636
2720
onların reddetmesinden sürekli endişe ediyoruz.
03:45
Just consider an adult with incontinence problems
52
225436
3280
İdrar kaçırma problemi veya madde bağımlılığı olan
03:48
or a drug addiction.
53
228756
1880
bir yetişkin düşünün.
03:50
If he or she had to talk to a health care professional,
54
230676
4320
O kadın veya erkek bir sağlıkçıyla konuşmak zorunda olsaydı
ne bulmayı beklerdiniz?
03:55
what would you expect to find?
55
235036
1800
03:57
Or if a soldier returned from combat
56
237796
2720
Bir asker savaştan döndüğünde
04:00
and had to talk about their fears or problems,
57
240556
3280
korkuları ve problemleri hakkında konuşmak zorunda olsaydı
04:03
do you think they would open up easily?
58
243876
2000
sizce kolayca içini dökebilir miydi?
04:07
A team of USC researchers examined just that.
59
247396
3760
Amerikalı araştırmacılardan oluşan bir ekip tam da bunu inceledi.
04:11
So they looked at the data from the US Army.
60
251156
3200
Amerikan ordusunun verisine baktılar.
04:14
Traditionally, soldiers had to be interviewed
61
254356
2800
Geleneksel olarak askerler savaştan döndüklerinde
04:17
by a human health care professional when returning from combat
62
257156
4040
her şeyin yolunda olup olmadığının kontrolünü sağlamak için
insan sağlığı uzmanı ile görüştürülmeleri gerekir.
04:21
to check if everything is OK.
63
261196
2640
04:23
Now, interestingly,
64
263876
1280
İlginç şekilde, araştırmacılar askerlerin döndükten sonra
04:25
the researchers found that soldiers hardly reported any problems
65
265156
3680
herhangi bir problemden neredeyse hiç bahsetmediğini keşfetti.
04:28
after their returns.
66
268876
2160
Çoğunun iyi olduğu kesindi.
04:31
Surely many of them were truly fine,
67
271076
2840
04:33
but the researchers also suspected
68
273956
2560
Ancak araştırmacılar çoğu askerin problemlerini açıkça paylaşmaya
04:36
that many soldiers did not dare to share their problems openly.
69
276556
5320
cesaret edemediklerinden de şüphelendiler.
04:41
After all, soldiers are trained to be strong and brave individuals
70
281916
5240
Sonuçta askerler zayıflıklarını göstermemeyi öğrenen
güçlü ve cesur bireyler olmak için eğitilirler.
04:47
that learn not to show any weaknesses.
71
287156
2400
04:50
So openly admitting to have health problems,
72
290276
3760
Sağlık problemlerinin olduğunu, uyku sorunu yaşadığını
04:54
to have trouble sleeping or to have nightmares
73
294076
3320
veya kabuslar gördüğünü açıkça kabul etmek askerler için hiç kolay bir şey değil.
04:57
is not something easy to do for soldiers.
74
297396
2840
05:00
The question then ultimately becomes
75
300236
2800
Nihayetinde soru şuna geliyor:
Bireylere daha kolay içini dökmeleri ve diğerlerinin yargılamasını
05:03
how can we help individuals open up more easily
76
303076
3800
05:06
and worry less about the judgment of others?
77
306916
2640
daha az dert etmeleri konusunda nasıl yardım edebiliriz?
05:11
Well, remember what I said earlier.
78
311356
2640
Daha öncesinde söylediğim şeyi hatırlayın.
Herhangi bir toplumsal etkileşimde toplumsal değerlendirme bekleriz.
05:14
We expect social evaluation in any social interaction.
79
314036
5720
05:19
So how about we remove the social from the interaction?
80
319796
3880
Değerlendirmeden toplumsallığı çıkartmaya ne dersiniz?
05:24
This is exactly what the team in the US did.
81
324556
3120
Bu tam olarak Amerika’daki ekibin yaptığı şey.
05:27
In fact, they developed a virtual interviewer called SimSensei.
82
327716
4720
Hatta Simsensei denilen sanal bir görüşmeci kurdular.
05:32
So SimSensei is a digital avatar that has a humanlike appearance
83
332436
5040
Simsensei insansı görünüşü olan ve hastalarla doğal muhabbetlerle
05:37
and can interact with clients through natural conversations.
84
337516
4200
etkileşime girebilen dijital bir avatar.
05:41
Now, when returning from combat,
85
341756
2120
Askerler savaştan döndüklerinde insan sağlığı uzmanı yerine
05:43
soldiers were now interviewed by the digital avatar
86
343916
3400
05:47
instead of that human health care professional.
87
347316
2320
dijital avatarla görüştürülüyorlar.
05:50
And what happened? Well, once SimSensei was introduced,
88
350596
4600
Ne oldu?
Simsensei tanıtıldığında askerler kabus görme ve uyuma zorluğu gibi
05:55
soldiers reported more health problems,
89
355196
3080
05:58
like having nightmares or trouble sleeping.
90
358276
2760
daha çok sağlık problemlerinden bahsetti.
06:02
So machines can help remove the social from the equation
91
362836
4280
Makineler denklemden toplumsallığı çıkartmaya yardım edebilir
ve insanların içini daha kolay dökmesine yardım eder.
06:07
and help people open up more easily.
92
367116
2440
06:10
But careful, not all machines are created equal.
93
370836
3720
Ancak her makinenin eşit yaratılmadığına dikkat edin.
06:14
Considering the tremendous advancements in technologies like computer graphics
94
374596
4440
Bilgisayar grafikleri veya doğal dil işlemi gibi
teknolojideki şahane gelişmeleri değerlendirince
06:19
or natural language processing,
95
379076
2200
06:21
machines have become increasingly humanlike.
96
381276
3760
makineler gitgide insanımsı bir hâl aldı.
06:25
The question then ultimately becomes,
97
385076
2600
Nihayetinde soru şuna geliyor:
06:27
which rules do we apply in these interactions?
98
387716
3200
Bu etkileşimlerde hangi kurallara başvuruyoruz?
06:32
Do we still apply social rules when we interact with humanlike machines?
99
392156
5800
İnsanımsı makinelerle etkileşimdeyken hala toplumsal kurallara mı başvuruyoruz?
Toplumsal yargılama konusunda yeniden kaygılanmaya mı başlıyoruz?
06:39
So do we start to worry about social judgment again?
100
399036
3080
06:43
This is exactly what I examine in my research.
101
403156
3600
Araştırmamda incelediğim şey tam olarak bu.
06:46
Together with colleagues, we have developed a series of chatbots.
102
406796
3880
Meslektaşlarla birlikte, bir dizi sohbet robotları geliştirdik.
06:51
These chatbots were programmed to simulate text-based conversations
103
411356
5480
Sohbet robotları metin tabanlı konuşmaları taklit etmeye programlandı.
06:56
and they were designed to be either very social and humanlike
104
416876
4360
Ayrıca bu sohbet robotları ya çok sosyal ve insanımsı
ya da çok işlevsel ve makine gibi olmaları için tasarlandı.
07:01
or very functional and machine-like.
105
421236
2720
07:03
So, for instance,
106
423996
2040
Örnek olarak,
insanımsı robotlarımız sözde hız akıcısızlıklarını
07:06
our humanlike bots use so-called speed disfluencies
107
426076
4360
07:10
and social language cues,
108
430436
1600
ve “ooo”, “oh” ve “hım” gibi sosyal dil işaretlerini kullanır.
07:12
like these "ohos", "ahas", "hmms" we humans love to use in our conversations
109
432076
6920
Bizler konuşma partnerlerine duruşumuzun sinyalini vermek için
07:19
to signal our presence to conversation partners.
110
439116
4240
konuşmalarımızda böyle şeyleri kullanmaya bayılırız.
07:23
In contrast, our machine-like bots
111
443356
2760
Bunun aksine, makine gibi olan robotlarımızdan
böyle sosyal işaretleri çıkardık ve konuşma konularına bağladı kaldı.
07:26
lacked such social cues and simply kept to the talking points.
112
446116
4280
07:30
Since we were interested in how much people would open up
113
450396
2800
Bu farklı konuşmalarda insanların içini ne kadar dökeceğiyle ilgilendiğimiz için
07:33
in these different conversations,
114
453196
2440
07:35
we ask participants a number of questions,
115
455676
2920
kendileriyle ilgili çok hassas bilgiyi paylaşmalarını isteyerek
07:38
which gradually grew more and more personal,
116
458636
3480
07:42
up to the point where we would ask participants
117
462116
2520
katılımcılara git gide daha da kişiselleşen sorular soruyoruz.
07:44
to share possibly very delicate information about themselves.
118
464676
4160
07:49
Now, considering the findings from prior research,
119
469756
2720
Öncesinde Amerikan ordusunda yapılan eski araştırmanın bulguları düşünüldüğünde
07:52
such as the one from the US Army before,
120
472516
3320
07:55
we expected that people would apply more social rules
121
475876
4240
bireylerin insanımsı robotlarla etkileşimlerinde
toplumsal kurallara daha fazla başvurup ona göre davranacaklarını düşündük.
08:00
in their interactions with these humanlike bots
122
480116
2920
08:03
and act accordingly.
123
483076
1640
08:05
So what did we find?
124
485596
1680
Peki ne bulduk?
08:08
Well, exactly that.
125
488556
1600
Tam olarak da onu.
08:10
So participants interacting with our humanlike bots
126
490156
3880
İnsanımsı robotlarımızla etkileşime giren katılımcılar
toplumsal değerlendirme konusunda daha endişeliydiler.
08:14
were more concerned about social evaluation
127
494076
3640
08:17
and as a result of this social apprehension,
128
497756
2480
Bu toplumsal endişeden dolayı da
08:20
they also gave more socially desirable responses.
129
500236
5080
daha çok toplumsal olarak istenen cevaplar verdiler.
08:25
Let me give you an example.
130
505316
1960
Bir örnek vereceğim.
08:27
One of the most delicate questions that we asked participants
131
507276
3680
Katılımcılara sorduğumuz en hassas sorulardan biri
08:30
was the number of prior sex partners they had had.
132
510996
3320
geçmişteki cinsel partnerlerinin sayısını sormamızdı.
08:35
When interacting with our humanlike bot,
133
515276
3160
İnsansı robotumuzla etkileşimdeyken,
mekanik robotumuzla etkileşime geçen kadın ve erkeklere kıyasla
08:38
men reported to have significantly more prior sex partners
134
518436
4920
08:43
and women reported to have significantly less
135
523356
3360
erkekler bariz bir şekilde daha fazla,
08:46
than those men and women interacting with our mechanistic bot.
136
526756
3440
kadınlar ise belirgin bir şekilde daha az cinsel partneri olduğunu söyledi.
Tüm bunlar bize ne anlatıyor?
08:52
So what does this all tell us?
137
532036
1920
08:53
Well, first, men want to look good by having more prior sex partners
138
533996
4680
Birincisi, erkekler eskiden daha fazla cinsel partneri olmasıyla
ve kadınlarda daha az olmasıyla iyi görünmek istiyor.
08:58
and women by having less.
139
538716
1640
09:01
Clearly, this already says a lot
140
541116
1760
Toplumsal olarak istenen şeyde farklı cinsiyetlerin ne düşündükleri
09:02
about what the different sexes consider socially desirable
141
542916
4080
ve toplumda beklentilerimizin cinsiyetler arasında hâlâ nasıl değiştiğiyle ilgili
09:07
and how our expectations in society still differ across genders.
142
547036
5680
zaten bir çok şeyi söylüyor.
09:13
But this opens up a whole new topic
143
553676
2520
Ancak bu yepyeni bir konuyu açtığı için
09:16
that I will better leave for other experts to discuss.
144
556196
2960
diğer uzmanların tartışmasına bırakmam daha iyi olur.
09:20
Second, and maybe more importantly, from a consumer psychology perspective.
145
560996
4880
İkincisi ve belki de daha önemlisi tüketici psikolojisi bakış açısından.
09:26
People open up more easily when they interact with machines
146
566956
4320
Görünürde sadece makine oldukları için insanlar makinelerle etkileşimdeyken
09:31
that are apparently just that -- machines.
147
571276
3560
kolayca içini döküyor.
09:34
Today, a lot of sweat, money and tears
148
574876
3000
Bugünlerde çok fazla ter, para ve gözyaşı
09:37
is put into making machines basically indistinguishable from us.
149
577916
5240
temelde bizlerden ayırt edilemez makineler yapmak için dökülüyor.
09:43
Now, this research can show
150
583156
1680
Bu araştırma, bazen bir makinenin bir makine olmasına izin vermenin
09:44
that sometimes letting a machine be a machine is actually a good thing.
151
584876
5480
aslında iyi bir şey olduğun gösterebilir ki bu da beni üçüncü konuma getiriyor.
09:51
Which brings me to my third point.
152
591716
1680
09:54
These machine interactions have been highly criticized at times.
153
594316
4080
Bu makine etkileşimleri zaman zaman oldukça eleştirildi.
09:58
So you may have heard that Siri, Alexa or others
154
598396
3360
Siri, Alexa ve diğerlerinin çocuklarınızı kabalaştırdığını duymuş olabilirsiniz.
10:01
make your kids rude or impolite.
155
601796
2400
10:05
Hopefully, this research can show you
156
605356
1880
Umarım bu araştırma size bu gibi makine etkileşimlerinin
10:07
a great upside of these machine interactions.
157
607236
3040
büyük bir avantajını gösterebilir.
10:11
In times of social media and our constant hunt for the next “like,”
158
611236
4960
Sosyal medya ve bir sonraki beğeni için daimi arayışımızın zamanlarında
10:16
machines can give us grownups --
159
616196
2920
makineler biz yetişkinlere içimizdeki çocuğu yeniden bulup
10:19
help us find that inner child again
160
619116
2760
10:21
and give our constant need for self-presentation and perfection
161
621916
4320
öz sunumu ve mükemmelliğe olan daimi ihtiyacımıza bir ara verir.
10:26
a time-out.
162
626236
1800
Bu sefer, geçmişteki cinsel partnerlerin sayısının çok fazla ya da az olmasından
10:28
For once, we do not need to worry
163
628076
2040
10:30
if the number of prior sex partners is too high or too low,
164
630116
4520
endişe etmemize gerek yok.
10:34
and instead it is OK to simply be who we are.
165
634676
4520
Bunun yerine, sadece olduğumuz kişiyi olmak sorun değil.
10:40
Ultimately, then, I think that these machines can remind us
166
640516
3720
Sonuçta bu makinelerin konuşma partnerini iyi yapan şeyin asıl unsurunu
10:44
of a central element of what makes a good conversation partner:
167
644236
4520
bize hatırlatabileceğini düşünüyorum:
10:49
being nonjudgmental.
168
649876
2160
Yargılayıcı olmamak.
Gelecek sefer sende benim mangalda karşılaştığım gibi
10:52
so the next time you might encounter
169
652076
2160
10:54
a unique social situation like mine at the barbecue,
170
654236
3880
eşsiz bir sosyal durumla karşılaşabilirsin.
Başka biri seninle duygu, düşünce ve problemlerini paylaştığında
10:58
try to be less judgmental
171
658116
1800
10:59
when another person openly shares
172
659956
1960
11:01
their thoughts, feelings and problems with you.
173
661956
3080
daha az yargılayıcı olmaya çalış.
11:05
Many machines do this already, and maybe so should we.
174
665956
3880
Çoğu makine bunu zaten yapıyor.
Belki de bizde öyle yapmalıyız.
11:09
Thank you very much.
175
669876
1240
Çok teşekkür ederim.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7