How can you change someone's mind? (hint: facts aren't always enough) - Hugo Mercier

2,187,508 views ・ 2018-07-26

TED-Ed


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Gözde Zülal Solak Gözden geçirme: Eren Gokce
00:06
Three people are at a dinner party.
0
6833
2197
Akşam yemeği buluşmasında üç kişi var.
00:09
Paul, who’s married, is looking at Linda.
1
9030
3024
Evli olan Paul, Linda'ya bakıyor.
00:12
Meanwhile, Linda is looking at John, who’s not married.
2
12054
5426
Bu sırada da Linda, evli olmayan John'a bakıyor.
00:17
Is someone who’s married looking at someone who’s not married?
3
17480
3484
Evli biri, evli olmayan birine mi bakıyor?
00:20
Take a moment to think about it.
4
20964
3600
Biraz düşünün.
00:24
Most people answer that there’s not enough information to tell.
5
24564
3831
Pek çok kimse yeterli bilginin olmadığını söyleyecektir.
00:28
And most people are wrong.
6
28395
2135
Pek çok kimse yanılıyor.
00:30
Linda must be either married or not married—there are no other options.
7
30530
4240
Linda evlidir ya da değildir -- başka seçenek yok.
00:34
So in either scenario, someone married is looking at someone who’s not married.
8
34770
5294
Yani her iki durumda da, evli biri, evli olmayan birine bakıyor.
00:40
When presented with the explanation, most people change their minds
9
40064
3258
Durum, açıklamasıyla verilince insanların çoğu fikrini değiştirir
00:43
and accept the correct answer,
10
43322
1477
ve ilk cevapları konusunda
00:44
despite being very confident in their first responses.
11
44799
3301
emin olmalarına rağmen, doğru cevabı kabul ederler.
00:48
Now let’s look at another case.
12
48100
1806
Şimdi başka bir duruma göz atalım.
00:49
A 2005 study by Brendan Nyhan and Jason Reifler
13
49906
3875
2005'de Brendan Nyhan ve Jason Reifler tarafından yapılan bir çalışmada
00:53
examined American attitudes regarding the justifications for the Iraq War.
14
53781
5050
Amerikalılar'ın, Irak Savaşı'yla ilgili fikirlere yönelik tutumlarını inceledi.
00:58
Researchers presented participants with a news article
15
58831
3107
Araştırmacılar, katılımcılara bir gazete haberi sundular.
01:01
that showed no weapons of mass destruction had been found.
16
61938
3636
Haberde, hiçbir kitle imha silahının bulunmadığı yazmakta.
01:05
Yet many participants not only continued to believe that WMDs had been found,
17
65574
5095
Pek çok katılımcı KİS'lerin bulunduğuna inanmakla kalmadı,
01:10
but they even became more convinced of their original views.
18
70669
3859
hâlihazırda inandıkları fikirle ilgili de daha fazla güven sahibi oldular.
01:14
So why do arguments change people’s minds in some cases and backfire in others?
19
74528
5608
Öyleyse, neden iddialar insanları bazen ikna ederken, bazen geri tepiyor?
01:20
Arguments are more convincing when they rest on a good knowledge of the audience,
20
80136
4898
Tartışmalar, dinleyicilerin inançları, kime güvendikleri
01:25
taking into account what the audience believes,
21
85034
2581
ve hangi değerlere önem verdikleri hesaba katılarak
01:27
who they trust,
22
87615
1230
bir temele oturtulduğunda
01:28
and what they value.
23
88845
2340
daha ikna edici olurlar.
01:31
Mathematical and logical arguments like the dinner party brainteaser work
24
91185
4430
Akşam yemeği bilmecesinde olduğu gibi,
matematiksel ve mantıksal iddialar işe yarar,
01:35
because even when people reach different conclusions,
25
95615
2600
çünkü insanlar farklı sonuçlara ulaştıklarında dahi,
01:38
they’re starting from the same set of shared beliefs.
26
98215
3328
ortak inanç dizilerinden başlarlar.
01:41
In 1931, a young, unknown mathematician named Kurt Gödel presented a proof
27
101543
6019
1931 yılında, Kurt Gödel adlı, tanınmayan genç bir matematikçi,
01:47
that a logically complete system of mathematics was impossible.
28
107562
3785
mantıken eksiksiz bir matematik sisteminin imkânsız olduğu kanıtını sundu.
01:51
Despite upending decades of work by brilliant mathematicians
29
111347
3206
Bertrand Russell ve David Hilbert gibi parlak matematikçilerin
01:54
like Bertrand Russell and David Hilbert,
30
114553
2271
on yıllarca süren tam tersi çalışmalarına rağmen
01:56
the proof was accepted
31
116824
1379
kanıt kabul edildi.
01:58
because it relied on axioms that everyone in the field already agreed on.
32
118203
4749
Çünkü bu alandaki herkesin çoktan kabul ettiği aksiyomlara dayalıydı.
02:02
Of course, many disagreements involve different beliefs
33
122952
3270
Elbette, pek çok anlaşmazlık, mantık ile uzlaşmayan
02:06
that can’t simply be reconciled through logic.
34
126222
2772
farklı inançları içerisine almaktadır.
02:08
When these beliefs involve outside information,
35
128994
2764
Bu inançlar, dışarıdan gelen bilgiyi içine aldığında
02:11
the issue often comes down to what sources and authorities people trust.
36
131758
4914
mesele sıklıkla, insanların hangi otorite ve kaynaklara güvendiğidir.
02:16
One study asked people to estimate several statistics
37
136672
3159
Bir araştırmada, insanlardan, iklim değişikliği ile ilgili pek çok
02:19
related to the scope of climate change.
38
139831
2562
istatistiksel tahminde bulunmaları istendi.
02:22
Participants were asked questions,
39
142393
2078
Katılımcılara "1995-2006 yılları arasında
02:24
such as “how many of the years between 1995 and 2006
40
144471
4826
kaç kez 1850'den beri 12 yılın en sıcak yılı olmuştur?"
02:29
were one of the hottest 12 years since 1850?”
41
149297
4522
gibi sorular soruldu.
02:33
After providing their answers,
42
153819
1632
Cevaplar alındıktan sonra
02:35
they were presented with data from the Intergovernmental Panel on Climate Change,
43
155451
4060
katılımcılara İklim Değişikliği Üzerine Hükûmetler arası Panel'den
02:39
in this case showing that the answer was 11 of the 12 years.
44
159511
4633
elde edilen veriler sunuldu ve bu sonuca göre cevap 12 yılda 11'di.
02:44
Being provided with these reliable statistics from a trusted official source
45
164144
4126
Güvenilir resmî bir kaynaktan bu güvenilir rakamlar verilince,
02:48
made people more likely to accept the reality that the earth is warming.
46
168270
4502
katılımcılar dünyanın ısındığı gerçeğini kabul etmeye daha da yaklaştılar.
02:52
Finally, for disagreements that can’t be definitively settled
47
172772
3827
Son olarak, istatistik veya kanıtlarla kesin olarak karara varılmayan
02:56
with statistics or evidence,
48
176599
1957
karşıt fikirler için,
02:58
making a convincing argument
49
178556
1792
ikna edici bir tartışma yaratmak
03:00
may depend on engaging the audience’s values.
50
180348
3118
dinleyicinin değerlerini hesaba katmaya dayanabilir.
03:03
For example, researchers have conducted a number of studies
51
183466
3860
Örneğin, araştırmacılar,
farklı siyasi görüşü olan insanlara değerlerini sıralamalarını
03:07
where they’ve asked people of different political backgrounds
52
187326
3011
03:10
to rank their values.
53
190337
1917
belirttikleri çalışmalar yürüttüler.
03:12
Liberals in these studies, on average, rank fairness—
54
192254
3236
Bu çalışmada liberaller için ortalama olarak, adalet,
03:15
here meaning whether everyone is treated in the same way—above loyalty.
55
195490
4915
- burada, herkese eşit davranılması anlamında - sadakatin üzerinde kalmıştır.
03:20
In later studies, researchers attempted to convince liberals
56
200405
4343
Sonraki çalışmalarda araştırmacılar liberalleri, birçok gerekçe sunarak
03:24
to support military spending with a variety of arguments.
57
204748
3588
askeri harcamaları destekleme yönünde ikna etmeye çalıştılar.
03:28
Arguments based on fairness—
58
208336
1943
Adalet temelli iddialar -
03:30
like that the military provides employment
59
210279
2454
ordunun dezavantajlı bölgelerden olanlara istihdam
03:32
and education to people from disadvantaged backgrounds—
60
212733
2725
ve eğitim sağladığı gibi -
03:35
were more convincing than arguments based on loyalty—
61
215458
3635
sadakat temelli iddialardan - ordu millî bütünlük sağlar gibi -
03:39
such as that the military unifies a nation.
62
219093
2842
daha ikna edici olmuştur.
03:41
These three elements—
63
221935
2388
Bu üç unsur
03:44
beliefs, trusted sources, and values—
64
224323
2846
- inançlar, güvenilir kaynaklar ve değerler -
03:47
may seem like a simple formula for finding agreement and consensus.
65
227169
4063
bir iddia ve fikir birliği oluşturmada temel bir formül gibi görünebilir.
03:51
The problem is that our initial inclination is to think of arguments
66
231232
4214
Asıl sorun, içsel eğilimimizin, inançlarımıza, güvendiğimiz kaynaklara
03:55
that rely on our own beliefs, trusted sources, and values.
67
235446
4214
ve değerlerimize dayanan savlar ile ilgili düşünmek olmasıdır.
03:59
And even when we don’t,
68
239660
1293
Bunu yapmadığımızda dahi
04:00
it can be challenging to correctly identify what’s held dear
69
240953
3543
bizimle aynı fikirde olmayan insanların neyi önemsediğini
04:04
by people who don’t already agree with us.
70
244496
2763
doğru olarak belirlemek zor olabilir.
04:07
The best way to find out is simply to talk to them.
71
247259
2784
Bunun en kolay yolu onlarla sadece konuşmaktır.
04:10
In the course of discussion,
72
250043
1706
Konuşma sırasında,
04:11
you’ll be exposed to counter-arguments and rebuttals.
73
251749
3178
karşıt görüşlere ve fikir çürütme eylemine maruz kalırsınız.
04:14
These can help you make your own arguments and reasoning more convincing
74
254927
4167
Bunlar, kendi savınızı ve gerekçelerinizi
daha ikna edici hâle getirmede yardımcı olabilir
04:19
and sometimes, you may even end up being the one changing your mind.
75
259094
4209
ve bazen kendi fikrinizi değiştiren kişi bile olabilirsiniz.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7