What to trust in a "post-truth" world | Alex Edmans

148,811 views

2018-12-03 ・ TED


New videos

What to trust in a "post-truth" world | Alex Edmans

148,811 views ・ 2018-12-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Badsar Reviewer: sadegh zabihi
00:13
Belle Gibson was a happy young Australian.
0
13675
2920
بل گیبسون یک جوان خوشحال استرالیایی بود.
00:16
She lived in Perth, and she loved skateboarding.
1
16619
3023
او در پرث زندگی می‌کرد و عاشق اسکیت‌سواری بود.
00:20
But in 2009, Belle learned that she had brain cancer and four months to live.
2
20173
4449
اما در سال ۲۰۰۹ فهمید که تومور مغزی دارد و فقط چهار ماه دیگر زنده است.
00:25
Two months of chemo and radiotherapy had no effect.
3
25034
3533
دو ماه شیمی‌درمانی و رادیوگرافی هیچ اثری نداشت.
00:29
But Belle was determined.
4
29145
1500
اما بل مصمم بود.
00:30
She'd been a fighter her whole life.
5
30669
2130
او در تمام زندگی یک مبارز بود.
00:32
From age six, she had to cook for her brother, who had autism,
6
32823
3294
در شش سالگی مجبور بود برای برادرش که اوتیسم داشت
00:36
and her mother, who had multiple sclerosis.
7
36141
2388
و مادرش که ام‌اس داشت غذا درست کند.
00:38
Her father was out of the picture.
8
38553
1754
پدرش اصلاً حضور نداشت.
00:40
So Belle fought, with exercise, with meditation
9
40736
3286
بنابراین بل با ورزش و مدیتیشن
00:44
and by ditching meat for fruit and vegetables.
10
44046
2840
و با جایگزینی میوه و سبزیجات به جای گوشت جنگیدن را شروع کرد.
00:47
And she made a complete recovery.
11
47387
2200
و کاملاً بهبود یافت.
00:50
Belle's story went viral.
12
50784
1579
داستان بل همه جا پخش شد.
00:52
It was tweeted, blogged about, shared and reached millions of people.
13
52387
3393
در موردش توییت و بلاگ شد و به گوش میلیون‌ها نفر رسید.
00:56
It showed the benefits of shunning traditional medicine
14
56246
3111
برمزایای پرهیز از درمان مرسوم و رو آوردن به رژیم غذایی
00:59
for diet and exercise.
15
59381
1467
و ورزش تأکید می‌شد.
01:01
In August 2013, Belle launched a healthy eating app,
16
61381
4498
در آگوست ۲۰۱۳ بل یک اپلیکیشن سلامت غذایی راه‌اندازی کرد،
01:05
The Whole Pantry,
17
65903
1349
به نام بوفه کامل،
01:07
downloaded 200,000 times in the first month.
18
67276
4023
در ماه اول دویست‌هزار بار دانلود شد.
01:13
But Belle's story was a lie.
19
73228
2799
اما داستان بل یک دروغ بود.
01:17
Belle never had cancer.
20
77227
1534
بل اصلاً سرطان نداشت.
01:19
People shared her story without ever checking if it was true.
21
79601
4133
افراد داستان او را بدون بررسی به اشتراک گذاشتند.
01:24
This is a classic example of confirmation bias.
22
84815
3220
این یک نمونه کلاسیک از تعصب تأیید شدن است.
01:28
We accept a story uncritically if it confirms what we'd like to be true.
23
88403
4676
ما داستانی که اعتقادات ما را تأیید می‌کند بدون بررسی می‌پذیریم.
01:33
And we reject any story that contradicts it.
24
93484
2506
و هر داستانی که اعتقاداتمان را نقض می‌کند رد می‌کنیم.
01:36
How often do we see this
25
96937
1825
چقدر این پدیده را در داستان‌هایی
01:38
in the stories that we share and we ignore?
26
98786
3045
که به اشتراک می‌گذاریم و آنهایی که نادیده می‌گیریم مشاهده می‌کنیم؟
01:41
In politics, in business, in health advice.
27
101855
4182
در سیاست، در کسب و کار و در توصیه‌های سلامت.
01:47
The Oxford Dictionary's word of 2016 was "post-truth."
28
107180
4106
لغت "post-truth" (پساحقیقت) در سال ۲۰۱۶ به لغت‌نامه آکسفورد اضافه شد.
01:51
And the recognition that we now live in a post-truth world
29
111768
3492
و دانستن اینکه اکنون داریم در یک دنیای پساحقیقت زندگی می‌کنیم
01:55
has led to a much needed emphasis on checking the facts.
30
115284
3364
به تمرکز بسیار بیشتر بر بررسی حقایق منجر شده است.
01:59
But the punch line of my talk
31
119339
1397
لُب مطلب سخنرانی من این است
02:00
is that just checking the facts is not enough.
32
120760
2991
که تنها بررسی حقایق کافی نیست.
02:04
Even if Belle's story were true,
33
124347
2927
حتی اگر داستان بل راست بود،
02:07
it would be just as irrelevant.
34
127298
2067
باز هم بی‌ربط بود.
02:10
Why?
35
130457
1150
چرا؟
02:11
Well, let's look at one of the most fundamental techniques in statistics.
36
131957
3508
خب، بگذارید نگاهی به یکی از پایه‌ای ترین فنون آمار بیندازیم.
02:15
It's called Bayesian inference.
37
135489
2410
استنباط بیزی نام دارد.
02:18
And the very simple version is this:
38
138251
2936
و یک بیان ساده از آن این است:
02:21
We care about "does the data support the theory?"
39
141211
3268
برای ما مهم است که "آیا داده‌ها نظریه را تأیید می‌کند؟"
02:25
Does the data increase our belief that the theory is true?
40
145053
3456
آیا داده‌ها باور ما بر درست بودن نظریه را افزایش می‌دهد؟
02:29
But instead, we end up asking, "Is the data consistent with the theory?"
41
149520
4383
اما به جای این ما می‌پرسیم: "آیا داده‌ها طبق نظریه هستند؟"
02:34
But being consistent with the theory
42
154838
2515
اما مطابق نظریه بودن
02:37
does not mean that the data supports the theory.
43
157377
2929
به این معنی نیست که داده‌ها نظریه را تأیید می‌کنند.
02:40
Why?
44
160799
1159
چرا؟
02:41
Because of a crucial but forgotten third term --
45
161982
3825
بخاطر یک موضوع اساسی و فراموش‌شده ثالث --
02:45
the data could also be consistent with rival theories.
46
165831
3558
داده‌ها می‌توانند مطابق نظریه‌های رقیب نیز باشند.
02:49
But due to confirmation bias, we never consider the rival theories,
47
169918
4667
اما به خاطر تعصب تأیید شدن ما هرگز نظریه‌های رقیب را در نظر نمی‌گیریم.
02:54
because we're so protective of our own pet theory.
48
174609
3151
چون به شدت محافظ تئوری خودمان هستیم.
02:58
Now, let's look at this for Belle's story.
49
178688
2413
حالا، بیایید این موضوع را در مورد داستان بل ببینیم.
03:01
Well, we care about: Does Belle's story support the theory
50
181125
4214
خب، برای ما مهم است که: آیا داستان بل این تئوری را تأیید می‌کند که رژیم غذایی
03:05
that diet cures cancer?
51
185363
1603
سرطان را درمان می‌کند؟
03:06
But instead, we end up asking,
52
186990
1787
اما در عوض می‌پرسیم،
03:08
"Is Belle's story consistent with diet curing cancer?"
53
188801
4045
"آیا داستان بل مطابق تئوری درمان سرطان با رژیم غذایی است؟"
03:13
And the answer is yes.
54
193790
1604
و پاسخ مثبت است.
03:15
If diet did cure cancer, we'd see stories like Belle's.
55
195839
4103
اگر رژیم غذایی سرطان را درمان کند داستان‌های مشابه بل را خواهیم دید.
03:20
But even if diet did not cure cancer,
56
200839
2849
اما حتی اگر رژیم غذایی سرطان را درمان نکند،
03:23
we'd still see stories like Belle's.
57
203712
2643
ما همچنان شاهد داستان‌های شبیه بل هستیم.
03:26
A single story in which a patient apparently self-cured
58
206744
5190
یک تک داستان که ظاهراً در آن یک مریض پس از روش درمان غلط در وهله اول
03:31
just due to being misdiagnosed in the first place.
59
211958
3174
سپس خود را درمان کرده است.
03:35
Just like, even if smoking was bad for your health,
60
215680
3326
درست مثل این: حتی اگر دخانیات برای سلامتی مضر باشد،
03:39
you'd still see one smoker who lived until 100.
61
219030
3304
همچنان یک سیگاری را می‌بینید که بیش از صد سال عمر کرده است.
03:42
(Laughter)
62
222664
1150
(خنده)
03:44
Just like, even if education was good for your income,
63
224157
2562
درست مثل این: حتی اگر تحصیلات برای درآمد شما خوب است
03:46
you'd still see one multimillionaire who didn't go to university.
64
226743
4281
همچنان یک میلیونر وجود دارد که دانشگاه نرفته است.
03:51
(Laughter)
65
231048
4984
(خنده)
03:56
So the biggest problem with Belle's story is not that it was false.
66
236056
3911
پس بزرگترین ایراد داستان بل دروغ بودن آن نیست.
03:59
It's that it's only one story.
67
239991
2531
بلکه این است که فقط یک واقعه است.
04:03
There might be thousands of other stories where diet alone failed,
68
243094
4381
ممکن است هزاران واقعه دیگری باشد که در آن رژیم غذایی جواب نداده است،
04:07
but we never hear about them.
69
247499
1934
اما هرگز در مورد آن‌ها نمی‌شنویم.
04:10
We share the outlier cases because they are new,
70
250141
3896
ما فقط موارد خاص را به اشتراک می‌گذاریم چون جدید هستند،
04:14
and therefore they are news.
71
254061
1867
و بنابراین خبر هستند.
04:16
We never share the ordinary cases.
72
256657
2476
ما اصلاً موارد عادی را به اشتراک نمی‌گذاریم.
04:19
They're too ordinary, they're what normally happens.
73
259157
3213
چون خیلی معمولی هستند و اتفاقاتی هستند که بطور طبیعی رخ می‌دهند.
04:23
And that's the true 99 percent that we ignore.
74
263125
3095
و در این بین ۹۹ درصد موارد درست را نادیده می‌گیریم.
04:26
Just like in society, you can't just listen to the one percent,
75
266244
2968
درست مثل اینکه در اجتماع شما نمی‌توانید فقط به حرف یک درصد
04:29
the outliers,
76
269236
1158
یا موارد خاص گوش کنید،
04:30
and ignore the 99 percent, the ordinary.
77
270418
2666
و ۹۹ درصد معمول را نادیده بگیرید.
04:34
Because that's the second example of confirmation bias.
78
274022
3254
چون این نمونه دوم از تعصب تأیید شدن است.
04:37
We accept a fact as data.
79
277300
2769
ما یک واقعه را بعنوان یک داده می‌پذیریم.
04:41
The biggest problem is not that we live in a post-truth world;
80
281038
3968
بزرگترین مشکل این نیست که داریم در یک جهان پساحقیقت زندگی می‌کنیم؛
04:45
it's that we live in a post-data world.
81
285030
3769
مشکل زندگی در یک جهان پساداده است.
04:49
We prefer a single story to tons of data.
82
289792
3744
ما یک تک واقعه را به هزاران داده ترجیح می‌دهیم.
04:54
Now, stories are powerful, they're vivid, they bring it to life.
83
294752
3016
داستان‌ها قدرتمند هستند، روشن هستند و دارای حیات هستند.
04:57
They tell you to start every talk with a story.
84
297792
2222
می‌گویند سخنرانی را با یک داستان شروع کن.
05:00
I did.
85
300038
1150
من این کار را کردم.
05:01
But a single story is meaningless and misleading
86
301696
4754
اما یک تک داستان بی‌معنا و منحرف‌کننده است
05:06
unless it's backed up by large-scale data.
87
306474
2849
مگر اینکه توسط حجم زیادی از داده حمایت شود.
05:11
But even if we had large-scale data,
88
311236
2357
اما حتی اگر حجم زیادی از داده داشته باشیم،
05:13
that might still not be enough.
89
313617
2158
ممکن است کافی نباشد.
05:16
Because it could still be consistent with rival theories.
90
316260
3138
چون ممکن است همچنان مطابق نظریات رقیب هم باشند.
05:20
Let me explain.
91
320136
1150
بگذارید توضیح دهم.
05:22
A classic study by psychologist Peter Wason
92
322072
3262
یک مطالعه کلاسیک توسط روان‌شناس پیتر ویسون
05:25
gives you a set of three numbers
93
325358
1952
به شما سه عدد می‌گوید
05:27
and asks you to think of the rule that generated them.
94
327334
2905
و از شما می‌پرسد این اعداد طبق چه منطقی تولید شده‌اند.
05:30
So if you're given two, four, six,
95
330585
4476
خب اگر به شما، دو، چها و شش را بدهند،
05:35
what's the rule?
96
335085
1150
چه منطقی برقرار است؟
05:36
Well, most people would think, it's successive even numbers.
97
336895
3219
خب اکثر افراد فکر می‌کنند این توالی اعداد زوج است.
05:40
How would you test it?
98
340767
1515
چطور آزمایشش می‌کنید؟
05:42
Well, you'd propose other sets of successive even numbers:
99
342306
3262
خب، دسته‌های دیگری از اعداد زوج به شما عرضه می‌شود:
05:45
4, 6, 8 or 12, 14, 16.
100
345592
3318
۴، ۶، ۸ یا ۱۲، ۱۴، ۱۶.
05:49
And Peter would say these sets also work.
101
349546
2800
و پیتر می‌گوید این دسته‌ها هم از منطق پیروی می‌کنند.
05:53
But knowing that these sets also work,
102
353124
2564
اما دانستن اینکه این دسته‌ها تابع منطق هستند،
05:55
knowing that perhaps hundreds of sets of successive even numbers also work,
103
355712
4765
شاید دانستن صدها دسته اعداد زوج که تابع منطق ما هستند،
06:00
tells you nothing.
104
360501
1348
به شما هیچ چیز نمی‌گوید.
06:02
Because this is still consistent with rival theories.
105
362572
3358
چون این بر تئوری‌های رقیب هم مطابقت می‌کند.
06:06
Perhaps the rule is any three even numbers.
106
366889
3205
شاید منطق هر گونه سه عدد زوج باشد.
06:11
Or any three increasing numbers.
107
371000
2133
یا هر سه عدد در حال افزایش.
06:14
And that's the third example of confirmation bias:
108
374365
2888
و این است نمونه سوم از تعصب تأیید شدن:
06:17
accepting data as evidence,
109
377277
3689
پذیرش داده‌ها به عنوان شاهد،
06:20
even if it's consistent with rival theories.
110
380990
3000
حتی اگر مطابق نظریه‌های رقیب هم باشند.
06:24
Data is just a collection of facts.
111
384704
2952
داده‌ها فقط مجموعه‌ای از حقایق هستند.
06:28
Evidence is data that supports one theory and rules out others.
112
388402
4923
شاهد داده‌ایست که یک تئوری را حمایت و دیگر تئوری‌ها را رد می‌کند.
06:34
So the best way to support your theory
113
394665
2483
پس بهترین راه برای حمایت از تئوری خود
06:37
is actually to try to disprove it, to play devil's advocate.
114
397172
3930
این است که تلاش کنید آن را رد کنید و نقش یک وکیل مدافع شیطان را بازی کنید.
06:41
So test something, like 4, 12, 26.
115
401466
4718
بنابراین چیزی مثل ۴، ۱۲، ۲۶ را امتحان کنید.
06:46
If you got a yes to that, that would disprove your theory
116
406938
3683
اگر پاسخ مثبت باشد تئوری شما مبنی بر توالی اعداد زوج
06:50
of successive even numbers.
117
410645
1936
رد می‌شود.
06:53
Yet this test is powerful,
118
413232
2016
این آزمایش قدرتمند است،
06:55
because if you got a no, it would rule out "any three even numbers"
119
415272
4845
چون اگر پاسخ منفی باشد، تئوری "هر گونه سه عدد زوج"
07:00
and "any three increasing numbers."
120
420141
1712
و "هر سه عدد در حال افزایش" رد می‌شوند.
07:01
It would rule out the rival theories, but not rule out yours.
121
421877
3341
تئوری‌های دیگر را رد می‌کند اما تئوری شما را خیر.
07:05
But most people are too afraid of testing the 4, 12, 26,
122
425968
4794
اما اکثر افراد از آزمایش ۴، ۱۲، ۲۶ به شدت می‌ترسند،
07:10
because they don't want to get a yes and prove their pet theory to be wrong.
123
430786
4163
چون نمی‌خواهند با کسب جواب مثبت، تئوری خودشان رد شود.
07:16
Confirmation bias is not only about failing to search for new data,
124
436727
5676
تعصب تأیید نه تنها باعث انصراف از جستجوی داده‌های جدید می‌شود،
07:22
but it's also about misinterpreting data once you receive it.
125
442427
3073
بلکه هنگام دریافت داده‌ها موجب سوء تفسیر می‌شود.
07:26
And this applies outside the lab to important, real-world problems.
126
446339
3548
و این رویکرد در خارج از آزمایشگاه و در قبال مسائل واقعی جهان اتخاذ می‌شود.
07:29
Indeed, Thomas Edison famously said,
127
449911
3309
به راستی، توماس ادیسون جمله معروفی داشت،
07:33
"I have not failed,
128
453244
1888
"من هرگز شکست نخورده‌ام،
07:35
I have found 10,000 ways that won't work."
129
455156
4188
فقط ده هزار راهی را یافته‌ام که عمل نمی‌کند."
07:40
Finding out that you're wrong
130
460281
2627
دانستن اینکه دارید اشتباه می‌کنید
07:42
is the only way to find out what's right.
131
462932
2733
تنها راه یافتن پاسخ درست است.
07:46
Say you're a university admissions director
132
466654
2946
فرض کنید شما مدیر پذیرش دانشگاه هستید
07:49
and your theory is that only students with good grades
133
469624
2563
و تئوری شما این است که فقط دانشجویان با نمره‌های خوب
07:52
from rich families do well.
134
472211
1763
از خانواده‌های ثروتمند به درد می‌خورند.
07:54
So you only let in such students.
135
474339
2190
پس شما فقط چنین دانشجویانی را می‌پذیرید.
07:56
And they do well.
136
476553
1150
و آن‌ها خوب عمل می‌کنند.
07:58
But that's also consistent with the rival theory.
137
478482
2772
اما این با تئوری رقیب هم منطبق است.
08:01
Perhaps all students with good grades do well,
138
481593
2747
شاید همه دانشجویان با نمره خوب به درد می‌خورند،
08:04
rich or poor.
139
484364
1181
چه ثروتمند چه فقیر.
08:06
But you never test that theory because you never let in poor students
140
486307
3730
اما شما هرگزاین تئوری را آزمایش نکرده‌اید چون هرگز دانشجویان فقیر را پذیرش نکرده‌اید.
08:10
because you don't want to be proven wrong.
141
490061
2800
چون دوست ندارید اشتباهتان ثابت شود.
08:14
So, what have we learned?
142
494577
1857
خب چه یاد گرفته‌ایم؟
08:17
A story is not fact, because it may not be true.
143
497315
3560
یک داستان یک حقیقت نیست چون ممکن است راست نباشد.
08:21
A fact is not data,
144
501498
2087
حقیقت، داده نیست،
08:23
it may not be representative if it's only one data point.
145
503609
4039
اگر فقط یک داده خاص باشد قابل پذیرش نیست.
08:28
And data is not evidence --
146
508680
2349
و داده، شاهد نیست --
08:31
it may not be supportive if it's consistent with rival theories.
147
511053
3678
اگر بر تئوری‌های رقیب هم منطبق باشد حامی تئوری ما نیست.
08:36
So, what do you do?
148
516146
2277
پس چه کار می‌کنید؟
08:39
When you're at the inflection points of life,
149
519464
2682
وقتی در نقطه عطف زندگی خود قرار دارید،
08:42
deciding on a strategy for your business,
150
522170
2566
برای تصمیم‌گیری در مورد استراتژی کسب و کارتان،
08:44
a parenting technique for your child
151
524760
2611
فن تربیت کودکتان
08:47
or a regimen for your health,
152
527395
2428
یا یک رژیم برای سلامتی‌تان،
08:49
how do you ensure that you don't have a story
153
529847
3539
چطور مطمئن می‌شوید که شما یک داستان ندارید
08:53
but you have evidence?
154
533410
1468
بلکه یک شاهد دارید؟
08:56
Let me give you three tips.
155
536268
1619
بگذارید سه نکته عرض کنم.
08:58
The first is to actively seek other viewpoints.
156
538641
3984
اولاً فعالانه دیگر دیدگاه‌ها را جستجو کنید.
09:02
Read and listen to people you flagrantly disagree with.
157
542649
3594
نظر افرادی که بوضوح با شما مخالف هستند را بخوانید و بشنوید.
09:06
Ninety percent of what they say may be wrong, in your view.
158
546267
3488
نود درصد چیزی که می‌گویند ممکن است از نگاه شما غلط باشد.
09:10
But what if 10 percent is right?
159
550728
2133
اما اگر ده درصد درست باشد چه؟
09:13
As Aristotle said,
160
553851
1619
به قول ارسطو،
09:15
"The mark of an educated man
161
555494
2214
"علامت یک فرد باسواد
09:17
is the ability to entertain a thought
162
557732
3397
این است که می‌تواند از یک تفکر لذت ببرد
09:21
without necessarily accepting it."
163
561153
2333
گرچه لزوماً آن را نپذیرفته باشد."
09:24
Surround yourself with people who challenge you,
164
564649
2254
اطراف خود را با افرادی که شما را به چالش می‌کشانند پر کنید،
09:26
and create a culture that actively encourages dissent.
165
566917
3699
و فرهنگی را خلق کنید که فعالانه مخالفت را تشویق می‌کند.
09:31
Some banks suffered from groupthink,
166
571347
2318
برخی بانک‌ها از گروه همفکران رنج می‌برند،
09:33
where staff were too afraid to challenge management's lending decisions,
167
573689
4309
وقتیکه کارمندان به شدت می‌ترسندکه تصمیمات وام‌دهی مدیریت را به چالش بکشند،
09:38
contributing to the financial crisis.
168
578022
2466
و در بحران‌های مالی مشارکت کنند.
09:41
In a meeting, appoint someone to be devil's advocate
169
581029
4199
در یک جلسه، یک نفر را به عنوان وکیل مدافع شیطان
09:45
against your pet idea.
170
585252
1642
علیه ایده خودتان تعیین کنید.
09:47
And don't just hear another viewpoint --
171
587720
2571
و نه تنها نظر مخالف را بشنوید --
09:50
listen to it, as well.
172
590315
2176
بلکه به خوبی به آن گوش دهید.
09:53
As psychologist Stephen Covey said,
173
593389
2404
استفان کوی بعنوان یک روان‌شناس می‌گوید،
09:55
"Listen with the intent to understand,
174
595817
3397
"به قصد فهمیدن گوش کنید،
09:59
not the intent to reply."
175
599238
1666
نه به هدف جواب دادن."
10:01
A dissenting viewpoint is something to learn from
176
601642
3492
یک دیدگاه مخالف برای یاد گرفتن است
10:05
not to argue against.
177
605158
1548
نه برای مبارزه علیه آن.
10:07
Which takes us to the other forgotten terms in Bayesian inference.
178
607690
3866
که ما را به بخش فراموش شده سوم استنباط بیزی می‌رساند.
10:12
Because data allows you to learn,
179
612198
2324
چون داده‌ها به شما امکان یادگیری می‌دهند،
10:14
but learning is only relative to a starting point.
180
614546
3515
ولی یادگیری فقط به نقطه شروع ارتباط دارد.
10:18
If you started with complete certainty that your pet theory must be true,
181
618085
5716
اگر با اطمینان کامل از درستی تئوری خودتان آغاز کنید،
10:23
then your view won't change --
182
623825
1897
دیدگاه شما تغییر نخواهد کرد --
10:25
regardless of what data you see.
183
625746
2466
صرف نظر از اینکه با چه داده‌هایی مواجه می‌شوید.
10:28
Only if you are truly open to the possibility of being wrong
184
628641
4391
تنها در صورتی که واقعاً احتمال اشتباه خود را بدهید
10:33
can you ever learn.
185
633056
1267
می‌توانید یاد بگیرید.
10:35
As Leo Tolstoy wrote,
186
635580
2095
همانگونه که لئو تولستوی می‌نویسد،
10:37
"The most difficult subjects
187
637699
2182
"سخت‌ترین مفاهیم
10:39
can be explained to the most slow-witted man
188
639905
3135
می‌تواند برای کندذهن‌ترین انسان توضیح داده شود
10:43
if he has not formed any idea of them already.
189
643064
2753
اگر وی از قبل باوری تشیکل نداده باشد.
10:46
But the simplest thing
190
646365
1873
اما ساده‌ترین چیز را
10:48
cannot be made clear to the most intelligent man
191
648262
3071
نمی‌توان برای باهوش‌ترین انسان روشن کرد
10:51
if he is firmly persuaded that he knows already."
192
651357
3334
در صورتی که وی از پیش معتقد باشد که می‌داند."
10:56
Tip number two is "listen to experts."
193
656500
3743
نکته دوم این است: "به متخصصین گوش بده."
11:01
Now, that's perhaps the most unpopular advice that I could give you.
194
661040
3492
حالا، این شاید ناخوشایندترین نصیحتی باشد که می‌توانم به شما بکنم.
11:04
(Laughter)
195
664556
1220
(خنده)
11:05
British politician Michael Gove famously said that people in this country
196
665800
4738
سیاستمدار انگلیسی مایکل گو جمله مشهوری دارد: مردم این کشور
11:10
have had enough of experts.
197
670562
2276
به اندازه کافی از متخصصان کشیده‌اند.
11:13
A recent poll showed that more people would trust their hairdresser --
198
673696
3508
یک نظرسنجی اخیر نشان داد که اکثر افراد به آرایشگرشان --
11:17
(Laughter)
199
677228
2285
(خنده)
11:19
or the man on the street
200
679537
1833
یا یک شخص در خیابان
11:21
than they would leaders of businesses, the health service and even charities.
201
681394
4305
بیش از رهبران کسب و کار، خدمات درمانی و حتی خیریه‌ها اعتماد دارند.
11:26
So we respect a teeth-whitening formula discovered by a mom,
202
686227
3977
برای همین به یک فرمول سفیدکننده دندان توسط مادر احترام می‌گذاریم،
11:30
or we listen to an actress's view on vaccination.
203
690228
3198
یا به دیدگاه یک بازیگر در مورد واکسیناسیون گوش می‌کنیم.
11:33
We like people who tell it like it is, who go with their gut,
204
693450
2865
ما هر چرندی که توسط افراد گفته شود را دوست داریم
11:36
and we call them authentic.
205
696339
1800
و آن گفته‌ها را معتبر می‌نامیم.
11:38
But gut feel can only get you so far.
206
698847
3214
ولی چرندیات می‌تواند شما را منحرف کند.
11:42
Gut feel would tell you never to give water to a baby with diarrhea,
207
702736
4436
چرندیات به شما می‌گوید به یک بچه دارای اسهال آب ندهید،
11:47
because it would just flow out the other end.
208
707196
2318
چون از سمت دیگر خارج می‌شود.
11:49
Expertise tells you otherwise.
209
709538
2578
اما متخصصین به شما چیز دیگری می‌گویند.
11:53
You'd never trust your surgery to the man on the street.
210
713149
3428
شما هیچوقت جراح خود را با یک شخص معمولی در خیابان عوض نمی‌کنید.
11:56
You'd want an expert who spent years doing surgery
211
716887
3587
شما خواستار متخصصی هستید که سال‌ها جراحی کرده
12:00
and knows the best techniques.
212
720498
2000
و بهترین فنون را می‌داند.
12:03
But that should apply to every major decision.
213
723514
3133
اما این قضیه باید در همه موضوعات اعمال شود.
12:07
Politics, business, health advice
214
727255
4556
سیاست، کسب و کار و سلامت
12:11
require expertise, just like surgery.
215
731835
2896
مثل جراحی به تخصص نیاز دارند.
12:16
So then, why are experts so mistrusted?
216
736474
3539
خب پس چرا افراد اینقدر به متخصصین بی‌اعتماد هستند؟
12:20
Well, one reason is they're seen as out of touch.
217
740981
3239
خب یک دلیل این است که این متخصصین در دسترس نیستند.
12:24
A millionaire CEO couldn't possibly speak for the man on the street.
218
744244
4090
یک مدیرعامل میلیونر قاعدتاً نمی‌تواند با یک فرد معمولی در خیابان صحبت کند.
12:29
But true expertise is found on evidence.
219
749455
3559
اما تخصص واقعی با شواهد یافت می‌شود.
12:33
And evidence stands up for the man on the street
220
753447
2905
و شواهد در دفاع از افراد معمولی
12:36
and against the elites.
221
756376
1533
و علیه متخصصین قرار دارد.
12:38
Because evidence forces you to prove it.
222
758456
2667
چون شواهد شما را مجبور به پذیرش می‌کند.
12:41
Evidence prevents the elites from imposing their own view
223
761774
4421
شواهد از عرضه شدن دیدگاه متخصصین بدون اثبات
12:46
without proof.
224
766219
1150
جلوگیری می‌کند.
12:49
A second reason why experts are not trusted
225
769006
2071
دلیل دومی که به متخصصین اعتماد نمی‌شود
12:51
is that different experts say different things.
226
771101
3087
این است که متخصصین مختلف چیزهای متفاوتی می‌گویند.
12:54
For every expert who claimed that leaving the EU would be bad for Britain,
227
774212
4476
یک متخصص می‌گوید خروج از اتحادیه اروپا برای انگلیس بد است،
12:58
another expert claimed it would be good.
228
778712
2429
یکی دیگر می‌گوید خوب است.
13:01
Half of these so-called experts will be wrong.
229
781165
3767
نصف این به اصطلاح متخصصین اشتباه می‌کنند.
13:05
And I have to admit that most papers written by experts are wrong.
230
785774
4243
و باید بپذیرم که بیشتر مقالات نوشته شده توسط متخصصین اشتباه هستند.
13:10
Or at best, make claims that the evidence doesn't actually support.
231
790520
3505
یا در بهترین حالت، ادعا می‌شود که شواهد این موضوع را تأیید نمی‌کنند.
13:14
So we can't just take an expert's word for it.
232
794990
3133
پس نمی‌توانیم به این سادگی عنوان متخصص را برای آن به کار ببریم.
13:18
In November 2016, a study on executive pay hit national headlines.
233
798776
6034
در نوامبر ۲۰۱۶ یک تحقیق در مورد حق اجرا به صدر رسانه‌ها آمد.
13:25
Even though none of the newspapers who covered the study
234
805240
2890
اگر چه هیچ یک از روزنامه‌هایی که این مطالعه را پوشش دادند
13:28
had even seen the study.
235
808154
1600
حتی این تحقیق را ندیده بودند.
13:30
It wasn't even out yet.
236
810685
1533
هنوز حتی منتشر نشده بود.
13:32
They just took the author's word for it,
237
812708
2204
آن‌ها فقط حرف نویسنده را قبول کردند،
13:35
just like with Belle.
238
815768
1400
درست مثل قضیه بل.
13:38
Nor does it mean that we can just handpick any study
239
818093
2436
قرار نیست که ما هر تحقیقی را که بر حسب اتفاق
13:40
that happens to support our viewpoint --
240
820553
2111
باور ما را تأییید می‌کند، انتخاب کنیم --
13:42
that would, again, be confirmation bias.
241
822688
2103
این هم یک تعصب تأیید است.
13:44
Nor does it mean that if seven studies show A
242
824815
2555
قرار نیست اگر هفت تحقیق نتیجه الف را بدهد
13:47
and three show B,
243
827394
1668
و سه تحقیق نتیجه ب
13:49
that A must be true.
244
829086
1483
پس نتیجه الف درست باشد.
13:51
What matters is the quality,
245
831109
2659
آنچه مهم است کیفیت است
13:53
and not the quantity of expertise.
246
833792
2817
نه کمیت در یک حوزه تخصص.
13:57
So we should do two things.
247
837879
1800
پس باید دو کار بکنیم.
14:00
First, we should critically examine the credentials of the authors.
248
840434
4578
اولاً باید منتقدانه میزان اعتبار نویسندگان را بسنجیم.
14:05
Just like you'd critically examine the credentials of a potential surgeon.
249
845807
4143
همانگونه که میزان اعتبار یک جراح را می‌سنجید.
14:10
Are they truly experts in the matter,
250
850347
3206
آیا واقعاً در موضوع مورد نظر متخصص هستند،
14:13
or do they have a vested interest?
251
853577
2267
یا اینکه منافع خاصی را دنبال می‌کنند؟
14:16
Second, we should pay particular attention
252
856768
2523
دوماً باید به مقالات چاپ شده در مجلات علمی معتبر
14:19
to papers published in the top academic journals.
253
859315
3889
توجه ویژه داشته باشیم.
14:24
Now, academics are often accused of being detached from the real world.
254
864038
3861
حالا، معمولاً افراد دانشگاهی به این متهم می‌شوند که از دنیای واقعی فاصله دارند.
14:28
But this detachment gives you years to spend on a study.
255
868585
3730
اما این فاصله، فرصت صرف کردن چندین سال در یک زمینه علمی برای حصول
14:32
To really nail down a result,
256
872339
1905
یک نتیجه خاص را در اختیار گذاشته
14:34
to rule out those rival theories,
257
874268
2015
تا آن نظریات رقیب را خلق کنند
14:36
and to distinguish correlation from causation.
258
876307
3134
و علیت را از مغالطه تمیز دهند.
14:40
And academic journals involve peer review,
259
880172
3477
و مجلات علمی بررسی دقیقی انجام می‌دهند
14:43
where a paper is rigorously scrutinized
260
883673
2294
و یک مقاله به دقت موشکافی می‌شود
14:45
(Laughter)
261
885991
1419
(خنده)
14:47
by the world's leading minds.
262
887434
1934
و این کار توسط اذهان پیشرو جهانی انجام می‌شود.
14:50
The better the journal, the higher the standard.
263
890434
2556
هر چه مجله بهتر باشد سطح استانداردها بالاتر است.
14:53
The most elite journals reject 95 percent of papers.
264
893014
5148
برترین مجلات علمی ۹۵ درصد مقالات را رد می‌کنند.
14:59
Now, academic evidence is not everything.
265
899434
3333
البته، شواهد علمی همه چیز نیست.
15:03
Real-world experience is critical, also.
266
903109
2667
تجربیات جهان واقعی هم حیاتی است.
15:06
And peer review is not perfect, mistakes are made.
267
906465
3400
و بررسی دقیق کامل نیست و اشتباهات رخ می‌دهد.
15:10
But it's better to go with something checked
268
910530
2063
اما بهتر است با چیزی که بررسی شده ادامه دهیم
15:12
than something unchecked.
269
912617
1667
تا چیزی که بررسی نشده است.
15:14
If we latch onto a study because we like the findings,
270
914696
3199
اگر به یک تحقیق بچسبیم چون یافته‌های آن را دوست داریم،
15:17
without considering who it's by or whether it's even been vetted,
271
917919
3888
بدون اینکه ببینیم توسط چه کسی یا اینکه اصلا بازبینی شده است،
15:21
there is a massive chance that that study is misleading.
272
921831
3627
احتمال زیادی وجود دارد که این تحقیق گمراه‌کننده باشد.
15:26
And those of us who claim to be experts
273
926894
2580
و آنهایی از ما که ادعای تخصص دارند
15:29
should recognize the limitations of our analysis.
274
929498
3253
باید محدودیت‌های آنالیزهای ما را درک کنند.
15:33
Very rarely is it possible to prove or predict something with certainty,
275
933244
4563
امکان اثبات قطعی یک موضوع خیلی سخت است،
15:38
yet it's so tempting to make a sweeping, unqualified statement.
276
938292
4369
اما اظهار یک ادعای فریبنده و فاقد صلاحیت خیلی وسوسه‌انگیز است.
15:43
It's easier to turn into a headline or to be tweeted in 140 characters.
277
943069
4344
به صدر رسانه‌ها آمدن و از زبان ۱۴۰ شخصیت معروف توییت شدن ساده‌تر است.
15:48
But even evidence may not be proof.
278
948417
3142
اما شواهد هم ممکن است به معنی اثبات نباشد.
15:52
It may not be universal, it may not apply in every setting.
279
952481
4210
شاید جهانی نباشند یا در مورد هر چیزی صدق نکنند.
15:57
So don't say, "Red wine causes longer life,"
280
957252
4920
پس نگویید، "شراب قرمز موجب افزایش طول عمر می‌شود،"
16:02
when the evidence is only that red wine is correlated with longer life.
281
962196
4682
وقتی تنها شاهدی که دارید این است که طول عمر افرادی که شراب قرمز می‌خورند
16:07
And only then in people who exercise as well.
282
967379
2770
بیشتر است ولی فقط آنهایی که خوب ورزش می‌کنند.
16:11
Tip number three is "pause before sharing anything."
283
971868
3966
نکته سوم "توقف قبل از به اشتراک‌گذاری هر چیزی" است.
16:16
The Hippocratic oath says, "First, do no harm."
284
976907
3464
سوگند بقراط می‌گوید، "اولاً هیچ آسیبی نزنید."
16:21
What we share is potentially contagious,
285
981046
3134
چیزی که به اشتراک می‌گذاریم بطور بالقوه مسری است،
16:24
so be very careful about what we spread.
286
984204
3683
پس کاملاً دقت کنید که چه به اشتراک می‌گذارید.
16:28
Our goal should not be to get likes or retweets.
287
988632
2953
هدف ما نباید دریافت لایک یا ریتوییت باشد.
16:31
Otherwise, we only share the consensus; we don't challenge anyone's thinking.
288
991609
3985
در این صورت ما فقط چیزهایی که همه دوست دارند را به اشتراک می‌گذاریم و اصلاً تفکر
16:36
Otherwise, we only share what sounds good,
289
996085
2905
کسی را به چالش نمی‌کشیم و فقط چیزهای ظاهراً خوب را فارغ از اینکه آیا یک
16:39
regardless of whether it's evidence.
290
999014
2400
شاهد است به اشتراک می‌گذاریم؛
16:42
Instead, we should ask the following:
291
1002188
2466
در عوض باید اینها را بپرسیم:
16:45
If it's a story, is it true?
292
1005572
2135
اگر یک داستان است آیا واقعی است؟
16:47
If it's true, is it backed up by large-scale evidence?
293
1007731
2865
اگر واقعی است آیا با حجم زیادی از شواهد پشتیبانی می‌شود؟
16:50
If it is, who is it by, what are their credentials?
294
1010620
2595
اگر بله توسط چه کسانی و با چه اعتباری؟
16:53
Is it published, how rigorous is the journal?
295
1013239
2756
آیا چاپ شده؟ درجه اعتبار مجله علمی چقدر است؟
16:56
And ask yourself the million-dollar question:
296
1016733
2317
و از خودتان سوال میلیون دلاری را بپرسید:
16:59
If the same study was written by the same authors with the same credentials
297
1019980
4023
اگر مطالعه مشابهی توسط نویسندگان مشابه با درجه اعتبار مشابه نوشته شده
17:05
but found the opposite results,
298
1025130
1587
اما نتایج متضاد گزارش شده باشد،
17:07
would you still be willing to believe it and to share it?
299
1027608
3694
آیا باز هم آن را باور کرده و به اشتراک می‌گذارید؟
17:13
Treating any problem --
300
1033442
2246
با همه مسائل همین کار را بکنید --
17:15
a nation's economic problem or an individual's health problem,
301
1035712
3792
یک مسئله اقتصادی ملی یا مسئله سلامت یک فرد
17:19
is difficult.
302
1039528
1150
مشکل است.
17:21
So we must ensure that we have the very best evidence to guide us.
303
1041242
4383
پس مجبوریم برای راهنمایی، بهترین شاهد را بپذیریم.
17:26
Only if it's true can it be fact.
304
1046188
2681
فقط اگر راست باشد می‌تواند یک حقیقت باشد.
17:29
Only if it's representative can it be data.
305
1049601
2781
فقط اگر یک داده خاص نباشد قابل پذیرش است.
17:33
Only if it's supportive can it be evidence.
306
1053128
3165
فقط اگر قابل پشتیبانی علمی باشد یک شاهد است.
17:36
And only with evidence can we move from a post-truth world
307
1056317
5167
و تنها با شواهد می‌توانیم از این دنیای پساحقیقت
17:41
to a pro-truth world.
308
1061508
1583
به سوی دنیای حقیقت واقعی حرکت کنیم.
17:44
Thank you very much.
309
1064183
1334
خیلی متشکرم.
17:45
(Applause)
310
1065541
1150
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7