The pattern behind self-deception | Michael Shermer

مایکل شرمر: الگوی در پس خود-فریبی

729,912 views

2010-06-14 ・ TED


New videos

The pattern behind self-deception | Michael Shermer

مایکل شرمر: الگوی در پس خود-فریبی

729,912 views ・ 2010-06-14

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Amir - Reviewer: soheila Jafari
00:16
So since I was here last in '06,
0
16260
3000
از آخرین باری که در 2006 اینجا بودم،
00:19
we discovered that global climate change
1
19260
2000
متوجه شدیم که تغییرات جهانی آب و هوا
00:21
is turning out to be a pretty serious issue,
2
21260
2000
دارد تبدیل به یک مسئله بسیار جدی می شود.
00:23
so we covered that fairly extensively
3
23260
2000
بنا براین آن را به طور گسترده
00:25
in Skeptic magazine.
4
25260
2000
در مجله Skeptic پوشش دادیم.
00:27
We investigate all kinds
5
27260
2000
ما همه جور مناقشه
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
علمی و شبه-علمی را برسی می کنیم.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
هرچند معلوم شد که نیازی نیست نگران هیچیک از اینها باشیم
00:34
because the world's going to end in 2012.
8
34260
2000
زیرا دنیا در سال ۲۰۱۲ پایان خواهد یافت.
00:36
Another update:
9
36260
2000
خبر دیگر اینکه:
00:38
You will recall I introduced you guys
10
38260
2000
به یاد می آورید که من دستگاه
00:40
to the Quadro Tracker.
11
40260
2000
Quadro Tracker را به شما معرفی کردم.
00:42
It's like a water dowsing device.
12
42260
2000
شبیه یک دستگاه یابنده منابع آب هست.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
تنها یک تکه تو خالی پلاستیک است به همراه یک آنتن که می تواند بچرخد
00:47
And you walk around, and it points to things.
14
47260
2000
و حین قدم زدن شما به اشیاء مختلف اشاره می کند.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
مثل وقتی که به دنبال ماریجوانا در گنجه دانش آموزان هستید.
00:52
it'll point right to somebody.
16
52260
2000
درست به یک نفر اشاره خواهد کرد.
00:54
Oh, sorry. (Laughter)
17
54260
2000
اوه، ببخشید. (خنده)
00:56
This particular one that was given to me
18
56260
2000
این یکی که به من داده شده
00:58
finds golf balls,
19
58260
2000
توپ گلف پیدا می کند،
01:00
especially if you're at a golf course
20
60260
2000
مخصوصا اگر در زمین گلف هستید
01:02
and you check under enough bushes.
21
62260
3000
و زیر بوته ها را به اندازه کافی گشته اید.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
خب، در رابطه با اینکه "آسیب چیزهای مسخره ای همچون این چیست؟"
01:08
this device, the ADE 651,
23
68260
3000
این وسیله، ADE 651،
01:11
was sold to the Iraqi government
24
71260
3000
به دولت عراق فروخته شد
01:14
for 40,000 dollars apiece.
25
74260
2000
به مبلغ هریک 40,000 دلار.
01:16
It's just like this one, completely worthless,
26
76260
2000
دقیقا همانند این یکی است، کاملا بی ارزش،
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
که به اصطلاح با
01:20
magnetic ion attraction,"
28
80260
3000
«جذب یون مغناطیسی الکترواستتیکی» کار می کند،
01:24
which translates to
29
84260
2000
و به بیان بهتر
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
«چرندیات شبه علمی» -- نام خوبی است --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
که در آن مشتی واژه که صورت خوشی دارند کنار هم ردیف می شوند،
01:31
but it does absolutely nothing.
32
91260
2000
ولی هیچگونه کارکردی ندارد.
01:33
In this case, at trespass points,
33
93260
3000
در این مورد، در نقاط گذر،
01:36
allowing people to go through
34
96260
2000
با روا دانستن گذر افراد
01:38
because your little tracker device said they were okay,
35
98260
3000
طبق گفته دستگاه گیرنده کوچک شما که آنها موردی ندارند،
01:41
actually cost lives.
36
101260
3000
در حقیقت سبب تلف شدن جان افراد می شود.
01:44
So there is a danger to pseudoscience,
37
104260
2000
پس در شبه علم خطری هست،
01:46
in believing in this sort of thing.
38
106260
3000
در باور به این گونه چیزها.
01:49
So what I want to talk about today is belief.
39
109260
3000
پس آنچه امروز می خواهم در باره اش صحبت کنم باور است.
01:52
I want to believe,
40
112260
2000
می خواهم باور کنم،
01:54
and you do too.
41
114260
2000
و شما نیز همینطور.
01:56
And in fact, I think my thesis here is that
42
116260
2000
و در واقع، گمان می کنم رساله من در اینجا این است که
01:58
belief is the natural state of things.
43
118260
2000
باور وضعیت طبیعی چیز هاست.
02:00
It is the default option. We just believe.
44
120260
2000
گزینه پیش فرض است. ما باور می کنیم.
02:02
We believe all sorts of things.
45
122260
2000
ما همه جور چیزخا را باور می کنیم.
02:04
Belief is natural;
46
124260
2000
باور طبیعیست
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
ناباوری، شک، علم، طبیعی نیستند.
02:08
It's more difficult.
48
128260
2000
دشوار تر اند.
02:10
It's uncomfortable to not believe things.
49
130260
2000
باور نداشتن به چیزها راحت نیست.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
پس همچون Fox Mulder در سریال "X-Files"،
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
چه کسی می خواهد UFOها را باور کند؟ خب، همه مان.
02:18
and the reason for that is because
52
138260
2000
و دلیل آن این است که
02:20
we have a belief engine in our brains.
53
140260
3000
در مغزمان یک موتور باور داریم.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
در اصل، ما پستانداران الگو- یاب هستیم.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
ما نقاط را متصل می کنیم: A به B وصل است؛ B به C.
02:29
And sometimes A really is connected to B,
56
149260
3000
و گاهی A واقعا به B وصل است.
02:32
and that's called association learning.
57
152260
2000
و به آن یادگیری تداعی گرایانه گویند.
02:34
We find patterns, we make those connections,
58
154260
3000
ما الگو می یابیم، ارتباطات را می سازیم،
02:37
whether it's Pavlov's dog here
59
157260
2000
چه اینکه سگ Pavlov باشد
02:39
associating the sound of the bell with the food,
60
159260
3000
که صدای زنگوله را به غذا ربط می دهد،
02:42
and then he salivates to the sound of the bell,
61
162260
2000
و سپس با صدای زنگوله بزاقش ترشح می کند،
02:44
or whether it's a Skinnerian rat,
62
164260
2000
و چه موش Skinnerی باشد،
02:46
in which he's having an association
63
166260
2000
که یک رابطه
02:48
between his behavior and a reward for it,
64
168260
2000
میان رفتار و پاداش آن برقرار کرده،
02:50
and therefore he repeats the behavior.
65
170260
2000
و به همین دلیل رفتار را تکرار می کند.
02:52
In fact, what Skinner discovered
66
172260
2000
در واقع، آنچه Skinner کشف کرد
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
این بود که اگر یک کبوتر را در جعبه ای مثل این بگذارید،
02:57
and he has to press one of these two keys,
68
177260
2000
و او باید یکی از این دو کلید را بفشارد،
02:59
and he tries to figure out what the pattern is,
69
179260
2000
و تلاش کند که الگو را دریابد؛
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
و شما به او پاداش کوچکی در محفظه خوراک دهید.
03:03
if you just randomly assign rewards
71
183260
3000
اگر تنها به تصادف پاداش دهید
03:06
such that there is no pattern,
72
186260
2000
طوری که هیچ الگویی نباشد؛
03:08
they will figure out any kind of pattern.
73
188260
2000
آنها همه نوع الگو خواهند یافت.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
و هر کاری که آخرین بار پیش از دریافت پاداش می کردند،
03:12
they repeat that particular pattern.
75
192260
2000
آن الگو خاص را تکرار می کنند.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
گاهی حتی دو بار خلاف جهت عقربه ساعت دور خود می چرخند،
03:17
once clockwise and peck the key twice.
77
197260
3000
و یک بار در جهت عقربه ساعت و دوبار به دکمه نوک زدن.
03:20
And that's called superstition,
78
200260
2000
و آن خرافه نام دارد.
03:22
and that, I'm afraid,
79
202260
2000
و بیم آن دارم،
03:24
we will always have with us.
80
204260
2000
که همواره با خودمان آن را داشته باشیم.
03:26
I call this process "patternicity" --
81
206260
2000
من این فرآیند را «الگوگرایی» می نامم،
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
یعنی تمایل به یافتن الگوهای معنادار
03:30
in both meaningful and meaningless noise.
83
210260
3000
برای هر دو نویز معنادار و هم بی معنا آست.
03:33
When we do this process, we make two types of errors.
84
213260
3000
طی این فرآیند، ما دو خطا مرتکب می شویم.
03:36
A Type I error, or false positive,
85
216260
2000
یک خطای نوع اول، یا مثبت نادرست،
03:38
is believing a pattern is real
86
218260
2000
باور به وجود داشتن یک الگو است
03:40
when it's not.
87
220260
2000
وقتی که وجود ندارد.
03:42
Our second type of error is a false negative.
88
222260
2000
خطای نوع دوم ما منفی نادرست است.
03:44
A Type II error is not believing
89
224260
2000
خطای نوع دوم، باور نکردن
03:46
a pattern is real when it is.
90
226260
3000
وجود یک الگو است وقتی که وجود دارد.
03:49
So let's do a thought experiment.
91
229260
2000
بیایید یک آزمایش ذهنی انجام دهیم.
03:51
You are a hominid three million years ago
92
231260
2000
شما یک انسان اولیه در سه میلیون سال پیش هستید
03:53
walking on the plains of Africa.
93
233260
3000
در دشتهای آفریقا قدم می زنید.
03:56
Your name is Lucy, okay?
94
236260
2000
نام شما لوسی است، خوبه؟
03:58
And you hear a rustle in the grass.
95
238260
2000
و خش خشی در علفزار می شنوید.
04:00
Is it a dangerous predator,
96
240260
2000
آیا آن یک درنده خطرناک است،
04:02
or is it just the wind?
97
242260
2000
یا فقط باد است؟
04:04
Your next decision could be the most important one of your life.
98
244260
3000
تصمیم بعدی شما می تواند مهمترین تصمیم زندگی تان باشد.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
خب، اگر فکر می کنید که خش خش در علفزار یک درنده خطرناک است
04:10
and it turns out it's just the wind,
100
250260
2000
و معلوم شود که تنها باد بوده،
04:12
you've made an error in cognition,
101
252260
2000
شما یک خطا در ادراک داشته اید،
04:14
made a Type I error, false positive.
102
254260
2000
یک خطای نوع اول، مثبت نادرست.
04:16
But no harm. You just move away.
103
256260
2000
اما بدون آسیب. تنها در می روید.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
محتاط تر هستید. هشیار تر هستید.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
از طرف دیگر، اگر باور داشته باشید که خش خش در علفزار تنها صدای باد بوده،
04:22
and it turns out it's a dangerous predator,
106
262260
3000
و معلوم شود یک درنده خطرناک است،
04:25
you're lunch.
107
265260
2000
یک لقمه چرب می شوید.
04:27
You've just won a Darwin award.
108
267260
2000
برنده یک جایزه داروین شده اید.
04:29
You've been taken out of the gene pool.
109
269260
2000
شما از مخزن ژن ها بیرون انداخته شده اید.
04:31
Now the problem here is that
110
271260
2000
حال مسأله اینجاست که
04:33
patternicities will occur whenever the cost
111
273260
2000
الگویابی زمانی اتفاق می افتد که هزینه
04:35
of making a Type I error
112
275260
2000
ارتکاب یک خطای نوع اول
04:37
is less than the cost of making a Type II error.
113
277260
2000
کمتر از هزینه ارتکاب خطای نوع دوم باشد.
04:39
This is the only equation in the talk by the way.
114
279260
2000
راستی این تنها معادله این سخنرانی است.
04:41
We have a pattern detection problem
115
281260
2000
ما یک مشکل در تشخیص الگو داریم
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
که ارزیابی تفاوت میان خطای نوع اول و نوع دوم
04:46
is highly problematic,
117
286260
2000
بسیار مساله ساز است،
04:48
especially in split-second, life-and-death situations.
118
288260
3000
مخصوصا در کسری از ثانیه و وضعیت مرگ و زندگی.
04:51
So the default position
119
291260
2000
پس موضع پیش فرض
04:53
is just: Believe all patterns are real --
120
293260
2000
تنها «باور به حقیقی بودن تمام الگوها» است.
04:55
All rustles in the grass are dangerous predators
121
295260
3000
«همه خش خش ها در علفزار درندگان خطرناکند
04:58
and not just the wind.
122
298260
2000
و نه فقط صدای باد».
05:00
And so I think that we evolved ...
123
300260
2000
و بدینگونه گمان کنم تکامل یافته ایم ...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
یک انتخاب طبیعی برای گرایش موتور باور ما،
05:05
our pattern-seeking brain processes,
125
305260
2000
فرآیند های الگو-یابی در مغز ما وجود دارد،
05:07
to always find meaningful patterns
126
307260
2000
تا اینکه همواره الگوهای معنادار بیابد
05:09
and infuse them with these sort of
127
309260
2000
و آنها را برانگیزد با چنین
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
عامل های عامد و درنده ای که دوباره بهشان باز خواهم گشت.
05:14
So for example, what do you see here?
129
314260
2000
خب برای نمونه، اینجا چه می بینید؟
05:16
It's a horse head, that's right.
130
316260
2000
سر یک اسب است، درست است.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
شبیه یک اسب است. می بایست یک اسب باشد.
05:20
That's a pattern.
132
320260
2000
این یک الگوست.
05:22
And is it really a horse?
133
322260
2000
و آیا واقعا این یک اسب است؟
05:24
Or is it more like a frog?
134
324260
3000
یا بیشتر شبیه یک قورباغه است؟
05:27
See, our pattern detection device,
135
327260
2000
ببینید، اسباب الگویابی ما،
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
که به نظر در قشر قدامی مغر جا دارد --
05:32
it's our little detection device there --
137
332260
3000
وسیله کوچک تشخص ما در آنجا --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
می تواند به راحتی گمراه بشه و مشکل همین جاست.
05:37
For example, what do you see here?
139
337260
2000
برای نمونه، اینجا چه می بینید؟
05:39
Yes, of course, it's a cow.
140
339260
3000
بله البته این یک گاوه
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
وقتی من مغز رو آماده می کنم -- آمادگی دادن ادراکی نام دارد --
05:45
once I prime the brain to see it,
142
345260
2000
وقتی مغز را آماده دیدن آن می کنم،
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
دوباره ظاهر می شود حتی بدون الگویی که روی آن قرار دادم.
05:50
And what do you see here?
144
350260
2000
و اینجا چی می بینید؟
05:52
Some people see a Dalmatian dog.
145
352260
2000
برخی یک سگ خالخالی می بینند.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
بله، اینجاست. و این هم آماده کردن ذهن.
05:56
So when I go back without the prime,
147
356260
2000
پس وقتی بر میگردم به حالت بدون آماده سازی،
05:58
your brain already has the model
148
358260
2000
مغز شما از پیش مدل را دارد
06:00
so you can see it again.
149
360260
2000
پس می توانید دوباره ببینیدش
06:02
What do you see here?
150
362260
3000
اینجا چه می بینید؟
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
سیاره زحل. بله، خوب است.
06:07
How about here?
152
367260
3000
اینجا چطور؟
06:10
Just shout out anything you see.
153
370260
3000
هر چه دیدید رو بلند بگین.
06:14
That's a good audience, Chris.
154
374260
2000
کریس، اینها حضار خوبی اند.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
زیرا هیچ چیز در این نیست. البته، ظاهرا چیزی نیست.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
این یک آزمایش است که توسط Jennifer Whitson انجام شده
06:22
at U.T. Austin
157
382260
2000
در دانشگاه تکزاس در آستین
06:24
on corporate environments
158
384260
2000
در محیط های کاری
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
و اینکه آیا احساس تردید و بدون کنترل بودن
06:29
makes people see illusory patterns.
160
389260
2000
سبب دیدن الگوهای وهمی در افراد می شود.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
یعنی، تقریبا همه سیاره زحل را می بینند.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
افرادی که در شرایط خارج از کنترل قرار داده می شوند
06:37
are more likely to see something in this,
163
397260
2000
به احتمال بیشتری چیزی در این می بینند،
06:39
which is allegedly patternless.
164
399260
3000
که ظاهرا بدون الگوست.
06:42
In other words, the propensity to find these patterns
165
402260
3000
به بیان دیگر، گرایش یافتن این الگوها
06:45
goes up when there's a lack of control.
166
405260
3000
زمانی که عدم کنترل وجود دارد بالا می رود.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
برای نمون، بازیکنان بیس بال آشکارا خرافی اند
06:51
when they're batting,
168
411260
2000
وقتی توپزن هستند،
06:53
but not so much when they're fielding.
169
413260
2000
اما نه خیلی وقتی که در زمین می دوند.
06:55
Because fielders are successful
170
415260
2000
چون دونده ها
06:57
90 to 95 percent of the time.
171
417260
2000
در 90 تا 95 درصد مواقع موفق اند.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
بهترین توپزن ها 7 بار از 10 بار نا موفق اند.
07:02
So their superstitions, their patternicities,
173
422260
2000
بنابر این خرافات و الگویابی آنها،
07:04
are all associated with feelings of lack of control
174
424260
3000
همه به احساس عدم کنترل مربوط می شود
07:07
and so forth.
175
427260
2000
و به همین ترتیب.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
در این مورد خاص چه می بینید، در این منطقه؟
07:13
Anybody see an object there?
177
433260
2000
کسی در آن چیزی دیده؟
07:15
There actually is something here,
178
435260
2000
اینجا در واقع چیزی وجود دارد،
07:17
but it's degraded.
179
437260
2000
اما مخدوش است.
07:19
While you're thinking about that,
180
439260
2000
حین اینکه به آن می اندیشید،
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
این یک آزمون است که توسط Susan Blackmore انجام شد،
07:23
a psychologist in England,
182
443260
2000
یک روانشناس در انگلستان،
07:25
who showed subjects this degraded image
183
445260
2000
که به اشخاص این تصویر مخدوش را نشان داد
07:27
and then ran a correlation between
184
447260
2000
و وابستگی میان
07:29
their scores on an ESP test:
185
449260
2000
امتیاز آنها در یک آزمون ESP را محاسبه کرد،
07:31
How much did they believe in the paranormal,
186
451260
2000
که چقدر باور دارند به فراهنجار،
07:33
supernatural, angels and so forth.
187
453260
3000
ماورا الطبیعه، فرشتگان و از این قبیل.
07:36
And those who scored high on the ESP scale,
188
456260
3000
و آنهایی که در مقیاس ESP امتیاز بالا گرفتند،
07:39
tended to not only see
189
459260
2000
گرایش داشتند به اینکه نه تنها
07:41
more patterns in the degraded images
190
461260
2000
الگوهای بیشتری در تصاویر مخدوش ببینند،
07:43
but incorrect patterns.
191
463260
2000
بلکه الگوهای نادرست ببینند.
07:45
Here is what you show subjects.
192
465260
2000
این چیزی است که شما سوژه ها نشان می دهید.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
ماهی 20 درصد، 50 درصد
07:50
and then the one I showed you,
194
470260
2000
و آن که من نشان تان دادم،
07:52
70 percent.
195
472260
2000
70 درصد مخدوش شده.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
آزمایش مشابهی توسط روانشناس [سوئیسی] دیگری انجام شده
07:56
named Peter Brugger,
197
476260
2000
به نام Peter Brugger،
07:58
who found significantly more meaningful patterns
198
478260
3000
که متوجه شد الگوهای معنادار بسیار بیشتری
08:01
were perceived on the right hemisphere,
199
481260
2000
در نیمکره راست مغز،
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
توسط منطقه چپ بصری، نسبت به نیمکره چپ مغز درک می شدند.
08:06
So if you present subjects the images such
201
486260
2000
پس اگر به سوژه ها تصاویری نشان دهید
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
که نهایتا به نیمکره راست منتهی می شوند به جای چپ،
08:11
then they're more likely to see patterns
203
491260
2000
آنها به احتمال بیشتری الگو خواهند دید
08:13
than if you put it on the left hemisphere.
204
493260
2000
نسبت به اینکه به نیمکره چپ برسد.
08:15
Our right hemisphere appears to be
205
495260
2000
نیمکره راست ما به نظر
08:17
where a lot of this patternicity occurs.
206
497260
2000
جایی است که بیشتر در آن الگوگرایی ها صورت می گیرد.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
بنابراین ما سعی می کنیم در مغز دقیق شویم تا
08:21
to see where all this happens.
208
501260
2000
ببینیم همه این ها کجا رخ می دهند.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger و همکارش، Christine Mohr،
08:26
gave subjects L-DOPA.
210
506260
2000
به سوژه ها L-DOPA دادند.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA یک داروست، همانطور که می دانید، برای درمان پارکینسون تجویز می شود،
08:31
which is related to a decrease in dopamine.
212
511260
3000
که مربوط به کاهش دوپامین می شود.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA دوپامین را افزایش می دهد.
08:36
An increase of dopamine caused
214
516260
2000
و افزایش دوپامین سبب شد
08:38
subjects to see more patterns
215
518260
2000
سوژه ها الگوهای بیشتری ببینند
08:40
than those that did not receive the dopamine.
216
520260
2000
نسبت به کسانی که دوپامین دریافت نکرده بودند.
08:42
So dopamine appears to be the drug
217
522260
2000
پس دوپامین ظاهرا دارویی است که
08:44
associated with patternicity.
218
524260
2000
به الگوگرایی مربوط است.
08:46
In fact, neuroleptic drugs
219
526260
2000
در حقیقت، داروهای اعصاب
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
که برای برطرف کردن رفتار های عصبی بکار می روند،
08:50
things like paranoia, delusions
221
530260
2000
چیزهایی مانند سوظن، توهم
08:52
and hallucinations,
222
532260
2000
و دیدن اشباح خیالی،
08:54
these are patternicities.
223
534260
2000
اینها همه الگویابی اند.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
اینها الگوهای نادرست اند. اینها مثبت نادرست اند، خطای نوع اول.
08:59
And if you give them drugs
225
539260
2000
و اگر به آنها داروهایی دهید
09:01
that are dopamine antagonists,
226
541260
2000
که پاد دوپامین اند،
09:03
they go away.
227
543260
2000
الگویابی ها از بین می روند.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
یعنی، میزان دوپامین را کاهش می دهید،
09:07
and their tendency to see
229
547260
2000
و گرایش آنها به دیدن
09:09
patterns like that decreases.
230
549260
2000
چنان الگوهایی کاهش می یابد.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
از طرف دیگر، آمفتامین هایی همچون کوکائین،
09:14
are dopamine agonists.
232
554260
2000
تحریک کننده دوپامین اند.
09:16
They increase the amount of dopamine.
233
556260
2000
به میزان دوپامین می افزایند.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
در نتیجه به احتمال زیاد حس سرخوشی،
09:21
creativity, find more patterns.
235
561260
2000
خلاقیت، و یافتن الگوهای بیشتر می کنید.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
در حقیقت، من اخیرا Robin Williams را دیدم که
09:25
talk about how he thought he was much funnier
237
565260
2000
می گفت که چگونه خیال می کرده خیلی بامزه تر است
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
وقتی کوکائین مصرف می کرده، وقتی اون مشکل را نسبت به الان داشت.
09:30
So perhaps more dopamine
239
570260
2000
پس احتمالا دوپامین بیشتر
09:32
is related to more creativity.
240
572260
2000
به خلاقیت بیشتر ربط دارد.
09:34
Dopamine, I think, changes
241
574260
2000
دوپامین، به نظرم، تغییر دهنده
09:36
our signal-to-noise ratio.
242
576260
2000
نسبت سیگنال-به-نویز ما است.
09:38
That is, how accurate we are
243
578260
2000
یعنی چقدر دقیق هستیم
09:40
in finding patterns.
244
580260
2000
در یافتن الگوها.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
اگر پایین باشد، به احتمال بیشتری خطای نوع دو انجام می دهید.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
الگوهای واقعی را از دست می دهید. خوب نیست خیلی شکاک باشید.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
اگر خیلی شکاک باشید، ایده های واقعا جالب را از دست خواهید داد.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
درست به اندازه، خلاق اید، و در ضمن، خیلی هم گول چرندیات را نمی خورید.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
به میزان زیاد نیز سبب می شود همه جا الگو ببینید.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
هر گاه یکی به شما می نگرد، گمان می کنید مردم به شما خیره شده اند.
10:00
You think people are talking about you.
251
600260
2000
گمان می کنید مردم درباره شما حرف می زنند.
10:02
And if you go too far on that, that's just simply
252
602260
2000
و اگر خیلی زیاد ادامه دهید، خیلی ساده
10:04
labeled as madness.
253
604260
2000
دیوانه شمرده می شوید.
10:06
It's a distinction perhaps we might make
254
606260
2000
این تمایزی است که احتمالا قائل خواهیم شد
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
میان دو برنده نوبل، Richard Feynman
10:10
and John Nash.
256
610260
2000
و John Nash.
10:12
One sees maybe just the right number
257
612260
2000
یکی شاید به اندازه
10:14
of patterns to win a Nobel Prize.
258
614260
2000
الگو می بینید تا جایزه نوبل ببرد.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
دیگری، شاید خیلی بیش از حد.
10:18
And we then call that schizophrenia.
260
618260
3000
و ما آن را اسکیزوفرنی می نامیم.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
پس نسبت سیگنال-به-نویز ما را با مسئله تشخیص-الگو مواجه می کند.
10:24
And of course you all know exactly
262
624260
2000
و البته همه شما به درستی می دانید
10:26
what this is, right?
263
626260
2000
که این چه مشکلیست، درسته.
10:28
And what pattern do you see here?
264
628260
2000
و چه الگویی را در اینجا می بینید؟
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
دوباره، من اینجا دارم قشر قدامی مغز شما را به آزمایش می گذارم،
10:33
causing you conflicting pattern detections.
266
633260
3000
که سبب تشخیص الگو های متعارض می شود.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
می دانید، البته، این کفش Via Uno است.
10:38
These are sandals.
268
638260
3000
این ها سندل هستند.
10:41
Pretty sexy feet, I must say.
269
641260
3000
باید بگویم چه پاهای سکسی ای.
10:44
Maybe a little Photoshopped.
270
644260
2000
شاید کمی فوتوشاپ شده.
10:46
And of course, the ambiguous figures
271
646260
2000
و البته، اشکال دو پهلو
10:48
that seem to flip-flop back and forth.
272
648260
2000
که به نظر مدام جای هم را می گیرند.
10:50
It turns out what you're thinking about a lot
273
650260
2000
معلوم می شود چیزی که زیاد به آن فکر می کنید
10:52
influences what you
274
652260
2000
تاثیر می گذار بر آنچه
10:54
tend to see.
275
654260
2000
گرایش به دیدنش دارید.
10:56
And you see the lamp here, I know.
276
656260
2000
و شما اینجا یک چراغ می بینید، می دانم.
10:58
Because the lights on here.
277
658260
3000
چون چراغها روشن اند.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
البته، با سپاس از جنبش دوستداران محیط زیست
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
همه ما به مصائب پستانداران دریایی حساسیم.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
پس آنچه در این تصویر مبهم خاص می بینید
11:09
is, of course, the dolphins, right?
281
669260
2000
البته، دلفین ها اند، درسته.
11:11
You see a dolphin here,
282
671260
2000
شما اینجا دلفین می بینید.
11:13
and there's a dolphin,
283
673260
2000
و اینجا یک دلفین است.
11:15
and there's a dolphin.
284
675260
2000
و یک اینجا یک دلفین است.
11:17
That's a dolphin tail there, guys.
285
677260
3000
آن دم دلفین است، بچه ها.
11:20
(Laughter)
286
680260
3000
(خنده)
11:25
If we can give you conflicting data, again,
287
685260
3000
اگر بتونیم به شما داده های متناقض دهیم، دوباره،
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
قشر قدامی مغز شما به پرواز در می آید.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
اگر به این پایین نگاه کنید، قابل قبول است. اگر این بالا را نگاه کنید، داده ها متناقض می گیرید.
11:34
And then we have to flip the image
290
694260
2000
و سپس باید تصویر را سر و ته کنیم
11:36
for you to see that it's a set up.
291
696260
2000
تا پی ببرید که این یک صحنه سازی است.
11:40
The impossible crate illusion.
292
700260
2000
توهم جعبه ناممکن.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
گول زدن مغز در دو-بعد ساده است.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
پس می گویید، «اه، Shermer دست بردار، هر کسی بلد است این کار را
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
با چنین خطای دیدی در یک کتاب درسی ابتدایی روانشناسی انجام دهد.»
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
خب این هم مرحوم Jerry Andrus بزرگ با
11:50
"impossible crate" illusion in 3D,
297
710260
3000
خطای در سه بعدی «جعبه ناممکن»،
11:53
in which Jerry is standing inside
298
713260
2000
که Jerry ایستاده درون
11:55
the impossible crate.
299
715260
2000
جعبه ناممکن.
11:57
And he was kind enough to post this
300
717260
2000
و او به اندازه کافی مهربان بوده که این را فرستاده
11:59
and give us the reveal.
301
719260
2000
و به ما راه حل را نشان دهد.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
البته، زاویه دوربین همه چیز است. عکاس آنجاست
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
و این تخته به نظر با این یکی همپوشانی دارد، و این یکی با آن یکی، و الی آخر.
12:07
But even when I take it away,
304
727260
2000
اما وقتی می برمش،
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
خطای دید اینچنین قدرتمند است چون مغز ما شکل گرفته تا
12:11
to find those certain kinds of patterns.
306
731260
3000
آن گونه الگوهای خاص را بیابد.
12:14
This is a fairly new one
307
734260
2000
این تقریبا جدید است
12:16
that throws us off because of the conflicting patterns
308
736260
2000
که ما را گول می زند به خاطر الگوهای متناقض
12:18
of comparing this angle with that angle.
309
738260
3000
مقایسه این زاویه با آن زاویه.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
در حقیقت، هر دو عکس عینا یکسان کنار هم اند.
12:24
So what you're doing is comparing that angle
311
744260
2000
بنا بر این آنچه شما دارید انجام می دهید مقایسه آن زاویه است
12:26
instead of with this one, but with that one.
312
746260
2000
به جای با این یکی، با آن یکی.
12:28
And so your brain is fooled.
313
748260
2000
و بدین سان مغز شما گمراه می شود.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
و باز هم، اسباب تشخیص الگوی شما گول خوردند.
12:32
Faces are easy to see
315
752260
2000
چهره ها را می توان آسان دید
12:34
because we have an additional evolved
316
754260
2000
زیرا ما یک نرم افزار تکامل یافته
12:36
facial recognition software
317
756260
2000
اضافی تشخیص چهره
12:38
in our temporal lobes.
318
758260
3000
در لوب گیجگاهی مغزمان داریم.
12:41
Here's some faces on the side of a rock.
319
761260
3000
اینجا چند صورت است بر یک تخته سنگ.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
من در واقع به این اطمینان ندارم -- شاید فتوشاپ شده باشد.
12:47
But anyway, the point is still made.
321
767260
2000
ولی به هر حال، منظور رسانده شد.
12:49
Now which one of these looks odd to you?
322
769260
2000
حال کدامیک از این دو به نظرتان عجیب می آید؟
12:51
In a quick reaction, which one looks odd?
323
771260
2000
در یک واکنش سریع، کدام عجیب به نظر می رسد؟
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
آنی که در چپ است. باشد. پس می چرخانم شان
12:55
so it'll be the one on the right.
325
775260
2000
پس در سمت راست خواهد افتاد.
12:57
And you are correct.
326
777260
2000
و درست گفتید.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
یک خطای دید تقریبا معروف -- نخستین بار با Margaret Thatcher انجام شد.
13:02
Now, they trade up the politicians every time.
328
782260
2000
اکنون، هر بار سیاست مدار ها را اینطور می کنند.
13:04
Well, why is this happening?
329
784260
2000
خب، چرا این رخ می دهد؟
13:06
Well, we know exactly where it happens,
330
786260
2000
خب، ما می دانیم دقیقا کجا رخ می دهد،
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
در لوب گیجگاهی مغز درست در امتداد بالای گوشتان آنجا.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
در ساختاری کوچک بنام چینخوردگی دوکی.
13:14
And there's two types of cells that do this,
333
794260
2000
و دو نوع سلول است که این کار را می کنند،
13:16
that record facial features either globally,
334
796260
3000
که ویژگی های چهره را یا به صورت کلی،
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
یا جزئی ثبت می کنند. این سلول های بزرگ، سریع شلیک کننده،
13:21
first look at the general face.
336
801260
2000
نخست به کلیات چهره نگاه می کنند.
13:23
So you recognize Obama immediately.
337
803260
2000
در نتیجه شما Obama را بلادرنگ می شناسید.
13:25
And then you notice something quite
338
805260
2000
و سپس متوجه می شوید چیزی
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
کمابیش غیر عادی در مورد چشمها و دهان است.
13:29
Especially when they're upside down,
340
809260
2000
مخصوصا وقتی سر و ته هستند،
13:31
you're engaging that general facial recognition software there.
341
811260
3000
آن نرم افزار تشخیص کلی چهره را دارید آنجا بکار می بندید.
13:34
Now I said back in our little thought experiment,
342
814260
3000
حال گفتم بر گردیم به آزمایش ذهنی کوچک خود،
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
شما یک انسان اولیه هستید که در دشتهای آفریقا قدم می زنید.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
آیا تنها باد است یا یک درنده خطرناک؟
13:42
What's the difference between those?
345
822260
2000
تفاوت آن دو چیست؟
13:44
Well, the wind is inanimate;
346
824260
2000
خب، باد بی جان است؛
13:46
the dangerous predator is an intentional agent.
347
826260
2000
درنده خطرناک یک عامل عامد است.
13:48
And I call this process agenticity.
348
828260
2000
و من این فرآیند را عامل گرایی می نامم.
13:50
That is the tendency to infuse patterns
349
830260
2000
یعنی گرایش به حس کردن الگوهای
13:52
with meaning, intention and agency,
350
832260
2000
با معنی، هدفمند و با منظور،
13:54
often invisible beings from the top down.
351
834260
3000
و گه گاه موجودات ناپیدا از بالای سر.
13:57
This is an idea that we got
352
837260
2000
یک ایده ای است که پیدا کرده ایم
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
از یک TEDباز در اینجا، Dan Dennet،
14:01
who talked about taking the intentional stance.
354
841260
2000
که در مورد گرفتن موضع عامد سخن گفته.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
پس این گونه ای گسترش یافته از آن است، به نظرم، برای توضیح بسیاری چیزها محتلف،
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
ارواح، اشباح، خدایان، اهریمنان، فرشتگان،
14:09
aliens, intelligent designers,
357
849260
2000
موجودات فضایی، خالقان هوشمند،
14:11
government conspiracists
358
851260
2000
طرفداران تئوری توطئه حکومتی
14:13
and all manner of invisible agents
359
853260
2000
و همه گونه عامل ناپیدای
14:15
with power and intention, are believed
360
855260
2000
توانمند و هدفمند، به نظر
14:17
to haunt our world and control our lives.
361
857260
2000
به دنیای ما وارد شده و زندگیمان را کنترل می کنند.
14:19
I think it's the basis of animism
362
859260
2000
گمان می کنم این پایه ی جان پنداری است
14:21
and polytheism and monotheism.
363
861260
3000
و چند خدایی و تک خدایی.
14:24
It's the belief that aliens are somehow
364
864260
2000
باوری است که در آن موجودات فضایی کمابیش
14:26
more advanced than us, more moral than us,
365
866260
2000
از ما پیشرفته ترند، از ما با اخلاق ترند،
14:28
and the narratives always are
366
868260
2000
و روایت ها همواره اینگونه است که
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
دارند از آن بالاها می آیند تا ما را نجات دهند.
14:33
The intelligent designer's always portrayed
368
873260
2000
خالق هوشمند همواره اینطور تصویر شده
14:35
as this super intelligent, moral being
369
875260
3000
که ابر هوشمند و با اخلاق است
14:38
that comes down to design life.
370
878260
2000
که می آید این پایین تا زندگی را طراحی کند.
14:40
Even the idea that government can rescue us --
371
880260
2000
حتی ایده ی اینکه دولت می تواند نجاتمان دهد.
14:42
that's no longer the wave of the future,
372
882260
2000
آن دیگر موج آینده نیست.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
ولی، به نظرم، نوعی عامل گرایی است،
14:46
projecting somebody up there,
374
886260
2000
تصور کردن یکی در آن بالا،
14:48
big and powerful, will come rescue us.
375
888260
2000
بزرگ و توانمند که می آید نجاتمان دهد.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
و این همچنین، به نظرم، پایه ی تئوری های توطئه است.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
کسی آن پشت پنهان شده و صحنه گردان است،
14:55
whether it's the Illuminati
378
895260
2000
چه دسته روشن-ضمیران باشد
14:57
or the Bilderbergers.
379
897260
2000
و چه گروه بیلدربرگ.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
ولی این یک مشکل تشخیص الگو است، مگر نه.
15:01
Some patterns are real and some are not.
381
901260
2000
برخی الگو ها حقیقی اند و برخی نه.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
آیا جان اف کندی با توطئه ترور شد یا توسط تروریستی مستقل؟
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
خب، اگر بروید آنجا -- هر روزی بروید یک عده آنجا هستند --
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
همانند وقتی که من رفتم، اینجا -- دارند نشانم می دهند تیراندازان مختلف کجا بودند.
15:12
My favorite one was he was in the manhole.
385
912260
3000
آنی که در چاه بود مورد علاقه من است.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
و در آخرین ثانیه پرید بیرون، و آن تیر را شلیک کرد.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
ولی البته، آبراهام لینکن طی توطئه ترور شد.
15:20
So we can't just uniformly dismiss
388
920260
2000
پس نمی توان تمام
15:22
all patterns like that.
389
922260
2000
اینچنین الگوهایی را مردود شمرد.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
زیرا، بگذارید قبول کنیم، برخی الگوها حقیقی اند.
15:26
Some conspiracies really are true.
391
926260
2000
برخی توطئه ها واقعیت دارند.
15:30
Explains a lot, maybe.
392
930260
2000
خیلی گویا است، انگار.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
و 11 سپتامبر یک تئوری توطئه دارد. یک توطئه است.
15:35
We did a whole issue on it.
394
935260
2000
ما یک شماره نشریه را به آن اختصاص دادیم.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
ریختن طرح 19 عضو القاعده برای هدایت هواپیماها به ساختمان ها
15:39
constitutes a conspiracy.
396
939260
2000
نشان از یک توطئه است.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
اما این چیزی نیست که "حقیقت یابان 9/11" فکر می کنند.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
آنها فکر می کنند یک برنامه داخلی در دولت بوش بوده.
15:46
Well, that's a whole other lecture.
399
946260
2000
خب، آن یک سخنرانی دیگر است.
15:48
You know how we know that 9/11
400
948260
2000
ولی می دانید چرا فکر می کنیم 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
توسط دولت بوش انجام نشد؟
15:52
Because it worked.
402
952260
2000
زیرا کار کرد.
15:54
(Laughter)
403
954260
3000
(خنده)
15:57
(Applause)
404
957260
3000
(کف زدن)
16:00
So we are natural-born dualists.
405
960260
2000
پس ما دوگانه گرایان زاده طبیعت ایم.
16:02
Our agenticity process comes from
406
962260
2000
فرآیند عامل گرایی مان سرچشمه از
16:04
the fact that we can enjoy movies like these.
407
964260
2000
این حقیقت می گیرد که از فیلمهایی چنین خوشمان می آید.
16:06
Because we can imagine, in essence,
408
966260
2000
زیرا می توانیم تصور کنیم، در اصل،
16:08
continuing on.
409
968260
2000
ادامه را.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
می دانیم اگر لوب گیجگاهی را تحریک کنید،
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
می توانید تجربه حس خارج-از-بدن را بیافرینید،
16:14
near-death experiences,
412
974260
2000
احساس های نزدیک-به-مرگ،
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
که می توان با تنها لمس چند الکترود به لوب گیجگاهی انجام داد.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
یا می توانید با از هوش رفتن انجام دهید،
16:21
by accelerating in a centrifuge.
415
981260
2000
با شتاب گرفتن در یک دستگاه گریز از مرکز.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
نبود یا کمبود اکسیژن پیدا میکند.
16:26
And the brain then senses
417
986260
2000
و مغز سپس حس می کند
16:28
that there's an out-of-body experience.
418
988260
2000
تجربه ی خارج-از-بدن پیدا کرده است.
16:30
You can use -- which I did, went out and did --
419
990260
2000
می توانید -- که من انجام دادم، رفتم و انجام دادم --
16:32
Michael Persinger's God Helmet,
420
992260
2000
"کلاه خدا"ی مایکل پرسینجر را بکار برید،
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
که لوب گیجگاهی شما را با امواج الکترومغناطیس بمباران می کند.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
و شما تجربه خارج-از-بدن را حس می کنید.
16:39
So I'm going to end here with a short video clip
423
999260
2000
پس می خواهم با یک کلیپ ویدئویی کوتاه خاتمه دهم
16:41
that sort of brings all this together.
424
1001260
2000
که کمابیش شامل همه اینها می شود.
16:43
It's just a minute and a half.
425
1003260
2000
فقط یک و نیم دقیقه است.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
جمع بندی همه اینهاست در قدرت انتظار داشتن و قدرت باور.
16:48
Go ahead and roll it.
427
1008260
2000
بروید ببینید.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
این مکانی است که برای وانمود کردن آزمون هنرپیشگی برگزیدند
16:53
for an advert for lip balm.
429
1013260
2000
برای آگهی بازرگانی یک مرطوب کننده لب.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
امیدواریم بتوانیم بخشی از این را
16:57
in a national commercial, right?
431
1017260
2000
در یک آگهی ملی استفاده کنیم، درست.
16:59
And this is test on some lip balms
432
1019260
2000
و این آزمون برای برخی مرطوب کننده های لب
17:01
that we have over here.
433
1021260
2000
که اینجا داریم.
17:03
And these are our models who are going to help us,
434
1023260
2000
و اینها مدل های ما اند که به ما کمک خواهند کرد،
17:05
Roger and Matt.
435
1025260
2000
راجر و مت.
17:07
And we have our own lip balm,
436
1027260
2000
و ما مرطوب کننده لب خودمان را داریم،
17:09
and we have a leading brand.
437
1029260
2000
و یک مارک پیشرو داریم.
17:11
Would you have any problem
438
1031260
2000
آیا مشکلی دارید
17:13
kissing our models to test it?
439
1033260
2000
با بوسیدن مدل هایمان برای آزمودنش؟
17:15
Girl: No.
440
1035260
2000
نه.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
ندارید؟ (دختر: نه.) خانم: فکر می کنید خوب است؟
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
خوب است. (خانم: بسیار خوب.)
17:21
So this is a blind test.
443
1041260
3000
خب این یک آزمون چشم بسته است.
17:24
I'm going to ask you to go ahead
444
1044260
2000
می خواهم از شما تقاضا کنم که
17:26
and put a blindfold on.
445
1046260
2000
یک چشم بند بزنید.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
کی، آیا اکنون چیزی میبینی؟ ( نه.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
آن را طوری بکشید که حتی پایین را هم نتوانید ببینید. ( بسیار خوب.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
اکنون کاملا چشم بسته است، درسته؟
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
بله. ( بسیار خب.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
حال، چیزی که در این آزمون دنبالش هستم
17:41
is how it protects your lips,
451
1061260
3000
این است که چطور از لب های شما محافظت می کند،
17:44
the texture, right,
452
1064260
2000
بافتش، درست،
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
و اینکه آیا میتوانید هیچ طعمی تشخیص دهید.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
بسیارخوب. ( آیا پیش از این بوسیده اید؟)
17:52
Girl: No.
455
1072260
2000
نه.
17:54
Woman: Take a step here.
456
1074260
2000
یک گام بردارید اینجا.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
بسیار خب، اکنون ازتان میخواهم لبتان را غنچه کنید.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
بسیار غنچه کرده و کمی خم شوید، بسیار خب.
18:06
(Music)
459
1086260
4000
(موسیقی)
18:10
(Laughter)
460
1090260
5000
(خنده)
18:19
(Laughter)
461
1099260
3000
(خنده)
18:30
Woman: Okay.
462
1110260
2000
بسیار خب.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
و، جنیفر، چطور بود؟
18:34
Jennifer: Good.
464
1114260
2000
خوب.
18:36
(Laughter)
465
1116260
7000
(خنده)
18:43
Girl: Oh my God!
466
1123260
2000
آه، خدای من.
18:45
(Laughter)
467
1125260
4000
(خنده)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
بسیار سپاسگزارم. خیلی ممنون.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7