The pattern behind self-deception | Michael Shermer

736,418 views ・ 2010-06-14

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Nahid Nour المدقّق: Anwar Dafa-Alla
00:16
So since I was here last in '06,
0
16260
3000
حسنا، منذ ان كنت هنا اخر مرة في 2006
00:19
we discovered that global climate change
1
19260
2000
اكتشفنا ان تغيير المناخ العالمي
00:21
is turning out to be a pretty serious issue,
2
21260
2000
قد اتضح انه قضية خطيرة
00:23
so we covered that fairly extensively
3
23260
2000
لذلك قمنا بتغطية الموضوع على نطاق واسع
00:25
in Skeptic magazine.
4
25260
2000
بمجلة سكيبتك (المتشككون)
00:27
We investigate all kinds
5
27260
2000
قمنا بالتحقيق في كل انواع
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
التناقضات العلمية و شبه العلمية
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
و لكن تبين انه لا داعي للقلق حول اي من هذا
00:34
because the world's going to end in 2012.
8
34260
2000
لأن العالم سينتهي في 2012
00:36
Another update:
9
36260
2000
تحديث اخر:
00:38
You will recall I introduced you guys
10
38260
2000
لعلكم تذكرون عندما عرفتكم
00:40
to the Quadro Tracker.
11
40260
2000
على متعقب كوادرو
00:42
It's like a water dowsing device.
12
42260
2000
انه كجهاز الغطس في المياه
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
انها قطعة من البلاستيك جوفاء مع هوائي يدور حولها
00:47
And you walk around, and it points to things.
14
47260
2000
وبينما تتجول انت، تشير هي الى أشياء.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
مثلا اذا كنت تبحث عن الماريجوانا في خزائن الطلبة.
00:52
it'll point right to somebody.
16
52260
2000
ستشير فورا الى شخص ما.
00:54
Oh, sorry. (Laughter)
17
54260
2000
اه، اسف. (ضحك)
00:56
This particular one that was given to me
18
56260
2000
هذه القطعة بالتحديد التي اعطيت لي
00:58
finds golf balls,
19
58260
2000
تجد كرات الغولف
01:00
especially if you're at a golf course
20
60260
2000
خاصة ان كنت في ملعب للغولف
01:02
and you check under enough bushes.
21
62260
3000
و تقوم بالبحث تحت الشجيرات بما فيه الكفاية
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
حسنا، تحت اطار فئة " ماهو الضرر من اشياء سخيفة كهذه؟"
01:08
this device, the ADE 651,
23
68260
3000
هذا الجهاز، ايه دي اي 651،
01:11
was sold to the Iraqi government
24
71260
3000
تم بيعه الى الحكومة العراقية
01:14
for 40,000 dollars apiece.
25
74260
2000
بمبلغ 40,000 دولار للقطعة الواحدة
01:16
It's just like this one, completely worthless,
26
76260
2000
مجرد قطعة كهذه، لا قيمة لها تماما
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
حيث يزعم انها تعمل بكهرباء
01:20
magnetic ion attraction,"
28
80260
3000
جذب الايونات المغناطيسية
01:24
which translates to
29
84260
2000
وهو ما يترجم الى
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"هراء علمي زائف"-- لتكن هذه الكلمة اللطيفة--
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
عندما تقوم بصياغة مجموعة من الكلمات التي تبدو جيدة معا
01:31
but it does absolutely nothing.
32
91260
2000
ولكن لا فائدة منها على الاطلاق
01:33
In this case, at trespass points,
33
93260
3000
في هذه الحالة عند نقاط العبور،
01:36
allowing people to go through
34
96260
2000
السماح لاشخاص بالمرور
01:38
because your little tracker device said they were okay,
35
98260
3000
لان جهازك الصغير للتعقب يوافق على ذلك
01:41
actually cost lives.
36
101260
3000
قد يكلف ارواحا
01:44
So there is a danger to pseudoscience,
37
104260
2000
اذن هنالك اخطار للهراء العلمي الزائف
01:46
in believing in this sort of thing.
38
106260
3000
في تصديق مثل هذه الاشياء
01:49
So what I want to talk about today is belief.
39
109260
3000
ما اريد ان اتحدث عنه اليوم هو الايمان (التصديق)
01:52
I want to believe,
40
112260
2000
انا اريد ان اصدق
01:54
and you do too.
41
114260
2000
وانت ايضا تريد ذلك
01:56
And in fact, I think my thesis here is that
42
116260
2000
في الواقع اعتقد ان رسالتي هنا هي
01:58
belief is the natural state of things.
43
118260
2000
ان التصديق هوالحالة الطبيعية للامور
02:00
It is the default option. We just believe.
44
120260
2000
انه الخيار الفطري، نحن نصدق بالفطرة
02:02
We believe all sorts of things.
45
122260
2000
نصدق كل انواع الاشياء
02:04
Belief is natural;
46
124260
2000
التصديق هو امر طبيعي
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
اما عدم التصديق، التشكيك، العلوم فهي امور غير طبيعية
02:08
It's more difficult.
48
128260
2000
انها اكثر تعقيدا
02:10
It's uncomfortable to not believe things.
49
130260
2000
انه من غير المريح ان لاتصدق الاشياء
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
مثل شخصية فوكس مولدر ببرنامج "اكس فايلز"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
من يريد ان يعتقد بوجود الاطباق الطائرة؟ حسنا كلنا نريد
02:18
and the reason for that is because
52
138260
2000
والسبب وراء ذلك هو
02:20
we have a belief engine in our brains.
53
140260
3000
اننا نمتلك محركات للتصديق داخل عقولنا
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
في الاساس، نحن كائنات باحثة عن النمط
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
نحن نربط النقاط: النقطة أ مرتبطة بالنقطة ب والنقطة ب بالنقطة ج.
02:29
And sometimes A really is connected to B,
56
149260
3000
وفي بعض الاحيان تكون النقطة أ مرتبطة فعلا بالنقطة ب.
02:32
and that's called association learning.
57
152260
2000
وهذا مايسمى بالتعلم العلائقي
02:34
We find patterns, we make those connections,
58
154260
3000
نحن نجد الانماط و نصنع هذه الروابط
02:37
whether it's Pavlov's dog here
59
157260
2000
سواء كان كلب بافلوف هنا
02:39
associating the sound of the bell with the food,
60
159260
3000
يربط بين صوت الجرس و الطعام
02:42
and then he salivates to the sound of the bell,
61
162260
2000
فيسيل لعابه لسماعه صوت الجرس
02:44
or whether it's a Skinnerian rat,
62
164260
2000
أو كان جرذ سكينري (نسبة الى قفص سكينر)
02:46
in which he's having an association
63
166260
2000
حيث ينشأ لديه ربط
02:48
between his behavior and a reward for it,
64
168260
2000
بين سلوكه و المكافأة على ذلك السلوك
02:50
and therefore he repeats the behavior.
65
170260
2000
وبالتالي يكرر ذلك السلوك
02:52
In fact, what Skinner discovered
66
172260
2000
في الواقع، ما اكتشفه سكينر
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
هو انه اذا قمت بوضع حمامة في قفص كهذا
02:57
and he has to press one of these two keys,
68
177260
2000
وكان عليها ان تضغط على احد هذين المفتاحين
02:59
and he tries to figure out what the pattern is,
69
179260
2000
و تحاول معرفة النمط هنا
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
وقمت انت باعطائها مكافأة صغيرة في الصندوق الواثب هناك
03:03
if you just randomly assign rewards
71
183260
3000
ان قمت بتعيين المكافئات عشوائيا
03:06
such that there is no pattern,
72
186260
2000
بحيث تكون غير ذات نمط
03:08
they will figure out any kind of pattern.
73
188260
2000
فانها ستقوم بايجاد اي نوع من الانماط
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
ومهما كانت تفعل قبل لحظات من حصولها على المكافأة
03:12
they repeat that particular pattern.
75
192260
2000
ستكرر ذلك النمط المعين
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
احيانا قد يكون دورتين عكس عقارب الساعة
03:17
once clockwise and peck the key twice.
77
197260
3000
مرة باتجاه عقارب الساعة ونقر المفتاح مرتين
03:20
And that's called superstition,
78
200260
2000
وهذا مايسمى بالخرافات
03:22
and that, I'm afraid,
79
202260
2000
و اخشى ان ذلك
03:24
we will always have with us.
80
204260
2000
سيلازمنا دوما
03:26
I call this process "patternicity" --
81
206260
2000
ادعو هذه العملية "بالتنميط"
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
وهو الميل الى ايجاد انماط ذات معنى
03:30
in both meaningful and meaningless noise.
83
210260
3000
في كل ضوضاء ذات معنى او غير ذات معنى
03:33
When we do this process, we make two types of errors.
84
213260
3000
عندما نقوم بهذه العملية، فاننا نقترف نوعين من الاخطاء
03:36
A Type I error, or false positive,
85
216260
2000
النوع الاول الايجابي الزائف
03:38
is believing a pattern is real
86
218260
2000
وهو الاعتقاد بوجود النمط
03:40
when it's not.
87
220260
2000
عندما لا يكون موجودا
03:42
Our second type of error is a false negative.
88
222260
2000
النوع الثاني من الاخطاء هو السلبي الزائف
03:44
A Type II error is not believing
89
224260
2000
خطأ من النوع الثاني وهو عدم تصديق
03:46
a pattern is real when it is.
90
226260
3000
وجود نمط عندما يكون موجودا بالفعل
03:49
So let's do a thought experiment.
91
229260
2000
لذا دعونا نقم بتجربة فكرية
03:51
You are a hominid three million years ago
92
231260
2000
انت من اسلاف البشر قبل ثلاثة ملايين عام
03:53
walking on the plains of Africa.
93
233260
3000
تتمشى على سهول افريقيا
03:56
Your name is Lucy, okay?
94
236260
2000
اسمك لوسي، حسنا؟
03:58
And you hear a rustle in the grass.
95
238260
2000
وتسمع حفيفا بين الاعشاب
04:00
Is it a dangerous predator,
96
240260
2000
هل هو حيوان مفترس خطر،
04:02
or is it just the wind?
97
242260
2000
ام انها الرياح؟
04:04
Your next decision could be the most important one of your life.
98
244260
3000
ان قرارك التالي قد يكون اهم القرارات في حياتك
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
حسنا، ان اعتقدت ان الحفيف بين الاعشاب هو لحيوان مفترس خطر
04:10
and it turns out it's just the wind,
100
250260
2000
و تبين انها الرياح
04:12
you've made an error in cognition,
101
252260
2000
فقد ارتكبت خطأ في الادراك
04:14
made a Type I error, false positive.
102
254260
2000
قد ارتكبت خطأ من النوع الاول، الايجابي الزائف.
04:16
But no harm. You just move away.
103
256260
2000
ولكن لا ضرر هنا فقط ابتعدت بعيدا
04:18
You're more cautious. You're more vigilant.
104
258260
2000
كنت اكثر حذرا و اكثر يقظة.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
من جانب اخر، ان اعتقدت ان الحفيف بين الاعشاب ليس سوى الرياح
04:22
and it turns out it's a dangerous predator,
106
262260
3000
وتبين انه حيوان مفترس خطر
04:25
you're lunch.
107
265260
2000
كنت انت الغداء
04:27
You've just won a Darwin award.
108
267260
2000
لقد حصلت للتو على جائزة داروين
04:29
You've been taken out of the gene pool.
109
269260
2000
وقد اخرجت من بركة الجينات
04:31
Now the problem here is that
110
271260
2000
و المشكلة الان هي ان
04:33
patternicities will occur whenever the cost
111
273260
2000
التنميط سيحدث كلما كان تكلفة
04:35
of making a Type I error
112
275260
2000
ارتكاب خطأ من النوع الاول
04:37
is less than the cost of making a Type II error.
113
277260
2000
اقل من تكلفة ارتكاب خطأ من النوع الثاني
04:39
This is the only equation in the talk by the way.
114
279260
2000
بالمناسبة هذه هي المعادلة الوحيدة في هذا الحديث
04:41
We have a pattern detection problem
115
281260
2000
لدينا مشكلة الكشف عن نمط
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
و هي تقدير الفرق بين نوعي الاخطاء الاول و الثاني
04:46
is highly problematic,
117
286260
2000
مما يشكل معضلة كبيرة
04:48
especially in split-second, life-and-death situations.
118
288260
3000
خاصة في حالات الحياة او الموت في جزء من الثانية.
04:51
So the default position
119
291260
2000
لذلك كان الخيار الافتراضي
04:53
is just: Believe all patterns are real --
120
293260
2000
هو "تصديق ان كل الانماط حقيقية"
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"كل حفيف بين الاعشاب هو لحيوان مفترس خطر"
04:58
and not just the wind.
122
298260
2000
وليس فقط الرياح"
05:00
And so I think that we evolved ...
123
300260
2000
ولهذا اعتقد اننا تطورنا...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
هنالك انتقاء طبيعي لميول محركات الاعتقاد لدينا
05:05
our pattern-seeking brain processes,
125
305260
2000
تسعى ادمغتنا الباحثة عن الانماط
05:07
to always find meaningful patterns
126
307260
2000
دوما الى ايجاد انماط ذات معنى
05:09
and infuse them with these sort of
127
309260
2000
و تبثها مع هذا النوع من
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
الوساطات المدبرة او المتعمدة التي سأعود اليها
05:14
So for example, what do you see here?
129
314260
2000
على سبيل المثال، ماذا ترى هنا؟
05:16
It's a horse head, that's right.
130
316260
2000
انه رأس حصان، صحيح.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
يبدو كحصان. لابد انه حصان.
05:20
That's a pattern.
132
320260
2000
هذا نمط
05:22
And is it really a horse?
133
322260
2000
هل هو حقا حصان؟
05:24
Or is it more like a frog?
134
324260
3000
ام انه اقرب الى ضفدع؟
05:27
See, our pattern detection device,
135
327260
2000
أترون، جهازنا للكشف عن الانماط،
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
الذي يبدو انه موجود في القشرة الحزامية الامامية
05:32
it's our little detection device there --
137
332260
3000
انه جهاز الكشف لدينا هناك
05:35
can be easily fooled, and this is the problem.
138
335260
2000
يمكن خداعه بسهولة، وهنا تكمن المشكلة
05:37
For example, what do you see here?
139
337260
2000
على سبيل المثال، ماذا ترى هنا؟
05:39
Yes, of course, it's a cow.
140
339260
3000
نعم، بالطبع انها بقرة
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
حالما أهيئ العقل -- مايسمى بالتهيئة الادراكية--
05:45
once I prime the brain to see it,
142
345260
2000
حالما أعد العقل ليراها،
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
فانها تظهر من جديد حتى من دون النمط الذي فرضته عليها
05:50
And what do you see here?
144
350260
2000
و ماذا ترى هنا؟
05:52
Some people see a Dalmatian dog.
145
352260
2000
بعض الناس يرون كلبا دلماسيا
05:54
Yes, there it is. And there's the prime.
146
354260
2000
نعم، هاهو. و هاهو الاعداد
05:56
So when I go back without the prime,
147
356260
2000
لذلك عندما اعود دون الاعداد
05:58
your brain already has the model
148
358260
2000
فان عقلك لديه النموذج مسبقا
06:00
so you can see it again.
149
360260
2000
لذلك يمكنك ان تراه مجددا
06:02
What do you see here?
150
362260
3000
ماذا ترون هنا؟
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
كوكب ساترن، نعم هذا صحيح
06:07
How about here?
152
367260
3000
ماذا عن هنا؟
06:10
Just shout out anything you see.
153
370260
3000
قولو بصوت عالي ماترونه
06:14
That's a good audience, Chris.
154
374260
2000
انه جمهور جيد، كريس
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
لأنه لايوجد شيء هنا، حسنا يزعم انه لا شيء هنا.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
هذه تجربة قامت بها جنيفر وتسون
06:22
at U.T. Austin
157
382260
2000
بجامعة تكساس اوستن
06:24
on corporate environments
158
384260
2000
في بيئات الشركات
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
عما اذا كانت مشاعر من عدم اليقين والخروج عن السيطرة
06:29
makes people see illusory patterns.
160
389260
2000
تجعل الناس يرون انماط وهمية
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
ذلك ان معظم الناس يرون كوكب ساترن.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
اما من وضعوا في حالة من الشعور الخارج عن السيطرة
06:37
are more likely to see something in this,
163
397260
2000
من الارجح انهم يرون شيئا ما فيه
06:39
which is allegedly patternless.
164
399260
3000
مما يزعم انه عديم النمط
06:42
In other words, the propensity to find these patterns
165
402260
3000
بعبارة اخرى، ان الميل الى البحث عن هذه الأنماط
06:45
goes up when there's a lack of control.
166
405260
3000
يرتفع عندما يكون هناك نقص في السيطرة
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
على سبيل المثال، يعرف لاعبو البيسبول بايمانهم بالخرافات
06:51
when they're batting,
168
411260
2000
عندما يضربون الكرة
06:53
but not so much when they're fielding.
169
413260
2000
ولكن ليس كثيرا عندما يعدون في الميدان
06:55
Because fielders are successful
170
415260
2000
لان العدائين ناجحون
06:57
90 to 95 percent of the time.
171
417260
2000
بنسبة 90 الى 95 في المائة
06:59
The best batters fail seven out of 10 times.
172
419260
3000
افضل ضاربي الكرة يخطؤون سبعة من اصل عشرة مرات
07:02
So their superstitions, their patternicities,
173
422260
2000
لذلك فان خرافاتهم و تنميطهم
07:04
are all associated with feelings of lack of control
174
424260
3000
كلها مرتبطة بمشاعر نقص السيطرة
07:07
and so forth.
175
427260
2000
وهكذا دواليك
07:10
What do you see in this particular one here, in this field?
176
430260
3000
ماذا ترون هنا تحديدا، في هذا المجال؟
07:13
Anybody see an object there?
177
433260
2000
هل يرى احدكم شيئا هنا؟
07:15
There actually is something here,
178
435260
2000
هنالك في الحقيقة شيئ ما هنا،
07:17
but it's degraded.
179
437260
2000
ولكنه متحلل
07:19
While you're thinking about that,
180
439260
2000
اثناء تفكيركم في ذلك،
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
كانت هذه تجربة قامت بها سوزان بلاكمور
07:23
a psychologist in England,
182
443260
2000
طبيبة نفسية في انجلترا
07:25
who showed subjects this degraded image
183
445260
2000
عرضت هذه الصورة على اشخاص
07:27
and then ran a correlation between
184
447260
2000
ثم ربطت بين
07:29
their scores on an ESP test:
185
449260
2000
علاماتهم في اختبار الادراك فوق الحسي
07:31
How much did they believe in the paranormal,
186
451260
2000
الى اي مدي يؤمنون بالخوارق،
07:33
supernatural, angels and so forth.
187
453260
3000
مافوق الطبيعة، الملائكة وما الى ذلك
07:36
And those who scored high on the ESP scale,
188
456260
3000
هؤلاء الذين احرزو علامات متقدمة في اختبار الادراك فوق الحسي
07:39
tended to not only see
189
459260
2000
كانو يميلون ليس فقط الى رؤية
07:41
more patterns in the degraded images
190
461260
2000
انماط اكثر في الصورة المتحللة
07:43
but incorrect patterns.
191
463260
2000
و انما انماط غير صحيحة
07:45
Here is what you show subjects.
192
465260
2000
هذا ما تعرضه على الاشخاص
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
السمكة متحللة بنسبة 20 في المائة، 50 في المائة
07:50
and then the one I showed you,
194
470260
2000
ثم التي عرضتها لكم
07:52
70 percent.
195
472260
2000
70في المائة
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
تجربة مماثلة قام بها طبيب نفسي سويسري.
07:56
named Peter Brugger,
197
476260
2000
يدعى بيتر بروغير
07:58
who found significantly more meaningful patterns
198
478260
3000
وجد زيادة ملحوظة للانماط التي لها معنى
08:01
were perceived on the right hemisphere,
199
481260
2000
تصور في الجانب الايمن للدماغ
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
عبر المجال البصري الايسر، اكثر من الجانب الايسر
08:06
So if you present subjects the images such
201
486260
2000
لذلك ان قمت بعرض صور على اشخاص وكانت
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
ستنتهي على الجانب الايمن من الدماغ بدلا عن الايسر
08:11
then they're more likely to see patterns
203
491260
2000
فانهم اكثر عرضة لرؤية الأنماط
08:13
than if you put it on the left hemisphere.
204
493260
2000
من انك اذا وضعتها على الجانب الأيسر
08:15
Our right hemisphere appears to be
205
495260
2000
يبدو ان نصف دماغنا الايمن
08:17
where a lot of this patternicity occurs.
206
497260
2000
حيث الكثير من التنميط (البحث عن الانماط) يحدث هناك
08:19
So what we're trying to do is bore into the brain
207
499260
2000
مانحاول فعله هو ان نحفر في الدماغ
08:21
to see where all this happens.
208
501260
2000
لنرى أين يحدث كل هذا
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
بروغير و زميلته كريستين مور
08:26
gave subjects L-DOPA.
210
506260
2000
اعطو اشخاصا ال-دوبا
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
ال-دوبا هو عقار، كما تعلمون، يعطى لمعالجة مرض باركينسون (الشلل الرعاش)
08:31
which is related to a decrease in dopamine.
212
511260
3000
الذي يرتبط بنقص الدوبامين
08:34
L-DOPA increases dopamine.
213
514260
2000
ال-دوبا يزيد مستوى الدوبامين
08:36
An increase of dopamine caused
214
516260
2000
وزيادة الدوبامين تسببت
08:38
subjects to see more patterns
215
518260
2000
في زيادة رؤية الاشخاص للأنماط
08:40
than those that did not receive the dopamine.
216
520260
2000
اكثر من الذين لم يحصلو على الدوبامين
08:42
So dopamine appears to be the drug
217
522260
2000
اذن يبدو ان الدوبامين هو العقار
08:44
associated with patternicity.
218
524260
2000
المرتبط بالتنميط
08:46
In fact, neuroleptic drugs
219
526260
2000
في الواقع، ان ادوية الذهان
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
التي تستخدم للقضاء على السلوك الذهاني
08:50
things like paranoia, delusions
221
530260
2000
اشياء كجنون الاضطهاد، الاوهام
08:52
and hallucinations,
222
532260
2000
و الهلوسات
08:54
these are patternicities.
223
534260
2000
كل هذه نمطيات
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
انماط خاطئة. ايجابية زائفة. انها اخطاء من النوع الاول
08:59
And if you give them drugs
225
539260
2000
وعندما تعطيهم الادوية
09:01
that are dopamine antagonists,
226
541260
2000
التي هي مضادات الدوبامين
09:03
they go away.
227
543260
2000
فانها تزول
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
ذلك انك تقلل مستوى الدوبامين
09:07
and their tendency to see
229
547260
2000
وبالتالي ميولهم لرؤية
09:09
patterns like that decreases.
230
549260
2000
انماط كتلك تقل ايضا
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
من ناحية اخرى، الامفيتامينات مثل الكوكايين
09:14
are dopamine agonists.
232
554260
2000
مضادات للدوبامين
09:16
They increase the amount of dopamine.
233
556260
2000
تقلل مستوى الدوبامين
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
لذلك على الارجح تشعر في حالة من النشوة
09:21
creativity, find more patterns.
235
561260
2000
بالابداع اكثر وستجد الكثير من الانماط
09:23
In fact, I saw Robin Williams recently
236
563260
2000
في الواقع، لقد رأيت روبن ويليم مؤخرا
09:25
talk about how he thought he was much funnier
237
565260
2000
يتحدث عن كيف انه كان يظن انه اكثر مرحا و تسلية
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
عندما كان يتعاطى الكوكايين، عندما كانت لديه تلك المسألة، من الان
09:30
So perhaps more dopamine
239
570260
2000
لذا ربما زيادة الدوبامين
09:32
is related to more creativity.
240
572260
2000
مرتبطة بزيادة الابداع
09:34
Dopamine, I think, changes
241
574260
2000
الدوبامين، اعتقد انه يغير
09:36
our signal-to-noise ratio.
242
576260
2000
نسبة المؤشر-الى-الضجيج لدينا
09:38
That is, how accurate we are
243
578260
2000
وهي مدى دقتنا
09:40
in finding patterns.
244
580260
2000
في العثور على الانماط
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
اذا انخفض كثيرا، فعلى الارجح انك سترتكب الكثير من الاخطاء من النوع الثاني
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
ستفوت الانماط الحقيقية، لانك لاتريد ان تكون متشككا للغاية
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
ان كنت متشككا جدا، ستفوتك الأفكار الجيدة المثيرة للاهتمام
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
للحق، انت مبدع ومع ذالك لا تعجب بالكثير من الهراء
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
رفيع المستوى وربما ترى انماطا في كل مكان
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
في كل مرة ينظر اليك احد ما، تظن ان الناس يحدقون بك
10:00
You think people are talking about you.
251
600260
2000
تظن ان الناس يتكلمون عنك
10:02
And if you go too far on that, that's just simply
252
602260
2000
و ان تماديت في هذا، هذا ببساطة
10:04
labeled as madness.
253
604260
2000
مايوصف بالجنون
10:06
It's a distinction perhaps we might make
254
606260
2000
انه تمييز ربما يجب ان نقوم به
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
بين اثنين من الحائزين على جائزة نوبل، ريتشارد فاينمان
10:10
and John Nash.
256
610260
2000
و جون ناش.
10:12
One sees maybe just the right number
257
612260
2000
احدهما يرى ربما العدد الصحيح بالتحديد
10:14
of patterns to win a Nobel Prize.
258
614260
2000
من الانماط للفوز بجائزة نوبل
10:16
The other one also, but maybe too many patterns.
259
616260
2000
الاخر ايضا لكن ربما الكثير من الانماط
10:18
And we then call that schizophrenia.
260
618260
3000
فنسمي ذلك الفصام
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
هذا يعني ان نسبة المؤشر-الى-الضوضاء تقدم لنا مشكلة مع الكشف عن نمط
10:24
And of course you all know exactly
262
624260
2000
و بالطبع كلكم تعلمون جيدا
10:26
what this is, right?
263
626260
2000
ماهذا، صحيح.
10:28
And what pattern do you see here?
264
628260
2000
اي نمط ترون هنا؟
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
مرة اخرى، انا اختبر القشرة الحزامية الامامية لديكم هنا
10:33
causing you conflicting pattern detections.
266
633260
3000
مسببا لكم تضاربا في الكشف عن الانماط هنا
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
تعلمون بالطبع، ان هذه احذية فيا اونو
10:38
These are sandals.
268
638260
3000
انها صنادل
10:41
Pretty sexy feet, I must say.
269
641260
3000
قدمين مثيرتين جدا، يجب ان اقول
10:44
Maybe a little Photoshopped.
270
644260
2000
ربما خضعت للقليل من الفوتوشوب
10:46
And of course, the ambiguous figures
271
646260
2000
وبالطبع تلك الاجسام المبهمة
10:48
that seem to flip-flop back and forth.
272
648260
2000
التي يبدو انها تتقلب ذهابا و ايابا
10:50
It turns out what you're thinking about a lot
273
650260
2000
تعكس ماتفكر فيه كثيرا
10:52
influences what you
274
652260
2000
وتعزز
10:54
tend to see.
275
654260
2000
ما تميل الى رؤيته
10:56
And you see the lamp here, I know.
276
656260
2000
وترون المصباح هنا، اعلم ذلك
10:58
Because the lights on here.
277
658260
3000
لأنه مضاء هنا
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
بطبيعة الحال، وبفضل الحركات المناصرة للبيئة
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
كلنا حساسون تجاه محنة الثديات البحرية
11:06
So what you see in this particular ambiguous figure
280
666260
3000
لذلك ما ترونه هنا تحديدا في هذا الشكل المبهم
11:09
is, of course, the dolphins, right?
281
669260
2000
هي الدولفينات، صحيح
11:11
You see a dolphin here,
282
671260
2000
ترون الدولفين هنا
11:13
and there's a dolphin,
283
673260
2000
ها هو دولفين
11:15
and there's a dolphin.
284
675260
2000
وها هو دولفين
11:17
That's a dolphin tail there, guys.
285
677260
3000
انه ذيل دولفين هناك، شباب
11:20
(Laughter)
286
680260
3000
(ضحك)
11:25
If we can give you conflicting data, again,
287
685260
3000
لو امكننا ان نعطيكم بيانات متضاربة مرة اخرى
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
فان الايه سي سي لديكم (القشرة الحزامية الامامية) ستصاب بفرط التشغيل
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
اذا نظرتم هنا في الاسفل، لا بأس. اذا نظرتم هنا بالاعلى تحصلون على تضارب في البيانات
11:34
And then we have to flip the image
290
694260
2000
عندها يجب ان نقلب الصورة
11:36
for you to see that it's a set up.
291
696260
2000
لترو انها معدة مسبقا
11:40
The impossible crate illusion.
292
700260
2000
وهم القفص المستحيل
11:42
It's easy to fool the brain in 2D.
293
702260
2000
من السهل خداع العقل في بعدين
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
ستقولون " هيا دعك من هذا يا شيرمر، اي شخص يمكن ان يفعل ذلك
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
بكتاب ملخص لعلم النفس و خدعة كتلك"
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
حسنا هاهو الراحل العظيم جيري اندروس
11:50
"impossible crate" illusion in 3D,
297
710260
3000
وهم القفص المستحيل في ثلاثة ابعاد
11:53
in which Jerry is standing inside
298
713260
2000
وفيه يقف جيري داخل
11:55
the impossible crate.
299
715260
2000
القفص المستحيل
11:57
And he was kind enough to post this
300
717260
2000
وقد تفضل و قدم هذا العرض
11:59
and give us the reveal.
301
719260
2000
و كشف لنا
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
بالطبع زوايا الكاميرا هي كل شيء. هاهو المصور هناك
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
ويبدو ان هذا اللوح يتداخل مع هذا، وهذا مع ذاك، وهكذا
12:07
But even when I take it away,
304
727260
2000
ولكن حتى عندما ابعدها بعيدا
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
فان الوهم قوي جدا بسبب كيف ان عقولنا تجتهد في البحث
12:11
to find those certain kinds of patterns.
306
731260
3000
للعثور على هذا النوع من الانماط
12:14
This is a fairly new one
307
734260
2000
هذه واحدة جديدة نوعا ما
12:16
that throws us off because of the conflicting patterns
308
736260
2000
تذهلنا بسبب الانماط المتضاربة
12:18
of comparing this angle with that angle.
309
738260
3000
لمقارنة هذه الزاوية بتلك الزاوية
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
في الواقع، هي نفس الصورة جنبا الى جنب
12:24
So what you're doing is comparing that angle
311
744260
2000
اذن ماتفعلونه هو مقارنة تلك الزاوية
12:26
instead of with this one, but with that one.
312
746260
2000
بهذه بدلا عن تلك
12:28
And so your brain is fooled.
313
748260
2000
وبهذا تنخدع عقولكم
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
و بالتالي تنخدع اجهزة الكشف عن الانماط لديكم
12:32
Faces are easy to see
315
752260
2000
من السهل رؤية الوجوه
12:34
because we have an additional evolved
316
754260
2000
لأن لدينا برمجيات اضافية متطورة
12:36
facial recognition software
317
756260
2000
لتمييز الوجوه
12:38
in our temporal lobes.
318
758260
3000
داخل الفصوص الصدغية للمخ لدينا
12:41
Here's some faces on the side of a rock.
319
761260
3000
هذه بعض الوجوه على جانب صخرة
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
في الحقيقة لست حتى متأكدا من انها-- قد تكون معدة ببرنامج فوتوشوب.
12:47
But anyway, the point is still made.
321
767260
2000
على اية حال، وجهة النظر ما تزال قائمة
12:49
Now which one of these looks odd to you?
322
769260
2000
والان اي واحدة من هذه تبدو لكم غريبة؟
12:51
In a quick reaction, which one looks odd?
323
771260
2000
في رد فعل سريع، اي واحدة تبدو غريبة؟
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
التي الى اليسار. حسنا سأقلبها
12:55
so it'll be the one on the right.
325
775260
2000
اذن ستصبح الى اليمين
12:57
And you are correct.
326
777260
2000
انتم محقون
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
انه وهم شهير جدا -- اجري من قبل مع مارجريت تاتشر
13:02
Now, they trade up the politicians every time.
328
782260
2000
والان يروجون للسياسيين في كل مرة
13:04
Well, why is this happening?
329
784260
2000
حسنا، لماذا يحدث هذا؟
13:06
Well, we know exactly where it happens,
330
786260
2000
نعلم تحديدا اين تحدث
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
في الفص الصدغي للدماغ، الذي يوجد نوعا ما فوق اذانكم هناك
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
داخل تكوين صغير يدعى فيوزيوم جايروس
13:14
And there's two types of cells that do this,
333
794260
2000
و هناك نوعان من الخلايا تقوم بهذا
13:16
that record facial features either globally,
334
796260
3000
تسجل ملامح الوجه اما بشكل عام
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
او على وجه التحديد هذه الخلايا الكبيرة سريعة الاطلاق
13:21
first look at the general face.
336
801260
2000
اولا تلقي نظرة على الوجه العام
13:23
So you recognize Obama immediately.
337
803260
2000
فتميز أوباما فورا
13:25
And then you notice something quite
338
805260
2000
ثم تلاحظ شيئا فيه
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
القليل من الغرابة حول الوجه والعينين
13:29
Especially when they're upside down,
340
809260
2000
خصوصا وانها مقلوبة رأسا على عقب
13:31
you're engaging that general facial recognition software there.
341
811260
3000
انت تشرك تلك البرمجيات للتعرف على الوجوه العامة هناك
13:34
Now I said back in our little thought experiment,
342
814260
3000
والان كنت قد قلت سابقا في تجربتنا الصغيرة للتفكير
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
انت من اسلاف البشر تتجول في سهول افريقيا
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
هل هي مجرد رياح ام حيوان مفترس خطر؟
13:42
What's the difference between those?
345
822260
2000
ما الفرق بينهما؟
13:44
Well, the wind is inanimate;
346
824260
2000
حسنا، الرياح جماد
13:46
the dangerous predator is an intentional agent.
347
826260
2000
الحيوان المفترس عامل ذو نية
13:48
And I call this process agenticity.
348
828260
2000
و أدعو هذه العملية بالتوكل
13:50
That is the tendency to infuse patterns
349
830260
2000
وهو الميل الى تفعيل الانماط
13:52
with meaning, intention and agency,
350
832260
2000
ذات المعنى، والتي وراءها نية او عامل
13:54
often invisible beings from the top down.
351
834260
3000
غالبا الكائنات الغير مرئية من الاعلى الى الاسفل
13:57
This is an idea that we got
352
837260
2000
هذه فكرة حصلنا عليها
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
من زميل هنا بتيد ، دان دينيت
14:01
who talked about taking the intentional stance.
354
841260
2000
الذي تحدث عن اتخاذ موقف متعمد
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
اذن هو نوع من الشرح الموسع اعتقد لتفسير كثير من الاشياء
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
النفوس، الأرواح، الالهة، الشياطين، الملائكة
14:09
aliens, intelligent designers,
357
849260
2000
الكائنات الفضائية، المصممون الاذكياء
14:11
government conspiracists
358
851260
2000
مؤامرات الحكومة
14:13
and all manner of invisible agents
359
853260
2000
وكل انواع العوامل الغير مرئية
14:15
with power and intention, are believed
360
855260
2000
ذات القوة و الارادة، يعتقد انها
14:17
to haunt our world and control our lives.
361
857260
2000
تطارد عالمنا وتتحكم بحياتنا
14:19
I think it's the basis of animism
362
859260
2000
اعتقد انه اصل الروحانية
14:21
and polytheism and monotheism.
363
861260
3000
و الشرك والتوحيد
14:24
It's the belief that aliens are somehow
364
864260
2000
انه الاعتقاد ان الكائنات الفضائية بطريقة ما
14:26
more advanced than us, more moral than us,
365
866260
2000
اكثر تقدما منا، اخلاقيون اكثر منا
14:28
and the narratives always are
366
868260
2000
و في الرواية دائما
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
يأتون هنا من اعلى لحمايتنا و انقاذنا
14:33
The intelligent designer's always portrayed
368
873260
2000
و يصور المصمم الذكي (مصمم الكون) دائما بأنه
14:35
as this super intelligent, moral being
369
875260
3000
هذا الكائن الاخلاقي خارق الذكاء
14:38
that comes down to design life.
370
878260
2000
الذي ينزل ليصمم الحياة
14:40
Even the idea that government can rescue us --
371
880260
2000
حتى فكرة ان الحكومة قادرة على انقاذنا
14:42
that's no longer the wave of the future,
372
882260
2000
لم تعد موجة المستقبل
14:44
but that is, I think, a type of agenticity:
373
884260
2000
ولكن ذلك اعتقد نوع من التوكل
14:46
projecting somebody up there,
374
886260
2000
المصمم في الاعلى هناك
14:48
big and powerful, will come rescue us.
375
888260
2000
كبير و قوي سيأتي لانقاذنا
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
اعتقد ايضا ان هذا هو الأصل وراء نظرية المؤامرة
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
ان هنالك شخص ما يختبئ في الخلف يحرك الخيوط
14:55
whether it's the Illuminati
378
895260
2000
سواء ان كانو مجموعة المتنورين
14:57
or the Bilderbergers.
379
897260
2000
ام مجموعة بيلدربيرجر.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
غير ان هذه مشكلة كشف عن نمط، اليست كذلك
15:01
Some patterns are real and some are not.
381
901260
2000
بعض الانماط حقيقية والبعض الاخر لا
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
هل تم اغتيال جون اف كيندي نتيجة مؤامرة ام على يد قاتل وحيد؟
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
حسنا، هنالك اشخاص في كل يوم
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
مثل عندما ذهبت هناك، هنا يبينون لي اين كان مختلف الرماة
15:12
My favorite one was he was in the manhole.
385
912260
3000
المفضلة لدي انه كان داخل فتحة التصريف الصحي
15:15
And he popped out at the last second, took that shot.
386
915260
3000
و قفز خارجا في اخر ثانية و اطلق تلك الرصاصة
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
ولكن بالطبع اغتيال لينكولن كان مؤامرة
15:20
So we can't just uniformly dismiss
388
920260
2000
اذن لايمكننا فقط استبعاد بشكل موحد
15:22
all patterns like that.
389
922260
2000
كل الانماط هكذا
15:24
Because, let's face it, some patterns are real.
390
924260
2000
لانه، دعونا نواجه ذلك، بعض الانماط حقيقية
15:26
Some conspiracies really are true.
391
926260
2000
بعض المؤامرات حقيقية بالفعل
15:30
Explains a lot, maybe.
392
930260
2000
مما يفسر الكثير، ربما
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
للحادي عشر من سبتمبر نظرية مؤامرة. انها مؤامرة
15:35
We did a whole issue on it.
394
935260
2000
قمنا باصدار عدد كامل عنها
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
تسعة عشر عضوا في تنظيم القاعدة خططو لضرب مباني بالطائرات
15:39
constitutes a conspiracy.
396
939260
2000
مما يشكل مؤامرة
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
ولكن هذا ليس مايعتقده محققو 11/9
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
يعتقدون انها عمل داخلي لادارة بوش
15:46
Well, that's a whole other lecture.
399
946260
2000
حسنا، انها محاضرة اخرى كاملة
15:48
You know how we know that 9/11
400
948260
2000
لكن هل تعلمون كيف نعلم نحن ان 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
لم تكن مدبرة بواسطة ادارة بوش؟
15:52
Because it worked.
402
952260
2000
لانها نجحت
15:54
(Laughter)
403
954260
3000
(ضحك)
15:57
(Applause)
404
957260
3000
(تصفيق)
16:00
So we are natural-born dualists.
405
960260
2000
اذن نحن اثنينيون بالفطرة (الايمان ان الانسان ذو جسد و روح)
16:02
Our agenticity process comes from
406
962260
2000
عملية التوكل لدينا تأتي من
16:04
the fact that we can enjoy movies like these.
407
964260
2000
واقع اننا نستمتع بافلام كهذه
16:06
Because we can imagine, in essence,
408
966260
2000
لانه يمكننا ان نتخيل، في الجوهر
16:08
continuing on.
409
968260
2000
الاستمرار
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
نعلم انه اذا حفزت الفص الصدغي
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
يمكنك ان توجد حالة من تجربة خارج-الجسم
16:14
near-death experiences,
412
974260
2000
تجربة على-وشك-الموت
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
التي يمكنك ان تقوم بها فقط بملامسة قطب كهربائي للفص هناك
16:19
Or you can do it through loss of consciousness,
414
979260
2000
او يمكنك ان تقوم بها بفقد الوعي
16:21
by accelerating in a centrifuge.
415
981260
2000
عن طريق جهاز الطرد المركزي
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
ستصاب بنقص الاوكسجين
16:26
And the brain then senses
417
986260
2000
سيشعر الدماغ عندها
16:28
that there's an out-of-body experience.
418
988260
2000
بحالة من الخروج من الجسم
16:30
You can use -- which I did, went out and did --
419
990260
2000
يمكنك ان تستعمل --كما فعلت انا هناك--
16:32
Michael Persinger's God Helmet,
420
992260
2000
خوذة مايكل بيرسنجر (خوذة الرب)
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
التي تمطر فصك الصدغي بوابل من الموجات الكهرومغناطيسية
16:36
And you get a sense of out-of-body experience.
422
996260
3000
فتشعر بتجربة احساس خارج الجسم
16:39
So I'm going to end here with a short video clip
423
999260
2000
في الختام سانهي هذا بمقطع من الفيديو هنا
16:41
that sort of brings all this together.
424
1001260
2000
سيفسر نوعا ما كل هذا
16:43
It's just a minute and a half.
425
1003260
2000
انه لمدة دقيقة و نصف فقط
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
يربط كل هذا مع قوة التوقع و قوة الايمان
16:48
Go ahead and roll it.
427
1008260
2000
هيا اديروه
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
المعلق: هذا هو المكان الذي اختاروه لاجراء اختباراتهم الوهمية
16:53
for an advert for lip balm.
429
1013260
2000
لاعلان عن مرطب شفاه
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
المراة: نامل ان نستعمل جزء من هذا
16:57
in a national commercial, right?
431
1017260
2000
في اعلان تجاري محلي، صحيح
16:59
And this is test on some lip balms
432
1019260
2000
وهذا اختبار على نوع من مرطب الشفاه
17:01
that we have over here.
433
1021260
2000
لدينا هنا
17:03
And these are our models who are going to help us,
434
1023260
2000
وهؤلاء عارضونا سيقومون بمساعدتنا
17:05
Roger and Matt.
435
1025260
2000
روجر و مات
17:07
And we have our own lip balm,
436
1027260
2000
ولدينا مرطب الشفاه خاصتنا
17:09
and we have a leading brand.
437
1029260
2000
ولدينا اخر من علامة تجارية رائدة
17:11
Would you have any problem
438
1031260
2000
هل لديك اي مشكلة
17:13
kissing our models to test it?
439
1033260
2000
في تقبيل عارضينا لاختباره
17:15
Girl: No.
440
1035260
2000
الفتاة: لا
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
المرأة: هل تمانعين؟ (الفتاة: لا) المرأة: تعتقدين انه لابأس بذلك
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
الفتاة: لا بأس بذلك. (المرأة: حسنا)
17:21
So this is a blind test.
443
1041260
3000
هذا الاختبار مع اغماض العينين
17:24
I'm going to ask you to go ahead
444
1044260
2000
ساطلب منك ان تتقدمي
17:26
and put a blindfold on.
445
1046260
2000
وتضعي عصابة للعينين
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
حسنا، هل يمكنك ان تري شيئا؟ (الفتاة: لا)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
اسحبيها حتى لا تري حتى من الاسفل. (الفتاة: حسنا)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
المرأة: الان لا ترين شيئا على الاطلاق، صحيح؟
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
الفتاة: نعم. المرأة (حسنا)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
الان، ما ابحث عنه انا في هذا الاختبار
17:41
is how it protects your lips,
451
1061260
3000
هو كيف سيحمي شفتيك
17:44
the texture, right,
452
1064260
2000
الملمس (القوام)، صحيح
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
و ربما ان كنت تستطيعين تميز اي نكهة ام لا
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
الفتاة: حسنا. (المرأة: هل قمت باختبار تقبيل من قبل؟)
17:52
Girl: No.
455
1072260
2000
الفتاة: لا
17:54
Woman: Take a step here.
456
1074260
2000
المرأة: تقدمي خطوة هنا
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
حسنا، الان اريدك ان تضمي شفتيك
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
ضميها اكثر و انحني قليلا حسنا
18:06
(Music)
459
1086260
4000
(موسيقى)
18:10
(Laughter)
460
1090260
5000
(ضحك)
18:19
(Laughter)
461
1099260
3000
(ضحك)
18:30
Woman: Okay.
462
1110260
2000
حسنا
18:32
And, Jennifer, how did that feel?
463
1112260
2000
جينيفر كيف كان شعورك؟
18:34
Jennifer: Good.
464
1114260
2000
جينيفر: جيدا
18:36
(Laughter)
465
1116260
7000
(ضحك)
18:43
Girl: Oh my God!
466
1123260
2000
الفتاة: اه يا الهي
18:45
(Laughter)
467
1125260
4000
(ضحك)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
مايكل شيرمر: شكرا جزيلا لكم. شكرا. شكرا
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7