The pattern behind self-deception | Michael Shermer

Michael Shermer: Kendini aldatmanın altındaki paternler

735,937 views

2010-06-14 ・ TED


New videos

The pattern behind self-deception | Michael Shermer

Michael Shermer: Kendini aldatmanın altındaki paternler

735,937 views ・ 2010-06-14

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Isil Arican Gözden geçirme: Sancak Gülgen
00:16
So since I was here last in '06,
0
16260
3000
En son buraya geldiğim '06 senesinden beri
00:19
we discovered that global climate change
1
19260
2000
küresel iklim değişiminin epey ciddi bir
00:21
is turning out to be a pretty serious issue,
2
21260
2000
konu olduğunu fark ettik.
00:23
so we covered that fairly extensively
3
23260
2000
Bu nedenle, bu konuya Skeptic dergisinde
00:25
in Skeptic magazine.
4
25260
2000
oldukça geniş yer ayırdık.
00:27
We investigate all kinds
5
27260
2000
Biz, her türlü bilimsel ve
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
sözde -bilime ait tartışmalı konuları inceliyoruz.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Ama görünen o ki, buna çok da fazla kafa yormamıza gerek yok
00:34
because the world's going to end in 2012.
8
34260
2000
ne de olsa 2012'de dünyanın sonu geliyor.
00:36
Another update:
9
36260
2000
Size bir gelişme daha:
00:38
You will recall I introduced you guys
10
38260
2000
Anımsayacaksınız, sizlere
00:40
to the Quadro Tracker.
11
40260
2000
Quadra Algılayıcı diye bir cihaz göstermiştim.
00:42
It's like a water dowsing device.
12
42260
2000
Bir nevi su bulma cihazı.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
Dışına sağa sola dönen bir anten tutturulmuş içi boş bir kutudan ibaret.
00:47
And you walk around, and it points to things.
14
47260
2000
Siz yürüdükçe anten etraftaki nesnelere yöneliyor.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
Mesela öğrenci dolaplarında esrar arıyorsanız
00:52
it'll point right to somebody.
16
52260
2000
mutlaka birine yönlenecektir.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Ah, pardon. ( Gülüşmeler)
00:56
This particular one that was given to me
18
56260
2000
Benim elimdeki bana hediye gelen bu cihaz ise
00:58
finds golf balls,
19
58260
2000
golf toplarını bulmaya yarıyor,
01:00
especially if you're at a golf course
20
60260
2000
özellikle de bir golf kursundaysnız ve
01:02
and you check under enough bushes.
21
62260
3000
yeterince çalının dibine bakarsanız işe yarıyor.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
"Bu kadar saçmasapan ama bir o kadar da zararsız bu cihazların ne zararı var?"
01:08
this device, the ADE 651,
23
68260
3000
diye soranlara şu cihazı gösteriyorum: ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
Irak hükümetine satılmıştı,
01:14
for 40,000 dollars apiece.
25
74260
2000
tanesi 40.000 dolara.
01:16
It's just like this one, completely worthless,
26
76260
2000
Aynı buna benziyor, tamamen değersiz, işe yaramaz
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
bir alet. Göya "elektrostatik manyetik
01:20
magnetic ion attraction,"
28
80260
3000
iyon çekim gücü" ile çalışıyor,
01:24
which translates to
29
84260
2000
aslında kısaca
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"sözde-bilim destekli palavra" olarak tercüme edebiliriz
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
-ki daha uygun bir isim bence- Bir grup kulağa iyi gelen kelimeyi
01:31
but it does absolutely nothing.
32
91260
2000
birleştirmişler ama aslında hiç bir işe yaramayan bir cihaz.
01:33
In this case, at trespass points,
33
93260
3000
Ama bu örnekte, güvenlik noktalarında
01:36
allowing people to go through
34
96260
2000
bazı insanların bu kontrollerden geçmelerine
01:38
because your little tracker device said they were okay,
35
98260
3000
izin veriyor, çünkü bu ufak cihaz bu kişilerin zararsız olduğunu söylüyor,
01:41
actually cost lives.
36
101260
3000
böylece bir sürü hayata mal oluyor.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Öyleyse, sözde-bilim ya da bu tip
01:46
in believing in this sort of thing.
38
106260
3000
şeylere inanmak pekala tehlikeli de olabilir.
01:49
So what I want to talk about today is belief.
39
109260
3000
Bu nedenle, bugün burada bahsetmek istediğim konu inanç.
01:52
I want to believe,
40
112260
2000
Ben inanmak istiyorum,
01:54
and you do too.
41
114260
2000
sizler de öyle.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Aslında, sanırım beni inanç kavramının
01:58
belief is the natural state of things.
43
118260
2000
doğal bir durum olduğunu savunuyorum.
02:00
It is the default option. We just believe.
44
120260
2000
Bu standart varsayılan seçenek. İnanıyoruz, o kadar.
02:02
We believe all sorts of things.
45
122260
2000
Bir sürü inandığımız şey var.
02:04
Belief is natural;
46
124260
2000
İnanmak doğam bir şey.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
İnanmamak, şüphecilik, bilim ise doğal değil.
02:08
It's more difficult.
48
128260
2000
Çok daha zor.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Bir şeylere inanmıyor olmak çok rahatsız edici.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Aynı "X-Files" dizisindeki Fox Mulder gibi.
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
UFO'lara inanmayı kimler istiyor? Evet, hepimiz istiyoruz.
02:18
and the reason for that is because
52
138260
2000
Bunun nedeni ise beyinlerimize gömülü
02:20
we have a belief engine in our brains.
53
140260
3000
bir inanç makinası olması.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
Esasen, hepimiz patern arayan primatlarız.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Noktaları birleştiriyoruz: A noktasını B, B noktasını C'ye.
02:29
And sometimes A really is connected to B,
56
149260
3000
Bazen A noktası gerçekten de B noktasına bağlı oluyor.
02:32
and that's called association learning.
57
152260
2000
Bu duruma ilişkilendirme ile öğrenme (association learning) deniyor.
02:34
We find patterns, we make those connections,
58
154260
3000
Bazı paternler buluyor, bazı bağlantılar oluşturuyoruz.
02:37
whether it's Pavlov's dog here
59
157260
2000
İster zil sesini yemekle özdeşleştiren
02:39
associating the sound of the bell with the food,
60
159260
3000
Pavlov'un köpeği olsun, ve zilin sesini
02:42
and then he salivates to the sound of the bell,
61
162260
2000
duyduğu zaman ağzı sulansın,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
ister söz konusu olan davranışı ile
02:46
in which he's having an association
63
166260
2000
buna karşılık aldığı ödülü özdeşleştiren
02:48
between his behavior and a reward for it,
64
168260
2000
ve bu nedenle davranışını tekrarlayan
02:50
and therefore he repeats the behavior.
65
170260
2000
Skinner'in faresi olsun.
02:52
In fact, what Skinner discovered
66
172260
2000
Skinner ilginç bir şey keşfetti
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
buna benzer bir kutuya bir güvercin koyarsanız
02:57
and he has to press one of these two keys,
68
177260
2000
ve güvercinin önüne basması için iki düğme yerleştirip
02:59
and he tries to figure out what the pattern is,
69
179260
2000
yandaki kutudan onu ödüllendirirseniz
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
güvercin düğmelere basış sırasını çözmeye çalışacaktır.
03:03
if you just randomly assign rewards
71
183260
3000
Eğer ödülleri herhangi bir model
03:06
such that there is no pattern,
72
186260
2000
olmadan tamamen rastgele olarak
03:08
they will figure out any kind of pattern.
73
188260
2000
verseniz bile, gene de bir tür model bulacaklardır.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Ödülü almadan hemen önce ne yapıyorlardı ise
03:12
they repeat that particular pattern.
75
192260
2000
o hareket modelini tekrar edeceklerdir.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Buna bazen kendi etraflarında saat yönünde iki dönmek ve hemen
03:17
once clockwise and peck the key twice.
77
197260
3000
ardından düğmeyi iki kere gagalamak da dahil.
03:20
And that's called superstition,
78
200260
2000
Ve bu davranışa batıl inanç diyoruz.
03:22
and that, I'm afraid,
79
202260
2000
Ve korkarım bu davranış
03:24
we will always have with us.
80
204260
2000
her zaman bizim bir parçamız olacak.
03:26
I call this process "patternicity" --
81
206260
2000
Ben bu sürece "model bulma" diyorum,
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
yani anlamlı ve anlamsız verilerin arasından
03:30
in both meaningful and meaningless noise.
83
210260
3000
anlamlı bir model bulma eğilimi.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Bunu yaptığımızda iki tür hata yaparız.
03:36
A Type I error, or false positive,
85
216260
2000
Birinci grup hata, ya da yalancı pozitif olanı
03:38
is believing a pattern is real
86
218260
2000
gerçek olmayan bir modele
03:40
when it's not.
87
220260
2000
inanmak.
03:42
Our second type of error is a false negative.
88
222260
2000
İkinci grup hata ise yalancı negatif.
03:44
A Type II error is not believing
89
224260
2000
Gerçek bir patern olmasına rağmen
03:46
a pattern is real when it is.
90
226260
3000
buna inanmamak.
03:49
So let's do a thought experiment.
91
229260
2000
Şimdi bir zihin jimnastiği yapalım.
03:51
You are a hominid three million years ago
92
231260
2000
Diyelim ki, bundan 3 milyon yıl önce
03:53
walking on the plains of Africa.
93
233260
3000
Afrika ovalarında yürüyen bir ilkel insansınız.
03:56
Your name is Lucy, okay?
94
236260
2000
Adınız da Lucy olsun, tamam mı?
03:58
And you hear a rustle in the grass.
95
238260
2000
Otların arasında bir hışırtı duyuyorsunuz.
04:00
Is it a dangerous predator,
96
240260
2000
Sesi tehlikeli bir yırtıcı hayvan mı çıkarıyor,
04:02
or is it just the wind?
97
242260
2000
yoksa sadece rüzgar mı?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Bir an sonra vereceğiniz karar hayatınızda aldığınız en önemli karar olabilir.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Eğer otlar sizin sandığınız gibi yırtıcı hayvan nedeniyle değil de
04:10
and it turns out it's just the wind,
100
250260
2000
rüzgar nedeniyle hışırdıyorsa,
04:12
you've made an error in cognition,
101
252260
2000
algılama konusunda bir hata yaptınız,
04:14
made a Type I error, false positive.
102
254260
2000
bu birinci grup hata, yalancı pozitif.
04:16
But no harm. You just move away.
103
256260
2000
Ama bir zararı yok. Sadece orada uzaklaşmanıza
04:18
You're more cautious. You're more vigilant.
104
258260
2000
neden oldu. Daha bir dikkatlisiniz, daha tetiktesiniz.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Öte yandan, eğer otların hışırdamasının nedeninin rüzgar olduğunu düşünürseniz,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
ama aslında orada yırtıcı bir hayvan varsa,
04:25
you're lunch.
107
265260
2000
öğle yemeği oldunuz.
04:27
You've just won a Darwin award.
108
267260
2000
Tebrikler, Darwin ödülüne hak kazandınız.
04:29
You've been taken out of the gene pool.
109
269260
2000
Gen havuzundan ayıklandınız.
04:31
Now the problem here is that
110
271260
2000
Şimdi, buradaki sorun şu ki
04:33
patternicities will occur whenever the cost
111
273260
2000
paternlendirme davranışı, birinci grup hata yapma
04:35
of making a Type I error
112
275260
2000
maliyetinin, ikinci grup hata yapma maliyetinden
04:37
is less than the cost of making a Type II error.
113
277260
2000
çok daha az olduğu durumlarda ortaya çıkar.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Bu arada, gördüğünüz bu konuşmadaki tek formül.
04:41
We have a pattern detection problem
115
281260
2000
Hepimizde bir patern algılama sorunu var,
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
birinci ve ikinci grup hataları değerlendirip aralarındaki farkı bulmak
04:46
is highly problematic,
117
286260
2000
epey problemli,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
özellikle de ölüm kalım meselesi olan kısa anlar söz konusu ise.
04:51
So the default position
119
291260
2000
Bu nedenle varsayılan ayarımız
04:53
is just: Believe all patterns are real --
120
293260
2000
"tüm paternlerin gerçek olduğuna inanmak."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Çalıların arasında gelen tüm hışırtılar yırtıcı hayvanlara
04:58
and not just the wind.
122
298260
2000
aittir, rüzgar değil."
05:00
And so I think that we evolved ...
123
300260
2000
Bu nedenle, sanırım buna göre evrimleştik.
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
Zihnimizdeki inanç mekanizmasının eğilimleri doğal seleksiyona neden oldu.
05:05
our pattern-seeking brain processes,
125
305260
2000
Model(Pattern) arayan beyinlerimiz, her zaman
05:07
to always find meaningful patterns
126
307260
2000
anlamlı modeller bulmak ve bu modeli
05:09
and infuse them with these sort of
127
309260
2000
bizi avlamak isteyen, canımıza kasteden
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
dış etmenlerle bağdaştırmak konusunda çalışıyor. Buna tekrar geleceğim.
05:14
So for example, what do you see here?
129
314260
2000
Örneğin, burada ne görüyorsunuz?
05:16
It's a horse head, that's right.
130
316260
2000
Bir at kafası, doğru.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Bir ata benziyor, o zaman at olmalı.
05:20
That's a pattern.
132
320260
2000
Bu bir patern.
05:22
And is it really a horse?
133
322260
2000
Peki gerçekten bir at mı?
05:24
Or is it more like a frog?
134
324260
3000
Yoksa bir kurbağaya mı benziyor?
05:27
See, our pattern detection device,
135
327260
2000
Bakın, bizdeki patern tanıma cihazı
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
ki beynimizdeki cingulate cortex'in hemen önünde yer alıyor--
05:32
it's our little detection device there --
137
332260
3000
işte bu ufak cihazımız--
05:35
can be easily fooled, and this is the problem.
138
335260
2000
kolaylıkla kandırılabilir, bütün sorun burada.
05:37
For example, what do you see here?
139
337260
2000
Örneğin, burada ne görüyorsunuz?
05:39
Yes, of course, it's a cow.
140
339260
3000
Evet, elbette. Bu bir inek.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Bir defa beyni şartladıktan sonra -- ki buna algısal şartlama deniyor--
05:45
once I prime the brain to see it,
142
345260
2000
beyni bir defa şartladıktan sonra
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
arkasındaki alandan ayrı bir şekilde göz önüne çıkıyor.
05:50
And what do you see here?
144
350260
2000
Burada ne görüyorsunuz?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Bazı insanlar bir dalmaçyalı köpek görüyorlar.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Evet, işte burada. Sınırları da bunlar.
05:56
So when I go back without the prime,
147
356260
2000
Sınırları kaldırsam bile
05:58
your brain already has the model
148
358260
2000
beyninizde artık model oluştuğundan
06:00
so you can see it again.
149
360260
2000
bunu hala görebilirsiniz.
06:02
What do you see here?
150
362260
3000
Burada ne görüyorsunuz?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Satürn gezegeni. Evet, doğru.
06:07
How about here?
152
367260
3000
Peki ya burada?
06:10
Just shout out anything you see.
153
370260
3000
İlk fark eden oturduğu yerden söylesin.
06:14
That's a good audience, Chris.
154
374260
2000
Bu gerçekten de çok iyi bir seyirci grubu.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Çünkü burada hiç bir şey yok. Aslında özellikle hiç bir şey yok.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Bu Texas Universitesi'nden Jennifer Whitson'un
06:22
at U.T. Austin
157
382260
2000
kurumsal ortamlarda yaşanan
06:24
on corporate environments
158
384260
2000
belirsizlik ve kontrolü elinden kaçırma hislerinin
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
insanların yanılsamalı paternler görmesine neden olup
06:29
makes people see illusory patterns.
160
389260
2000
olmadığını araştırmak için yaptığı bir deney.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Öyle ki, hemen herkes Satürn gezegenini görüyor.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Ama insanlar kontrolün kendilerinde olmadığı bir ortama konulduklarında
06:37
are more likely to see something in this,
163
397260
2000
aslında patern içermeyen bu resimde de bazı
06:39
which is allegedly patternless.
164
399260
3000
paternler görmeye başlayabiliyorlar.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Bir başka deyişle, bu tip paternler görme eğilimi
06:45
goes up when there's a lack of control.
166
405260
3000
kontrol eksikliği olan durumlarda artıyor.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
Örneğin, beyzbol oyuncuları sopa sallarken batıl inançlara
06:51
when they're batting,
168
411260
2000
inanılmaz derecede bel bağlarlar,
06:53
but not so much when they're fielding.
169
413260
2000
ama yakalarken aynı derecede batıl inançları yoktur.
06:55
Because fielders are successful
170
415260
2000
Çünkü yakalayıcılar %90-95 oranında
06:57
90 to 95 percent of the time.
171
417260
2000
başarılıdırlar.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Oysa en iyi vurucular bile 10 vuruşun yedisini kaçırırlar.
07:02
So their superstitions, their patternicities,
173
422260
2000
Bu nedenle batıl inançları, patern bulmaları
07:04
are all associated with feelings of lack of control
174
424260
3000
kontrollerinin eksik olduğu bu gibi durumlarla
07:07
and so forth.
175
427260
2000
ilgili.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Peki, bu şekilde ne görüyorsunuz?
07:13
Anybody see an object there?
177
433260
2000
Burada bir cisim görebilen var mı?
07:15
There actually is something here,
178
435260
2000
Aslında burada bir cisim var, fark edilmez
07:17
but it's degraded.
179
437260
2000
hale getirilmiş.
07:19
While you're thinking about that,
180
439260
2000
Siz bunu düşünedurun,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
bu aslında İngiltere'de yaşayan bir psikolog olan
07:23
a psychologist in England,
182
443260
2000
Susan Blackmore tarafından yapılmış bir deney.
07:25
who showed subjects this degraded image
183
445260
2000
Deneklere bu bozulmuş resmi göstermiş ve
07:27
and then ran a correlation between
184
447260
2000
bu kişilerin ESP skorları ile, yani
07:29
their scores on an ESP test:
185
449260
2000
doğaüstü olaylara , meleklere filan
07:31
How much did they believe in the paranormal,
186
451260
2000
ne kadar inandıkları ile bir ilişki
07:33
supernatural, angels and so forth.
187
453260
3000
kurmaya çalışmış.
07:36
And those who scored high on the ESP scale,
188
456260
3000
ESP skoru yüksek olan deneklerin
07:39
tended to not only see
189
459260
2000
bu bozulmuş resimde daha fazla patern
07:41
more patterns in the degraded images
190
461260
2000
gördüklerini, ve hatta bu gördükleri paternlerin
07:43
but incorrect patterns.
191
463260
2000
çoğunun da yanlış olduğunu saptamış.
07:45
Here is what you show subjects.
192
465260
2000
Deneklere gösterilen resimler bunlar.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Bir balık resmi, %20, %50 ve
07:50
and then the one I showed you,
194
470260
2000
size gösterdiğim resimdeki gibi %70 oranında bozulmuş, noktalarla gizlenmiş.
07:52
70 percent.
195
472260
2000
Yüzde yetmiş.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
İsveçli bir psikolog olan Peter Brugger, benzer başka
07:56
named Peter Brugger,
197
476260
2000
deney yapmış,
07:58
who found significantly more meaningful patterns
198
478260
3000
sol görme alanı ile görülen ve sağ beyin tarafından
08:01
were perceived on the right hemisphere,
199
481260
2000
işlenen görüntülerde, sol beyne kıyasla
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
daha fazla sayıda anlamlı patern bulunduğunu saptamış.
08:06
So if you present subjects the images such
201
486260
2000
Yani eğer deneklere beynin sol yarıküresi ile değil
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
sağ yarımküresi ile görebilecekleri nesneler gösterirseniz
08:11
then they're more likely to see patterns
203
491260
2000
patern görme ihtimalleri çok daha
08:13
than if you put it on the left hemisphere.
204
493260
2000
fazla olacaktır.
08:15
Our right hemisphere appears to be
205
495260
2000
Beynimizin sağ yarımküresi
08:17
where a lot of this patternicity occurs.
206
497260
2000
bu patern bulmanın çoğunun oluştuğu yer.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Bunun nerede olduğunu anlamak için beyni derinlemesine
08:21
to see where all this happens.
208
501260
2000
incelemeye çalışıyoruz.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger ve meslekdaşı Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
deneklere L-DOPA verdiler.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA bir ilaç, bildiğiniz gibi dopamin eksikliğine bağlı oluşan
08:31
which is related to a decrease in dopamine.
212
511260
3000
Parkinson Hastalığı'nın tedavisinde kullanılıyor.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA, Dopamin miktarını artırıyor.
08:36
An increase of dopamine caused
214
516260
2000
Ve dopamini artırılmış deneyler,
08:38
subjects to see more patterns
215
518260
2000
Dopamini normal seviyede olan
08:40
than those that did not receive the dopamine.
216
520260
2000
deneklere göre çok daha fazla sayıda patern görüyorlar.
08:42
So dopamine appears to be the drug
217
522260
2000
Yani Dopamin, patern bulma ile
08:44
associated with patternicity.
218
524260
2000
bağlantılı bir ilaç gibi görünüyor.
08:46
In fact, neuroleptic drugs
219
526260
2000
Aslında, nöroleptik ilaçlar
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
psikotik davranışların engellenmesinde kullanılıyor,
08:50
things like paranoia, delusions
221
530260
2000
paranoya, sanrılar ve halüsinasyonlar
08:52
and hallucinations,
222
532260
2000
bunların tamamı
08:54
these are patternicities.
223
534260
2000
patern bulma bozuklukları.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Bunlar yanlış paternler. Hatalı pozitifler. Birinci grup hatalar.
08:59
And if you give them drugs
225
539260
2000
Ve bu insanlara ilaç verdiğinizde
09:01
that are dopamine antagonists,
226
541260
2000
dopamin antagonisti verdiğinizde,
09:03
they go away.
227
543260
2000
paternler kayboluyor.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Yani dopamin miktarını ne kadar azaltırsanız
09:07
and their tendency to see
229
547260
2000
onların patern görme ihtimallerini de
09:09
patterns like that decreases.
230
549260
2000
o kadar azaltmış oluyorsunuz.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Diğer yandan, bir amfetamin olan kokain
09:14
are dopamine agonists.
232
554260
2000
bir dopamin antagonisti (karşıtı).
09:16
They increase the amount of dopamine.
233
556260
2000
Dopamin miktarını artırıyorlar.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Bu nedenle, bu ilaçları aldığınızda daha öforik ve yaratıcı
09:21
creativity, find more patterns.
235
561260
2000
oluyor, daha fazla sayıda patern buluyorsunuz.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
Yakın zamanda Robin Williams'ın
09:25
talk about how he thought he was much funnier
237
565260
2000
bir konuşmasını dinledim. Kokain aldığı dönemlerde
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
kendisinin şimdi olduğundan çok daha komik olduğuna inandığını anlatıyordu.
09:30
So perhaps more dopamine
239
570260
2000
Belki de dopamin artışı
09:32
is related to more creativity.
240
572260
2000
yaratıcılıktaki artışla bağlantılıdır.
09:34
Dopamine, I think, changes
241
574260
2000
Sanırım dopamin, bizdeki
09:36
our signal-to-noise ratio.
242
576260
2000
parazit-sinyal oranını değiştiriyor.
09:38
That is, how accurate we are
243
578260
2000
Yani patern bulma konusunda ne kadar
09:40
in finding patterns.
244
580260
2000
kesin ve hatasız olduğumuzu.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Eğer çok düşükse, o zaman da ikinci grup hata yapma ihtimaliniz artıyor.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
gerçekte olan paternleri fark edememeye başlıyorsunuz. Çok da şüpheci olmak istemezsiniz.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Eğer çok şüpheci olursanız bazı ilginiç ve iyi fikirleri kaçırabilirsiniz.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Tam dengede olması gerekir, yaratıcı olacak kadar, ama palavralara kanmayacak kadar.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Çok yüksek olursa belki her yerde paternler görmeye başlayabilirsiniz.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
Size insanlar her baktığında sizi izlediklerini zannedersiniz.
10:00
You think people are talking about you.
251
600260
2000
İnsanların sizin hakkınızda konuştuğunu sanırsınız.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Bunu yeterince ileri götürecek olursanız da
10:04
labeled as madness.
253
604260
2000
deli diye etiketlenmeniz an meselesidir.
10:06
It's a distinction perhaps we might make
254
606260
2000
Belki de iki Nobel ödüllü bilim adamı arasındaki
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
fark budur, Richard Feynman ve
10:10
and John Nash.
256
610260
2000
John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Biri belki Nobel Ödülü kazanmasına yetecek kadar sayıda
10:14
of patterns to win a Nobel Prize.
258
614260
2000
patern görüyor. Diğer ise
10:16
The other one also, but maybe too many patterns.
259
616260
2000
belki de çok fazla sayıda paterne sahip.
10:18
And we then call that schizophrenia.
260
618260
3000
Böyle olunca da bu duruma şizofreni diyoruz.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Yani parazit-sinyal oranı bize kendini patern algılama problemi olarak gösteriyor.
10:24
And of course you all know exactly
262
624260
2000
Elbette hepiniz bunun ne olduğunu biliyorsunuz,
10:26
what this is, right?
263
626260
2000
değil mi?
10:28
And what pattern do you see here?
264
628260
2000
Hangi paterni görüyorsunuz?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Burada, birbiriyle çelişen patern algılamalarına nedn olan
10:33
causing you conflicting pattern detections.
266
633260
3000
beyninizin ön cingulate korteksini tekrar test ediyorum
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Elbette biliyorsunuz, bunlar Via Uno mara ayakkabılarç
10:38
These are sandals.
268
638260
3000
Sandaletler.
10:41
Pretty sexy feet, I must say.
269
641260
3000
İtiraf etmeliyim ki, epey çekici bir ayak.
10:44
Maybe a little Photoshopped.
270
644260
2000
Biraz Photoshoplanmış gibi sanki.
10:46
And of course, the ambiguous figures
271
646260
2000
Elbette, bunlar şift anlamlı figürler,
10:48
that seem to flip-flop back and forth.
272
648260
2000
bir an biri bir an diğeri öne çıkıyor.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Sonuçta, neyi daha fazla düşünüyorsanız
10:52
influences what you
274
652260
2000
o, sizin benzer şekilleri görme meyilinizi
10:54
tend to see.
275
654260
2000
artırıyor.
10:56
And you see the lamp here, I know.
276
656260
2000
Burada bir lamba gördüğünüzü biliyorum,
10:58
Because the lights on here.
277
658260
3000
bakın ışıklar açık hatta.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Çevrecilerin girişimleri sayesinde hepimiz
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
denizde yaşayan memelilerin sorunlarına çok hassasız.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Bu nedenle buradaki karmaşık şekilde aslında
11:09
is, of course, the dolphins, right?
281
669260
2000
bir sürü yunus görüyorsunuz, değil mi?
11:11
You see a dolphin here,
282
671260
2000
İşte burada bir yunus var.
11:13
and there's a dolphin,
283
673260
2000
Bir başkası da burada.
11:15
and there's a dolphin.
284
675260
2000
Bakın, bir yunus daha.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Bu gördüğünğz ise bir yunusun kuyruğu arkadaşlar.
11:20
(Laughter)
286
680260
3000
(Gülüşmeler)
11:25
If we can give you conflicting data, again,
287
685260
3000
Eğer size tekrar birbiriyle çelişen veriler gösterirsem,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
beyninizdeki ACC (ant. cingular cortex) aşırı çalışacak ve zorlanacaktır.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Burada, aşağıya bakarsanız herşey normal. Ama yukarıya bakarsanız çelişen veri ile karşılaşacaksınız.
11:34
And then we have to flip the image
290
694260
2000
Bu nedenle resmi çevirmemiz gerekecek ki,
11:36
for you to see that it's a set up.
291
696260
2000
bu görüntünün aslında bir düzmece olduğunu fark edin.
11:40
The impossible crate illusion.
292
700260
2000
İmkansız sandık illüzyonu.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
beyni iki boyutta kandırmak daha kolaydır.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Bu nedenle "Hadi ama Shermer, Psikoloji ders kitabı okumuş
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
olan herkes buna benzer bir ülüzyon bulabilir." dediğinizi duyar gibiyim.
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
İşte karşınızda müthiş Jerry Andrus,
11:50
"impossible crate" illusion in 3D,
297
710260
3000
ve yarattığı 3 boyutlu "imkansız sandık" illüzyonu.
11:53
in which Jerry is standing inside
298
713260
2000
Gördüğünüz gibi Jerry, imkansız sandığın
11:55
the impossible crate.
299
715260
2000
içinde ayakta duruyor.
11:57
And he was kind enough to post this
300
717260
2000
Ve bize bunu nasıl yaptığını gösteren bu resmi
11:59
and give us the reveal.
301
719260
2000
gönderecek kadar da kibar bir beyefendi.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Elbette, bütün olay kamera açısında. Fotoğrafı çeken şurada duruyor.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Böylece bu tahta buradakinin, diğeri de şunun üstünde gibi duruyor.
12:07
But even when I take it away,
304
727260
2000
Ama bu resmi kaldırsam bile,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
beyinlerimizin bu tip paternleri bulma konusundaki şartlanması
12:11
to find those certain kinds of patterns.
306
731260
3000
nedeniyle illüzyon hala güçlü bir şekilde görülebiliyor.
12:14
This is a fairly new one
307
734260
2000
Bu daha yeni bir tanesi.
12:16
that throws us off because of the conflicting patterns
308
736260
2000
Açılardan birini öbürü ile karşılaştırıken oluşan
12:18
of comparing this angle with that angle.
309
738260
3000
birbiriyle çelişen paternler nedeniyle bizi şaşırtıyor.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
Aslında yanyana duran bu iki resim birbirinin aynısı.
12:24
So what you're doing is comparing that angle
311
744260
2000
Yaptığınız şey ise bu açıyı, şu açı yerine
12:26
instead of with this one, but with that one.
312
746260
2000
buradaki ile karşılaştırmak.
12:28
And so your brain is fooled.
313
748260
2000
Ve böylece beyninizi kandırıldı.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Bir defa daha patern tanıma cihazlarınız yanıldı.
12:32
Faces are easy to see
315
752260
2000
Yüzleri tanımak daha kolaydır,
12:34
because we have an additional evolved
316
754260
2000
çünkü hepimizin beyninin temporal (yan) loblarında
12:36
facial recognition software
317
756260
2000
yüzleri tanımak için evrimleşmiş
12:38
in our temporal lobes.
318
758260
3000
özel bir program mevcut.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Bakın kayanın yan tarafında bazı yüzler var.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
Bunun gerçek olduğundan emin değilim aslında -- Photoshopla yapılmış olabilir.
12:47
But anyway, the point is still made.
321
767260
2000
Ama her neyse, sonuçta demek istediğimi anladınız.
12:49
Now which one of these looks odd to you?
322
769260
2000
Bunlardan hangisi size tuhaf geliyor?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
Çok çabuk söyleyin, hangisi acaip görünüyor?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Soldaki değil mi? Tamam, bakın çeviriyorum.
12:55
so it'll be the one on the right.
325
775260
2000
Şimdi sağ tarafa geçti.
12:57
And you are correct.
326
777260
2000
Ve kesinlikle haklısınız.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Bu oldukça meşhur bir illüzyon -- ilk defa Margaret Thatcher'in resmine yapıldı.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Bu aralar sürekli resimdeki politikacıları değiştiriyorlar.
13:04
Well, why is this happening?
329
784260
2000
Pek, bu neden oluyor?
13:06
Well, we know exactly where it happens,
330
786260
2000
Aslında nerede olduğunu tam olarak biliyoruz,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
kulağınızın hemen üzerinde, beyninizin temporal lobunda
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
fusiform gyrus denen ufak bir yapı var.
13:14
And there's two types of cells that do this,
333
794260
2000
Bunu yapabilen iki grup hücre mevcut,
13:16
that record facial features either globally,
334
796260
3000
yüz hatlarını bir bütün olarak kaydeden hücreler,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
veya parça parça kaydeden, hızlı çalışan diğer hücreler.
13:21
first look at the general face.
336
801260
2000
Bu nedenle yüze ilk baktığınızda
13:23
So you recognize Obama immediately.
337
803260
2000
Obama'yı hemen tanıyabiliyorsunuz.
13:25
And then you notice something quite
338
805260
2000
Ama hemen sonra bir gözlerle ve ağızla
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
ilgili bir tuhaflık dikkatinizi çekiyor.
13:29
Especially when they're upside down,
340
809260
2000
Özellikle de resim ters dururken.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Burada işin içine genel yüz tanıma programı giriyor.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Daha önce başladğımız ufak zihin egzersizine dönelim,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
Afrika ovalarında yürüyen bir ilkel insansınız.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Duyduğunuz rüzgarın sesi mi, yoksa yırtıcı bir hayvan mı?
13:42
What's the difference between those?
345
822260
2000
Bu ikisi arasındaki fark nedir?
13:44
Well, the wind is inanimate;
346
824260
2000
Rüzgar cansız bir varlık;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
yırtıcı hayvan ise irade sahibi bir etken.
13:48
And I call this process agenticity.
348
828260
2000
Ben bu sürece etkenleştirme diyorum.
13:50
That is the tendency to infuse patterns
349
830260
2000
Bu, anlamı ve amacı olan etkenlere
13:52
with meaning, intention and agency,
350
832260
2000
ait paternleri birleştirerek bunlardan anlam çıkarma dürtüsü,
13:54
often invisible beings from the top down.
351
834260
3000
ki genelde görünmez varlıklara uygulanıyor.
13:57
This is an idea that we got
352
837260
2000
Burada konuşan bir başka
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
TED konuşmacısından öğrendiğimiz bir fikir bu,
14:01
who talked about taking the intentional stance.
354
841260
2000
kasıtlı bir tutum alma ile ilgili konuşmuştu.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Bence, bu farklı pek çok şeyi açıklamak için kullanılagelmeye başlamış bir yöntem,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
ruhlar, hayaletler, tanrılar, şeytanlar, kötü ruhlar, melekler,
14:09
aliens, intelligent designers,
357
849260
2000
uzaylılar, akıllı yaratıcılar,
14:11
government conspiracists
358
851260
2000
hükümet komplocuları,
14:13
and all manner of invisible agents
359
853260
2000
ve gözle görülmeyen ama
14:15
with power and intention, are believed
360
855260
2000
güç ve amaç sahibi olan her etkenin
14:17
to haunt our world and control our lives.
361
857260
2000
dünyayı ele geçirdiği ve yaşantımızı kontrol ettiğini sanıyoruz.
14:19
I think it's the basis of animism
362
859260
2000
Bence bu şamanizmin kökeninde yatan olay,
14:21
and polytheism and monotheism.
363
861260
3000
çoktanrılılık ve ve tektanrılılık'ın kökenlerinde de var.
14:24
It's the belief that aliens are somehow
364
864260
2000
Uzaylıların bizden her nasılsa
14:26
more advanced than us, more moral than us,
365
866260
2000
her zaman daha ileri uygarlığa sahip olduğu, bizden daha etik
14:28
and the narratives always are
366
868260
2000
oldukları ve bizi kurtarmak için buralara kadar
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
geldikleri yolundaki hikayelerin kökeninde de bu inanç var.
14:33
The intelligent designer's always portrayed
368
873260
2000
Akıllı yaratıcılar, hayatı tasarlayan
14:35
as this super intelligent, moral being
369
875260
3000
bu aşırı zeki ve etik, herşeye kadir
14:38
that comes down to design life.
370
878260
2000
varlıklar olarak tanımlanıyor.
14:40
Even the idea that government can rescue us --
371
880260
2000
Hükümetin bizi kurtaracak olduğu fikri de öyle.
14:42
that's no longer the wave of the future,
372
882260
2000
Bu artık geleceğe ait bir akım değil.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Ama bence bu da bir nevi etkenleştirme,
14:46
projecting somebody up there,
374
886260
2000
bizden üstün birilerinin, birşeylerin
14:48
big and powerful, will come rescue us.
375
888260
2000
bir gün gelip bizi kurtaracağı düşüncesi.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Bence komplo teorilerinin kökeninde de bu yatıyor.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Oralarda gizli birisi bazı ipleri çekiyor,
14:55
whether it's the Illuminati
378
895260
2000
ister İlluminati deyin
14:57
or the Bilderbergers.
379
897260
2000
ister Bilderbergers.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Aslında bunların her biri birere patern algılama sorunu, değil mi?
15:01
Some patterns are real and some are not.
381
901260
2000
Bazı paternler gerçek, bazıları ise değil.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
JFK'nin vurulması bir komplo muydu, yoksa delinin biri kendi başına mı onu vurdu?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Eğer vurulduğu yere gidecek olursanız --orada günün her saati bir sürü adam var--
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
ben gittim, bakın burada bana farklı tetikçilerin durdukları yerleri gösteriyorlar.
15:12
My favorite one was he was in the manhole.
385
912260
3000
benim favori noktam ise lağım kapağının altı idi.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Göya bir anda kapağı aşıp dışarı fırlamış ve ateş etmiş.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Ama elbette, Lincoln'un vurulması bir komplo teorisi idi.
15:20
So we can't just uniformly dismiss
388
920260
2000
Demek ki tüm paternleri bu şekilde
15:22
all patterns like that.
389
922260
2000
göz ardı edemeyiz.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Çünkü, kabul etmek lazım ki bazı paternler gerçek olabilir.
15:26
Some conspiracies really are true.
391
926260
2000
Bazı komplo teorileri gerçekten de doğru olabilir.
15:30
Explains a lot, maybe.
392
930260
2000
Bu pekçok şeyi açıklıyor, değil mi?
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
9/11 de bir komplo teorisi. Bir komplo.
15:35
We did a whole issue on it.
394
935260
2000
Tamamen bu konuya ayırdığımız bir sayımız var.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
El-Kaide'nin 19 üyesinin, uçakları kaçırarak binalara çarpmayı
15:39
constitutes a conspiracy.
396
939260
2000
planlaması komplonun ta kendisi.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Ama "9/11 inkarcıları" böyle düşünmüyor.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Onlar, bunun Bush yönetiminin hazırladığı bir komplo olduğunu sanıyorlar.
15:46
Well, that's a whole other lecture.
399
946260
2000
Bu, bambaşka bir konuşmanın konusu.
15:48
You know how we know that 9/11
400
948260
2000
Peki, 9/11 felaketinin Bush yönetiminin işi olmadığı
15:50
was not orchestrated by the Bush administration?
401
950260
2000
nereden belli biliyor musunuz?
15:52
Because it worked.
402
952260
2000
Çünkü çuvallamadı.
15:54
(Laughter)
403
954260
3000
(Gülüşmeler)
15:57
(Applause)
404
957260
3000
(Alkışlar)
16:00
So we are natural-born dualists.
405
960260
2000
Bizler, doğuştan gelen düalistleriz.
16:02
Our agenticity process comes from
406
962260
2000
Etkenlendirme sürecimiz buna benzer
16:04
the fact that we can enjoy movies like these.
407
964260
2000
filmleri izlemekten keyif almamızdan kaynaklanıyor.
16:06
Because we can imagine, in essence,
408
966260
2000
Çünkü, aslında bizler devamlılığı
16:08
continuing on.
409
968260
2000
hayal edebiliyoruz.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Bugün şunu biliyoruz ki, eğer temporal lobu uyarırsanız
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
vücut dışına seyahat, ya da ölümden dönme benzeri
16:14
near-death experiences,
412
974260
2000
deneyimler yaratabilirsiniz.
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
tek yapmanız gereken şuradaki temporal loba bir elektrod ile dokunmak.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Ya da aynı şeyi bir santrifüj cihazında hızla
16:21
by accelerating in a centrifuge.
415
981260
2000
dönerek de sağlayabilirsiniz.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Hipoksi ya da düşük oksijen seviyesi.
16:26
And the brain then senses
417
986260
2000
Böylece beyniniz bir nevi
16:28
that there's an out-of-body experience.
418
988260
2000
vücut dışına seyahat deneyimi yaşayabilir.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Ya da gidip Michael Persinger'in icadı olan
16:32
Michael Persinger's God Helmet,
420
992260
2000
"Tanrı Kaskı"nı takıp, temporal loblarınızı
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
elektromanyetik dalgalarla bombardıman ettirebilirsiniz --ben yaptım--.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Böylece bir nevi vücur dışına seyahat deneyimi yaşayabilirsiniz.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Burada bitirmeden önce size kısa bir video klip göstermek istiyorum
16:41
that sort of brings all this together.
424
1001260
2000
tüm anlattıklarımı toparlıyor aslında.
16:43
It's just a minute and a half.
425
1003260
2000
Sadece birbuçuk dakika.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Beklentinin gücü ile inançtan kaynaklanan gücü birleştiriyor.
16:48
Go ahead and roll it.
427
1008260
2000
Bakın bakalım.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Sunucu: Burası, sözde bir dudak kremi reklamı çekimi
16:53
for an advert for lip balm.
429
1013260
2000
için seçilen bir alan.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Kadın: Buradaki çekimlerden bir kısmını bütün ülkede
16:57
in a national commercial, right?
431
1017260
2000
yayınlanacak reklamlarımızda kullanmayı planlıyoruz.
16:59
And this is test on some lip balms
432
1019260
2000
Bu test, orada gördüğün dudak
17:01
that we have over here.
433
1021260
2000
kremleri için.
17:03
And these are our models who are going to help us,
434
1023260
2000
Bunlar da bize yardımcı olacak modeller,
17:05
Roger and Matt.
435
1025260
2000
Roger ve Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Biri bizim ürettiğimiz dudak kremini
17:09
and we have a leading brand.
437
1029260
2000
diğeri de en çok satan markayı sürdü.
17:11
Would you have any problem
438
1031260
2000
Kremleri denemek için modellerimizi
17:13
kissing our models to test it?
439
1033260
2000
öpmende bir sorun var mı?
17:15
Girl: No.
440
1035260
2000
Genç kız: Yoo.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Kadın: Yok mu? ( Genç kız: Yok.) Kadın: Sencı sorun değil yani.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Genç kız: Yo, sorun değil. ( Kadın: Tamam.)
17:21
So this is a blind test.
443
1041260
3000
Bu testi gözü kapalı yapacağız.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Senden ricam, bu göz bağını
17:26
and put a blindfold on.
445
1046260
2000
sıkıca takman.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
Kay, birşey görebiliyor musun? ( Genç kız: Hayır)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Biraz daha aşağıya çek ki alt tarafı da kapatsın.
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Kadın: Tamamn kapalı şimdi değil mi?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Genç kız: Evet. (Kadın: Tamam.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Şimdi, bu testte görmek istediklerimiz şunlar,
17:41
is how it protects your lips,
451
1061260
3000
krem dudakları ne kadar koruyor,
17:44
the texture, right,
452
1064260
2000
dokusu nasıl, değil mi,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
bir de eğer kremin tadını alıyorsan, tadı nasıl, neye benziyor. Tamam?
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Genç kız: Tamam. (Kadın: Daha önce hiç öpüşme testi yapmış mıydın?)
17:52
Girl: No.
455
1072260
2000
Genç kız: Yoo.
17:54
Woman: Take a step here.
456
1074260
2000
Kadın: Öne doğru bir adım at.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
Tamam şimdi dudaklarını ileri doğru uzat
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
ve biraz öne doğru eğil, tamam mı?
18:06
(Music)
459
1086260
4000
(Müzik)
18:10
(Laughter)
460
1090260
5000
(Kahkahalar)
18:19
(Laughter)
461
1099260
3000
(Kahkahalar)
18:30
Woman: Okay.
462
1110260
2000
Tamam.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Eee, Jennifer, ne hissettin?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: Gayet iyi.
18:36
(Laughter)
465
1116260
7000
(Kahkahalar)
18:43
Girl: Oh my God!
466
1123260
2000
Genç kız: Aman Tanrım!
18:45
(Laughter)
467
1125260
4000
(Kahkahalar)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Çok teşekkür ederim. Teşekkür ederim. Sağolun.
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7