아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Sun Young Kim
검토: Nakho Kim
00:16
So since I was here last in '06,
0
16260
3000
2006년 제가 여기에 마지막으로 발표한 이후
00:19
we discovered that global climate change
1
19260
2000
우리는 지구온난화가
00:21
is turning out to be a pretty serious issue,
2
21260
2000
상당히 심각한 이슈로 드러났다는 것을 알게 되었습니다.
00:23
so we covered that fairly extensively
3
23260
2000
그래서 우리는 그 문제를 꽤 광범위하게
00:25
in Skeptic magazine.
4
25260
2000
스켑틱 매거진에서 다뤘습니다.
00:27
We investigate all kinds
5
27260
2000
우리는 모든 종류의
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
과학적 그리고 유사 과학적 논란들을 조사했습니다.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
그러나 이에 대해 걱정할 필요는 없을 듯 합니다.
00:34
because the world's going to end in 2012.
8
34260
2000
2012년 세계 종말이 올테니까요..
00:36
Another update:
9
36260
2000
한가지 더 업데이트해 드릴 소식이...
00:38
You will recall I introduced you guys
10
38260
2000
여러분들은 제가
00:40
to the Quadro Tracker.
11
40260
2000
쿼드로 트래커라는 것을 소개해 드린것을 기억하실겁니다.
00:42
It's like a water dowsing device.
12
42260
2000
수맥을 찾는 기구처럼 생겼죠.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
그냥 회전하는 안테나가 있는 빈 플라스틱 막대인데
00:47
And you walk around, and it points to things.
14
47260
2000
이리 저리 걸어다니면, 주변 물건들을 가리키죠.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
마치 학생들 사물함에 있는 마리화나를 찾을때
00:52
it'll point right to somebody.
16
52260
2000
누군가를 바로 가리키듯 말이죠.
00:54
Oh, sorry. (Laughter)
17
54260
2000
이런, 죄송합니다. (웃음)
00:56
This particular one that was given to me
18
56260
2000
제가 받은 바로 이 물건은
00:58
finds golf balls,
19
58260
2000
골프 공을 찾아줍니다.
01:00
especially if you're at a golf course
20
60260
2000
특히 골프 코스에서
01:02
and you check under enough bushes.
21
62260
3000
수풀 아래를 뒤져볼 때 말이죠.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
"이런 바보같은 물건의 해로운 점이 뭐가 있겠나"에 대한 대답이라면,
01:08
this device, the ADE 651,
23
68260
3000
이 ADE 651이라는 기구가
01:11
was sold to the Iraqi government
24
71260
3000
이라크 정부에
01:14
for 40,000 dollars apiece.
25
74260
2000
하나에 4만 달러로 팔렸다는 점입니다.
01:16
It's just like this one, completely worthless,
26
76260
2000
이거랑 꼭 같이 생긴 것이 말이죠. 전혀 쓸모없죠.
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
그런데 이 녀석은 소위 "정전기 자성 이온 인력"
01:20
magnetic ion attraction,"
28
80260
3000
이라는 것으로 작동한다고 합니다.
01:24
which translates to
29
84260
2000
다시 말하면
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"유사 과학적 헛소리" 라는 표현이 적합할 듯 하네요
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
그럴싸하게 들리는 여러개의 단어들을 묶어 놓았지만
01:31
but it does absolutely nothing.
32
91260
2000
사실은 아무것도 아닌 거죠
01:33
In this case, at trespass points,
33
93260
3000
이 경우에는, 검문소 같은데서
01:36
allowing people to go through
34
96260
2000
이 작은 도구가 괜찮다고 판별해줘서
01:38
because your little tracker device said they were okay,
35
98260
3000
사람들을 그냥 통과시켜주었다가는
01:41
actually cost lives.
36
101260
3000
실제로 인명 손실을 가져올 수 있습니다.
01:44
So there is a danger to pseudoscience,
37
104260
2000
그러니, 유사 과학에는 위험이 도사리고 있습니다.
01:46
in believing in this sort of thing.
38
106260
3000
이런 것을 믿는다는 것 말이죠.
01:49
So what I want to talk about today is belief.
39
109260
3000
그래서 제가 오늘 이야기하고 싶은 주제는 믿음입니다.
01:52
I want to believe,
40
112260
2000
저는 믿고싶습니다.
01:54
and you do too.
41
114260
2000
여러분도 그렇죠
01:56
And in fact, I think my thesis here is that
42
116260
2000
사실, 여기서 제 전제는
01:58
belief is the natural state of things.
43
118260
2000
믿는다는 것은 자연스러운 상태라는 점입니다.
02:00
It is the default option. We just believe.
44
120260
2000
그것은 기본 옵션이죠. 우리는 그냥 믿습니다.
02:02
We believe all sorts of things.
45
122260
2000
우리는 온갖 종류의 것들을 믿습니다.
02:04
Belief is natural;
46
124260
2000
믿는다는 것은 자연스럽습니다.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
불신, 회의, 과학이 자연스럽지 못한 거죠.
02:08
It's more difficult.
48
128260
2000
불신이 훨씬 어렵습니다.
02:10
It's uncomfortable to not believe things.
49
130260
2000
믿지 않는 것은 불편합니다.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
그래서 엑스파일의 멀더 요원처럼
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
누가 UFO의 존재를 믿고 싶어 할까요? 글쎄요, 우리 모두 믿고 싶어하죠.
02:18
and the reason for that is because
52
138260
2000
왜 그런가 하면
02:20
we have a belief engine in our brains.
53
140260
3000
우리 두뇌에는 믿음 엔진이라는 게 있기 때문입니다.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
본질적으로, 우리는 패턴을 찾는 영장류입니다.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
우리는 점들을 연결시킵니다: A는 B와 연결되며, B는 C랑 연결되죠.
02:29
And sometimes A really is connected to B,
56
149260
3000
그리고 때때로 A는 정말로 B와 연결돼 있죠.
02:32
and that's called association learning.
57
152260
2000
이를 우리는 연합학습이라고 부릅니다.
02:34
We find patterns, we make those connections,
58
154260
3000
우리는 패턴을 찾고 이런 연결성을 만들죠,
02:37
whether it's Pavlov's dog here
59
157260
2000
파블로프의 개가
02:39
associating the sound of the bell with the food,
60
159260
3000
종소리를 음식과 연관짓고
02:42
and then he salivates to the sound of the bell,
61
162260
2000
종소리에 침을 흘리는 것이든,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
스키너의 쥐가
02:46
in which he's having an association
63
166260
2000
행동과 보상 간에
02:48
between his behavior and a reward for it,
64
168260
2000
연관을 지어서
02:50
and therefore he repeats the behavior.
65
170260
2000
그 행동을 반복하든 간에 말이죠.
02:52
In fact, what Skinner discovered
66
172260
2000
사실 스키너가 발견한 것은
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
이런 상자에 비둘기를 가둬놓고
02:57
and he has to press one of these two keys,
68
177260
2000
두 개의 키 중 하나를 누르게 하며
02:59
and he tries to figure out what the pattern is,
69
179260
2000
작은 칸에 보상을 떨어트려주면
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
비둘기가 그 패턴을 알아내려 한다는 것입니다.
03:03
if you just randomly assign rewards
71
183260
3000
만약 보상을 무작위로 주면
03:06
such that there is no pattern,
72
186260
2000
패턴이 없는데도 불구하고
03:08
they will figure out any kind of pattern.
73
188260
2000
비둘기들은 어떤 종류의 패턴을 발견하려고 합니다.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
보상을 받기 바로 직전 했던 동작이 무엇이었든 간에,
03:12
they repeat that particular pattern.
75
192260
2000
그 특정 패턴을 반복하는 것이죠.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
때로 그 패턴은 시계 반대 방향으로 두번 돌고,
03:17
once clockwise and peck the key twice.
77
197260
3000
한번 시계방향으로 돌고, 키를 두번 쪼는 동작일 수도 있습니다.
03:20
And that's called superstition,
78
200260
2000
이것을 바로 미신이라고 합니다.
03:22
and that, I'm afraid,
79
202260
2000
안타깝게도,
03:24
we will always have with us.
80
204260
2000
우리는 항상 미신을 가지고 있죠.
03:26
I call this process "patternicity" --
81
206260
2000
저는 이 프로세스를 "패턴성"이라고 부릅니다.
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
즉, 의미있는 패턴을 찾고자 하는 경향이죠
03:30
in both meaningful and meaningless noise.
83
210260
3000
의미를 지닌 잡음들 속에서든, 없는 속에서든 말이죠
03:33
When we do this process, we make two types of errors.
84
213260
3000
우리가 이런 절차를 수행할때, 우리는 두 가지 유형의 오류를 범합니다.
03:36
A Type I error, or false positive,
85
216260
2000
제1종 오류, 또는 잘못된 긍정이라는 것은
03:38
is believing a pattern is real
86
218260
2000
패턴이 진짜가 아닌데
03:40
when it's not.
87
220260
2000
패턴이 진짜라고 믿는 것입니다.
03:42
Our second type of error is a false negative.
88
222260
2000
두번째 오류 유형은 잘못된 부정이라는 것입니다.
03:44
A Type II error is not believing
89
224260
2000
제2종 오류는
03:46
a pattern is real when it is.
90
226260
3000
패턴이 맞는데도 불구하고 패턴을 믿지 않는 오류입니다.
03:49
So let's do a thought experiment.
91
229260
2000
그러면 사고 실험 한 가지를 해 보겠습니다.
03:51
You are a hominid three million years ago
92
231260
2000
당신은 아프리카 평원을 거닐고 있는
03:53
walking on the plains of Africa.
93
233260
3000
삼백만년 전 인류의 조상입니다.
03:56
Your name is Lucy, okay?
94
236260
2000
이름은 루씨입니다. 괜찮죠?
03:58
And you hear a rustle in the grass.
95
238260
2000
수풀 속에서 부스럭거리는 소리를 듣습니다.
04:00
Is it a dangerous predator,
96
240260
2000
그것은 위험한 맹수일까요?
04:02
or is it just the wind?
97
242260
2000
아니면 그냥 바람일까요?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
그 다음 결정은 여러분의 인생에 있어 가장 중요한 것이 될 수 있습니다.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
만약 수풀이 부스럭거리는 소리가 위험한 맹수라고 생각했는데
04:10
and it turns out it's just the wind,
100
250260
2000
그냥 바람에 불과한 것으로 밝혀진다면
04:12
you've made an error in cognition,
101
252260
2000
당신은 인지 오류를 일으켰습니다.
04:14
made a Type I error, false positive.
102
254260
2000
제1종 오류, 잘못된 긍정 오류를 범하게 되는 것이죠
04:16
But no harm. You just move away.
103
256260
2000
그러나, 해가 될 만한 건 없습니다. 그냥 가버리면 되죠.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
좀 더 조심스러웠고, 조금 더 경계를 했을 뿐입니다.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
반면에, 만약 수풀 부스럭거리는 소리가 그냥 바람이라고 믿었는데
04:22
and it turns out it's a dangerous predator,
106
262260
3000
그것이 위험한 맹수 인 것으로 밝혀진다면,
04:25
you're lunch.
107
265260
2000
여러분은 점심꺼리가 됩니다.
04:27
You've just won a Darwin award.
108
267260
2000
방금 다윈 상을 수상하신 겁니다.
04:29
You've been taken out of the gene pool.
109
269260
2000
유전자 풀에서 제거되셨죠.
04:31
Now the problem here is that
110
271260
2000
여기서 문제는
04:33
patternicities will occur whenever the cost
111
273260
2000
제1종 오류를 범하는 비용이
04:35
of making a Type I error
112
275260
2000
제2종 오류를 범하는 비용보다 덜 나갈 경우에는
04:37
is less than the cost of making a Type II error.
113
277260
2000
늘상 패턴성이 발생한다는 것입니다.
04:39
This is the only equation in the talk by the way.
114
279260
2000
아, 이번 강연에 등장하는 유일한 등식입니다.
04:41
We have a pattern detection problem
115
281260
2000
1종과 2종 오류 간의 차이로 인해
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
발생하는 패턴 감지 문제는
04:46
is highly problematic,
117
286260
2000
심각한 문제가 될 수 있습니다.
04:48
especially in split-second, life-and-death situations.
118
288260
3000
특히 순간적으로 삶과 죽음을 결정하는 상황에서는 말이죠.
04:51
So the default position
119
291260
2000
그래서 기본적인 입장은
04:53
is just: Believe all patterns are real --
120
293260
2000
그저 모든 패턴이 실제라고 믿는 것입니다.
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"모든 수풀의 부스럭거림은 단순한 바람이 아니라
04:58
and not just the wind.
122
298260
2000
위험한 맹수이다."
05:00
And so I think that we evolved ...
123
300260
2000
제 생각에는, 그렇게 우리는 진화했습니다.
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
우리의 믿음 엔진이 작동하도록 하는 자연 선택이 이루어졌습니다.
05:05
our pattern-seeking brain processes,
125
305260
2000
항상 의미있는 패턴을 찾고자 하고
05:07
to always find meaningful patterns
126
307260
2000
(나중에 다시 언급할) 어떤 종류의
05:09
and infuse them with these sort of
127
309260
2000
공격적이고 의도적인 측면을 지닌 행위자들을
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
상정하도록 하는 '패턴 검색" 두뇌 프로세스 말이죠.
05:14
So for example, what do you see here?
129
314260
2000
예를들면, 여기에 무엇이 보입니까?
05:16
It's a horse head, that's right.
130
316260
2000
말의 머리입니다. 맞습니다.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
말처럼 생겼죠. 말일겁니다.
05:20
That's a pattern.
132
320260
2000
패턴이죠.
05:22
And is it really a horse?
133
322260
2000
그럼 진짜 말일까요?
05:24
Or is it more like a frog?
134
324260
3000
아니면 개구리를 좀 더 닮았을까요?
05:27
See, our pattern detection device,
135
327260
2000
우리의 패턴 감지 기관을 보세요.
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
전측 대상피질 영역에 위치해 있는 것으로 보이는
05:32
it's our little detection device there --
137
332260
3000
이것이 바로 우리의 조그마한 감지 기관인데
05:35
can be easily fooled, and this is the problem.
138
335260
2000
쉽게 속아넘어가곤 합니다. 그게 문제죠.
05:37
For example, what do you see here?
139
337260
2000
예를 들면, 여기 무엇이 보입니까?
05:39
Yes, of course, it's a cow.
140
339260
3000
네, 물론, 소입니다.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
제가 일단 뇌를 점화하면 -- 보통 인지점화라고 부릅니다 --
05:45
once I prime the brain to see it,
142
345260
2000
일단 제가 그것을 보도록 뇌를 점화시키면
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
심지어 제가 부여한 그 패턴이 없다고 해도 다시 떠올라버리죠.
05:50
And what do you see here?
144
350260
2000
그러면 여기에는 무엇이 보이나요?
05:52
Some people see a Dalmatian dog.
145
352260
2000
어떤 사람들은 달마시안 개를 봅니다.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
네, 그렇죠. 그곳에 점화자극이 있는 거죠.
05:56
So when I go back without the prime,
147
356260
2000
그래서 점화자극 없이 다시 그 장면을 봐도
05:58
your brain already has the model
148
358260
2000
뇌가 이미 모형을 가지고 있어서
06:00
so you can see it again.
149
360260
2000
다시 볼 수 있는거죠
06:02
What do you see here?
150
362260
3000
여기 무엇이 보입니까?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
토성이요.. 네. 좋습니다.
06:07
How about here?
152
367260
3000
여기 이건 어때요?
06:10
Just shout out anything you see.
153
370260
3000
어떤 게 보이는 지 소리쳐 보세요.
06:14
That's a good audience, Chris.
154
374260
2000
아하.. 좋은 청중이시네요. 크리스(역주: TED큐레이터 크리스 앤더슨).
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
여기에는 아무것도 없으니까요. 뭐, 아무것도 없다고들 하죠.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
이것은 텍사스 대학 오스틴 캠퍼스의
06:22
at U.T. Austin
157
382260
2000
Jennifer Whitson이 수행한 실험입니다.
06:24
on corporate environments
158
384260
2000
기업 환경에서
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
불확실함의 느낌이나 상황이 자기 통제를 벗어낫다는 식의 느낌이
06:29
makes people see illusory patterns.
160
389260
2000
사람들로 하여금 가상의 패턴을 보도록 하는 것인지에 관한 것이죠.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
즉, 거의 모든 사람들은 토성을 본다고 합니다.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
사람들은 통제할 수 없는 느낌이 드는 상황에 처하면
06:37
are more likely to see something in this,
163
397260
2000
이른바 패턴이 없는 상황에서도
06:39
which is allegedly patternless.
164
399260
3000
무언가 있는 것처럼 느끼게 됩니다.
06:42
In other words, the propensity to find these patterns
165
402260
3000
다시 말해, 이런 패턴을 보는 경향은
06:45
goes up when there's a lack of control.
166
405260
3000
통제할 수 없을 때 더 커집니다.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
예를 들어, 야구 선수들은
06:51
when they're batting,
168
411260
2000
수비할 때는 그리 심하지 않지만
06:53
but not so much when they're fielding.
169
413260
2000
타석에서는 악명높을 정도로 미신을 믿곤 하죠.
06:55
Because fielders are successful
170
415260
2000
왜냐하면, 수비수들은 90에서 95퍼센트 정도는
06:57
90 to 95 percent of the time.
171
417260
2000
성공합니다.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
하지만 타자는 열에 일곱번은 실패합니다.
07:02
So their superstitions, their patternicities,
173
422260
2000
이런 미신, 패턴성 경향은
07:04
are all associated with feelings of lack of control
174
424260
3000
모두 통제권이 없다는 느낌같은 것들과
07:07
and so forth.
175
427260
2000
관련이 있습니다.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
여러분들은 이 특정한 것에서는 무엇이 보이십니까?
07:13
Anybody see an object there?
177
433260
2000
무언가 보이시는 분?
07:15
There actually is something here,
178
435260
2000
여기에는 실제로 무언가 있습니다.
07:17
but it's degraded.
179
437260
2000
그러나, 뭉그러져 있습니다.
07:19
While you're thinking about that,
180
439260
2000
여러분들이 그것에 대해 생각하는 동안 설명하자면,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
이것은 영국의 심리학자인
07:23
a psychologist in England,
182
443260
2000
Susan Blackmore가 수행한 실험으로
07:25
who showed subjects this degraded image
183
445260
2000
이 뭉그러진 이미지를 보여주고나서
07:27
and then ran a correlation between
184
447260
2000
사람들의 초능력(ESP) 테스트 점수와
07:29
their scores on an ESP test:
185
449260
2000
초자연적인 것, 천사 뭐 그런 것들을
07:31
How much did they believe in the paranormal,
186
451260
2000
믿는 정도 사이에
07:33
supernatural, angels and so forth.
187
453260
3000
상관관계 분석을 해보았습니다.
07:36
And those who scored high on the ESP scale,
188
456260
3000
그 결과, ESP 테스트에서 높은 점수를 기록한 사람들은
07:39
tended to not only see
189
459260
2000
뭉그러진 이미지에서
07:41
more patterns in the degraded images
190
461260
2000
패턴을 보는 경향이 더 많았을 뿐만 아니라
07:43
but incorrect patterns.
191
463260
2000
잘못된 패턴을 보는 경향이 있었습니다.
07:45
Here is what you show subjects.
192
465260
2000
이것이 피험자들에게 보여주는 것입니다.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
물고기는 20퍼센트, 50퍼센트 뭉그러져 있습니다.
07:50
and then the one I showed you,
194
470260
2000
그 다음 보여드린 것은
07:52
70 percent.
195
472260
2000
70퍼센트 뭉그러진 상태입니다.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
또 다른 심리학자인 Peter Brugger 역시
07:56
named Peter Brugger,
197
476260
2000
유사한 실험을 했습니다.
07:58
who found significantly more meaningful patterns
198
478260
3000
그는 좌뇌보다는 우뇌에서
08:01
were perceived on the right hemisphere,
199
481260
2000
좌측시야를 통해
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
더 많은 의미 있는 패턴을 인식하게 된다는 것을 알아냈죠.
08:06
So if you present subjects the images such
201
486260
2000
즉 좌뇌보다는 우뇌에
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
인식이 되어버리는 방식으로 피험자들에게 이미지를 보여준다면
08:11
then they're more likely to see patterns
203
491260
2000
좌뇌영역에 제시해주는 경우보다
08:13
than if you put it on the left hemisphere.
204
493260
2000
패턴을 보는 경향이 더 높다는 것입니다.
08:15
Our right hemisphere appears to be
205
495260
2000
우리의 우뇌 영역이 바로 이런 패턴성이
08:17
where a lot of this patternicity occurs.
206
497260
2000
많이 일어나는 영역인 듯 합니다.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
그래서, 우리가 하려는 것은 두뇌로 파고들어가
08:21
to see where all this happens.
208
501260
2000
이 모든 일이 어떻게 일어나는지 보고자 하는 것입니다.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger와 그의 동료 Christine Mohr는
08:26
gave subjects L-DOPA.
210
506260
2000
피험자들에게 L-DOPA 라는 물질을 주입했습니다.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
L-DOPA 는 아시다시피, 파킨슨 병을 치료하는데 쓰이는 약으로
08:31
which is related to a decrease in dopamine.
212
511260
3000
그 병은 도파민 감소와 관련이 있습니다.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA 는 도파민을 증가시키는데
08:36
An increase of dopamine caused
214
516260
2000
도파민의 증가는
08:38
subjects to see more patterns
215
518260
2000
피험자들로 하여금 도파민을 주입받지 못한 사람들에 비해
08:40
than those that did not receive the dopamine.
216
520260
2000
더 많이 패턴을 보는 경향을 낳았습니다.
08:42
So dopamine appears to be the drug
217
522260
2000
즉 도파민은 패턴성과
08:44
associated with patternicity.
218
524260
2000
관련이 있는 성분인 듯 합니다.
08:46
In fact, neuroleptic drugs
219
526260
2000
사실, 신경이완제들은
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
정신병적 행동을 없애는데 쓰입니다.
08:50
things like paranoia, delusions
221
530260
2000
편집증, 망상,
08:52
and hallucinations,
222
532260
2000
환각, 이런 것들이 모두
08:54
these are patternicities.
223
534260
2000
패턴성입니다.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
그것들은 틀린 패턴입니다, 잘못된 긍정, 즉, 제1종 오류죠.
08:59
And if you give them drugs
225
539260
2000
만약 그들에게
09:01
that are dopamine antagonists,
226
541260
2000
항도파민제를 주면
09:03
they go away.
227
543260
2000
그런 경향은 사라집니다.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
즉, 도파민의 양이 줄어들면
09:07
and their tendency to see
229
547260
2000
그런 패턴을 보는 경향이
09:09
patterns like that decreases.
230
549260
2000
줄어듭니다.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
반면, 코카인과 같은 암페타민류는
09:14
are dopamine agonists.
232
554260
2000
도파민 촉진제입니다.
09:16
They increase the amount of dopamine.
233
556260
2000
그것들은 도파민의 양을 증가시켜
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
보다 도취적이고 창의적 상태가 돼
09:21
creativity, find more patterns.
235
561260
2000
더 많은 패턴을 보게 됩니다.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
사실, 저는 최근 로빈 윌리암스(역주: 유명 코미디 배우)가 자신은 지금보다
09:25
talk about how he thought he was much funnier
237
565260
2000
코카인 복용 문제를 일으켰을 당시가 훨씬 더 재미있는 사람이었다고
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
생각했다 말하는 것을 보았습니다.
09:30
So perhaps more dopamine
239
570260
2000
그러니 어쩌면 도파민이 더 많다는 것은
09:32
is related to more creativity.
240
572260
2000
창의력이 더 많은 것과 연관이 있어 보입니다.
09:34
Dopamine, I think, changes
241
574260
2000
제 생각에 도파민은
09:36
our signal-to-noise ratio.
242
576260
2000
우리의 신호 대 잡음 비율을 바꾸는 듯 합니다.
09:38
That is, how accurate we are
243
578260
2000
즉, 우리가 패턴을 얼마나
09:40
in finding patterns.
244
580260
2000
정확히 파악하냐 하는 것에 영향을 주는 거죠
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
도파민 수치가 너무 낮으면, 2종 오류를 너무 많이 범하게 될 수 있습니다.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
실제 패턴을 놓칩니다. 너무 회의적으로 되는 것은 바람직하지 않죠.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
너무 회의적이면, 진짜 재미있는 좋은 아이디어를 놓치게 됩니다.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
딱 적당한 정도라면, 창의적이면서도 동시에 지나친 헛소리는 믿지 않습니다.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
너무 도파민 수치가 높으면 어쩌면 여러분은 어디서나 패턴을 보실 것입니다.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
누군가 여러분을 볼 때마다, 사람들이 여러분을 주시하는 것이라고 생각하고
10:00
You think people are talking about you.
251
600260
2000
사람들이 당신에 대해 수근거린다고 생각합니다.
10:02
And if you go too far on that, that's just simply
252
602260
2000
거기서 더 심해 지면,
10:04
labeled as madness.
253
604260
2000
바로 광기라고 부르는 것이 됩니다.
10:06
It's a distinction perhaps we might make
254
606260
2000
이것이 바로 우리가 두 노벨상 수상자인
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
Richard Feynman과 John Nash의 차이를
10:10
and John Nash.
256
610260
2000
구분하는 지점일 듯 합니다.
10:12
One sees maybe just the right number
257
612260
2000
한쪽은 노벨상을 수상하기에
10:14
of patterns to win a Nobel Prize.
258
614260
2000
딱 적당한 수준의 패턴을 봅니다.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
다른 한쪽도 그렇지만, 어쩌면 너무 많은 패턴일 수 있죠.
10:18
And we then call that schizophrenia.
260
618260
3000
그러면 그런 경우를 정신분열증이라 부릅니다.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
그렇게 신호 대 잡음 비율은 패턴 감지 문제 여부를 보여줍니다.
10:24
And of course you all know exactly
262
624260
2000
물론 여러분들은 정확히
10:26
what this is, right?
263
626260
2000
이게 무엇인지 아십니다. 그렇죠?
10:28
And what pattern do you see here?
264
628260
2000
여러분들은 여기서 어떤 패턴을 보십니까?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
다시 한 번, 저는 여러분의 패턴 감지 기능에 혼란을 일으켜
10:33
causing you conflicting pattern detections.
266
633260
3000
전측 대상피질 영역을 고생시키고자 합니다.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
아시다시피, 이것은 비아우노(역주: 브랜드 명) 신발입니다.
10:38
These are sandals.
268
638260
3000
샌달이죠.
10:41
Pretty sexy feet, I must say.
269
641260
3000
꽤 섹시한 발이네요.
10:44
Maybe a little Photoshopped.
270
644260
2000
어쩌면 포토샵으로 약간 손을 본 듯 하네요.
10:46
And of course, the ambiguous figures
271
646260
2000
물론, 이 모호한 형상은
10:48
that seem to flip-flop back and forth.
272
648260
2000
이쪽 저쪽으로 왔다갔다 하는 듯 보입니다.
10:50
It turns out what you're thinking about a lot
273
650260
2000
드러난 바로는, 우리가 무엇을 생각하는가에 따라서
10:52
influences what you
274
652260
2000
우리가 무엇을 보는가가
10:54
tend to see.
275
654260
2000
영향을 받게 됩니다.
10:56
And you see the lamp here, I know.
276
656260
2000
여러분, 여기서는 램프가 보이지요.
10:58
Because the lights on here.
277
658260
3000
여기 불빛이 있으니까요.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
환경주의자들의 운동 덕분에
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
우리는 모두 해양포유류의 곤경에 민감합니다.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
그래서, 여러분이 바로 이 모호한 형상에서 보시는 것은
11:09
is, of course, the dolphins, right?
281
669260
2000
물론, 돌고래 입니다. 맞습니다.
11:11
You see a dolphin here,
282
671260
2000
여러분은 여기서 돌고래를 보실 것입니다.
11:13
and there's a dolphin,
283
673260
2000
여기 돌고래가 있죠.
11:15
and there's a dolphin.
284
675260
2000
돌고래가 여기도 있습니다.
11:17
That's a dolphin tail there, guys.
285
677260
3000
저쪽에 돌고래 꼬리가 있네요. 여러분.
11:20
(Laughter)
286
680260
3000
(웃음)
11:25
If we can give you conflicting data, again,
287
685260
3000
만약 여러분에게 다시 서로 충돌하는 데이터를 보여주면,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
여러분의 전측 대상피질 영역은 초광속으로 움직이게 될 것입니다.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
여기 아래 쪽을 보면 괜찮습니다.여기 위쪽을 보면, 충돌하는 데이터입니다.
11:34
And then we have to flip the image
290
694260
2000
그러면 여기서 이미지를 뒤집어 보겠습니다.
11:36
for you to see that it's a set up.
291
696260
2000
그러면 조작된 것임을 알 수 있을 것입니다.
11:40
The impossible crate illusion.
292
700260
2000
"불가능한 상자 착시"입니다.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
두뇌를 2차원에서 속이는 것은 쉽습니다.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
그러면 여러분은 이렇게 말하시겠죠. "이봐요 셔머씨.
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
심리학 초보입문 교재만 있으면 그 정도는 누구나 할 수 있어요."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
음.. 여기 위대한 고 Jerry Andrus씨의
11:50
"impossible crate" illusion in 3D,
297
710260
3000
3차원으로 만든 "불가능한 상자 착시"가 있습니다.
11:53
in which Jerry is standing inside
298
713260
2000
제리가 불가능한 상자
11:55
the impossible crate.
299
715260
2000
안쪽에 서 있습니다.
11:57
And he was kind enough to post this
300
717260
2000
그리고 그는 아주 친절하게
11:59
and give us the reveal.
301
719260
2000
진실을 밝혀 주고 있습니다.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
물론, 카메라 앵글이 모든 것입니다. 사진사는 저기에 있습니다.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
그리고 이 보드는 이것과 중첩되 있는 것 처럼 보이고, 이것은 또 저거랑 등등...
12:07
But even when I take it away,
304
727260
2000
하지만 제가 이 설명을 없애버려도
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
우리의 두뇌가 만들어진 방식 덕분에 착시가 아주 강력하게 작용해서,
12:11
to find those certain kinds of patterns.
306
731260
3000
이런 특정 종류의 패턴을 찾게 됩니다.
12:14
This is a fairly new one
307
734260
2000
이것은 서로 충돌하는 패턴으로
12:16
that throws us off because of the conflicting patterns
308
736260
2000
이 쪽 앵글과 저 쪽 앵글을 비교하도록 하여
12:18
of comparing this angle with that angle.
309
738260
3000
우리를 속이는 비교적 최신 방식입니다.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
사실, 나란히 놓여 있는 똑같은 그림입니다.
12:24
So what you're doing is comparing that angle
311
744260
2000
그래서, 저쪽 앵글을 이 쪽 앵글이 아니라
12:26
instead of with this one, but with that one.
312
746260
2000
저 쪽 앵글과 비교를 해 봐야합니다.
12:28
And so your brain is fooled.
313
748260
2000
네.. 그렇게 우리 두뇌는 속아넘어가는 거지요.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
그래도 여전히, 우리의 패턴 감지 기능은 속아넘어갑니다.
12:32
Faces are easy to see
315
752260
2000
얼굴의 경우는, 우리의 측두엽에 있는
12:34
because we have an additional evolved
316
754260
2000
얼굴 인식 소프트웨어가
12:36
facial recognition software
317
756260
2000
추가로 발달돼 있어
12:38
in our temporal lobes.
318
758260
3000
쉽게 인식할 수 있습니다.
12:41
Here's some faces on the side of a rock.
319
761260
3000
여기 바위의 측면에 얼굴이 있습니다.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
사실 있다고 확신할 수도 없죠. 어쩌면 포토샵질한 것일수도 있지요.
12:47
But anyway, the point is still made.
321
767260
2000
그러나 어쨌든, 의미는 전달되었겠죠.
12:49
Now which one of these looks odd to you?
322
769260
2000
이 중 어떤 것이 이상해 보입니까?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
그냥 바로 볼 때, 어떤 것이 이상해 보이나요?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
왼쪽에 있는 거요. 네... 한 번 돌려 보겠습니다.
12:55
so it'll be the one on the right.
325
775260
2000
그러면 오른쪽에 있겠네요.
12:57
And you are correct.
326
777260
2000
여러분이 맞으셨습니다.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
꽤 유명한 착시인데, 처음에는 마가렛 대처(역주: 80년대 영국 수상)의 이미지였죠.
13:02
Now, they trade up the politicians every time.
328
782260
2000
이제는 매번 정치인을 바꿉니다.
13:04
Well, why is this happening?
329
784260
2000
자, 이런 일은 왜 일어날까요??
13:06
Well, we know exactly where it happens,
330
786260
2000
우리는 이 현상이 어디서 일어나는지 정확히 알고 있습니다.
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
대략 귀 위쪽에서, 오른쪽으로 지나는 측두엽 부근이지요.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
'방추형이랑'이라고 불리는 작은 구조입니다.
13:14
And there's two types of cells that do this,
333
794260
2000
얼굴 인식 기능을 하는 세포는 두 가지 유형이 있습니다.
13:16
that record facial features either globally,
334
796260
3000
하나는 얼굴의 특징들을 전체적으로 기록하며,
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
다른 하나는 이 크고 신속하게 반응하는 세포들로,
13:21
first look at the general face.
336
801260
2000
얼굴 일반을 먼저 알아봅니다.
13:23
So you recognize Obama immediately.
337
803260
2000
그래서 여러분들은 오바마를 즉시 인식합니다.
13:25
And then you notice something quite
338
805260
2000
그 다음, 눈과 입 부위가
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
약간 이상하다는 것을 발견하게 되는겁니다.
13:29
Especially when they're upside down,
340
809260
2000
특히, 거꾸로 돼 있을때는 말이죠
13:31
you're engaging that general facial recognition software there.
341
811260
3000
거기서 일반적인 얼굴 인식 소프트웨어가 작동합니다.
13:34
Now I said back in our little thought experiment,
342
814260
3000
제가 아까 생각 실험에서 말했듯이,
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
여러분은 아프리카 평원을 걷는 인류의 조상입니다.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
방금 그것은 바람일까요? 아니면 위험한 맹수일까요?
13:42
What's the difference between those?
345
822260
2000
둘 간의 차이는 무엇일까요?
13:44
Well, the wind is inanimate;
346
824260
2000
글쎄요. 바람은 무생물이고
13:46
the dangerous predator is an intentional agent.
347
826260
2000
위험한 맹수는 의도를 지닌 행위자입니다.
13:48
And I call this process agenticity.
348
828260
2000
저는 이 프로세스를 행위자성이라고 부릅니다.
13:50
That is the tendency to infuse patterns
349
830260
2000
이것은 패턴에 의미, 의도, 행위자의 존재를
13:52
with meaning, intention and agency,
350
832260
2000
부여하고자 하는 경향입니다.
13:54
often invisible beings from the top down.
351
834260
3000
위에서 아래로 내려보는, 눈에 보이지 않는 존재들이라든지 말이죠.
13:57
This is an idea that we got
352
837260
2000
이것은 의도성이라는 입장을 취하는 것에 대해
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
이야기했던 TED 동료분이신
14:01
who talked about taking the intentional stance.
354
841260
2000
Dan Dennett을 통해 얻은 아이디어입니다.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
이것을 확장해 적용하면 여러가지 많은 것들을 설명할 수 있다고 생각합니다.
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
혼, 영령, 유령, 신, 악마, 천사,
14:09
aliens, intelligent designers,
357
849260
2000
외계인, 지적 설계자,
14:11
government conspiracists
358
851260
2000
정부 음모론자, 그리고 기타 각종
14:13
and all manner of invisible agents
359
853260
2000
힘과 의도를 지니고 있는
14:15
with power and intention, are believed
360
855260
2000
보이지 않는 행위자들이 우리 세계를 뒤덮고
14:17
to haunt our world and control our lives.
361
857260
2000
우리 삶을 통제하려 한다고 여겨지는지 말입니다.
14:19
I think it's the basis of animism
362
859260
2000
저는 이것이 정령신앙, 다신론, 유일신론의
14:21
and polytheism and monotheism.
363
861260
3000
근본이라고 생각합니다.
14:24
It's the belief that aliens are somehow
364
864260
2000
외계인이 어째서인지 우리보다 더 발달했고,
14:26
more advanced than us, more moral than us,
365
866260
2000
더 도덕적이라는 믿음이고,
14:28
and the narratives always are
366
868260
2000
항상 믿음의 줄거리가, 그들이 저 높은 곳에서
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
우리를 구원하기 위해 온다는 것인 이유죠.
14:33
The intelligent designer's always portrayed
368
873260
2000
지적설계자는 생명을 설계하러 내려온
14:35
as this super intelligent, moral being
369
875260
3000
초월적으로 현명하고, 도덕적인 존재로
14:38
that comes down to design life.
370
878260
2000
항상 그려집니다.
14:40
Even the idea that government can rescue us --
371
880260
2000
심지어 정부가 우리를 구원해 줄 꺼라는 생각도 그렇죠.
14:42
that's no longer the wave of the future,
372
882260
2000
이런 것은 더 이상 미래의 물결이 아닙니다.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
제 생각에는 일종의 행위자성입니다.
14:46
projecting somebody up there,
374
886260
2000
저 위에 있는 크고 강력한
14:48
big and powerful, will come rescue us.
375
888260
2000
누군가가 우리를 구원하러 올 것이라는 믿음 말이죠..
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
제 생각에는 이것이 또한 음모론의 근원이라고 봅니다.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
일루미나티가 됐든 아니면 빌더버그그룹이 됐든
14:55
whether it's the Illuminati
378
895260
2000
누군가가 뒤에 숨어
14:57
or the Bilderbergers.
379
897260
2000
조종하고 있다는 생각 말이죠.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
하지만, 이것은 패턴 감지의 문제입니다.
15:01
Some patterns are real and some are not.
381
901260
2000
어떤 패턴은 진짜고 어떤 것은 아니죠.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
케네디는 음모에 의해 살해됐을까요 아니면 단독 암살자에 의해 그랬을까요?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
뭐, 그 곳에 가보면, 제가 갔던 날에도 그랬듯
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
각각의 다른 사격수들이 어디에 있었는지 보여주려는 사람들이 항상 있습니다.
15:12
My favorite one was he was in the manhole.
385
912260
3000
제가 좋아하는 것은, 사격수가 맨홀에 있다가
15:15
And he popped out at the last second, took that shot.
386
915260
3000
마지막 순간에 튀어나와서 쏘았다는 이야기죠..
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
네, 물론 링컨도 음모에 의해 암살당했죠
15:20
So we can't just uniformly dismiss
388
920260
2000
그래서 우리는 그런 패턴들을
15:22
all patterns like that.
389
922260
2000
일괄적으로 무시할 수는 없습니다.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
왜냐하면, 솔직히 어떤 패턴은 진짜이기 때문입니다.
15:26
Some conspiracies really are true.
391
926260
2000
어떤 음모들은 정말 진짜입니다.
15:30
Explains a lot, maybe.
392
930260
2000
어쩌면 많은 것을 설명해 주죠.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
9/11 에도 음모론이 있죠. 그것은 음모입니다.
15:35
We did a whole issue on it.
394
935260
2000
스켑틱 매거진 한 호를 통째로 할애한 적이 있죠.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
알카에다 멤버 19명이 비행기로 빌딩에 돌진하기로 계획했다는 것이
15:39
constitutes a conspiracy.
396
939260
2000
그 음모의 내용입니다.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
그러나, "9/11 진실론자"들은 그렇게 생각하지 않습니다.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
그들은 부쉬 정부 내부에서 저지른 일이라고 생각하죠
15:46
Well, that's a whole other lecture.
399
946260
2000
글쎄요, 그것은 따로 강의 하나를 통째로 할애할 내용이죠.
15:48
You know how we know that 9/11
400
948260
2000
그러나 9/11이 부쉬 정부의 작품이
15:50
was not orchestrated by the Bush administration?
401
950260
2000
아니라는 것을 우리는 어떻게 이미 알고 있을까요?
15:52
Because it worked.
402
952260
2000
왜냐하면, 성공했거든요.
15:54
(Laughter)
403
954260
3000
(웃음)
15:57
(Applause)
404
957260
3000
(박수)
16:00
So we are natural-born dualists.
405
960260
2000
우리는 타고난 이원론자들입니다.
16:02
Our agenticity process comes from
406
962260
2000
우리의 행위자성 프로세스는
16:04
the fact that we can enjoy movies like these.
407
964260
2000
우리가 이런 영화들을 즐길 수 있다는 사실에서 기인하죠.
16:06
Because we can imagine, in essence,
408
966260
2000
우리는 본질적으로, 뭔가 계속된다는 것을
16:08
continuing on.
409
968260
2000
상상할 수 있기 때문이죠.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
그런데 만약 측두엽을 자극하면
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
유체이탈의 느낌을 만들어 낼 수 있습니다.
16:14
near-death experiences,
412
974260
2000
간단히 측두엽 근처에 전극을 갖다 대기만 하는 것으로
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
가사체험을 만들 수 있죠.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
아니면 원심분리기에서 가속만 시켜도
16:21
by accelerating in a centrifuge.
415
981260
2000
의식을 잃어 그런 경험을 얻습니다.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
저산소증이 일어나도
16:26
And the brain then senses
417
986260
2000
뇌는 유체이탈을
16:28
that there's an out-of-body experience.
418
988260
2000
감지합니다.
16:30
You can use -- which I did, went out and did --
419
990260
2000
여러분은 전자파로 측두엽에 충격을 주는
16:32
Michael Persinger's God Helmet,
420
992260
2000
Michael Persinger의 "신의 헬멧"을
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
사용해 보실 수도 있습니다. 저는 가서 해 봤어요.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
그러면 유체이탈 경험을 할 수 있죠
16:39
So I'm going to end here with a short video clip
423
999260
2000
이제 간단한 비디오 영상으로 마치고자 합니다.
16:41
that sort of brings all this together.
424
1001260
2000
지금까지의 이야기를 모두 정리해주는 영상물이죠.
16:43
It's just a minute and a half.
425
1003260
2000
영상은 1분 30초 정도입니다.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
지금까지의 모든 내용을, 기대와 믿음의 힘에 관한 이야기로 정리해 주죠.
16:48
Go ahead and roll it.
427
1008260
2000
그럼, 한 번 보실까요.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
(나레이터) 이것은 립밤 광고 모델을 뽑는
16:53
for an advert for lip balm.
429
1013260
2000
가짜 오디션을 위한 선발장입니다.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
(진행자) 우리는 이 중 일부 내용을
16:57
in a national commercial, right?
431
1017260
2000
전국규모 광고에 사용할 수 있으면 합니다.
16:59
And this is test on some lip balms
432
1019260
2000
우리가 여기 가져온
17:01
that we have over here.
433
1021260
2000
립밤 몇가지를 테스트하는 것이죠.
17:03
And these are our models who are going to help us,
434
1023260
2000
그리고 우리를 도와 줄 모델 분들이 여기 오셨습니다.
17:05
Roger and Matt.
435
1025260
2000
로저와 매트입니다.
17:07
And we have our own lip balm,
436
1027260
2000
여기 우리 회사 립밤이 있고,
17:09
and we have a leading brand.
437
1029260
2000
그 중 밀고 있는 브랜드가 있죠.
17:11
Would you have any problem
438
1031260
2000
테스트를 위해 모델분들에게 키스하는데
17:13
kissing our models to test it?
439
1033260
2000
문제가 있으신 분?
17:15
Girl: No.
440
1035260
2000
(참가자) 아니요.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
(진행자) 문제 없어요? (참가자) 예. (진행자) 괜찮단 말이죠.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
(참가자) 괜찮아요. (진행자) 좋습니다.
17:21
So this is a blind test.
443
1041260
3000
이것은 블라인드 테스트이구요
17:24
I'm going to ask you to go ahead
444
1044260
2000
제가 당신께 앞으로 나가서
17:26
and put a blindfold on.
445
1046260
2000
안대를 하시라고 요청할 겁니다.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
케이, 이제 뭐가 보이나요? (참가자) 아니요.
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
당겨서 아래쪽도 아예 안보이게 하시구요. (참가자) 네.
17:34
Woman: It's completely blind now, right?
448
1054260
2000
(진행자) 이제 완전히 안보이는 상태죠?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
(참가자): 네. (진행자) 좋습니다.
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
이제 제가 이 테스트에서 살펴 보고자 하는 것은
17:41
is how it protects your lips,
451
1061260
3000
립밤이 당신의 입술을 얼마나 보호해 주고,
17:44
the texture, right,
452
1064260
2000
감촉은 어떤지
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
그리고 혹시 향을 구분할 수 있는지 같은 것입니다.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
(참가자) 네. (진행자) 전에 키스 테스트를 해 본 적이 있으세요?
17:52
Girl: No.
455
1072260
2000
(참가자) 아니요.
17:54
Woman: Take a step here.
456
1074260
2000
(진행자) 여기 앞으로 오세요.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
이제, 입술을 내미세요.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
입술을 많이 내미시고, 약간 앞으로 기대시고... 좋습니다.
18:06
(Music)
459
1086260
4000
(음악)
18:10
(Laughter)
460
1090260
5000
(웃음)
18:19
(Laughter)
461
1099260
3000
(웃음)
18:30
Woman: Okay.
462
1110260
2000
좋습니다.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
제니퍼, 느낌이 어땠나요?
18:34
Jennifer: Good.
464
1114260
2000
좋아요.
18:36
(Laughter)
465
1116260
7000
(웃음)
18:43
Girl: Oh my God!
466
1123260
2000
이런 세상에!
18:45
(Laughter)
467
1125260
4000
(웃음)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
마이클 셔머: 고맙습니다. 고맙습니다. 고마와요
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.