아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Translator: Joseph Geni
Reviewer: Morton Bast
0
0
7000
번역: Min Hyun Oh
검토: K Bang
00:15
Let me tell you, it has been a fantastic month for deception.
1
15641
3713
한 가지 말씀드리죠. 이번 달은
최고의 속임수 달이었습니다.
00:19
And I'm not even talking about the American presidential race. (Laughter)
2
19354
4253
저는 미국 대선에 대해서
이야기 하는게 아니에요. (웃음)
00:23
We have a high-profile journalist caught for plagiarism,
3
23607
4335
아주 유명한 기자가 표절로 잡혔고,
00:27
a young superstar writer whose book involves
4
27942
2932
어느 젊은 인기 작가의 책에서는
본인이 만들어 낸
00:30
so many made up quotes that they've pulled it from the shelves;
5
30874
3305
인용구가 너무 많아서 서점에서
더 이상 팔지 않기로 했고,
00:34
a New York Times exposé on fake book reviews.
6
34179
2598
뉴욕 타임즈에서는 가짜 서평에
대한 폭로 기사도 있었죠.
00:36
It's been fantastic.
7
36777
1409
아주 좋은 달이었습니다.
00:38
Now, of course, not all deception hits the news.
8
38186
3851
물론 모든 거짓과 속임수들이
뉴스에 나오진 않습니다.
00:42
Much of the deception is everyday. In fact, a lot of research
9
42037
3679
대부분의 속임수들은 매일
일어납니다. 데이브가 말했듯이
00:45
shows that we all lie once or twice a day, as Dave suggested.
10
45716
4331
많은 연구 결과들은 우리가 하루에
한 두번씩 거짓말을 한다고 하지요.
00:50
So it's about 6:30 now, suggests that most of us should have lied.
11
50047
2933
지금 6시 30분인데요, 우리 대부분이
거짓말을 했다고 볼 수 있겠죠.
00:52
Let's take a look at Winnipeg. How many of you,
12
52980
1900
위니펙을 한번 보죠.
자, 지난 24시간 동안
00:54
in the last 24 hours -- think back -- have told a little fib,
13
54880
2927
작든 크든 거짓말을
하신 분이 계신가요?
00:57
or a big one? How many have told a little lie out there?
14
57807
3551
몇 분이나 계시죠?
01:01
All right, good. These are all the liars.
15
61358
1904
아, 그렇군요. 이 분들이 바로
거짓말쟁이들이시군요.
01:03
Make sure you pay attention to them. (Laughter)
16
63262
3293
저분들 누군지 잘 봐두세요. (웃음)
01:06
No, that looked good, it was about two thirds of you.
17
66555
2146
여러분의 한 3분의 2정도 인거 다 봤어요.
01:08
The other third didn't lie, or perhaps forgot,
18
68701
2852
나머지 분들은 거짓말을
안했거나 잊으셨겠죠.
01:11
or you're lying to me about your lying, which is very,
19
71553
2660
아니면 몰래 거짓말을 한 것에 대해서
거짓말을 하시는 것일 수도 있구요. (웃음)
01:14
very devious. (Laughter) This fits with a lot of the research,
20
74213
4050
이런 경우을 보면 거짓말이 아주
01:18
which suggests that lying is very pervasive.
21
78263
3354
흔하다는 연구 결과와 일치합니다.
01:21
It's this pervasiveness, combined with the centrality
22
81617
3961
이런 만연함과 함께 인간이란 무엇인지,
01:25
to what it means to be a human, the fact that we can
23
85578
2440
진실을 말할 것인가,
01:28
tell the truth or make something up,
24
88018
1880
아니면 거짓말을 할 것인가
01:29
that has fascinated people throughout history.
25
89898
2851
하는 것은 역사를 통해 많은
사람들의 관심을 받아왔습니다.
01:32
Here we have Diogenes with his lantern.
26
92749
2629
여기 손전등을 들고있는
디오게네스가 있는데요.
01:35
Does anybody know what he was looking for?
27
95378
2680
그가 찾는 것이 무엇이었는지
아는 분 계십니까?
01:38
A single honest man, and he died without finding one
28
98058
3784
바로 정직한 사람입니다.
그러나 찾지 못한채
01:41
back in Greece. And we have Confucius in the East
29
101842
3017
그리스에서 죽었죠.
그리고 동양에는
01:44
who was really concerned with sincerity,
30
104859
2377
정직함에 대해 관심이 아주
많았던 공자가 있었는데요,
01:47
not only that you walked the walk or talked the talk,
31
107236
3084
말로만 하지 않고 행동으로 직접
01:50
but that you believed in what you were doing.
32
110320
3154
본인이 믿는 것을 행하는 것에
대해 관심이 많았었습니다.
01:53
You believed in your principles.
33
113474
2006
본인의 신념을 정말
믿느냐 하는 것 말이죠.
01:55
Now my first professional encounter with deception
34
115480
2931
자, 제가 처음으로
거짓에 대해 전문적으로
01:58
is a little bit later than these guys, a couple thousand years.
35
118411
3463
접한 것은 이들보다
몇 천년 늦었었는데요.
02:01
I was a customs officer for Canada back in the mid-'90s.
36
121874
3799
저는 90년대 중반에
캐나다의 세관원이었습니다.
02:05
Yeah. I was defending Canada's borders.
37
125673
2826
네. 제가 캐나다의
국경을 지켰습니다.
02:08
You may think that's a weapon right there. In fact,
38
128499
3782
거기에 무슨 무기라도 있다고 생각하실 수 있겠죠.
02:12
that's a stamp. I used a stamp to defend Canada's borders. (Laughter)
39
132281
5030
사실 도장이었습니다. 제가 도장으로
캐나다의 국경을 지켰어요. (웃음)
02:17
Very Canadian of me. I learned a lot about deception
40
137311
3537
아주 캐나다 사람답죠.
세관에서 일하며
02:20
while doing my duty here in customs,
41
140848
3055
거짓에 대해
많이 배웠습니다..
02:23
one of which was that most of what I thought I knew about deception was wrong,
42
143903
2884
그 중 하나는 제가 거짓말에 대해서 알고 있다고
생각했던 것들의 대부분이 틀렸다는 겁니다.
02:26
and I'll tell you about some of that tonight.
43
146787
1752
오늘 그 중 몇 가지를
말씀해 드리겠습니다.
02:28
But even since just 1995, '96, the way we communicate
44
148539
4074
1995-96년도 부터
우리가 소통하는 방식이
02:32
has been completely transformed. We email, we text,
45
152613
3297
아주 많이 변해왔습니다.
이메일, 문자,
02:35
we skype, we Facebook. It's insane.
46
155910
2613
스카이프, 페이스북으로
연락하죠. 정신없습니다.
02:38
Almost every aspect of human communication's been changed,
47
158523
3261
인간의 모든 의사 소통
방식이 바뀜에 따라
02:41
and of course that's had an impact on deception.
48
161784
2560
속임수의 방법도
많이 바뀌었습니다.
02:44
Let me tell you a little bit about a couple of new deceptions
49
164344
2583
제가 세관에서 추적하고 기록했던
02:46
we've been tracking and documenting.
50
166927
2376
몇몇 속임수들에
대해 말씀드리겠습니다.
02:49
They're called the Butler, the Sock Puppet
51
169303
4244
그 중 집사, 양말인형,
02:53
and the Chinese Water Army.
52
173547
2081
그리고 중국수군 방법을 설명해드리죠.
02:55
It sounds a little bit like a weird book,
53
175628
1897
이름은 무슨 이상한 책 제목같지만
02:57
but actually they're all new types of lies.
54
177525
2133
모두 다 거짓말의
새로운 종류들입니다.
02:59
Let's start with the Butlers. Here's an example of one:
55
179658
3045
집사방법부터 시작하죠. 예를 들어
"지금 가고 있어"가 있죠.
03:02
"On my way." Anybody ever written, "On my way?"
56
182703
3113
"지금 가고 있어"라고
쓴 적 있으십니까?
03:05
Then you've also lied. (Laughter)
57
185816
3763
그렇다면 거짓말을
하신겁니다. (웃음)
03:09
We're never on our way. We're thinking about going on our way.
58
189579
4197
우리는 전혀 가고 있는 중이 아니었어요.
가려는 생각을 하고 있었던거죠.
03:13
Here's another one: "Sorry I didn't respond to you earlier.
59
193776
2763
한 개 더 있습니다. "미안해,
휴대폰 배터리가 나가서
03:16
My battery was dead." Your battery wasn't dead.
60
196539
1965
답장을 못했네." 여러분의
배터리는 떨어지지 않았어요.
03:18
You weren't in a dead zone.
61
198504
1876
또 수신도가 낮은 곳에
있던 것도 아니고요.
03:20
You just didn't want to respond to that person that time.
62
200380
1953
단지 그 사람에게 답하고
싶지 않았던거겠죠.
03:22
Here's the last one: You're talking to somebody,
63
202333
1797
자 마지막 예는,
남과 이야기할 때
03:24
and you say, "Sorry, got work, gotta go."
64
204130
2490
"미안해, 일이 있어서 가봐야 해"
라고 하는 건데요.
03:26
But really, you're just bored. You want to talk to somebody else.
65
206620
3797
솔직히 그냥 흥미가 없어서 그런거죠.
다른 사람과 이야기하고 싶었던 거겠죠.
03:30
Each of these is about a relationship,
66
210417
2416
이 모든 것은 인간관계에 관한 겁니다.
03:32
and this is a 24/7 connected world. Once you get my cell phone number,
67
212833
4405
그리고 항상 연결된 세상이기 때문이고요.
여러분이 제 휴대폰번호를 가진 이상
03:37
you can literally be in touch with me 24 hours a day.
68
217238
2965
매일 24시간 저와 연락할 수 있죠.
03:40
And so these lies are being used by people
69
220203
2369
그리고 이 모든 거짓말들이
집사들이 그랬던 것처럼
03:42
to create a buffer, like the butler used to do,
70
222572
2826
우리들과 다른 사람들간에
03:45
between us and the connections to everybody else.
71
225398
3407
완충제 역할을 합니다.
03:48
But they're very special. They use ambiguity
72
228805
1707
하지만 이런 거짓말들은
아주 특별해요.
03:50
that comes from using technology. You don't know
73
230512
2061
기계의 애매모호함이
제가 어디에있는지,
03:52
where I am or what I'm doing or who I'm with.
74
232573
2948
무엇을 하는지 또는
누구와 있는지 모르게 하죠.
03:55
And they're aimed at protecting the relationships.
75
235521
2491
또 이런 거짓말들은 관계를
지키기 위해 사용되기도 하고요.
03:58
These aren't just people being jerks. These are people
76
238012
2581
하지만 이런건 사람들이
못됬기 때문이 아니에요.
04:00
that are saying, look, I don't want to talk to you now,
77
240593
2376
단지 지금 당장이나 그때
말하기 싫었을 뿐이지
04:02
or I didn't want to talk to you then, but I still care about you.
78
242969
2424
상대방을 그래도 걱정해 주고는 있는겁니다.
04:05
Our relationship is still important.
79
245393
2400
인간관계는 그래도 중요하니까요.
04:07
Now, the Sock Puppet, on the other hand,
80
247793
1514
하지만 양말인형 유형은 아주 달라요.
04:09
is a totally different animal. The sock puppet isn't
81
249307
2343
양말인형은 단지 애매모호함에
대한 것만은 아니에요.
04:11
about ambiguity, per se. It's about identity.
82
251650
3065
바로 신분을 이용하는거죠.
04:14
Let me give you a very recent example,
83
254715
2002
아주 최근의 예를 들려 드리죠.
04:16
as in, like, last week.
84
256717
1514
지난 주의 일이에요.
04:18
Here's R.J. Ellory, best-seller author in Britain.
85
258231
3268
영국의 인기 작가 R. J. 엘로리가 있습니다.
04:21
Here's one of his bestselling books.
86
261499
2020
이건 그의 베스트 셀러고요.
04:23
Here's a reviewer online, on Amazon.
87
263519
3413
아마존에 온라인 논평란이 있는데요.
04:26
My favorite, by Nicodemus Jones, is,
88
266932
2657
제가 제일 좋아하는건
니코디무스 존스가 쓴 겁니다.
04:29
"Whatever else it might do, it will touch your soul."
89
269589
3808
"이 책은 당신의 영혼을
울릴 것 입니다" 라고 되어 있어요.
04:33
And of course, you might suspect
90
273397
1403
뭐 물론 이 니코디무스 존스가
04:34
that Nicodemus Jones is R.J. Ellory.
91
274800
2627
알 제이 엘로리라고
의심하실 수도 있죠.
04:37
He wrote very, very positive reviews about himself. Surprise, surprise.
92
277427
4687
그는 자신에 대해 아주 긍정적인 후기를
많이 남겼었어요. 굉장히 놀랍죠.
04:42
Now this Sock Puppet stuff isn't actually that new.
93
282114
3260
이 양말인형이라는 것은
그다지 새로운 것이 아닙니다.
04:45
Walt Whitman also did this back in the day,
94
285374
3167
월트 위트먼도 옛날에
인터넷이 있기 전에
04:48
before there was Internet technology. Sock Puppet
95
288541
3055
이 방법을 사용했었습니다.
이 양말인형 수법은
04:51
becomes interesting when we get to scale,
96
291596
2768
규모에 따라 아주
흥미로워 지는데요,
04:54
which is the domain of the Chinese Water Army.
97
294364
2518
바로 중국수군 유형의 특징이죠.
04:56
Chinese Water Army refers to thousands of people
98
296882
2436
중국수군은 수천명의 중국인에게
04:59
in China that are paid small amounts of money
99
299318
3048
적은 돈을 주고 후기든 선전이든
05:02
to produce content. It could be reviews. It could be
100
302366
3034
내용을 퍼뜨리는 방법을 씁니다.
05:05
propaganda. The government hires these people,
101
305400
2559
정부도 이런 사람들을 고용하고,
05:07
companies hire them, all over the place.
102
307959
2628
회사들도 이들을 고용하며,
모든 곳에 다 있습니다.
05:10
In North America, we call this Astroturfing,
103
310587
3617
북아메리카에서는 이것을
여론 조작이라고 하는데요,
05:14
and Astroturfing is very common now. There's a lot of concerns about it.
104
314204
3438
오늘날 아주 흔하고
이에 대한 우려도 많습니다.
05:17
We see this especially with product reviews, book reviews,
105
317642
3227
우리는 이 수법을 특히
상품 후기나, 책 후기,
05:20
everything from hotels to whether that toaster is a good toaster or not.
106
320869
4795
호텔 후기부터 좋은 토스터기까지
많은 경우에서 볼 수 있습니다.
05:25
Now, looking at these three reviews, or these three types of deception,
107
325664
3918
이 세개의 후기들, 아니 이 세가지의
속임수들을 보시면서
05:29
you might think, wow, the Internet is really making us
108
329582
2737
인터넷이 정말 우리들에게
거짓말을 하게 한다고
05:32
a deceptive species, especially when you think about
109
332319
3209
생각할 수도 있겠죠.
특히 이런 여론 조작처럼
05:35
the Astroturfing, where we can see deception brought up to scale.
110
335528
4602
아주 큰 스케일의 속임수를
보면 더욱더 그럴거고요.
05:40
But actually, what I've been finding is very different from that.
111
340130
4738
하지만 제가 알아본 바로는
그렇지 않았습니다.
05:44
Now, let's put aside the online anonymous sex chatrooms,
112
344868
3249
일단 여기 계신 분들중
아무도 가보시지 않은
05:48
which I'm sure none of you have been in.
113
348117
1899
익명 섹스 채팅룸은 제외해 봅시다.
05:50
I can assure you there's deception there.
114
350016
2329
그곳엔 속임수가 있다고
장담 드립니다.
05:52
And let's put aside the Nigerian prince who's emailed you
115
352345
2709
그리고 여러분에게 4,300만불을 몰래 빼돌리는걸
05:55
about getting the 43 million out of the country. (Laughter)
116
355054
3228
도와달라고 이메일을 보낸
나이지리아 왕자도 잠시 배제해 보죠.
05:58
Let's forget about that guy, too.
117
358282
1680
그 사람은 잠시 잊어보자구요.
05:59
Let's focus on the conversations between our friends
118
359962
2944
이제 우리 친구들, 가족들,
동료들, 그리고 우리가 사랑하는
06:02
and our family and our coworkers and our loved ones.
119
362906
2147
사람들간의 대화를 생각해 봅시다.
06:05
Those are the conversations that really matter.
120
365053
2408
그런 대화들이 가장 중요한 것들 입니다.
06:07
What does technology do to deception with those folks?
121
367461
4240
기술이 그 사람들과 하는 속임수에
어떤 영향을 미칠까요?
06:11
Here's a couple of studies. One of the studies we do
122
371701
3075
여기 몇가지 연구가 있습니다.
그 중 하나는
06:14
are called diary studies, in which we ask people to record
123
374776
3371
일기 연구인데요, 사람들에게 7일동안
06:18
all of their conversations and all of their lies for seven days,
124
378147
3566
그들이 가졌던 모든 대화와
거짓말을 모두 기록하도록 하고
06:21
and what we can do then is calculate how many lies took place
125
381713
3105
대화 중간에 몇 번의 거짓말을 했는지
06:24
per conversation within a medium, and the finding
126
384818
2948
계산합니다. 그 결과, 우리는
06:27
that we get that surprises people the most is that email
127
387766
2524
세 가지의 의사소통 방식 중
06:30
is the most honest of those three media.
128
390290
3279
이메일이 가장 솔직했다는 것을
알고 놀랐습니다.
06:33
And it really throws people for a loop because we think,
129
393569
2401
이메일에는 언어 외적 요소가 없데도
06:35
well, there's no nonverbal cues, so why don't you lie more?
130
395970
3736
사람들은 왜 거짓말을 더 하지 않을까요?
06:39
The phone, in contrast, the most lies.
131
399706
4304
그에 반해 전화 통화에서는
가장 많은 거짓말을 했습니다.
06:44
Again and again and again we see the phone is the device
132
404010
1946
매번 연구할 때마다 우리는
사람들이 전화기로
06:45
that people lie on the most, and perhaps because of the Butler Lie ambiguities I was telling you about.
133
405956
4718
거짓말을 제일 많이 한다는 것을 알아냈습니다.
아마 집사유형의 애매모호함 때문이겠죠.
06:50
This tends to be very different from what people expect.
134
410674
3975
사람들이 보통 생각하는 것과는 아주 다르죠.
06:54
What about résumés? We did a study in which we had
135
414649
3224
그러면 이력서는 어떨까요?
한 연구 결과에서
06:57
people apply for a job, and they could apply for a job
136
417873
2544
사람들에게 구직을 해보도록 했는데요.
07:00
either with a traditional paper résumé, or on LinkedIn,
137
420417
3514
기존의 종이 이력서 또는
전문직 종사자들의
07:03
which is a social networking site like Facebook,
138
423931
2822
페이스북 비슷한 사회 내트워크인
링크드인을 사용하도록 했습니다.
07:06
but for professionals -- involves the same information as a résumé.
139
426753
3567
둘 다 같은 정보를 포함하고요.
07:10
And what we found, to many people's surprise,
140
430320
2614
연구 결과, 놀랍게도
07:12
was that those LinkedIn résumés were more honest
141
432934
2795
링크드인의 이력서에서는 고용주들이
07:15
on the things that mattered to employers, like your
142
435729
1824
중시하는 책임감이나
전 직장에서 발휘했던
07:17
responsibilities or your skills at your previous job.
143
437553
4151
자신의 능력에 대해서
아주 솔직했다는 것입니다.
07:21
How about Facebook itself?
144
441704
2296
페이스북은 어떨까요?
07:24
You know, we always think that hey, there are these
145
444000
1882
우리는 항상 이상적인
인생이 있다고 믿고,
07:25
idealized versions, people are just showing the best things
146
445882
2129
사람들은 인생 최고의 순간들을
07:28
that happened in their lives. I've thought that many times.
147
448011
2656
페이스북에서 보이죠. 저는 여러번
그런 생각을 했었습니다.
07:30
My friends, no way they can be that cool and have good of a life.
148
450667
3068
여러분, 그들은 결코 그렇게
멋진 인생을 살리가 없습니다.
07:33
Well, one study tested this by examining people's personalities.
149
453735
3821
한 연구에서 사람들의 성격을 통해
이런 점을 분석했는데요.
07:37
They had four good friends of a person judge their personality.
150
457556
4218
각 실험자에게 각각 성격판단을 해 줄
가까운 친구 4명이 있었고요.
07:41
Then they had strangers, many strangers,
151
461774
1956
또한 그들의 페이스북만을
통해 성격판단을 해 줄
07:43
judge the person's personality just from Facebook,
152
463730
2528
아주 많은 낯선 사람들이
있었는데요.
07:46
and what they found was those judgments of the personality
153
466258
2429
연구 결과, 모든 판단들이
07:48
were pretty much identical, highly correlated,
154
468687
2509
거의 일치 했었습니다.
상당한 연관성이 있는거죠.
07:51
meaning that Facebook profiles really do reflect our actual personality.
155
471196
4373
즉, 페이스북 프로파일은 우리의
실제 성격을 반영한다는 것입니다.
07:55
All right, well, what about online dating?
156
475569
2572
자 그럼, 온라인 데이트는 어떨까요?
07:58
I mean, that's a pretty deceptive space.
157
478141
1500
꽤 속임수가 많은 공간이기는 하죠.
07:59
I'm sure you all have "friends" that have used online dating. (Laughter)
158
479641
3535
여러분들도 온라인 데이트를 사용한
"친구"들이 있으시겠죠. (웃음)
08:03
And they would tell you about that guy that had no hair
159
483176
2058
사람들은 실제로 만나보니
08:05
when he came, or the woman that didn't look at all like her photo.
160
485234
3030
대머리였던 그 남자와, 사진과는 전혀 달랐던
여자에 대해 말하곤 합니다.
08:08
Well, we were really interested in it, and so what we did
161
488264
3136
우리는 그래서 온라인 데이트 사용자들을
08:11
is we brought people, online daters, into the lab,
162
491400
3107
실험실로 불러내
08:14
and then we measured them. We got their height
163
494507
1480
직접 조사해 봤습니다.
08:15
up against the wall, we put them on a scale, got their weight --
164
495987
3881
벽에 대고 그들의 키를 재고,
체중계로 몸무게를 재봤습니다.
08:19
ladies loved that -- and then we actually got their driver's license to get their age.
165
499868
3895
--여성분들이 아주 좋아하시더군요--. 그리고
운전면허증으로 실제 나이를 확인했습니다.
08:23
And what we found was very, very interesting.
166
503763
4311
연구 결과는 아주 흥미로웠어요.
08:28
Here's an example of the men and the height.
167
508074
3929
남자들의 키를 예로 들어보죠.
08:32
Along the bottom is how tall they said they were in their profile.
168
512003
2470
이 밑으로는 프로파일에서 말한 키고,
08:34
Along the y-axis, the vertical axis, is how tall they actually were.
169
514473
4862
Y축, 세로축으로는 실제 키를 기록했습니다.
08:39
That diagonal line is the truth line. If their dot's on it,
170
519335
3076
사선이 진실의 선입니다.
점이 선위에 있는 사람들은
08:42
they were telling exactly the truth.
171
522411
1554
진실을 말했던 것입니다.
08:43
Now, as you see, most of the little dots are below the line.
172
523965
3113
보시다시피, 거의 모든 점들이
선 밑에 있었습니다.
08:47
What it means is all the guys were lying about their height.
173
527078
2867
모든 남성들이 키에 대해
거짓말을 했다는 거죠.
08:49
In fact, they lied about their height about nine tenths of an inch,
174
529945
2941
실제로 그들은 9/10 인치까지 자신의 키를
08:52
what we say in the lab as "strong rounding up." (Laughter)
175
532886
6276
삼하게 반올림 했습니다. (웃음)
08:59
You get to 5'8" and one tenth, and boom! 5'9".
176
539162
4503
5피트 8인치의 키가 바로
5피트 9인치로 됩니다.
09:03
But what's really important here is, look at all those dots.
177
543665
1998
하지만, 정말 중요한 것은,
이 점들을 주목해 주세요.
09:05
They are clustering pretty close to the truth. What we found
178
545663
2566
점들이 진실의 선에 아주 가까이
밀집해 있습니다.
09:08
was 80 percent of our participants did indeed lie
179
548229
2408
연구 결과 80%의 실험자들이
09:10
on one of those dimensions, but they always lied by a little bit.
180
550637
3595
거짓말은 했지만, 아주
살짝 했었던 것입니다.
09:14
One of the reasons is pretty simple. If you go to a date,
181
554232
3024
그 이유는 간단합니다.
09:17
a coffee date, and you're completely different than what you said,
182
557256
3601
커피 한잔 하러 만났을 때,
자신이 말한 것과
09:20
game over. Right? So people lied frequently, but they lied
183
560857
3619
아주 다르다면 끝이겠죠?
그래서 거짓말을 자주는 해도
09:24
subtly, not too much. They were constrained.
184
564476
3469
사람들은 거짓말을 아주 약하게,
살짝 했던 것이죠. 절제를 한겁니다.
09:27
Well, what explains all these studies? What explains the fact
185
567945
2887
무엇이 이 모든 연구들을 설명할까요?
09:30
that despite our intuitions, mine included,
186
570832
4635
무엇이, 저를 포함해서,
여러분들의 직감과 달리
09:35
a lot of online communication, technologically-mediated
187
575467
3529
기술을 사용하는 온라인
의사소통 방식에서
09:38
communication, is more honest than face to face?
188
578996
4028
왜 얼굴을 직접 맞대고 대화할 때보다
더 솔직해지는 걸까요?
09:43
That really is strange. How do we explain this?
189
583024
2489
참 신기하죠. 이걸 어떻게 설명할까요?
09:45
Well, to do that, one thing is we can look at the deception-detection literature.
190
585513
3379
그것을 설명하기 위해서
속임수 감지 지침이 있습니다.
09:48
It's a very old literature by now, it's coming up on 50 years.
191
588892
4345
꽤 오래된 것이라서
이제 50년이나 된건데요.
09:53
It's been reviewed many times. There's been thousands of trials,
192
593237
2662
여러번 평가도 되었고 수 천번의 실험,
09:55
hundreds of studies, and there's some really compelling findings.
193
595899
3981
몇 백번의 연구, 그리고
놀라운 발견들도 있었습니다.
09:59
The first is, we're really bad at detecting deception,
194
599880
3236
첫번째로 우리는 거짓을
감지하는 데에
10:03
really bad. Fifty-four percent accuracy on average when you have to tell
195
603116
4116
아주 서툴다는 것입니다.
상대방이 진실을 말하고 있는지
10:07
if somebody that just said a statement is lying or not.
196
607232
3384
성공적으로 감지할 확률이
54%밖에 되지 않습니다.
10:10
That's really bad. Why is it so bad?
197
610616
3192
상당히 낮죠.
왜 그렇게 나쁠까요?
10:13
Well it has to do with Pinocchio's nose.
198
613808
2530
피노키오의 코와 관계가 있습니다.
10:16
If I were to ask you guys, what do you rely on
199
616338
2359
여러분께 질문을 하나 드리죠.
10:18
when you're looking at somebody and you want to find out
200
618697
2245
상대방이 거짓말하는지를 볼 때
10:20
if they're lying? What cue do you pay attention to?
201
620942
2930
어디에 주목하시나요?
10:23
Most of you would say that one of the cues you look at
202
623872
2430
여러분 대부분은
눈을 본다고 하실겁니다.
10:26
is the eyes. The eyes are the window to the soul.
203
626302
2728
눈은 영혼의 창이니까요.
10:29
And you're not alone. Around the world, almost every culture,
204
629030
2403
여러분들만 그런 생각을
하시는게 아니에요.
10:31
one of the top cues is eyes. But the research
205
631433
2863
전세계적으로 눈을 중시합니다.
10:34
over the last 50 years says there's actually no reliable cue
206
634296
3824
하지만 지난 50년동안의
연구 결과들은 놀랍게도
10:38
to deception, which blew me away, and it's one of
207
638120
2997
믿을만한 요소가
없다고 증명했는데요.
10:41
the hard lessons that I learned when I was customs officer.
208
641117
2355
제가 세관원일 때 상당한
어려움을 겪은 점이죠.
10:43
The eyes do not tell us whether somebody's lying or not.
209
643472
2430
눈은 상대방이 거짓말을
하는지 알려주지 않습니다.
10:45
Some situations, yes -- high stakes, maybe their pupils dilate,
210
645902
3018
어떤 경우에는 그렇겠죠.
상당히 위태로울 때,
10:48
their pitch goes up, their body movements change a little bit,
211
648920
3504
동공이 팽창하거나, 목소리가 높아지거나,
또는 몸짓이 달라집니다.
10:52
but not all the time, not for everybody, it's not reliable.
212
652424
4832
하지만 항상 모든 사람들이 그러지 않으니
그렇게 믿을만하지 않습니다.
10:57
Strange. The other thing is that just because you can't see me
213
657256
3378
이상하죠. 또 다른건 단지
누가 보이지 않는다고 해서
11:00
doesn't mean I'm going to lie. It's common sense,
214
660634
2419
거짓말을 한다는 보장은 없는거죠.
11:03
but one important finding is that we lie for a reason.
215
663053
2907
그리고 또 중요한 것은 거짓말에는
이유가 있다는 점이에요.
11:05
We lie to protect ourselves or for our own gain
216
665960
2367
우리는 우리 자신을 방어하거나, 우리 자신의
이익이나 남들의 이익을 위해
11:08
or for somebody else's gain.
217
668327
2827
거짓말을 하죠.
11:11
So there are some pathological liars, but they make up
218
671154
1930
병적인 거짓말쟁이들이 있기는 하지만,
11:13
a tiny portion of the population. We lie for a reason.
219
673084
3513
아주 소수죠. 우리는 이유가 있어서
거짓말을 합니다.
11:16
Just because people can't see us doesn't mean
220
676597
1631
남들이 보지 않는다고해서
11:18
we're going to necessarily lie.
221
678228
2271
거짓말을 꼭 한다는 보장은 없습니다.
11:20
But I think there's actually something much more
222
680499
1553
하지만 제 생각엔
11:22
interesting and fundamental going on here. The next big
223
682052
3274
더 흥미롭고 근본적인 무언가가 있는 것 같아요.
11:25
thing for me, the next big idea, we can find by going
224
685326
3797
그 다음으로 중요한 점은
11:29
way back in history to the origins of language.
225
689123
3139
역사속 언어의 시초로
돌아가면 찾을 수 있습니다.
11:32
Most linguists agree that we started speaking somewhere
226
692262
3887
대부분의 언어학자들은 우리들이
11:36
between 50,000 and 100,000 years ago. That's a long time ago.
227
696149
3168
50,000년과 100,000년 사이에 말하기
시작했다고 합니다. 아주 오래전이죠.
11:39
A lot of humans have lived since then.
228
699317
2616
그 이래로 수많은 사람들이 살아 왔습니다.
11:41
We've been talking, I guess, about fires and caves
229
701933
2423
뭐 그때는 불이나 동굴,
11:44
and saber-toothed tigers. I don't know what they talked about,
230
704356
3107
검치호에 대한 이야기를 했겠죠. 무슨 말을
11:47
but they were doing a lot of talking, and like I said,
231
707463
2518
했는지는 몰라도 말을 많이 했었고,
11:49
there's a lot of humans evolving speaking,
232
709981
2545
말을 통해 많은 인간들이 진화를 했습니다.
11:52
about 100 billion people in fact.
233
712526
2806
대략 천억명의 사람들이 그랬었습니다.
11:55
What's important though is that writing only emerged
234
715332
2782
하지만 가장 중요한 점은 문자는
11:58
about 5,000 years ago. So what that means is that
235
718114
3587
단 5,000년 전에 나타났다는 것입니다.
12:01
all the people before there was any writing,
236
721701
2392
즉, 문자가 있기전에 사람들이
12:04
every word that they ever said, every utterance
237
724093
5586
나누었던 말, 단어, 입밖으로 나온
12:09
disappeared. No trace. Evanescent. Gone.
238
729679
4752
모든 것들은 모두 흔적도 없이
완전히 사라졌는 것이죠.
12:14
So we've been evolving to talk in a way in which
239
734431
4065
그래서 우리는 기록상으로
남지 않는 대화를 통해
12:18
there is no record. In fact, even the next big change
240
738496
5917
진화를 해왔습니다. 사실 그 다음으로
일어난 문자의 가장 큰 변화는
12:24
to writing was only 500 years ago now,
241
744413
2468
단 500년 전에 일어났는데요,
12:26
with the printing press, which is very recent in our past,
242
746881
2379
인쇄기는 아주 최근에야 발명 되었고
12:29
and literacy rates remained incredibly low right up until World War II,
243
749260
4242
제 2차 세계대전 전까지 바닥에 있던
12:33
so even the people of the last two millennia,
244
753502
3384
식자율 때문에 지난 2천년동안
12:36
most of the words they ever said -- poof! -- disappeared.
245
756886
5032
사용됐던 많은 단어들은
허무하게 사라져버렸습니다.
12:41
Let's turn to now, the networked age.
246
761918
3591
자 이제 네트워크화된 시대를 봅시다.
12:45
How many of you have recorded something today?
247
765509
4712
오늘 뭔가 기록한 적이 있는 분 계십니까?
12:50
Anybody do any writing today? Did anybody write a word?
248
770221
3177
오늘 무엇이든 써본 분 있으세요?
단어를 써본 분 계세요?
12:53
It looks like almost every single person here recorded something.
249
773398
4226
여기 계신 거의 모든 분들이
뭔가를 기록한 것이 있으시군요.
12:57
In this room, right now, we've probably recorded more
250
777624
3048
지금 이 공간에서, 선사 이전 부터
인간이 해왔던
13:00
than almost all of human pre-ancient history.
251
780672
4542
거의 모든 기록들보다도
우리가 더 많은 것을 기록했을 겁니다.
13:05
That is crazy. We're entering this amazing period
252
785214
3230
아주 놀랍죠. 우리는 지금 이렇게 말하고,
13:08
of flux in human evolution where we've evolved to speak
253
788444
4015
그 말들은 사라지고 마는 격변의
13:12
in a way in which our words disappear, but we're in
254
792459
2701
진화 과정속으로 진입하고 있지만
13:15
an environment where we're recording everything.
255
795160
2903
우리가 말하는 모든 것이
기록되는 환경에 살고 있습니다.
13:18
In fact, I think in the very near future, it's not just
256
798063
2337
사실 제 생각에는 이제 미래에
13:20
what we write that will be recorded, everything we do
257
800400
2349
우리가 쓰는 것뿐만 아니라
13:22
will be recorded.
258
802749
2333
우리가 하는 모든 것들이
기록될 것이라고 믿습니다.
13:25
What does that mean? What's the next big idea from that?
259
805082
4456
그것이 무엇을 의미할까요?
거기서 무엇이 중요할까요?
13:29
Well, as a social scientist, this is the most amazing thing
260
809538
4250
사회과학자로서 이것은
13:33
I have ever even dreamed of. Now, I can look at
261
813788
3547
제가 꿈꾼 것 중에 제일
대단한 것입니다.
13:37
all those words that used to, for millennia, disappear.
262
817335
3611
이제 지난 몇천년동안 사라졌던 말들을 볼 수 있습니다.
13:40
I can look at lies that before were said and then gone.
263
820946
4248
또 지난 시간동안 있었다가
사라진 거짓말들까지 볼 수 있죠.
13:45
You remember those Astroturfing reviews that we were
264
825194
3520
앞서 제가 말씀드린
여론 조작을 기억하죠?
13:48
talking about before? Well, when they write a fake review,
265
828714
3503
사람들이 가짜 후기를 써서
어딘가에 올릴 때,
13:52
they have to post it somewhere, and it's left behind for us.
266
832217
2704
그것들은 우리가 읽도록 남겨집니다.
13:54
So one thing that we did, and I'll give you an example of
267
834921
2435
그래서 언어를 보는 관점을 연구하기 위해
13:57
looking at the language, is we paid people
268
837356
2495
연구원들이 사람들에게 돈을 주고
13:59
to write some fake reviews. One of these reviews is fake.
269
839851
3535
가짜 후기를 쓰도록 해봤습니다.
후기 중 한 개는 가짜에요.
14:03
The person never was at the James Hotel.
270
843386
1943
이 사람은 제임스 호텔에
묵은 적이 없습니다.
14:05
The other review is real. The person stayed there.
271
845329
2922
그리고 다른 후기는 사실입니다.
그 사람은 그 곳에 묵었습니다.
14:08
Now, your task now is to decide
272
848251
3527
자, 여러분들이 하실 일은
14:11
which review is fake?
273
851778
4073
무엇이 가짜 후기인지
찾아보는 겁니다.
14:15
I'll give you a moment to read through them.
274
855851
4186
잠시 읽을 시간을 드리죠.
14:20
But I want everybody to raise their hand at some point.
275
860037
2287
하지만 모든 분들이 어느 시점에
손을 들어주셨으면 합니다.
14:22
Remember, I study deception. I can tell if you don't raise your hand.
276
862324
4231
기억하세요, 저는 속임수를 연구해요.
손 안드시면 제가 눈치챕니다.
14:26
All right, how many of you believe that A is the fake?
277
866555
4570
좋습니다. 이 중에 몇분이나
A가 가짜라고 생각하십니까?
14:33
All right. Very good. About half.
278
873154
2142
아주 좋습니다. 반 정도군요.
14:35
And how many of you think that B is?
279
875296
3615
그럼 B가 가짜라고 믿는 분들은요?
14:38
All right. Slightly more for B.
280
878911
2529
좋습니다. B가 좀 더 많군요.
14:41
Excellent. Here's the answer.
281
881440
2592
좋아요. 답은 이겁니다.
14:44
B is a fake. Well done second group. You dominated the first group. (Laughter)
282
884032
6581
B가 가짜에요. 두번째 분들 잘하셨어요.
첫번째 그룹을 이기셨네요. (웃음)
14:50
You're actually a little bit unusual. Every time we demonstrate this,
283
890613
2846
이번 경우는 사실 특별한 경우인데요.
매번 이 실험을 할 때마다
14:53
it's usually about a 50-50 split, which fits
284
893459
2746
보통 50-50 입니다.
14:56
with the research, 54 percent. Maybe people here
285
896205
2646
54%라는 연구 결과와 일치하죠.
14:58
in Winnipeg are more suspicious and better at figuring it out.
286
898851
3770
위니펙의 시민분들은 더 의심하고
거짓말 탐지를 잘 하시나봐요.
15:02
Those cold, hard winters, I love it.
287
902621
2688
추운 겨울 날씨 때문일지도 모르죠.
15:05
All right, so why do I care about this?
288
905309
3054
자, 왜 제가 이것을 신경쓸까요?
15:08
Well, what I can do now with my colleagues in computer science
289
908363
3268
컴퓨터 과학 분야의 동료들과 함께
15:11
is we can create computer algorithms that can analyze
290
911631
3232
저는 컴퓨터 알고리즘으로
15:14
the linguistic traces of deception.
291
914863
2900
속임수의 언어적 흔적을
찾을 수 있습니다.
15:17
Let me highlight a couple of things here
292
917763
1833
이 가짜 후기에서 제가
몇가지 짚어보겠습니다.
15:19
in the fake review. The first is that liars tend to think
293
919596
3443
첫번째로 거짓말쟁이들은
서술법을 씁니다.
15:23
about narrative. They make up a story:
294
923039
1588
이야기를 만들어내죠.
15:24
Who? And what happened? And that's what happened here.
295
924627
3186
누군지, 또 무엇이 일어났는지에
중점을 둡니다.
15:27
Our fake reviewers talked about who they were with
296
927813
2289
가짜 리뷰어들은 누구와 있었는지,
15:30
and what they were doing. They also used the first person singular, I,
297
930102
4765
무엇을 했는지에 대해 이야기 합니다.
또한 심지어 숙박했던 사람들보다
15:34
way more than the people that actually stayed there.
298
934867
2469
"나"라는 말을 더 많이 썼습니다.
15:37
They were inserting themselves into the hotel review,
299
937336
4696
또한 후기 속에 자기 자신들을 넣어서
15:42
kind of trying to convince you they were there.
300
942032
1696
본인들이 실제로 그곳에
있었다는 점을 설득하려 듭니다.
15:43
In contrast, the people that wrote the reviews that were actually there,
301
943728
4015
반대로, 실제로 숙박했던 사람들은
15:47
their bodies actually entered the physical space,
302
947743
2432
그 공간에 대해서
15:50
they talked a lot more about spatial information.
303
950175
2899
더 많은 말을 했습니다.
15:53
They said how big the bathroom was, or they said,
304
953074
2517
화장실이 얼마나 컸고
15:55
you know, here's how far shopping is from the hotel.
305
955591
4520
쇼핑몰이 호텔에서 얼마나
떨어져 있었는가 같은거요.
16:00
Now, you guys did pretty well. Most people perform at chance at this task.
306
960111
4161
여러분들은 잘 고르셨습니다.
16:04
Our computer algorithm is very accurate, much more accurate
307
964272
2758
컴퓨터 알고리즘은 인간보다
16:07
than humans can be, and it's not going to be accurate all the time.
308
967030
3291
훨씬 더 정확하지만,
항상 정확하지는 않습니다.
16:10
This isn't a deception-detection machine to tell
309
970321
2030
이건 결코 여러분들의 여자친구가
16:12
if your girlfriend's lying to you on text messaging.
310
972351
2501
문자로 거짓말을 하는지
감지할 수 있는 기계가 아니에요.
16:14
We believe that every lie now, every type of lie --
311
974852
3564
저는 가짜 호텔 후기든,
가짜 신발 후기든,
16:18
fake hotel reviews, fake shoe reviews,
312
978416
3787
여자 친구가 문자로 여러분을 속이든,
16:22
your girlfriend cheating on you with text messaging --
313
982203
2914
모든 종류의 거짓말들은
16:25
those are all different lies. They're going to have
314
985117
1505
다 다르다고 믿습니다.
16:26
different patterns of language. But because everything's
315
986622
2859
다른 패턴의 언어를 사용하거든요.
16:29
recorded now, we can look at all of those kinds of lies.
316
989481
4689
하지만 오늘날엔 모든것이 기록되기 때문에
우리는 그 모든 거짓말들을 볼 수 있습니다.
16:34
Now, as I said, as a social scientist, this is wonderful.
317
994170
3993
제가 말씀드린대로,
사회과학자로서 이것은 대단합니다.
16:38
It's transformational. We're going to be able to learn
318
998163
2087
그건 변화하는 것이거든요. 오늘날
모든 것이 기록되기 때문에
16:40
so much more about human thought and expression,
319
1000250
3802
우리는 인간의 생각과,
사랑에서부터 태도까지
16:44
about everything from love to attitudes,
320
1004052
4398
아주 많은 것을
알게 될 겁니다.
16:48
because everything is being recorded now, but
321
1008450
1960
하지만 평범한 시민에게는
16:50
what does it mean for the average citizen?
322
1010410
2404
이런 것들이 무슨 의미를 가질까요?
16:52
What does it mean for us in our lives?
323
1012814
2802
우리의 삶에서 이런 것이
어떤 의미를 가질까요?
16:55
Well, let's forget deception for a bit. One of the big ideas,
324
1015616
3673
잠시 속임수를 잊어봅시다.
제 생각에
16:59
I believe, is that we're leaving these huge traces behind.
325
1019289
3688
가장 중요한 것은 우리는
큰 흔적을 남긴다는 것입니다.
17:02
My outbox for email is massive,
326
1022977
3216
제 보낸 메일함은 엄청 크지만
17:06
and I never look at it. I write all the time,
327
1026193
3337
전혀 보지는 않아요.
항상 이메일을 쓰지만
17:09
but I never look at my record, at my trace.
328
1029530
3438
제 기록, 제 흔적을
보는 적은 아예 없죠.
17:12
And I think we're going to see a lot more of that,
329
1032968
1567
제 생각엔 앞으로 우리들이 누구인지를
17:14
where we can reflect on who we are by looking at
330
1034535
3161
우리가 쓴 것, 말한 것, 행한 것을 통해
17:17
what we wrote, what we said, what we did.
331
1037696
3618
깊게 생각해볼 수 있을거에요.
17:21
Now, if we bring it back to deception, there's a couple
332
1041314
2272
다시 속임수로 초점을 맞추면
17:23
of take-away things here.
333
1043586
1977
몇가지 알 수 있는 것이 있습니다.
17:25
First, lying online can be very dangerous, right?
334
1045563
4488
첫째, 인터넷에서 거짓말을
하는건 위험할 수도 있겠죠?
17:30
Not only are you leaving a record for yourself on your machine,
335
1050051
2706
기계에 당신 이름으로
기록을 남길 뿐만아니라
17:32
but you're leaving a record on the person that you were lying to,
336
1052757
4275
상대에게 거짓말의 기록을
남기기 때문에
17:37
and you're also leaving them around for me to analyze
337
1057032
1760
결국 제가 컴퓨터 알고리즘으로
17:38
with some computer algorithms.
338
1058792
1454
분석을 할 거리가 생기는거죠.
17:40
So by all means, go ahead and do that, that's good.
339
1060246
3173
그러니까 마음 놓고
거짓말 하세요.
17:43
But when it comes to lying and what we want to do
340
1063419
4154
하지만 거짓말을 하는것과
우리가 인생에서 추구하는것을 생각할 때에,
17:47
with our lives, I think we can go back to
341
1067573
2553
디오게네스와 공자를 기억해 봅시다.
17:50
Diogenes and Confucius. And they were less concerned
342
1070126
3749
그들은 거짓말을 하고 안하고 보다는
17:53
about whether to lie or not to lie, and more concerned about
343
1073875
2832
자신에게 솔직해지는 것을
중시한 사람들이죠,
17:56
being true to the self, and I think this is really important.
344
1076707
3285
저도 이것이 아주
중요하다고 생각합니다.
17:59
Now, when you are about to say or do something,
345
1079992
4183
자, 이제 여러분들이 무엇을 말하거나
18:04
we can think, do I want this to be part of my legacy,
346
1084175
4560
행하려고 할 때, 내 행동이
나의 유산과 기록이
18:08
part of my personal record?
347
1088735
2713
되었으면 좋겠는지
생각해보면 좋겠죠?
18:11
Because in the digital age we live in now,
348
1091448
2657
왜냐하면 우리가 오늘날 살고있는
18:14
in the networked age, we are all leaving a record.
349
1094105
4464
네트워크화된 디지털 시대에서는
우리 모두가 기록을 남기니까요.
18:18
Thank you so much for your time,
350
1098569
1695
시간을 내주셔서
정말 고맙습니다.
18:20
and good luck with your record. (Applause)
351
1100264
4447
그리고 여러분들이 기록을
남기는 것에 행운을 빕니다. (박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.