We've stopped trusting institutions and started trusting strangers | Rachel Botsman

199,992 views ・ 2016-11-07

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Kim Jung hye 검토: Park Haesik
00:12
Let's talk about trust.
0
12760
2560
신뢰에 대해 이야기해 봅시다.
00:16
We all know trust is fundamental,
1
16240
3496
우리는 모두 신뢰가 기본적인 것이라고 알고 있습니다.
00:19
but when it comes to trusting people,
2
19760
2616
하지만 사람들을 신뢰하려고 할 때면
00:22
something profound is happening.
3
22400
2760
심오한 무언가가 일어납니다.
00:25
Please raise your hand
4
25800
1256
에어비앤비의 호스트나
00:27
if you have ever been a host or a guest on Airbnb.
5
27080
4320
손님이 되어 본 적이 있으시면 손을 들어보세요
00:32
Wow. That's a lot of you.
6
32400
3216
와, 엄청 많군요.
00:35
Who owns Bitcoin?
7
35640
1440
비트코인을 가지고 계신분은요?
00:38
Still a lot of you. OK.
8
38640
1256
그래요. 여전히 많군요
00:39
And please raise your hand if you've ever used Tinder
9
39920
2696
그리고 만약 Tinder을 이용해 본적이 있다면 손을 들어주십시오.
00:42
to help you find a mate.
10
42640
1616
짝을 찾는데 말이죠.
00:44
(Laughter)
11
44280
1816
(웃음)
00:46
This one's really hard to count because you're kind of going like this.
12
46120
3376
이렇게 손을 드시면 세기가 어려워요.
00:49
(Laughter)
13
49520
1816
(웃음)
00:51
These are all examples of how technology
14
51360
2776
이 모든 것은 기술이 어떻게
00:54
is creating new mechanisms
15
54160
2096
새로운 매커니즘을 만드는지에 대한 예들입니다.
00:56
that are enabling us to trust unknown people, companies and ideas.
16
56280
6016
이 매커니즘은 낯선 사람들과 기업과 아이디어를 믿을 수 있도록 합니다.
01:02
And yet at the same time,
17
62320
2016
그러나 동시에
01:04
trust in institutions --
18
64360
1536
은행과 정부
01:05
banks, governments and even churches --
19
65920
2936
심지어 교회같은 기관에 대한 신뢰는
01:08
is collapsing.
20
68880
1376
무너지고 있습니다.
01:10
So what's happening here,
21
70280
2216
자 여기서 무슨 일이 일어나고 있고,
01:12
and who do you trust?
22
72520
1760
여러분은 누구를 믿습니까?
01:14
Let's start in France with a platform -- with a company, I should say --
23
74800
3896
프랑스에 있는 한 기업부터 이야기 해보겠습니다.
01:18
with a rather funny-sounding name,
24
78720
2136
조금 재밌는 이름을 가지고 있는데요.
01:20
BlaBlaCar.
25
80880
1256
블라블라카(BlaBlaCar) 입니다.
01:22
It's a platform that matches drivers and passengers
26
82160
3616
이 플랫폼은 장거리 여행을 함께 하고자 하는
01:25
who want to share long-distance journeys together.
27
85800
4016
운전자와 승객들을 연결시켜줍니다.
01:29
The average ride taken is 320 kilometers.
28
89840
4216
평균 이동거리가 320km이기 때문에
01:34
So it's a good idea to choose your fellow travelers wisely.
29
94080
4600
여기선 동행할 사람을 신중하게 고르는 것이 중요합니다.
01:39
Social profiles and reviews help people make a choice.
30
99320
3976
여기선 프로필과 리뷰가 선택에 도움을 줍니다.
01:43
You can see if someone's a smoker, you can see what kind of music they like,
31
103320
5016
누가 흡연자이고, 어떤 음악을 좋아하는지 알 수 있으며
01:48
you can see if they're going to bring their dog along for the ride.
32
108360
3600
상대가 강아지를 데리고 가는지도 알수있습니다.
01:52
But it turns out that the key social identifier
33
112440
3576
하지만 가장 중요한 욥션은
01:56
is how much you're going to talk in the car.
34
116040
2616
여러분이 차에서 얼마나 말을 하는지 입니다.
01:58
(Laughter)
35
118680
1816
(웃음)
02:00
Bla, not a lot,
36
120520
1616
블라 하나, (프로필상의 블라갯수) 그렇게 말이 많지 않음
02:02
bla bla, you want a nice bit of chitchat,
37
122160
2296
블라블라. 가벼운 대화정도를 원함.
02:04
and bla bla bla, you're not going to stop talking the entire way
38
124480
3736
블라블라블라, 쉴새없이 말함
02:08
from London to Paris.
39
128240
1456
런던에서 파리까지.
02:09
(Laughter)
40
129720
2296
(웃음)
02:12
It's remarkable, right, that this idea works at all,
41
132040
3016
이런 아이디어가 통했다는게 대단하지 않나요.
02:15
because it's counter to the lesson most of us were taught as a child:
42
135080
3856
왜냐하면 우리가 아이일때 늘 들어왔던 말과 상반되기 때문입니다.
02:18
never get in a car with a stranger.
43
138960
2320
"절대 낯선사람 차에 타지마라."
02:21
And yet, BlaBlaCar transports more than four million people
44
141680
5136
하지만, 블라블라카는 매달 4백만 명 이상의 사람들을
02:26
every single month.
45
146840
1240
실어 나릅니다.
02:28
To put that in context, that's more passengers
46
148880
2336
달리 말하면, 유로스타나 제트블루 에어라인이
02:31
than the Eurostar or JetBlue airlines carry.
47
151240
3480
실어나르는 승객보다 많습니다.
02:35
BlaBlaCar is a beautiful illustration of how technology is enabling
48
155360
4136
블라블라카는 기술이 어떻게 수 백만 명의 사람들이
02:39
millions of people across the world to take a trust leap.
49
159520
3600
'신뢰도약'을 하도록 하는지 보여주는 아주 멋진 예입니다.
02:43
A trust leap happens when we take the risk to do something new or different
50
163560
6256
신뢰의 도약은 우리가 항상 해오던 방식과 다른 새로운 것에
02:49
to the way that we've always done it.
51
169840
2040
도전하려고 위험을 감수할 때 발생합니다.
02:52
Let's try to visualize this together.
52
172440
2560
이것을 시각화해보겠습니다.
02:55
OK. I want you to close your eyes.
53
175360
3160
눈을 감아 주시길 바랍니다.
02:59
There is a man staring at me with his eyes wide open.
54
179320
3056
눈을 크게 뜨고 절 바라보고 있는 한분이 계시네요.
03:02
I'm on this big red circle. I can see.
55
182400
2456
여기 빨란원 위에 서있으면 다 보인다고요.
03:04
So close your eyes.
56
184880
1416
자 눈을 감아 보세요.
03:06
(Laughter) (Applause)
57
186320
2856
(웃음)(박수)
03:09
I'll do it with you.
58
189200
1256
저도 같이 할게요.
03:10
And I want you to imagine there exists a gap
59
190480
3016
자 여러분과 모르는 무언가와의
03:13
between you and something unknown.
60
193520
2560
사이에 틈이 있다고 상상해보세요.
03:16
That unknown can be someone you've just met.
61
196760
2856
그것은 여러분이 방금 막 만난 사람일 수도 있고
03:19
It can be a place you've never been to.
62
199640
2096
여러분이 한 번도 가지 못했던 장소일 수도 있습니다.
03:21
It can be something you've never tried before.
63
201760
3376
아니면 이전에 한번도 시도한 적없는 무언가 일수도 있습니다.
03:25
You got it?
64
205160
1216
자 됐나요?
03:26
OK. You can open your eyes now.
65
206400
2096
이젠 눈을 뜨셔도 좋습니다.
03:28
For you to leap from a place of certainty,
66
208520
3336
여러분이 확신의 지점에서
03:31
to take a chance on that someone or something unknown,
67
211880
3576
모르는 사람과 장소로 도약을 하고자 한다면
03:35
you need a force to pull you over the gap,
68
215480
3336
여러분은 이 간극을 뛰어넘도록 밀어줄 힘이 필요합니다.
03:38
and that remarkable force is trust.
69
218840
2840
그리고 이 대단한 힘이 바로 신뢰입니다.
03:42
Trust is an elusive concept,
70
222560
3616
신뢰는 다소 모호한 개념입니다.
03:46
and yet we depend on it for our lives to function.
71
226200
3376
하지만 우리는 삶이 제대로 기능하는데 이 신뢰에 의지합니다.
03:49
I trust my children
72
229600
2256
저는 제 아이들을 믿습니다.
03:51
when they say they're going to turn the lights out at night.
73
231880
2856
아이들이 밤에 불을 끄고 자겠다고 할때 말이죠.
03:54
I trusted the pilot who flew me here to keep me safe.
74
234760
3216
저는 저를 여기까지 안전하게 태워준 비행기 조종사를 믿습니다.
03:58
It's a word we use a lot,
75
238000
2816
신뢰는 우리가 정말 많이 사용하는 단어입니다.
04:00
without always thinking about what it really means
76
240840
2416
진짜 의미가 무엇인지, 우리의 다양한 삶에
04:03
and how it works in different contexts of our lives.
77
243280
3376
어떻게 작용하는지를 생각해보지 않아도
04:06
There are, in fact, hundreds of definitions of trust,
78
246680
3616
사실 신뢰엔 수 백가지의 정의가 있습니다.
04:10
and most can be reduced to some kind of risk assessment
79
250320
4576
그리고 이 정의들은 일이 얼마나 잘 될것인가라는
04:14
of how likely it is that things will go right.
80
254920
2760
일종의 위험평가라는 것으로 귀결됩니다.
04:18
But I don't like this definition of trust,
81
258120
2576
하지만 전 이런 정의를 좋아하지 않습니다.
04:20
because it makes trust sound rational and predictable,
82
260720
4296
왜냐하면 이성적이고 예측가능한 것처럼 보이게 하기 때문입니다.
04:25
and it doesn't really get to the human essence
83
265040
2576
그리고 무엇이 우리를 움직이고
04:27
of what it enables us to do
84
267640
1936
타인과 관계를 가지기위해
04:29
and how it empowers us
85
269600
1976
어떤 힘이 작용하는가에 대한
04:31
to connect with other people.
86
271600
2096
인간의 본질을 다루지도 못합니다.
04:33
So I define trust a little differently.
87
273720
2056
따라서 저는 신뢰를 조금 다르게 정의해볼까 합니다.
04:35
I define trust as a confident relationship to the unknown.
88
275800
5440
저는 신뢰를 낯선것에 대한 확신있는 관계라고 정의합니다.
04:41
Now, when you view trust through this lens,
89
281920
2096
이 관점으로 신뢰를 바라본다면
04:44
it starts to explain why it has the unique capacity
90
284040
3656
왜 신뢰가 불확실성에 순응하고
04:47
to enable us to cope with uncertainty,
91
287720
3096
낯선 사람을 신뢰하게 하며
04:50
to place our faith in strangers,
92
290840
3016
앞으로 나아가도록 하는
04:53
to keep moving forward.
93
293880
1880
특별한 힘을 가졌는지 이해하게 될겁니다.
04:56
Human beings are remarkable
94
296400
2776
인간은 신뢰도약을 하는데
04:59
at taking trust leaps.
95
299200
1680
매우 탁월합니다.
05:01
Do you remember the first time you put your credit card details
96
301400
2976
웹사이트에 처음으로 여러분의 신용카드 정보를
05:04
into a website?
97
304400
1216
입력했을 때가 기억나시나요?
05:05
That's a trust leap.
98
305640
1336
그게 바로 신뢰의 도약입니다.
05:07
I distinctly remember telling my dad
99
307000
2936
분명히 기억나는데
05:09
that I wanted to buy a navy blue secondhand Peugeot on eBay,
100
309960
5256
제가 이베이에서 진한 네이비블루 색상의 중고 푸조를 사고싶다고
05:15
and he rightfully pointed out
101
315240
1656
아버지에게 말했을때 아버지가 정확히 가리키시더군요.
05:16
that the seller's name was "Invisible Wizard"
102
316920
2376
판매자 이름이 '보이지 않는 마법사'인데
05:19
and that this probably was not such a good idea.
103
319320
3096
그다지 좋은 생각이 아닌 것 같다 라고 말이죠.
05:22
(Laughter)
104
322440
1696
(웃음)
05:24
So my work, my research focuses on how technology
105
324160
3416
그래서 저는 어떻게 기술이 사회의 결속력과
05:27
is transforming the social glue of society,
106
327600
2656
사람간의 신뢰를 변화시키는지에
05:30
trust between people,
107
330280
1656
연구의 초점을 맞췄습니다.
05:31
and it's a fascinating area to study,
108
331960
2256
이건 아주 매력적인 연구분야입니다.
05:34
because there's still so much we do not know.
109
334240
3376
우리는 아직 모르는게 너무 많으니까요.
05:37
For instance, do men and women trust differently in digital environments?
110
337640
5096
예를 들어, 남녀는 디지털 환경에서 서로 다른 방식으로 신뢰할까요?
05:42
Does the way we build trust face-to-face translate online?
111
342760
4896
얼굴을 보며 신뢰를 쌓아온 방식이 온라인에서는 바뀔까요?
05:47
Does trust transfer?
112
347680
1936
신뢰는 다른곳으로 전환될까요?
05:49
So if you trust finding a mate on Tinder,
113
349640
2696
만약 여러분이 Tinder에서 짝 찾는 것을 신뢰를 한다면
05:52
are you more likely to trust finding a ride on BlaBlaCar?
114
352360
3360
여러분은 BlaBlaCar 에서도 동행자를 찾을 가능성이 큽니다.
05:56
But from studying hundreds of networks and marketplaces,
115
356440
3256
하지만, 수백개의 네트워크와 판매시장을 조사한 결과,
05:59
there is a common pattern that people follow,
116
359720
2816
여기엔 사람들이 따르는 일반적인 패턴이 있습니다.
06:02
and I call it "climbing the trust stack."
117
362560
2656
그리고 저는 이것을 "신뢰스택 오르기"라고 부릅니다.
06:05
Let me use BlaBlaCar as an example to bring it to life.
118
365240
3200
한 예로 BlaBlaCar을 들어보겠습니다.
06:09
On the first level,
119
369080
1296
첫 번째 단계에서
06:10
you have to trust the idea.
120
370400
2176
여러분은 아이디어를 믿어야 합니다.
06:12
So you have to trust
121
372600
1216
바로 차량공유라는 아이디어가
06:13
the idea of ride-sharing is safe and worth trying.
122
373840
3400
안전하고, 해볼만한 가치가 있다고 믿어야 합니다.
06:17
The second level is about having confidence in the platform,
123
377640
4696
두번째는 이 플랫폼에 확신이 있어야 합니다.
06:22
that BlaBlaCar will help you if something goes wrong.
124
382360
4136
무언가 잘못되면 BlaBlaCar가 도와줄 것이라는 확신말이죠.
06:26
And the third level is about using little bits of information
125
386520
3656
그리고 세번째 단계는 다른 사람이 믿을만 한지
06:30
to decide whether the other person is trustworthy.
126
390200
3480
결정하는데 약간의 정보가 제공 되느냐입니다.
06:34
Now, the first time we climb the trust stack,
127
394200
2616
처음 신뢰스택을 오를 때는
06:36
it feels weird, even risky,
128
396840
3256
이상하게 느껴지고, 위험하다고도 느껴질 겁니다.
06:40
but we get to a point where these ideas seem totally normal.
129
400120
4976
하지만, 일단 이 아이디어가 편하게 느껴지는 지점에 도달하면
06:45
Our behaviors transform,
130
405120
2296
우리의 행동은 변화합니다,
06:47
often relatively quickly.
131
407440
1976
가끔은 아주 빠르게요.
06:49
In other words, trust enables change and innovation.
132
409440
4800
다시 말하면, 신뢰는 변화와 혁신을 이끌어 냅니다.
06:55
So an idea that intrigued me, and I'd like you to consider,
133
415280
3416
저의 호기심을 자극하고, 여러분도 생각해봤으면 하는 것은
06:58
is whether we can better understand
134
418720
2536
신뢰의 렌즈를 통해 사회 속 개인들의
07:01
major waves of disruption and change in individuals in society
135
421280
4176
혼란과 변화의 주요 움직임을
07:05
through the lens of trust.
136
425480
2056
더 잘 이해할 수 있을까 하는 겁니다.
07:07
Well, it turns out that trust has only evolved
137
427560
3296
신뢰는 인간의 역사에서
07:10
in three significant chapters throughout the course of human history:
138
430880
4656
세가지 단계로 진화했습니다.
07:15
local, institutional
139
435560
2216
지역사회, 제도권
07:17
and what we're now entering, distributed.
140
437800
2400
그리고 지금 우리가 진입하고 있는 분산입니다.
07:20
So for a long time,
141
440680
2336
오랜 시간동안
07:23
until the mid-1800s,
142
443040
1256
1800년대 중반까지,
07:24
trust was built around tight-knit relationships.
143
444320
3936
신뢰는 아주 촘촘한 관계를 통해 형성되었습니다.
07:28
So say I lived in a village
144
448280
2016
제가 한 마을에 살고 있다고 해보죠
07:30
with the first five rows of this audience,
145
450320
2576
여기 앞줄에 있는 다섯분과 말이죠.
07:32
and we all knew one another,
146
452920
1936
저희는 서로를 잘 알고 있습니다.
07:34
and say I wanted to borrow money.
147
454880
2896
그리고 저는 돈을 빌리고 싶다고 말합니다.
07:37
The man who had his eyes wide open, he might lend it to me,
148
457800
2976
앞에 눈을 크게 뜨고 있는 남자분이 돈을 빌려줄 겁니다.
07:40
and if I didn't pay him back,
149
460800
2096
그리고 만약 제가 돈을 갚지 않는다면
07:42
you'd all know I was dodgy.
150
462920
1656
어려분은 저에게 속았다고 생각할 것이고
07:44
I would get a bad reputation,
151
464600
1656
저의 평판은 나빠질겁니다.
07:46
and you would refuse to do business with me in the future.
152
466280
3056
그리곤 나중에 여러분은 저와 거래 하기를 거부하겠죠.
07:49
Trust was mostly local and accountability-based.
153
469360
4216
신뢰는 대부분 소규모 지역과 책임에 기반했습니다.
07:53
In the mid-19th century,
154
473600
1336
19세기 중반에 이르러,
07:54
society went through a tremendous amount of change.
155
474960
3416
사회는 엄청난 변화를 겪었습니다.
07:58
People moved to fast-growing cities such as London and San Francisco,
156
478400
3776
사람들은 런던과 샌프란시스코같은 급성장하는 도시로 이주했고
08:02
and a local banker here was replaced by large corporations
157
482200
4856
지역은행들은 훨씬 큰 기업들로 대체되었습니다.
08:07
that didn't know us as individuals.
158
487080
2896
이 기업들은 개인으로서의 우리를 알지 못했죠.
08:10
We started to place our trust
159
490000
1976
우리는 권위의 블랙박스 시스템에
08:12
into black box systems of authority,
160
492000
3576
신뢰를 부여하기 시작했습니다.
08:15
things like legal contracts and regulation and insurance,
161
495600
4296
법적계약, 규약, 그리고 보장같은 것들 말입니다.
08:19
and less trust directly in other people.
162
499920
4016
그리고 타인에 대한 직접적인 신뢰는 약화되었습니다.
08:23
Trust became institutional and commission-based.
163
503960
3856
신뢰는 기관화하고 단체에 기반하게 되었습니다.
08:27
It's widely talked about how trust in institutions and many corporate brands
164
507840
4816
지금 많은 기관과 기업의 신뢰가 슬프게도
08:32
has been steadily declining and continues to do so.
165
512680
3736
계속 추락하는데 대한 많은 논의가 있습니다.
08:36
I am constantly stunned by major breaches of trust:
166
516440
5616
저는 계속적인 대형 신뢰위반에 놀랐습니다.
08:42
the News Corp phone hacking,
167
522080
2496
The News Corp의 휴대폰 해킹,
08:44
the Volkswagen emissions scandal,
168
524600
2816
폭스바겐의 배출가스조작 스캔들
08:47
the widespread abuse in the Catholic Church,
169
527440
3335
카톨릭 교회에 만연한 추문
08:50
the fact that only one measly banker
170
530799
3216
금융위기 후 달랑 한명의
08:54
went to jail after the great financial crisis,
171
534039
3297
은행간부만이 감옥에 간 사실이나
08:57
or more recently the Panama Papers
172
537360
2056
최근에 있었던 어떻게 부자들이
08:59
that revealed how the rich can exploit offshore tax regimes.
173
539440
5136
연안의 세금회피처를 이용했는지를 폭로한 파나마 페이퍼
09:04
And the thing that really surprises me
174
544600
2456
그리고 저를 정말 놀라게 했었던 건
09:07
is why do leaders find it so hard
175
547080
4016
왜 리더들이 사과하는 걸 어려워하는지
09:11
to apologize, I mean sincerely apologize,
176
551120
3176
진심이 담긴 사죄말이죠
09:14
when our trust is broken?
177
554320
2160
우리의 신뢰가 깨졌을 때요.
09:17
It would be easy to conclude that institutional trust isn't working
178
557360
4136
기관의 신뢰가 작동하지 않는다고 결론을 내는건 쉬울겁니다.
09:21
because we are fed up
179
561520
1496
왜냐하면
09:23
with the sheer audacity of dishonest elites,
180
563040
2896
우리 모두 부도덕한 엘리트들의 뻔뻔함에 진저리가 났기 때문이죠.
09:25
but what's happening now
181
565960
1976
하지만 지금 벌어지고 있는 상황은
09:27
runs deeper than the rampant questioning of the size and structure of institutions.
182
567960
5616
단순히 기관의 규모와 구조에 대한 질문을 넘어서고 있습니다.
09:33
We're starting to realize
183
573600
2016
저희는 이제 깨닫기 시작했습니다.
09:35
that institutional trust
184
575640
1776
기관에 대한 신뢰는
09:37
wasn't designed for the digital age.
185
577440
2976
디지털 시대에 맞지 않다는 것을요.
09:40
Conventions of how trust is built,
186
580440
3656
어떻게 브랜드와 리더 그리고 전체 시스템에서
09:44
managed, lost and repaired --
187
584120
2336
신뢰가 쌓여, 관리되고,
09:46
in brands, leaders and entire systems --
188
586480
2496
잃고 회복하는지에 대한 통념은
09:49
is being turned upside down.
189
589000
2000
완전히 뒤집히고 있습니다.
09:51
Now, this is exciting,
190
591760
2096
이건 정말 흥미롭기도 하지만
09:53
but it's frightening,
191
593880
1536
두려운 일이기도 합니다.
09:55
because it forces many of us to have to rethink
192
595440
2696
왜냐하면 고객과 직원, 심지어 사랑하는 사람들과의 신뢰가
09:58
how trust is built and destroyed with our customers, with our employees,
193
598160
4696
어떻게 형성되고 무너지는지에 대해
10:02
even our loved ones.
194
602880
1480
다시 생각하게 하기 때문입니다.
10:05
The other day, I was talking to the CEO of a leading international hotel brand,
195
605800
6176
어느날, 어떤 큰 호텔브랜드의 CEO와 이야기를 나눈 적이 있었습니다.
10:12
and as is often the case, we got onto the topic of Airbnb.
196
612000
3240
언제나처럼, 에어비앤비에 대해 이야기를 나누었죠.
10:15
And he admitted to me that he was perplexed by their success.
197
615840
5096
그분은 에어비앤비의 성공에 놀랐다고 인정을 했습니다.
10:20
He was perplexed at how a company
198
620960
2136
어떻게 낯선 사람들의 상호신뢰 의지에
10:23
that depends on the willingness of strangers to trust one another
199
623120
4176
기반한 회사가 어떻게 전세계 191개국에서
10:27
could work so well across 191 countries.
200
627320
3960
성공을 거둘수 있었을까에 당혹스러워 했습니다.
10:31
So I said to him that I had a confession to make,
201
631920
3136
그리고 제가 그분에게 고백할게 있다고 말했죠.
10:35
and he looked at me a bit strangely,
202
635080
1976
저를 좀 이상하게 쳐다보더군요.
10:37
and I said --
203
637080
1376
제가 말했습니다.
10:38
and I'm sure many of you do this as well --
204
638480
2016
당신도 이미 비슷한걸 하고 있다고 말이죠.
10:40
I don't always bother to hang my towels up
205
640520
2496
전 호텔에서 나올 때
10:43
when I'm finished in the hotel,
206
643040
2936
타월을 거는 수고를 하지 않습니다.
10:46
but I would never do this as a guest on Airbnb.
207
646000
2640
하지만 에어비앤비에서는 절대 해서는 안될 일이죠.
10:49
And the reason why I would never do this as a guest on Airbnb
208
649560
3336
에어비앤비의 손님으로서 정리를 하는 이유는
10:52
is because guests know that they'll be rated by hosts,
209
652920
3656
주인들이 손님에 대한 평점을 매기기 때문입니다.
10:56
and that those ratings are likely to impact their ability
210
656600
3736
그리고 이 평점은 미래 숙박거래에 있어
11:00
to transact in the future.
211
660360
1680
영향을 미칠 가능성이 큽니다.
11:02
It's a simple illustration of how online trust will change our behaviors
212
662680
4216
이건 온라인신뢰가 현실에서 어떻게 우리 행동을 변화시키고
11:06
in the real world,
213
666920
1296
더 믿을수 있게
11:08
make us more accountable
214
668240
2496
하는지를 보여주는 간단한 예입니다.
11:10
in ways we cannot yet even imagine.
215
670760
3440
아직 상상하지 못하는 많은 방법으로 말이죠.
11:14
I am not saying we do not need hotels
216
674880
3056
전 우리가 호텔이 이젠 필요없다고 말하는게 아닙니다.
11:17
or traditional forms of authority.
217
677960
2336
전통적인 권위체계도 마찬가지구요.
11:20
But what we cannot deny
218
680320
2096
하지만 우리가 부정할수 없는 것은
11:22
is that the way trust flows through society is changing,
219
682440
4256
사회를 관통하는 신뢰의 흐름이 바뀌고 있으며
11:26
and it's creating this big shift
220
686720
2296
기관의 신뢰로 정의된
11:29
away from the 20th century
221
689040
1856
20세기에서 벗어나
11:30
that was defined by institutional trust
222
690920
2816
분화된 신뢰로 동력을 얻는
11:33
towards the 21st century
223
693760
2496
21세기로 가는
11:36
that will be fueled by distributed trust.
224
696280
2640
큰 변화를 창조하고 있다는 겁니다.
11:39
Trust is no longer top-down.
225
699480
4176
신뢰는 더 이상 하향식이 아닙니다.
11:43
It's being unbundled and inverted.
226
703680
2096
분화되고, 전환되고 있습니다.
11:45
It's no longer opaque and linear.
227
705800
2840
더이상 불분명하지도 단편적이지도 않습니다.
11:49
A new recipe for trust is emerging
228
709160
2976
새로운 신뢰 제조법이 등장하고 있습니다.
11:52
that once again is distributed amongst people
229
712160
3896
다시 한번 신뢰가 사람들에게 배분되고
11:56
and is accountability-based.
230
716080
2136
이는 책임에 기반하고 있습니다.
11:58
And this shift is only going to accelerate
231
718240
3416
그리고 이런 변화는 블록체인의 등장과 함께
12:01
with the emergence of the blockchain,
232
721680
2736
가속화 될 것입니다.
12:04
the innovative ledger technology underpinning Bitcoin.
233
724440
3640
블록체인은 비트코인이 사용하는 혁신적인 금융거래 기술입니다.
12:08
Now let's be honest,
234
728800
2936
이제, 솔직해져 보겠습니다.
12:11
getting our heads around the way blockchain works
235
731760
3456
머리를 굴려볼수록 블락체인이 작동하는 방식은
12:15
is mind-blowing.
236
735240
1440
정말 복잡하고 이해하기 힘듭니다.
12:17
And one of the reasons why is it involves processing
237
737720
3256
그 이유는 복잡한 컨셉의 프로세싱 과정을
12:21
some pretty complicated concepts
238
741000
2656
거치기 때문입니다.
12:23
with terrible names.
239
743680
1496
이름도 최악이죠.
12:25
I mean, cryptographic algorithms and hash functions,
240
745200
4496
암호화 알고리즘, 해쉬값
12:29
and people called miners, who verify transactions --
241
749720
3056
거래를 확인해주는 Miner라는 사람들,
12:32
all that was created by this mysterious person
242
752800
3576
이 모든게 어떤 미스테리한 사람이 만들었다거나
12:36
or persons called Satoshi Nakamoto.
243
756400
2736
아니면 사토시 나카모토라고 하는 사람이 만들었다는 둥
12:39
Now, that is a massive trust leap that hasn't happened yet.
244
759160
5656
아직 일어나진 않았지만 이거야 말로 엄청난 신뢰도약이라고 할수 있죠.
12:44
(Applause)
245
764840
3056
(박수)
12:47
But let's try to imagine this.
246
767920
1456
하지만 이해해 보려고 노력해보겠습니다.
12:49
So "The Economist" eloquently described the blockchain
247
769400
3696
이코노미스트지는 이 블락체인을 사물에 대한
12:53
as the great chain of being sure about things.
248
773120
3656
거대한 확신의 사슬이라고 설득력있게 설명했습니다.
12:56
The easiest way I can describe it is imagine the blocks as spreadsheets,
249
776800
5056
가장 쉽게 설명하는 방법은 블록을 스프레이드시트로 생각하는 겁니다.
13:01
and they are filled with assets.
250
781880
2976
그리고 이 블록들은 자산들로 차있습니다.
13:04
So that could be a property title.
251
784880
2416
이것은 소유권이 될 수 있습니다.
13:07
It could be a stock trade.
252
787320
2016
증권거래가 될 수도 있고요.
13:09
It could be a creative asset, such as the rights to a song.
253
789360
2960
창작 자산이 될수도 있습니다. 저작권 같은거요.
13:12
Every time something moves
254
792960
3016
무언가가 등록된 한곳에서
13:16
from one place on the register to somewhere else,
255
796000
3816
다른 곳으로 이동할 때마다
13:19
that asset transfer is time-stamped
256
799840
3096
그 자산에 시간이 등록되고
13:22
and publicly recorded on the blockchain.
257
802960
3416
블록체인에 공개적으로 기록이 됩니다.
13:26
It's that simple. Right.
258
806400
1880
간단합니다. 그렇죠.
13:28
So the real implication of the blockchain
259
808720
3096
블록체인의 진짜 영향은
13:31
is that it removes the need for any kind of third party,
260
811840
4136
교류를 촉진하기위해
13:36
such as a lawyer,
261
816000
1336
변호사나
13:37
or a trusted intermediary, or maybe not a government intermediary
262
817360
3456
믿을만한 중개인 같은; 정부중개를 말하는건 아니고요.
13:40
to facilitate the exchange.
263
820840
1816
이런 삼자의 필요성을 없앴다는 겁니다.
13:42
So if we go back to the trust stack,
264
822680
2256
신뢰스택으로 다시 돌아가보면
13:44
you still have to trust the idea,
265
824960
2736
여러분은 아이디어를 믿어야하고
13:47
you have to trust the platform,
266
827720
2296
플랫폼을 믿어야하지만
13:50
but you don't have to trust the other person
267
830040
2936
전통적인 방식으로 다른사람을
13:53
in the traditional sense.
268
833000
1936
신뢰할 필요가 없어집니다.
13:54
The implications are huge.
269
834960
2496
이것의 파급력은 매우 큽니다.
13:57
In the same way the internet blew open the doors to an age of information
270
837480
3696
인터넷이 모든이에게 정보의 시대로 들어가는 문을
14:01
available to everyone,
271
841200
1416
활짝 연 것과 마찬가지로
14:02
the blockchain will revolutionize trust on a global scale.
272
842640
4320
블록체인은 전세계적 범위에서 신뢰의 개념을 혁명적으로 바꿀겁니다.
14:08
Now, I've waited to the end intentionally to mention Uber,
273
848240
3936
이제, 전 우버를 언급하면서 끝을 낼려고 합니다.
14:12
because I recognize that it is a contentious
274
852200
3456
왜냐하면, 우버는 논쟁을 일으키고
14:15
and widely overused example,
275
855680
2616
널리 인용되고 있는 사례이기 때문입니다.
14:18
but in the context of a new era of trust, it's a great case study.
276
858320
3240
하지만 새로운 신뢰시대라는 면에서 이는 매우 훌륭한 연구자료입니다.
14:21
Now, we will see cases of abuse of distributed trust.
277
861920
4736
이제, 분산된 신뢰의 남용사례를 보여드리겠습니다.
14:26
We've already seen this, and it can go horribly wrong.
278
866680
3656
저희는 이런 사례를 이미 봐왔고, 완전히 잘못된 길을 갈수도 있습니다.
14:30
I am not surprised that we are seeing protests from taxi associations
279
870360
5176
전 전세계에 걸쳐 안전하지 않다는 이유로
14:35
all around the world
280
875560
1336
정부에 우버를 금지하라고
14:36
trying to get governments to ban Uber based on claims that it is unsafe.
281
876920
4880
요구하는 택시협회의 시위를 보고 놀라진 않습니다.
14:42
I happened to be in London the day that these protests took place,
282
882320
4376
시위가 있던 날 전 런던에 있었습니다.
14:46
and I happened to notice a tweet
283
886720
1976
한 트위터를 보게 되었는데요.
14:48
from Matt Hancock, who is a British minister for business.
284
888720
3616
영국 경제부장관 매트 핸콕이
14:52
And he wrote,
285
892360
1216
올린 글입니다.
14:53
"Does anyone have details of this #Uber app everyone's talking about?
286
893600
3976
"지금 난리인 우버앱에 대해 잘 알고 있는 사람 없어요?
14:57
(Laughter)
287
897600
1200
(웃음)
14:59
I'd never heard of it until today."
288
899880
2640
지금까지 이런걸 들어본 적이 없어요..."
15:03
Now, the taxi associations,
289
903560
3280
택시 협회는
15:07
they legitimized the first layer of the trust stack.
290
907800
2736
신뢰스택의 첫 번째 단계를 만들었습니다.
15:10
They legitimized the idea that they were trying to eliminate,
291
910560
3336
이들은 자기들이 없애려고 하는 아이디어에 오히려 합리성을 부여했고
15:13
and sign-ups increased by 850 percent in 24 hours.
292
913920
5136
우버앱 다운로드수는 24시간 만에 850퍼센트로 늘어났습니다.
15:19
Now, this is a really strong illustration
293
919080
3256
이것 아주 강력한 예입니다.
15:22
of how once a trust shift has happened around a behavior or an entire sector,
294
922360
5816
일단 신뢰변화가 행동 또는 전체분야에서 일어나면
15:28
you cannot reverse the story.
295
928200
2240
이 흐름을 바꿀수 없습니다.
15:31
Every day, five million people will take a trust leap
296
931120
3856
매일, 500만명의 사람들은 신뢰의 도약을 하고
15:35
and ride with Uber.
297
935000
1536
우버를 이용할 겁니다.
15:36
In China, on Didi, the ride-sharing platform,
298
936560
3216
중국에서는, 디디라는 자동차 쉐어링 플랫폼으로
15:39
11 million rides taken every day.
299
939800
2896
매일 1,100만번의 자동차 쉐이링을 합니다.
15:42
That's 127 rides per second,
300
942720
3616
초당 127번 이죠.
15:46
showing that this is a cross-cultural phenomenon.
301
946360
2816
이건 전 문화에 걸친 현상이란걸 보여줍니다.
15:49
And the fascinating thing is that both drivers and passengers report
302
949200
4176
그리고 흥미로운 점은 운전자와 승객 모두
15:53
that seeing a name
303
953400
2496
상대방의 이름과 사진
15:55
and seeing someone's photo and their rating
304
955920
2976
그리고 그들의 평점을 보고나면
15:58
makes them feel safer,
305
958920
2256
더 안전하다고 느낀다는 겁니다.
16:01
and as you may have experienced,
306
961200
1576
그리고 아마 여러분이 경험했듯이
16:02
even behave a little more nicely in the taxi cab.
307
962800
3960
택시에서 좀 더 친절히 행동하게 된다고 합니다.
16:07
Uber and Didi are early but powerful examples
308
967360
3696
유버와 디디는 초기단계이지만
16:11
of how technology is creating trust between people
309
971080
3976
어떻게 기술이 이전에는 불가능했던 방식과 스케일로
16:15
in ways and on a scale never possible before.
310
975080
3280
사람들 사이에 신뢰를 형성하는지를 보여주는 강력한 예입니다.
16:19
Today, many of us are comfortable getting into cars driven by strangers.
311
979120
6056
오늘날, 많은 사람이 낯선 사람이 모는 차를 타는걸 편하게 생각하고
16:25
We meet up with someone we swiped right to be matched with.
312
985200
4296
사람들을 만나며 Swipe right (Tinder의 매칭툴)를 합니다.
16:29
We share our homes with people we do not know.
313
989520
3936
그리고 모르는 사람들과 집을 공유합니다.
16:33
This is just the beginning,
314
993480
2360
이건 시작일 뿐입니다.
16:36
because the real disruption happening
315
996440
2576
진짜 변혁을 일으키는 건
16:39
isn't technological.
316
999040
1936
기술이 아니라
16:41
It's the trust shift it creates,
317
1001000
2320
기술이 만드는 신뢰의 변화이기 때문입니다.
16:43
and for my part, I want to help people understand this new era of trust
318
1003880
5096
저는 사람들이 이 새로운 신뢰의 시대를 이해해서
16:49
so that we can get it right
319
1009000
1656
바르게 이용하고
16:50
and we can embrace the opportunities to redesign systems
320
1010680
3896
투명하고 수용적이며 책임있는 이 시스템의
16:54
that are more transparent, inclusive and accountable.
321
1014600
4096
기회를 받아들이도록 돕고 싶습니다.
16:58
Thank you very much.
322
1018720
1256
감사합니다.
17:00
(Applause)
323
1020000
2576
(박수)
17:02
Thank you.
324
1022600
1216
감사해요.
17:03
(Applause)
325
1023840
3708
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7