Damon Horowitz calls for a "moral operating system"

94,846 views ・ 2011-06-06

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jeong-Lan Kinser 검토: Jimin Lee
00:15
Power.
0
15260
2000
권력
00:17
That is the word that comes to mind.
1
17260
2000
그 말이 제 마음으로 들어서는군요.
00:19
We're the new technologists.
2
19260
2000
우리는 신세대 테크놀로지스트들입니다.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
우리에게는 많은 양의 데이터가 있어서, 우리에겐 많은 권력이 있지요.
00:24
How much power do we have?
4
24260
2000
얼마나 많은 권력을 우리가 가지고 있나요?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
영화의 한장면: "아포칼립스 나우"--굉장한 영화지요.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
우리는 우리의 영웅, 윌라드 대장을, 넝 강(Nung River) 의 입구로 가서 체포해야 해요.
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
그래서 그는 커츠 대령을 쫒을 수 있지요.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
우리가 이걸 하려는 방식은 그를 비행기로 태워다가 떨구어 놓는 겁니다.
00:36
So the scene:
9
36260
2000
그래서 그 장면은:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
하늘은 그를 운반해 들여오는 이 헬리콥터의 무리로 가득차 있죠.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
또 거기에는 이 요란한, 스릴있는 음악이 배경에 깔려있습니다,
00:43
this wild music.
12
43260
2000
이 야생적인 음악.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫덤 다 타 다 덤♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫덤 다 타 다 덤♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫다 타 다 다♫
00:52
That's a lot of power.
16
52260
2000
그것은 대단한 권력입니다.
00:54
That's the kind of power I feel in this room.
17
54260
2000
그건 제가 이 장소에서 느끼는 것과 같은 종류의 권력입니다.
00:56
That's the kind of power we have
18
56260
2000
그건 우리가 가지고 있는 종류의 권력입니다
00:58
because of all of the data that we have.
19
58260
2000
왜냐하면 우리가 가지고 있는 데이터의 전부이기 때문이지요.
01:00
Let's take an example.
20
60260
2000
예를 들어봅시다.
01:02
What can we do
21
62260
2000
우리가 뭘 할수 있을까요
01:04
with just one person's data?
22
64260
3000
한사람의 데이터를 가지구요?
01:07
What can we do
23
67260
2000
우리가 뭘 할 수 있을까요
01:09
with that guy's data?
24
69260
2000
저 남자의 데이터를 가지고 말이죠?
01:11
I can look at your financial records.
25
71260
2000
저는 여러분의 재정 기록상황을 볼 수 있습니다.
01:13
I can tell if you pay your bills on time.
26
73260
2000
저는 여러분이 제때에 요금을 지불하는지 말할 수 있습니다.
01:15
I know if you're good to give a loan to.
27
75260
2000
저는 여러분이 융자를 얻을만큼 신용이 있는지 알 수 있지요.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
저는 여러분의 의료 기록을 볼 수 있고, 여러분의 심장이 제대로 작동하는 지 볼 수 있지요--
01:20
see if you're good to offer insurance to.
29
80260
3000
여러분이 보험을 제공받을 만큼 신용이 있는 지 볼 수 있고.
01:23
I can look at your clicking patterns.
30
83260
2000
여러분이 클릭하는 패턴을 볼 수 있습니다.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
여러분이 제 웹사이트로 갔을 때, 저는 실제로 여러분이 뭘 할 것인지를 알고 있습니다,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
왜냐하면 저는 여러분이 전에 그 웹사이트를 방문한 것을 보았기 때문이지요.
01:30
And I'm sorry to tell you,
33
90260
2000
그리고 저는 여러분에게 말하는것을 죄송하게 생각합니다,
01:32
you're like a poker player, you have a tell.
34
92260
2000
여러분이 포커 플레이어같아서, 할말이 있다는 것을요.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
저는 그 데이터 분석으로 여러분이 무엇을 할 것인지를 압니다
01:36
before you even do it.
36
96260
2000
여러분이 그것을 시작하기도 전에 말이죠.
01:38
I know what you like. I know who you are,
37
98260
3000
저는 여러분이 좋아하는것을 압니다. 저는 여러분이 누구인지를 압니다.
01:41
and that's even before I look at your mail
38
101260
2000
그것은 심지어 제가 여러분의 메일이나
01:43
or your phone.
39
103260
2000
여러분의 전화를 보기도 이전입니다.
01:45
Those are the kinds of things we can do
40
105260
2000
그런것들이 우리가 할 수 있는 종류의 것들입니다
01:47
with the data that we have.
41
107260
3000
우리가 가진 데이터를 가지고 말이죠.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
하지만 저는 실제로 여기에서 우리가 할 수 있는것에 관해서 이야기하려고 온것이 아닙니다.
01:56
I'm here to talk about what we should do.
43
116260
3000
저는 우리가 해야만 하는 것들에 대해서 말하려고 왔어요.
02:00
What's the right thing to do?
44
120260
3000
무엇이 해야만 하는 정당한 것일까요?
02:04
Now I see some puzzled looks
45
124260
2000
자 몇몇의 혼란해하는 표정이 보이는군요.
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
"왜 당신이 우리에게 무엇이 해야만 하는 정당한 일인지를 묻는거야?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
우리는 이것을 만들고 있을 뿐이야. 다른 누군가가 그것을 이용하고 있어."
02:12
Fair enough.
48
132260
3000
충분히 정당하죠.
02:15
But it brings me back.
49
135260
2000
하지만 그것은 저를 다시 되돌려 옵니다.
02:17
I think about World War II --
50
137260
2000
저는 제 2차 세계대전에 대해 생각해 봅니다.
02:19
some of our great technologists then,
51
139260
2000
그당시 우리의 대단한 테그놀로지스트들 몇명과,
02:21
some of our great physicists,
52
141260
2000
우리의 대단한 물리학자들 몇명이,
02:23
studying nuclear fission and fusion --
53
143260
2000
핵 분열과 퓨전에 대해 공부하고 있었습니다--
02:25
just nuclear stuff.
54
145260
2000
단지 핵의 물건일 뿐이었습니다.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
우리는 로스 알라모스에서 이 물리학자들과 함께 모였습니다
02:30
to see what they'll build.
56
150260
3000
그들이 지을 것이 무엇인지를 보려구요.
02:33
We want the people building the technology
57
153260
3000
우리는 사람들이 그 테크놀로지를 건축하는것을 바랍니다
02:36
thinking about what we should be doing with the technology.
58
156260
3000
우리가 테크놀로지로 무엇을 해야만 할 것인지를 생각하면서 말이지요.
02:41
So what should we be doing with that guy's data?
59
161260
3000
자 저 남자의 데이터를 가지고 우리는 무엇을 해야만 할 까요?
02:44
Should we be collecting it, gathering it,
60
164260
3000
우리가 그걸 모으고, 집합시켜야 할까요,
02:47
so we can make his online experience better?
61
167260
2000
그래서 우리가 그의 온라인 경험을 더 낫게 하기 위해서?
02:49
So we can make money?
62
169260
2000
그래서 우리가 돈을 벌수 있도록?
02:51
So we can protect ourselves
63
171260
2000
그래서 우리가 우리 자신을 보호할 수 있도록
02:53
if he was up to no good?
64
173260
2000
만약 그가 신용이 없어질 때까지?
02:55
Or should we respect his privacy,
65
175260
3000
또는 우리가 그의 개인 정보를 존중해야 할까요,
02:58
protect his dignity and leave him alone?
66
178260
3000
그의 존엄을 보호하고 그를 혼자서 내버려 두어야 할까요?
03:02
Which one is it?
67
182260
3000
어떤것이어야 할까요?
03:05
How should we figure it out?
68
185260
2000
우리가 어떻게 알아내야 할까요?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
저는 압니다: 크라우드 소스. 이것을 크라우드 소스시킵시다.
03:11
So to get people warmed up,
70
191260
3000
그래서 사람들에게 준비를 시키기 위해서,
03:14
let's start with an easy question --
71
194260
2000
쉬운 질문으로 시작합시다--
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
제가 확신하기로 여기 있는 모든 사람들이 의견을 가지고 있는 무엇으로:
03:19
iPhone versus Android.
73
199260
2000
아이폰 대 안드로이드.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
손을 보여봅시다--아이폰
03:24
Uh huh.
75
204260
2000
좋아요.
03:26
Android.
76
206260
3000
안드로이드.
03:29
You'd think with a bunch of smart people
77
209260
2000
여러분이 영리한 많은 사람들이 생각하기를
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
"우리는 단지 예쁜 전화만을 원하는 바보는 안될거야." 라고 하시겠죠.
03:33
(Laughter)
79
213260
2000
(웃음)
03:35
Next question,
80
215260
2000
다음 질문,
03:37
a little bit harder.
81
217260
2000
약간 더 어려운것.
03:39
Should we be collecting all of that guy's data
82
219260
2000
우리가 그 남자의 데이터를 모두 수집해서
03:41
to make his experiences better
83
221260
2000
그의 경험의 질을 높이기 위해
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
또 그가 신용이 없어질 경우에 우리를 지킬 수 있도록 해야 할까요?
03:46
Or should we leave him alone?
85
226260
2000
또는 그를 혼자 내버려 두어야 할까요?
03:48
Collect his data.
86
228260
3000
그의 데이터를 수집해라.
03:53
Leave him alone.
87
233260
3000
그를 혼자 내버려 두어라.
03:56
You're safe. It's fine.
88
236260
2000
여러분은 안전합니다. 좋아요.
03:58
(Laughter)
89
238260
2000
(웃음)
04:00
Okay, last question --
90
240260
2000
좋아요, 마지막 질문--
04:02
harder question --
91
242260
2000
어려운 질문--
04:04
when trying to evaluate
92
244260
3000
우리가 이 사례에서 무엇을 해야만 할 지
04:07
what we should do in this case,
93
247260
3000
평가하려는 노력을 할때,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
우리는 칸트방식의 의미론전 도덕 체계를 이용해야 할까요
04:14
or should we use a Millian consequentialist one?
95
254260
3000
또는 우리가 밀방식의 결과론적인 것을 이용해야 할까요?
04:19
Kant.
96
259260
3000
칸트.
04:22
Mill.
97
262260
3000
밀.
04:25
Not as many votes.
98
265260
2000
투표가 많이 없군요.
04:27
(Laughter)
99
267260
3000
(웃음)
04:30
Yeah, that's a terrifying result.
100
270260
3000
맞아요, 그건 끔찍한 결과입니다.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
끔찍합니다, 왜냐하면 우리는 우리가 우리의 결정을 하는데 도움을 주는
04:38
about our hand-held devices
102
278260
2000
도덕적인 체계에 대한 것보다
04:40
than about the moral framework
103
280260
2000
우리의 소형기기 장치에 대해서
04:42
we should use to guide our decisions.
104
282260
2000
보다 강한 의견을 가지고 있기 때문이죠
04:44
How do we know what to do with all the power we have
105
284260
3000
만일 우리가 도덕적인 체계를 가지지 않았다면
04:47
if we don't have a moral framework?
106
287260
3000
우리가 가진 모든 권력을 가지고 무엇을 해야할지 어떻게 알겠습니까?
04:50
We know more about mobile operating systems,
107
290260
3000
우리는 모빌 운영 시스템에 관해 보다 더 많이 알고 있지만,
04:53
but what we really need is a moral operating system.
108
293260
3000
우리에게 정말 필요한 것은 도덕적인 운영 시스템입니다.
04:58
What's a moral operating system?
109
298260
2000
무엇이 도덕적인 운영 시스템일까요?
05:00
We all know right and wrong, right?
110
300260
2000
우리모두는 옳고 그름을 압니다, 맞지요?
05:02
You feel good when you do something right,
111
302260
2000
여러분이 뭔가 바른 일을 했을때 여러분은 기분이 좋음을 느낍니다,
05:04
you feel bad when you do something wrong.
112
304260
2000
여러분이 뭔가 나쁜 일을 했을때 여러분은 기분이 좋지 않음을 느낍니다.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
우리의 부모들이 그걸 가르쳤지요; 좋은것은 칭찬하고, 나쁜것은 꾸짖어라.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
하지만 어떤것이 옳고 그른지 어떻게 알 수 있을까요?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
하지만 매일 매일, 우리에게는 우리가 이용하는 기술을 갖고 있습니다.
05:15
Maybe we just follow our gut.
116
315260
3000
우리는 어쩌면 우리의 본능을 그저 따라갑니다.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
우리는 어쩌면 투표를 합니다--우리는 크라우드 소스를 합니다.
05:21
Or maybe we punt --
118
321260
2000
또는 어쩌면 우리는 펀트(손에서 떨어뜨린 공이 땅에 닿기 전에 차기)를 하겠죠--
05:23
ask the legal department, see what they say.
119
323260
3000
법률부서에 물어봐, 그들이 뭐라고 하는지 보자.
05:26
In other words, it's kind of random,
120
326260
2000
달리 말하면, 그건 무작위적이죠,
05:28
kind of ad hoc,
121
328260
2000
일종의 임시 응변적이죠,
05:30
how we figure out what we should do.
122
330260
3000
우리가 무엇을 해야할 지 알아내는것은요.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
그리고 어쩌면, 만약 우리가 보다 확실한 거점을 확보하고 싶다면,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
우리가 정말 원하는 것은 우리를 저 곳으로,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
우리에게 처음부터 어떤 것들이 옳고 그른것인지 알려주고
05:42
and how would we know in a given situation what to do.
126
342260
4000
우리가 주어진 상황에서 무엇을 할 지 우리가 어떻게 아는 장소로 데려갈 도덕적인 체계입니다.
05:46
So let's get a moral framework.
127
346260
2000
그러니 도덕적인 체계를 마련합시다.
05:48
We're numbers people, living by numbers.
128
348260
3000
우리는 숫자에 따라 사는 숫자의 사람들입니다.
05:51
How can we use numbers
129
351260
2000
도덕적인 체계를 위한 토대로서
05:53
as the basis for a moral framework?
130
353260
3000
우리가 어떻게 숫자를 이용할까요?
05:56
I know a guy who did exactly that.
131
356260
3000
저는 바로 그렇게 한 남자를 알고 있습니다.
05:59
A brilliant guy --
132
359260
3000
굉장히 영리한 남자죠--
06:02
he's been dead 2,500 years.
133
362260
3000
그는 2,500 년전에 죽었습니다.
06:05
Plato, that's right.
134
365260
2000
플라토, 맞아요.
06:07
Remember him -- old philosopher?
135
367260
2000
그를 기억하시나요--늙은 철학자를?
06:09
You were sleeping during that class.
136
369260
3000
여러분은 그 수업에 잠을 자고 있었죠.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
자 플라토, 그는 우리가 가진것과 같은 근심을 많이 가지고 있었습니다.
06:14
He was worried about right and wrong.
138
374260
2000
그는 옳고 그름에 관해 걱정을 했습니다.
06:16
He wanted to know what is just.
139
376260
2000
그는 무엇이 정의인지에 대해서 알고 싶어했지요.
06:18
But he was worried that all we seem to be doing
140
378260
2000
하지만 그는 우리 모두가 하고 있는것과 같은
06:20
is trading opinions about this.
141
380260
2000
이것에 관한 의견을 교환하는것에 대해 걱정했습니다.
06:22
He says something's just. She says something else is just.
142
382260
3000
"그는 무엇인가가 정의라고 말해. 그녀는 다른 어떤것이 정의라고 말해," 라고 하는 것을요.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
그가 말할때 그것은 신뢰할만 하고, 그녀가 말할때도 신뢰할만 하죠.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
저는 단지 왔다 갔다 할 뿐이죠; 어떤 곳에도 도달하지 않아요.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
저는 의견을 원하는 것이 아닙니다, 저는 지식을 원해요.
06:32
I want to know the truth about justice --
146
392260
3000
저는 정의에 관한 진리를 알고 싶어요--
06:35
like we have truths in math.
147
395260
3000
우리가 수학에서 진리를 가지고 있는것처럼.
06:38
In math, we know the objective facts.
148
398260
3000
수학에서, 우리는 객관적인 사실을 압니다.
06:41
Take a number, any number -- two.
149
401260
2000
숫자를 택하세요, 임의의 숫자--2.
06:43
Favorite number. I love that number.
150
403260
2000
가장 좋아하는 숫자. 저는 그 숫자를 사랑합니다.
06:45
There are truths about two.
151
405260
2000
2에 관한 진실이 있어요.
06:47
If you've got two of something,
152
407260
2000
여러분이 두개의 뭔가를 가졌다며,
06:49
you add two more, you get four.
153
409260
2000
두개를 더하면, 4를 얻게 됩니다.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
그건 여러분이 어떤것에 이야기 하는지 상관없이 사실입니다.
06:53
It's an objective truth about the form of two,
155
413260
2000
그건 2의 추상적인 형태에 관한
06:55
the abstract form.
156
415260
2000
객관적인 진실입니다,
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
여러분이 어떤것 2개를 가졌을때 --2개의 눈, 2개의 귀, 코에
06:59
just two protrusions --
158
419260
2000
단지 2개의 돌출부--
07:01
those all partake of the form of two.
159
421260
3000
그것들은 모두 2개 형태에 한몫으로 낍니다.
07:04
They all participate in the truths that two has.
160
424260
4000
그들은 모두 2가 가지는 진실에 가담합니다.
07:08
They all have two-ness in them.
161
428260
2000
그들에게는 모두 2 형태를 가지고 있어요.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
그러므로, 그것은 의견의 문제가 아닙니다.
07:13
What if, Plato thought,
163
433260
2000
만약 플라토가 생각하기를,
07:15
ethics was like math?
164
435260
2000
윤리가 수학과 같은거라고 생각했다면 어떨까요?
07:17
What if there were a pure form of justice?
165
437260
3000
만약 정의에 순수한 형태가 존재한다면요?
07:20
What if there are truths about justice,
166
440260
2000
만약 정의에 관한 진실이 있고,
07:22
and you could just look around in this world
167
442260
2000
여러분은 이 세상을 돌아보아
07:24
and see which things participated,
168
444260
2000
어떤것들이 참여되어서,
07:26
partook of that form of justice?
169
446260
3000
정의의 형태에 참가했다면은요?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
그러면 여러분은 무엇이 진실이고 무엇이 진실이 아니었는지 알 수 있을겁니다.
07:32
It wouldn't be a matter
171
452260
2000
단지 의견이나 단지 외양은
07:34
of just opinion or just appearances.
172
454260
3000
문제가 되지 않을것입니다.
07:37
That's a stunning vision.
173
457260
2000
그것은 굉장한 통찰력입니다.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
생각해 보세요. 얼마나 거대합니까. 얼마나 야심적인 것인가요.
07:42
That's as ambitious as we are.
175
462260
2000
그건 우리가 야심찬 정도와 같지요.
07:44
He wants to solve ethics.
176
464260
2000
우리는 윤리학을 풀고 싶어합니다.
07:46
He wants objective truths.
177
466260
2000
그는 객관적인 진실을 바랍니다.
07:48
If you think that way,
178
468260
3000
만일 여러분이 그런 방식으로 생각한다면,
07:51
you have a Platonist moral framework.
179
471260
3000
여러분은 플라톤식의 윤리체계를 가지고 있습니다.
07:54
If you don't think that way,
180
474260
2000
만일 여러분이 그런식으로 생각하지 않는다면,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
글쎄요, 여러분은 서부 철학의 역사에서 많은 동료를 공유합니다,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
왜냐하면 그 정돈된 생각은--아시죠, 사람들이 그걸 비판합니다.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
특히, 아리스토텔레스는 그것을 즐겨하지 않았지요.
08:04
He thought it was impractical.
184
484260
3000
그는 그게 비실용적이라고 생각했습니다.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
아리스토텔레스가 말하길, "우리는 각 주제에 그 주제가 허락하는
08:11
as that subject allows."
186
491260
2000
그 정도만의 정확성을 추구해야만 합니다."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
아리스토텔레스는 윤리가 수학과 같지 않다고 생각했어요.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
그는 윤리가 즉결을 요구하는 의사결정의,
08:19
using our best judgment
189
499260
2000
바른 행로를 찾기위해
08:21
to find the right path.
190
501260
2000
우리의 가장 훌륭한 판단을 이용하는 문제라고 생각했어요.
08:23
If you think that, Plato's not your guy.
191
503260
2000
만약 여러분이 그렇게 생각했다면, 플라톤은 여러분의 사람이 아닙니다.
08:25
But don't give up.
192
505260
2000
하지만 포기하지는 마세요.
08:27
Maybe there's another way
193
507260
2000
어쩌면 다른 방법이 있을수도 있습니다.
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
우리의 윤리 체계의 기반으로서 숫자를 이용하는 것입니다.
08:33
How about this:
195
513260
2000
이건 어떨까요:
08:35
What if in any situation you could just calculate,
196
515260
3000
만약 여러분이 단지 계산할 수 있는 임의의 상황이 있다면,
08:38
look at the choices,
197
518260
2000
그 선택사항들을 보세요,
08:40
measure out which one's better and know what to do?
198
520260
3000
어떤것이 더 나은지 또 무엇을 해야할 지 아는지를 측정하세요?
08:43
That sound familiar?
199
523260
2000
그게 친숙하게 들리나요?
08:45
That's a utilitarian moral framework.
200
525260
3000
그것은 공리주의 도덕 체계입니다.£
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
존 스튜어트 밀이
08:50
nice guy besides --
202
530260
2000
좋은 사람이었던고
08:52
and only been dead 200 years.
203
532260
2000
200년 전에 타계했던것 이외에도 이 공리주의의 굉장한 주창자였지요.
08:54
So basis of utilitarianism --
204
534260
2000
그래서 공리주의의 기반은--
08:56
I'm sure you're familiar at least.
205
536260
2000
적어도 여러분이 친숙할 거라고 확신합니다.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
이전에 밀을 위해 투표했던 세사람은 이 실용주의에 대해 친숙합니다.
09:00
But here's the way it works.
207
540260
2000
하지만 여기 그게 운영되는 방식이 있습니다.
09:02
What if morals, what if what makes something moral
208
542260
3000
만약 윤리가, 만약 뭔가 도덕적인것을 만드는 무엇인가가
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
쾌락을 극대화하고 고통을 극소화시키는 것에 대한
09:07
and minimizes pain?
210
547260
2000
문제라면 어떨까요?
09:09
It does something intrinsic to the act.
211
549260
3000
그건 그 행위에 본능적인 뭔가를 합니다.
09:12
It's not like its relation to some abstract form.
212
552260
2000
그건 추상적인 형태로의 관계와 같은 게 아닙니다.
09:14
It's just a matter of the consequences.
213
554260
2000
그건 단지 결과의 문제입니다.
09:16
You just look at the consequences
214
556260
2000
여러분은 단지 결과를 보고
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
만약, 그게 선을 위한것인지 또는 악을 위한것인지를 전체적으로 보지요.
09:20
That would be simple. Then we know what to do.
216
560260
2000
그건 간단한 것일 겁니다. 그러면 우리는 무엇을 할 지 알지요.
09:22
Let's take an example.
217
562260
2000
예를 들어봅시다.
09:24
Suppose I go up
218
564260
2000
제가 올라가서 말하기를
09:26
and I say, "I'm going to take your phone."
219
566260
2000
"나는 너의 전화를 압수하겠어," 라고 했다고 가정해 봅시다.
09:28
Not just because it rang earlier,
220
568260
2000
그게 전에 울렸기 때문이 아니라,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
내가 작은 계산을 했기 때문에 그것을 가질거라고.
09:33
I thought, that guy looks suspicious.
222
573260
3000
저는, 저 남자가 수상하게 보인다고 생각했습니다.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
만일 그가 작은 메세지를 빈 라든의 은거장소로
09:39
or whoever took over after Bin Laden --
224
579260
2000
또는 빈 라든의 이후 세력을 물려받은 그 누구에게라도 보내왔고
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
그는 실제로 테러리스트와 같은, 슬리퍼 핸드폰같다구요.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
저는 그것을 알아낼거고, 제가 그것을 알아냈을때는,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
그가 유발할 수도 있는 거대한 양의 손상을 방지할것입니다.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
그 손상을 방지하는 것은 굉장히 높은 실용성이 있습니다.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
그리고 그것은 그것이 유발할 작은 고통으로 비교됩니다.
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
왜냐하면 제가 그의 전화기를 보면서
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
그 전화기를 바라보며 압도적으로 전체가
10:00
that's overwhelmed
232
600260
3000
팜빌 (Farmville) 문제가 있다는 것을 보는것은
10:03
by the value of looking at the phone.
233
603260
2000
창피하게 느껴질 것이기 때문입니다.
10:05
If you feel that way,
234
605260
2000
만일 여러분이 그런식으로 느낀다면,
10:07
that's a utilitarian choice.
235
607260
3000
그것은 실용주의자적인 선택입니다.
10:10
But maybe you don't feel that way either.
236
610260
3000
하지만 여러분은 그런 방식으로 느끼지 않을지도 모릅니다.
10:13
Maybe you think, it's his phone.
237
613260
2000
어쩌면은 여러분은, "그건 그의 전화야" 라고 생각할 지도 모릅니다.
10:15
It's wrong to take his phone
238
615260
2000
"그의 전화를 압수하는 것은 옳지않아,
10:17
because he's a person
239
617260
2000
왜냐하면 그는 사람이고
10:19
and he has rights and he has dignity,
240
619260
2000
그에게는 권리가 있고 존엄성이 있고,
10:21
and we can't just interfere with that.
241
621260
2000
우리는 그것을 그냥 그렇게 방해할 수는 없어.
10:23
He has autonomy.
242
623260
2000
그는 자율성을 가졌어.
10:25
It doesn't matter what the calculations are.
243
625260
2000
계산이 어떤것인지는 문제가 되지않아.
10:27
There are things that are intrinsically wrong --
244
627260
3000
본능적으로 그른것들이 있습니다--
10:30
like lying is wrong,
245
630260
2000
거짓말이 그른것과 같이요.
10:32
like torturing innocent children is wrong.
246
632260
3000
순진한 어린이들을 괴롭히는것이 그른것과 같이요.
10:35
Kant was very good on this point,
247
635260
3000
칸트는 이 요점에 관해 아주 탁월했고,
10:38
and he said it a little better than I'll say it.
248
638260
2000
그는 제가 말할 것보다 조금 더 잘 말했죠.
10:40
He said we should use our reason
249
640260
2000
그가 말하길 우리는 우리의 이성을 이용하여
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
우리의 행실을 안내해야만하는 규칙들을 알아내야만 한다고 말했습니다.
10:45
and then it is our duty to follow those rules.
251
645260
3000
그리고 그 규칙들을 따르는 것은 우리의 의무라고요.
10:48
It's not a matter of calculation.
252
648260
3000
그것은 계산의 문제가 아닙니다.
10:51
So let's stop.
253
651260
2000
그러니 멈추도록 합시다.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
우리는 그것의 밀집의 중심에 있습니다, 이것은 철학적인 착잡함이죠.
10:56
And this goes on for thousands of years,
255
656260
3000
이것은 수천년동안 지속됩니다,
10:59
because these are hard questions,
256
659260
2000
왜냐하면 이것들은 어려운 질문들이기 때문이고
11:01
and I've only got 15 minutes.
257
661260
2000
저는 단지 15분만을 가지고 있습니다.
11:03
So let's cut to the chase.
258
663260
2000
그러니 단도 직입적으로 말합시다.
11:05
How should we be making our decisions?
259
665260
4000
우리가 어떻게 우리의 의사결정을 해야만 할까요?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
플라토인가요, 아리스토텔레스인가요, 칸트인가요, 밀인가요?
11:12
What should we be doing? What's the answer?
261
672260
2000
우리가 무엇을 해야만 할까요? 무엇이 대답인가요?
11:14
What's the formula that we can use in any situation
262
674260
3000
우리가 그 남자의 데이타를 이용해야만 할 지 아닌지
11:17
to determine what we should do,
263
677260
2000
우리가 어떤 상황에나 이용할 수 있는
11:19
whether we should use that guy's data or not?
264
679260
2000
우리가 무엇을 해야만 할 지를 결정하는 공식은 무엇일까요?
11:21
What's the formula?
265
681260
3000
그 공식은 무엇일까요?
11:25
There's not a formula.
266
685260
2000
공식은 없습니다.
11:29
There's not a simple answer.
267
689260
2000
단순한 대답이 있는것은 아닙니다.
11:31
Ethics is hard.
268
691260
3000
윤리학은 어렵습니다.
11:34
Ethics requires thinking.
269
694260
3000
윤리학은 생각을 요구합니다.
11:38
And that's uncomfortable.
270
698260
2000
그리고 그것은 편안하지 않지요.
11:40
I know; I spent a lot of my career
271
700260
2000
알아요; 저는 제 직업의 많은 부분을
11:42
in artificial intelligence,
272
702260
2000
인공지능에 소비했습니다,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
우리릉 위해 이러한 생각을 조금할 수 있는,
11:47
that could give us answers.
274
707260
2000
우리에게 대답을 줄 수 있는 기계를 설립하려고 시도하면서 말이죠.
11:49
But they can't.
275
709260
2000
그러나 기계들은 할 수 없습니다.
11:51
You can't just take human thinking
276
711260
2000
단지 인간의 생각을 택해서
11:53
and put it into a machine.
277
713260
2000
기계에 집어넣을 수는 없어요.
11:55
We're the ones who have to do it.
278
715260
3000
그것을 해야만 하는 사람은 우리입니다.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
행복하게도, 우리는 기계가 아니어서 우리는 그것을 할 수 있지요.
12:01
Not only can we think,
280
721260
2000
우리는 생각할 수 있을 뿐만이 아니라,
12:03
we must.
281
723260
2000
우리는 생각해야만 합니다.
12:05
Hannah Arendt said,
282
725260
2000
하나 아렌드트가 말하길,
12:07
"The sad truth
283
727260
2000
"슬픈 진실은
12:09
is that most evil done in this world
284
729260
2000
이 세상에 치루어진 악의 대부분은
12:11
is not done by people
285
731260
2000
악인이 되기로 선택한 사람들에
12:13
who choose to be evil.
286
733260
2000
의해서 그렇게 된것이 아니다.
12:15
It arises from not thinking."
287
735260
3000
악은 생각을 안하는 것으로부터 제기된다."
12:18
That's what she called the "banality of evil."
288
738260
4000
그것이 그녀가 "악의 진부," 라고 부르는 것입니다.
12:22
And the response to that
289
742260
2000
그리고 그에 대한 반응은
12:24
is that we demand the exercise of thinking
290
744260
2000
우리가 모든 정신을 제대로 가진 사람에게서
12:26
from every sane person.
291
746260
3000
생각의 연습을 요구하는 것입니다.
12:29
So let's do that. Let's think.
292
749260
2000
그러니 그렇게 하도록 합시다. 생각하도록 합시다.
12:31
In fact, let's start right now.
293
751260
3000
사실, 지금 그것을 바로 시작합시다.
12:34
Every person in this room do this:
294
754260
3000
이 장소에 있는 모든사람이 이렇게 하세요:
12:37
think of the last time you had a decision to make
295
757260
3000
여러분이 맨 마직막으로 의사결정을 했어야 할때를 생각하세요
12:40
where you were worried to do the right thing,
296
760260
2000
바른일을 하는것에 대해 걱정했던것
12:42
where you wondered, "What should I be doing?"
297
762260
2000
"내가 뭘해야만 하나?" 라고 의심쩍어 하던것
12:44
Bring that to mind,
298
764260
2000
그걸 마음속으로 데려오세요.
12:46
and now reflect on that
299
766260
2000
이제 그걸 회상해서
12:48
and say, "How did I come up that decision?
300
768260
3000
말하길, "어떻게 내가 그 결정에 도달했지?
12:51
What did I do? Did I follow my gut?
301
771260
3000
내가 뭘 했지? 내가 본능을 따랐나?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
그걸 가지고 사람들이 투표를 하게 했나? 또는 내가 법률 전문가에게 펀트를 했나?"
12:56
Or now we have a few more choices.
303
776260
3000
또는 이제 우리는 몇가지 더 많은 선택사항들이 있습니다.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"밀이 할것과 같이 가장 최상의 쾌락상태가
13:01
like Mill would?
305
781260
2000
되도록 평가했나?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
또는 칸트와 같이, 이성을 이용하여 본능적으로 무엇이 옳은지 알아내도록 했나?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
그것에 대해 생각해 보세요. 그것을 정말로 마음속으로 들여오세요. 이것은 중요합니다.
13:09
It is so important
308
789260
2000
그것은 아주 중요합니다
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
우리는 귀중한 TEDTalk 시간의 30초를
13:13
doing nothing but thinking about this.
310
793260
2000
이것에 관해서만 생각해 보는데 소비할 것입니다.
13:15
Are you ready? Go.
311
795260
2000
준비 되셨나요? 하세요.
13:33
Stop. Good work.
312
813260
3000
멈추세요. 좋은 작업입니다.
13:36
What you just did,
313
816260
2000
여러분이 방금하신것은,
13:38
that's the first step towards taking responsibility
314
818260
2000
우리가 가진 권력의 전부를 가지고 우리가 무엇을 해야할
13:40
for what we should do with all of our power.
315
820260
3000
책임감을 취하는 방향으로 가는 첫번째의 단계입니다
13:45
Now the next step -- try this.
316
825260
3000
자 이제 다음 단계--이걸 시도해 보세요.
13:49
Go find a friend and explain to them
317
829260
2000
친구하나를 찾아서 설명하세요
13:51
how you made that decision.
318
831260
2000
여러분이 그 결정을 어떻게 내렸는지 말이죠.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
지금말구요. 제가 이야기를 끝낼때까지 기다리세요.
13:55
Do it over lunch.
320
835260
2000
점심시간동안 그것을 하세요.
13:57
And don't just find another technologist friend;
321
837260
3000
또 다른 테크놀로지스트 친구를 찾지 마시고;
14:00
find somebody different than you.
322
840260
2000
여러분과 다른 어떤 다른 사람을 찾으세요.
14:02
Find an artist or a writer --
323
842260
2000
예술가나 작가를 찾으세요--
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
또는 천국이 금지한, 철학자를 찾아서 그에게 이야기 하세요.
14:07
In fact, find somebody from the humanities.
325
847260
2000
사실, 인문학에서의 사람을 찾으세요.
14:09
Why? Because they think about problems
326
849260
2000
왜냐구요? 왜냐하면 그들은 문제들에 관해서
14:11
differently than we do as technologists.
327
851260
2000
우리 테크놀로지스트들이 생각하는 것과는 다르게 생각하기 때문이죠.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
단지 몇일전에, 여기서 바로 맞은편 거리에,
14:16
there was hundreds of people gathered together.
329
856260
2000
수백명의 사람들이 모여있었습니다.
14:18
It was technologists and humanists
330
858260
2000
테크놀로지스트들과 인문학자들이
14:20
at that big BiblioTech Conference.
331
860260
2000
거대한 비블리오 테크 컨퍼런스에서 있었지요.
14:22
And they gathered together
332
862260
2000
그들이 함께 모였습니다
14:24
because the technologists wanted to learn
333
864260
2000
왜냐하면 그들은 인문학자적인 관점에서
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
생각하는것은 어떤지를 배우고 싶어서였기 때문입니다.
14:29
You have someone from Google
335
869260
2000
구글회사에서 일하는 어떤사람이
14:31
talking to someone who does comparative literature.
336
871260
2000
비교 문학을 하는 누군가에게 이야기를 합니다.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
17세기의 불란서 연극과의 관련성에 대해 이야기 합니다.
14:36
how does that bear upon venture capital?
338
876260
2000
그것이 어떻게 벤처 캐피털에 이익을 산출할까요?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
글쎄 그게 재미있는것입니다. 그것은 다른 방식의 생각입니다.
14:41
And when you think in that way,
340
881260
2000
여러분이 그런 방식으로 생각할 때,
14:43
you become more sensitive to the human considerations,
341
883260
3000
여러분은 인간 고려점들에 대해 보다 민감하게 되지요.
14:46
which are crucial to making ethical decisions.
342
886260
3000
그건 윤리적인 의사결정을 하는데 필수적인 것입니다.
14:49
So imagine that right now
343
889260
2000
그러니 바로 여기서 상상해 보세요.
14:51
you went and you found your musician friend.
344
891260
2000
여러분이 가서 음악가 친구를 찾았습니다.
14:53
And you're telling him what we're talking about,
345
893260
3000
우리가 여기서 이야기 하는것에 대해서 그에게 이야기 합니다.
14:56
about our whole data revolution and all this --
346
896260
2000
우리의 전체적인 데이터 혁명과 이러한 모든것에 관해서--
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
어쩌면 우리 테마 음악의 몇소절을 허밍할 수 도 있죠.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ 덤 타 다 다 덤 덤 타 다 다 덤 ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
글쎄요, 여러분의 음악가 친구는 여러분에게 멈추어서 말하길,
15:05
"You know, the theme music
350
905260
2000
"있잖아, 그 테마 음악은
15:07
for your data revolution,
351
907260
2000
너의 데이터의 혁명을 위한 거야
15:09
that's an opera, that's Wagner.
352
909260
2000
저건 오페라야, 저건 바그너야
15:11
It's based on Norse legend.
353
911260
2000
그건 고대 스칸디나비아의 전설에 근거한 거야.
15:13
It's Gods and mythical creatures
354
913260
2000
그건 신들과 신화적인 생명체들이
15:15
fighting over magical jewelry."
355
915260
3000
마력의 보석을 놓고 싸우는것에 관한거야."
15:19
That's interesting.
356
919260
3000
그건 흥미롭습니다.
15:22
Now it's also a beautiful opera,
357
922260
3000
자 그것은 또한 아름다운 오페라입니다.
15:25
and we're moved by that opera.
358
925260
3000
또 우리는 그 오페라에 의해서 감동을 받죠.
15:28
We're moved because it's about the battle
359
928260
2000
우리는 감동을 받습니다 왜냐하면 그것은
15:30
between good and evil,
360
930260
2000
선과 악사이의 전쟁,
15:32
about right and wrong.
361
932260
2000
옳고 그름에 관한 것이기 때문입니다.
15:34
And we care about right and wrong.
362
934260
2000
우리는 옳고 그름에 대해 우려합니다.
15:36
We care what happens in that opera.
363
936260
3000
우리는 그 오페라에서 무슨 일이 일어나는지 우려합니다.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
우리는 "아포칼립소 나우"에서 무슨일이 일어나는지 염려합니다.
15:42
And we certainly care
365
942260
2000
또 우리는 확실히 염려합니다.
15:44
what happens with our technologies.
366
944260
2000
우리의 테크놀로지에 무슨일이 일어나느지를.
15:46
We have so much power today,
367
946260
2000
우리는 오늘날 대단히 많은 권력을 가지고 있습니다,
15:48
it is up to us to figure out what to do,
368
948260
3000
그것을 가지고 무엇을 할지 그것은 우리에게 달려있습니다.
15:51
and that's the good news.
369
951260
2000
그것은 좋은 뉴스입니다.
15:53
We're the ones writing this opera.
370
953260
3000
우리가 이 오페라를 쓰는 사람들입니다.
15:56
This is our movie.
371
956260
2000
이것은 우리의 영화입니다.
15:58
We figure out what will happen with this technology.
372
958260
3000
우리는 이 테크놀로지에 무슨일이 일어날지 알아냅니다.
16:01
We determine how this will all end.
373
961260
3000
이것이 어떻게 종결이 될지는 우리가 결정합니다.
16:04
Thank you.
374
964260
2000
감사합니다.
16:06
(Applause)
375
966260
5000
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7