Nick Bostrom: Humanity's biggest problems aren't what you think they are

111,744 views ・ 2007-05-16

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sun A Cho 검토: InHyuk Song
00:25
I want to talk today about --
0
25000
3000
오늘 제가 이야하 하고 싶은 것은.. 그러니까..
00:28
I've been asked to take the long view, and I'm going to tell you what
1
28000
6000
저는 항상 장기적 견지의 의견을 표명해 왔지요, 그리고 오늘 애기하고 싶은 것은
00:34
I think are the three biggest problems for humanity
2
34000
4000
인류의 세가지 가장 큰 문제가 무언인가에 대한 것입니다.
00:38
from this long point of view.
3
38000
3000
이렇게 아주 장기적인 견지에서요.
00:41
Some of these have already been touched upon by other speakers,
4
41000
3000
이들 문제들중 몇 가지는 다른 사람들에 이미 다루었지요.
00:44
which is encouraging.
5
44000
2000
굉장히 고무적입니다.
00:46
It seems that there's not just one person
6
46000
2000
오직 한 사람만이
00:48
who thinks that these problems are important.
7
48000
2000
이들 문제가 중요하다고 생각하는 것은 아닌 것 같습니다.
00:50
The first is -- death is a big problem.
8
50000
4000
첫 째는 - 죽음이 큰 문제중 하나입니다.
00:54
If you look at the statistics,
9
54000
3000
통계를 살펴보면,
00:57
the odds are not very favorable to us.
10
57000
2000
현실은 우리에게 호의적이지 않지요.
00:59
So far, most people who have lived have also died.
11
59000
4000
현재까지, 세상에 태어났던 모든 사람들이 이미 죽었습니다.
01:03
Roughly 90 percent of everybody who has been alive has died by now.
12
63000
4000
세상에서 생존했던 모든 사람들의 약 90%가 이미 죽었습니다.
01:07
So the annual death rate adds up to 150,000 --
13
67000
6000
그래서 연 사망률은 십오만명에 이릅니다.
01:13
sorry, the daily death rate -- 150,000 people per day,
14
73000
3000
죄송합니다. 일사망률이네요, 매일 십오만명의 사람들이 사망합니다.
01:16
which is a huge number by any standard.
15
76000
3000
어떤 기준으로 봐도 대단히 큰 숫자 입니다.
01:19
The annual death rate, then, becomes 56 million.
16
79000
5000
그리고 연간 사망률은 5천 6백만명입니다.
01:24
If we just look at the single, biggest cause of death -- aging --
17
84000
5000
사망의 가장 크고 유일한 원인은 - 노화- 입니다.
01:30
it accounts for roughly two-thirds of all human people who die.
18
90000
5000
지금까지 사망한 사람들의 2/3가 노화 때문에 사망한 것으로 집계 되고 있습니다..
01:35
That adds up to an annual death toll
19
95000
3000
연간 사망률은
01:38
of greater than the population of Canada.
20
98000
2000
캐나다 인구수 보다 더 많습니다.
01:40
Sometimes, we don't see a problem
21
100000
2000
우리는 이것을 문제라고 생각하지 않지요,
01:42
because either it's too familiar or it's too big.
22
102000
4000
왜냐하면, 이것은 너무도 익숙한 사실이거나 혹은 너무 큰 문제기 때문이겠지요.
01:46
Can't see it because it's too big.
23
106000
2000
너무 크기 때문에 인지 할 수 없습니다.
01:48
I think death might be both too familiar and too big
24
108000
3000
저는 사망이 너무 익숙하고 또한 너무 큰 문제이기 때문에
01:51
for most people to see it as a problem.
25
111000
3000
많은 사람들이 문제라고 인식하지 못한 다고 생각합니다.
01:54
Once you think about it, you see this is not statistical points;
26
114000
2000
좀 더 깊게 생각해 보면, 이것이 통계적인 문제가 아니라는 것을 알수 있을 것입니다.
01:56
these are -- let's see, how far have I talked?
27
116000
2000
이것들은 - 자 제가 어디까지 이야기 했는지 볼까요?
01:58
I've talked for three minutes.
28
118000
3000
지금까지 저는 약 3분 가량 이야기 했습니다.
02:01
So that would be, roughly, 324 people have died since I've begun speaking.
29
121000
7000
제가 이야기를 시작한 이 후 대략 324명이 사망 했습니다.
02:08
People like -- it's roughly the population in this room has just died.
30
128000
4000
대략적으로 이 곳에 모인 사람들의 숫자만큼 사망한 것입니다.
02:13
Now, the human cost of that is obvious,
31
133000
2000
자, 그 만큼은 인적 손실이 명확한 것 입니다.
02:15
once you start to think about it -- the suffering, the loss --
32
135000
3000
이 문제에 대하여 좀 더 깊게 생각하기 시작하면, 그러니까, 고통, 상실을 말이지요,
02:18
it's also, economically, enormously wasteful.
33
138000
3000
이것은 또한 경제적으로 어마어마한 손해 입니다.
02:21
I just look at the information, and knowledge, and experience
34
141000
3000
(이 사람들이 가지고 있던) 정보, 지식, 경험을 생각해 보세요,
02:24
that is lost due to natural causes of death in general,
35
144000
3000
이 손실은 자연적인 사망 원인 때문입니다.
02:27
and aging, in particular.
36
147000
2000
좀 더 구체적으로 이야기 하면, 노화 때문입니다.
02:29
Suppose we approximated one person with one book?
37
149000
3000
자 한 사람의 인생을 대략 책 한 권에 담았다고 생각해 봅시다.
02:32
Now, of course, this is an underestimation.
38
152000
2000
물론 이 수치는 과소 평가된 것입니다.
02:34
A person's lifetime of learning and experience
39
154000
6000
한 사람이 일생 동안 배우고 경험한 것은
02:40
is a lot more than you could put into a single book.
40
160000
2000
한 권의 책에 담기에는 너무 많습니다.
02:42
But let's suppose we did this.
41
162000
2000
그렇지만 책 한 권에 담았다고 생각해 봅시다.
02:45
52 million people die of natural causes each year
42
165000
5000
5천 2백만명이 매년 자연적인 이유로 사망합니다.
02:50
corresponds, then, to 52 million volumes destroyed.
43
170000
4000
대입하면, 5천 2백만권의 책이 폐기된 것이지요.
02:54
Library of Congress holds 18 million volumes.
44
174000
3000
국회도서관에서는 1천 8백만권의 책을 소장하고 있습니다.
02:58
We are upset about the burning of the Library of Alexandria.
45
178000
3000
우리는 알렉산드리아 도서관의 화재에 몹시 속상해 합니다.
03:01
It's one of the great cultural tragedies
46
181000
2000
이것은 문화적으로 크나큰 비극이고,
03:03
that we remember, even today.
47
183000
3000
오늘날까지 기억하고 있지요.
03:07
But this is the equivalent of three Libraries of Congress --
48
187000
2000
그렇지만, 이 문제는 국회도서관 3개와 같은 수의 책이
03:09
burnt down, forever lost -- each year.
49
189000
3000
매년 영원히 불타 소멸하는 양과 같습니다.
03:12
So that's the first big problem.
50
192000
2000
이것이 첫번째로 가장 큰 문제 입니다.
03:14
And I wish Godspeed to Aubrey de Grey,
51
194000
3000
그리고 어버리 디 그레이에게 행운이 함께하여 성공하길 바라고,
03:17
and other people like him,
52
197000
2000
그리고 같은 일을 하는 다른 사람들이
03:19
to try to do something about this as soon as possible.
53
199000
3000
이문제에 대한 해답을 가능한 빠르게 얻을 수 있도록 행운을 빕니다.
03:23
Existential risk -- the second big problem.
54
203000
3000
실존적 위험 - 이 것이 두번째 문제 입니다.
03:26
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
206000
7000
실존적 위험은 인류의 생존 혹은 우리 종족의 장기적 잠재력에 위협적인 문제 입니다.
03:33
Now, why do I say that this is a big problem?
56
213000
2000
자, 이것이 왜 큰 문제가 될 까요?
03:35
Well, let's first look at the probability --
57
215000
4000
먼저 확률을 살펴 봅시다
03:39
and this is very, very difficult to estimate --
58
219000
3000
이것은 가늠하기 아주 어려운 문제지요
03:42
but there have been only four studies on this in recent years,
59
222000
3000
그렇지만 최근 몇 년간 단지 4개의 연구가 진행되었으며,
03:45
which is surprising.
60
225000
2000
놀라운 것입니다
03:47
You would think that it would be of some interest
61
227000
3000
이것은 흥미있는 일이라고 생각할 수 있겠지요,
03:50
to try to find out more about this given that the stakes are so big,
62
230000
4000
주어진 문제의 크기가 크다는 것을 생각한다면, 앞으로 탐구할 여지가 많다는 점에서요,
03:54
but it's a very neglected area.
63
234000
2000
그렇지만, 현재는 무시되고 있는 영역 입니다.
03:56
But there have been four studies --
64
236000
2000
그렇지만 4편의 연구가 있었고,
03:58
one by John Lesley, wrote a book on this.
65
238000
2000
그 중 하나는 존 레슬리씨가 이것에 대한 책을 집필 했지요.
04:00
He estimated a probability that we will fail
66
240000
2000
그는 인류가 현재의 세기에
04:02
to survive the current century: 50 percent.
67
242000
3000
생존에 실패할 확률이 50%라고 예측 했습니다.
04:05
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
245000
5000
비슷하게, 어제 강연했던 천문학자 로얄씨 또한
04:10
also has a 50 percent probability estimate.
69
250000
3000
확률을 50%로 측정 했습니다.
04:13
Another author doesn't give any numerical estimate,
70
253000
3000
다른 저자는 수치적 예측을 하지 않았지만,
04:16
but says the probability is significant that it will fail.
71
256000
3000
일류 생존 실패율이 상당히 높다고 말했습니다.
04:19
I wrote a long paper on this.
72
259000
3000
저는 이에 대한 조금 긴 논문을 썼습니다.
04:22
I said assigning a less than 20 percent probability would be a mistake
73
262000
4000
발생할 확률을 20%보다 더 낮게 책정하는 것은 잘못된 일입니다
04:26
in light of the current evidence we have.
74
266000
3000
현재까지의 증거들을 고려해 보면 말이지요
04:29
Now, the exact figures here,
75
269000
2000
자, 여기 정확한 수치가 있는데,
04:31
we should take with a big grain of salt,
76
271000
2000
이 수치는 의심의 여지가 있습니다만,
04:33
but there seems to be a consensus that the risk is substantial.
77
273000
3000
위험이 상당할 것이라는 것에 일반적으로 동의 하는 듯 합니다.
04:36
Everybody who has looked at this and studied it agrees.
78
276000
3000
누구라도 이것을 좀더 생각해보고 연구한 사람이라면 모두 동의할 것입니다.
04:39
Now, if we think about what just reducing
79
279000
2000
자, 만일 인류 파멸 가능성의 확률을
04:41
the probability of human extinction by just one percentage point --
80
281000
5000
1%퍼센트 포인트 정도로 줄인다고 생각해 보면,
04:46
not very much -- so that's equivalent to 60 million lives saved,
81
286000
5000
많은 것도 아니지요 - 그런데 이로인행 약 6천만명의 생명을 구할 수 있는 것과 같습니다.
04:51
if we just count the currently living people, the current generation.
82
291000
4000
만일 현존하고 있는 사람들의 수를 세어보면, 현존 세대의 인구입니다.
04:55
Now one percent of six billion people is equivalent to 60 million.
83
295000
4000
60억명의 1%는 6천만명과 같고,
04:59
So that's a large number.
84
299000
2000
그래서 아주 큰 숫자 입니다
05:01
If we were to take into account future generations
85
301000
3000
미래세대까지 고려해 본다면,
05:04
that will never come into existence if we blow ourselves up,
86
304000
5000
이대로 우리자신을 날려버린다면, 인류는 절대로 생존하지 못할 것입니다
05:09
then the figure becomes astronomical.
87
309000
3000
그렇게 된다면, 천문학적인 수치가 될 것입니다.
05:12
If we could eventually colonize a chunk of the universe --
88
312000
3000
만일 인류가, 결국 우주의 한 부분-
05:15
the Virgo supercluster --
89
315000
2000
처녀자리 초은하단 같은- 을 잠식하는데,
05:17
maybe it will take us 100 million years to get there,
90
317000
2000
아마도 10억만년은 걸리 겠지요
05:19
but if we go extinct we never will.
91
319000
3000
그러나 인류가 소멸한다면 결코 할 수 없을 겁니다.
05:22
Then, even a one percentage point reduction
92
322000
3000
인류 소멸의 위험을 1% 포인트의
05:25
in the extinction risk could be equivalent
93
325000
4000
감소시키는 것은
05:29
to this astronomical number -- 10 to the power of 32.
94
329000
3000
10의 32제곱한 것과 같은 천문학적인 숫자와 같습니다.
05:32
So if you take into account future generations as much as our own,
95
332000
4000
여러분이 우리의 후세대를 현재의 세대 만큼 고려한다면,
05:36
every other moral imperative of philanthropic cost just becomes irrelevant.
96
336000
5000
다른 모든 박애주의적 비용의 도덕적 의무는 무관한 것이 됩니다.
05:41
The only thing you should focus on
97
341000
2000
여러분들이 관심을 두어야 할 하나는
05:43
would be to reduce existential risk
98
343000
2000
인류멸망의 위험을 줄이는 것일 겝니다.
05:45
because even the tiniest decrease in existential risk
99
345000
4000
왜냐하면 인류소멸의 위험을 아주 조금 줄이는 것은
05:49
would just overwhelm any other benefit you could hope to achieve.
100
349000
4000
여러분이 성취하고자하는 다른 이익을 훨씬 능가할 수도 있습니다.
05:53
And even if you just look at the current people,
101
353000
2000
단지 현세대 사람들을 생각해본다면,
05:55
and ignore the potential that would be lost if we went extinct,
102
355000
5000
우리가 소멸할때 발생할 잠재성은 일단 무시하더라도,
06:00
it should still have a high priority.
103
360000
2000
여전히 높은 가치를 가지고 있습니다.
06:02
Now, let me spend the rest of my time on the third big problem,
104
362000
5000
자, 이제 제게 주어진 나머지 시간을 세번째로 큰 문제를 설명하는데 쓰고자 합니다
06:07
because it's more subtle and perhaps difficult to grasp.
105
367000
5000
왜냐하면, 이 문제는 미묘하고 감지하기 어렵기 때문이지요
06:13
Think about some time in your life --
106
373000
4000
여러분의 인생의 한 때를 생각해 보세요
06:17
some people might never have experienced it -- but some people,
107
377000
3000
어떤사람은 절대 경험하지 못했을것이고 어떤 사람은 경험했을
06:20
there are just those moments that you have experienced
108
380000
3000
여러분이 경험했던
06:23
where life was fantastic.
109
383000
2000
환상적이었던 그런 인생의 순간들이 있습니다
06:25
It might have been at the moment of some great, creative inspiration
110
385000
7000
이것은 아마도 여러분이 이 흐름 단계에 막 진입했을 때
06:32
you might have had when you just entered this flow stage.
111
392000
2000
경험했던 대단하고 창의적인 영감일 수 있습니다
06:34
Or when you understood something you had never done before.
112
394000
2000
혹은 여러분이 미지의 것을 이해했을때,
06:36
Or perhaps in the ecstasy of romantic love.
113
396000
4000
혹은 로맨틱한 사랑의 황홀경에 빠졌을때,
06:40
Or an aesthetic experience -- a sunset or a great piece of art.
114
400000
5000
혹은 예술적인 경험들 - 석양 혹은 훌륭한 예술작품을 경험할 때,
06:45
Every once in a while we have these moments,
115
405000
2000
우리는 종종 이런 순간들을 경험하지요
06:47
and we realize just how good life can be when it's at its best.
116
407000
4000
우리는 인생이 얼마나 즐거운지 깨닫게 됩니다
06:51
And you wonder, why can't it be like that all the time?
117
411000
5000
그리고 왜 언제나 이렇게 좋을 수만은 없을까 생각하지요.
06:56
You just want to cling onto this.
118
416000
2000
여러분은 그저 이것을 꼭 붙잡길 원합니다
06:58
And then, of course, it drifts back into ordinary life and the memory fades.
119
418000
4000
그리고 물론 이것은 일상적인 생활로 되돌아 가고, 기억은 흐릿해지지요
07:02
And it's really difficult to recall, in a normal frame of mind,
120
422000
4000
그리고 일반적인 마음의 구조로는
07:06
just how good life can be at its best.
121
426000
3000
인생이 얼이나 이 순간만큼 좋을수 있는가를 되돌이켜 생각해 보는 것은 아주 어렵습니다
07:09
Or how bad it can be at its worst.
122
429000
3000
혹은 인생이 얼마나 이 순간만큼 비참할 수 있는지를요
07:12
The third big problem is that life isn't usually
123
432000
3000
세번째 큰 문제는 인생은 언제나
07:15
as wonderful as it could be.
124
435000
2000
이 보다 더 훌륭할 수 없다는 것입니다
07:17
I think that's a big, big problem.
125
437000
4000
저는 이것이 가장 가장 큰 문제라고 생각합니다
07:21
It's easy to say what we don't want.
126
441000
2000
우리가 원하지 않는 것을 말하는 것은 쉬운 일입니다
07:24
Here are a number of things that we don't want --
127
444000
3000
여기 우리가 원하지 않는 몇 가지 사례가 있습니다
07:27
illness, involuntary death, unnecessary suffering, cruelty,
128
447000
3000
질병, 갑작스런 사망, 불필요한 고통, 비참함
07:30
stunted growth, memory loss, ignorance, absence of creativity.
129
450000
5000
왜소 성장, 기억 상실, 무식, 창의성의 부재
07:36
Suppose we fixed these things -- we did something about all of these.
130
456000
3000
우리가 이러한 것들을 고쳤다고 생각해 봅시다 - 어떤 조치를 취한 것이지요
07:39
We were very successful.
131
459000
2000
아주 성공적이었습니다
07:41
We got rid of all of these things.
132
461000
2000
우리는 이 모든 문제들을 해결 했어요
07:43
We might end up with something like this,
133
463000
3000
우리는 분명 이것과 비슷한 어떤 결론에 도달할 겁니다
07:46
which is -- I mean, it's a heck of a lot better than that.
134
466000
4000
뭐냐하면, 이 것 보다는 훨씬 좋다는 것입니다.
07:50
But is this really the best we can dream of?
135
470000
5000
그렇지만 이것이 정말 좋은 것일 까요? 우리가 희망한다면?
07:55
Is this the best we can do?
136
475000
2000
우리가 할 수 있는 최선일까요?
07:57
Or is it possible to find something a little bit more inspiring to work towards?
137
477000
6000
아니면, 아주 조금 진보할 수 있도록 영감을 주는 원동력을 찾을 수 있을 까요?
08:03
And if we think about this,
138
483000
2000
이것에 관하여 생각해 볼때,
08:05
I think it's very clear that there are ways
139
485000
4000
저는 분명 어떤 방법이 있다고 생각 합니다.
08:09
in which we could change things, not just by eliminating negatives,
140
489000
3000
단순히 부정적인 것을 제거하여 변화를 꾀하는 것 뿐만이 아니라
08:12
but adding positives.
141
492000
2000
긍정적인 것을 더하는 것이지요
08:14
On my wish list, at least, would be:
142
494000
2000
최소한 제 위시 리스트에 열거 되어 있는 것들은
08:16
much longer, healthier lives, greater subjective well-being,
143
496000
5000
장수, 건강, 월등한 주관적 복지
08:21
enhanced cognitive capacities, more knowledge and understanding,
144
501000
5000
확장된 인지 능력, 좀 더 풍부한 지식과 이해력
08:26
unlimited opportunity for personal growth
145
506000
2000
개인의 성장을 위한 무제한의 기회
08:28
beyond our current biological limits, better relationships,
146
508000
4000
현재 우리의 생물학적 한계를 뛰어넘는, 좀 더 원만한 관계
08:32
an unbounded potential for spiritual, moral
147
512000
2000
종교적, 도덕적
08:34
and intellectual development.
148
514000
2000
그리고 지식 개발을 위한 무한의 잠재력 입니다
08:36
If we want to achieve this, what, in the world, would have to change?
149
516000
8000
우리가 이런 것들을 성취 하려면, 세계는 변화 해야 할까요?
08:44
And this is the answer -- we would have to change.
150
524000
5000
이게 바로 그 답인데 - 우리가 변화 해야 합니다
08:49
Not just the world around us, but we, ourselves.
151
529000
3000
우리를 둘러싼 환경이 아니라, 우리 자신이 변화 해야 합니다
08:52
Not just the way we think about the world, but the way we are -- our very biology.
152
532000
4000
우리의 세계를 인식하는 방식 뿐만만이 이나라, 생물학적으로 변화 해야 합니다
08:56
Human nature would have to change.
153
536000
2000
인류는 변화해야 합니다
08:58
Now, when we think about changing human nature,
154
538000
2000
자, 우리가 인류의 변화를 생각할 때,
09:00
the first thing that comes to mind
155
540000
2000
가장 먼저 생각나는 것은
09:02
are these human modification technologies --
156
542000
4000
이런 인류 변화 기술들 입니다
09:06
growth hormone therapy, cosmetic surgery,
157
546000
2000
성장 호르몬 치료법, 성형수술
09:08
stimulants like Ritalin, Adderall, anti-depressants,
158
548000
3000
리탈린, 아드레날리, 항우울제들과 같은 촉진제
09:11
anabolic steroids, artificial hearts.
159
551000
2000
아나볼릭 스테로이드, 인공 심장도 있죠
09:13
It's a pretty pathetic list.
160
553000
3000
이런 것들은 참으로 서글픈 것들입니다
09:16
They do great things for a few people
161
556000
2000
이들 기술들은
09:18
who suffer from some specific condition,
162
558000
2000
특정 질병을 앓고 있는 이들에게 훌륭한 기여를 하고 있습니다
09:20
but for most people, they don't really transform
163
560000
5000
그렇지만 대다수의 사람들은
09:25
what it is to be human.
164
565000
2000
인간의 원형을 바꾸는 것은 아니지요
09:27
And they also all seem a little bit --
165
567000
2000
그리고 이러한 것들은 약간 -
09:29
most people have this instinct that, well, sure,
166
569000
3000
대다수의 사람들이 이런 본능을 가지고 있어요, 분명,..
09:32
there needs to be anti-depressants for the really depressed people.
167
572000
2000
아주 우울할 사람들에게는 항우울제가 필요하다구요...
09:34
But there's a kind of queasiness
168
574000
2000
그렇지만 어떤 불쾌한 것들이 있지요
09:36
that these are unnatural in some way.
169
576000
3000
이러한 것들이 어떤 면에서는 부자연스럽다는 사실 입니다
09:39
It's worth recalling that there are a lot of other
170
579000
2000
우리가 사용하는 다른유형의
09:41
modification technologies and enhancement technologies that we use.
171
581000
3000
변형 기술과 기능 강화 기술이 있다는 사실을 상기할 필요가 있습니다.
09:44
We have skin enhancements, clothing.
172
584000
4000
의류는 피부의 기능을 강화한 것입니다
09:48
As far as I can see, all of you are users of this
173
588000
4000
제 생각에는 여기 모이신 모든 분들이
09:52
enhancement technology in this room, so that's a great thing.
174
592000
5000
옷이라는 기능강화 기술을 이용하고 계실 겁니다. 훌륭하죠.
09:57
Mood modifiers have been used from time immemorial --
175
597000
3000
우리는 기억할 수 없을 만큼의 기분 전환제를 이용하고 있읍니다
10:00
caffeine, alcohol, nicotine, immune system enhancement,
176
600000
5000
카페인, 알콜, 니코틴, 면역체계 강화제
10:05
vision enhancement, anesthetics --
177
605000
2000
시력 보정제, 마취제
10:07
we take that very much for granted,
178
607000
2000
우리는 이것을 너무 당연히 생각하고 있지만,
10:09
but just think about how great progress that is --
179
609000
4000
이것이 얼마나 대단한 진보 인지 생각해 보면,
10:13
like, having an operation before anesthetics was not fun.
180
613000
4000
마취제가 없었던 때에 수술을 한다는건 그다지 좋은 일만은 아니었지요.
10:17
Contraceptives, cosmetics and brain reprogramming techniques --
181
617000
6000
피임약, 화장품, 그리고 두뇌재활 기술
10:23
that sounds ominous,
182
623000
2000
불길하게 들리지요..
10:25
but the distinction between what is a technology --
183
625000
4000
그렇지만, 기술간의 차이를 규명한다면,
10:29
a gadget would be the archetype --
184
629000
2000
기술의 전형은 도구 입니다
10:31
and other ways of changing and rewriting human nature is quite subtle.
185
631000
4000
인류를 변화시키고, 다시 쓰는 다른 유형의 방식들은 참으로 미묘한 것입니다
10:35
So if you think about what it means to learn arithmetic or to learn to read,
186
635000
4000
그래서 여러분이 수학연산을 배우고, 읽기를 배우는것이 무엇을 의미하는지 생각해 보면,
10:39
you're actually, literally rewriting your own brain.
187
639000
3000
실제로 여러분은 글자 그대로 자신의 두뇌를 다시 쓰고 있는 것입니다
10:42
You're changing the microstructure of your brain as you go along.
188
642000
3000
여러분은 두뇌의 미세구조를 변화시키고 있는 것입니다.
10:46
So in a broad sense, we don't need to think about technology
189
646000
3000
그래서 넓은 의미에서는 기술에 대한 생각을 할 필요가 있습니다
10:49
as only little gadgets, like these things here,
190
649000
2000
여기 있는 것과 같은 간단한 도구들과 마찬가지로요
10:51
but even institutions and techniques,
191
651000
4000
심지어 제도와 기술
10:55
psychological methods and so forth.
192
655000
2000
심리적 기법 등도 마찬가지 입니다
10:57
Forms of organization can have a profound impact on human nature.
193
657000
5000
조직의 구조는 인류에 상당한 영향을 미칠 수 있습니다
11:02
Looking ahead, there is a range of technologies
194
662000
2000
앞을 내다보면, 상당한 범위의 기술이 존재 합니다
11:04
that are almost certain to be developed sooner or later.
195
664000
3000
개발될 것이 확실한 것들 입니다
11:07
We are very ignorant about what the time scale for these things are,
196
667000
4000
우리는 이것들이 언제 실현될 것인지에 상당히 무지 합니다
11:11
but they all are consistent with everything we know
197
671000
2000
그렇지만, 우리가 알고있는 모든것들
11:13
about physical laws, laws of chemistry, etc.
198
673000
4000
즉, 물리 법칙, 화학법칙 등과 모두 일치 합니다.
11:17
It's possible to assume,
199
677000
2000
이렇게 가정하는것이 가능하지요,
11:19
setting aside a possibility of catastrophe,
200
679000
3000
재앙의 가능성을 제외하고,
11:22
that sooner or later we will develop all of these.
201
682000
3000
우리는 이런 모든 것들을 언젠가 개발할 것입니다.
11:25
And even just a couple of these would be enough
202
685000
3000
이것들 중 한두개로 충분히
11:28
to transform the human condition.
203
688000
2000
인류를 변화 시킬 수 있습니다
11:30
So let's look at some of the dimensions of human nature
204
690000
5000
자, 개발의 여지가 있는 인류의 범위를
11:35
that seem to leave room for improvement.
205
695000
3000
생각해 봅니다
11:38
Health span is a big and urgent thing,
206
698000
2000
건강의 범위는 크고 시급한 것입니다
11:40
because if you're not alive,
207
700000
2000
여러분이 생존해 있지 않다면,
11:42
then all the other things will be to little avail.
208
702000
3000
다른 모든 것들이 가능하지 않기 때문이지요
11:45
Intellectual capacity -- let's take that box,
209
705000
2000
지적 능력 범위 - 이 표를 보면,
11:47
which falls into a lot of different sub-categories:
210
707000
5000
무수히 많은 하위 범주로 구분이 되고 여기에는
11:52
memory, concentration, mental energy, intelligence, empathy.
211
712000
3000
기억력, 집중, 심리적 힘, 지적 능력, 동정심 등이 있습니다
11:55
These are really great things.
212
715000
2000
이것들은 대단히 훌륭한 것들 입니다.
11:57
Part of the reason why we value these traits
213
717000
2000
이러한 특성에 가치를 두는 이유 중 하나는
11:59
is that they make us better at competing with other people --
214
719000
4000
이러한 특성들이 우리가 다른사람들과 경쟁할 때 힘을 주기 때문이죠
12:03
they're positional goods.
215
723000
2000
이들은 위치와 관련된 재화들 입니다
12:05
But part of the reason --
216
725000
2000
그렇지만 다른 이유는
12:07
and that's the reason why we have ethical ground for pursuing these --
217
727000
4000
우리가 이것들을 추구하는데 도덕적 기반이 있어야 하는 이유인데,
12:11
is that they're also intrinsically valuable.
218
731000
3000
이것들 또한 본질적으로 가치가 있기 때문이지요.
12:14
It's just better to be able to understand more of the world around you
219
734000
4000
자신을 둘러싼 세상과
12:18
and the people that you are communicating with,
220
738000
2000
소통하는 사람들
12:20
and to remember what you have learned.
221
740000
4000
그리고 기억을 좀더 잘 이해할 수 있는 것은 좋은 것입니다
12:24
Modalities and special faculties.
222
744000
2000
인체의 감각적 양상과 특별한 능력
12:26
Now, the human mind is not a single unitary information processor,
223
746000
5000
자, 인간의 마음은 단일의 유일한 정보 전달장치가 아니지만,
12:31
but it has a lot of different, special, evolved modules
224
751000
4000
상당히 많은, 특별하고 다르게 진화된 모듈이며,
12:35
that do specific things for us.
225
755000
2000
특정 역할을 합니다.
12:37
If you think about what we normally take as giving life a lot of its meaning --
226
757000
4000
그리고 우리가 알반적으로 생명에 큰 의미를 두고 있는것을 생각해보면,
12:41
music, humor, eroticism, spirituality, aesthetics,
227
761000
4000
음악, 유머, 에로티시즘, 심령, 심미
12:45
nurturing and caring, gossip, chatting with people --
228
765000
5000
보육, 가십, 다른사람과의 수다
12:50
all of these, very likely, are enabled by a special circuitry
229
770000
4000
이런 모든 것들은 특별한 전기 회로망으로 강화된 것으로,
12:54
that we humans have,
230
774000
2000
우리 인간은 가지고 있지만,
12:56
but that you could have another intelligent life form that lacks these.
231
776000
3000
이것이 부족한 다른 형태의 지식 문명을 가질 수 있습니다
12:59
We're just lucky that we have the requisite neural machinery
232
779000
3000
음악을 전달하고, 그 진가를 알아보고, 즐길 수 있도록
13:02
to process music and to appreciate it and enjoy it.
233
782000
4000
필요한 두뇌 기능을 가지고 있다는 것은 참으로 행운 입니다
13:06
All of these would enable, in principle -- be amenable to enhancement.
234
786000
3000
이러한 모든 것을은 기본적으로 기능강화에 우호적인 것들 일 수 있습니다
13:09
Some people have a better musical ability
235
789000
2000
어떤 사람들은 음악적 재능이 뛰어나고,
13:11
and ability to appreciate music than others have.
236
791000
2000
다른 사람들에 비하여 음악의 가치를 판단하는 능력이 뛰어 납니다
13:13
It's also interesting to think about what other things are --
237
793000
3000
다른 것이 무엇인지에 관하여 생각하는것 또한 흥미 있는 것으로,
13:16
so if these all enabled great values,
238
796000
3000
이 모든 것들이 훌륭한 가치를 증대 한다면,
13:20
why should we think that evolution has happened to provide us
239
800000
3000
진화를 통하여 우리가 얻은 것은
13:23
with all the modalities we would need to engage
240
803000
3000
우리가 반드시 따라야만 하는 양식과 더불어,
13:26
with other values that there might be?
241
806000
2000
그 안에 담긴 다른 가치들에 대하여 생각해야 할까요?
13:28
Imagine a species
242
808000
2000
한 종을 생각해 봅시다.
13:30
that just didn't have this neural machinery for processing music.
243
810000
4000
음악을 전달하는 신경 기구가 없는 한 생명체요
13:34
And they would just stare at us with bafflement
244
814000
3000
그리고 이들이 화가 나서 우리를 노려보고 있습니다
13:37
when we spend time listening to a beautiful performance,
245
817000
4000
우리가 아름다운 연주를 감상하는데 시간을 보내고 있을 때 말입니다
13:41
like the one we just heard -- because of people making stupid movements,
246
821000
2000
우리가 방금 들었던 것과 같은 것을요- 사람들은 바보같은 행동을 하기 때문이죠.
13:43
and they would be really irritated and wouldn't see what we were up to.
247
823000
3000
그리고 이들은 정말로 신경이 거슬려 있고, 우리가 무엇을 하고 있는지 알지 못하죠
13:46
But maybe they have another faculty, something else
248
826000
3000
그러나 어쩌면 이들에게는 뭔가 다른 능력이 있을 수 있습니다
13:49
that would seem equally irrational to us,
249
829000
3000
우리에게는 비정상적일 수 있지요
13:52
but they actually tap into some great possible value there.
250
832000
3000
그렇지만 실제로 어떤 굉장한 가치를 부여하겠지요
13:55
But we are just literally deaf to that kind of value.
251
835000
4000
우리는 그러나 이들 가치에 관하여 무지 합니다
13:59
So we could think of adding on different,
252
839000
2000
따라서 좀 색다른
14:01
new sensory capacities and mental faculties.
253
841000
4000
새로운 지각 능력과 지적 능력을 추가하는것을 생각해 볼 수 있습니다
14:05
Bodily functionality and morphology and affective self-control.
254
845000
5000
신체적 기능과 형태론, 그리고 정서적인 자기 관리가 있습니다
14:10
Greater subjective well-being.
255
850000
2000
주관적인 행복
14:12
Be able to switch between relaxation and activity --
256
852000
3000
휴식과 활동 사이를 이동할 수 있는 능력
14:15
being able to go slow when you need to do that, and to speed up.
257
855000
4000
원하는 때에 속도를 조절할 수 있는 능력
14:19
Able to switch back and forth more easily
258
859000
2000
앞뒤로의 이동을 좀더 쉽게 할 수 있는 능력,
14:21
would be a neat thing to be able to do --
259
861000
2000
이렇게 할 수 있게 된다면, 굉장한 능력이 될 겁니다
14:23
easier to achieve the flow state,
260
863000
2000
유동상태를 달성하기 쉽죠
14:25
when you're totally immersed in something you are doing.
261
865000
4000
당신이 하고 있는 어떤 것에 완전히 몰두 하였을때,
14:29
Conscientiousness and sympathy.
262
869000
2000
양심과 동정
14:31
The ability to -- it's another interesting application
263
871000
3000
이것도 재미있는 적용사례인데요,
14:34
that would have large social ramification, perhaps.
264
874000
3000
이것도 거대한 사회적 결과를 초래할 수 있습니다
14:37
If you could actually choose to preserve your romantic attachments to one person,
265
877000
6000
만일 여러분이 어떤 사람과의 로맨틱한 감정을 간직하길 원한다면,
14:43
undiminished through time,
266
883000
2000
시간에 의하여 희미해 지지 않는 그런 로맨틱한 감정 말이지요
14:45
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
885000
3000
여러분이 원하지 않는 한 사랑은 절대로 희미해지지 않을 것입니다
14:50
That's probably not all that difficult.
268
890000
3000
이런건 그다지 어렵지 않습니다
14:53
It might just be a simple hormone or something that could do this.
269
893000
3000
단순한 호르몬 같은 것이 이런 역할을 할겁니다
14:58
It's been done in voles.
270
898000
2000
이것은 야생 들쥐를 대상으로 실험되어 왔습니다.
15:02
You can engineer a prairie vole to become monogamous
271
902000
3000
원래 다웅혼주인 들쥐를 ,
15:05
when it's naturally polygamous.
272
905000
2000
일자일웅으로 만들수 있는데
15:07
It's just a single gene.
273
907000
2000
단지 하나의 유전자를 수정해서 할수 있습니다
15:09
Might be more complicated in humans, but perhaps not that much.
274
909000
2000
인간의 경우 대단히 복잡한 문제이겠지요, 그러나 그다지 복잡하지 않을 수도 있습니다.
15:11
This is the last picture that I want to --
275
911000
2000
이 마지막 그림은 제가-
15:14
now we've got to use the laser pointer.
276
914000
2000
자 이제 레이저 포인터를 사용하는 군요...
15:17
A possible mode of being here would be a way of life --
277
917000
3000
가능한 존재 방식은, 생활방식,
15:20
a way of being, experiencing, thinking, seeing,
278
920000
4000
존재, 경험, 사고, 관찰
15:24
interacting with the world.
279
924000
2000
세상과의 소통입니다
15:26
Down here in this little corner, here, we have the little sub-space
280
926000
5000
이 아래쪽 이 작은 구석에 우리는 아주 작은 하부 공간을 가지고 있습니다
15:31
of this larger space that is accessible to human beings --
281
931000
4000
생물학적 능력범위 내의 인간이 접근가능한
15:35
beings with our biological capacities.
282
935000
3000
이렇게 거대한 공간 중에서 말이지요.
15:38
It's a part of the space that's accessible to animals;
283
938000
3000
이부분은 동물들도 접근 가능한 공간 인데,
15:41
since we are animals, we are a subset of that.
284
941000
3000
인류도 동물에 속하기 때문이죠
15:44
And then you can imagine some enhancements of human capacities.
285
944000
4000
그리고 인류의 능력을 확장하는 것을 생각해 볼수 있습니다
15:48
There would be different modes of being you could experience
286
948000
3000
여러분이 경험할 수 있는 다른 형태의 존재가 있습니다
15:51
if you were able to stay alive for, say, 200 years.
287
951000
3000
만일 200년후 까지 생존해 있을 수 있다면요
15:54
Then you could live sorts of lives and accumulate wisdoms
288
954000
4000
다양한 종류의 삶을 계속 영위할 수 있고, 지혜를 축적할 수 있습니다
15:58
that are just not possible for humans as we currently are.
289
958000
3000
이런 것을은 현재 인류에게는 가능한 것은 아니지요
16:01
So then, you move off to this larger sphere of "human +,"
290
961000
4000
그리고, 여러분이 이러한 종류의 대규모의 인류 영역으로 이동할 수 있고,
16:05
and you could continue that process and eventually
291
965000
3000
이러한 과정을 지속할 수 있으며,
16:08
explore a lot of this larger space of possible modes of being.
292
968000
4000
마침내, 대규모의 가능한 형태를 경험할 수 있습니다
16:12
Now, why is that a good thing to do?
293
972000
2000
자, 왜 이것이 이익이 되는 것일 까요?
16:14
Well, we know already that in this little human circle there,
294
974000
4000
우리는 이미 이 작은 인류 순환에 대하여 알고 있고,
16:18
there are these enormously wonderful and worthwhile modes of being --
295
978000
4000
이이 이렇게 어마어마하게 아름답고 가치있는 형태의 실존이 있으며,
16:22
human life at its best is wonderful.
296
982000
3000
인류는 이때 가장 아름다울 수 있기 때문이죠
16:25
We have no reason to believe that within this much, much larger space
297
985000
5000
우리는 휠씬 방대한 규모의 영역내에
16:30
there would not also be extremely worthwhile modes of being,
298
990000
4000
특별히 가치있는 형태의 존재가 있을 수 없다는 것을 믿을 이유는 없습니다
16:34
perhaps ones that would be way beyond our wildest ability
299
994000
6000
아마도 이것을 우리의 능력 밖의 것이며,
16:40
even to imagine or dream about.
300
1000000
2000
상상하기 조차 힘든 것일 지도 모릅니다
16:42
And so, to fix this third problem,
301
1002000
2000
또한 세번째 문제를 해결하기 위하여
16:44
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
1004000
6000
우리는 천천히, 조심스럽게, 그리고 도적적 지혜와 규제로
16:50
develop the means that enable us to go out in this larger space and explore it
303
1010000
5000
이 대규모 공간으로 전진하고 탐험할 수 있도록 해주는 방법을 개발해야 할 필요가 있다고 생각합니다
16:55
and find the great values that might hide there.
304
1015000
2000
그리고 이곳에 숨겨져 있는 대단한 가치를 찾아야 합니다.
16:57
Thanks.
305
1017000
2000
감사합니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7