Elon Musk: A future worth getting excited about | Tesla Texas Gigafactory interview | TED
9,805,272 views ・ 2022-04-18
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Chris Anderson: Elon Musk,
great to see you.
0
288
2085
번역: 수미 정
검토: Hyeryung Kim
크리스 앤더슨: 일론 머스크 씨,
반갑습니다. 잘 지내시죠?
00:02
How are you?
1
2373
1210
일론 머스크: 네, 반갑습니다.
00:03
Elon Musk: Good. How are you?
2
3583
1418
CA: 이곳은 개장을 하루 앞둔
텍사스 기가팩토리인데요.
00:05
CA: We're here at the Texas Gigafactory
the day before this thing opens.
3
5001
4212
00:09
It's been pretty crazy out there.
4
9255
1752
몹시 분주하더군요.
00:11
Thank you so much
for making time on a busy day.
5
11049
3294
이처럼 바쁜 날에 시간을 내줘서
진심으로 고맙습니다.
00:14
I would love you to help us,
kind of, cast our minds,
6
14343
3713
머스크 씨의 도움을 받아
한번 상상해 봤으면 합니다.
00:18
I don't know, 10, 20,
30 years into the future.
7
18097
3462
10년, 20년, 30년 후의
미래를 말이에요.
00:22
And help us try to picture
what it would take
8
22852
3462
기대할 만한 미래를 맞기위해
인류의 어떤 노력이 필요할지
00:26
to build a future that's worth
getting excited about.
9
26314
3086
머스크씨의 의견을
들어보고자 합니다.
00:29
The last time you spoke at TED,
10
29442
1710
최근 TED 강연에서 머스크 씨는
00:31
you said that that was really
just a big driver.
11
31152
2794
미래에 대한 기대 자체가
동기 부여된다고 하셨어요.
00:33
You know, you can talk about lots of other
reasons to do the work you're doing,
12
33988
3754
물론 그 외에도 당신의 활동에는
여러 다른 이유가 있겠지만
00:37
but fundamentally, you want
to think about the future
13
37742
4087
근본적으로 머스크 씨는
미래에 대해 고민하고
00:41
and not think that it sucks.
14
41871
1376
낙관적으로 생각하려 하죠.
00:43
EM: Yeah, absolutely.
15
43873
1168
EM: 네, 물론이에요.
00:45
I think in general, you know,
16
45083
1501
제 생각에는...
00:46
there's a lot of discussion of like,
this problem or that problem.
17
46626
4337
여러 문제를 두고 많은 논의가 오가고
00:51
And a lot of people are sad
about the future
18
51005
3378
많은 사람들이 미래에 대해
암울하게 생각해요.
00:54
and they're ...
19
54425
1543
그리고...
00:58
Pessimistic.
20
58262
1168
비관적이죠.
00:59
And I think ...
21
59472
2586
제 생각에는...
01:02
this is ...
22
62100
1376
그러한 태도는
01:05
This is not great.
23
65061
1168
좋지 않다고 봅니다.
01:06
I mean, we really want
to wake up in the morning
24
66270
2628
우리가 원하는 건 아침에 눈을 뜨면서
01:08
and look forward to the future.
25
68940
1960
미래를 기대하는 거죠.
01:10
We want to be excited
about what's going to happen.
26
70942
3545
어떤 멋진 일이 일어날지
기대감을 갖길 원합니다.
01:15
And life cannot simply be about sort of,
27
75446
4880
인생이라는 게 단순하게
01:20
solving one miserable
problem after another.
28
80368
2210
골치 아픈 문제를 연달아
해결 할 수 있는 건 아니니까요.
01:22
CA: So if you look forward 30 years,
you know, the year 2050
29
82578
3712
CA: 30년 후의 미래, 그러니까
2050년쯤의 세상을 말할 때
01:26
has been labeled by scientists
30
86332
3253
과학자들은 그 무렵에
01:29
as this, kind of, almost like this
doomsday deadline on climate.
31
89627
4254
기후가 완전히 붕괴될 것이라는
전망을 내놓습니다.
01:33
There's a consensus of scientists,
a large consensus of scientists,
32
93923
3420
정말 많은 과학자들이
같은 얘기를 하고 있죠.
01:37
who believe that if we haven't
completely eliminated greenhouse gases
33
97385
5297
만약 2050년까지
온실 가스를 완전히 없애거나
01:42
or offset them completely by 2050,
34
102723
3546
상쇄시키지 않으면,
01:46
effectively we're inviting
climate catastrophe.
35
106310
2962
사실상 인류는 기후 재앙을
맞이할 것이라면서요.
01:49
Do you believe there is a pathway
to avoid that catastrophe?
36
109272
4212
그러한 재앙을 막을
방법이 있다고 보십니까?
01:53
And what would it look like?
37
113526
1585
있다면 어떤 게 있을까요?
01:56
EM: Yeah, so I am not one
of the doomsday people,
38
116904
3879
EM: 사실 전 그런 대재앙이
닥쳐올 것이라고는 생각하지 않습니다.
02:00
which may surprise you.
39
120783
1627
의외로 들리실 수도 있겠지만요.
02:02
I actually think we're on a good path.
40
122952
2502
인류는 옳은 길을
가고 있다고 생각해요.
02:07
But at the same time,
41
127123
1251
하지만 그와 동시에
02:08
I want to caution against complacency.
42
128416
3587
현 상황에 안주해선
안 된다고 생각합니다.
02:12
So, so long as we are not complacent,
43
132003
2669
현실에 안주하지 않고
02:14
as long as we have a high sense of urgency
44
134714
2711
현 상황에 문제 의식을 가지고
02:17
about moving towards
a sustainable energy economy,
45
137425
4045
지속 가능한 에너지 경제를
구축하기 위해 계속 노력한다면
02:21
then I think things will be fine.
46
141512
1710
그런 대재앙은 오지 않을 겁니다.
02:25
So I can't emphasize that enough,
47
145433
1960
그러니까 제가 가장
강조하고 싶은 것은
02:27
as long as we push hard
and are not complacent,
48
147435
5255
현실에 안주하지 않고 계속
나아가야만 한다는 것이죠.
그렇게 하면 멋진 미래가 올 테니까요.
02:34
the future is going to be great.
49
154066
1585
02:35
Don't worry about it.
50
155651
1126
너무 걱정하실 것 없습니다.
02:36
I mean, worry about it,
51
156777
1168
물론, 걱정을 해야겠지만
02:37
but if you worry about it, ironically,
it will be a self-unfulfilling prophecy.
52
157987
4338
지나치면,역설적으로, 자기 실현이
불가능한 예언이 될 수 있어요.
02:42
So, like, there are three elements
to a sustainable energy future.
53
162867
4087
지속 가능한 에너지 사용을
실천하려면 세 가지 요소가 필요합니다.
02:47
One is of sustainable energy generation,
which is primarily wind and solar.
54
167371
4463
먼저 지속 가능한 에너지 발전입니다.
풍력과 태양열 에너지가 대표적이죠.
02:51
There's also hydro, geothermal,
55
171876
3920
수력, 지열 에너지도 있고요.
02:55
I'm actually pro-nuclear.
56
175838
2169
전 원자력에 찬성하는 쪽입니다.
02:58
I think nuclear is fine.
57
178049
2127
안전하다고 생각해요.
03:04
But it's going to be primarily
solar and wind,
58
184263
2962
하지만 태양열과
풍력 에너지가 주를 이룰 겁니다.
03:07
as the primary generators of energy.
59
187266
4338
이 둘이 주로
에너지를 생산할 거예요.
03:11
The second part is you need batteries
to store the solar and wind energy
60
191604
3837
두 번째로, 이 태양열과 풍력 에너지를
저장할 배터리가 필요합니다.
03:15
because the sun
doesn't shine all the time,
61
195483
2252
해는 저녁이 되면 져버리고,
03:17
the wind doesn't blow all the time.
62
197777
1710
바람이 항상 부는 건 아니니까요.
03:19
So it's a lot of stationary battery packs.
63
199487
2711
에너지를 잘 보관해 둘
고정식 배터리 팩이 필요합니다.
03:23
And then you need electric transport.
64
203032
2044
마지막으로, 전기로 움직이는
운송 수단도 있어야 합니다.
03:25
So electric cars, electric planes, boats.
65
205117
2753
전기차, 전기 비행기,
전기 선박 같은 것들 말이죠.
03:27
And then ultimately,
66
207870
1460
그렇게 되면 향후에는
03:30
it’s not really possible
to make electric rockets,
67
210373
2377
전기로 움직이는 로켓은
아무래도 힘들겠지만,
03:32
but you can make
the propellant used in rockets
68
212792
3170
로켓에 사용되는 추진체 정도는
03:36
using sustainable energy.
69
216003
1710
대체 에너지를 사용하도록
만들 수 있게 될 겁니다.
03:37
So ultimately, we can have a fully
sustainable energy economy.
70
217755
4421
궁극적으로 인류는 완전히 지속 가능한
에너지 경제를 구축할 수 있을 겁니다.
03:42
And it's those three things:
71
222593
2961
방금 말씀드린
세 가지 요소를 가지고요.
03:45
solar/wind, stationary
battery pack, electric vehicles.
72
225596
2878
태양열과 풍력 에너지,
고정식 배터리 팩, 전기 자동차요.
03:48
So then what are the limiting
factors on progress?
73
228516
3462
이를 위해 우리가 해결해야 할
문제는 무엇이 있을까요?
03:51
The limiting factor really will be
battery cell production.
74
231978
3211
아무래도 전지를 만드는
문제가 있을 겁니다.
03:55
So that's going to really be
the fundamental rate driver.
75
235606
4046
이것이 에너지 대체 속도를
결정하게 되겠죠.
03:59
And then whatever the slowest element
76
239694
1793
그리고 이러한 리튬 전지를
공급하는 과정 중에
04:01
of the whole lithium-ion
battery cells supply chain,
77
241487
4087
시간이 많이 걸리는 작업들이 있습니다.
04:05
from mining and the many steps of refining
78
245616
2753
채굴과 여러 단계의 정제 과정 등이죠.
04:08
to ultimately creating a battery cell
79
248411
2711
그런 복잡한 단계를 거쳐
전지를 만들어서
04:11
and putting it into a pack,
80
251163
1418
배터리 팩으로 만드는 과정 또한,
04:12
that will be the limiting factor
on progress towards sustainability.
81
252623
3379
지속 가능성을 위해 저희가
넘어야 할 산이라고 할 수 있죠.
04:16
CA: All right, so we need to talk
more about batteries,
82
256043
2586
CA: 좋아요, 그럼 배터리에 관한
이야기를 좀 더 해 봐야겠군요.
04:18
because the key thing
that I want to understand,
83
258671
2252
제가 가장 알고 싶은 핵심 문제는
04:20
like, there seems to be
a scaling issue here
84
260923
2086
규모의 문제 같은 것들입니다.
04:23
that is kind of amazing and alarming.
85
263050
2836
아주 놀랍지만 걱정되는 문제죠.
04:25
You have said that you have calculated
86
265886
2920
머스크 씨 본인의 계산에 따르면
04:28
that the amount of battery production
that the world needs for sustainability
87
268806
5672
인류가 지속 가능 에너지 경제를
구축하려면 생산해야 할 배터리의 양이
04:34
is 300 terawatt hours of batteries.
88
274478
3838
300테라와트시라고 하셨어요.
04:39
That's the end goal?
89
279317
1167
그게 최종 목표인가요?
04:40
EM: Very rough numbers,
90
280484
1335
EM: 아주 대략적인 숫자입니다.
04:41
and I certainly would invite others
to check our calculations
91
281861
3211
그리고 저희의 계산 결과에 대해서는
여러 곳에서 자문을 구할 생각이에요.
04:45
because they may arrive
at different conclusions.
92
285114
2586
누군가는 다른 결론을
내릴 수도 있는 거니까요.
04:47
But in order to transition, not just
current electricity production,
93
287742
6089
하지만 지속 가능 에너지가 지금처럼
전기를 공급하는 데에만 그치지 않고,
04:53
but also heating and transport,
94
293873
4004
난방과 교통에도 적용되는 방향으로
경제 구조를 바꾸기 위해서는
04:57
which roughly triples the amount
of electricity that you need,
95
297918
3796
지금보다 약 세 배 정도의
전기가 더 필요합니다.
05:01
it amounts to approximately 300 terawatt
hours of installed capacity.
96
301756
5046
그러려면 300테라와트시 정도의
배터리가 필요하다는 결론이 나왔습니다.
05:06
CA: So we need to give people
a sense of how big a task that is.
97
306802
4463
CA: 그게 얼마나 엄청난 양인지
사람들에게 전해야 할 듯한데,
05:11
I mean, here we are at the Gigafactory.
98
311307
2210
지금 저희가 있는 이곳 기가팩토리는
05:13
You know, this is one of the biggest
buildings in the world.
99
313517
5089
세계에서 가장
큰 건물 중 하나인데요.
05:19
What I've read, and tell me
if this is still right,
100
319565
3086
제가 기사에서 읽은 내용이 맞다면
05:22
is that the goal here is to eventually
produce 100 gigawatt hours
101
322693
5881
이곳의 배터리 생산 목표치가
100기가와트시라고 하더군요.
05:28
of batteries here a year eventually.
102
328616
2461
한 해 목표치가 말이죠.
05:31
EM: We will probably do more than that,
103
331452
1877
EM: 추후에는 아마
그보다 더 생산하겠지만,
05:33
but yes, hopefully we get there
within a couple of years.
104
333329
4129
일단 수 년 안에 그 수치에
도달하는 게 목표입니다.
05:37
CA: Right.
105
337500
1293
CA: 그렇군요.
05:38
But I mean, that is one --
106
338793
2502
그럼 그 얘기는...
05:41
EM: 0.1 terrawat hours.
107
341337
1835
EM: 0.1테라와트시라는 뜻이죠.
05:43
CA: But that's still 1/100
of what's needed.
108
343172
3462
CA: 하지만 저희가 필요한 양의
100분의 1정도에 지나지 않는군요.
05:46
How much of the rest of that 100
is Tesla planning to take on
109
346675
5840
그럼 향후 2~30년 정도 안에
05:52
let's say, between now and 2030, 2040,
110
352556
5422
테슬라가 배터리 생산량의
몇 퍼센트를 차지하게 되는 거죠?
05:58
when we really need to see
the scale up happen?
111
358020
3128
말씀하신대로 더 많은
배터리가 필요할 때쯤 말이죠.
06:01
EM: I mean, these are just guesses.
112
361774
1752
EM: 우선, 이것은
그저 추측일 뿐입니다.
06:03
So please, people shouldn't
hold me to these things.
113
363567
2795
제가 미래를 단언한다고
생각하지 말아 주셨으면 해요.
06:06
It's not like this is like some --
114
366404
2168
저는 그저...
06:08
What tends to happen
is I'll make some like,
115
368614
3378
현 상황을 보고
추측을 내놓을 뿐이에요.
06:12
you know, best guess
116
372034
1251
가능성이 높아보이는 추측을요.
06:13
and then people, in five years,
117
373327
2044
그런데 한 5년쯤 후에
06:15
there’ll be some jerk
that writes an article:
118
375413
2127
모 삼류 기자가 이런
기사를 쓸 수도 있거든요.
06:17
"Elon said this would happen,
and it didn't happen.
119
377540
2878
“일론 머스크의 예측이 틀렸다.
06:20
He's a liar and a fool."
120
380459
1710
그자는 거짓말쟁이에 무지하다.”
06:22
It's very annoying when that happens.
121
382211
2211
그럴 때면 정말 짜증이 나요.
06:25
So these are just guesses,
this is a conversation.
122
385172
2628
제가 드리는 말씀은
그저 예측일 뿐입니다.
06:27
CA: Right.
123
387842
1126
CA: 알겠습니다.
06:29
EM: I think Tesla probably ends up
doing 10 percent of that.
124
389552
4462
EM: 저는 추후 테슬라가 10% 정도를
책임질 거라고 생각합니다.
06:35
Roughly.
125
395099
1168
대략 10% 정도요.
06:36
CA: Let's say 2050
126
396308
1293
CA: 그렇다면 2050년이 되어
06:37
we have this amazing, you know,
100 percent sustainable electric grid
127
397643
5881
마침내 지속 가능 에너지로
생산된 전기를 사용하는
06:43
made up of, you know, some mixture
of the sustainable energy sources
128
403566
3211
완벽하게 지속 가능한
전력망이 구축되었다고 해 봅시다.
06:46
you talked about.
129
406777
1335
머스크 씨가 말씀한 대로요.
06:49
That same grid probably
is offering the world
130
409447
2836
그럼 이 전력망은 아주
저렴한 가격의 에너지를
06:52
really low-cost energy, isn't it,
131
412324
1877
전 세계에 공급하고 있을 겁니다.
06:54
compared with now.
132
414243
2085
지금과 비교하면 말이죠.
06:56
And I'm curious about like,
133
416745
3129
여기서 제가 궁금한 점이 있는데
06:59
are people entitled to get
a little bit excited
134
419915
4213
그렇게 되면 인류가 이 세상의 미래를
07:04
about the possibilities of that world?
135
424170
2627
좀 더 낙관적으로
바라봐도 괜찮은 걸까요?
07:06
EM: People should be optimistic
about the future.
136
426839
2294
EM: 우리는 미래를 좀 더
낙관적으로 바라볼 필요가 있어요.
07:12
Humanity will solve sustainable energy.
137
432970
2753
인류는 지속 가능 에너지
개발에 성공할 겁니다.
07:15
It will happen if we, you know,
continue to push hard,
138
435764
4547
그렇게 될 거예요.
저희가 계속 노력을 기울이면
07:20
the future is bright and good
from an energy standpoint.
139
440311
4504
밝은 미래가 올 것이고,
에너지 문제는 해결될 것입니다.
07:25
And then it will be possible to also use
that energy to do carbon sequestration.
140
445983
5380
그리고 대체 에너지를 사용함으로써
탄소를 격리 시키는 일도 가능해집니다.
07:31
It takes a lot of energy to pull
carbon out of the atmosphere
141
451363
2878
탄소를 대기 밖으로 끌어내려면
아주 많은 에너지가 필요합니다.
07:34
because in putting it in the atmosphere
it releases energy.
142
454283
2920
대기로 보낼 때
많은 에너지가 발산되니까요.
07:37
So now, you know, obviously
in order to pull it out,
143
457244
2461
그걸 대기 밖으로 끌어내려면
07:39
you need to use a lot of energy.
144
459705
1585
엄청난 에너지가 필요한 거죠.
07:41
But if you've got a lot of sustainable
energy from wind and solar,
145
461332
3712
하지만 풍력과 태양으로부터
지속 가능 에너지를 충분히 얻으면
07:45
you can actually sequester carbon.
146
465044
1668
탄소를 완전히 격리시킬 수 있습니다.
07:46
So you can reverse the CO2 parts
per million of the atmosphere and oceans.
147
466712
5464
그래서 대기와 바다의 CO2 농도를
역전시킬 수 있습니다.
07:52
And also you can really have
as much fresh water as you want.
148
472593
3712
그리고 깨끗한 물도 원하는 만큼
사용할 수 있게 되죠.
07:57
Earth is mostly water.
149
477264
1168
지구의 대부분은 물입니다.
07:58
We should call Earth “Water.”
150
478432
1418
지구는 물이라고 보는 게 맞아요.
07:59
It's 70 percent water by surface area.
151
479850
1835
표면의 70퍼센트가 물이니까요.
08:01
Now most of that’s seawater,
152
481685
1418
지구의 대부분은 바닷물이지만,
08:03
but it's like we just happen to be
on the bit that's land.
153
483103
3462
어쩌다 보니 우리는 육지라는
조그만 부분에서 살고 있죠.
08:06
CA: And with energy,
you can turn seawater into --
154
486565
3212
CA: 그렇다면, 그런 에너지를
이용해 바닷물을...
08:09
EM: Yes.
155
489777
1168
EM: 맞습니다.
08:10
CA: Irrigating water
or whatever water you need.
156
490986
2336
CA: 관개수든 뭐든 필요한 용도의
물을 끌어올 수 있겠군요.
08:13
EM: At very low cost.
157
493864
1210
EM: 아주 저렴한 비용으로요.
08:15
Things will be good.
158
495115
1168
모든 게 잘 풀릴 겁니다.
08:16
CA: Things will be good.
159
496325
1168
CA: 그렇군요.
08:17
And also, there's other benefits
to this non-fossil fuel world
160
497535
2919
화석 연료를 사용하지 않게 되면
또 다른 장점이 있죠.
08:20
where the air is cleaner --
161
500496
1460
대기가 더 깨끗해질 테니...
08:21
EM: Yes, exactly.
162
501997
1210
EM: 맞습니다.
08:23
Because, like, when you burn fossil fuels,
163
503707
2795
화석 연료가 연소되면
08:26
there's all these side reactions
164
506544
3294
각종 부작용이 발생함과 동시에
08:29
and toxic gases of various kinds.
165
509880
2711
각종 유해 가스가 배출되니까요.
08:33
And sort of little particulates
that are bad for your lungs.
166
513509
4880
폐 건강에 위협이 되는
물질도 배출되고요.
08:38
Like, there's all sorts
of bad things that are happening
167
518430
2628
그렇게 화석 연료 사용으로
발생하는 모든 부작용들이
말끔히 사라질 겁니다.
08:41
that will go away.
168
521100
1168
08:42
And the sky will be cleaner and quieter.
169
522268
3211
하늘은 더 깨끗해지고 평화로워지겠죠.
08:45
The future's going to be good.
170
525479
1502
멋진 미래가 오게 될 거예요.
08:46
CA: I want us to switch now to think
a bit about artificial intelligence.
171
526981
3461
CA: 지금부터는 주제를 바꿔
인공지능 얘기를 좀 해 보죠.
08:50
But the segue there,
172
530442
1836
들어가기에 앞서,
08:52
you mentioned how annoying it is
when people call you up
173
532278
3461
머스크 씨는 아주 진저리가 난다고
언급하신 적이 있는데요.
08:55
for bad predictions in the past.
174
535781
2878
사람들이 본인을 엉터리 예언가라고
부르는 일에 대해서 말이죠.
08:58
So I'm possibly going to be annoying now,
175
538701
4212
그래서 저에게도
짜증을 내실지 모르겠지만
09:02
but I’m curious about your timelines
and how you predict
176
542955
4421
저는 머스크 씨가 어떤 시간 계획을
갖고 있고, 어떻게 미래를 예측하는지
09:07
and how come some things are so amazingly
on the money and some aren't.
177
547418
3378
왜 어떤 예측들은 정확히 들어맞는데,
다른 건 그렇지 못한지가 궁금합니다.
09:10
So when it comes to predicting sales
of Tesla vehicles, for example,
178
550796
4963
예를 들어, 테슬라 차량의
매출을 예상하실 때도
09:15
you've kind of been amazing,
179
555801
1376
놀라운 예측을 하셨죠.
09:17
I think in 2014 when Tesla
had sold that year 60,000 cars,
180
557177
5423
2014년 테슬라의 연 매출량이
6만 대를 달성했을 때쯤,
09:22
you said, "2020, I think we will do
half a million a year."
181
562641
3712
머스크 씨는 “2020년에는 연 매출량
50만 대가 될 것이다.“라고 하셨죠.
09:26
EM: Yeah, we did
almost exactly a half million.
182
566395
2211
EM: 그리고 그 숫자를
거의 달성했죠.
CA: 네, 정말로 해내셨습니다.
09:28
CA: You did almost exactly half a million.
183
568647
2002
당시에는 비웃음을 산 발언이었죠.
그 정도의 매출 성장세를 보인 자동차는
09:30
You were scoffed in 2014
because no one since Henry Ford,
184
570691
3253
09:33
with the Model T, had come close
to that kind of growth rate for cars.
185
573944
4546
헨리 포드의 포드사가 출시한
모델T 이후로는 없었으니까요.
09:38
You were scoffed, and you actually
hit 500,000 cars
186
578532
2836
당시에는 비웃음을 사셨지만,
50만 대 판매를 달성하셨죠.
09:41
and then 510,000 or whatever produced.
187
581410
2336
이후엔 51만 대,
그리고 몇 대를 생산하든 완판되었고요.
09:44
But five years ago,
last time you came to TED,
188
584246
3170
그런데 5년 전, 본인의
가장 최근 TED 강연에서
09:47
I asked you about full self-driving,
189
587416
2961
제가 완전 자율 주행에 대한
질문을 드렸을 때,
09:50
and you said, “Yeah, this very year,
190
590419
2878
머스크 씨가 말씀하셨거든요.
“네, 바로 올해,
09:53
I'm confident that we will have a car
going from LA to New York
191
593297
5464
저는 우리가 LA부터 뉴욕시까지
사람이 전혀 개입하지 않는 자동차로
09:58
without any intervention."
192
598802
2044
이동할 수 있을 거라 확신합니다.”
10:00
EM: Yeah, I don't want to blow your mind,
but I'm not always right.
193
600888
3211
EM: 실망시켜드려 죄송하지만,
제 예측이 늘 맞지는 않습니다.
10:04
CA: (Laughs)
194
604099
1377
CA: (웃음)
10:05
What's the difference between those two?
195
605517
2044
이 두 예측의 차이는 뭐죠?
10:08
Why has full self-driving in particular
been so hard to predict?
196
608646
4671
왜 자율 주행의 경우에는
예측하기가 더 어려웠던 건가요?
10:13
EM: I mean, the thing that really got me,
197
613359
1960
EM: 이게 참 골치 아픈 것이,
10:15
and I think it's going to get
a lot of other people,
198
615361
2460
아마 저 말고도 다른 많은 이들도
비슷할 듯한데,
10:17
is that there are just so many
false dawns with self-driving,
199
617821
4338
자율 주행에서는 헛된 기대를
하게 되는 경우가 자주 있어요.
10:22
where you think you've got the problem,
200
622159
3128
정확히 뭐가 문제인지 알겠다고 생각하고
10:25
have a handle on the problem,
201
625329
1418
해결책을 찾았다고 여긴 지점에서,
10:26
and then it, no, turns out
you just hit a ceiling.
202
626747
4212
또 다른 난관에 봉착하곤 하죠.
10:33
Because if you were to plot the progress,
203
633754
3754
그 진행 과정을 그래프로 그려본다면
10:37
the progress looks like a log curve.
204
637508
1751
로그함수와 같은 모양으로
나타나게 됩니다.
10:39
So it's like a series of log curves.
205
639259
2336
연속적인 로그함수
형태라고 할 수 있죠.
10:41
So most people don't know
what a log curve is, I suppose.
206
641637
2794
아, 그러고보니 로그함수가
뭔지 잘 모르는 분들도 계시겠군요.
10:45
CA: Show the shape with your hands.
207
645474
1752
CA: 손으로 한 번 보여주시죠,
어떤 모양인지.
10:47
EM: It goes up you know,
sort of a fairly straight way,
208
647267
2962
처음에는 멀쩡하게
상향 곡선을 그리다가,
10:50
and then it starts tailing off
209
650270
2336
성장세가 감소하기 시작하죠.
10:52
and you start getting diminishing returns.
210
652648
2669
그 이후에는 하향 곡선으로 회귀합니다.
10:55
And you're like, uh oh,
211
655693
1876
그러니까...
10:57
it was trending up and now
it's sort of, curving over
212
657611
3629
상승 추세였다가 지금은,
말하자면 꺾인거죠.
11:01
and you start getting to these,
what I call local maxima,
213
661281
4505
제가 특정 최댓값이라고 불리는
이런 상승세에 도달해 있을 때는
11:05
where you don't realize
basically how dumb you were.
214
665828
2836
스스로가 얼마나 멍청한 소리를
하고 있는지 깨닫지 못합니다.
11:10
And then it happens again.
215
670040
1919
실수가 반복되는 거죠.
11:14
And ultimately...
216
674253
1293
결국 깨달은 것은...
11:16
These things, you know,
in retrospect, they seem obvious,
217
676004
3295
지금 와서는 너무 명백해 보이지만,
11:19
but in order to solve
full self-driving properly,
218
679341
4088
완전 자율 주행이 완성되기 위해서는 결국
11:23
you actually have to solve real-world AI.
219
683429
2961
현실 세계에서의 AI 문제를
해결해야 합니다.
11:28
Because what are the road networks
designed to work with?
220
688350
4171
왜냐하면, 우리의 도로망이
무엇과 상호작용 하도록 설계되었나요?
11:32
They're designed to work
with a biological neural net, our brains,
221
692563
3920
도로망은 우리의
생물학적인 신경망, 우리의 뇌,
11:36
and with vision, our eyes.
222
696483
3295
그리고 우리의 시각과
상호작용을 하도록 설계됐습니다.
11:40
And so in order to make it
work with computers,
223
700487
5047
그러니 자율 주행이 컴퓨터와
상호작용을 하게 만드려면,
11:45
you basically need to solve
real-world AI and vision.
224
705576
4838
기본적으로 현실 세계의 AI와
영상 문제를 해결해야 합니다.
11:51
Because we need cameras
225
711123
5047
왜냐하면 우리는 카메라와
11:56
and silicon neural nets
226
716211
2711
인공 신경망이 필요해요.
11:58
in order to have self-driving work
227
718922
2962
자율 주행이 작동하게 하려면요.
12:01
for a system that was designed
for eyes and biological neural nets.
228
721884
4212
우리의 눈과 생물학적 신경망에 맞춰
설계된 시스템이니까요.
12:07
You know, I guess
when you put it that way,
229
727139
2085
이런 식으로 말씀을 드리면
12:09
it's sort of, like, quite obvious
230
729224
1585
꽤 명확하게 이해가 되시겠죠.
12:10
that the only way
to solve full self-driving
231
730851
2085
자율 주행을 실현하기 위한 유일한 방법은
12:12
is to solve real world AI
and sophisticated vision.
232
732936
3963
현실 세계의 AI와 매우 정교한 영상과
관련된 문제를 해결하는 것입니다.
12:16
CA: What do you feel
about the current architecture?
233
736899
2460
CA: 현재의 아키텍처에 대해서는
어떻게 생각하십니까?
머스크 씨가 보시기에,
12:19
Do you think you have an architecture now
234
739401
2002
12:21
where there is a chance
235
741403
1794
현재 사용되는 아키텍처는
12:23
for the logarithmic curve
not to tail off any anytime soon?
236
743197
3962
성장세가 꺾이지 않고
목표 달성에 다가갈 수 있을까요?
12:27
EM: Well I mean, admittedly
these may be infamous last words,
237
747743
5213
EM: 지나치게 자신감이 넘치는
발언일 수도 있지만,
12:32
but I actually am confident
that we will solve it this year.
238
752998
2836
자율 주행 아키텍처는 올해 안에
완성될 거라고 봅니다.
12:36
That we will exceed --
239
756126
1794
그러면 사고 확률도...
12:39
The probability of an accident,
240
759379
2962
해결될 수 있을 거고요.
12:42
at what point do you exceed
that of the average person?
241
762382
2586
아키텍처가 언제쯤 일반인 수준의
인지 능력을 뛰어넘을까요?
12:45
I think we will exceed that this year.
242
765344
1960
저는 올해에 가능하다고 보고 있습니다.
12:47
CA: What are you seeing behind the scenes
that gives you that confidence?
243
767346
3712
CA: 그러한 확신은
어디서 나오게 된 건가요?
12:51
EM: We’re almost at the point
where we have a high-quality
244
771099
2795
EM: 저희가 개발 중인
고성능의 통합 벡터공간이
12:53
unified vector space.
245
773894
1919
거의 완성 단계에 있습니다.
12:55
In the beginning, we were trying
to do this with image recognition
246
775854
4213
처음에 저희는 이미지
인식 기술을 개발하면서
13:00
on individual images.
247
780108
2920
개별 이미지를 이용하려 했어요.
13:03
But if you get one image out of a video,
248
783070
1918
그런데 원래 영상 속
정지된 한 장면만을 보게 되면,
13:05
it's actually quite hard to see
what's going on without ambiguity.
249
785030
4838
무슨 일이 일어나고 있는지
정확히 파악하기가 힘들죠.
13:09
But if you look at a video segment
of a few seconds of video,
250
789910
3128
대신 몇 초 정도 길이의
영상 일부를 보여주면
13:13
that ambiguity resolves.
251
793080
1668
그러한 혼동은 해결됩니다.
13:15
So the first thing we had to do
is tie all eight cameras together
252
795791
3462
저희의 우선 과제는
여덟 대의 카메라를 서로 연결해서
13:19
so they're synchronized,
253
799294
1168
한 대처럼 작동하게 만드는 것이었죠.
13:20
so that all the frames
are looked at simultaneously
254
800504
3170
그러면 모든 각도의
이미지들이 한번에 인식되고
13:23
and labeled simultaneously by one person,
255
803715
2962
한 사람에 의해 라벨링이 됩니다.
13:26
because we still need human labeling.
256
806718
1877
아직 라벨링은 사람의 손을
거쳐야 하니까요.
13:30
So at least they’re not labeled
at different times by different people
257
810180
3504
적어도 이미지가 서로 다른 타이밍에
여러 명에 의해 다양하게
라벨링되는 건 방지할 수 있습니다.
13:33
in different ways.
258
813684
1209
13:35
So it's sort of a surround picture.
259
815561
2419
말하자면 360도 사진 같은 거죠.
13:37
Then a very important part
is to add the time dimension.
260
817980
3420
그 다음 중요한 부분은
시간 차원을 추가하는 겁니다.
13:41
So that you’re looking at surround video,
261
821733
3587
그러니까 360도 영상을 보고,
13:45
and you're labeling surround video.
262
825320
1919
그 영상을 라벨링하는 겁니다.
13:47
And this is actually quite difficult to do
from a software standpoint.
263
827865
4671
소프트웨어적 측면에서
상당히 어려운 작업입니다.
13:52
We had to write our own labeling tools
264
832911
4672
저희는 저희만의 라벨링 툴을 생성하고,
13:57
and then create auto labeling,
265
837624
5464
자동화된 라벨링 과정을 개발해서,
14:03
create auto labeling software to amplify
the efficiency of human labelers
266
843130
4546
자동 라벨링 소프트웨어를 만들어
라벨링 작업의 효율을 올려야 했습니다.
14:07
because it’s quite hard to label.
267
847676
1752
라벨링은 어려운 작업이거든요.
14:09
In the beginning,
it was taking several hours
268
849469
2294
처음에는 라벨링에
몇 시간이 걸리기도 했습니다.
14:11
to label a 10-second video clip.
269
851763
2128
고작 10초짜리 영상인데도요.
14:13
This is not scalable.
270
853932
2169
그것보단 빨라야 해요.
14:16
So basically what you have to have
is you have to have surround video,
271
856518
3295
그러니까, 기본적으로
360도 영상이 우선 필요하고,
14:19
and that surround video has to be
primarily automatically labeled
272
859813
3796
이 영상은 1차적으로
자동 라벨링을 거칩니다.
14:23
with humans just being editors
273
863609
1668
인간은 편집자 역할 정도만 수행하면서
14:25
and making slight corrections
to the labeling of the video
274
865319
4671
라벨링에 대한 자잘한 수정 작업을 하고
14:30
and then feeding back those corrections
into the future auto labeler,
275
870032
4629
수정 내용을 반영해
자동 라벨링 소프트웨어에 전달합니다.
14:34
so you get this flywheel eventually
276
874661
1710
그렇게 하면 아주 안정적으로
14:36
where the auto labeler
is able to take in vast amounts of video
277
876371
3295
자동 라벨링 시스템이 막대한
분량의 영상을 받아들여
14:39
and with high accuracy,
278
879666
1335
높은 정확도를 가지고,
14:41
automatically label the video
for cars, lane lines, drive space.
279
881043
5881
차량, 차선, 주행 공간 영상을
라벨링 할 수 있게 되는 거죠.
14:46
CA: What you’re saying is ...
280
886965
4296
CA: 그러니까 그 말씀은...
14:51
the result of this is that you're
effectively giving the car a 3D model
281
891303
4796
그런 과정을 거치면 차량에
효율적으로 3D 모델을 전달해서
14:56
of the actual objects
that are all around it.
282
896099
2461
주변 물체들을 인식할 수
있도록 해준다는 거군요.
14:58
It knows what they are,
283
898560
2461
그게 어떤 물체인지,
15:01
and it knows how fast they are moving.
284
901063
2794
얼마나 빠르게 움직이고 있는지를
알아낼 수 있도록요.
15:03
And the remaining task is to predict
285
903899
5338
이제 남은 과제는
도로에서의 돌발 상황을
예측하는 것이겠군요.
15:09
what the quirky behaviors are
that, you know,
286
909237
3379
15:12
that when a pedestrian is walking
down the road with a smaller pedestrian,
287
912658
3586
예를 들어, 보행자가
어린 아이를 데리고 길을 건널 때
15:16
that maybe that smaller pedestrian
might do something unpredictable
288
916286
3212
그 아이가 예상치 못한
행동을 하게 된다거나
15:19
or things like that.
289
919498
1668
그런 상황이 생기니까요.
15:21
You have to build into it
before you can really call it safe.
290
921208
3003
안전한 자율 주행 시스템을
완성하려면 반드시 필요한 요소죠.
15:24
EM: You basically need to have
memory across time and space.
291
924211
5881
EM: 그래서 우선 시간과 공간을
교차하는 메모리가 필요합니다.
15:30
So what I mean by that is ...
292
930467
2544
이게 무슨 말이냐면...
15:34
Memory can’t be infinite,
293
934763
2544
메모리는 무한할 수 없습니다.
15:37
because it's using up a lot
of the computer's RAM basically.
294
937349
4212
뭔가가 메모리에 들어간다는 건
RAM 용량을 차지한다는 뜻이니까요.
15:42
So you have to say how much
are you going to try to remember?
295
942562
2878
메모리가 얼마나 많은 걸
기억하게 해야 할지 고민해야 하죠.
15:46
It's very common
for things to be occluded.
296
946650
2627
가려진 물체를 인식해야 할 때
이런 고민이 자주 생깁니다.
15:49
So if you talk about say,
a pedestrian walking past a truck
297
949319
4171
예를 들어 보행자가
트럭 앞을 지나간다고 하면,
15:53
where you saw the pedestrian start
on one side of the truck,
298
953490
4129
보행자가 길을 건너기 시작해
트럭의 한쪽으로 다가가고
15:57
then they're occluded by the truck.
299
957619
2086
잠시 후엔 트럭에 가려
안 보이게 되겠죠.
16:01
You would know intuitively,
300
961540
2377
그러면 우리는 직관적으로,
16:03
OK, that pedestrian is going to pop out
the other side, most likely.
301
963917
3253
“저 사람이 트럭을 지나 반대쪽에서
나타나겠구나.“라는 걸 알 수 있죠.
16:07
CA: A computer doesn't know it.
302
967504
1543
CA: 컴퓨터는 그런 걸 모르죠.
EM: 속도를 늦춰야죠.
16:09
EM: You need to slow down.
303
969047
1293
16:10
CA: A skeptic is going to say
that every year for the last five years,
304
970340
3879
CA: 회의론자는 아마도 머스크씨가
지난 5년 동안 매년
16:14
you've kind of said, well,
305
974261
1668
이렇게 말했다고 하겠죠.
16:15
no this is the year,
306
975971
1209
“올해는 아니지만
16:17
we're confident that it will be there
in a year or two or, you know,
307
977222
3253
아마 향후 1~2년 안에
그렇게 된다고 확신해요.”
16:20
like it's always been about that far away.
308
980475
2586
마치 그게 언제나
요원한 일인 것처럼요.
16:23
But we've got a new architecture now,
309
983103
2794
그렇지만 지금은 새로운
아키텍처가 개발됐고
16:25
you're seeing enough improvement
behind the scenes
310
985897
2837
뒤에서 충분히
개선되었다고 보시는 거죠.
16:28
to make you not certain,
but pretty confident,
311
988734
2961
확신할 수는 없지만,
꽤 자신 있는 정도로요.
16:31
that, by the end of this year,
312
991737
2210
그래서, 올해 말쯤에는
16:33
what in most, not in every city,
and every circumstance
313
993989
3128
모든 도시와 모든 상황에서는 아니지만,
16:37
but in many cities and circumstances,
314
997159
2460
대부분의 도시와 대부분의 상황에서
16:39
basically the car will be able
to drive without interventions
315
999619
2878
기본적으로 자동차가 사람의 개입 없이도
더 안전하게 운전할 수 있다는 거고요.
16:42
safer than a human.
316
1002539
1168
16:43
EM: Yes.
317
1003707
1168
EM: 네.
16:44
I mean, the car currently
drives me around Austin
318
1004916
2461
사실, 지금 오스틴을 주행하는 제 차는
16:47
most of the time with no interventions.
319
1007377
2044
거의 사람의 개입 없이 운전합니다.
16:49
So it's not like ...
320
1009755
1751
그러니까 그건...
16:52
And we have over 100,000 people
321
1012340
3129
현재 십만 명이 넘는 사람들이
16:55
in our full self-driving beta program.
322
1015510
2878
저희의 완전 자동 주행
베타 프로그램에 참여 중입니다.
16:59
So you can look at the videos
that they post online.
323
1019181
3086
그러니까, 그분들이 올린
영상을 보실 수 있을 거예요.
17:02
CA: I do.
324
1022309
1168
CA: 봤어요.
17:03
And some of them are great,
and some of them are a little terrifying.
325
1023935
3254
그 중 일부는 대단하지만,
일부는 약간 무섭던데요.
17:07
I mean, occasionally
the car seems to veer off
326
1027189
2168
그러니까, 경우에 따라서
자율 주행차가 경로를 이탈해서
17:09
and scare the hell out of people.
327
1029357
1877
사람들을 몹시 겁주는 듯 보입니다.
17:12
EM: It’s still a beta.
328
1032152
1335
EM: 여전히 베타버전이니까요.
17:15
CA: But you’re behind the scenes,
looking at the data,
329
1035072
2585
CA: 그렇지만, 뒤에서
데이터를 살펴보면
17:17
you're seeing enough improvement
330
1037699
1543
머스크씨는 충분히 진전 중이라고
보고 계시다는 거네요.
17:19
to believe that a this-year
timeline is real.
331
1039242
4213
올해 계획된 일정이
현실화될 것이라 믿을 정도로요.
17:23
EM: Yes, that's what it seems like.
332
1043497
1710
EM: 네, 그렇게 보입니다.
17:25
I mean, we could be here
talking again in a year,
333
1045207
3628
그러니까, 우리가 일 년 후에
여기서 다시 얘기할 수도 있지만요.
17:28
like, well, another year went by,
and it didn’t happen.
334
1048877
2753
마치, 이전에 한 해가 지났지만
계획대로 되지 않았을 때처럼요.
17:31
But I think this is the year.
335
1051630
1710
하지만 제 생각에는 올해입니다.
17:33
CA: And so in general,
when people talk about Elon time,
336
1053381
3295
CA: 그리고 보통, 사람들이
일론 머스크에 대해 얘기할 때
17:36
I mean it sounds like
you can't just have a general rule
337
1056718
3212
꼭 당신에게 일반적인 규칙이
없는 것처럼 얘기하는 걸로 들립니다.
17:39
that if you predict that something
will be done in six months,
338
1059930
2961
일론 머스크가 어떤 일이 6개월 안에
완성될 것이라고 예측하면
17:42
actually what we should imagine
is it’s going to be a year
339
1062891
2920
실제로는 일 년은
걸리는 거라고들 말하죠.
17:45
or it’s like two-x or three-x,
it depends on the type of prediction.
340
1065852
3254
또는 이 년, 아니면 삼 년.
어떤 종류의 예측이냐에 따라서요.
17:49
Some things, I guess,
things involving software, AI, whatever,
341
1069106
3837
제 생각에 소프트웨어나
AI 같은 것들은
17:52
are fundamentally harder
to predict than others.
342
1072943
4004
근본적으로 다른 종류의 것들보다
예측하기가 어려워 보이는데요.
17:56
Is there an element
343
1076988
1168
혹시 이런 건 아닌가요?
17:58
that you actually deliberately make
aggressive prediction timelines
344
1078198
3337
머스크가 사실상 의도적으로
공격적인 일정을 예측하는 거지요.
18:01
to drive people to be ambitious?
345
1081576
3420
사람들이 좀 더
야심을 가지도록 말입니다.
18:04
Without that, nothing gets done?
346
1084996
1710
아무 것도 이뤄진 게 없는 상태로요.
18:06
EM: Well, I generally believe,
in terms of internal timelines,
347
1086748
3003
EM: 음, 저는 내부 일정에 관해서는
보통 이렇게 믿는데요,
18:09
that we want to set the most aggressive
timeline that we can.
348
1089793
4880
저희는 할 수 있는 한 가장 공격적인
일정을 수립해 두길 원한다고요.
18:14
Because there’s sort of like
a law of gaseous expansion where,
349
1094673
3170
왜냐하면 기체 팽창의
법칙 같은 게 있는데,
18:17
for schedules, where
whatever time you set,
350
1097843
3086
스케줄을 수립할 때는 말입니다.
어떤 식으로 시간을 계획하더라도,
18:20
it's not going to be less than that.
351
1100971
1751
계획한 것보다
적게 걸리지는 않게 됩니다.
18:22
It's very rare
that it'll be less than that.
352
1102722
2253
그런 경우는 매우 드물어요.
18:26
But as far as our predictions
are concerned,
353
1106184
2086
하지만 우리의 예측에 관해서
18:28
what tends to happen in the media
354
1108311
1585
미디어의 경향이
18:29
is that they will report
all the wrong ones
355
1109938
2002
모든 틀린 부분만 보도하고
18:31
and ignore all the right ones.
356
1111982
1501
들어맞은 건 무시하는 면도 있어요.
18:33
Or, you know, when writing
an article about me --
357
1113525
4796
또 크리스 씨도 아시겠지만,
저에 대한 기사는...
18:38
I've had a long career
in multiple industries.
358
1118321
2211
저는 다양한 산업에서
오랜 경력를 가지고 있기 때문에
18:40
If you list my sins, I sound
like the worst person on Earth.
359
1120574
2836
제가 한 바보짓만 나열하면, 전 아마
지구에서 제일 나쁜 사람일 겁니다.
18:43
But if you put those
against the things I've done right,
360
1123410
3378
하지만, 만약 반대로 제가
옳았던 것들을 나열한다면,
18:46
it makes much more sense, you know?
361
1126788
1794
제 행동이 훨씬 더
타당해 보이겠죠, 그렇지 않나요?
18:48
So essentially like,
the longer you do anything,
362
1128623
2753
그러니까 기본적으로 이런 거예요,
당신이 한 일이 많을수록
18:51
the more mistakes
that you will make cumulatively.
363
1131418
3670
더 많은 실수들을 쌓게 될 겁니다.
18:55
Which, if you sum up those mistakes,
364
1135130
1793
그러니 만약 그런 실수만 모아둘 땐
18:56
will sound like I'm the worst
predictor ever.
365
1136965
3629
아마 제가 전무후무한
최악의 예언가처럼 보이겠지만
19:00
But for example, for Tesla vehicle growth,
366
1140635
3879
이를테면, 테슬라 자동차의
성장에 관해서는
19:04
I said I think we’d do 50 percent,
and we’ve done 80 percent.
367
1144556
4379
제가 50퍼센트의 성장을 예측하고
실제로는 80퍼센트를 해내기도 했죠.
19:08
CA: Yes.
368
1148977
1126
CA: 네.
19:10
EM: But they don't mention that one.
369
1150937
1752
EM: 하지만 사람들은
그런 건 말하지 않아요.
19:12
So, I mean, I'm not sure what my exact
track record is on predictions.
370
1152689
3754
그러니까 제 실적이 예측대로 될지
확신할 수는 없습니다.
19:16
They're more optimistic than pessimistic,
but they're not all optimistic.
371
1156484
3462
비관적이기 보단 긍정적인 편이지만
모든 게 긍정적이지는 않아요.
19:19
Some of them are exceeded
probably more or later,
372
1159946
4838
그들 중 몇 가지는 아마
계획보다 늦을 겁니다.
19:24
but they do come true.
373
1164826
3921
하지만 실현되겠지요.
19:28
It's very rare that they do not come true.
374
1168747
2878
실현되지 않는 경우는 매우 드물어요.
19:31
It's sort of like, you know,
375
1171666
3212
마치 이런 것과 같아요.
19:34
if there's some radical
technology prediction,
376
1174878
3670
만약 몇 가지 급진적인 기술에 관한
예측이 있다면,
19:38
the point is not
that it was a few years late,
377
1178590
2169
몇 년 더 늦게 실현 되었느냐가
중점이 아니죠.
19:40
but that it happened at all.
378
1180800
1544
결국 이뤄졌다는 게 중요하니까요.
19:43
That's the more important part.
379
1183136
2336
그게 훨씬 중요한 부분입니다.
19:45
CA: So it feels like
at some point in the last year,
380
1185889
3962
CA: 그러니까 이런 느낌이네요.
작년 언젠가
19:49
seeing the progress on understanding,
381
1189851
4671
진행되는 걸 봤을 때요.
그 ‘이해’ 부분에 관해서요.
19:54
the Tesla AI understanding
the world around it,
382
1194522
3421
테슬라 AI가 세상을
이해하는 방식 말입니다.
19:57
led to a kind of, an aha moment at Tesla.
383
1197984
2544
테슬라에 깨달음의 순간이 있었죠.
20:00
Because you really surprised people
recently when you said
384
1200570
3087
왜냐하면 머스크씨는 그 얘기로 최근에
정말로 사람들을 놀라게 했고,
20:03
probably the most important
product development
385
1203698
2503
아마 올해 가장 중요한 제품 개발은
20:06
going on at Tesla this year
is this robot, Optimus.
386
1206243
3878
로봇 옵티머스가 될 거라 했습니다.
20:10
EM: Yes.
387
1210163
1168
EM: 맞아요.
20:11
CA: Many companies out there
have tried to put out these robots,
388
1211331
3211
CA: 다른 많은 회사들도
이런 로봇을 만드려고 노력해 왔고요.
20:14
they've been working on them for years.
389
1214584
1919
이미 수 년간 말이죠.
20:16
And so far no one has really cracked it.
390
1216503
2294
그리고 어느 곳도
진짜로 해내지는 못했어요.
20:18
There's no mass adoption
robot in people's homes.
391
1218797
3795
가정용 로봇을 대량 생산하지도 못했고
20:22
There are some in manufacturing,
but I would say,
392
1222592
3170
몇 곳은 제조하기도 했지만,
이렇게 말할 수 있을 것 같아요.
20:25
no one's kind of, really cracked it.
393
1225762
2711
누구도 진짜로 해내지는 못했다고요.
20:29
Is it something that happened
394
1229724
1794
어떤 성과가 실제로 있었나요?
20:31
in the development of full self-driving
that gave you the confidence to say,
395
1231559
3587
완전 자동화 개발에 있어서
뭔가 특별한 걸 해냈다고
20:35
"You know what, we could do
something special here."
396
1235146
2461
확실하게 말할 정도의 성과요.
20:37
EM: Yeah, exactly.
397
1237607
1251
EM: 네, 그럼요.
20:38
So, you know, it took me a while
to sort of realize
398
1238858
2670
그러니까 아시다시피,
저도 깨닫는 데 시간이 필요했어요.
20:41
that in order to solve self-driving,
399
1241528
2919
자율 주행 문제를 해결하기 위해서는
20:44
you really needed to solve real-world AI.
400
1244489
2169
현실 세계의 AI 문제를
해결할 필요가 있었습니다.
20:47
And at the point of which you solve
real-world AI for a car,
401
1247617
3045
그리고 자동차를 위한
현실 세계의 AI를 해결하는 시점에,
20:50
which is really a robot on four wheels,
402
1250704
2502
그것이 네 개의 바퀴를 가진
로봇이기 때문에
20:53
you can then generalize that
to a robot on legs as well.
403
1253248
4421
두 다리를 가진 로봇 역시
상용화가 가능해지는 겁니다.
20:58
The two hard parts I think --
404
1258128
1418
제 생각에 두 가지 어려운 부분은
20:59
like obviously companies
like Boston Dynamics
405
1259587
2586
확실히 보스톤 다이내믹스 같은 회사들은
21:02
have shown that it's possible
to make quite compelling,
406
1262215
2878
꽤 도전적인 걸 만들어낼 수 있다는
사실을 보여줘왔고요.
21:05
sometimes alarming robots.
407
1265135
1626
때로는 그게 깜짝 놀랄만한
로봇이기도 한 거죠.
21:06
CA: Right.
408
1266761
1210
CA: 그렇군요.
21:08
EM: You know, so from a sensors
and actuators standpoint,
409
1268013
3295
EM: 그러니까 감지기나 작동기를 볼 때는
21:11
it's certainly been demonstrated by many
410
1271349
3253
확실히 많은 사람들이 증명했는데
21:14
that it's possible to make
a humanoid robot.
411
1274644
2086
휴머노이드 로봇을 만드는 일도
가능하다는 걸요.
21:16
The things that are currently missing
are enough intelligence
412
1276730
5547
현재 놓치고 있는 건 충분한 지능입니다
21:22
for the robot to navigate the real world
and do useful things
413
1282277
3086
로봇이 현실 세계에서 운행하고,
유용한 것들을 하게 하기 위한 지능이요.
21:25
without being explicitly instructed.
414
1285405
2252
확실한 명령을 내리지 않고도 말이죠.
21:27
So the missing things are basically
real-world intelligence
415
1287657
4129
그러니 놓치고 있는 것들은
기본적으로 현실 세계 지능과
21:31
and scaling up manufacturing.
416
1291786
2503
제조에서 규모를 확장하는 겁니다.
21:34
Those are two things
that Tesla is very good at.
417
1294664
2419
이 두 가지는 테슬라가
매우 잘하는 부분이고
21:37
And so then we basically just need
to design the specialized actuators
418
1297125
6006
그래서 저희는 무엇보다도
특화된 작동기와
21:43
and sensors that are needed
for humanoid robot.
419
1303173
2335
감지기를 설계할 필요가 있어요.
휴머노이드 로봇에 필요한 것들이죠.
21:46
People have no idea,
this is going to be bigger than the car.
420
1306301
3045
사람들은 전혀 모르지만
이건 단순한 자동차 그 이상입니다.
21:50
CA: So let's dig into exactly that.
421
1310764
1918
CA: 바로 그 부분에
좀 더 들어가 볼까요?
21:52
I mean, in one way, it's actually
an easier problem than full self-driving
422
1312724
3587
한편으론 완전 자율 주행보다는
로봇이 사실 쉬운 문제에요.
21:56
because instead of an object
going along at 60 miles an hour,
423
1316311
3795
왜냐하면 한 시간에
60마일을 주행하는 물체도 아니고
22:00
which if it gets it wrong,
someone will die.
424
1320148
2544
잘못될 경우에 누군가
죽을 수도 있는 그런 게 아니니까요.
22:02
This is an object that's engineered
to only go at what,
425
1322692
2586
이건 단순히
22:05
three or four or five miles an hour.
426
1325320
2002
한 시간에 3, 4 또는 5마일 정도만
이동하는 물체죠.
22:07
And so a mistake,
there aren't lives at stake.
427
1327322
3003
그리고 실수가 있더라도,
인명피해가 걸린 문제도 아니고요.
22:10
There might be embarrassment at stake.
428
1330367
1835
그냥 좀 당황스러운 정도겠지요.
22:12
EM: So long as the AI doesn't take it over
and murder us in our sleep or something.
429
1332202
5130
EM: AI가 우리를 통제하거나 우리가
잘 때 죽이지만 않는다면 말이에요.
22:17
CA: Right.
430
1337374
1167
CA: 맞아요.
22:18
(Laughter)
431
1338583
1168
(웃음)
22:20
So talk about --
432
1340794
1543
그러니까 얘기해 봅시다.
22:22
I think the first applications
you've mentioned
433
1342379
2711
머스크 씨가 언급한 것 중
처음으로 적용된 건
22:25
are probably going to be manufacturing,
434
1345131
1919
아마 제조인 것 같은데
22:27
but eventually the vision is to have
these available for people at home.
435
1347050
3462
하지만 최종 목적은 이러한 제품이
사람들 집에서 이용 가능해지는 거겠죠.
22:30
If you had a robot that really understood
the 3D architecture of your house
436
1350553
6298
만약 머스크 씨에게 로봇이 있다면요,
정말로 당신 집의 3D 구조를 이해하고
22:36
and knew where every object
in that house was
437
1356893
5005
집에 있는 모든 물건의 위치도 알고,
22:41
or was supposed to be,
438
1361940
1334
또는 그렇게 하도록 만들어졌고
22:43
and could recognize all those objects,
439
1363274
2837
그리고 모든 물체들을
인식할 수도 있는 그런 로봇이요.
22:46
I mean, that’s kind of amazing, isn’t it?
440
1366152
2253
그럼 꽤 놀라울 거예요, 그렇지요?
22:48
Like the kind of thing
that you could ask a robot to do
441
1368446
3295
그런 게 있다면,
로봇에게 부탁할 수 있는
22:51
would be what?
442
1371741
1168
종류의 일은 무엇일까요?
22:52
Like, tidy up?
443
1372951
1209
‘방 좀 치워’ 같은 걸까요?
22:54
EM: Yeah, absolutely.
444
1374160
1460
EM: 네, 정확해요.
22:57
Make dinner, I guess, mow the lawn.
445
1377122
2252
‘저녁 식사 만들어’ 같은 거나,
뭐 ‘잔디 깎아’ 같은 거죠.
22:59
CA: Take a cup of tea to grandma
and show her family pictures.
446
1379416
4379
CA: ‘할머니께 차 한 잔 드리고,
가족 사진도 보여드려’ 같은 거요.
23:04
EM: Exactly. Take care
of my grandmother and make sure --
447
1384462
4296
EM: 맞아요. 할머니 돌봐드리고
그리고 반드시...
23:08
CA: It could obviously recognize
everyone in the home.
448
1388758
2628
CA: 확실히 가족 모두를
알아보겠군요.
23:12
It could play catch with your kids.
449
1392053
1877
아이들과 잡기 놀이를
할 수도 있겠네요.
23:13
EM: Yes. I mean, obviously,
we need to be careful
450
1393972
2294
EM: 네, 당연히 우리가
조심할 필요는 있지만
23:16
this doesn't become a dystopian situation.
451
1396307
2545
디스토피아적인 상황이
되지는 않을 겁니다.
23:20
I think one of the things
that's going to be important
452
1400520
2544
제 생각에 중요한 문제 중 하나는
23:23
is to have a localized
ROM chip on the robot
453
1403064
3504
로봇의 ROM칩을
현지화 하는 일일 거예요.
23:26
that cannot be updated over the air.
454
1406609
3045
무선으로 업데이트가
불가능할 테니까요.
23:29
Where if you, for example, were to say,
“Stop, stop, stop,”
455
1409696
2794
예를 들어, 어디서든
“멈춰, 멈춰, 멈춰.“라고 말한다면,
23:32
if anyone said that,
456
1412490
1460
누가 그 얘기를 하더라도,
23:33
then the robot would stop,
you know, type of thing.
457
1413992
2419
로봇은 멈춰야 합니다.
그런 일들이 문제지요.
23:36
And that's not updatable remotely.
458
1416411
1960
원격으로 업데이트 할 수는 없습니다.
23:38
I think it's going to be important
to have safety features like that.
459
1418997
3253
안전성을 확보하기 위해서는
그런 문제들이 중요해질 거예요.
23:42
CA: Yeah, that sounds wise.
460
1422292
1501
CA: 네, 그렇게 보이네요.
23:43
EM: And I do think there should be
a regulatory agency for AI.
461
1423793
2961
EM: 그리고 AI를 위한
규제 기관도 필요할 겁니다.
23:46
I've said that for many years.
462
1426754
1460
제가 수 년간 얘기해 왔죠.
23:48
I don't love being regulated,
463
1428214
1418
저는 규제받는 걸 싫어하지만
23:49
but I think this is an important
thing for public safety.
464
1429632
2711
공중 안전을 위해서는
중요한 일이라고 생각해요.
23:52
CA: Let's come back to that.
465
1432343
1377
CA: 그 문제로 다시 돌아가면
23:53
But I don't think many people
have really sort of taken seriously
466
1433720
4463
사람들은 대개 그러한 문제를
심각하게 받아들이지 않는 것 같아요.
23:58
the notion of, you know, a robot at home.
467
1438183
2752
가정용 로봇 같은 개념을요.
24:00
I mean, at the start
of the computing revolution,
468
1440935
2294
제 말은, 컴퓨터 혁명이 시작됐을 때
24:03
Bill Gates said there's going to be
a computer in every home.
469
1443271
2878
빌 게이츠가 그랬죠.
모든 집에 컴퓨터가 있게 될 거라고
24:06
And people at the time said, yeah,
whatever, who would even want that.
470
1446149
3295
그리고 사람들은 뭐 어쨌든,
누가 그걸 원하겠냐고 했고요.
24:09
Do you think there will be basically
like in, say, 2050 or whatever,
471
1449903
3670
머스크 씨는 그런 일이, 2050년이나
또 언제 일어날 거라고 보시나요?
24:13
like a robot in most homes,
is what there will be,
472
1453615
4170
대부분의 가정이 로봇을
들이게 될 거라고요.
24:17
and people will love them
and count on them?
473
1457827
2419
그리고 사람들이 그것들을 사랑하고
의지하게 될 거라고 말이죠?
24:20
You’ll have your own butler basically.
474
1460663
1836
무엇보다 머스크 씨도
본인의 집사를 들이게 될 테고요.
24:22
EM: Yeah, you'll have your sort of
buddy robot probably, yeah.
475
1462749
3920
EM: 네. 앤더슨씨도
로봇 친구를 가지게 될 겁니다.
24:27
CA: I mean, how much of a buddy?
476
1467003
1585
CA: 뭐, 어느 정도의
친구 말씀인가요?
24:28
How many applications have you thought,
477
1468630
2627
얼마나 많은 응용 프로그램들을
생각하셨을까요?
24:31
you know, can you have
a romantic partner, a sex partner?
478
1471257
2836
그러니까, 연애 파트너나,
섹스 파트너 같은 것도 가능한가요?
24:34
EM: It's probably inevitable.
479
1474135
2127
EM: 아마 피할 수 없겠죠.
24:36
I mean, I did promise the internet
that I’d make catgirls.
480
1476304
2794
제 말은, 저는 캣걸을 만들겠다고
인터넷으로 약속했어요.
24:39
We could make a robot catgirl.
481
1479098
2044
우리는 로봇 캣걸을
만들 수도 있을 겁니다.
24:42
CA: Be careful what
you promise the internet.
482
1482644
2168
CA: 인터넷으로 약속할 때는
조심하세요.
24:44
(Laughter)
483
1484812
2253
(웃음)
24:47
EM: So, yeah, I guess it'll be
whatever people want really, you know.
484
1487065
4963
EM: 그러니까, 제 추측으로는
사람들이 원하면 무엇이든지 될 겁니다.
24:52
CA: What sort of timeline
should we be thinking about
485
1492487
3670
CA: 일정 계획이 어떻게 될 거라고
생각할 수 있을까요?
24:56
of the first models
that are actually made and sold?
486
1496157
3837
첫 번째 모델이 실제로 만들어지고
팔리는 시기 말입니다.
25:01
EM: Well, you know, the first units
that we intend to make
487
1501621
3712
EM: 그러니까 저희가
처음으로 만들려 하는 건
25:05
are for jobs that are dangerous,
boring, repetitive,
488
1505375
4629
위험하고, 지루하고, 반복적이고
25:10
and things that people don't want to do.
489
1510004
1919
그리고 사람들이 하고 싶어하지 않는
일들을 위한 제품일 겁니다.
25:11
And, you know, I think we’ll have like
an interesting prototype
490
1511965
3044
그리고 아마, 저희들이 흥미로운
견본을 만들 거라고 생각합니다.
25:15
sometime this year.
491
1515009
1210
올해 중으로요.
25:16
We might have something useful next year,
492
1516219
2627
내년이면 아마 유용한 걸
만들어 낼 겁니다.
25:18
but I think quite likely
within at least two years.
493
1518888
2836
적어도 2년 안에는 가능할 거예요.
25:22
And then we'll see
rapid growth year over year
494
1522308
2169
그리고 그때부턴 매년
가파른 성장을 보게 될 겁니다.
25:24
of the usefulness
of the humanoid robots
495
1524519
2544
휴머노이드 로봇의 유용성에 있어서
25:27
and decrease in cost
and scaling up production.
496
1527105
2711
그리고 비용 절감과,
대규모 생산에 있어서도요.
25:29
CA: Initially just selling to businesses,
497
1529857
1961
CA: 초기에는 단순히
비즈니스 목적으로 판매한다면,
25:31
or when do you picture
you'll start selling them
498
1531859
2670
언제쯤 팔기 시작할 거라고
생각하시나요?
25:34
where you can buy your parents one
for Christmas or something?
499
1534571
4295
크리스마스나 뭐 그런 종류의 선물로
부모님을 위해 하나 구매하려면요?
25:39
EM: I'd say in less than ten years.
500
1539450
1710
EM: 저는 십 년 안쪽이
될 거라고 봅니다.
25:41
CA: Help me on the economics of this.
501
1541160
2837
CA: 재정적인 면도 얘기해봅시다.
25:43
So what do you picture the cost
of one of these being?
502
1543997
3211
그러니까 가격은 얼마 정도 예상하세요?
25:47
EM: Well, I think the cost is actually
not going to be crazy high.
503
1547250
3295
EM: 음, 제 생각에 가격은
미친 정도는 아닐 겁니다.
25:51
Like less than a car.
504
1551921
1251
차보다는 쌀 거예요.
25:53
Initially, things will be expensive
because it'll be a new technology
505
1553172
3254
초창기에, 제품이 비싸긴 하겠지요.
왜냐하면 이건 신기술이고
25:56
at low production volume.
506
1556467
1210
생산량도 적으니까요.
25:57
The complexity and cost of a car
is greater than that of a humanoid robot.
507
1557677
3670
자동차가 휴머노이드 로봇보다는
훨씬 복잡하고 비용도 많이 듭니다.
26:01
So I would expect that it's going
to be less than a car,
508
1561681
4212
그러니까 저는 그게 차보다는
저렴할 거라고 예상할 수 있고요.
26:05
or at least equivalent to a cheap car.
509
1565935
1835
최소한 저렴한 자동차 정도
가격일 겁니다.
26:07
CA: So even if it starts at 50k,
within a few years,
510
1567770
2461
CA: 그러니까 비록 시작은
5만 달러일지라도, 몇 년 안에
26:10
it’s down to 20k or lower or whatever.
511
1570273
2336
2만 달러나 더 낮은 정도로
내려갈 거고
26:13
And maybe for home
they'll get much cheaper still.
512
1573568
2335
그리고 아마도 가정용으로는
훨씬 더 싸지겠군요.
26:15
But think about the economics of this.
513
1575903
1877
그렇지만 경제적인 부분에 대해
생각해봅시다.
26:17
If you can replace a $30,000,
514
1577822
4254
만약 당신이 3만 달러를
26:22
$40,000-a-year worker,
515
1582076
2795
4만 달러 짜리 노동자,
26:24
which you have to pay every year,
516
1584912
1669
매년 그렇게 지불해야만 하는
노동자를 대신해
26:26
with a one-time payment of $25,000
517
1586623
3044
딱, 한 번 2만 5천 달러만
지급하면 되고
26:29
for a robot that can work longer hours,
518
1589667
2920
더 오래 일할 수 있는
로봇에 사용할 수 있다면,
26:32
a pretty rapid replacement
of certain types of jobs.
519
1592629
4004
특정한 직업 분야는
꽤 빨리 대체될 것입니다.
26:36
How worried should
the world be about that?
520
1596674
2211
세상은 여기에 대해
어떻게 대비해야 하는 걸까요?
26:39
EM: I wouldn't worry about the sort of,
putting people out of a job thing.
521
1599344
3503
EM: 저는 사람들을 해고하는 일 같은 건
걱정하려고 하지 않아요.
26:42
I think we're actually going to have,
and already do have,
522
1602889
3336
제 생각에 우리가 이미 겪었고,
지금도 겪고 있는 건
26:46
a massive shortage of labor.
523
1606267
1377
엄청난 노동력 부족입니다.
26:47
So I think we will have ...
524
1607644
2919
그러니까 저는 우리가 직면할 문제는
26:54
Not people out of work,
525
1614067
1209
해고된 사람들이 아니라
26:55
but actually still a shortage
labor even in the future.
526
1615276
2836
미래에도 여전히 부족할
노동력이라고 예상합니다.
26:58
But this really will be
a world of abundance.
527
1618863
4630
하지만 이러한 로봇들로
세상은 매우 풍요로울 수 있고
27:03
Any goods and services will be available
to anyone who wants them.
528
1623534
4964
원하는 모든 사람들이 재화와 서비스를
이용할 수 있을 겁니다.
27:08
It'll be so cheap to have goods
and services, it will be ridiculous.
529
1628790
3211
재화와 서비스를 이용하는 가격이
터무니없이 저렴해질 테니까요.
27:12
CA: I'm presuming it should be possible
to imagine a bunch of goods and services
530
1632043
4046
CA: 그러니까 예상해보자면
많은 재화와 서비스가
27:16
that can't profitably be made now
but could be made in that world,
531
1636089
4421
현재는 수익이 없었어도
그 세계에서는 수익이 난다는 거죠.
27:20
courtesy of legions of robots.
532
1640551
2628
로봇 군단의 도움으로요.
27:23
EM: Yeah.
533
1643179
1460
EM: 네.
27:25
It will be a world of abundance.
534
1645014
1794
풍요로운 세상이 될 거예요.
27:26
The only scarcity
that will exist in the future
535
1646808
2502
미래에도 여전히 희소한 건 오직
27:29
is that which we decide to create
ourselves as humans.
536
1649352
3170
우리가 우리 자신을 인간으로
창조하는 일이지요.
27:32
CA: OK.
537
1652563
1168
CA: 그렇군요.
27:33
So AI is allowing us to imagine
a differently powered economy
538
1653731
4338
그러니까 AI로 인해 우리 경제는
다른 방식으로 힘을 얻게 되고
27:38
that will create this abundance.
539
1658111
2127
그게 풍요로움을
만들어낼 것이라는 뜻이군요.
27:40
What are you most worried
about going wrong?
540
1660279
2086
잘못됐을 경우에
가장 걱정되는 건 뭔가요?
27:42
EM: Well, like I said,
AI and robotics will bring out
541
1662407
6006
EM: 앞서 말씀드렸듯,
AI와 로봇은
27:48
what might be termed the age of abundance.
542
1668454
2544
‘풍요의 시대’로 일컬어질 만한
세상을 가져올 겁니다.
27:51
Other people have used this word,
543
1671332
1960
다른 사람들도 이런 표현을 했었어요.
27:54
and that this is my prediction:
544
1674210
1668
제가 예상하는 바는
27:55
it will be an age of abundance
for everyone.
545
1675920
3212
모두에게 풍족한 시대를 가져올 것이지만
27:59
But I guess there’s ...
546
1679841
2544
하지만 추측키로
28:03
The dangers would be
the artificial general intelligence
547
1683886
4547
위험 가능성은 아마 범용 인공지능이나
28:08
or digital superintelligence decouples
from a collective human will
548
1688474
5256
디지털 초지능이 인간들의
공동 의지로부터 분리되고
28:13
and goes in the direction
that for some reason we don't like.
549
1693771
3504
그게 어떤 이유로 우리가 원치 않는
방향을 향하는 데 있을 겁니다.
28:17
Whatever direction it might go.
550
1697316
2128
어떤 방향으로 가든지 말입니다.
28:20
You know, that’s sort of
the idea behind Neuralink,
551
1700570
3420
아시다시피 뉴럴링크 뒤의 아이디어는
28:24
is to try to more tightly couple
collective human world
552
1704031
3045
공동의 인간 세계를
더 밀접하게 연결하려는 거지요.
28:27
to digital superintelligence.
553
1707076
4463
디지털 초지능과요.
28:33
And also along the way solve a lot
of brain injuries and spinal injuries
554
1713458
5755
그리고 그 덕에 수 많은
뇌와 척추 부상 같은 문제를
28:39
and that kind of thing.
555
1719213
1168
해결했어요.
28:40
So even if it doesn't succeed
in the greater goal,
556
1720423
2336
그러니까 이게 더 원대한
목표를 성취하진 못해도
28:42
I think it will succeed in the goal
of alleviating brain and spine damage.
557
1722759
5588
뇌와 척추의 손상을 완화 시키는
목적에서는 성공할 겁니다.
28:48
CA: So the spirit there is
that if we're going to make these AIs
558
1728347
3045
CA: 그러니까 다시 말하면
매우 똑똑한 AI를 만들게 된다면
28:51
that are so vastly intelligent,
we ought to be wired directly to them
559
1731434
3253
우리는 그들에게 직접
연결될 수 있을 거고
28:54
so that we ourselves can have
those superpowers more directly.
560
1734687
4421
그래서 우리 스스로 더 직접적인
슈퍼파워를 얻을 수 있는 거네요.
28:59
But that doesn't seem to avoid
the risk that those superpowers might ...
561
1739609
4421
하지만 그런 사실이 그 슈퍼파워가
의도치않게 위험한 방향으로
29:05
turn ugly in unintended ways.
562
1745740
2586
흘러갈 위험을 막지는 못할 것 같네요.
29:08
EM: I think it's a risk, I agree.
563
1748326
1626
EM: 위험하죠, 맞아요.
29:09
I'm not saying that I have
some certain answer to that risk.
564
1749994
6256
제가 그런 위험에 정확한 해답을
갖고 있다는 게 아닙니다.
29:16
I’m just saying like
565
1756292
2294
전 그저 이것이 아마도
29:18
maybe one of the things
that would be good
566
1758628
3545
한 가지 방법일 수 있다는 거지요.
29:22
for ensuring that the future
is one that we want
567
1762215
5672
우리가 원하는 미래를
만들 수 있는 좋은 방법이
29:27
is to more tightly couple
568
1767887
3253
좀 더 직접적으로
29:31
the collective human world
to digital intelligence.
569
1771140
3754
공동의 인간 세계를 디지털 지능과
연결하는 것일 수 있다는 겁니다.
29:36
The issue that we face here
is that we are already a cyborg,
570
1776437
4129
현재 직면한 문제는,
우리가 이미 사이보그라는 겁니다.
29:40
if you think about it.
571
1780566
1252
생각해보면,
29:41
The computers are
an extension of ourselves.
572
1781859
3963
컴퓨터는 우리의 확장된 일부이고,
29:46
And when we die, we have,
like, a digital ghost.
573
1786697
3003
우리가 죽으면
디지털 망령이 남습니다.
29:49
You know, all of our text messages
and social media, emails.
574
1789742
3545
우리가 쓴 문자 메시지,
소셜 미디어, 이메일 같은 거요.
29:53
And it's quite eerie actually,
575
1793329
2002
사실 꽤 섬뜩한 일이죠.
29:55
when someone dies but everything
online is still there.
576
1795373
3295
누군가 죽어도 온라인엔
모든 게 여전히 그대로니까요.
29:59
But you say like, what's the limitation?
577
1799001
1919
하지만 사람들은,
제한 범위는 무엇인지
30:00
What is it that inhibits
a human-machine symbiosis?
578
1800962
5171
인간과 기계의 공생을 억제하는 건
무엇인지 같은 걸 묻습니다.
30:06
It's the data rate.
579
1806175
1210
그건 전송 속도지요.
30:07
When you communicate,
especially with a phone,
580
1807385
2169
특히 핸드폰으로 대화할 때,
30:09
you're moving your thumbs very slowly.
581
1809554
2919
사람들은 엄지손가락을
매우 느리게 움직입니다.
30:12
So you're like moving
your two little meat sticks
582
1812515
2878
마치 두 개의 살로 이루어진 막대기를
30:15
at a rate that’s maybe 10 bits per second,
optimistically, 100 bits per second.
583
1815393
5922
초당 10비트 속도, 빨라도 100비트
속도로 움직이는 것과 같죠.
30:21
And computers are communicating
at the gigabyte level and beyond.
584
1821315
5130
컴퓨터는 기가바이트
그 이상의 속도로 통신합니다.
30:26
CA: Have you seen evidence
that the technology is actually working,
585
1826487
3170
CA: 그런 기술이 실제로
작동하고 있다는 증거가 있습니까?
30:29
that you've got a richer, sort of,
higher bandwidth connection, if you like,
586
1829657
3587
더 풍부하고, 더 높은 대역폭이
만들어 지고 있다는 증거 말입니다.
30:33
between like external
electronics and a brain
587
1833286
2836
외부 기기와 뇌 사이 같은 곳에서
30:36
than has been possible before?
588
1836122
1668
이전보다 말이에요.
30:38
EM: Yeah.
589
1838165
1210
EM: 네.
30:41
I mean, the fundamental principles
of reading neurons,
590
1841002
5422
읽기에 관여하는
신경세포의 기본 원리,
30:46
sort of doing read-write on neurons
with tiny electrodes,
591
1846465
3921
그러니까 미세한 전극으로 동작하는
읽기 쓰기에 관여하는 뉴런들은
30:50
have been demonstrated for decades.
592
1850386
2169
수십 년에 걸쳐 시연되어 왔습니다.
30:53
So it's not like the concept is new.
593
1853306
4254
그러니까 개념은 새로운 게 아니에요.
30:57
The problem is that there is
no product that works well
594
1857602
4754
문제는 제대로 동작하는 제품이 없어서
31:02
that you can go and buy.
595
1862398
2503
구매할 수 없다는 데 있죠.
31:04
So it's all sort of, in research labs.
596
1864942
2586
연구실에서만 가능한 거예요.
31:08
And it's like some cords
sticking out of your head.
597
1868738
5672
머리 속에서 튀어나와 있는
전선 같은 겁니다.
31:14
And it's quite gruesome,
and it's really ...
598
1874410
3253
조금 섬뜩하기도 하죠.
그리고 정말로..
31:18
There's no good product
that actually does a good job
599
1878539
4088
좋은 제품이 없어요.
실제로 효율적으로 일하고
31:22
and is high-bandwidth and safe
600
1882627
1876
대역폭도 넓고 그리고 안전하고
31:24
and something actually that you could buy
and would want to buy.
601
1884545
3253
원할 때 살 수 있고
사고 싶어지는 그런 것이요.
31:29
But the way to think
of the Neuralink device
602
1889550
3921
하지만 뉴럴링크 장치는
31:33
is kind of like a Fitbit
or an Apple Watch.
603
1893512
3546
핏빗이나 애플워치 같은 겁니다.
31:37
That's where we take out
sort of a small section of skull
604
1897934
4713
우리 머리의 4분의 1정도의
작은 부분을 꺼내서
31:42
about the size of a quarter,
605
1902647
1584
31:44
replace that with what,
606
1904273
2252
대체 시키는 거예요.
31:46
in many ways really is very much like
a Fitbit, Apple Watch
607
1906525
5673
많은 부분이 핏빗이나 애플워치
31:52
or some kind of smart watch thing.
608
1912239
2378
또 다른 종류의 스마트 워치들과
매우 흡사하지만
31:56
But with tiny, tiny wires,
609
1916035
4171
매우 가느다란 전선들,
32:00
very, very tiny wires.
610
1920247
1877
아주 미세한 전선들을,
32:02
Wires so tiny, it’s hard to even see them.
611
1922124
2044
너무 작아서 보기도 어려운
그런 전선들인 겁니다.
32:05
And it's very important
to have very tiny wires
612
1925044
2210
전선이 정말 정말 얇아야만 합니다.
32:07
so that when they’re implanted,
they don’t damage the brain.
613
1927296
2836
그래야 이식될 때 뇌를
손상 시키지는 않죠.
32:10
CA: How far are you from putting
these into humans?
614
1930132
2878
CA: 이걸 사람한테 적용하기까지
시간이 얼마나 걸릴까요?
32:14
EM: Well, we have put in
our FDA application
615
1934136
4463
EM: 현재 FDA에 신청서를 제출했고요.
32:18
to aspirationally do the first
human implant this year.
616
1938641
4296
올해 첫 번째 인간을 대상으로 한
이식이 이뤄지길 바라고 있습니다.
32:23
CA: The first uses will be
for neurological injuries
617
1943312
3545
CA: 첫 번째 사용은
신경학적 손상이나
32:26
of different kinds.
618
1946899
1293
뭐 그런 것들에 적용이 될 테지만,
32:28
But rolling the clock forward
619
1948192
1543
시계를 좀 더 앞당겨서
32:29
and imagining when people
are actually using these
620
1949777
4046
실제로 이러한 장치를
사용하는 사람들을 상상해 본다면
32:33
for their own enhancement, let's say,
621
1953864
2628
말하자면 일종의
스스로를 강화할 목적으로나
32:36
and for the enhancement of the world,
622
1956534
1877
더 나은 세상을 만들 목적으로
사용하는 사람들 말이죠.
32:38
how clear are you in your mind
623
1958452
1460
머스크씨가 얼마나
확신할 수 있는지 궁금한데요.
32:39
as to what it will feel like
to have one of these inside your head?
624
1959912
5339
이런 장치가 머릿속에 있는 게
어떤 느낌일 지에 대해서 말입니다.
32:45
EM: Well, I do want to emphasize
we're at an early stage.
625
1965251
3920
EM: 우선 저희는 매우 초기 단계에
있다는 점을 강조하고 싶고
32:49
And so it really will be
many years before we have
626
1969171
6048
실제로 오래 걸릴 겁니다.
32:55
anything approximating
a high-bandwidth neural interface
627
1975261
6673
장치가 고대역폭의
신경 인터페이스에 가까워져서
33:01
that allows for AI-human symbiosis.
628
1981934
3670
AI와 인간의 공생이
가능해 질 때까지는 말이죠.
33:07
For many years, we will just be solving
brain injuries and spinal injuries.
629
1987481
4255
수 년에 걸쳐, 저희는 단지
뇌와 척추 손상을 해결하려 할 것이고
33:11
For probably a decade.
630
1991777
2169
십 년이 걸릴지도 모르죠.
33:14
This is not something
that will suddenly one day
631
1994905
3504
어느 날 갑자기 놀라울 정도로
33:18
it will have this incredible
sort of whole brain interface.
632
1998451
4713
완전한 두뇌 인터페이스가
만들어 질 수는 없습니다.
33:25
It's going to be, like I said,
633
2005041
1501
말씀드렸듯이, 아마도
33:26
at least a decade of really
just solving brain injuries
634
2006542
3921
최소 십 년은 걸리겠지요.
뇌 손상과 척추 손상에 관한
문제를 해결하는 데만요.
33:30
and spinal injuries.
635
2010504
2127
33:32
And really, I think you can solve
a very wide range of brain injuries,
636
2012631
3754
매우 넓은 범위의 뇌 질환들을
해결할 수 있을 것으로 봅니다.
33:36
including severe depression,
morbid obesity, sleep,
637
2016385
6799
중증의 우울증, 병적인 비만, 수면문제
33:43
potentially schizophrenia,
638
2023225
1252
잠재적인 조현병과 같이
33:44
like, a lot of things that cause
great stress to people.
639
2024518
3712
사람들에게 엄청난 스트레스를
일으키는 것들 말입니다.
33:48
Restoring memory in older people.
640
2028773
3003
노인들의 기억력을 회복시키기도 하고요.
33:51
CA: If you can pull that off,
that's the app I will sign up for.
641
2031817
3796
CA: 정말로 된다면,
저도 등록해야겠군요.
33:56
EM: Absolutely.
642
2036363
1293
EM: 그럼요.
33:57
CA: Please hurry. (Laughs)
643
2037698
2169
CA: 서둘러줘요.(웃음)
33:59
EM: I mean, the emails that we get
at Neuralink are heartbreaking.
644
2039867
4880
EM: 뉴럴링크를 진행하면서 받는
이메일은 정말 가슴이 아픈데
34:05
I mean, they'll send us
just tragic, you know,
645
2045122
4088
매우 비극적이고요.
34:09
where someone was sort of,
in the prime of life
646
2049251
2336
인생의 중요한 시기에
34:11
and they had an accident on a motorcycle
647
2051629
3795
오토바이 사고를 당하거나
34:15
and someone who's 25, you know,
can't even feed themselves.
648
2055466
5797
아직 스물 다섯 살인데 스스로
밥도 먹을 수 없게 되기도 하죠.
34:21
And this is something we could fix.
649
2061263
2378
이런 문제가
저희가 해결하려는 것들입니다.
34:24
CA: But you have said that AI is one
of the things you're most worried about
650
2064391
3587
CA: 하지만 앞서 얘기했듯, AI는
머스크 씨가 가장 걱정하는 것이고
34:28
and that Neuralink may be one of the ways
651
2068020
2878
뉴럴링크가 하나의 해결책이
될 수 있다고 했습니다.
34:30
where we can keep abreast of it.
652
2070940
3837
우리가 AI를 따라잡을 방법이요.
34:35
EM: Yeah, there's the short-term thing,
653
2075528
3545
EM: 네, 단기적으로는요.
34:39
which I think is helpful on an individual
human level with injuries.
654
2079115
3920
제 예상으로는 부상을 당한 사람들
각자에게 도움을 주겠지만
34:43
And then the long-term thing is an attempt
655
2083077
2544
장기적으로 시도해야 할 건
34:45
to address the civilizational risk of AI
656
2085663
6006
문명에 대한 AI의 위협에
맞서는 것입니다.
34:51
by bringing digital intelligence
657
2091710
3921
디지털 지능과
34:55
and biological intelligence
closer together.
658
2095673
2669
생물 지능을 더 가깝게 만드는
방식을 통해서요.
34:58
I mean, if you think of how
the brain works today,
659
2098384
2377
오늘날 두뇌가 어떻게
작동하고 있는지 생각해 보자면
35:00
there are really two layers to the brain.
660
2100803
2002
뇌에는 두 층이 있어요.
35:02
There's the limbic system and the cortex.
661
2102847
1960
변연계와 피질로 나뉩니다.
35:04
You've got the kind of,
animal brain where --
662
2104849
2127
동물의 뇌와 같은 부분이 있고...
35:06
it’s kind of like the fun part, really.
663
2106976
1877
이 부분이 재미있는데요.
35:08
CA: It's where most of Twitter
operates, by the way.
664
2108853
2502
CA: 대부분의 트위터가
작동되는 곳이죠.
35:11
EM: I think Tim Urban said,
665
2111355
1710
EM: 팀 어반은 이렇게 말했죠.
35:13
we’re like somebody, you know,
stuck a computer on a monkey.
666
2113107
4463
우리는 원숭이에 컴퓨터를
꽂아 넣은 것과 같은 존재라고요.
35:18
You know, so we're like,
if you gave a monkey a computer,
667
2118320
3587
그러니까, 원숭이에게 컴퓨터를 준다면
35:21
that's our cortex.
668
2121949
1210
그게 우리의 대뇌 피질입니다.
35:23
But we still have a lot
of monkey instincts.
669
2123159
2168
그럼에도 여전히 수많은
원숭이의 본능을 지니고 있죠.
35:25
Which we then try to rationalize
as, no, it's not a monkey instinct.
670
2125369
3754
우리는 그게 원숭이의 본능이 아니라고
합리화하려고 하지요.
35:29
It’s something more important than that.
671
2129165
1918
“이건 훨씬 더 중요한 거야”라면서요.
35:31
But it's often just really
a monkey instinct.
672
2131083
2127
하지만 대체로
그냥 원숭이의 본능입니다.
35:33
We're just monkeys with a computer
stuck in our brain.
673
2133252
3378
우리는 단지 뇌에 컴퓨터를
꽂아 넣은 원숭이입니다.
35:38
But even though the cortex
is sort of the smart,
674
2138883
2919
대뇌 피질이 더 똑똑하고
35:41
or the intelligent part of the brain,
675
2141844
1793
지능을 담당하는 뇌의 부분이나
35:43
the thinking part of the brain,
676
2143679
2419
생각을 담당하는 부분이라 하더라도
35:46
I've not yet met anyone
who wants to delete their limbic system
677
2146098
3712
자신의 대뇌 변연계를 없애고 싶어하는
사람을 저는 본 적이 없어요.
35:49
or their cortex.
678
2149852
1168
대뇌 피질도 마찬가지고요.
35:51
They're quite happy having both.
679
2151020
1543
둘 다 가져야 행복합니다.
35:52
Everyone wants both parts of their brain.
680
2152605
2002
모두들 자기 뇌에
두 부분이 모두 있기를 원하죠.
35:56
And people really want their
phones and their computers,
681
2156025
2669
그리고 핸드폰과 컴퓨터도
소유하고 싶어합니다.
35:58
which are really the tertiary,
the third part of your intelligence.
682
2158736
3503
실제로도 사람들의
세 번째 지능을 담당하는 부분이지요.
36:02
It's just that it's ...
683
2162281
1627
그건 마치
36:03
Like the bandwidth,
684
2163908
2294
대역폭과 같은데
36:06
the rate of communication
with that tertiary layer is slow.
685
2166202
4629
세 번째 층과의 통신 속도는
매우 느립니다.
36:11
And it's just a very tiny straw
to this tertiary layer.
686
2171665
3796
매우 작은 빨대가
세 번째 층에 꽂혀있는 것과 같죠.
36:15
And we want to make that tiny
straw a big highway.
687
2175502
2753
저희는 이 작은 빨대를 거대한
고속도로로 만들고 싶습니다.
36:19
And I’m definitely not saying
that this is going to solve everything.
688
2179298
3545
이게 모든 문제를
해결할 거라고 얘기하거나
36:22
Or this is you know,
it’s the only thing --
689
2182885
3503
이게 뭐랄까, 단지 이것만이
36:26
it’s something that might be helpful.
690
2186430
3754
도움을 줄 거라고
얘기하는 게 아닙니다.
36:30
And worst-case scenario,
691
2190517
1711
최악의 시나리오는,
36:32
I think we solve
some important brain injury,
692
2192228
3503
몇 가지 중요한 뇌 손상이나
36:35
spinal injury issues,
and that's still a great outcome.
693
2195773
2586
척추 손상만 해결하는 것이겠지만
여전히 좋은 결과겠지요.
36:38
CA: Best-case scenario,
694
2198359
1167
CA: 최고의 시나리오는,
36:39
we may discover new
human possibility, telepathy,
695
2199568
2419
인간들의 새로운 가능성이나
텔레파시 같은 걸 발견하거나
36:42
you've spoken of, in a way,
a connection with a loved one, you know,
696
2202029
4671
머스크 씨가 언급한 것처럼
사랑하는 이들과 연결된다거나,
36:46
full memory and much faster
thought processing maybe.
697
2206742
5005
완전하고 정확한
기억력 같은 것이 될 테고요.
36:51
All these things.
698
2211747
1335
이 모든 것들이
36:53
It's very cool.
699
2213540
1210
매우 멋지네요.
36:55
If AI were to take down Earth,
we need a plan B.
700
2215542
5423
만약 AI가 지구를 공격하려 한다면,
우리에게 대안이 필요할 것 같은데
37:01
Let's shift our attention to space.
701
2221006
3545
우주로 시선을 돌려보지요.
37:04
We spoke last time at TED
about reusability,
702
2224593
2086
지난 TED에서 우리는
재사용에 관해 얘기했었고
37:06
and you had just demonstrated that
spectacularly for the first time.
703
2226720
3212
머스크 씨는 그걸
극적으로 증명해냈었죠.
37:09
Since then, you've gone on to build
this monster rocket, Starship,
704
2229974
5922
그리고 그때부터 괴물 같은 로켓,
‘스타쉽’을 개발해오고 있지 않습니까?
37:15
which kind of changes the rules
of the game in spectacular ways.
705
2235938
4046
이게 게임의 판도를
극적으로 바꾸게 될 겁니다.
37:20
Tell us about Starship.
706
2240025
1543
스타쉽에 관해 얘기 좀 해주시죠.
37:22
EM: Starship is extremely fundamental.
707
2242486
1877
EM: 스타쉽은 매우 핵심적입니다.
37:24
So the holy grail of rocketry
or space transport
708
2244405
5839
로켓 공학이나 우주 운송의 꿈은
37:30
is full and rapid reusability.
709
2250286
1793
완전하고 빠른 재사용이고,
37:32
This has never been achieved.
710
2252121
1418
한 번도 이뤄진 적이 없습니다.
37:33
The closest that anything has come
is our Falcon 9 rocket,
711
2253580
3337
그런 종류에 가장 근접한 게
저희의 팔콘9 로켓이고
37:36
where we are able to recover
the first stage, the boost stage,
712
2256959
5213
첫 번째 단계, 즉 추진 단계에서
재생이 가능해졌습니다.
37:42
which is probably about 60 percent
of the cost of the vehicle
713
2262214
4630
비용은 전면적인 발사와 비교하면,
60퍼센트 정도입니다.
37:46
of the whole launch, maybe 70 percent.
714
2266885
2920
70퍼센트 정도일 수도 있고요.
37:50
And we've now done that
over a hundred times.
715
2270347
3170
저희는 이걸 벌써
수백 번도 넘게 성공 시켰고
37:53
So with Starship, we will be
recovering the entire thing.
716
2273517
6131
스타쉽에서는 전체 부분을
재사용하게 될 수 있을 겁니다.
37:59
Or at least that's the goal.
717
2279690
1543
최소한 그게 목표이긴 합니다.
38:01
CA: Right.
718
2281275
1209
CA: 그렇군요.
38:02
EM: And moreover,
recovering it in such a way
719
2282526
3128
EM: 더욱이 그런 식의 재사용은
38:05
that it can be immediately re-flown.
720
2285696
2628
즉각적으로 재비행을
가능하게 할 수 있습니다.
38:08
Whereas with Falcon 9, we still need
to do some amount of refurbishment
721
2288365
3462
하지만 팔콘 9의 경우, 어느 정도
38:11
to the booster and
to the fairing nose cone.
722
2291869
2919
추진 로켓과 유성형의 노즈콘 부분을
재정비할 필요가 있는 반면
38:16
But with Starship, the design goal
is immediate re-flight.
723
2296790
4880
스타쉽은 설계 목표가
즉각적 재비행입니다.
38:22
So you just refill
propellants and go again.
724
2302212
3671
추진 연료만 다시 채워 넣으면
다시 비행할 수 있습니다.
38:28
And this is gigantic.
725
2308302
2335
그리고 거대합니다.
38:30
Just as it would be
in any other mode of transport.
726
2310679
2878
다른 종류의 운송 수단처럼 말이죠.
38:33
CA: And the main design
727
2313557
1752
CA: 메인 디자인은
38:35
is to basically take
100 plus people at a time,
728
2315351
6006
기본적으로 동시에
100명 이상 탑승하고
38:41
plus a bunch of things
that they need, to Mars.
729
2321357
3837
그들이 필요한 물건까지 실은 채로
화성에 가는 건데요.
38:45
So, first of all, talk about that piece.
730
2325611
1960
그러면 우선 거기에 대해 질문해보죠.
38:47
What is your latest timeline?
731
2327613
3462
현재 계획은 어떻게 됩니까?
38:51
One, for the first time,
a Starship goes to Mars,
732
2331116
3379
일단, 스타쉽은 화성으로 가고요.
38:54
presumably without people,
but just equipment.
733
2334536
2211
예상하건데, 사람은 탑승하지 않고
장비만 가겠죠.
38:57
Two, with people.
734
2337122
1877
그 다음은, 사람을 싣고 가고
38:59
Three, there’s sort of,
735
2339041
2252
세 번째로,
39:01
OK, 100 people at a time, let's go.
736
2341335
2711
그러니까, 동시에
100명과 함께 가는 건가요?
39:04
EM: Sure.
737
2344546
1126
EM: 맞습니다.
39:05
And just to put the cost
thing into perspective,
738
2345714
3796
비용면에서 보면
39:09
the expected cost of Starship,
739
2349510
4754
스타쉽의 경우
39:14
putting 100 tons into orbit,
740
2354306
2002
100톤을 궤도에 올리는데
39:16
is significantly less
than what it would have cost
741
2356350
4880
지금까지에 비해 상당히 적은 양의
비용을 쓰게 될 겁니다.
39:21
or what it did cost to put our tiny
Falcon 1 rocket into orbit.
742
2361271
4505
매우 작은 팔콘1 로켓을
궤도에 올리는 것보다도 적어요.
39:27
Just as the cost of flying
a 747 around the world
743
2367611
4671
마치 전 세계적으로 이용하는
747 여객기 비용이
39:32
is less than the cost of a small airplane.
744
2372282
2419
작은 비행기 값보다 적은 것처럼요.
39:35
You know, a small airplane
that was thrown away.
745
2375244
2586
쓰고 버려지는 작은 비행기 말입니다.
39:37
So it's really pretty mind-boggling
that the giant thing costs less,
746
2377871
6048
꽤 놀라운 일이죠.
거대한 물체가 더 작은 물체보다
39:43
way less than the small thing.
747
2383961
1460
비용이 훨씬 적다는 것이요.
39:45
So it doesn't use exotic propellants
748
2385421
4587
그래서 스타쉽은 실험적인 추진체나
39:50
or things that are difficult
to obtain on Mars.
749
2390050
2461
화성에서 구하기 어려운
부품들을 쓰지 않습니다.
39:52
It uses methane as fuel,
750
2392928
3962
연료로는 메탄을 사용하고,
39:56
and it's primarily oxygen,
roughly 77-78 percent oxygen by weight.
751
2396890
5798
주로 산소를 이용하는데,
무게의 77~78퍼센트가 산소입니다.
40:03
And Mars has a CO2 atmosphere
and has water ice,
752
2403313
3587
화성에는 이산화 탄소 대기와
물로 된 얼음이 있기 때문에
40:06
which is CO2 plus H2O,
so you can make CH4, methane,
753
2406942
3378
이산화 탄소와 물을 섞으면
화성에서 메탄과 산소를
40:10
and O2, oxygen, on Mars.
754
2410362
1794
만들 수 있습니다.
40:12
CA: Presumably, one of the first tasks
on Mars will be to create a fuel plant
755
2412197
3963
CA: 아마도 화성에서 처음 할 일은
연료 공장을 만드는 일이겠네요.
40:16
that can create the fuel
for the return trips of many Starships.
756
2416201
4255
많은 왕복 우주선들을 위한
연료를 생산할 수 있게요.
40:20
EM: Yes.
757
2420497
1168
EM: 맞습니다.
40:21
And actually, it's mostly
going to be oxygen plants,
758
2421665
2920
그리고 사실상, 대부분은
산소 시설이 될 거예요.
40:24
because it's 78 percent oxygen,
22 percent fuel.
759
2424626
5965
78퍼센트는 산소고,
22퍼센트가 연료인데
40:31
But the fuel is a simple fuel
that is easy to create on Mars.
760
2431300
3712
연료는 화성에서 만들기 쉬운
간단한 연료니까요.
40:35
And in many other parts
of the solar system.
761
2435512
2586
다른 태양계에서도 비슷할 겁니다.
40:38
So basically ...
762
2438098
1293
그러니까, 기본적으로는...
40:39
And it's all propulsive landing,
no parachutes,
763
2439933
3796
모두 추진 착륙이 될 겁니다.
낙하산도 필요 없고,
40:43
nothing thrown away.
764
2443729
1460
버려지는 것도 없겠죠.
40:46
It has a heat shield that’s capable
of entering on Earth or Mars.
765
2446857
6632
지구와 화성으로의 진입이 가능한
열 차폐를 가지고 있어서
40:53
We can even potentially go to Venus.
766
2453530
1752
심지어 금성에 가는 것도 가능합니다
40:55
but you don't want to go there.
767
2455324
1501
누구도 원치는 않겠지만요.
40:56
(Laughs)
768
2456867
1543
(웃음)
40:59
Venus is hell, almost literally.
769
2459161
2210
금성은 말 그대로
지옥 같은 곳이니까요.
41:02
But you could ...
770
2462247
1460
하지만
41:04
It's a generalized method of transport
to anywhere in the solar system,
771
2464041
4838
이건 태양게 어디로든 수송이 가능한
일반화된 운송 방법이고
41:08
because the point at which
you have propellant depo on Mars,
772
2468921
2836
화성에 추진체를 저장하고 있기 때문에
41:11
you can then travel to the asteroid belt
773
2471798
1919
소행성대나
41:13
and to the moons of Jupiter and Saturn
774
2473759
3128
목성과 토성의
위성으로도 갈 수 있고요,
41:16
and ultimately anywhere
in the solar system.
775
2476887
2919
결국 태양계 어디로든 갈 수 있습니다.
41:19
CA: But your main focus
776
2479848
2753
CA: 그렇지만 머스크 씨와
41:22
and SpaceX's main focus is still Mars.
777
2482643
3670
스페이스X가 주력하고 있는 건
여전히 화성이고
41:26
That is the mission.
778
2486313
2211
그게 현재 임무이기 때문에
41:28
That is where most of the effort will go?
779
2488524
3920
거기에 가장 힘을 쏟을 건가요?
41:33
Or are you actually imagining
a much broader array of uses
780
2493278
4672
아니면 훨씬 방대한 여러가지
활용을 구상하고 계신가요?
41:37
even in the coming, you know,
781
2497991
2628
아시다시피, 앞으로
41:40
the first decade or so of uses of this.
782
2500619
3253
한 십 년 정도 이걸 사용했을 때
41:44
Where we could go,
for example, to other places
783
2504498
2252
예컨대 우리는 다른 곳들도
갈 수 있을 테니까요.
41:46
in the solar system to explore,
784
2506750
1919
태양계 어디라도 말이죠.
41:48
perhaps NASA wants to use
the rocket for that reason.
785
2508710
4338
나사는 그런 목적으로
로켓을 이용하길 원할 듯하고요.
41:53
EM: Yeah, NASA is planning to use
a Starship to return to the moon,
786
2513423
5131
EM: 그렇죠. 나사는 달로 돌아갈 때
이용할 우주선을 계획 중입니다.
41:58
to return people to the moon.
787
2518595
1794
사람들을 달로 돌려보내기 위해서요.
42:01
And so we're very honored that NASA
has chosen us to do this.
788
2521139
4422
나사가 이 일을 저희에게 맡긴 걸
매우 영광으로 여기고 있습니다.
42:07
But I'm saying it is a generalized --
789
2527271
4337
하지만 이건 일반화된 것이죠.
42:11
it’s a general solution
790
2531650
2377
일반적 해결 방법입니다.
42:14
to getting anywhere
in the greater solar system.
791
2534027
5172
더 큰 태양계 어디라도 갈 수 있죠.
42:19
It's not suitable for going
to another star system,
792
2539241
2502
다른 행성계로 가는 데는
적절하지 않지만
42:21
but it is a general solution for transport
anywhere in the solar system.
793
2541785
3879
태양계 내 어디라도 수송할 수 있는
일반적인 방법이에요.
42:25
CA: Before it can do any of that,
794
2545706
1585
CA: 그런 것들을 하기 전에
42:27
it's got to demonstrate it can get into
orbit, you know, around Earth.
795
2547332
3295
지구 궤도 진입이 가능하다는 걸
보여야 하는데요.
42:30
What’s your latest advice
on the timeline for that?
796
2550627
5005
그 계획에 대해서 조언을 해주신다면요?
42:35
EM: It's looking promising for us
to have an orbital launch attempt
797
2555632
3921
EM: 궤도 발사를
시도할 수 있을 것으로 보이고요.
42:39
in a few months.
798
2559595
2002
몇 달 내로요.
42:43
So we're actually integrating --
799
2563015
3545
그러니까 저희는 완성 과정이에요.
42:46
will be integrating the engines
into the booster
800
2566602
2961
엔진을 추진 로켓에 합치게 될 겁니다.
42:49
for the first orbital flight
starting in about a week or two.
801
2569605
3586
몇 주 내에 시작될 첫 번째
궤도 비행을 위해서 말이죠.
42:53
And the launch complex
itself is ready to go.
802
2573942
6465
그러고 나면, 발사 복합체도
준비가 되겠지요.
43:00
So assuming we get regulatory approval,
803
2580741
3670
규제 인가를 얻을 수 있을 거고,
43:04
I think we could have an orbital
launch attempt within a few months.
804
2584453
6464
궤도 발사는
몇 달 내에 가능할 겁니다.
43:10
CA: And a radical new technology like this
805
2590959
2002
CA: 이렇게 급진적인 기술은
43:13
presumably there is real risk
on those early attempts.
806
2593003
2544
초기 시도 과정에
리스크가 있기 마련이잖아요.
43:15
EM: Oh, 100 percent, yeah.
807
2595589
1251
EM: 네, 100퍼센트 그렇죠.
43:16
The joke I make all the time
is that excitement is guaranteed.
808
2596882
3837
제가 매번 하는 농담이 있는데,
흥분을 장담한다는 거예요.
43:20
Success is not guaranteed,
but excitement certainly is.
809
2600719
2794
성공은 장담 못하지만,
흥분할 건 확실하죠.
43:23
CA: But the last I saw on your timeline,
810
2603513
2378
CA: 하지만 제가 마지막으로
본 일정에서는
43:25
you've slightly put back the expected date
811
2605932
2962
살짝 기한을 뒤로 미루셨던데
43:28
to put the first human on Mars
till 2029, I want to say?
812
2608935
4380
화성에 첫 번째 인류를
2029년까지 보내겠다고 말이에요.
43:33
EM: Yeah, I mean, so let's see.
813
2613815
3128
EM: 네, 그러니까...
43:36
I mean, we have built a production
system for Starship,
814
2616985
3504
다시 말하면 저희는
우주선을 위한 시스템을 만들어왔고
43:40
so we're making a lot
of ships and boosters.
815
2620489
3295
수많은 우주선과
추진체를 만드는 중이고요.
43:43
CA: How many are you planning
to make actually?
816
2623784
2210
CA: 몇 개나 만들 계획인가요?
43:46
EM: Well, we're currently expecting
to make a booster and a ship
817
2626036
5714
EM: 지금 예상하기로는
한 개의 추진체와 우주선을 만드는데
43:51
roughly every, well, initially,
roughly every couple of months,
818
2631792
3503
대략 2개월 정도가 소요되고,
43:55
and then hopefully by the end
of this year, one every month.
819
2635295
3670
올해 말쯤엔, 한 달에 하나 정도가
되기를 희망하고 있어요.
43:59
So it's giant rockets, and a lot of them.
820
2639007
2711
거대한 로켓이고, 숫자도 많으니까요.
44:01
Just talking in terms
of rough orders of magnitude,
821
2641760
2419
대략적인 크기를 얘기하자면,
44:04
in order to create
a self-sustaining city on Mars,
822
2644179
3504
화성에서 자가 공급이 가능한
도시를 만들기 위해서는
44:07
I think you will need something
on the order of a thousand ships.
823
2647724
4421
대략 천 개의 우주선이
필요할 거라고 예상합니다.
44:12
And we just need a Helen of Sparta,
I guess, on Mars.
824
2652187
6381
화성에서는 스파르타의
헬레네만 있으면 됩니다.
44:19
CA: This is not in most
people's heads, Elon.
825
2659319
2211
CA: 이건 사람들이
흔히 할 수 있는 생각은 아니죠.
44:21
EM: The planet that launched 1,000 ships.
826
2661571
1961
EM: 천 대의 우주선을
발사하는 행성이요.
44:24
CA: That's nice.
827
2664574
1168
CA: 멋지군요.
44:25
But this is not in most people's heads,
828
2665784
1877
대다수의 사람들이
할 법한 생각은 아니잖아요.
44:27
this picture that you have in your mind.
829
2667661
1918
당신이 상상하는 모습은 말이에요.
44:29
There's basically a two-year window,
830
2669621
1752
기본 2년이 걸리고
44:31
you can only really fly to Mars
conveniently every two years.
831
2671373
2919
당신은 유일하게 2년마다 편하게
화성으로 날아갈 수 있는 사람이고요.
44:34
You were picturing that during the 2030s,
832
2674292
4797
당신이 상상했던 건 2030년대에는
44:39
every couple of years,
833
2679089
1376
매 2년마다
44:40
something like 1,000 Starships take off,
834
2680507
3003
1,000대의 우주선이 이륙하면서
44:43
each containing 100 or more people.
835
2683552
1960
각각이 100명이나 더 많은
사람들을 태우고 가는 거죠.
44:45
That picture is just completely
mind-blowing to me.
836
2685512
5464
그러한 모습은 저에겐
매우 놀라운 일이 될 텐데요.
44:51
That sense of this armada
of humans going to --
837
2691393
3378
이러한 인간 함대에 대한 생각이...
44:54
EM: It'll be like "Battlestar
Galactica," the fleet departs.
838
2694813
2878
EM: 그 함대들이 이륙하는 건
꼭 “배틀스타 갤럭티카“같을 겁니다.
44:57
CA: And you think that it can
basically be funded by people
839
2697691
2794
CA: 기본적으로 투자를
받을 수 있을 거라 생각하시는 거죠?
45:00
spending maybe a couple hundred grand
on a ticket to Mars?
840
2700485
3254
화성으로 가는 사람들이 티켓에
20만 달러 정도를 쓰는 방식으로요.
45:03
Is that price about where it has been?
841
2703739
2752
그 가격은 어디서 나온 거죠?
45:07
EM: Well, I think if you say like,
842
2707367
1627
EM: 제 생각에, 그 말씀은
45:08
what's required in order to get
enough people and enough cargo to Mars
843
2708994
4755
충분한 사람과 화물을 화성에 가져오려면
뭐가 필요하냐는 것 같은데요.
45:13
to build a self-sustaining city.
844
2713790
2586
자급자족하는 도시를
건설하기 위해서 말입니다.
45:17
And it's where you have an intersection
845
2717377
1919
그리고 거기서
교집합을 찾을 수 있는데요.
45:19
of sets of people who want to go,
846
2719296
2669
화성에 가기를 원하는
사람들의 교집합이요.
45:21
because I think only a small percentage
of humanity will want to go,
847
2721965
5047
왜냐하면 오직 적은 수의 사람들만
가기를 원할 테고,
45:27
and can afford to go
or get sponsorship in some manner.
848
2727012
3754
비용을 지불하거나 어떤 방식으로든
후원을 얻을 수 있을 테니까 말입니다.
45:31
That intersection of sets, I think,
849
2731391
1710
제 생각에 이러한 교집합은
45:33
needs to be a million people
or something like that.
850
2733101
2461
백만 명 정도의 사람들이 될 거고
45:36
And so it’s what can a million people
afford, or get sponsorship for,
851
2736646
3754
백만 명의 사람들은 비용을 지불하거나
후원을 받을 수 있을 겁니다.
45:40
because I think governments
will also pay for it,
852
2740442
2377
왜냐하면, 정부 또한 지불할 테고
45:42
and people can take out loans.
853
2742819
3003
사람들이 대출을 받을 수도
있을 테니까요.
45:45
But I think at the point
at which you say, OK, like,
854
2745864
3712
하지만 크리스 씨께서
말씀하신 지점에서,
45:49
if moving to Mars costs are,
for argument’s sake, $100,000,
855
2749618
6381
만약에 화성으로 이주하는 비용이
가령 10만 달러라고 한다면
45:56
then I think you know,
almost anyone can work and save up
856
2756041
5172
제 생각에 거의 모든 이들이
일하고 저축하면
46:01
and eventually have $100,000
and be able to go to Mars if they want.
857
2761213
4045
결국 10만 달러를 모아
원할 때 화성에 갈 수 있을 겁니다.
46:05
We want to make it available
to anyone who wants to go.
858
2765300
2669
우리는 누구나 원하면
그게 가능하기를 바랍니다.
46:10
It's very important to emphasize
that Mars, especially in the beginning,
859
2770263
4171
특히 강조되어야 할 점은
화성에 가는 것이 초반에는
46:14
will not be luxurious.
860
2774434
1293
그렇게 고상하고 우아하지는
않을 거라는 점입니다.
46:15
It will be dangerous, cramped,
difficult, hard work.
861
2775727
5672
위험하고, 비좁고,
어렵고, 힘든 일일 겁니다.
46:22
It's kind of like that Shackleton ad
for going to the Antarctic,
862
2782025
3170
새클턴이 남극에 가자고
광고하는 것과 비슷해요.
46:25
which I think is actually not real,
but it sounds real and it's cool.
863
2785237
3336
진짜 같아 보이지는 않지만,
실제처럼 들리고 멋지잖아요.
46:28
It's sort of like, the sales pitch
for going to Mars is,
864
2788865
2878
화성 여행 홍보글은 이런 식일 겁니다.
46:31
"It's dangerous, it's cramped.
865
2791785
2878
“위험하고, 비좁고
46:35
You might not make it back.
866
2795956
1501
돌아오지 못할 수도 있는
46:38
It's difficult, it's hard work."
867
2798750
1543
어렵고, 힘든 여행입니다.”
46:40
That's the sales pitch.
868
2800293
1168
이게 판매 멘트예요.
46:41
CA: Right.
869
2801503
1168
CA: 그렇군요
46:42
But you will make history.
870
2802712
1252
하지만 역사에 남겠죠.
46:44
EM: But it'll be glorious.
871
2804756
1585
EM: 매우 영광스러운 일이겠죠.
46:47
CA: So on that kind of launch rate
you're talking about over two decades,
872
2807050
3462
CA: 그러니까 말씀하시는 그런
약 20년에 걸친 발사 비용으로는,
46:50
you could get your million people
to Mars, essentially.
873
2810554
3628
기본적으로 화성에 갈 백만 명을
모을 수 있다는 거군요.
46:54
Whose city is it?
874
2814224
1126
누구의 도시가 되는 겁니까?
46:55
Is it NASA's city, is it SpaceX's city?
875
2815392
1918
나사? 스페이스X?
46:57
EM: It’s the people of Mars’ city.
876
2817352
1627
EM: 화성 사람들의 도시가 되겠죠.
47:01
The reason for this, I mean,
I feel like why do this thing?
877
2821106
4629
제가 이런 일을 하는 이유는
47:05
I think this is important for maximizing
878
2825735
4338
인류나 자의식의 수명을
극대화 하는 게
47:10
the probable lifespan of humanity
or consciousness.
879
2830115
3044
중요한 것 같기 때문입니다.
47:13
Human civilization could come
to an end for external reasons,
880
2833201
4004
인간 문명은 외부적 원인에 의해
종말을 맞이할 수 있습니다.
47:17
like a giant meteor or super volcanoes
or extreme climate change.
881
2837247
5172
거대한 운석, 강력한 화산 폭발,
극단적인 기후변화 같은 원인으로요.
47:24
Or World War III, or you know,
any one of a number of reasons.
882
2844045
5756
아니면 세계 3차 대전이나,
무수한 원인이 있을 수 있죠.
47:32
But the probable life span
of civilizational consciousness
883
2852929
2878
하지만 문명화된 의식의 기대 수명은
47:35
as we know it,
884
2855849
1585
아시다시피
47:37
which we should really view
as this very delicate thing,
885
2857475
3129
매우 연약한 것으로
여겨야 할 필요가 있습니다.
47:40
like a small candle in a vast darkness.
886
2860645
2711
거대한 어둠 속의 작은 촛불처럼요.
47:43
That is what appears to be the case.
887
2863356
2962
이게 사실이고
47:47
We're in this vast darkness of space,
888
2867777
3379
우리는 우주의 거대한 어둠 속에 있고
47:51
and there's this little
candle of consciousness
889
2871197
3421
이 작은 의식의 촛불은
47:54
that’s only really come about
after 4.5 billion years,
890
2874659
4463
45억 년이 흐른 후에야 나온 것이지만
47:59
and it could just go out.
891
2879164
2002
그대로 꺼져 버릴 수도 있는 거예요.
48:01
CA: I think that's powerful,
892
2881166
1376
CA: 매우 강력하고
48:02
and I think a lot of people
will be inspired by that vision.
893
2882584
2836
많은 이들에게 영감이 될 만한
통찰이군요.
48:05
And the reason you need the million people
894
2885420
2127
그리고 백만 명의 사람들이 필요한 건
48:07
is because there has to be
enough people there
895
2887547
2169
그게 충분한 인원이기 때문이고요.
48:09
to do everything that you need to survive.
896
2889758
2419
화성에서 살아남기 위한
모든 것들을 하기에 말이죠.
48:13
EM: Really, like the critical threshold
is if the ships from Earth stop coming
897
2893136
6840
EM: 만약, 위태로운 일들, 예를 들어
지구에서 우주선이 오기를 멈춘다면요.
48:20
for any reason,
898
2900018
2544
어떤 이유로든 말이죠.
48:22
does the Mars City die out or not?
899
2902604
4379
화성의 도시는 소멸할까요, 괜찮을까요?
48:27
And so we have to --
900
2907400
2086
그래서 우리는 --
48:29
You know, people talk about like,
the sort of, the great filters,
901
2909527
3129
아시다시피, 사람들은
대여과기 같은 얘기를 합니다.
48:32
the things that perhaps, you know,
902
2912697
3087
그건 아마,
48:35
we talk about the Fermi paradox,
and where are the aliens?
903
2915825
2711
페르미 역설에 대해 얘기를 해보면,
그러니까 외계인이 어디 있나요?
48:38
Well maybe there are these
various great filters
904
2918536
2294
그렇다면 아마 엄청난
대여과기가 존재하고
48:40
that the aliens didn’t pass,
905
2920872
1418
외계인들은 그걸 통과하지 못하므로
48:42
and so they eventually
just ceased to exist.
906
2922290
4588
결과적으로 멸종한다는 겁니다.
48:46
And one of the great filters
is becoming a multi-planet species.
907
2926920
3128
그리고 이 대과기의 하나가
다행성간 종이 되는 것입니다.
48:50
So we want to pass that filter.
908
2930674
2210
우리는 대여과기를 통과하기를 원하고
48:54
And I'll be long-dead before
this is, you know, a real thing,
909
2934302
6006
그리고 아마 그 전에 나는 죽겠지만요
49:00
before it happens.
910
2940350
1251
진짜 이뤄지기 전에요.
49:01
But I’d like to at least see us make
great progress in this direction.
911
2941601
5297
하지만 전 최소한 인류가 이런 식으로
위대하게 진화하는 걸 보고 싶어요.
49:07
CA: Given how tortured
the Earth is right now,
912
2947315
2503
CA: 지금 지구가 얼마나 고문 받고 있는지,
49:09
how much we're beating each other up,
913
2949859
2878
우리가 서로 얼마나
싸우고 있는지 생각해보면
49:12
shouldn't there be discussions going on
914
2952737
2795
논의도 필요하지 않겠습니까?
49:15
with everyone who is dreaming
about Mars to try to say,
915
2955573
4171
화성에 대한 꿈을 꾸고 있는
모든 사람들에게 말해야지요.
49:19
we've got a once
in a civilization's chance
916
2959786
5172
우리는 문명적으로
49:24
to make some new rules here?
917
2964958
2002
새로운 규칙을 만들 수 있는
단 한번의 기회를 가지고 있다는 걸요.
49:27
Should someone be trying
to lead those discussions
918
2967002
3753
누가 그 논의를 주도해야 할까요?
49:30
to figure out what it means for this
to be the people of Mars' City?
919
2970755
3879
이러한 논의가 화성의 사람들에게
어떤 의미지 이해 시키려면 말입니다.
49:35
EM: Well, I think ultimately
920
2975093
1376
EM: 제 생각엔 궁극적으로
49:36
this will be up to the people
of Mars to decide
921
2976469
2211
화성 사람들의 선택에 달려있을 겁니다.
49:38
how they want to rethink society.
922
2978722
4045
그들이 사회에 대해 어떻게
다시 생각하기를 원하는지는 말이죠.
49:43
Yeah there’s certainly risk there.
923
2983101
1627
분명히 리스크들이 있어요.
49:45
And hopefully the people of Mars
will be more enlightened
924
2985395
4630
그리고 바라건대
화성의 사람들은 좀 더 계몽되어 있고,
49:50
and will not fight
amongst each other too much.
925
2990066
2711
서로가 심하게 다투지
않았으면 좋겠군요.
49:54
I mean, I have some recommendations,
926
2994279
1752
제가 추천 하자면요,
49:56
which people of Mars
may choose to listen to or not.
927
2996031
3962
화성의 사람들이
듣고자 할 수도 있고 아닐 수도 있지만
50:00
I would advocate for more
of a direct democracy,
928
3000035
2794
저는 직접 민주주의를 더 많이
들이는 걸 옹호하는 편입니다.
50:02
not a representative democracy,
929
3002829
2211
간접 민주주의가 아니라요.
50:05
and laws that are short enough
for people to understand.
930
3005040
2711
그리고 사람들이 이해 할 만큼
짧은 법이 있어야 합니다.
50:08
Where it is harder to create laws
than to get rid of them.
931
3008168
5380
법을 삭제하는 것 보다
법을 만드는 게 더 어려워야 하고요.
50:14
CA: Coming back a bit nearer term,
932
3014424
1668
CA: 좀 더 가까운 미래의 얘기로
돌아가 보자면,
50:16
I'd love you to just talk a bit
about some of the other possibility space
933
3016134
3462
다른 잠재력을 지닌 우주에 대해
말씀해주시면 좋겠군요.
50:19
that Starship seems to have created.
934
3019596
3712
스타쉽이 만들어 낼
일들에 대해 말입니다.
50:23
So given --
935
3023349
1377
그러니까
50:24
Suddenly we've got this ability
to move 100 tons-plus into orbit.
936
3024768
3503
우리는 예상치 못하게 100톤 이상을
궤도에 올려놓을 수 있게 되었는데,
50:29
So we've just launched
the James Webb telescope,
937
3029230
3170
제임스웹도 발사됐고요.
50:32
which is an incredible thing.
938
3032400
2002
멋진 발명품이죠.
50:34
It's unbelievable.
939
3034444
1126
매우 놀랐어요.
50:35
EM: Exquisite piece of technology.
940
3035612
1793
EM: 기술이 만든 역작이죠.
50:37
CA: Exquisite piece of technology.
941
3037447
1627
CA: 기술이 만들어낸 역작.
50:39
But people spent two years trying
to figure out how to fold up this thing.
942
3039115
3504
그렇지만 제임스웹을 어떻게 접을지
생각해내는 데만 이년이 걸렸어요.
50:42
It's a three-ton telescope.
943
3042660
1335
제임스웹은 3톤에 불과하고요.
50:44
EM: We can make it a lot easier
if you’ve got more volume and mass.
944
3044037
3170
EM: 부피와 질량이 더 클 때
더 쉽습니다.
50:47
CA: But let's ask a different question.
945
3047207
1877
CA: 다른 질문을 해봅시다.
50:49
Which is, how much more powerful
a telescope could someone design
946
3049084
6756
예를 들어 망원경은
얼마나 더 강력할 수 있나요?
50:55
based on using Starship, for example?
947
3055882
2878
스타쉽을 기반으로 한다면 말입니다.
50:59
EM: I mean, roughly, I'd say it's probably
an order of magnitude more resolution.
948
3059469
4546
EM: 대략적으로 얘기해보자면,
아마도 해상도가 훨씬 좋아질 겁니다.
51:04
If you've got 100 tons
and a thousand cubic meters volume,
949
3064057
3211
무게가 100톤이 되고
부피가 천 세제곱미터에 이른다면
51:07
which is roughly what we have.
950
3067268
1585
우리가 할 수 있는 게
대략 그 정도입니다.
51:08
CA: And what about other exploration
through the solar system?
951
3068895
3545
CA: 그렇다면 태양계 다른 곳을
탐사하는 일은 어떻게 될까요?
51:12
I mean, I'm you know --
952
3072482
2169
그러니까 --
51:14
EM: Europa is a big question mark.
953
3074692
2670
EM: 유로파가 꽤나 궁금한 곳이죠.
51:17
CA: Right, so there's an ocean there.
954
3077403
1794
CA: 그렇죠. 거기엔 바다가 있고,
51:19
And what you really want to do
is to drop a submarine into that ocean.
955
3079239
3295
당신은 그 바다에
잠수함을 넣어보길 원하잖아요.
51:22
EM: Maybe there's like,
some squid civilization,
956
3082534
2294
EM: 아마 거기엔 오징어나 두족류들의
51:24
cephalopod civilization
under the ice of Europa.
957
3084869
3212
문명 같은 게 있을지 모르죠.
유로파의 얼음 밑에요.
51:28
That would be pretty interesting.
958
3088123
1626
꽤 흥미롭죠.
51:29
CA: I mean, Elon, if you could take
a submarine to Europa
959
3089749
2711
CA: 머스크 씨가 유로파에
잠수함을 가져갈 수 있고
51:32
and we see pictures of this thing
being devoured by a squid,
960
3092460
3629
오징어에게 잡아먹히는 모습을
우리가 보게 된다면,
51:36
that would honestly be
the happiest moment of my life.
961
3096131
2544
제 생에서 가장 즐거운 일이
될 듯하네요.
51:38
EM: Pretty wild, yeah.
962
3098716
1377
EM: 꽤 거친데요.
51:40
CA: What other possibilities
are out there?
963
3100426
2795
CA: 다른 가능성들은 뭐가 있을까요?
51:43
Like, it feels like if you're going to
create a thousand of these things,
964
3103263
4379
예컨대, 만약에 이런 우주선
천 대를 만들고
51:47
they can only fly to Mars every two years.
965
3107642
3212
격년으로만 화성에 갈 수 있다면
51:50
What are they doing the rest of the time?
966
3110895
2169
그 우주선들은 남는 시간엔 뭘 하죠?
51:53
It feels like there's this
explosion of possibility
967
3113106
4671
가능한 것들이 넘쳐날 것 같아요.
51:57
that I don't think people
are really thinking about.
968
3117777
2461
사람들이 여기에 대해서는
잘 생각지 않는 것 같아서요.
52:00
EM: I don't know, we've certainly
got a long way to go.
969
3120238
2628
EM: 잘 모르겠어요.
저희는 갈 길이 멀고,
52:02
As you alluded to earlier,
we still have to get to orbit.
970
3122866
2752
아까 언급해주셨듯, 우리는
궤도에 우선 울라야 하고요.
52:05
And then after we get to orbit,
971
3125618
1752
궤도에 오른다면,
52:07
we have to really prove out and refine
full and rapid reusability.
972
3127412
6006
완전하고 재빠른 재사용에 대해
증명하고 다듬어 나갈 필요가 있고요.
52:14
That'll take a moment.
973
3134085
1210
거기까지도 시간이 걸릴 겁니다.
52:19
But I do think we will solve this.
974
3139090
1752
하지만 여전히 할 수 있으리라 믿고요.
52:22
I'm highly confident
we will solve this at this point.
975
3142969
2711
저는 우리가
해결할 수 있다고 확신해요.
52:26
CA: Do you ever wake up with the fear
976
3146014
1793
CA: 아침에 두려워하면
깨어나 본 일이 있나요?
52:27
that there's going to be this
Hindenburg moment for SpaceX where ...
977
3147849
3462
스페이스 X에 힌덴부르크 대참사 같은
일이 있으면 어쩌지 하면서요.
52:31
EM: We've had many Hindenburg.
978
3151811
1460
EM: 이미 그런 일이 많았어요.
52:33
Well, we've never had Hindenburg moments
with people, which is very important.
979
3153313
3670
물론, 인명 사고는 전혀 없었지만요,
이건 매우 중요하고
52:37
Big difference.
980
3157025
1251
큰 차이가 있는거니까요.
52:38
We've blown up quite a few rockets.
981
3158776
1710
폭파해버린 로켓이 꽤 있었지만요.
52:40
So there's a whole compilation online
that we put together
982
3160486
3504
온라인에는 우리의 그런 일들과
다른 데서 벌어진 것들의
52:44
and others put together,
983
3164032
1710
모음집이 있는데
52:45
it's showing rockets are hard.
984
3165742
1960
로켓을 만든다는 게
어렵다는 걸 보여주죠.
52:47
I mean, the sheer amount of energy
going through a rocket boggles the mind.
985
3167744
3795
로켓에 들여야 하는
순수한 에너지의 양은 압도적이에요.
52:51
So, you know, getting out
of Earth's gravity well is difficult.
986
3171581
3503
그러니까, 아시다시피 지구 중력을
탈출하는 일은 꽤 어렵습니다.
52:55
We have a strong gravity
and a thick atmosphere.
987
3175126
2377
지구 중력은 강하고,
대기는 두텁습니다.
52:59
And Mars, which is less than 40 percent,
988
3179422
3921
화성의 경우는
여기의 40퍼센트도 채 안됩니다.
53:03
it's like, 37 percent of Earth's gravity
989
3183426
2711
지구 중력의 37퍼센트 정도지요.
53:06
and has a thin atmosphere.
990
3186179
1626
대기층도 훨씬 얕고요.
53:08
The ship alone can go all the way
991
3188097
2002
우주선이 홀로
53:10
from the surface of Mars
to the surface of Earth.
992
3190141
2419
화성 표면으로부터 지구의 지상으로
갈 수 는 있지만,
53:12
Whereas getting to Mars requires
a giant booster and orbital refilling.
993
3192602
4755
반면에 화성으로 가기 위해서는
큰 로켓과 궤도 급유가 필요하고요.
53:17
CA: So, Elon, as I think more
about this incredible array of things
994
3197774
4796
CA: 저는 이 놀라운 것들에 대해
생각할 수록 말이죠.
53:22
that you're involved with,
995
3202612
1835
일론이 참여하고 있는 이러한 것들에서
53:24
I keep seeing these synergies,
996
3204489
4296
시너지가 보이는데
53:28
to use a horrible word,
997
3208826
1877
끔찍한 단어를 써보자면 말입니다.
53:30
between them.
998
3210745
1168
그들 사이에
53:31
You know, for example,
999
3211955
1167
예컨대,
53:33
the robots you're building from Tesla
could possibly be pretty handy on Mars,
1000
3213122
5756
테슬라에서 개발중인 로봇은
아마 화성에서 유용하겠죠.
53:38
doing some of the dangerous
work and so forth.
1001
3218920
2169
위험한 일 같은 걸 하니까요.
53:41
I mean, maybe there's a scenario
where your city on Mars
1002
3221089
2669
제 말은, 아마 이런 시나리오가
있지 않을까요?
53:43
doesn't need a million people,
1003
3223758
1460
화성의 도시가 백만의 사람들은
필요로 하지 않는 거죠.
53:45
it needs half a million people
and half a million robots.
1004
3225218
2711
그 절반만 있으면
절반은 로봇으로 대체하는 거예요.
53:47
And that's a possibility.
1005
3227971
1835
그럴 수도 있는데,
53:49
Maybe The Boring Company could play a role
1006
3229847
2211
보링 컴퍼니가
53:52
helping create some of the subterranean
dwelling spaces that you might need.
1007
3232100
5380
필요한 지하 주거 공간을 만드는
역할을 하는 겁니다.
53:57
EM: Yeah.
1008
3237480
1210
EM: 네.
53:58
CA: Back on planet Earth,
1009
3238982
1501
CA: 지구 얘기로 돌아와 보자면
54:00
it seems like a partnership
between Boring Company and Tesla
1010
3240525
3211
보링 컴퍼니와 테슬라는
동업 관계로 보이고
54:03
could offer an unbelievable deal to a city
1011
3243778
3879
도시에 엄청난 거래들을
제공할 수 있을 듯한데
54:07
to say, we will create for you
a 3D network of tunnels
1012
3247699
4504
말해보자면 3D 네트워크의
터널이 지어진다면
54:12
populated by robo-taxis
1013
3252245
2252
거긴 로봇 택시로 채워질 거고
54:14
that will offer fast, low-cost
transport to anyone.
1014
3254539
4254
빠르고, 비용은 절감되고
누구나 수송할 수 있겠지요.
54:18
You know, full self-driving may
or may not be done this year.
1015
3258835
2878
완전 자율 주행은 올해 안에
이뤄질지 모르지만 말입니다.
54:21
And in some cities,
like, somewhere like Mumbai,
1016
3261713
2794
어떤 도시들,
예컨대 뭄바이 같은 곳에선
54:24
I suspect won't be done for a decade.
1017
3264549
2043
십 년 내로 그런 일이 일어나기는
어렵겠지만요.
54:26
EM: Some places are more
challenging than others.
1018
3266634
2294
EM: 어떤 곳들은 다른 곳들에 비해서
훨씬 까다롭습니다.
54:28
CA: But today, today,
with what you've got,
1019
3268928
2378
CA: 하지만 오늘, 당신이 해낸 일들로
54:31
you could put a 3D network
of tunnels under there.
1020
3271306
4254
지하에 3D 네트워크의
터널을 만들 수 있죠.
54:35
EM: Oh, if it’s just in a tunnel,
that’s a solved problem.
1021
3275601
2795
EM: 물론 단순한 터널 내 주행이라면
문제가 없지요.
54:38
CA: Exactly, full self-driving
is a solved problem.
1022
3278438
2502
CA: 그렇지요. 완전 자율 주행은
해결된 문제가 됩니다.
54:40
To me, there’s amazing synergy there.
1023
3280982
3045
그러니까, 저는
놀라운 시너지가 있는 듯해요.
54:44
With Starship,
1024
3284068
1752
스타쉽에는요.
54:45
you know, Gwynne Shotwell talked
about by 2028 having from city to city,
1025
3285820
5339
그윈 쇼트웰이 이런 얘기를 했는데,
2028년까지 도시에서 도시로
54:51
you know, transport on planet Earth.
1026
3291200
1752
수송하는 걸 지구에서
가능케 할 거라고 말이죠.
54:52
EM: This is a real possibility.
1027
3292952
1627
EM: 그건 진짜 가능해요.
54:57
The fastest way to get
from one place to another,
1028
3297290
2961
한 장소에서 다른 장소로 가는
가장 빠른 방법은,
55:00
if it's a long distance, is a rocket.
1029
3300293
1793
특히 장거리라면, 답은 로켓이죠.
55:03
It's basically an ICBM.
1030
3303087
1377
이건 기본적으로는 ICBM이에요.
55:05
CA: But it has to land --
1031
3305673
1335
CA: 하지만 착륙은...
55:07
Because it's an ICBM,
it has to land probably offshore,
1032
3307675
3879
이건 ICBM이니까,
연안에 착륙해야만 하죠.
55:11
because it's loud.
1033
3311596
1168
소음이 매우 클 테니까요.
55:12
So why not have a tunnel
that then connects to the city with Tesla?
1034
3312805
6632
그러니 테슬라로 도시를 연결하기보다는
터널을 짓는 게 낫지 않나요?
55:20
And Neuralink.
1035
3320897
1126
그리고, 뉴럴링크의 경우
55:22
I mean, if you going to go to Mars
1036
3322065
1626
화성에 가게 된다면,
55:23
having a telepathic connection
with loved ones back home,
1037
3323733
2878
고향의 사랑하는 이들과
텔레파시로 연결될 수 있을 거고요.
55:26
even if there's a time delay...
1038
3326611
1501
시간에서는 지연이 발생해도 말입니다.
55:29
EM: These are not intended
to be connected, by the way.
1039
3329238
4088
EM: 서로 연결되는 건
의도한 바는 아니지만
55:33
But there certainly could be
some synergies, yeah.
1040
3333326
2419
시너지는 확실히 있을 거예요.
55:35
CA: Surely there is a growing argument
1041
3335787
2294
CA: 분명 논의들이 커지고 있고
55:38
that you should actually put
all these things together
1042
3338081
2711
당신은 이 모든 것들을 한 데 모아
55:40
into one company
1043
3340792
2127
하나의 회사에 넣었는데
55:42
and just have a company
devoted to creating a future
1044
3342960
4296
미래를 창조하는 일에
헌신하는 회사는
55:47
that’s exciting,
1045
3347298
1460
매우 흥미롭고
55:48
and let a thousand flowers bloom.
1046
3348758
1627
여러 일들이 각축전을 벌이는 거죠.
55:50
Have you been thinking about that?
1047
3350426
1627
이런 생각 해본 적 있으실까요?
55:53
EM: I mean, it is tricky because Tesla
is a publicly-traded company,
1048
3353429
3253
EM: 까다로운 얘기인데,
테슬라는 상장 기업이고
55:56
and the investor base of Tesla and SpaceX
1049
3356724
5255
테슬라와 스페이스 X의 투자자 기반은
56:02
and certainly Boring Company
and Neuralink are quite different.
1050
3362021
3379
보링 컴퍼니와
뉴럴링크의 것과는 다릅니다.
56:05
Boring Company and Neuralink
are tiny companies.
1051
3365441
2503
보링 컴퍼니와 뉴럴링크는
작은 회사예요.
56:08
CA: By comparison.
1052
3368569
1418
CA: 상대적으로는요.
56:10
EM: Yeah, Tesla's got 110,000 people.
1053
3370321
3629
EM: 네, 테슬라는
직원이 11만 명이고,
56:14
SpaceX I think is around 12,000 people.
1054
3374283
2503
스페이스X는 아마
1만 2천명 정도일 거예요.
56:17
Boring Company and Neuralink
are both under 200 people.
1055
3377161
4546
보링 컴퍼니와 뉴럴링크는
200명 이하입니다.
56:21
So they're little, tiny companies,
1056
3381749
3170
그러니 매우 작은 회사들이죠.
56:24
but they will probably
get bigger in the future.
1057
3384961
2252
미래에는 덩치가 커지겠지만요.
56:27
They will get bigger in the future.
1058
3387213
1710
미래에는 더 커질 겁니다.
56:29
It's not that easy to sort
of combine these things.
1059
3389632
2544
그런 것들의 결합은
쉬운 일은 아닙니다.
56:33
CA: Traditionally, you have said
that for SpaceX especially,
1060
3393761
2878
CA: 전통적으로, 머스크 씨께서는
특히 스페이스X 관련해서
56:36
you wouldn't want it public,
1061
3396639
1418
기업 공개를 원하지 않는다고
해왔지 않습니까?
56:38
because public investors wouldn't support
the craziness of the idea
1062
3398057
4296
왜냐하면 공개 투자자들은
과격한 생각들을 지지하지 않으니까요.
56:42
of going to Mars or whatever.
1063
3402395
1418
화성에 가는 일이나 뭐 그런 것들요.
56:43
EM: Yeah, making life multi-planetary
1064
3403813
2044
EM: 네, 다행성에서의 생존은
56:45
is outside of the normal time horizon
of Wall Street analysts.
1065
3405898
5881
월스트리트 분석가들의
평범한 시각에는 벗어나는 거니까요.
56:51
(Laughs)
1066
3411779
1001
(웃음)
56:52
To say the least.
1067
3412864
1209
최소한요.
56:54
CA: I think something's changed, though.
1068
3414073
2586
CA: 그럼에도 제가 보기엔
변화가 있었던 듯한데,
56:56
What's changed is that Tesla is now
so powerful and so big
1069
3416701
2753
달라진 건, 테슬라는
이제 매우 강력하고 크고
56:59
and throws off so much cash
1070
3419495
2461
그리고 많은 돈을 쏟아부어서
57:01
that you actually could
connect the dots here.
1071
3421998
3503
이러한 점들을
연결할 수 있게 되었다는 겁니다.
57:05
Just tell the public that x-billion
dollars a year, whatever your number is,
1072
3425501
4546
단순히 대중에게
일 년에 x억 달러라고 말해봐요.
57:10
will be diverted to the Mars mission.
1073
3430089
3420
얼마가 되든, 그게 화성 임무에
사용될 거라고 말입니다.
57:13
I suspect you'd have massive
interest in that company.
1074
3433551
3462
저는 당신이 그런 회사에
엄청 관심이 있어 보이고
57:17
And it might unlock a lot
more possibility for you, no?
1075
3437054
4922
많은 가능성을 열어줄 거라고
생각하는데, 그렇지 않나요?
57:22
EM: I would like to give the public access
to ownership of SpaceX,
1076
3442018
5797
저는 일반인들에게 스페이스X의
소유권을 나눠주고 싶지만요.
57:27
but I mean the thing that like,
1077
3447815
2711
하지만,
57:30
the overhead associated
with a public company is high.
1078
3450568
5130
공개 기업엔 들어가는
간접비용이 매우 커요.
57:38
I mean, as a public company,
you're just constantly sued.
1079
3458284
2711
그러니까, 주식 공개 회사에서는
끝없이 고소 당하고,
57:41
It does occupy like, a fair bit of ...
1080
3461037
3003
그게 꽤 많이... 차지하죠.
57:45
You know, time and effort
to deal with these things.
1081
3465958
3546
거기 들어가는
시간과 노력이 있으니까요.
57:49
CA: But you would still only have one
public company, it would be bigger,
1082
3469504
3628
CA: 여전히 공개 기업은
하나고, 그게 더 커지고
57:53
and have more things going on.
1083
3473174
1752
더 많은 일이 있을 테지만
57:54
But instead of being
on four boards, you'd be on one.
1084
3474967
2711
4개의 이사회 대신에
하나만 유지하겠다는 거군요.
57:57
EM: I'm actually not even on the Neuralink
or Boring Company boards.
1085
3477720
3337
EM: 사실 저는 뉴럴링크나 보링 컴퍼니의
이사도 아니에요.
58:02
And I don't really attend
the SpaceX board meetings.
1086
3482099
3671
그리고 스페이스X의 이사진 회의에
참석하지도 않고요.
58:06
We only have two a year,
1087
3486103
1210
회의는 일 년에 두 번밖에 안하니까
58:07
and I just stop by and chat for an hour.
1088
3487313
2211
잠깐 들러서 한 시간 정도
이야기를 나누기만 하죠.
58:13
The board overhead for a public
company is much higher.
1089
3493110
2837
공개 기업의 이사회엔
더 많은 비용이 필요하고요.
58:15
CA: I think some investors probably worry
about how your time is being split,
1090
3495988
3712
CA: 제 생각에 몇몇 투자자들은 아마
당신의 시간 분배를 걱정하겠는데요.
58:19
and they might be excited
by you know, that.
1091
3499742
2669
그리고 아마 흥분할지도 모르고요.
58:22
Anyway, I just woke up the other day
1092
3502495
3253
어쨌든, 저는 며칠 전에 깨어나서는
이런 생각을 한 거예요.
58:25
thinking, just, there are so many ways
in which these things connect.
1093
3505790
3420
이런 것들을 연결할
엄청 많은 방법이 있겠구나 하고요.
58:29
And you know,
just the simplicity of that mission,
1094
3509252
3837
그리고 이 임무의 단순함,
58:33
of building a future that is worth
getting excited about,
1095
3513130
3546
기대 가치가 있는 미래를
건설하는 그 임무가
58:36
might appeal to an awful lot of people.
1096
3516676
3461
엄청난 사람들에게
호소력이 있을 거라고 말입니다.
58:41
Elon, you are reported by Forbes
and everyone else as now, you know,
1097
3521013
5381
일론은 포브스가 기사로 쓰기도 했고
다들 알다시피
58:46
the world's richest person.
1098
3526435
1752
세계에서 가장 부유한 사람이잖아요.
58:48
EM: That’s not a sovereign.
1099
3528187
1293
EM: 그게 최고 권력을
의미하지는 않아요.
58:49
CA: (Laughs)
1100
3529564
1001
CA: (웃음)
58:50
EM: You know, I think it’s fair to say
1101
3530606
1835
EM: 이렇게 얘기하는 게
좋을 듯한데,
58:52
that if somebody is like, the king
or de facto king of a country,
1102
3532483
4671
만약 누군가가, 말하자면
어떤 나라의 왕이라면 말입니다.
58:57
they're wealthier than I am.
1103
3537154
1961
그들이 저보다 부자예요.
58:59
CA: But it’s just harder to measure --
1104
3539323
2711
CA: 하지만 측정은 어렵지만
59:02
So $300 billion.
1105
3542285
1418
3000억 달러라면,
59:03
I mean, your net worth on any given day
1106
3543744
3838
그러니까, 일론의 순 자산은
어떤 날이든
59:07
is rising or falling
by several billion dollars.
1107
3547623
3045
몇십억 달러씩 오르내리죠.
59:10
How insane is that?
1108
3550710
2127
정말 이상하네요.
59:12
EM: It's bonkers, yeah.
1109
3552878
1168
EM: 완전 미쳤죠.
59:14
CA: I mean, how do you handle
that psychologically?
1110
3554088
2586
CA: 심리적으로는 어떻게
그런 걸 다스리는 건가요?
59:16
There aren't many people in the world
who have to even think about that.
1111
3556674
3503
세상엔 심지어 그런 생각을
해 볼 수 있는 사람도 많지 않죠.
59:20
EM: I actually don't think
about that too much.
1112
3560177
2211
EM: 사실 거기에 대해
많이 생각하지는 않아요.
59:22
But the thing that is
actually more difficult
1113
3562430
3587
하지만 더 어렵고
59:26
and that does make sleeping difficult
1114
3566058
1877
그리고 잠 못 자게 만드는 일은
59:27
is that, you know,
1115
3567977
3378
아시다시피
59:31
every good hour or even minute
1116
3571397
3587
모든 시간,
59:35
of thinking about Tesla and SpaceX
1117
3575026
4421
테슬라와 스페이스X에 대해
생각하는 모든 시간이
59:39
has such a big effect on the company
1118
3579447
2502
그들 회사에 큰 영향을 줍니다.
59:41
that I really try to work
as much as possible,
1119
3581991
3920
그래서 저는 정말로
가능한한 많이 일하려고 하고요.
59:45
you know, to the edge
of sanity, basically.
1120
3585911
3129
정신적으로 괜찮은 순간에는 말이죠.
59:49
Because you know,
Tesla’s getting to the point where
1121
3589081
3337
왜냐하면,
테슬라가 향하고 있는 지점은
59:54
probably will get
to the point later this year,
1122
3594920
2211
올해 후반이 되면 다다르게 될 거고,
59:57
where every high-quality
minute of thinking
1123
3597131
5047
모든 높은 수준의 생각이
60:02
is a million dollars impact on Tesla.
1124
3602219
3671
테슬라에는 백만 달러의
영향력을 주니까요.
60:08
Which is insane.
1125
3608517
1544
미친 일이죠.
60:13
I mean, the basic, you know,
if Tesla is doing, you know,
1126
3613272
4046
기본적으로, 테슬라가
60:17
sort of $2 billion a week,
let’s say, in revenue,
1127
3617360
3920
20억 달러를 한 주에 벌어들인다면,
60:21
it’s sort of $300 million a day,
seven days a week.
1128
3621280
4713
하루에는 3억 달러입니다.
일주일은 7일이니까.
60:26
You know, it's ...
1129
3626535
1335
그건..
60:28
CA: If you can change that by five percent
in an hour’s brainstorm,
1130
3628829
5548
CA: 한 시간의 브레인스토밍으로
그 중 5%를 바꿀 수 있다면,
60:34
that's a pretty valuable hour.
1131
3634418
3128
꽤 값진 시간이네요.
60:37
EM: I mean, there are many instances
where a half-hour meeting,
1132
3637546
4797
EM: 30분 정도 회의를
하는 경우가 많고,
60:42
I was able to improve
the financial outcome of the company
1133
3642385
3378
재무 결과도 개선 시킬 수 있었죠.
60:45
by $100 million
in a half-hour meeting.
1134
3645763
3629
30분 미팅으로 1억 달러 정도를요.
60:50
CA: There are many other people out there
1135
3650476
2044
CA: 이런 사람들이 많이 있는데
60:52
who can't stand
this world of billionaires.
1136
3652520
2752
세상의 억만장자들에게
적대적인 이들이 있죠.
60:55
Like, they are hugely
offended by the notion
1137
3655314
3921
그 사람들은 이런 개념에
화가 난 듯 보이는데요,
60:59
that an individual can have
the same wealth as, say,
1138
3659276
4588
한 개인이 소유한 재산이
세상에서 가장 가난한 사람 십억 명
61:03
a billion or more
of the world's poorest people.
1139
3663906
3212
또는 그 이상이 소유한 재산과
같을 수 있다는 개념 말입니다.
61:07
EM: If they examine sort of --
1140
3667159
2419
EM: 만약 그 분들이
조사를 좀 해본다면
61:09
I think there's some axiomatic flaws
that are leading them to that conclusion.
1141
3669578
5047
제 생각에 그런 결론이 나오는 데에는
명백한 오류가 있는 듯합니다.
61:15
For sure, it would be very
problematic if I was consuming,
1142
3675167
4922
확실히 이런 경우라면 문제일 겁니다.
61:20
you know, billions of dollars a year
in personal consumption.
1143
3680131
3086
제가 개인적인 소비 목적으로
한 해에 수십억 달러를 쓴다면 말이죠.
61:23
But that is not the case.
1144
3683259
1209
하지만 저는 그렇지 않습니다.
61:24
In fact, I don't even own
a home right now.
1145
3684802
2252
사실, 저는 지금 심지어 집도 없어요.
61:27
I'm literally staying at friends' places.
1146
3687096
2336
말 그대로, 친구 집에
머물고 있는 중이고요.
61:30
If I travel to the Bay Area,
1147
3690141
1543
만약 제가 연안 지역으로
이동해야 하면,
61:31
which is where most
of Tesla engineering is,
1148
3691726
2085
테슬라 공학 기술의
대부분이 있는 곳인데요,
61:33
I basically rotate through
friends' spare bedrooms.
1149
3693811
3795
저는 아마 친구 집에
남는 침실을 전전할 거예요.
61:38
I don't have a yacht,
I really don't take vacations.
1150
3698691
2753
저는 요트도 없고,
휴가를 가지도 않고요.
61:44
It’s not as though my personal
consumption is high.
1151
3704071
4338
제 개인적 소비는
그렇게 많지 않습니다.
61:49
I mean, the one exception is a plane.
1152
3709243
1793
유일한 예외는 비행기인데,
61:51
But if I don't use the plane,
then I have less hours to work.
1153
3711078
2878
제가 비행기를 안타면
일을 덜 할 수밖에 없으니까요.
61:55
CA: I mean, I personally think
you have shown that you are mostly driven
1154
3715291
4129
CA: 제 개인적인 생각으로 일론은 대개
61:59
by really quite a deep
sense of moral purpose.
1155
3719420
2502
도덕적인 목적에 의해
움직이는 듯 보이는데요.
62:01
Like, your attempts to solve
the climate problem
1156
3721964
5589
예를 들자면, 기후 문제를
해결하기 위한 시도는
62:07
have been as powerful as anyone else
on the planet that I'm aware of.
1157
3727595
4838
제가 알기로, 어느 누구 못지않게
강력한 힘을 발휘하고 있지요.
62:12
And I actually can't understand,
1158
3732433
2085
그리고 사실 저는
잘 이해하지 못하겠는데
62:14
personally, I can't understand the fact
1159
3734518
1877
개인적으로 이해가 안가는 것은,
62:16
that you get all this criticism
from the Left about,
1160
3736437
2461
당신은 진보 진영으로부터
이런 비판을 듣잖아요.
62:18
"Oh, my God, he's so rich,
that's disgusting."
1161
3738898
2377
“저 사람은 너무 부자여서
혐오스럽다.” 같은 거요.
62:21
When climate is their issue.
1162
3741734
2377
몇몇 이들은 기후 문제를 논할 때
62:25
Philanthropy is a topic
that some people go to.
1163
3745446
2210
자선 사업 같은 걸 얘기하는데,
62:27
Philanthropy is a hard topic.
1164
3747698
1668
물론 이게 어려운 주제이긴 하지만
62:29
How do you think about that?
1165
3749408
1794
어떻게 생각하시나요?
62:31
EM: I think if you care
about the reality of goodness
1166
3751535
2711
EM: 제 생각에 선함에 대한
실질적인 면을 고려한다면 말입니다,
62:34
instead of the perception of it,
philanthropy is extremely difficult.
1167
3754246
3796
단순히 인식하는 것 말고요.
그렇다면 자선은 매우 어렵죠.
62:39
SpaceX, Tesla, Neuralink
and The Boring Company are philanthropy.
1168
3759126
3921
스페이스X, 테슬라, 뉴럴링크,
보링 컴퍼니는 모두 자선 사업이에요.
62:43
If you say philanthropy
is love of humanity,
1169
3763464
3086
만약 자선 활동이
인류에 대한 사랑과 동의어라면,
62:46
they are philanthropy.
1170
3766592
1668
그 모든 게 자선 사업이죠.
62:49
Tesla is accelerating sustainable energy.
1171
3769553
2878
테슬라는 지속 가능한 에너지를
가속화하고 있고
62:52
This is a love -- philanthropy.
1172
3772473
3545
그게 사랑이고, 자선이고요.
62:56
SpaceX is trying to ensure
the long-term survival of humanity
1173
3776894
3712
스페이스X는 인류의 생존을
보다 장기적 관점에서 보장하고 있고요,
63:00
with a multiple-planet species.
1174
3780648
1501
다행성종으로서 말이죠.
63:02
That is love of humanity.
1175
3782191
1543
그것도 인류애입니다.
63:05
You know, Neuralink is trying to help
solve brain injuries
1176
3785319
4546
아시다시피, 뉴럴링크는
두뇌 손상을 개선하고
63:09
and existential risk with AI.
1177
3789907
2294
AI가 가져올 외부적 위협에
대처하기 위해 노력 중이고요.
63:12
Love of humanity.
1178
3792243
1167
인류애로서요.
63:13
Boring Company is trying to solve traffic,
which is hell for most people,
1179
3793452
3504
보링 컴퍼니는 다수가 고통 받는
교통 문제를 해결하려 노력하고 있고
63:16
and that also is love of humanity.
1180
3796956
2627
이 역시 인류애입니다.
63:20
CA: How upsetting is it to you
1181
3800084
4296
CA: 속상하시겠습니다.
63:24
to hear this constant drumbeat of,
1182
3804421
3546
지속적으로 이런 얘기를
듣는 일 말입니다.
63:28
"Billionaires, my God,
Elon Musk, oh, my God?"
1183
3808008
2169
“세상에, 억만장자들을 좀 봐,
세상에, 일론 머스크 좀 봐.”
63:30
Like, do you just shrug that off
1184
3810219
2961
이런 말을 들으면 그냥
어깨 한번 으쓱하고 마시나요,
63:33
or does it does it actually hurt?
1185
3813222
1627
아니면 실제로 상처 받으시나요?
63:36
EM: I mean, at this point,
it's water off a duck's back.
1186
3816559
2794
EM: 귓등으로도 안듣습니다.
63:39
CA: Elon, I’d like to,
as we wrap up now,
1187
3819353
2544
CA: 마무리 할 시점에서,
63:41
just pull the camera back
and just think ...
1188
3821939
3378
카메라는 치워두고,
그냥 생각해 봅시다..
63:45
You’re a father now
of seven surviving kids.
1189
3825359
3504
당신이 살아남은 일곱 아이의
아버지라고 생각해 보자고요.
63:49
EM: Well, I mean, I'm trying
to set a good example
1190
3829530
2336
EM: 저는 좋은 예시를
들고 싶은데요,
63:51
because the birthrate on Earth is so low
1191
3831907
1919
왜냐하면 지구의 출생률이
지금 매우 낮고
63:53
that we're facing civilizational collapse
1192
3833868
2043
우리는 문명의 붕괴를
마주하고 있으니까요.
63:55
unless the birth rate returns
to a sustainable level.
1193
3835911
4838
만약 출생률이 안정적인 정도로
회복되지 않는다면 말입니다.
64:01
CA: Yeah, you've talked about this a lot,
1194
3841667
1960
CA: 이 주제에 대해
많이 말씀해 오셨죠.
64:03
that depopulation is a big problem,
1195
3843669
2294
인구 감소가 큰 문제라고 말입니다.
64:06
and people don't understand
how big a problem it is.
1196
3846005
2460
그리고 사람들은 이게 얼마나 심각한지
잘 이해하지 못한다고요.
64:08
EM: Population collapse
is one of the biggest threats
1197
3848465
2503
EM: 인구 감소는
가장 큰 위협 중 하나예요.
64:10
to the future of human civilization.
1198
3850968
1752
미래의 인류 문명에 말입니다.
64:12
And that is what is going on right now.
1199
3852761
1877
그리고 현재 진행중이고요.
64:14
CA: What drives you on a day-to-day
basis to do what you do?
1200
3854638
2836
CA: 당신이 하는 일들에 대한
매일의 원동력은 뭡니까?
64:17
EM: I guess, like,
I really want to make sure
1201
3857516
3087
EM: 제 생각에 저는 정말로
64:20
that there is a good future for humanity
1202
3860644
3462
인류가 좋은 미래를 맞이하기를 원해요.
64:24
and that we're on a path to understanding
the nature of the universe,
1203
3864148
5297
우리는 우주의 원리와
64:29
the meaning of life.
1204
3869486
1168
삶의 의미에 대해
이해하는 과정에 있으니까요.
64:30
Why are we here, how did we get here?
1205
3870696
1960
우리가 지금 여기에 왜 있으며,
어떻게 여기까지 왔는지
64:33
And in order to understand
the nature of the universe
1206
3873490
4422
그리고 우주의 원리와
64:37
and all these fundamental questions,
1207
3877953
3921
모든 근본적인 질문들에 답하기 위해
64:41
we must expand the scope
and scale of consciousness.
1208
3881916
3086
우리의 의식 수준을
확장해야 할 필요가 있다는 겁니다.
64:47
Certainly it must not diminish or go out.
1209
3887129
1960
확실히 이러한 일은 지속되어야만 하고,
64:49
Or we certainly won’t understand this.
1210
3889131
2211
그렇지 않다면 결코
이해할 수 없을 겁니다.
64:51
I would say I’ve been motivated
by curiosity more than anything,
1211
3891342
3587
다른 무엇보다 호기심이 저의
원동력이라고 말씀드리는 게 맞겠군요.
64:54
and just desire to think about the future
1212
3894929
4337
그리고 미래에 대해
생각하고자 하는 갈망이 있고,
64:59
and not be sad, you know?
1213
3899308
2544
슬퍼지기를 원하지 않기 때문이죠.
65:03
CA: And are you?
1214
3903687
1168
CA: 어떠신가요?
65:04
Are you not sad?
1215
3904897
1251
슬프지 않습니까?
65:06
EM: I'm sometimes sad,
1216
3906607
1209
EM: 때로는 슬픕니다.
65:07
but mostly I'm feeling I guess
1217
3907816
4505
하지만 대개는
65:12
relatively optimistic
about the future these days.
1218
3912363
2544
상대적으로 미래에 대해 낙관적이죠.
65:15
There are certainly some big
risks that humanity faces.
1219
3915699
3921
인류가 직면하고 있는
꽤 큰 위협들이 확실히 있고,
65:20
I think the population collapse
is a really big deal,
1220
3920287
2795
인구 감소는 꽤 큰 문제기도 하고
65:23
that I wish more people would think about
1221
3923123
5130
거기에 대해 사람들이
좀 더 생각하길 원합니다.
65:28
because the birth rate is far below
what's needed to sustain civilization
1222
3928253
4964
왜냐하면 문명 지속에 필요한 수준보다
출생률이 훨씬 낮으니까요.
65:33
at its current level.
1223
3933258
1669
현재 수준에서는요.
65:35
And there's obviously ...
1224
3935594
3212
그리고 분명히
65:39
We need to take action
on climate sustainability,
1225
3939682
2877
기후의 지속 가능성을 위해서도
뭔가 해야 할 필요가 있고요.
65:42
which is being done.
1226
3942601
1919
지금도 그렇게 하고 있지만요.
65:45
And we need to secure
the future of consciousness
1227
3945562
2294
그리고 미래의 의식에 대해서도
보장해야 하죠
65:47
by being a multi-planet species.
1228
3947898
2252
다행성종이 되는 방식으로요.
65:51
We need to address --
1229
3951151
1293
표명할 필요가 있습니다.
65:52
Essentially, it's important to take
whatever actions we can think of
1230
3952486
3212
기본적으로 우리가 생각할 수 있는
어떤 조치든 취하는 게 중요해요.
65:55
to address the existential risks
that affect the future of consciousness.
1231
3955698
4796
실존적 위협이 미래의 의식에
영향을 미칠 수 있음을 알리려면요.
66:00
CA: There's a whole
generation coming through
1232
3960536
2127
CA: 미래에 대해 정말로 슬퍼하는
66:02
who seem really sad about the future.
1233
3962663
1793
세대들이 오고 있는데
66:04
What would you say to them?
1234
3964456
1794
그들에게 뭐라고 얘기해야 할까요.
66:07
EM: Well, I think if you want the future
to be good, you must make it so.
1235
3967376
3587
EM: 미래가 좋기를 원한다면
그렇게 만들어야만 하고
66:12
Take action to make it good.
1236
3972256
2419
좋은 미래를 만들기 위해
행동을 해야 합니다.
66:14
And it will be.
1237
3974717
1209
그렇다면 그렇게 될 거예요.
66:17
CA: Elon, thank you for all this time.
1238
3977177
2211
CA: 일론, 시간 내주셔서
감사합니다.
66:19
That is a beautiful place to end.
1239
3979722
1668
끝내기에 좋은 타이밍이네요.
66:21
Thanks for all you're doing.
1240
3981390
1376
말씀 감사드립니다.
66:22
EM: You're welcome.
1241
3982766
1210
EM: 천만에요.
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.