What are the most important moral problems of our time? | Will MacAskill

371,891 views ・ 2018-10-03

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: TJ Kim 검토: Yoonyoung Chang
00:12
This is a graph
0
12857
1479
이 그래프는
00:14
that represents the economic history of human civilization.
1
14360
3659
인류 문명의 경제사를 보여줍니다.
00:18
[World GDP per capita over the last 200,000 years]
2
18043
2400
[과거 20만 년간의 전 세계 1인당 국내총생산]
00:23
There's not much going on, is there.
3
23757
2003
별 움직임이 없죠?
00:26
For the vast majority of human history,
4
26751
2347
인류 역사의 대부분
00:29
pretty much everyone lived on the equivalent of one dollar per day,
5
29835
4048
거의 모든 사람들이 하루 1달러 정도로 살아왔고
00:33
and not much changed.
6
33907
1286
크게 달라진 게 없었죠.
00:36
But then, something extraordinary happened:
7
36757
2777
그러다 놀라운 일이 생깁니다.
00:40
the Scientific and Industrial Revolutions.
8
40677
2811
바로 과학 및 산업 혁명이죠.
00:43
And the basically flat graph you just saw
9
43512
2785
방금 본 것처럼 평평하던 그래프가
00:46
transforms into this.
10
46321
2675
이렇게 변합니다.
00:50
What this graph means is that, in terms of power to change the world,
11
50612
4635
이 그래프는 인간이 세상을 바꾸는 힘에 있어
00:55
we live in an unprecedented time in human history,
12
55271
3438
역사상 유례없는 시기에 우리가 살고 있음을 보여 주지만
00:58
and I believe our ethical understanding hasn't yet caught up with this fact.
13
58733
3944
전 그에 걸맞은 도덕적 인식은 한참 부족하다고 생각합니다.
01:03
The Scientific and Industrial Revolutions
14
63716
1984
과학 및 산업혁명은
01:05
transformed both our understanding of the world
15
65724
2909
우리들이 세상을 알고
01:08
and our ability to alter it.
16
68657
1669
바꿀 수도 있는 힘을 줬죠.
01:11
What we need is an ethical revolution
17
71505
3667
이제 우리에게 필요한 건 도덕적 혁명입니다.
01:15
so that we can work out
18
75196
1548
더 좋은 세상을 만들기 위해
01:16
how do we use this tremendous bounty of resources
19
76768
3152
이 엄청난 자원들을 어떻게 사용할지
01:19
to improve the world.
20
79944
1395
잘 따져봐야 합니다.
01:22
For the last 10 years,
21
82249
1591
지난 10년 동안
01:23
my colleagues and I have developed a philosophy and research program
22
83864
3833
저는 동료들과 함께 하나의 이념이자 연구인 프로그램을 개발했는데
01:27
that we call effective altruism.
23
87721
1835
효율적 이타주의라고 부릅니다.
01:30
It tries to respond to these radical changes in our world,
24
90366
3595
급변하는 세상에서 증거와 신중한 추론 등을 바탕으로
01:33
uses evidence and careful reasoning to try to answer this question:
25
93985
4476
다음과 같은 질문에 답을 제시합니다.
01:40
How can we do the most good?
26
100173
2278
어떻게 최대한 선을 행할 수 있을까?
01:44
Now, there are many issues you've got to address
27
104265
3221
이 문제에 뛰어들기 전에
01:47
if you want to tackle this problem:
28
107510
2263
먼저 생각해봐야 할 것들은
01:49
whether to do good through your charity
29
109797
2031
자선단체 혹은 직장
01:51
or your career or your political engagement,
30
111852
2152
아니면 정치적 관여를 통할 것인지
01:54
what programs to focus on, who to work with.
31
114028
2395
어떤 프로그램, 또 어떤 사람들과 함께 할 것인지 등이겠죠.
01:57
But what I want to talk about
32
117624
1476
하지만 지금 얘기하려는 건
01:59
is what I think is the most fundamental problem.
33
119124
2872
제 생각에 가장 근본적인 문제에 관한 것입니다.
02:02
Of all the many problems that the world faces,
34
122020
2693
세상에 있는 많은 문제들 중
02:05
which should we be focused on trying to solve first?
35
125962
2659
과연 무엇에 먼저 초점을 맞춰야 할까요?
02:10
Now, I'm going to give you a framework for thinking about this question,
36
130668
3468
그 생각에 도움이 될 기본 틀을 보여드릴 텐데
02:14
and the framework is very simple.
37
134160
1936
사실 아주 간단합니다.
02:16
A problem's higher priority,
38
136842
1699
문제의 우선순위가 클수록
02:19
the bigger, the more easily solvable and the more neglected it is.
39
139416
4063
해결하기도, 방치되기도 더 쉽다는 겁니다.
02:24
Bigger is better,
40
144694
1642
문제가 클수록 더 좋은 건
02:26
because we've got more to gain if we do solve the problem.
41
146360
2841
해결만 하면 더 많이 얻기 때문이죠.
02:30
More easily solvable is better
42
150221
1569
좀 더 쉽게 해결할 수 있어 좋은 건
02:31
because I can solve the problem with less time or money.
43
151814
2824
시간과 비용이 절약되기 때문입니다.
02:35
And most subtly,
44
155737
2063
그리고 아주 묘하게도
02:38
more neglected is better, because of diminishing returns.
45
158681
2849
수확 체감의 법칙 대로라면 방치됐을수록 더 좋겠죠.
02:42
The more resources that have already been invested into solving a problem,
46
162285
3714
어떤 문제의 해결에 이미 많은 투자를 한 상태라면
02:46
the harder it will be to make additional progress.
47
166023
2905
추가적 성과를 내기는 더 어렵기 마련이니까요.
02:50
Now, the key thing that I want to leave with you is this framework,
48
170560
4059
오늘 이야기의 핵심은 바로 이 기본 틀입니다.
02:54
so that you can think for yourself
49
174643
1984
세상에서 가장 중요한 문제가 무엇인지
02:56
what are the highest global priorities.
50
176651
2321
여러분 스스로 생각해 보는데 도움이 될 거예요.
02:59
But I and others in the effective altruism community
51
179954
2692
저와 함께 효율적 이타주의에 동참하는 사람들은
03:02
have converged on three moral issues that we believe are unusually important,
52
182670
5879
전에 없이 중요하고 이 기본 틀에도 잘 들어맞는
03:08
score unusually well in this framework.
53
188573
2182
세 가지 도덕적 문제에 몰두해 왔습니다.
03:11
First is global health.
54
191151
2813
첫째, 세계 보건입니다.
03:13
This is supersolvable.
55
193988
2411
확실히 해결 가능한 문제죠.
03:16
We have an amazing track record in global health.
56
196423
3397
지금까지 성과 또한 대단히 좋았습니다.
03:19
Rates of death from measles, malaria, diarrheal disease
57
199844
5420
홍역, 말라리아, 설사병 등으로 인한 사망률이
03:25
are down by over 70 percent.
58
205288
2246
70% 넘게 줄었고
03:29
And in 1980, we eradicated smallpox.
59
209534
2789
1980년엔 천연두를 박멸했죠.
03:33
I estimate we thereby saved over 60 million lives.
60
213815
3667
이렇게 구한 사람의 수는 6천만 명 이상으로 추산됩니다.
03:37
That's more lives saved than if we'd achieved world peace
61
217506
3064
그 기간 동안 세상에 전쟁이 없었더라도 더 많은 사람을 살리진 못 했겠죠.
03:40
in that same time period.
62
220594
1697
03:43
On our current best estimates,
63
223893
2325
현재 가장 근접한 추산으로
03:46
we can save a life by distributing long-lasting insecticide-treated bed nets
64
226242
4128
수천 달러면, 장시간의 살충효과를 가진 모기장을 보급해
03:50
for just a few thousand dollars.
65
230394
1903
생명을 구할 수 있습니다.
03:52
This is an amazing opportunity.
66
232911
1667
정말 놀라운 일이죠.
03:55
The second big priority is factory farming.
67
235594
2515
두 번째 우선순위는 공장식 사육입니다.
03:58
This is superneglected.
68
238681
1563
너무 방치되고 있는 문제죠.
04:00
There are 50 billion land animals used every year for food,
69
240768
4143
매년 식용으로 소비되는 5백억 마리의 가축 대부분은
04:05
and the vast majority of them are factory farmed,
70
245625
2548
공장식 사육장에서 공급되는데
04:08
living in conditions of horrific suffering.
71
248197
2380
정말 끔찍한 환경에서 사육되고 있습니다.
04:10
They're probably among the worst-off creatures on this planet,
72
250601
3151
아마도 지구 상에서 가장 불쌍한 생명체 중 하나지만
04:13
and in many cases, we could significantly improve their lives
73
253776
2858
많은 경우, 그들의 삶은 현저히 개선될 수 있습니다.
04:16
for just pennies per animal.
74
256658
1602
한 마리당 몇 푼이면 되는데
04:19
Yet this is hugely neglected.
75
259123
2082
너무 방치되고 있죠.
04:21
There are 3,000 times more animals in factory farms
76
261229
3810
버려진 애완동물들보다 공장식 농장에서 사육되는 가축들이
04:25
than there are stray pets,
77
265063
1561
3천 배나 많지만
04:28
but yet, factory farming gets one fiftieth of the philanthropic funding.
78
268600
4373
자선 기금은 50분의 1 정도 밖에 안됩니다.
04:34
That means additional resources in this area
79
274211
2128
그렇기 때문에 여기에 조금만 더 투자를 하면
04:36
could have a truly transformative impact.
80
276363
2150
정말 획기적인 변화를 가져올 수 있는 것이죠.
04:39
Now the third area is the one that I want to focus on the most,
81
279458
2985
세 번째 영역은 제가 가장 관심이 많은 것으로
04:42
and that's the category of existential risks:
82
282467
2984
실존적 위험의 범주에 속하는
04:45
events like a nuclear war or a global pandemic
83
285475
3873
핵전쟁이나 전 세계적인 유행병과 같이
04:50
that could permanently derail civilization
84
290824
2611
한 문명을 말살시킬 수도
04:54
or even lead to the extinction of the human race.
85
294156
2436
인류의 종말을 가져올 수도 있는 것들입니다.
04:57
Let me explain why I think this is such a big priority
86
297882
2540
이것이 왜 그토록 중요한지
05:00
in terms of this framework.
87
300446
1337
이 기본 틀에서 말씀드리죠.
05:02
First, size.
88
302992
1412
첫째, 규모입니다.
05:05
How bad would it be if there were a truly existential catastrophe?
89
305341
3889
실제로 실존적 재앙이 닥친다면 도대체 얼마나 심각한 것일까요?
05:10
Well, it would involve the deaths of all seven billion people on this planet
90
310920
6342
지구 상의 70억 명 모두를 죽음으로 몰아넣을 텐데
05:17
and that means you and everyone you know and love.
91
317286
3119
여러분과 여러분이 알고, 사랑하는 모든 이들을 포함하죠.
05:21
That's just a tragedy of unimaginable size.
92
321214
2579
상상하기 힘든 규모의 비극입니다.
05:25
But then, what's more,
93
325684
1976
하지만 더한 것은
05:27
it would also mean the curtailment of humanity's future potential,
94
327684
3605
정말 엄청난 인류의 미래 잠재력마저
05:31
and I believe that humanity's potential is vast.
95
331313
2952
둔화시키는 결과를 낳겠죠.
05:35
The human race has been around for about 200,000 years,
96
335551
3451
인류는 약 20만 년 동안이나 존재해 왔고
05:39
and if she lives as long as a typical mammalian species,
97
339026
2883
일반적 포유류의 기준으로
05:41
she would last for about two million years.
98
341933
2298
앞으로 약 2백만 년의 시간은 더 있을 거라고 봅니다.
05:46
If the human race were a single individual,
99
346884
2691
인류를 한 개인으로 생각하면
05:49
she would be just 10 years old today.
100
349599
2419
이제 겨우 10살 정도인 거죠.
05:53
And what's more, the human race isn't a typical mammalian species.
101
353526
4166
게다가, 다른 포유류들과 인류를 비교할 순 없겠죠.
05:58
There's no reason why, if we're careful,
102
358950
1906
잘만 한다면, 인류가 겨우
06:00
we should die off after only two million years.
103
360880
2205
2백만 년 후에 멸종할 이유는 없습니다.
06:03
The earth will remain habitable for 500 million years to come.
104
363839
4040
지구는 앞으로 5억 년은 생명체가 살기에 적합할 것이고
06:08
And if someday, we took to the stars,
105
368696
1944
언젠가 다른 행성들을 찾게 되면
06:11
the civilization could continue for billions more.
106
371640
2516
인류 문명은 수억 년 더 지속할 수 있겠죠.
06:16
So I think the future is going to be really big,
107
376193
2388
이렇게 미래의 가능성은 무궁무진하다고 생각하지만
06:19
but is it going to be good?
108
379669
1802
그 미래가 과연 좋은 것일까요?
06:21
Is the human race even really worth preserving?
109
381495
2817
인류가 지속되어야 할 가치가 정말 있는 걸까요?
06:26
Well, we hear all the time about how things have been getting worse,
110
386540
3929
살기 힘들어졌다는 얘기를 늘 듣고 있지만
06:31
but I think that when we take the long run,
111
391459
2693
사실 오랜 시간을 놓고 보면
06:34
things have been getting radically better.
112
394176
2031
세상은 정말 살기 좋아졌습니다.
06:37
Here, for example, is life expectancy over time.
113
397453
2294
한 예로 평균수명을 보죠.
06:40
Here's the proportion of people not living in extreme poverty.
114
400892
3023
극빈층에 속하지 않는 사람들의 비율입니다.
06:45
Here's the number of countries over time that have decriminalized homosexuality.
115
405106
4095
더 이상 동성애를 범죄로 취급하지 않는 나라들의 숫자죠.
06:50
Here's the number of countries over time that have become democratic.
116
410848
3269
시간을 거치며 민주화된 나라들입니다.
06:55
Then, when we look to the future, there could be so much more to gain again.
117
415015
4619
따라서, 미래를 바라보면 역시 얻는 것들이 훨씬 더 많겠죠.
06:59
We'll be so much richer,
118
419658
1228
훨씬 더 부유해질 테고
07:00
we can solve so many problems that are intractable today.
119
420910
3595
현재 어려움을 겪고 있는 많은 문제 또한 해결할 수 있겠죠.
07:05
So if this is kind of a graph of how humanity has progressed
120
425389
4445
시간을 거치며 전체적인 인간의 번영에 있어
07:09
in terms of total human flourishing over time,
121
429858
2890
인류가 얼마나 발전을 거두는지 이 그래프가 보여준다면
07:12
well, this is what we would expect future progress to look like.
122
432772
3355
미래에는 이 정도쯤 되리란 예상이 가능합니다.
07:16
It's vast.
123
436881
1150
엄청나죠.
07:18
Here, for example,
124
438953
1198
예를 들어 이쯤에선
07:20
is where we would expect no one to live in extreme poverty.
125
440175
3746
누구도 극심한 빈곤에 시달리지 않습니다.
07:25
Here is where we would expect everyone to be better off
126
445930
3202
이쯤에선 모든 사람들이 오늘날 가장 부유한 사람보다
07:29
than the richest person alive today.
127
449156
1853
더 나은 삶을 누리게 됩니다.
07:32
Perhaps here is where we would discover the fundamental natural laws
128
452081
3192
아마도 이쯤에선 근본적인 자연의 법칙을 발견해
07:35
that govern our world.
129
455297
1268
세상을 운영하는데 활용하겠죠.
07:37
Perhaps here is where we discover an entirely new form of art,
130
457516
3705
아마도 이 쯤에선, 아주 새로운 예술의 형태가 소개될 텐데
07:41
a form of music we currently lack the ears to hear.
131
461245
3040
지금은 들을 수 없는 종류의 음악입니다.
07:45
And this is just the next few thousand years.
132
465072
2222
앞으로 수천 년 내에 벌어질 일들이죠.
07:47
Once we think past that,
133
467827
2205
과거를 생각해 보면
07:50
well, we can't even imagine the heights that human accomplishment might reach.
134
470056
4167
인간의 한계를 가늠하기란 쉽지 않습니다.
07:54
So the future could be very big and it could be very good,
135
474247
3040
미래는 아주 거창하고 좋을 수도 있지만
07:57
but are there ways we could lose this value?
136
477311
2086
우리가 그 가치를 상실할 수 있을까요?
08:00
And sadly, I think there are.
137
480366
1826
안타깝게도, 전 그렇다고 생각합니다.
08:02
The last two centuries brought tremendous technological progress,
138
482216
4053
지난 두 세기 동안의 엄청난 과학기술의 발전은
08:06
but they also brought the global risks of nuclear war
139
486293
2622
전 세계에 핵전쟁의 위협과
08:08
and the possibility of extreme climate change.
140
488939
2157
극심한 기후변화를 야기했습니다.
08:11
When we look to the coming centuries,
141
491725
1767
앞으로 수백 년 동안
08:13
we should expect to see the same pattern again.
142
493516
2647
같은 상황이 반복될 거라고 생각해야겠죠.
08:16
And we can see some radically powerful technologies on the horizon.
143
496187
3356
벌써 아주 급진적인 기술들이 소개되고 있습니다.
08:20
Synthetic biology might give us the power to create viruses
144
500132
2849
합성생물학은 우리에게 전에 없는 전염성과 치사율을 가진
08:23
of unprecedented contagiousness and lethality.
145
503005
3047
바이러스를 만들어 낼 능력을 줄 수도 있겠죠.
08:27
Geoengineering might give us the power to dramatically alter the earth's climate.
146
507131
4643
지구공학은 기후를 현저히 바꿀 능력을 줄 수도 있습니다.
08:31
Artificial intelligence might give us the power to create intelligent agents
147
511798
4199
인공지능은 인간보다 우월한 지적 개체를 만들어 낼
08:36
with abilities greater than our own.
148
516021
2142
능력을 줄 수도 있습니다.
08:40
Now, I'm not saying that any of these risks are particularly likely,
149
520222
3888
이런 위험 요소들 중 특별히 어떤 게 실현될거 라는 건 아니지만
08:44
but when there's so much at stake,
150
524134
1644
위험부담이 크다면
08:45
even small probabilities matter a great deal.
151
525802
2967
아주 작은 확률이라도 신중히 고려해야겠죠.
08:49
Imagine if you're getting on a plane and you're kind of nervous,
152
529568
3001
조금 긴장한 상태에서 비행기를 탔는데
08:52
and the pilot reassures you by saying,
153
532593
3444
기장이 이렇게 말한다고 상상해 보세요.
08:56
"There's only a one-in-a-thousand chance of crashing. Don't worry."
154
536061
4634
"추락률은 천분의 일밖에 안되니 걱정하지 마십시오."
09:02
Would you feel reassured?
155
542157
1554
과연 안심이 될까요?
09:04
For these reasons, I think that preserving the future of humanity
156
544509
4088
이런 이유 때문에 인류의 미래를 지키는 건
09:08
is among the most important problems that we currently face.
157
548621
2984
현재 당면한 가장 중요한 문제들 중 하나입니다.
09:12
But let's keep using this framework.
158
552546
2150
이 기본 틀을 계속 이용해 보죠.
09:14
Is this problem neglected?
159
554720
1310
이것은 방치된 문제일까요?
09:18
And I think the answer is yes,
160
558085
2282
제 생각엔 그렇습니다.
09:20
and that's because problems that affect future generations
161
560391
3325
미래 세대가 겪을 수 있는 문제들은
09:23
are often hugely neglected.
162
563740
1651
보통 방치되기 마련이니까요.
09:26
Why?
163
566930
1406
왜 그럴까요?
09:28
Because future people don't participate in markets today.
164
568360
3478
미래의 사람들이 현재 경제활동이나
09:31
They don't have a vote.
165
571862
1522
정치에 참여하지 않기 때문입니다.
09:33
It's not like there's a lobby representing the interests
166
573931
2673
2300년대에 태어날 이들을 위해 누군가 로비를
09:36
of those born in 2300 AD.
167
576628
2023
해줄 수 있는 것도 아니죠.
09:40
They don't get to influence the decisions we make today.
168
580313
3242
오늘날 우리가 내리는 결정에 그들은 영향을 주지 못합니다.
09:43
They're voiceless.
169
583995
1191
선택의 여지가 없죠.
09:46
And that means we still spend a paltry amount on these issues:
170
586490
3445
다음과 같은 문제들에 여전히 관심이 적은 이유입니다:
09:49
nuclear nonproliferation,
171
589959
1799
핵 확산 방지,
09:51
geoengineering, biorisk,
172
591782
2330
지구공학, 생물학적 위협,
09:55
artificial intelligence safety.
173
595414
1642
안전한 인공지능.
09:57
All of these receive only a few tens of millions of dollars
174
597923
2874
이 모든 것들에 지원되는 자선 기금은
10:00
of philanthropic funding every year.
175
600821
1927
매년 수천만 달러에 불과한데
10:04
That's tiny compared to the 390 billion dollars
176
604044
3929
미국에서 지출되는 연 3,900억 달러의 기금에
10:08
that's spent on US philanthropy in total.
177
608790
2261
비하면 정말 적습니다.
10:13
The final aspect of our framework then:
178
613885
2484
이 기본 틀의 마지막 측면인
10:17
Is this solvable?
179
617083
1190
해결할 수 있는가?
10:19
I believe it is.
180
619289
1289
전 그렇다고 믿습니다.
10:21
You can contribute with your money,
181
621014
3047
여러분은 돈을 기부하거나
10:24
your career or your political engagement.
182
624085
2644
직장 혹은 정치적 관여를 통해 동참할 수 있습니다.
10:28
With your money, you can support organizations
183
628225
2175
여러분의 기부금은 이런 문제들의 해결을 위해 애쓰는
10:30
that focus on these risks,
184
630424
1302
단체들에 지원됩니다.
10:31
like the Nuclear Threat Initiative,
185
631750
2555
'핵 위협 방지 구상'처럼
10:34
which campaigns to take nuclear weapons off hair-trigger alert,
186
634329
3660
핵무기 사용을 막기 위한 캠페인을 벌이는 곳이나
10:38
or the Blue Ribbon Panel, which develops policy to minimize the damage
187
638013
3571
푸른 리본 패널처럼 자연 또는 인간으로부터 발생하는
10:41
from natural and man-made pandemics,
188
641608
2095
유행병의 피해를 최소화하기 위한 정책을 개발하는 곳도 있고,
10:45
or the Center for Human-Compatible AI, which does technical research
189
645158
3260
인간과 공존하는 인공지능 센터처럼 안전하고 신뢰할 수 있는
10:48
to ensure that AI systems are safe and reliable.
190
648442
2747
인공지능 시스템을 위해 기술 연구하는 곳도 있습니다.
10:52
With your political engagement,
191
652652
1516
정치적 관여를 통해
10:54
you can vote for candidates that care about these risks,
192
654192
3096
이런 문제들에 신경 쓰는 정치인들에 투표하고
10:57
and you can support greater international cooperation.
193
657312
2586
더 나아가 국제적 협력까지 지원할 수 있겠죠.
11:01
And then with your career, there is so much that you can do.
194
661767
3542
여러분들의 직업 또한 유용하게 쓰일 수 있습니다.
11:05
Of course, we need scientists and policymakers and organization leaders,
195
665333
3672
과학자, 국회의원, 각계각층의 지도자들이
11:09
but just as importantly,
196
669865
1152
물론 필요하지만
11:11
we also need accountants and managers and assistants
197
671041
4117
회계사, 관리자, 대리들도
11:16
to work in these organizations that are tackling these problems.
198
676691
3754
이런 문제 해결에 힘쓰는 단체들에겐 아주 중요한 거죠.
11:20
Now, the research program of effective altruism
199
680469
3492
효율적 이타주의를 연구하는 프로그램은
11:25
is still in its infancy,
200
685191
1444
이제 걸음마 단계이고
11:27
and there's still a huge amount that we don't know.
201
687262
2524
배워야 할 것들이 아직 많습니다.
11:31
But even with what we've learned so far,
202
691173
2343
하지만 지금까지 쌓아온 지식으로도
11:34
we can see that by thinking carefully
203
694748
2183
우리는 신중하게 생각할 수 있고
11:37
and by focusing on those problems that are big, solvable and neglected,
204
697494
4873
크고, 해결할 수 있고, 방치되어 온 문제들에 접근한다면
11:43
we can make a truly tremendous difference to the world
205
703152
2708
세상에 정말 엄청난 변화를 가져올 수 있습니다.
11:45
for thousands of years to come.
206
705884
1631
앞으로 수천 년 동안 말이죠.
11:47
Thank you.
207
707963
1151
감사합니다.
11:49
(Applause)
208
709138
4560
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7