The ethical dilemma of designer babies | Paul Knoepfler

470,277 views ・ 2017-02-10

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

00:00
Translator: Joseph Geni Reviewer: Joanna Pietrulewicz
0
0
7000
번역: Sieun Lee 검토: JY Kang
00:12
So what if I could make for you
1
12460
2456
제가 여러분께 맞춤 아기를 만들어 드린다면 어떠시겠어요?
00:14
a designer baby?
2
14940
1480
00:17
What if you as a parent-to-be
3
17940
2296
여러분이 조만간 부모가 된다고 치고
00:20
and I as a scientist decided to go down that road together?
4
20260
4000
과학자인 저와 그런 선택을 한다면요?
00:25
What if we didn't?
5
25860
1256
만약 아니라면요?
00:27
What if we thought, "That's a bad idea,"
6
27140
2776
우리는 그게 나쁜 결정이라고 보는데
00:29
but many of our family, friends and coworkers
7
29940
3376
만약 우리의 가족, 친구, 동료들 중 많은 이가
00:33
did make that decision?
8
33340
1640
그런 결정을 내렸다면요?
00:36
Let's fast-forward just 15 years from now.
9
36140
3200
지금으로부터 15년 후로 가봅시다.
00:39
Let's pretend it's the year 2030,
10
39780
2776
지금이 2030년이라고 생각해보세요.
00:42
and you're a parent.
11
42580
1399
여러분은 부모가 되었습니다.
00:44
You have your daughter, Marianne, next to you,
12
44540
3256
곁에 딸이 있어요. 마리앤이라고 해볼까요.
00:47
and in 2030, she is what we call a natural
13
47820
3376
2030년의 마리앤은 "자연인" 입니다.
00:51
because she has no genetic modifications.
14
51220
2520
유전 조작이 없는 아이거든요.
00:55
And because you and your partner consciously made that decision,
15
55100
3440
여러분과 배우자가 의도적으로 그런 선택을 했기 때문에
00:59
many in your social circle, they kind of look down on you.
16
59300
3216
주변의 많은 사람들이 여러분을 업신여깁니다.
01:02
They think you're, like, a Luddite or a technophobe.
17
62540
2800
여러분이 신기술 혐오자이거나 기술 공포증이 있다고 생각해요.
01:07
Marianne's best friend Jenna, who lives right next door,
18
67340
2976
마리앤의 제일 친한 친구는 옆집에 사는 제나인데
01:10
is a very different story.
19
70340
1520
걔는 이야기가 완전 달라요.
01:12
She was born a genetically modified designer baby with numerous upgrades.
20
72740
5880
제나는 유전자 조작으로 태어났습니다.
여러 면에서 업그레이드가 된 맞춤 아기로 태어났죠.
01:20
Yeah. Upgrades.
21
80540
1360
네. 업그레이드요.
01:22
And these enhancements were introduced
22
82700
2896
이런 발전은 어느 유전자 조작 기술로부터 시작되었습니다.
01:25
using a new genetic modification technology
23
85620
2536
01:28
that goes by the funny name CRISPR,
24
88180
2776
CRISPR라는 웃긴 이름의 기술이죠.
01:30
you know, like something's crisp,
25
90980
1696
crisp 는 바삭바삭하다는 뜻이지만
01:32
this is CRISPR.
26
92700
1320
이건 CRISPR 입니다.
01:35
The scientist that Jenna's parents hired to do this
27
95340
3296
제나의 부모가 수백만 달러를 주고
01:38
for several million dollars
28
98660
1880
고용한 과학자는
01:41
introduced CRISPR into a whole panel of human embryos.
29
101380
3880
CRISPR를 적용해서 여러 개의 인간 배아를 만들었습니다.
01:46
And then they used genetic testing,
30
106180
1696
그리고 유전자 검사를 통해
01:47
and they predicted that that little tiny embryo, Jenna's embryo,
31
107900
4056
그 중 제나의 인간 배아가 가장 우수하다고 예측해서
01:51
would be the best of the bunch.
32
111980
1920
그걸 선택한 겁니다.
01:54
And now, Jenna is an actual, real person.
33
114980
3456
이제 제나는 실제 사람이에요.
01:58
She's sitting on the carpet in your living room
34
118460
3216
여러분은 거실 카펫에 앉아서
02:01
playing with your daughter Marianne.
35
121700
2480
여러분의 딸 마리앤과 놀고 있습니다.
02:04
And your families have known each other for years now,
36
124900
3096
가족끼리 서로 수년을 알고 지냈는데
02:08
and it's become very clear to you
37
128020
2416
이제는 너무 잘 알고 있어요.
02:10
that Jenna is extraordinary.
38
130460
1880
제나가 뛰어난 아이라는 것을요.
02:13
She's incredibly intelligent.
39
133020
2016
믿기 힘들 정도로 지능이 높죠.
02:15
If you're honest with yourself, she's smarter than you,
40
135060
3256
솔직히 당신보다 더 똑똑합니다.
02:18
and she's five years old.
41
138340
1560
다섯 살인데도요.
02:20
She's beautiful, tall, athletic,
42
140859
3897
아름답고, 키도 크고, 운동도 잘하고
02:24
and the list goes on and on.
43
144780
2480
장점들이 셀 수도 없어요.
02:28
And in fact, there's a whole new generation
44
148100
2576
이제 제나같은 유전자 조작 어린이들이
02:30
of these GM kids like Jenna.
45
150700
2240
한 세대를 이루었습니다.
02:33
And so far it looks like
46
153740
2136
지금까지 알 수 있는 건
02:35
they're healthier than their parents' generation,
47
155900
2336
이들이 부모 세대, 즉 여러분 세대보다
02:38
than your generation.
48
158260
1736
더 건강하다는 겁니다.
02:40
And they have lower health care costs.
49
160020
2000
의료 비용도 더 낮습니다.
02:43
They're immune to a host of health conditions,
50
163860
2736
다양한 질병과 장애에 면역이 되어있어요.
02:46
including HIV/AIDS and genetic diseases.
51
166620
3240
에이즈와 유전병을 포함해서요.
02:50
It all sounds so great,
52
170900
1680
아주 멋지게 들리죠.
02:53
but you can't help but have this sort of unsettling feeling,
53
173260
3056
하지만 여러분은 어쩐지 계속 불편한 기분이 듭니다.
02:56
a gut feeling, that there's something just not quite right about Jenna,
54
176340
5000
제나가 어딘가 이상하다고 직감하죠.
03:01
and you've had the same feeling about other GM kids that you've met.
55
181980
4120
다른 유전자 조작 아이들에게서도 비슷한 기분을 느낍니다.
03:06
You were also reading in the newspaper earlier this week
56
186940
3376
또 여러분은 며칠 전 신문에서
03:10
that a study of these children who were born as designer babies
57
190340
3936
맞춤 아기로 태어난 아이들에게 문제가 있을 수 있다는
03:14
indicates they may have some issues,
58
194300
1856
연구 결과를 읽었습니다.
03:16
like increased aggressiveness and narcissism.
59
196180
3680
공격성 증가와 자아도취성 같은 문제요.
03:21
But more immediately on your mind
60
201460
1656
게다가 여러분은 지금
03:23
is some news that you just got from Jenna's family.
61
203140
3696
제나에 관해 들은 소식을 떠올렸습니다.
03:26
She's so smart,
62
206860
1496
제나가 너무 똑똑해서
03:28
she's now going to be going to a special school,
63
208380
3096
특수학교에 다니게 되었다고요.
03:31
a different school than your daughter Marianne,
64
211500
2496
여러분의 딸 마리앤과는 다른 학교죠.
03:34
and this is kind of throwing your family into a disarray.
65
214020
3736
덕분에 집안 분위기가 엉망이 되었어요.
03:37
Marianne's been crying,
66
217780
1336
마리앤은 계속 울었고
03:39
and last night when you took her to bed to kiss her goodnight,
67
219140
3416
어젯밤에는 잘 자라는 인사를 하러 들어갔다니
03:42
she said, "Daddy, will Jenna even be my friend anymore?"
68
222580
4480
"아빠, 이제 제나가 저랑 친구 하려고 할까요?" 하고 묻는 겁니다.
03:48
So now, as I've been telling you this imagined 2030 story,
69
228300
3536
지금까지 가상의 2030년 이야기를 해 드렸는데요.
03:51
I have a feeling that I may have put some of you
70
231860
2616
어떤 분들은 이 이야기를 공상과학처럼 들으셨겠죠?
03:54
into this sci-fi frame of reference. Right?
71
234500
2576
03:57
You think you're reading a sci-fi book.
72
237100
2496
공상과학 소설처럼요.
03:59
Or maybe, like, in Halloween mode of thinking.
73
239620
2936
아니면 할로윈의 공포 이야기처럼요.
04:02
But this is really a possible reality for us,
74
242580
2416
하지만 이건 실제로 가능한 현실입니다.
04:05
just 15 years from now.
75
245020
1640
지금부터 단 15년 후에요.
04:07
I'm a stem cell and genetics researcher
76
247300
2936
저는 줄기세포와 유전학을 연구하는 과학자로서
04:10
and I can see this new CRISPR technology
77
250260
2936
이 CRISPR 신기술과 이것이 미칠 영향을
04:13
and its potential impact.
78
253220
1720
예상할 수 있습니다.
04:15
And we may find ourselves in that reality,
79
255420
3616
제 이야기가 정말 현실이 될 수 있고
04:19
and a lot will depend on what we decide to do today.
80
259060
3080
많은 부분이 지금 우리가 어떤 결정을 할지에 달렸습니다.
04:23
And if you're still kind of thinking in sci-fi mode,
81
263780
2496
아직도 공상 과학처럼 느껴지신다면
04:26
consider that the world of science had a huge shock earlier this year,
82
266300
4496
올해 초 과학계가 충격에 빠졌던 걸 생각해보세요.
04:30
and the public largely doesn't even know about it.
83
270820
2935
일반 대중은 대부분 모르고 있지만
04:33
Researchers in China just a few months ago
84
273779
2777
몇달 전 중국의 과학자들이
04:36
reported the creation of genetically modified human embryos.
85
276580
4656
유전 조작을 한 인간 배아를 만들었다고 발표했습니다.
04:41
This was the first time in history.
86
281260
2536
역사상 최초로 말이죠.
04:43
And they did it using this new CRISPR technology.
87
283820
2680
이 CRISPR 라는 기술을 사용했습니다.
04:47
It didn't work perfectly,
88
287380
1736
완전히 성공하지는 못했지만
04:49
but I still think they sort of cracked the door ajar
89
289140
3576
그들이 판도라의 상자를 연 것과 마찬가지라고 생각합니다.
04:52
on a Pandora's box here.
90
292740
1800
04:56
And I think some people are going to run with this technology
91
296300
2896
어떤 사람들은 이 기술을 가지고
04:59
and try to make designer babies.
92
299220
1880
맞춤 아기들을 만들려고 할 겁니다.
05:02
Now, before I go on, some of you may hold up your hands and say,
93
302020
3056
누군가는 이렇게 물을지도 모릅니다.
05:05
"Stop, Paul, wait a minute.
94
305100
2256
"잠깐만요, 폴. 기다려봐요.
05:07
Wouldn't that be illegal?
95
307380
1816
그거 불법 아니에요?
05:09
You can't just go off and create a designer baby."
96
309220
3640
그냥 막 맞춤아기를 만들 수는 없잖아요."
05:13
And in fact, to some extent, you're right.
97
313476
2000
어느 정도는 사실입니다.
05:15
In some countries, you couldn't do that.
98
315500
2320
그게 금지된 나라도 있죠.
05:18
But in many other countries, including my country, the US,
99
318340
3256
하지만 제 조국인 미국을 비롯한 많은 나라에서는
05:21
there's actually no law on this, so in theory, you could do it.
100
321620
3880
관련 법이 아예 존재하지 않아요. 그러니 이론적으론 합법인거죠.
05:26
And there was another development this year that resonates in this area,
101
326500
4456
이 주제와 관련해서 올해 또 다른 사건이 있었습니다.
05:30
and that happened not so far from here over in the UK.
102
330980
2800
여기서 멀지 않은 영국의 일이죠.
05:34
And the UK traditionally has been the strictest country
103
334300
3096
영국은 전통적으로 인간 유전자 조작에 대해
05:37
when it comes to human genetic modification.
104
337420
2816
가장 엄격한 나라였습니다.
05:40
It was illegal there,
105
340260
1936
불법으로 못 박았었는데
05:42
but just a few months ago,
106
342220
1576
몇 달 전
05:43
they carved out an exception to that rule.
107
343820
2456
그 법에 예외 조항이 생겼습니다.
05:46
They passed a new law
108
346300
1536
새로운 법이 통과된 겁니다.
05:47
allowing the creation of genetically modified humans
109
347860
3456
유전자 조작 인간을 만드는 걸 허가했죠.
05:51
with the noble goal of trying to prevent a rare kind of genetic disease.
110
351340
4120
그것이 희귀 유전병을 막는다는 고매한 목적하에 이뤄진다면 말이죠.
05:56
But still I think in combination these events are pushing us
111
356220
3696
전 이 모든 사건들이 우리가 점점 더 인간 유전자 조작을 받아들이도록
05:59
further towards an acceptance
112
359940
2536
06:02
of human genetic modification.
113
362500
1920
몰아가고 있다고 생각합니다.
06:05
So I've been talking about this CRISPR technology.
114
365660
2896
지금까지 CRISPR 기술에 관해 얘기했는데요.
06:08
What actually is CRISPR?
115
368580
2040
CRISPR 기술은 정확히 뭘까요?
06:11
So if you think about the GMOs that we're all more familiar with,
116
371180
3336
여러분이 잘 아시는 유전자 변형 기술이 있죠.
06:14
like GMO tomatoes and wheat
117
374540
3216
즉, 유전자 변형 토마토나 밀을 생산하는 기술을 생각하시면
06:17
and things like that,
118
377780
1936
06:19
this technology is similar to the technologies
119
379740
2616
CRISPR는 그런 기술과 비슷하면서도
06:22
that were used to make those,
120
382380
1856
06:24
but it's dramatically better,
121
384260
2376
훨씬 뛰어나다고 보시면 됩니다.
06:26
cheaper and faster.
122
386660
1960
더 싸고, 더 빠르죠.
06:29
So what is it?
123
389940
1536
CRISPR는 말하자면
06:31
It's actually like a genetic Swiss army knife.
124
391500
2456
일종의 유전자용 스위스 군용 칼입니다.
06:33
We can pretend this is a Swiss army knife
125
393980
2256
이 스위스 군용 칼에
06:36
with different tools in it,
126
396260
1336
여러 도구가 달려 있어요.
06:37
and one of the tools is kind of like a magnifying glass
127
397620
3136
하나는 DNA를 보는 돋보기나
06:40
or a GPS for our DNA,
128
400780
2440
혹은 GPS 같은 겁니다.
06:43
so it can home in on a certain spot.
129
403700
2576
DNA의 특정 부분을 조준할 수 있죠.
06:46
And the next tool is like scissors
130
406300
1656
다음 도구는 가위처럼
06:47
that can cut the DNA right in that spot.
131
407980
3256
정확히 그 부분의 DNA를 자를 수 있습니다.
06:51
And finally we have a pen
132
411260
1576
마지막으로는 펜이 있어서
06:52
where we can literally rewrite the genetic code in that location.
133
412860
4496
그 부분에 유전자 암호를 써 넣는 거죠.
06:57
It's really that simple.
134
417380
1240
그 정도로 단순합니다.
06:59
And this technology, which came on the scene just three years ago,
135
419500
3656
단 3년 전에 개발된 이 기술이
07:03
has taken science by storm.
136
423180
1840
과학계를 휩쓸었습니다.
07:05
It's evolving so fast, and it's so freaking exciting to scientists,
137
425820
4256
이 기술은 무척 빨리 진화하고 있어요. 과학자들에겐 미친듯 신나는 일이죠.
07:10
and I admit I'm fascinated by it and we use it in my own lab,
138
430100
3800
고백하자면 저도 그 기술에 매료되었고 지금 저희 연구실에서도 쓰고 있어요.
07:14
that I think someone is going to go that extra step
139
434860
3576
하지만 전 누군가가 여기서 한 걸음 더 나아가
07:18
and continue the GM human embryo work
140
438460
2576
유전자 조작된 인간 배아를 키워서
07:21
and maybe make designer babies.
141
441060
2400
맞춤 아기를 만들 거라고 생각합니다.
07:24
This is so ubiquitous now.
142
444900
1656
CRISPR는 이제 아주 흔해졌습니다.
07:26
It just came on the scene three years ago.
143
446580
2416
고작 3년 전에 발표된 기술인데도 말이죠.
07:29
Thousands of labs literally have this in hand today,
144
449020
4336
지금도 수천 곳의 연구실에서
07:33
and they're doing important research.
145
453380
2376
중요한 연구에 사용되고 있습니다.
07:35
Most of them are not interested in designer babies.
146
455780
2616
대부분은 맞춤 아기에는 관심이 없어요.
07:38
They're studying human disease
147
458420
2496
그들은 인간의 질병이나
07:40
and other important elements of science.
148
460940
2416
과학의 다른 중요한 주제들을 탐구합니다.
07:43
So there's a lot of good research going on with CRISPR.
149
463380
2600
CRISPR를 사용한 좋은 연구가 많습니다.
07:46
And the fact that we can now do genetic modifications
150
466820
3416
전에는 유전자 조작을 위해서는
07:50
that used to take years and cost millions of dollars
151
470260
3776
수년간 수백만 달러가 들었지만
07:54
in a few weeks for a couple thousand bucks,
152
474060
3016
이제는 몇 주 동안 몇천 달러로 가능해졌습니다.
07:57
to me as a scientist that's fantastic,
153
477100
2136
과학자에겐 멋진 일이에요.
07:59
but again, at the same time,
154
479260
2136
하지만 그와 동시에
08:01
it opens the door to people going too far.
155
481420
3120
이 기술은 극단적인 사람들에게 기회를 줍니다.
08:05
And I think for some people
156
485140
1416
어떤 사람들에겐
08:06
the focus is not going to be so much on science.
157
486580
3016
과학적 연구가 목적이 아닐 거라고 생각해요.
08:09
That's not what's going to be driving them.
158
489620
2016
그들의 동기는 연구가 아니라
08:11
It's going to be ideology or the chase for a profit.
159
491660
3520
이념이나 이윤일 겁니다.
08:15
And they're going to go for designer babies.
160
495940
2560
바로 그런 사람들이 맞춤 아기를 만들려고 하겠죠.
08:20
So why should we be concerned about this?
161
500060
3856
왜 우리가 이런 걸 걱정해야 할까요?
08:23
We know from Darwin, if we go back two centuries,
162
503940
3216
우리가 200년전 다윈에게 배운 게 있다면
08:27
that evolution and genetics profoundly have impacted humanity,
163
507180
4136
진화와 유전이 인류에 깊은 영향을 미쳤다는 겁니다.
08:31
who we are today.
164
511340
2136
현재 우리 모습에 말이죠.
08:33
And some think there's like a social Darwinism at work in our world,
165
513500
3936
어떤 사람들은 사회 다윈주의와
08:37
and maybe even a eugenics as well.
166
517460
2480
우생학이 작용하는 중이라고 생각합니다.
08:40
Imagine those trends, those forces,
167
520540
3736
그런 흐름의 방향들이
08:44
with a booster rocket of this CRISPR technology
168
524300
2976
CRISPR 기술이라는 추진 로켓을 달면
08:47
that is so powerful and so ubiquitous.
169
527300
2720
그 결과는 아주 강력하게 모든 분야에 나타날 겁니다.
08:50
And in fact, we can just go back one century to the last century
170
530820
3895
실제로 지난 세기를 돌아보면
08:54
to see the power that eugenics can have.
171
534739
3001
우생학의 힘을 알 수 있죠.
08:58
So my father, Peter Knoepfler,
172
538620
2456
제 아버지인 피터 노플러는
09:01
was actually born right here in Vienna.
173
541100
2776
바로 이곳 비엔나에서 태어나셨어요.
09:03
He was Viennese, and he was born here in 1929.
174
543900
4496
1929년생 비엔나 사람이셨죠.
09:08
And when my grandparents had little baby Peter,
175
548420
3896
제 조부모님이 아기 피터를 가졌을 때는
09:12
the world was very different. Right?
176
552340
1736
지금과는 아주 다른 세계였겠죠?
09:14
It was a different Vienna.
177
554100
1296
지금과는 다른 비엔나였습니다.
09:15
The United States was different.
178
555420
1576
미국도 지금과 달랐고
09:17
The world was different.
179
557020
1256
전세계가 지금과는 달랐습니다.
09:18
There was a eugenics rising,
180
558300
2296
당시 우생학 운동이 일어나고 있었고
09:20
and my grandparents realized,
181
560620
2336
저희 조부모님은 일찌감치 눈치채셨어요.
09:22
pretty quickly I think,
182
562980
1416
그들이 우생학 공식의
09:24
that they were on the wrong side of the eugenics equation.
183
564420
3520
불리한 쪽에 있다는 것을요.
09:28
And so despite this being their home
184
568660
2376
이 도시는 조부모님의 고향이자
09:31
and their whole extended family's home,
185
571060
2056
가족, 친적들 모두의 고향이었고
09:33
and this area being their family's home for generations,
186
573140
4336
이 지역에서 수 세대째 살고 있었지만
09:37
they decided because of eugenics
187
577500
3016
우생학의 영향 때문에 그런 고향을 떠나기로
09:40
that they had to leave.
188
580540
1240
결정하셨던 겁니다.
09:42
And they survived, but they were heartbroken,
189
582500
2136
그분들은 생존하셨지만 상심하셨습니다.
09:44
and I'm not sure my dad ever really got over leaving Vienna.
190
584660
4136
제 아버지도 비엔나를 떠나는 걸 납득하셨는지는 모르겠습니다.
09:48
He left when he was just eight years old
191
588820
2336
겨우 여덟 살 때 떠나셨거든요.
09:51
in 1938.
192
591180
1200
1938년이었습니다.
09:54
So today, I see a new eugenics
193
594380
3056
오늘날 저는 새로운 종류의 우생학이
09:57
kind of bubbling to the surface.
194
597460
2336
조금씩 시작되고 있는 걸 봅니다.
09:59
It's supposed to be a kinder, gentler, positive eugenics,
195
599820
4976
좀 더 상냥하고 친절하며 긍정적인 우생학이란 거죠.
10:04
different than all that past stuff.
196
604820
2320
과거의 우생학과는 다르게요.
10:08
But I think even though it's focused on trying to improve people,
197
608020
4376
사람들을 향상시킨다는 목적이 있기는 해도
10:12
it could have negative consequences,
198
612420
2696
부정적인 결과가 생길 수 있습니다.
10:15
and it really worries me
199
615140
1256
제가 정말 우려하는 건
10:16
that some of the top proponents of this new eugenics,
200
616420
2776
이 새로운 우생학의 지지자들이
10:19
they think CRISPR is the ticket to make it happen.
201
619220
3560
CRISPR가 그걸 가능하게 해줄 거라 믿는다는 겁니다.
10:24
So I have to admit, you know,
202
624180
1736
저도 인정합니다.
10:25
eugenics, we talk about making better people.
203
625940
3256
더 나은 사람을 만드는 게 우생학이란 것을요.
10:29
It's a tough question.
204
629220
1256
어려운 문제에요.
10:30
What is better when we're talking about a human being?
205
630500
2920
무엇이 더 '나은' 인간인 걸까요?
10:34
But I admit I think maybe a lot of us
206
634180
2656
하지만 제 생각엔 우리 대부분이
10:36
could agree that human beings,
207
636860
2936
조금쯤은 인간이 향상된다면
10:39
maybe we could use a little betterment.
208
639820
1976
아마 수용할 수 있을 거예요.
10:41
Look at our politicians
209
641820
2296
정치인들을 보세요.
10:44
here, you know, back in the US --
210
644140
2056
여기나, 제 조국인 미국도 그렇죠.
10:46
God forbid we go there right now.
211
646220
3616
지금 그런 얘기를 할 자리는 아니네요.
10:49
Maybe even if we just look in the mirror,
212
649860
1976
어쩌면 심지어 거울 속 우리 모습에서도
10:51
there might be ways we think we could be better.
213
651860
2536
나아질 수 있는 점들이 있을 겁니다.
10:54
I might wish, honestly, that I had more hair here, instead of baldness.
214
654420
4816
솔직히 전 여기 대머리가 아니라 머리숱이 더 있었으면 좋겠어요.
10:59
Some people might wish they were taller,
215
659260
2536
어떤 사람들은 키가 더 크길 바라고
11:01
have a different weight, a different face.
216
661820
2840
몸무게를 줄이거나, 다른 외모를 바라겠죠.
11:05
If we could do those things, we could make those things happen,
217
665700
3456
이런 일을 실제로 할 수 있다면, 그게 정말 가능하다면
11:09
or we could make them happen in our children,
218
669180
2256
혹은 우리 아이들에게 가능하다면
11:11
it would be very seductive.
219
671460
1800
굉장히 유혹적일겁니다.
11:13
And yet coming with it would be these risks.
220
673860
2896
하지만 동시에 이런 위험들도 있을 겁니다.
11:16
I talked about eugenics,
221
676780
1896
우생학에 대해 얘기했는데
11:18
but there would be risks to individuals as well.
222
678700
2816
개개인에게도 위험 요소들이 있습니다.
11:21
So if we forget about enhancing people
223
681540
2456
사람들을 향상시키는 것 말고
11:24
and we just try to make them healthier using genetic modification,
224
684020
4456
단지 더 건강하게 만들기 위해 유전자 조작을 한다고 해 봅시다.
11:28
this technology is so new
225
688500
2456
하지만 이 기술은 너무나 새롭고
11:30
and so powerful,
226
690980
1576
너무나 강력하기 때문에
11:32
that by accident we could make them sicker.
227
692580
2760
실수로 조작 대상을 병들게 할 수도 있습니다.
11:36
That easily could happen.
228
696340
2136
충분히 가능한 일이에요.
11:38
And there's another risk,
229
698500
1256
또 다른 위험 요소는
11:39
and that is that all of the legitimate, important genetic modification research
230
699780
4576
공식적이고 중요한 유전자 조작 연구는
11:44
going on just in the lab --
231
704380
1656
실험실에서 진행되고 있죠.
11:46
again, no interest in designer babies --
232
706060
3016
맞춤 아기에는 전혀 관심이 없다해도
11:49
a few people going the designer baby route,
233
709100
2856
몇몇 사람들이 맞춤 아기를 만들려다가
11:51
things go badly,
234
711980
1376
만약 일이 잘못되면
11:53
that entire field could be damaged.
235
713380
2960
이 분야 전체가 영향을 받을 수 있습니다.
11:57
I also think it's not that unlikely
236
717260
2456
또 저는 정부가 유전자 조작에
11:59
that governments might start taking an interest in genetic modification.
237
719740
4280
관심을 가질 수도 있다고 생각합니다.
12:04
So for example our imagined GM Jenna child
238
724700
4936
예로 상상했던 유전자 조작아 제나처럼
12:09
who is healthier,
239
729660
1216
건강한 아이들로
12:10
if there's a generation that looks like they have lower health care costs,
240
730900
4016
한 세대를 만든다면 의료비용이 덜 들겠죠.
12:14
it's possible that governments may start trying to compel their citizens
241
734940
4216
정부가 국민들에게 유전자 조작을
12:19
to go the GM route.
242
739180
1896
권장할 수도 있습니다.
12:21
Look at China's one-child policy.
243
741100
2016
중국의 한자녀 정책은
12:23
It's thought that that prevented the birth of 400 million human beings.
244
743140
5720
4억 명의 출산을 막았다고 추측됩니다.
12:30
So it's not beyond the realm of possible
245
750020
2776
그러니까 유전자 조작이 하나의 정책이 되는 것도
12:32
that genetic modification could be something that governments push.
246
752820
4256
불가능한 것은 아니겠죠.
12:37
And if designer babies become popular,
247
757100
3496
맞춤 아기들이 인기가 많아지면
12:40
in our digital age --
248
760620
1816
요즘 같은 디지털 시대에
12:42
viral videos, social media --
249
762460
2656
동영상이나 소셜 미디어를 통해
12:45
what if designer babies are thought to be fashionable,
250
765140
2576
맞춤 아기가 유행이 되어서
12:47
and they kind of become the new glitterati,
251
767740
2136
유명인이 된다면 어떨까요?
12:49
the new Kardashians or something?
252
769900
1736
카다시안 가족처럼요?
12:51
(Laughter)
253
771660
1016
(웃음)
12:52
You know, are those trends that we really could control?
254
772700
4536
이런 흐름들을 정말 우리가 통제할 수 있을까요?
12:57
I'm not convinced that we could.
255
777260
2080
저는 그럴 수 없다고 생각합니다.
13:00
So again, today it's Halloween
256
780460
3176
오늘은 할로윈인데
13:03
and when we talk about genetic modification,
257
783660
2456
유전자 조작에 대해 얘기하자면
13:06
there's one Halloween-associated character
258
786140
3136
할로윈과 연관된 것 중에서
13:09
that is talked about or invoked more than anything else,
259
789300
2656
무엇보다도 생각나는 캐릭터가
13:11
and that is Frankenstein.
260
791980
1840
프랑켄슈타인이죠.
13:14
Mostly that's been Frankenfoods and all this other stuff.
261
794420
4416
지금까지는 대부분 유전자 변형 식품 같은 것들이었어요.
13:18
But if we think about this now and we think about it in the human context
262
798860
4576
하지만 이걸 인간의 맥락으로 생각해보면
13:23
on a day like Halloween,
263
803460
1256
할로윈 같은 날에
13:24
if parents can in essence costume their children genetically,
264
804740
5416
부모가 아이들을 유전자로 분장시킬 수 있다면
13:30
are we going to be talking about a Frankenstein 2.0 kind of situation?
265
810180
4760
어쩌면 프랑켄슈타인 2.0 같은 상황이 될 수 있지 않을까요?
13:36
I don't think so. I don't think it's going to get to that extreme.
266
816060
3176
그 정도로 극단적이지는 않겠지만
13:39
But when we are going about hacking the human code,
267
819260
3976
인간의 유전자 암호를 해킹하기 시작한다면
13:43
I think all bets are off in terms of what might come of that.
268
823260
3256
어떤 결과도 예측할 수 없게 됩니다.
13:46
There would still be dangers.
269
826540
1640
그런 위험도 도사리고 있죠.
13:49
And we can look in the past
270
829540
1336
역사적으로 살펴보면
13:50
to other elements of transformative science
271
830900
2616
어떤 중대한 과학적 발전이
13:53
and see how they can basically go out of control
272
833540
3816
실제로 통제 불능이 되어 사회에 영향을 미치는 경우가 있습니다.
13:57
and permeate society.
273
837380
1560
13:59
So I'll just give you one example, and that is in vitro fertilization.
274
839380
3800
그 한가지 예가 시험관 수정입니다.
14:04
Almost exactly 40 years ago,
275
844300
3616
거의 정확히 40년 전에
14:07
test tube baby number one Louise Brown was born,
276
847940
3696
최초의 시험관 아기인 루이즈 브라운이 태어났습니다.
14:11
and that's a great thing,
277
851660
1256
엄청난 일이었죠.
14:12
and I think since then five million IVF babies have been born,
278
852940
5536
그 뒤로 약 500만 명의 시험관 아기가 탄생했어요.
14:18
bringing immeasurable happiness.
279
858500
1656
엄청난 행복을 가져왔습니다.
14:20
A lot of parents now can love those kids.
280
860180
3136
수많은 부모들이 사랑하는 아이를 갖게 되었죠.
14:23
But if you think about it, in four decades,
281
863340
2056
하지만 단 40년 만에
14:25
five million babies being born from a new technology
282
865420
3896
새로운 기술 하나로 5백만 명의 아기가 태어났다는 건
14:29
is pretty remarkable,
283
869340
1816
엄청난 사실입니다.
14:31
and the same kind of thing could happen
284
871180
2216
동일한 상황이 인간 유전자 조작과 맞춤 아기에도 일어날 수 있습니다.
14:33
with human genetic modification and designer babies.
285
873420
3576
14:37
So depending on the decisions we make in the next few months,
286
877020
3176
우리가 앞으로 몇 달 뒤, 혹은 몇 년 뒤에 내릴 결정에 따라
14:40
the next year or so,
287
880220
1296
14:41
if designer baby number one is born,
288
881540
3136
맞춤 아기 1호가 탄생한다면
14:44
within a few decades,
289
884700
1216
앞으로 수십 년 안에는
14:45
there could well be millions of genetically modified humans.
290
885940
3656
수백만 명의 유전자 조작 인간이 탄생할 수 있습니다.
14:49
And there's a difference there too, because if we, you in the audience, or I,
291
889620
4456
다른 변화는, 만약 여러분이나 제가
14:54
if we decide to have a designer baby,
292
894100
2896
맞춤 아기를 갖는다면
14:57
then their children will also be genetically modified, and so on,
293
897020
4016
그 아이들의 아이들도 조작된 유전자를 갖고 태어난다는 것입니다.
15:01
because it's heritable.
294
901060
1296
유전되니까요.
15:02
So that's a big difference.
295
902380
1480
아주 중대한 변화인 거죠.
15:05
So with all of this in mind,
296
905420
1896
이 모두를 고려했을 때
15:07
what should we do?
297
907340
1560
우리는 어떻게 해야 할까요?
15:09
There's actually going to be a meeting
298
909940
1816
앞으로 한달 후에
15:11
a month from tomorrow in Washington, D.C.
299
911780
2896
워싱턴 DC에서 회의가 열립니다.
15:14
by the US National Academy of Sciences
300
914700
1936
전미 과학 아카데미에서
15:16
to tackle that exact question.
301
916660
2616
바로 이 문제를 다루기 위해서요.
15:19
What is the right path forward with human genetic modification?
302
919300
3680
인간 유전자 조작에 관해 어떤 길이 올바른 길일까요?
15:23
I believe at this time
303
923820
2416
현재 우리에게 필요한 건
15:26
we need a moratorium.
304
926260
1456
중지를 선언하는 것이라 믿습니다.
15:27
We have to ban this.
305
927740
1496
금지시켜야 해요.
15:29
We should not allow creating genetically modified people,
306
929260
3576
유전자 조작 인간의 창조를 허가해선 안됩니다.
15:32
because it's just too dangerous and too unpredictable.
307
932860
3320
너무 위험하고 예측할 수 없기 때문이죠.
15:37
But there's a lot of people --
308
937180
1456
하지만 아주 많은 사람들이 --
15:38
(Applause)
309
938660
1136
(박수)
15:39
Thanks.
310
939820
1216
감사합니다.
15:41
(Applause)
311
941060
3400
(박수)
15:47
And let me say, just as a scientist,
312
947700
2296
사실은 과학자로서 공개적으로
15:50
it's a little bit scary for me to say that in public,
313
950020
2496
이런 말을 하는 건 좀 두렵습니다.
15:52
because science generally doesn't like self-regulation and things like that.
314
952540
5240
일반적으로 과학은 자기 검열을 반대하는 분야이기 때문이죠.
15:59
So I think we need to put a hold on this,
315
959060
3136
저는 이 일을 막아야 한다고 믿지만
16:02
but there are many people who not only disagree with me,
316
962220
2736
많은 사람들이 저와 다른 의견을 갖는 것을 넘어서서
16:04
they feel the exact opposite.
317
964980
1496
완전히 반대의 입장에 있습니다.
16:06
They're like, step on the gas, full speed ahead,
318
966500
3336
그들은 오히려 최대한 빨리 맞춤 아기를 만들자는 입장이에요.
16:09
let's make designer babies.
319
969860
1616
16:11
And so in the meeting in December
320
971500
2936
12월에 열릴 회의와
16:14
and other meetings that are likely to follow in the next few months,
321
974460
3456
그후 몇 달간 열릴 다른 회의들에서
16:17
it's very possible there may be no moratorium.
322
977940
3136
사용중지 결정이 나지 않을 수도 있습니다.
16:21
And I think part of the problem that we have
323
981100
3056
제 생각에 이 문제의 일부는
16:24
is that all of this trend,
324
984180
2056
이 모든 일의 흐름,
16:26
this revolution in genetic modification applying to humans,
325
986260
4096
유전자 조작의 혁명이나 인간 적용에 대해
16:30
the public hasn't known about it.
326
990380
1616
대중들이 모른다는 겁니다.
16:32
Nobody has been saying,
327
992020
1816
아무도 그걸 알리지 않잖아요.
16:33
look, this is a big deal, this is a revolution,
328
993860
4056
이거 보라고, 엄청난 일이라고, 혁명이라고 말이죠.
16:37
and this could affect you in very personal ways.
329
997940
2256
이 일이 여러분 개인에게도 영향을 미칠 수 있는데도요.
16:40
And so part of my goal is actually to change that
330
1000220
2816
그래서 제 목표 중 하나가 그런 상황을 바꾸는 겁니다.
16:43
and to educate and engage with the public
331
1003060
2936
일반 대중들에게 이런 사실을 알리고
16:46
and get you guys talking about this.
332
1006020
2800
이에 대한 논의를 이끌어내는 겁니다.
16:49
And so I hope at these meetings that there will be a role for the public
333
1009340
3776
앞으로 있을 회의들에서
일반인이 발언할 기회도 있기를 희망합니다.
16:53
to bring their voice to bear as well.
334
1013140
2520
16:57
So if we kind of circle back now to 2030 again, that imagined story,
335
1017500
4560
우리가 아까 상상했던 2030년은
17:03
and depending on the decisions we make, again, today --
336
1023020
3016
지금의 우리가 내리는 결정에 달렸습니다.
17:06
literally we don't have a lot of time --
337
1026060
1936
시간이 별로 없어요.
앞으로 몇 달이나 몇 년 남았죠.
17:08
in the next few months, the next year or so,
338
1028020
2096
17:10
because this technology is spreading like wildfire.
339
1030140
2520
신기술은 산불처럼 퍼지고 있기 때문입니다.
17:13
Let's pretend we're back in that reality.
340
1033380
2936
다시 2030년에 있다고 상상해봅시다.
17:16
We're at a park,
341
1036340
1816
공원에 갔어요.
17:18
and our kid is swinging on the swing.
342
1038179
3281
우리 아이가 그네를 타고 있습니다.
17:22
Is that kid a regular old kid,
343
1042419
2616
그 아이는 평범한 아이일까요?
17:25
or did we decide to have a designer baby?
344
1045060
3455
아니면 우리가 맞춤 아기를 낳기로 선택했을까요?
17:28
And let's say we went the sort of traditional route,
345
1048540
3455
평범한 아이를 가졌다고 쳐 봅시다.
17:32
and there's our kid swinging on the swing,
346
1052020
2495
아이가 그네를 타고 있는데
17:34
and frankly, they're kind of a mess.
347
1054540
2816
솔직히 엉망진창이에요.
17:37
Their hair is all over the place like mine.
348
1057380
2696
저처럼 머리가 마구 헝클어지고
17:40
They have a stuffy nose.
349
1060100
2216
콧물도 흘리고 있어요.
17:42
They're not the best student in the world.
350
1062340
2040
제일 우수한 학생도 아니죠.
17:45
They're adorable, you love them,
351
1065060
2216
여러분은 그 아이를 매우 사랑하지만
17:47
but there on the swing next to them,
352
1067300
1936
그 옆의 그네에 앉은
17:49
their best friend is a GM kid,
353
1069260
3016
제일 친한 친구가 맞춤 아이에요.
17:52
and the two of them are kind of swinging like this,
354
1072300
2416
둘이 나란히 그네를 타고 있으면
17:54
and you can't help but compare them, right?
355
1074740
2016
어쩔 수 없이 비교하게 되잖아요?
17:56
And the GM kid is swinging higher,
356
1076780
2496
맞춤 아이의 그네는 더 높이 올라갑니다.
17:59
they look better, they're a better student,
357
1079300
2176
더 잘 생기고, 공부도 더 잘해요.
18:01
they don't have that stuffy nose you need to wipe.
358
1081500
2976
콧물을 닦아 줄 필요도 없어요.
18:04
How is that going to make you feel
359
1084500
2256
여러분은 어떤 기분이 들까요?
18:06
and what decision might you make next time?
360
1086780
2720
어떤 결정을 내리시겠어요?
18:10
Thank you.
361
1090660
1216
감사합니다.
18:11
(Applause)
362
1091900
5917
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7