Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: 관웅 문 검토: Jihyeon J. Kim
00:07
What's the most important century in human history?
0
7003
3587
인류의 역사에서 가장 중요한 시기는 언제일까요?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
누군가는 대규모 군사 작전이 펼쳐진 시기라고 말할 겁니다.
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
기원전 300년대 알렉산더 대왕이 이를 통해
00:18
which reshaped political and cultural borders.
3
18848
3253
정치적, 문화적 경계를 새롭게 한 것처럼요.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
어떤 이는 주요 종교가 출현한 시기라고 할 거예요.
00:27
such as Islam in the 7th century,
5
27023
2127
7세기에 등장한 이슬람교는
00:29
which codified and spread values across such borders.
6
29525
3504
여러 가치를 문서로 만들었고 국경 너머로 전파했죠.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
아니면 1700년대에 발생한 산업 혁명일지도 모릅니다.
00:38
that transformed global commerce
8
38993
1752
세계 무역을 완전히 바꾸고
00:40
and redefined humanity's relationship with labor.
9
40745
3128
인류와 노동의 관계를 재정립한 사건이니까요.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
답이 무엇이든 간에 서로가 최고라고 내세우는 시기들은
00:48
is at a moment of great change—
11
48294
2377
모두 엄청난 변화를 겪은 듯합니다.
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
조상들의 행동이
다가올 몇 세기 동안 인류의 방향성을 바꿔놓은 거죠.
00:55
for centuries to come.
13
55802
1584
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
우리의 기준대로라면 바로 지금 세기가
01:01
this century— is the most important one yet?
15
61641
3086
여태까지 중 가장 중요한 때가 될 수 있을까요?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
21세기의 기술 발전 속도가 엄청나다는 것은 이미 밝혀진 사실이죠.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
휴대폰과 컴퓨터로 삶의 속도는 더 빨라졌습니다.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
그리고 우리는 혁신적인 새 기술이 개발되는 시작점에 있는 듯 합니다.
01:18
like advanced artificial intelligence,
19
78574
2294
고도의 인공 지능은 우리의 삶을 송두리째 바꿀 수 있죠.
01:20
that could entirely change the way people live.
20
80868
2878
01:25
Meanwhile, many technologies we already have
21
85414
3045
한편 우리가 이미 활용 중인 많은 기술들은
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
인류의 존재와 관련하여 전례없는 위험을 초래하고 있습니다.
01:33
that’s the risk of our species going extinct
23
93381
2377
인류를 멸종시켜 버리거나
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
우리가 번영할 능력을 영원히 제한하는 수준의
01:39
humanity’s ability to grow and thrive.
25
99178
2670
재앙을 경험할 수도 있죠.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
원자 폭탄의 발명은 실존주의적 위험을 심각하게 높였고
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
그 이후로도 상황은 계속 나빠지고만 있습니다.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
지금 세기에 전 인류가 붕괴할 확률을 추정하는 건 아주 어렵습니다.
01:55
of an existential collapse occurring this century.
29
115528
2628
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
재앙이 닥칠 위험성을 아주 대략적으로 계산해보면
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
핵겨울이나 기후 변화의 가능성이 약 0.1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
전염병의 대유행으로 인한 인류 붕괴의 확률은
02:11
at a frightening 3%.
33
131502
1960
무려 3%에 가깝습니다.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
이러한 재앙이 곧 종말을 의미한다는 점을 고려하면
02:19
these aren’t exactly small figures,
35
139177
2127
이는 결코 작은 수치가 아닙니다.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
그리고 지금 세기에 새로운 기술의 등장으로
02:25
that introduce more existential risks.
37
145308
2794
더 많은 위험을 야기할 가능성도 있죠.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
인공 지능 전문가들은 범용 인공 지능이 언제 등장할지에 대해
02:31
when artificial general intelligence will emerge,
39
151731
2961
다양한 범위의 예측을 내놓고 있지만,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
몇몇 조사에 따르면 대다수는 21세기로 예상하고 있습니다.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
현재는 상대적으로 좁은 인공 지능이 사용되어
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
체스를 두거나 얼굴을 인식하는 등 정해진 작업만 수행합니다.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
창의성을 가진 좁은 인공 지능들도 한 분야에만 특화되어있죠.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
하지만 반대되는 말인 범용 인공 지능은
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
적응을 함으로써 어떤 종류의 작업이든 할 수 있고
03:02
quickly outpacing their human counterparts.
46
182678
2878
그들의 경쟁자인 인간을 순식간에 앞지를 겁니다.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
범용 인공 지능이 어떠한 형태일지
지각이 있는 또 다른 존재와 지구를 공유하는 것이
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
인류에게 어떠한 의미일지에 대해 많은 추측이 오가고 있습니다.
03:14
with another sentient entity.
49
194482
2127
03:18
AGIs might help us achieve our goals,
50
198653
2544
범용 인공 지능은 우리의 목표 달성을 도와줄 수도
03:21
they might regard us as inconsequential,
51
201197
2294
우리를 하찮은 존재로 간주할 수도
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
어쩌면 신속히 제거해야할 장애물로 여길 수도 있습니다.
03:26
So in terms of existential risk,
53
206869
2169
실존주의적인 위험의 관점에서
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
인공 지능의 평가 방식을 우리에게 맞게 조정하는 과정이 꼭 필요합니다.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
이건 철학적, 공학적으로 아주 어려운 절차이기에
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
신중하고 섬세한 작업을 필요로 할 겁니다.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
만약 성공한다해도 범용 인공 지능은 다른 복잡한 결말을 불러올 수도 있죠.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
한 범용 인공 지능이 등장했는데 인간의 삶을 깊이 존중하고
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
인류의 모든 문제를 해결해주려 한다고 상상해봅시다.
03:55
But to avoid becoming misaligned,
60
235231
2169
하지만 오작동을 막기 위해
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
가지고 있는 신념에 대해선 어떠한 융통성도 없도록 개발되었죠.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
이런 기계들이 지구를 지배하게 된다면
04:04
their strict values might become hegemonic,
63
244323
2711
이들의 굳은 신념이 세계를 장악하여
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
몹시 바뀌기 어려운 하나의 이념으로 인류를 가둬버릴 겁니다.
04:14
History has taught us that no matter how enlightened
65
254792
2503
역사 속에서 문명들은 스스로를 깨우치고 계몽된 문명으로 생각해왔지만
04:17
a civilization thinks they are,
66
257295
1793
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
이후 세대의 도덕적 규범에는 못 미치는 경우가 대다수였죠.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
또, 이런식으로 가치가 고정되었다간
인류의 도덕적 발전이 영원히 왜곡되거나 억제될 수 있습니다.
04:27
humanity’s moral growth.
69
267638
1919
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
범용 인공 지능에 대한 추측은 끝없이 쏟아지고 있고
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
어떤 실존주의적 위험이 다음 세기에 걸쳐 나타날지는
04:36
will play out over the next century.
72
276314
2002
예측하기가 정말 어렵습니다.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
물론 새롭고 더 급한 걱정거리가 나타나
04:41
might render these risks moot.
74
281569
2002
이들을 잊어버리게 할 수도 있죠.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
비록 현재가 가장 중요한 시기라고 확정지어서 말할 순 없다 해도
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
지금 우리가 내리는 결정은
인류의 미래에 중대한 영향을 미칠 겁니다.
04:52
on humanity’s future.
77
292371
1502
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
그러니 우리는 미래가 우리의 손에 달린 듯이 살아야 합니다.
04:57
because actually, it just might.
79
297626
2211
왜냐면 실제로 그럴 수도 있으니까요.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7