How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hyeryung Kim 검토: DK Kim
다가오는 미래에는 인공 지능이 여러분의 삶을 바꾸고
00:07
In the coming years, artificial intelligence
0
7336
2169
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
어쩌면 온 세상을 바꾼다고 하지만
정확히 어떻게 바뀐다는 건지는 아직 불명확합니다.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
다음 내용은 유명한 인공 지능 전문가인
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
스튜어트 러셀 박사의 인터뷰에서 발췌한 내용으로
00:22
helps separate the sense from the nonsense.
5
22435
2586
거짓과 진실을 구분하는 데 도움이 될 것입니다.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
스튜어트 러셀: 인간에게 어떤 일을 부탁하는 것과
00:29
and giving that as the objective to an AI system.
7
29067
3461
인공 지능에 그 일을 시키는 것은 매우 다릅니다.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
어떤 사람한테 커피 한 잔을 사 오라고 할 때
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
그게 그 사람 인생의 사명이나 무조건이라는 말은 아닙니다.
00:37
and nothing else in the universe matters.
10
37742
1960
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
스타벅스가 문 닫기 전에 커피를 사려고
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
거기 있는 사람들을 다 죽이라는 뜻도 아니죠.
00:45
No, that’s not what you mean.
13
45124
1627
네, 그건 절대 아닙니다.
00:46
All the other things that we mutually care about,
14
46751
2294
우리가 신경 쓰는 모든 상황을 고려해서 행동을 취하라는 말이죠.
00:49
they should factor into your behavior as well.
15
49045
2169
현재 인공 지능이 작동하는 방식은 정해진 목표만 받는 방식입니다.
00:51
And the problem with the way we build AI systems now
16
51214
3169
00:54
is we give them a fixed objective.
17
54383
1627
인공 지능에 주는 목표에는 모든 것이 들어있어야 합니다.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
예를 들어 로봇에 해양 산성화를 멈추라는 목표를 준다고 합시다.
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
촉매 반응을 이용하면 효과적으로 수행할 수 있지만
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
그러려면 대기 중의 산소를 사분의 일 정도 소모해야 하고
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
사람들은 산소가 부족해서
몇 시간에 걸쳐 천천히 고통스럽게 죽게 됩니다.
01:13
over the course of several hours.
23
73986
1752
01:15
So, how do we avoid this problem?
24
75780
3211
그러면 어떻게 이런 문제를 피할 수 있을까요?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
이렇게 생각할 수 있겠죠.
“그래, 목표를 좀 더 구체적으로 주자.
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
대기 중의 산소 농도도 고려할 것.”
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
그러면 당연히 다른 부작용이 생기겠죠.
바닷속에 독이 퍼져서 물고기가 다 죽게 됩니다.
01:29
poisons all the fish.
28
89418
1377
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
“좋아. 그럼 물고기도 죽이지 말 것.
01:33
And then, well, what about the seaweed?
30
93464
1919
아, 그러면 해조류는 어떡하지?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
해조류도 죽이지 말 것.”
계속 이런 식이죠.
01:38
And on and on and on.
32
98344
1210
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
로봇이 아닌 인간에게는 이렇게 할 필요가 없습니다.
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
대개 인간은 필요한 모든 것을 모른다는 것을 알기 때문이죠.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
어떤 사람에게 커피 한 잔을 사다 달라고 부탁했는데
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
파리에 있는 조지 샌드 호텔이었다면
01:54
where the coffee is 13 euros a cup,
37
114193
2628
그곳은 커피가 한 잔에 만팔천 원입니다.
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
그러면 그 사람은 다시 돌아와서 커피가 만팔천 원인데 그냥 사 올지
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
아니면 다른 곳에 가 볼지 물어보겠죠.
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
인간이면 당연히 그렇게 할 겁니다.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
제가 여러분 집 외벽에 페인트칠을 다시 한다면
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
배수관을 떼었다가 다시 붙여도 되겠냐고 먼저 물어보겠죠.
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
인간에게 이는 그렇게 대단하고 정교한 능력이 아닙니다.
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
하지만 현재의 인공 지능은 그런 식으로 만든 것이 아니어서
02:19
they have to know the full objective.
45
139719
1793
임무를 전부 다 알려줘야 합니다.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
만약 인공 지능이 다른 변수도 고려할 수 있게 만들면
02:25
then they start to exhibit these behaviors,
47
145474
2586
대기 중의 산소를 다 제거하기 전에
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
인공 지능은 미리 물어보고 허락받는 행동을 할 겁니다.
02:32
In all these senses, control over the AI system
49
152565
3378
이런 모든 면에서 볼 때 인공 지능 시스템을 통제하는 것은
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
인공 지능이 임무의 진정한 목적을 모르게 하는 것에서 옵니다.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
기계가 고정된 목표만 수행하면 된다는 확신을 갖고 행동하도록 설계하면
02:44
that they have the objective,
52
164368
1418
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
이렇게 상식에 벗어난 결과가 나옵니다.
02:48
And I think we see the same thing in humans.
54
168539
2127
인간도 마찬가지이죠.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
범용 인공 지능이 실물 경제에 타격을 준다면 어떻게 될까요?
02:55
How do things change? Can we adapt?
56
175379
3587
세상은 어떻게 바뀔까요? 우린 여기에 적응할 수 있을까요?
02:59
This is a very old point.
57
179175
1835
이는 아주 오래된 문제입니다.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
놀랍게도 실제로 아리스토텔레스가 이런 말을 했다는 기록이 있습니다.
03:04
look, if we had fully automated weaving machines
59
184597
3045
“완전히 자동화된 직물 짜는 기계와
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
스스로 리라를 연주하고 작곡하는 기계가 있다면
03:11
then we wouldn’t need any workers.
61
191604
2002
그 어떤 일꾼도 필요 없을 것이다.”
03:13
That idea, which I think it was Keynes
62
193814
2878
1930년, 케인스라는 경제학자는
03:16
who called it technological unemployment in 1930,
63
196692
2836
이것을 ‘기술적 실업’이라고 불렀는데
03:19
is very obvious to people.
64
199528
1919
그 의미는 아주 명확합니다.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
한 마디로 기계가 일을 다 한다면 우린 모두 실업자가 된다는 거죠.
03:24
then I'm going to be unemployed.
66
204533
1669
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
기업이 온라인 판매 제품 보관에 이용하는 창고는
03:29
for e-commerce, they are half automated.
68
209872
2711
반자동으로 운영됩니다.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
수많은 상품이 낡은 창고 여기저기에 쌓여 있고
03:36
all over the place and humans go and rummage around
70
216629
2461
사람들이 가서 이리저리 뒤져 필요한 물건을 가져와 배송합니다.
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
필요한 물건이 있는 선반 전체를 들어서 가져다주는 로봇도 있긴 하지만
03:44
that contains the thing that you need,
73
224553
1919
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
물건을 골라 선반에서 꺼내는 일은 사람이 해야 합니다.
03:50
because that’s still too difficult.
75
230101
1877
로봇에겐 아직 어렵기 때문이죠.
03:52
But, at the same time,
76
232019
2002
하지만 동시에
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
수많은 물건 중에서 딱 필요한 물건만
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
정확하게 골라서 꺼낼 수 있는 로봇을 만든다면 어떨까요?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
일자리 삼사백만 개 정도가 한 번에 없어져 버리겠죠.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E. M. 포스터라는 작가가 쓴 흥미로운 이야기에서는
04:09
where everyone is entirely machine dependent.
81
249745
3504
모든 사람들이 전적으로 기계에 의존합니다.
04:13
The story is really about the fact that if you hand over
82
253499
3754
이 이야기가 보여주는 것은
문명의 주도권을 기계에 넘겨주면
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
우리는 의욕을 잃게 되어 스스로 이해하려 하지도 않고
04:23
or to teach the next generation how to understand it.
85
263718
2544
다음 세대에게 문명을 이해하는 법을 가르치려고도 않게 된다는 것입니다.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
현대판 ‘월-E’를 보게 될지도 모르겠네요.
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
사람들이 모두 나약해져서 기계한테 어린애 취급당하는 거죠.
04:32
and that hasn’t been possible up to now.
88
272893
1961
물론 아직 그런 일은 없었지만요.
04:34
We put a lot of our civilization into books,
89
274854
2419
우리는 문명의 상당 부분을 책에 기록하지만
04:37
but the books can’t run it for us.
90
277273
1626
책이 그걸 전달하지는 못합니다.
04:38
And so we always have to teach the next generation.
91
278899
2795
우리가 다음 세대를 직접 가르쳐야 하죠.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
생각해 보면 가르치고 배우는 데 엄청난 노동력이 필요하고
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
수많은 세대를 거쳐 끊어지지 않고 계속 이어져 내려온 것이죠.
04:50
What happens if that chain breaks?
94
290119
1919
만약 끊어져 버리면 어떻게 될까요?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
이 또한 인공 지능이 발전하면서 생각해 봐야 할 부분입니다.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
범용 인공 지능이 실현되는 그날이 정확히 언제가 될지는
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
확신할 수 없고 하루아침에 되는 일이 아닙니다.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
‘모 아니면 도’ 같은 일도 아니죠.
05:04
The impact is going to be increasing.
99
304592
2461
영향은 점점 커질 것입니다.
05:07
So with every advance in AI,
100
307053
2043
인공 지능이 발전할 때마다
05:09
it significantly expands the range of tasks.
101
309096
2962
임무의 범위는 점점 넓어지겠죠.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
그런 의미에서 대부분 전문가들이 이번 세기 말까지는
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
범용 인공 지능이 실현될 것이 매우 확실할 거라고 얘기합니다.
05:20
The median is something around 2045.
104
320733
3754
중앙값은 2045년 정도로 예측되는데
05:24
I'm a little more on the conservative side.
105
324487
2002
저는 좀 더 보수적인 쪽입니다.
05:26
I think the problem is harder than we think.
106
326489
2085
제 생각에 이 문제는 보기보다 어렵습니다.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
인공 지능의 창시자 중 하나인 존 매커피는 이 질문에
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
향후 5년에서 500년 사이라고 답했는데 저는 여기에 동의하며
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
이게 실현되려면 아인슈타인 같은 사람이 몇 명 더 필요할 것 같습니다.

Original video on YouTube.com
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7