3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hyein Jeng 검토: keun_young Lee
00:12
This is Lee Sedol.
0
12532
1552
이 사람은 이세돌입니다.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
이세돌은 세계에서 가장 뛰어난 바둑 기사 중 한명이죠.
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
보고 계신 이 사진의 순간에 실리콘벨리의 제 친구들은
00:21
a "Holy Cow" moment --
3
21038
1510
"세상에나!" 라고 외쳤습니다.
00:22
(Laughter)
4
22572
1073
(웃음)
00:23
a moment where we realize
5
23669
2188
바로 이 순간에
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
인공지능이 생각했던 것보다 빠르게 발전하고 있음을 깨닫게 되었죠.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
자, 바둑판에서 인간들은 패배했습니다. 그럼 현실 세상에서는 어떨까요?
00:33
Well, the real world is much bigger,
8
33045
2100
현실 세계는 훨씬 크고
00:35
much more complicated than the Go board.
9
35169
2249
바둑판보다 훨씬 복잡합니다.
00:37
It's a lot less visible,
10
37442
1819
한 눈에 들어오지도 않고
00:39
but it's still a decision problem.
11
39285
2038
결정에 관한 문제도 여전히 남아있습니다.
00:42
And if we think about some of the technologies
12
42768
2321
그리고 새롭게 떠오르는 기술들을 살펴보면
00:45
that are coming down the pike ...
13
45113
1749
----------------------------------
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
노리코 아라이 교수가 말한대로 독서하는 인공지능은 아직 없습니다.
00:51
at least with understanding.
15
51917
1500
적어도 이해를 동반한 독서 말이죠.
00:53
But that will happen,
16
53441
1536
하지만 그런 인공지능도 출현할 겁니다.
00:55
and when that happens,
17
55001
1771
그때가 되면
00:56
very soon afterwards,
18
56796
1187
얼마 안돼서
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
인공지능은 인류가 지금까지 쓴 모든 것을 읽게 될 것입니다.
01:03
And that will enable machines,
20
63670
2030
그리고 인공지능 기계들이 그렇게 할 수 있게 되면
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
인간보다 더 멀리 예측하는 능력을 갖게 되고
01:08
as we've already seen in Go,
22
68668
1680
바둑 시합에서 이미 드러났듯이
01:10
if they also have access to more information,
23
70372
2164
인공지능 기계들이 더 많은 정보에 접근할 수 있으면
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
실제 세계에서 우리보다 더 나은 결정들을 할 수 있을 것입니다.
01:18
So is that a good thing?
25
78612
1606
그러면 좋은 것일까요?
01:21
Well, I hope so.
26
81718
2232
음, 그랬으면 좋겠네요.
01:26
Our entire civilization, everything that we value,
27
86514
3255
우리 인류 문명을 통틀어 가치 있다고 여기는 모든 것들은
01:29
is based on our intelligence.
28
89793
2068
우리 지식에 바탕한 것입니다.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
그리고 만약 우리가 더 많은 지식에 접근할 수 있다면
01:35
then there's really no limit to what the human race can do.
30
95603
3302
인류가 할 수 있는 것들에서 진정한 한계는 없을 것입니다.
01:40
And I think this could be, as some people have described it,
31
100485
3325
누군가 말했듯이 그렇게만 된다면
01:43
the biggest event in human history.
32
103834
2016
인류 역사상 가장 큰 사건이 되겠죠.
01:48
So why are people saying things like this,
33
108485
2829
그런데 왜 사람들은 이런 말을 할까요?
01:51
that AI might spell the end of the human race?
34
111338
2876
인공지능(AI)이 우리 인류의 종말을 가져올 거라고 말이죠.
01:55
Is this a new thing?
35
115258
1659
인공지능이 새로운 것일까요?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
엘런 머스크, 빌 게이츠, 스티븐 호킹. 이런 사람들만 아는 것인가요?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
사실, 아닙니다. 이 개념이 나온 지는 좀 되었죠.
02:05
Here's a quotation:
38
125059
1962
이런 말이 있습니다.
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"중요한 순간에 전원을 꺼버리는 식으로
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
기계를 우리 인간에게 계속 복종하도록 만들 수 있더라도.."
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
"전원을 끈다"는 개념은 나중에 다시 설명하겠습니다.
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"우리는 인류로서 겸손함을 느껴야 합니다. "
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
누가 한 말일까요? 앨런 튜링이 1951년에 한 말입니다.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
앨런 튜링은 아시다시피 컴퓨터 과학의 아버지입니다.
02:28
and in many ways, the father of AI as well.
45
148907
3048
그리고 여러 측면에서 인공지능의 아버지이기도 하죠.
02:33
So if we think about this problem,
46
153059
1882
이런 문제를 생각해볼까요.
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
우리 인류의 지능을 뛰어넘는 무언가를 창조하는 문제입니다.
02:38
we might call this "the gorilla problem,"
48
158776
2622
이른바 "고릴라 문제"라 할 수 있죠.
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
수만 년 전 고릴라들의 조상들도 같은 고민을 했을테니까요.
02:45
and now we can ask the gorillas:
50
165939
1745
그럼 이제 고릴라들에게 이렇게 물어보면 어떨까요.
02:48
Was this a good idea?
51
168572
1160
"좋은 아이디어였나요?"
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
고릴라들은 좋은 생각이었는지 의논하기 위해 모였습니다.
02:53
and after a little while, they conclude, no,
53
173310
3346
그리고 잠시 후 결론을 내립니다.
02:56
this was a terrible idea.
54
176680
1345
최악의 아이디어였다고 결론짓죠.
02:58
Our species is in dire straits.
55
178049
1782
그 때문에 자신들이 곤경에 처했다면서요.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
실제로 그들 눈에서 존재론적 슬픔이 엿보이네요.
03:04
(Laughter)
57
184645
1640
(웃음)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
따라서 우리보다 더 뛰어난 무언가를 만들어낸다는 이러한 초조한 느낌은
03:11
is maybe not a good idea --
59
191173
2365
좋은 아이디어가 아닐 겁니다.
03:14
what can we do about that?
60
194308
1491
그럼 어떻게 해야 할까요?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
음, 사실 인공지능을 중단시키는 것 말고는 딱히 방법이 없습니다.
03:20
and because of all the benefits that I mentioned
62
200614
2510
그리고 제가 앞서 말씀드렸던 모든 장점들 때문이기도 하고
03:23
and because I'm an AI researcher,
63
203148
1716
물론 제가 인공지능을 연구하고 있어서도 그렇지만
03:24
I'm not having that.
64
204888
1791
저는 중단을 고려하지는 않습니다.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
저는 사실 계속 인공지능을 가능하게 하고 싶습니다.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
여기서 이 문제에 대해 좀 더 살펴볼 필요가 있습니다.
03:33
What exactly is the problem?
67
213137
1371
문제가 정확히 무엇일까요?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
왜 뛰어난 인공지능은 재앙을 뜻할까요?
03:39
So here's another quotation:
69
219218
1498
자, 이런 말도 있습니다.
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"기계에 부여한 그 목적이 우리가 정말 원했던 목적인지를
03:45
is the purpose which we really desire."
71
225114
2298
좀 더 확실히 해두었어야 합니다."
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
이건 노버트 위너가 1960년에 한 말입니다.
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
매우 초기의 기계 학습 장치가 체스 두는 법을 배우고
03:55
learn to play checkers better than its creator.
74
235650
2583
사람보다 체스를 더 잘 두게 된 것을 보고 바로 한 말이죠.
04:00
But this could equally have been said
75
240422
2683
하지만 어떻게 보자면
마이더스 왕과 같다고 할 수도 있습니다.
04:03
by King Midas.
76
243129
1167
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
손대는 모든 것이 금으로 변하길 원했던 왕이죠.
그리고 그가 원했던대로 실제로 그렇게 되었습니다.
04:08
and he got exactly what he asked for.
78
248061
2473
04:10
That was the purpose that he put into the machine,
79
250558
2751
그게 바로 그가 기계에 입력한 목표입니다.
04:13
so to speak,
80
253333
1450
비유를 하자면 그렇죠.
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
그리고 그의 음식, 술, 가족까지 모두 금으로 변했습니다.
04:18
and he died in misery and starvation.
82
258275
2281
그리고 그는 처절함과 배고픔 속에서 죽었습니다.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
우리는 이것을 "마이더스 왕의 딜레마"라고 부릅니다.
04:24
of stating an objective which is not, in fact,
84
264629
3305
이 딜레마는 그가 말한 목적이 실제로 그가 정말 원했던 것과
04:27
truly aligned with what we want.
85
267958
2413
동일하지 않게 되는 문제입니다.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
현대 용어로는 "가치 조합 문제"라고 하죠.
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
잘못된 목표를 입력하는 것만 문제가 되는 것은 아닙니다.
04:40
There's another part.
88
280376
1152
또 다른 문제가 있습니다.
04:41
If you put an objective into a machine,
89
281980
1943
여러분이 기계에 목표를 입력할 때
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
"커피를 갖고 와"같이 단순한 것이라고 해도
04:47
the machine says to itself,
91
287728
1841
기계는 이렇게 생각할지 모릅니다.
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"자, 어떻게 하면 내가 커피를 못가져가게 될까?
04:53
Someone might switch me off.
93
293200
1580
누가 전원을 꺼버릴 수도 있잖아.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
좋아, 그런 일을 막기 위해 조치를 취해야겠어.
04:57
I will disable my 'off' switch.
95
297876
1906
내 '꺼짐' 버튼을 고장 내야겠어.
05:00
I will do anything to defend myself against interference
96
300354
2959
주어진 임무를 못하게 방해하는 것들로부터
05:03
with this objective that I have been given."
97
303337
2629
나를 보호하기 위해 뭐든지 할 거야. "
05:05
So this single-minded pursuit
98
305990
2012
사실, 이렇게 방어적 자세로
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
오직 목표 달성만을 추구하는 것은
05:12
not aligned with the true objectives of the human race --
100
312002
2814
인류의 진실된 목표와 일치하지는 않습니다.
05:15
that's the problem that we face.
101
315942
1862
우리가 직면한 문제점이 바로 이것입니다.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
이건 사실 이번 강연 에서 무척 고차원적인 부분인데요.
05:23
If you want to remember one thing,
103
323618
2055
만약 하나만 기억해야 한다면
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
여러분이 죽으면 커피를 가져다 주지 않을 거라는 것입니다.
05:28
(Laughter)
105
328396
1061
(웃음)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
간단하죠. 하루에 세 번씩 외우세요.
05:33
(Laughter)
107
333334
1821
(웃음)
05:35
And in fact, this is exactly the plot
108
335179
2754
그리고 사실 이게 바로
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
"2001:스페이스 오디세이" 영화의 줄거리입니다.
05:41
HAL has an objective, a mission,
110
341046
2090
인공지능인 '할(HAL)'은 목표, 즉 임무를 갖고 있습니다.
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
이건 인류의 목표와 일치하지는 않습니다.
05:46
and that leads to this conflict.
112
346916
1810
그래서 결국 서로 충돌하죠.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
다행히도 HAL의 지능이 아주 뛰어나진 않았습니다.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
꽤 똑똑했지만 결국 데이브가 HAL보다 한 수 위였고
05:55
and manages to switch him off.
115
355918
1849
HAL의 전원을 끌 수 있게 됩니다.
06:01
But we might not be so lucky.
116
361648
1619
하지만 우리는 영화처럼 운이 좋지 않을 수 있습니다.
06:08
So what are we going to do?
117
368013
1592
그럼 어떻게 해야 할까요?
06:12
I'm trying to redefine AI
118
372191
2601
저는 인공지능을 다시 정의하려 합니다.
06:14
to get away from this classical notion
119
374816
2061
고전적 개념을 깨려고 해요.
06:16
of machines that intelligently pursue objectives.
120
376901
4567
기계는 지능적으로 목표를 달성하려 한다는 개념이죠.
06:22
There are three principles involved.
121
382532
1798
여기에는 세 가지 원칙이 있습니다.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
첫번째는 이타주의 원칙입니다.
06:27
that the robot's only objective
123
387667
3262
로봇의 유일한 목적은
06:30
is to maximize the realization of human objectives,
124
390953
4246
인간의 목표와
인간의 가치를 최대한 실현하는 것입니다.
06:35
of human values.
125
395223
1390
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
여기서 말하는 가치는 닭살돋는 숭고한 가치를 의미하진 않습니다.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
제가 말씀드리는 가치는
어떻게 해야 사람들의 삶이 더 나아질지를 의미하는 것입니다.
06:43
their life to be like.
128
403802
1343
06:47
And so this actually violates Asimov's law
129
407184
2309
그리고 사실 이건 아시모프의 원칙 중에서
06:49
that the robot has to protect its own existence.
130
409517
2329
로봇은 스스로를 보호해야 한다는 원칙과 충돌합니다.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
어쨌든 로봇은 스스로를 보호해서 얻는 것이 없죠.
06:57
The second law is a law of humility, if you like.
132
417240
3768
두 번째 원칙은 겸손에 관한 법칙이라고 말할 수 있습니다.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
로봇의 안전을 지키기 위한 아주 중요한 원칙이죠.
07:05
It says that the robot does not know
134
425561
3142
이 원칙은
로봇들은 인간이 추구하는 가치가 무엇인지는 알 수 없다는 것입니다.
07:08
what those human values are,
135
428727
2028
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
가치를 극대화해야 하지만 그것이 무엇인지는 알지 못한다는 것이죠.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
그렇기 때문에 이를 통해서
목표만을 맹목적으로 추구하는 문제를 피할 수 있습니다.
07:17
of an objective.
138
437724
1212
07:18
This uncertainty turns out to be crucial.
139
438960
2172
이런 불확실성은 매우 중요한 부분입니다.
07:21
Now, in order to be useful to us,
140
441546
1639
자, 우리에게 도움이 되기 위해서는
07:23
it has to have some idea of what we want.
141
443209
2731
우리가 무엇을 원하는지에 대한 개념을 갖고 있어야 합니다.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
로봇은 주로 사람들이 선택하는 것을 관찰해서 정보를 얻습니다.
07:32
so our own choices reveal information
143
452494
2801
그래서 우리들의 선택 안에는
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
우리 삶이 어떻게 되기를 바라는지에 관한 정보가 있습니다
07:40
So those are the three principles.
145
460452
1683
이것들이 세 개의 원칙입니다.
자 그러면 이것이 다음 질문에 어떻게 적용되는지 살펴봅시다.
07:42
Let's see how that applies to this question of:
146
462159
2318
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
기계의 전원을 끌 수 있을지에 관해 앨런 튜링이 제기했던 문제입니다.
07:48
So here's a PR2 robot.
148
468893
2120
여기에 PR2 로봇이 있습니다.
07:51
This is one that we have in our lab,
149
471037
1821
저희 연구소에 있는 로봇입니다.
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
이 로봇 뒤에는 커다랗고 빨간 "꺼짐" 버튼이 있습니다.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
자 여기에서 질문입니다. 로봇은 여러분이 전원을 끄도록 할까요?
07:59
If we do it the classical way,
152
479000
1465
고전적 방법대로 로봇에게 이런 목표를 부여한다고 치죠.
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
"커피를 갖고 간다. 나는 커피를 가져가야만 한다.
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
내 전원이 꺼지면 커피를 갖고 갈 수 없다."
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
PR2는 제 명령을 그대로 따르기 위해 이렇게 말하겠죠.
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
"좋아, 내 '꺼짐' 버튼을 망가뜨려야 겠어.
08:14
and probably taser all the other people in Starbucks
157
494796
2694
그리고 스타벅스에 있는 모든 사람들을 전기총으로 쏴야겠어.
08:17
who might interfere with me."
158
497514
1560
이 사람들이 장애물이 될 테니까."
08:19
(Laughter)
159
499098
2062
(웃음)
08:21
So this seems to be inevitable, right?
160
501184
2153
이렇게 될 수 밖에 없잖아요.
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
이러한 종류의 실패 모드는 피할 수 없을 겁니다.
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
확실하고 명확한 목적을 갖고 그대로 따르고 있으니까요.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
그러면 이 기계가 목표를 부정확하게 알고 있으면 어떤 일이 일어날까요?
08:33
Well, it reasons in a different way.
164
513800
2127
음, 좀 다른 방식으로 이렇게 생각하게 될 겁니다.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
"좋아, 인간이 내 전원을 끌 수 있어.
08:38
but only if I'm doing something wrong.
166
518964
1866
하지만 내가 뭔가 잘못했을 때만 그럴 거야.
08:41
Well, I don't really know what wrong is,
167
521567
2475
그런데 나는 잘못한다는 게 뭔지는 모르지만
08:44
but I know that I don't want to do it."
168
524066
2044
잘못하고 싶지는 않아."
자, 여기에 첫 번째와 두 번째 원칙이 있습니다.
08:46
So that's the first and second principles right there.
169
526134
3010
08:49
"So I should let the human switch me off."
170
529168
3359
"그러면 나는 인간이 전원을 끄게 놔둬야겠다."
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
사실 로봇이 인간으로 하여금 전원을 끌 수 있도록 놔둘 때
08:57
to allow the human to switch it off,
172
537521
2493
어떤 이득이 있을지 예측할 수 있고
09:00
and it's directly tied to the degree
173
540038
1914
이것은 기저에 깔린
09:01
of uncertainty about the underlying objective.
174
541976
2746
목적에 대한 불확실성의 정도와 직접적으로 연결됩니다.
09:05
And then when the machine is switched off,
175
545797
2949
그리고 로봇의 전원이 꺼지면
09:08
that third principle comes into play.
176
548770
1805
세 번째 원칙이 작동하게 됩니다.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
로봇은 추구해야 하는 목표에 대해 이해하게 되죠.
09:13
because it learns that what it did wasn't right.
178
553685
2533
목표 수행에서 무엇이 잘못됐는지 알게 되기 때문입니다.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
사실 우리가 그리이스 문자를 사용해서
09:19
as mathematicians usually do,
180
559836
2131
수학을 늘 공부하는 것처럼
09:21
we can actually prove a theorem
181
561991
1984
우리는 하나의 가설을 증명할 수 있습니다.
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
어떤 정의냐면, 이런 로봇은 아마도 인간에게 도움이 될 거라는 겁니다.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
아마도 이렇게 작동하게 만들어진 기계로 인해 혜택을 보게 될 겁니다.
09:31
than without it.
184
571403
1246
이런 기계가 없을 때보다 말이죠.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
이것은 매우 간단한 예시입니다.
인간과 공존할 수 있는 인공지능으로 무얼 할 수 있는지에 대한 첫걸음이죠.
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
09:42
Now, this third principle,
187
582477
3257
자, 이제 세 번째 원칙입니다.
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
이걸 보고 어쩌면 여러분이 머리를 긁적이실 것 같은데요.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
이렇게 생각할 수도 있습니다. "음, 내가 좀 못됐잖아.
09:52
I don't want my robot to behave like me.
190
592157
2929
나는 내 로봇이 나처럼 행동하는 건 별로야.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
나는 한밤중에 몰래 냉장고를 뒤져서 먹을 걸 찾기도 하잖아.
09:58
I do this and that."
192
598568
1168
그것 말고도 많지."
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
로봇이 하지 않았으면 하는 여러 행동들이 있을 겁니다.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
그런데, 그런 일은 없을 거예요.
10:04
Just because you behave badly
195
604676
2155
단순히 여러분이 나쁜 행동을 했다고 해서
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
로봇이 그 행동을 그대로 따라서 하는 건 아닙니다.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
로봇은 여러분의 동기를 이해하고 그 나쁜 행동을 하지 않도록 돕습니다.
10:13
if appropriate.
198
613436
1320
만약 그게 옳다면 말이죠.
10:16
But it's still difficult.
199
616026
1464
하지만 이건 어려운 문제입니다.
10:18
What we're trying to do, in fact,
200
618122
2545
사실 우리가 하려고 하는 건
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
기계로 하여금 누군가를 대상으로 앞으로 그가 살게 될 삶이 어떠한지를
10:26
that they could live,
202
626511
1161
예측하게 하는 겁니다.
10:27
and the lives of everybody else:
203
627696
1597
그리고 다른 여러 모두의 사람들의 삶을 말이죠.
10:29
Which would they prefer?
204
629317
2517
어떤 것을 그들이 더 선호할까요?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
이를 가능하게 하려면 너무나 많은 난관을 넘어야 합니다.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
저는 이 문제들이 단기간에 해결되리라고 보지 않습니다.
10:39
The real difficulties, in fact, are us.
207
639815
2643
사실 그중 가장 큰 난관은 바로 우리 자신입니다.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
앞서 말씀드렸듯이 우리는 나쁜 행동을 합니다.
사실 우리 중에 누군가는 정말 형편 없을지도 모르죠.
10:47
In fact, some of us are downright nasty.
209
647110
2321
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
말씀드렸듯이 로봇은 그런 행동을 그대로 따라 하지는 않습니다.
10:53
The robot does not have any objective of its own.
211
653327
2791
로봇은 스스로를 위한 어떤 목적도 갖지 않습니다.
10:56
It's purely altruistic.
212
656142
1737
로봇은 순전히 이타적이죠.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
그리고 사용자라는 한 사람만의 욕구를 충족하기 위해 만들어진 것도 아닙니다.
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
사실은 모든 사람들이 원하는 바를 고려해야 하죠.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
어느 정도의 형편없는 상황은 감내하게 될 것입니다.
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
여러분이 아무리 형편없어도 어느 정도는 양해해 주겠죠.
예를 들어 여러분이 여권 발급 공무원인데 뇌물을 받았다고 칩시다.
11:15
you may take bribes as a passport official
217
675402
2671
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
그런데 뇌물을 받은 이유가 생활비와 아이들 교육을 위한 것이었다면
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
로봇은 이런 걸 이해하고, 빼앗아가지는 않을 겁니다.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
오히려 로봇은 여러분의 자녀가 학교에 갈 수 있도록 도울 거예요.
11:28
We are also computationally limited.
221
688796
3012
우리의 연산능력은 한계가 있습니다.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
이세들은 천재 바둑기사입니다.
11:34
but he still lost.
223
694361
1325
하지만 그는 로봇에게 졌죠.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
그의 수를 살펴보면, 그는 로봇에게 질 수 밖에 없는 수를 두었습니다.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
그렇다고 해서 그가 패배를 원했다는 건 아닙니다.
11:43
So to understand his behavior,
226
703160
2040
따라서 그의 수를 이해하려면
11:45
we actually have to invert through a model of human cognition
227
705224
3644
우리는 인간의 지각 모델을 아예 뒤집어 봐야 합니다
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
인간의 지각 모델은 우리의 계산적 한계를 담고 있어서 매우 복잡합니다.
11:53
But it's still something that we can work on understanding.
229
713893
2993
하지만 연구를 통해서 계속 발전하고 있습니다.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
인공지능 연구자의 입장에서 제가 보기에 가장 어려운 부분은
12:02
is the fact that there are lots of us,
231
722040
2575
인간이 너무 많다는 것입니다.
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
그래서 인공지능 기계는 수많은 사람들의 선호도를 비교하면서
12:09
of many different people,
233
729719
2225
균형을 유지해야 하죠.
12:11
and there are different ways to do that.
234
731968
1906
거기에는 여러 방법이 있습니다.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
그에 관해 경제학자, 사회학자, 윤리학자들이 연구를 수행했고
12:17
and we are actively looking for collaboration.
236
737611
2455
각 분야가 서로 협력하는 시도를 하고 있습니다.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
자 여러분이 잘못했을 때 어떤 일이 일어날지 살펴보죠.
12:23
So you can have a conversation, for example,
238
743365
2133
예를 들어 여러분이 대화를 하고 있습니다.
12:25
with your intelligent personal assistant
239
745522
1944
여러분의 인공지능 비서와 이야기를 하고 있습니다.
12:27
that might be available in a few years' time.
240
747490
2285
이런 대화는 앞으로 몇 년 안에 가능해질 겁니다.
12:29
Think of a Siri on steroids.
241
749799
2524
시리를 생각해보세요.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
시리가 "사모님이 오늘 저녁 약속을 잊지말라고 전화하셨어요"라고 말합니다.
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
여러분은 약속을 잊고 있었죠.
"뭐라고? 무슨 저녁? 무슨 말 하는거야?"
12:40
What are you talking about?"
244
760968
1425
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"음, 7시로 예정된 결혼 20주년 축하 저녁식사 입니다."
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"시간이 안되는데.. 사무총장님과 7시 반에 약속이 있단 말이야.
12:52
How could this have happened?"
247
772478
1692
어떻게 이렇게 겹쳤지?"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"음, 제가 말씀드리긴 했지만 제 이야기는 무시하셨죠."
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"그럼 어떡하지? 사무총장님한테 바쁘다고 핑계를 댈 수는 없잖아."
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"걱정마세요. 제가 사무총장님이 타신 비행기가 연착되도록 손 썼습니다."
13:07
(Laughter)
251
787615
1682
(웃음)
13:10
"Some kind of computer malfunction."
252
790069
2101
"알 수 없는 컴퓨터 오류가 일어나도록 했죠."
13:12
(Laughter)
253
792194
1212
(웃음)
13:13
"Really? You can do that?"
254
793430
1617
"정말? 그렇게 할 수 있어?"
13:16
"He sends his profound apologies
255
796220
2179
"사무총장님이 정말 미안하다고 하셨습니다.
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
그리고 대신 내일 점심에 꼭 보자고 하셨습니다."
13:21
(Laughter)
257
801002
1299
(웃음)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
이 상황에서 가치를 둔 것은.. 방향이 조금 잘못되기는 했지만요.
13:26
This is clearly following my wife's values
259
806752
3009
이건 분명 제 아내에게 가치를 둔 결정입니다.
13:29
which is "Happy wife, happy life."
260
809785
2069
"아내가 행복하면, 삶이 행복하다." 라는 말처럼요.
13:31
(Laughter)
261
811878
1583
(웃음)
13:33
It could go the other way.
262
813485
1444
다른 상황도 벌어질 수 있습니다.
13:35
You could come home after a hard day's work,
263
815641
2201
여러분이 정말 힘든 하루를 보내고 집에 왔습니다.
13:37
and the computer says, "Long day?"
264
817866
2195
그리고 컴퓨터가 말합니다. "힘든 하루였죠?"
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"맞아, 점심 먹을 시간도 없었어."
"배가 많이 고프시겠네요."
13:42
"You must be very hungry."
266
822397
1282
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"배고파 죽을 것 같아. 저녁 좀 해줄래?"
13:47
"There's something I need to tell you."
268
827890
2090
"제가 먼저 드릴 말씀이 있습니다."
13:50
(Laughter)
269
830004
1155
(웃음)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"남 수단에는 주인님보다 더 심한 굶주림에 시달리는 사람들이 있습니다."
13:56
(Laughter)
271
836942
1104
(웃음)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"저는 이제 전원을 끄겠습니다. 저녁은 알아서 드세요."
14:00
(Laughter)
273
840169
2000
(웃음)
14:02
So we have to solve these problems,
274
842643
1739
우리는 이런 문제들을 해결해야 합니다.
14:04
and I'm looking forward to working on them.
275
844406
2515
그리고 해결되리라고 기대합니다.
14:06
There are reasons for optimism.
276
846945
1843
제가 낙관하는 이유가 있습니다.
14:08
One reason is,
277
848812
1159
그 중 하나는
14:09
there is a massive amount of data.
278
849995
1868
정말 방대한 양의 정보가 있다는 거죠.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
기계들은 인류가 기록해 둔 모든 자료를 읽어 들일 것입니다.
14:14
the human race has ever written.
280
854705
1546
우리가 기록한 자료 대부분은 누가 무엇을 했고
14:16
Most of what we write about is human beings doing things
281
856275
2724
누가 그 일에 반대했는가에 관한 것들입니다.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
이런 방대한 양의 정보에서 배울 점이 있습니다.
14:23
There's also a very strong economic incentive
284
863383
2236
이를 통해 엄청난 경제적 이득을 볼 수 있죠.
14:27
to get this right.
285
867151
1186
제대로 활용한다면요.
14:28
So imagine your domestic robot's at home.
286
868361
2001
자, 여러분 집에 가정부 로봇이 있다고 상상해보세요.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
여러분이 야근으로 귀가가 늦어졌고, 로봇이 아이들의 식사를 챙겨야 합니다.
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
아이들은 배가 고프고 냉장고에는 먹을 게 없습니다.
14:36
And the robot sees the cat.
289
876324
2605
그때 로봇은 고양이를 쳐다봅니다.
14:38
(Laughter)
290
878953
1692
(웃음)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
그리고 이 로봇은 인간의 가치 평가 방식을 아직 제대로 배우지 않았습니다.
14:44
so it doesn't understand
292
884883
1251
그래서 고양이의 영양학적 가치보다 인간이 고양이를 아끼는 감성적 가치가
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
더 중요하다는 것을 이해하지 못합니다.
14:51
(Laughter)
294
891026
1095
(웃음)
어떤 일이 일어날까요?
14:52
So then what happens?
295
892145
1748
14:53
Well, it happens like this:
296
893917
3297
음, 이런 일이 일어날 겁니다.
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"미친 로봇이 저녁 메뉴로 고양이를 요리했다"
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
이 사건 하나로 가정용 로봇 업계는 망해버릴 수 있습니다.
15:04
So there's a huge incentive to get this right
299
904773
3372
따라서 초지능을 가진 로봇이 출현하기 전에
15:08
long before we reach superintelligent machines.
300
908169
2715
이걸 바로 잡는 것이 무척 중요합니다.
15:11
So to summarize:
301
911948
1535
자, 요약을 하자면
15:13
I'm actually trying to change the definition of AI
302
913507
2881
저는 인공지능에 대한 정의를 바꾸기 위해 노력합니다.
15:16
so that we have provably beneficial machines.
303
916412
2993
그래야만 정말 도움이 되는 로봇들을 가질 수 있을 겁니다.
15:19
And the principles are:
304
919429
1222
여기에는 기본 원칙이 있죠.
15:20
machines that are altruistic,
305
920675
1398
로봇은 이타적이어야 하고
15:22
that want to achieve only our objectives,
306
922097
2804
우리가 원하는 목적만을 이루려고 해야 합니다.
15:24
but that are uncertain about what those objectives are,
307
924925
3116
하지만 그 목적이 정확히 무엇인지 몰라야 합니다.
15:28
and will watch all of us
308
928065
1998
그리고 우리 인간을 잘 살펴야 하죠.
15:30
to learn more about what it is that we really want.
309
930087
3203
우리가 진정 무엇을 원하는지 이해하기 위해서입니다.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
그리고 그 과정에서 우리는 더 나은 사람이 되는 법을 배우게 될 것입니다.
15:37
Thank you very much.
311
937776
1191
감사합니다.
15:38
(Applause)
312
938991
3709
(웃음)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
CA: 정말 흥미롭네요. 스튜어트.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
다음 강연 순서를 준비하는 동안에 잠깐 이야기를 나누겠습니다.
15:47
for our next speaker.
315
947810
1151
15:48
A couple of questions.
316
948985
1538
몇 가지 질문이 있는데요.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
무지한 상태에서 프로그래밍한다는 게 무척 대단하다고 생각됩니다.
15:56
As you get to superintelligence,
318
956024
1594
초지능 연구를 하고 계시는데요.
15:57
what's going to stop a robot
319
957642
2258
로봇의 이런 부분을 막을 수 있을까요?
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
로봇이 문학 서적을 읽고
지식이 무지보다 더 낫다는 개념을 발견하게 되고
16:02
is actually better than ignorance
321
962800
1572
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
그러면서도 계속 스스로 목적을 바꾸고
그걸 다시 프로그래밍히는 걸 막을 수 있나요?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
SR: 네. 말씀드렸다시피, 우리는 로봇이 더 많이 배우길 바랍니다.
16:15
about our objectives.
324
975892
1287
우리의 목표에 대해서 말이죠
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
목표가 더 정확해질수록 더 확실해지게 됩니다.
16:22
so the evidence is there
326
982748
1945
그런 증거들이 있습니다.
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
그리고 목표를 정확하게 해석할 수 있도록 설계될 겁니다.
16:27
It will understand, for example, that books are very biased
328
987465
3956
예를 들어, 인공지능이 책들을 읽고
그 안에 담긴 내용들이 한쪽으로 편향되어 있다고 이해하게 될 겁니다.
16:31
in the evidence they contain.
329
991445
1483
16:32
They only talk about kings and princes
330
992952
2397
그 책들의 내용은
왕과 왕자, 뛰어난 백인 남성들의 업적들 뿐이죠.
16:35
and elite white male people doing stuff.
331
995373
2800
16:38
So it's a complicated problem,
332
998197
2096
이것은 어려운 문제입니다.
16:40
but as it learns more about our objectives
333
1000317
3872
하지만 우리의 목적에 대해 더 많이 알게 될수록
16:44
it will become more and more useful to us.
334
1004213
2063
우리에게 더욱 유용하게 될 겁니다.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: 그런데 그걸 하나의 법칙으로만 말할 수는 없겠죠.
16:48
you know, hardwired in:
336
1008850
1650
말하자면, 이렇게 입력하는 건가요.
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"만약 어떤 인간이라도 내 전원을 끄려고 한다면
16:53
I comply. I comply."
338
1013841
1935
나는 복종한다. 복종한다"
16:55
SR: Absolutely not.
339
1015800
1182
SR: 물론 아닙니다. 그건 정말 끔찍한 생각이에요.
16:57
That would be a terrible idea.
340
1017006
1499
16:58
So imagine that you have a self-driving car
341
1018529
2689
무인자동차를 갖고 있다고 생각해보세요.
17:01
and you want to send your five-year-old
342
1021242
2433
그리고 다섯 살이 된 아이를 유치원에 데려다 주려고 합니다.
17:03
off to preschool.
343
1023699
1174
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
그때 운전중에 다섯 살짜리 아이가 전원을 꺼버리게 두시겠어요?
17:08
while it's driving along?
345
1028022
1213
아마 아닐 겁니다.
17:09
Probably not.
346
1029259
1159
로봇은 작동하는 사람이 얼마나 이성적이고 지각이 있는지 파악합니다.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
17:15
The more rational the person,
348
1035169
1676
더 이성적인 사람이 전윈을 꺼주기를 바라겠죠.
17:16
the more willing you are to be switched off.
349
1036869
2103
17:18
If the person is completely random or even malicious,
350
1038996
2543
만약 어떤 사람인지 전혀 모르고 심지어 악의적인 사람이라면
17:21
then you're less willing to be switched off.
351
1041563
2512
그런 사람이 전원을 끄기를 원하지는 않을 겁니다.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: 알겠습니다. 스튜어드씨,
17:25
I really, really hope you figure this out for us.
353
1045989
2314
저희 모두를 위해 그 문제를 해결해 주시기를 바랍니다.
좋은 강연 감사합니다. 정말 놀라운 이야기였습니다
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
17:30
SR: Thank you.
355
1050726
1167
SR: 감사합니다
17:31
(Applause)
356
1051917
1837
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7