3 principles for creating safer AI | Stuart Russell

139,486 views ・ 2017-06-06

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Tân Nguyễn Reviewer: Ngoc Bui
Đây là Lee Sedol.
00:12
This is Lee Sedol.
0
12532
1552
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol là một trong những kì thủ cờ vây giỏi nhất thế giới,
cậu ấy đang có thứ mà các bạn của tôi ở thung lũng Silicon gọi là
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
00:21
a "Holy Cow" moment --
3
21038
1510
khoảnh khắc "Ôi Chúa ơi" --
00:22
(Laughter)
4
22572
1073
(Cười)
00:23
a moment where we realize
5
23669
2188
khoảnh khắc khi chúng ta nhận ra rằng
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
AI (trí tuệ nhân tạo) đã xử lí nhanh hơn nhiều so với chúng ta mong đợi.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Vậy con người đã thua trên bàn cờ vây. Thế còn trong thế giới thực?
00:33
Well, the real world is much bigger,
8
33045
2100
Thế giới thực lớn hơn,
00:35
much more complicated than the Go board.
9
35169
2249
phức tạp hơn nhiều so với cờ vây.
00:37
It's a lot less visible,
10
37442
1819
Nó không dễ nhận thấy,
00:39
but it's still a decision problem.
11
39285
2038
nhưng nó vẫn là một vấn đề mang tính chọn lựa.
00:42
And if we think about some of the technologies
12
42768
2321
Và nếu chúng ta nghĩ về một số công nghệ
00:45
that are coming down the pike ...
13
45113
1749
đang được chú ý đến...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] từng khẳng định máy móc vẫn chưa thể đọc,
00:51
at least with understanding.
15
51917
1500
ít nhất là với sự thấu hiểu.
00:53
But that will happen,
16
53441
1536
Nhưng điều đó sẽ xảy ra,
00:55
and when that happens,
17
55001
1771
và khi điều đó xảy ra,
00:56
very soon afterwards,
18
56796
1187
rất nhanh sau đó,
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
máy móc sẽ đọc hết những thứ mà loài người đã viết.
01:03
And that will enable machines,
20
63670
2030
Và điều đấy sẽ cho phép máy móc,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
cùng với khả năng dự đoán xa hơn con người,
01:08
as we've already seen in Go,
22
68668
1680
như chúng ta đã thấy trong cờ vây,
01:10
if they also have access to more information,
23
70372
2164
nếu chúng cũng có thể tiếp cận nhiều thông tin hơn,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
chúng sẽ có thể đưa ra những quyết định tốt hơn chúng ta trong thế giới thực.
01:18
So is that a good thing?
25
78612
1606
Vậy đó có phải là điều tốt?
01:21
Well, I hope so.
26
81718
2232
Tôi hi vọng vậy.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Toàn bộ nền văn minh của loài người, tất cả những thứ chúng ta coi trọng,
01:29
is based on our intelligence.
28
89793
2068
đều dựa trên trí tuệ của chúng ta.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Và nếu chúng ta có thể sở hữu nhiều trí tuệ hơn,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
những thứ con người có thể làm sẽ không có giới hạn.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Và tôi nghĩ đây có thể là, như nhiều người đã miêu tả nó,
01:43
the biggest event in human history.
32
103834
2016
sự kiện lớn nhất trong lịch sử nhân loại.
[Chào mừng tới UTOPIA Hãy tận hưởng hành trình của bạn]
01:48
So why are people saying things like this,
33
108485
2829
Vậy tại sao mọi người lại nói những điều như thế này,
01:51
that AI might spell the end of the human race?
34
111338
2876
AI có thể là sự chấm dứt của loài người?
01:55
Is this a new thing?
35
115258
1659
Đây có phải là một điều mới mẻ?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Phải chăng chỉ có Elon Musk, Bill Gates và Stephen Hawking?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
Thực ra là không.
Ý tưởng này đã có trước đây.
02:05
Here's a quotation:
38
125059
1962
Đây là một trích dẫn:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"Ngay cả khi chúng ta có thể giữ máy móc như một công cụ,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
chẳng hạn như, bằng cách tắt nguồn khi chúng ta muốn"--
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
và tôi sẽ quay lại với khái niệm "tắt nguồn" sau --
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
chúng ta vẫn nên cảm thấy khiêm tốn hơn.
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Vậy ai đã nói điều này?
Chính là Alan Turing vào năm 1951.
Alan Turing, như bạn đã biết, là cha đẻ của khoa học máy tính,
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
02:28
and in many ways, the father of AI as well.
45
148907
3048
và theo nhiều cách, ông cũng là cha đẻ của AI.
02:33
So if we think about this problem,
46
153059
1882
Nếu chúng ta nghĩ về vấn đề này,
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
tạo nên một loài thông minh hơn loài của chính bạn,
02:38
we might call this "the gorilla problem,"
48
158776
2622
có thể gọi nó là "vấn đề gorilla,"
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
bởi vì tổ tiên gorilla đã làm việc này từ hàng triệu năm trước,
02:45
and now we can ask the gorillas:
50
165939
1745
và bây giờ chúng ta có thể hỏi chúng:
02:48
Was this a good idea?
51
168572
1160
Đây có phải là một ý tưởng hay?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Và chúng đang có một buổi họp để thảo luận xem đây có phải là một ý tưởng hay,
02:53
and after a little while, they conclude, no,
53
173310
3346
và sau một khoảng thời gian, chúng kết luận: Không,
02:56
this was a terrible idea.
54
176680
1345
đó là một ý tưởng tồi tệ.
02:58
Our species is in dire straits.
55
178049
1782
Chúng ta đang ở trong hoàn cảnh rất khó khăn.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
Thậm chí, bạn có thể nhìn thấy nỗi buồn hiện hữu trong mắt chúng.
03:04
(Laughter)
57
184645
1640
(Cười)
Vậy cảm giác bất an rằng
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
tạo ra một loài thông minh hơn chính loài của chúng ta
03:11
is maybe not a good idea --
59
191173
2365
có thể không phải là một ý kiến hay --
03:14
what can we do about that?
60
194308
1491
Chúng ta có thể làm gì nó?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Thực sự là không gì cả,
trừ việc ngừng tạo ra AI,
03:20
and because of all the benefits that I mentioned
62
200614
2510
và bởi vì những lợi ích mà tôi vừa kể ra
cũng như tôi là một nhà nghiên cứu về AI,
03:23
and because I'm an AI researcher,
63
203148
1716
03:24
I'm not having that.
64
204888
1791
tôi sẽ không làm như thế.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Tôi vẫn muốn tiếp tục làm về AI.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Chúng ta cần phải cụ thể hóa vấn đề hơn một chút.
03:33
What exactly is the problem?
67
213137
1371
Chính xác thì đâu mới là vấn đề?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Vì sao AI tốt hơn lại có thể đem lại nhiều tai họa?
03:39
So here's another quotation:
69
219218
1498
Đây là một câu trích dẫn khác:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"Chúng ta nên đảm bảo rằng mục đích mà chúng ta đưa vào máy móc
03:45
is the purpose which we really desire."
71
225114
2298
là mục đích mà chúng ta thực sự mong muốn."
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
Đây là câu nói của Norbert Wiener năm 1960,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
không lâu sau khi ông ấy được xem
một trong những hệ thống học tập thời đầu
03:55
learn to play checkers better than its creator.
74
235650
2583
học cách chơi cờ Đam giỏi hơn người tạo ra nó.
04:00
But this could equally have been said
75
240422
2683
Nhưng điều tương tự cũng đã được nói
04:03
by King Midas.
76
243129
1167
bởi vua Midas.
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
Vua Midas đã từng bảo:
"Tôi muốn mọi thứ tôi chạm vào trở thành vàng."
04:08
and he got exactly what he asked for.
78
248061
2473
và ông ấy đã có chính xác những gì ông muốn.
04:10
That was the purpose that he put into the machine,
79
250558
2751
Đấy là mục đích mà ông đã đưa vào máy móc,
04:13
so to speak,
80
253333
1450
như đã nói,
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
sau đó thì đồ ăn, thức uống và người thân của ông đều biến thành vàng
04:18
and he died in misery and starvation.
82
258275
2281
và ông đã qua đời trong đau khổ và đói kém.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Vậy nên chúng ta gọi đây là "vấn đề Vua Midas"
04:24
of stating an objective which is not, in fact,
84
264629
3305
khi chúng ta đưa ra một mục tiêu không trùng khớp với thứ chúng ta muốn.
04:27
truly aligned with what we want.
85
267958
2413
Hiện tại, chúng ta gọi đó là "vấn đề trùng khớp giá trị."
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Tuy nhiên xác định sai mục tiêu không phải là vấn đề duy nhất.
04:40
There's another part.
88
280376
1152
Còn một phần nữa.
04:41
If you put an objective into a machine,
89
281980
1943
Nếu chúng ta đưa mục đích vào một cỗ máy,
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
kể cả một thứ đơn giản như "đi lấy cà phê,"
04:47
the machine says to itself,
91
287728
1841
cỗ máy tự nói với chính nó,
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"Ừm, điều gì có thể làm việc đi lấy cà phê thất bại?"
04:53
Someone might switch me off.
93
293200
1580
Như ai đó có thể sẽ tắt tôi đi.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Ok, tôi phải ngăn chặn việc đó.
04:57
I will disable my 'off' switch.
95
297876
1906
Tôi sẽ vô hiệu hóa nút 'tắt' của tôi.
05:00
I will do anything to defend myself against interference
96
300354
2959
Tôi sẽ làm mọi thứ để bảo vệ bản thân
khỏi các thứ cản trở tôi đạt được mục đích đã được giao."
05:03
with this objective that I have been given."
97
303337
2629
05:05
So this single-minded pursuit
98
305990
2012
Vậy sự chuyên tâm theo đuổi này
theo một cách rất phòng ngự đối với mục tiêu mà, thật ra,
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
không tương ứng với mục đích chính của loài người --
05:12
not aligned with the true objectives of the human race --
100
312002
2814
05:15
that's the problem that we face.
101
315942
1862
đó là vấn đề mà chúng ta phải đối mặt.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Và thực ra, đây là bài học đáng giá được rút ra từ bài nói này.
05:23
If you want to remember one thing,
103
323618
2055
Nếu bạn muốn nhớ một điều,
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
đó là bạn sẽ không thể lấy được cà phê nếu bạn chết.
05:28
(Laughter)
105
328396
1061
(Cười)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
Nó rất đơn giản, hãy nhớ nó.
Nhắc lại cho bản thân nghe 3 lần mỗi ngày.
05:33
(Laughter)
107
333334
1821
(Cười)
05:35
And in fact, this is exactly the plot
108
335179
2754
Và thực ra, đây chính là nội dung
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
trong phim "2001: [A Space Odyssey]"
HAL có một mục tiêu, một nhiệm vụ,
05:41
HAL has an objective, a mission,
110
341046
2090
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
không trùng với mục tiêu của loài người,
05:46
and that leads to this conflict.
112
346916
1810
và nó dẫn tới sự mâu thuẫn này.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Nhưng may mắn là Hal không phải một cỗ máy siêu trí tuệ.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Nó khá thông minh,
nhưng cuối cùng Dave đã khuất phục được
05:55
and manages to switch him off.
115
355918
1849
và đã tắt nguồn nó thành công.
06:01
But we might not be so lucky.
116
361648
1619
Nhưng có thể chúng ta sẽ không may mắn như thế.
[Xin lỗi Dave. Tôi e rằng tôi không thể làm điều đó được.]
Vậy chúng ta sẽ phải làm gì?
06:08
So what are we going to do?
117
368013
1592
[AI hợp tác được với con người]
06:12
I'm trying to redefine AI
118
372191
2601
Tôi đang cố định nghĩa lại về AI
06:14
to get away from this classical notion
119
374816
2061
để thoát khỏi định nghĩa truyền thống
06:16
of machines that intelligently pursue objectives.
120
376901
4567
là máy móc mà theo đuổi mục tiêu một cách thông minh.
06:22
There are three principles involved.
121
382532
1798
Nó bao gồm ba nguyên tắc.
Thứ nhất,
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
đó là nguyên tắc về lòng vị tha, nếu bạn thích,
06:27
that the robot's only objective
123
387667
3262
mục tiêu duy nhất của robot là
06:30
is to maximize the realization of human objectives,
124
390953
4246
hiện thực hóa tối đa mục tiêu của con người,
06:35
of human values.
125
395223
1390
các giá trị của con người.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
Và giá trị ở đây tôi muốn nói không phải sự nhạy cảm hay đạo đức giả.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
Ý tôi là bất kể thứ gì mà con người muốn cuộc sống của họ trở nên giống thế.
06:43
their life to be like.
128
403802
1343
06:47
And so this actually violates Asimov's law
129
407184
2309
Và thực ra thì điều này đã vi phạm luật của Asimov
06:49
that the robot has to protect its own existence.
130
409517
2329
đó là robot phải tự bảo vệ sự tồn tại của nó.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Nó không hứng thú duy trì sự tồn tại của mình bất kể thế nào.
06:57
The second law is a law of humility, if you like.
132
417240
3768
Luật thứ hai đó là luật về sự khiêm tốn, nếu bạn thích.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Và điều này thật ra rất quan trọng để robot trở nên an toàn.
07:05
It says that the robot does not know
134
425561
3142
Nó nói rằng robot không hề biết
07:08
what those human values are,
135
428727
2028
những giá trị của con người là gì,
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
nên nó phải tối ưu hóa chúng, nhưng không biết chúng là gì.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
Do đó tránh khỏi rắc rối từ sự chuyên tâm theo đuổi mục đích.
07:17
of an objective.
138
437724
1212
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Sự không chắc chắn này hóa ra lại rất quan trọng.
07:21
Now, in order to be useful to us,
140
441546
1639
Bây giờ, để trở nên có ích cho chúng ta,
07:23
it has to have some idea of what we want.
141
443209
2731
nó phải có một chút ý tưởng về thứ mà chúng ta muốn.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Nó thu nhận các thông tin này chủ yếu bằng việc quan sát con người lựa chọn,
07:32
so our own choices reveal information
143
452494
2801
vậy lựa chọn của chúng ta sẽ hé lộ thông tin
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
về những thứ mà chúng ta muốn cuộc sống của mình trở nên như vậy.
07:40
So those are the three principles.
145
460452
1683
Vậy đó là ba nguyên tắc.
Hãy xem ta áp dụng chúng vào câu hỏi này như thế nào:
07:42
Let's see how that applies to this question of:
146
462159
2318
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
"Bạn có thể tắt nguồn chiếc máy không?" như Turing đã đưa ra.
07:48
So here's a PR2 robot.
148
468893
2120
[Vấn đề tắt nguồn]
Đây là robot PR2.
Một cái ở phòng nghiên cứu chúng tôi có,
07:51
This is one that we have in our lab,
149
471037
1821
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
và nó có một nút "tắt" lớn đỏ ở sau lưng.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
Câu hỏi là: Nó có để cho bạn tắt nó đi không?
Giả sử ta làm theo cách truyền thống,
07:59
If we do it the classical way,
152
479000
1465
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
đưa cho nó mục tiêu là "Đi lấy cà phê",
"Tôi phải đi lấy cà phê",
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
"Tôi không thể lấy cà phê nếu tôi chết",
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
vậy rõ ràng PR2 đã nghe bài nói của tôi,
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
và do đó nó nói: "Tôi phải vô hiệu hóa nút "tắt" của mình,
08:14
and probably taser all the other people in Starbucks
157
494796
2694
và có lẽ sốc điện tất cả những người trong Starbucks,
08:17
who might interfere with me."
158
497514
1560
những người có thể cản trở tôi."
08:19
(Laughter)
159
499098
2062
(Cười)
Vậy điều này có vẻ không thể tránh khỏi, đúng không?
08:21
So this seems to be inevitable, right?
160
501184
2153
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Sự thất bại như thế này có vẻ không thể tránh được,
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
và nó là kết quả của việc có một mục tiêu rõ ràng.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Vậy sẽ thế nào nếu chiếc máy không chắc chắn với mục tiêu của mình?
08:33
Well, it reasons in a different way.
164
513800
2127
Nó sẽ lý luận theo một cách khác.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
Nó nghĩ: "Chà, con người có thể sẽ tắt mình mất,
08:38
but only if I'm doing something wrong.
166
518964
1866
nhưng chỉ khi mình làm sai gì đó.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Mình thực sự không biết thế nào là "sai",
nhưng mình biết là mình không muốn làm điều đó."
08:44
but I know that I don't want to do it."
168
524066
2044
Và đây là lúc áp dụng luật thứ nhất và thứ hai.
08:46
So that's the first and second principles right there.
169
526134
3010
08:49
"So I should let the human switch me off."
170
529168
3359
"Do đó mình nên để con người tắt mình đi."
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
Và thực tế bạn có thể tính toán động lực
mà robot phải để con người tắt nó,
08:57
to allow the human to switch it off,
172
537521
2493
09:00
and it's directly tied to the degree
173
540038
1914
và nó liên kết trực tiếp
09:01
of uncertainty about the underlying objective.
174
541976
2746
với mức độ không chắc chắn về các mục tiêu tiềm ẩn.
09:05
And then when the machine is switched off,
175
545797
2949
Và khi mà chiếc máy đã được tắt đi,
09:08
that third principle comes into play.
176
548770
1805
thì đến lượt của luật thứ ba.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Nó sẽ học được gì đó về mục tiêu mà nó cần theo đuổi,
09:13
because it learns that what it did wasn't right.
178
553685
2533
vì nó học được những việc mình đã làm là không đúng.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
Thực tế, nếu sử dụng các kí hiệu La Mã thích hợp,
09:19
as mathematicians usually do,
180
559836
2131
như các nhà toán học hay làm,
09:21
we can actually prove a theorem
181
561991
1984
chúng ta thực sự có thể chứng minh mệnh đề
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
nói rằng robot này quả là có ích cho con người.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Bạn có thể cải thiện tốt hơn với chiếc máy được thiết kế như thế này
09:31
than without it.
184
571403
1246
so với không có nó.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
Vậy đây là một ví dụ rất đơn giản, nhưng đó là bước đầu tiên
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
trong việc chúng tôi cố gắng làm ra AI hòa hợp với con người.
09:42
Now, this third principle,
187
582477
3257
Bây giờ, luật thứ ba này,
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
tôi nghĩ nó là điều khiến bạn phải vò đầu bứt tai suốt.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Có thể bạn đang nghĩ:
"Chà, bạn biết đấy, tôi cư xử khá tệ.
09:52
I don't want my robot to behave like me.
190
592157
2929
Tôi không muốn robot của mình cư xử giống tôi.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
Tôi mò mẫm vào giữa đêm và lén lút lấy đồ trong tủ lạnh.
09:58
I do this and that."
192
598568
1168
Tôi làm điều này, điều nọ."
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Có cả tá thứ mà bạn không muốn robot làm theo.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Nhưng thực tế, nó không hoạt động như thế.
10:04
Just because you behave badly
195
604676
2155
Chỉ vì bạn cư xử tồi tệ
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
không có nghĩa là robot sẽ bắt chước hành vi của bạn.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Nó sẽ hiểu động lực của bạn và có thể giúp bạn chống lại chúng,
10:13
if appropriate.
198
613436
1320
nếu điều đó phù hợp.
10:16
But it's still difficult.
199
616026
1464
Nhưng thực ra vẫn khó.
10:18
What we're trying to do, in fact,
200
618122
2545
Điều chúng tôi đang cố gắng làm, thật ra,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
là giúp máy tính dự đoán cho mỗi người và cho mỗi cuộc sống
10:26
that they could live,
202
626511
1161
mà họ có thể đã được sống,
10:27
and the lives of everybody else:
203
627696
1597
và cuộc sống của tất cả mọi người khác:
10:29
Which would they prefer?
204
629317
2517
Họ thích cuộc sống nào nhất?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Và có rất rất nhiều khó khăn trong việc này.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
Tôi không hy vọng là chúng sẽ được giải quyết nhanh chóng.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Khó khăn lớn nhất, thật ra, là chính chúng ta.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Như tôi đã đề cập, chúng ta cư xử khá tệ.
Thực tế, một số chúng ta thực sự đã mục nát.
10:47
In fact, some of us are downright nasty.
209
647110
2321
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Bây giờ robot, như tôi đã nói, không cần phải bắt chước các hành vi.
10:53
The robot does not have any objective of its own.
211
653327
2791
Robot không có bất cứ mục tiêu nào cho riêng chúng.
10:56
It's purely altruistic.
212
656142
1737
Chúng hoàn toàn rất vị tha.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
Và nó không được thiết kế
để thỏa mãn ước muốn của chỉ một cá nhân, một người dùng,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
mà thực tế nó phải tôn trọng quan điểm của tất cả mọi người.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Do đó nó có thể xử lý với một số hành vi xấu xa,
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
và thậm chí có thể thông cảm với sự sai trái của bạn, ví dụ,
11:15
you may take bribes as a passport official
217
675402
2671
có thể bạn nhận hối lộ khi làm công việc hộ chiếu
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
vì bạn cần nuôi sống gia đình và cho con của bạn đi học.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Chúng có thể hiểu điều này; nó không có nghĩa là chúng sẽ ăn cắp.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
Thực tế, nó chỉ giúp bạn giúp con bạn được đi học.
11:28
We are also computationally limited.
221
688796
3012
Chúng ta cũng bị hạn chế về mặt tính toán.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol là một thiên tài cờ vây,
11:34
but he still lost.
223
694361
1325
nhưng anh ấy vẫn thua.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Nếu ta nhìn vào hành động của anh ấy, anh ấy chấp nhận đã thua ván cờ.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Nó không có nghĩa là anh ấy muốn thua.
11:43
So to understand his behavior,
226
703160
2040
Vậy để hiểu được hành vi của anh ấy,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
chúng ta phải quay ngược trở lại với mô hình nhận thức của con người
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
mà bao gồm những hạn chế về tính toán của chúng ta.
Và nó là một hệ thống rất phức tạp.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Nhưng nó vẫn là thứ mà chúng ta có thể khám phá và hiểu nó.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Có lẽ phần khó khăn nhất, dưới góc nhìn là một nhà nghiên cứu AI,
12:02
is the fact that there are lots of us,
231
722040
2575
đó là số lượng của chúng ta quá nhiều,
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
thế nên máy tính phải bằng một cách nào đó cân đong đo đếm các quan điểm
12:09
of many different people,
233
729719
2225
của nhiều người khác nhau,
12:11
and there are different ways to do that.
234
731968
1906
và có rất nhiều cách để làm việc này.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Các nhà kinh tế học, xã hội học, triết học đạo đức đã hiểu điều đó,
12:17
and we are actively looking for collaboration.
236
737611
2455
và chúng tôi đang chủ động tìm kiếm các sự hợp tác.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Hãy quan sát và xem điều gì sẽ xảy ra khi bạn hiểu sai nó.
12:23
So you can have a conversation, for example,
238
743365
2133
Ví dụ, bạn có thể có một cuộc đối thoại
12:25
with your intelligent personal assistant
239
745522
1944
với trợ lý thông minh riêng của bạn
12:27
that might be available in a few years' time.
240
747490
2285
điều có thể sẽ thành hiện thực trong vài năm tới.
12:29
Think of a Siri on steroids.
241
749799
2524
Bạn có thể nghĩ về Siri nhưng ngoài đời thực.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri nói: "Vợ anh đã gọi để nhắc anh về buổi ăn tối ngày mai."
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Và đương nhiên, bạn đã quên. "Hả? Bữa tối nào?
12:40
What are you talking about?"
244
760968
1425
Cô đang nói về gì vậy?"
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"..., kỉ niệm 20 năm ngày cưới, lúc 7 giờ tối."
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"Tôi không thể. Tôi có cuộc gặp với tổng thư ký lúc 7h30.
12:52
How could this have happened?"
247
772478
1692
Sao..., sao chuyện này có thể xảy ra chứ?"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"Chà, tôi đã cảnh báo anh nhưng anh đã lờ đi lời khuyên của tôi."
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"Tôi phải làm gì bây giờ? Tôi không thể nói cô ấy là tôi quá bận."
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"Đừng lo lắng. Tôi sẽ sắp xếp để chuyến bay của anh ấy bị hoãn lại."
13:07
(Laughter)
251
787615
1682
(Cười)
13:10
"Some kind of computer malfunction."
252
790069
2101
"Bằng một lỗi trục trặc kĩ thuật nào đó."
13:12
(Laughter)
253
792194
1212
(Cười)
13:13
"Really? You can do that?"
254
793430
1617
"Thật ư? Cô có thể làm thế à?"
13:16
"He sends his profound apologies
255
796220
2179
"Anh ấy đã gửi thư xin lỗi
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
và mong sẽ được gặp anh ở bữa trưa ngày mai."
13:21
(Laughter)
257
801002
1299
(Cười)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Vậy giá trị ở đây -- có một chút sai lầm đã xảy ra.
13:26
This is clearly following my wife's values
259
806752
3009
Nó hoàn toàn theo đuổi giá trị của vợ tôi
13:29
which is "Happy wife, happy life."
260
809785
2069
đó là "Vợ vui thì đời cũng vui."
13:31
(Laughter)
261
811878
1583
(Cười)
13:33
It could go the other way.
262
813485
1444
Nó có thể diễn ra theo một hướng khác.
13:35
You could come home after a hard day's work,
263
815641
2201
Bạn vừa trở về nhà sau một ngày làm việc vất vả,
13:37
and the computer says, "Long day?"
264
817866
2195
và máy tính hỏi: "Một ngày dài à?"
"Ừ, tôi còn chẳng có thời gian để ăn trưa."
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
13:42
"You must be very hungry."
266
822397
1282
"Chắc anh phải đói lắm rồi."
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"Ừ, đói muốn chết. Bạn có thể làm bữa tối cho tôi không?"
13:47
"There's something I need to tell you."
268
827890
2090
"Có điều này tôi phải nói với anh."
13:50
(Laughter)
269
830004
1155
(Cười)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"Những người ở Nam Sudan đang cần sự trợ giúp khẩn cấp hơn anh nhiều."
13:56
(Laughter)
271
836942
1104
(Cười)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"Nên tôi đi đây. Tự làm bữa tối của anh đi."
14:00
(Laughter)
273
840169
2000
(Cười)
14:02
So we have to solve these problems,
274
842643
1739
Vậy chúng ta phải xử lý những vấn đề như thế này,
14:04
and I'm looking forward to working on them.
275
844406
2515
và tôi rất nóng lòng được làm việc với chúng.
14:06
There are reasons for optimism.
276
846945
1843
Có những lý do để mà lạc quan.
14:08
One reason is,
277
848812
1159
Một lý do là,
14:09
there is a massive amount of data.
278
849995
1868
có một lượng khổng lồ dữ liệu ngoài kia.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Bởi vì như tôi đã nói, chúng sẽ đọc hết tất cả mọi thứ trên đời.
14:14
the human race has ever written.
280
854705
1546
Hầu hết những gì chúng ta viết là về những việc làm của nhân loại
14:16
Most of what we write about is human beings doing things
281
856275
2724
và sau đó những người khác cảm thấy phiền lòng về nó.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Do đó có một lượng khổng lồ dữ liệu để học tập.
14:23
There's also a very strong economic incentive
284
863383
2236
Đồng thời có một động lực kinh tế rất lớn
14:27
to get this right.
285
867151
1186
để làm đúng việc này.
14:28
So imagine your domestic robot's at home.
286
868361
2001
Hãy tưởng tượng robot gia đình ở nhà bạn.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Bạn lại đi làm về trễ và robot phải nấu ăn cho bọn trẻ,
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
bọn trẻ thì đang đói và không còn thứ gì trong tủ lạnh.
14:36
And the robot sees the cat.
289
876324
2605
Và robot nhìn thấy con mèo.
14:38
(Laughter)
290
878953
1692
(Cười)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Và robot này chưa được học hoàn toàn về các giá trị của con người,
14:44
so it doesn't understand
292
884883
1251
nên nó không thể hiểu được rằng
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
các giá trị tình cảm của con mèo lớn hơn hẳn giá trị dinh dưỡng của nó.
(Cười)
14:51
(Laughter)
294
891026
1095
Vậy sau đó chuyện gì xảy ra?
14:52
So then what happens?
295
892145
1748
14:53
Well, it happens like this:
296
893917
3297
Chà, nó xảy ra như thế này:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"Một robot điên loạn nấu mèo con cho bữa tối của gia đình."
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Một sự cố như thế có thể sẽ chấm dứt ngành robot gia đình.
15:04
So there's a huge incentive to get this right
299
904773
3372
Do đó có một động lực rất lớn để làm việc này đúng trong thời gian dài
15:08
long before we reach superintelligent machines.
300
908169
2715
trước khi chúng ta đạt tới máy móc siêu thông minh.
15:11
So to summarize:
301
911948
1535
Vậy để tổng kết lại:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
Tôi thực ra đang cố thay đổi định nghĩa về AI
15:16
so that we have provably beneficial machines.
303
916412
2993
để chúng ta có những máy móc được chứng minh là có hiệu quả.
15:19
And the principles are:
304
919429
1222
Và những nguyên tắc là:
15:20
machines that are altruistic,
305
920675
1398
những chiếc máy hoàn toàn vị tha,
15:22
that want to achieve only our objectives,
306
922097
2804
chỉ muốn đạt được mục đích của chúng ta,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
nhưng chúng không chắc chắn những mục tiêu này là gì,
15:28
and will watch all of us
308
928065
1998
và sẽ theo dõi tất cả chúng ta
15:30
to learn more about what it is that we really want.
309
930087
3203
để hiểu thêm về những gì chúng ta thực sự muốn.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
Và mong rằng trong quá trình đó, ta cũng học hỏi để trở nên tốt đẹp hơn.
15:37
Thank you very much.
311
937776
1191
Cảm ơn rất nhiều.
15:38
(Applause)
312
938991
3709
(Vỗ tay)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Chris Anderson: Rất thú vị, Stuart.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Chúng ta sẽ đứng đây thêm chút nữa
vì tôi nghĩ họ đang chuẩn bị cho diễn giả tiếp theo.
15:47
for our next speaker.
315
947810
1151
15:48
A couple of questions.
316
948985
1538
Đây là một số câu hỏi.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
Vậy ý tưởng lập trình với sự thiếu hụt thông tin có vẻ như rất mạnh mẽ.
15:56
As you get to superintelligence,
318
956024
1594
Nhưng khi ta có siêu trí tuệ,
15:57
what's going to stop a robot
319
957642
2258
điều gì sẽ ngăn cản robot
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
đọc những quyển sách và phát hiện ra ý tưởng là
16:02
is actually better than ignorance
321
962800
1572
có kiến thức thực ra tốt hơn là bị thiếu hụt
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
và có thể chuyển hướng mục tiêu của chúng sau đó viết lại các chương trình?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Rusell: Vâng, chúng ta muốn nó học hỏi nhiều hơn, như tôi đã nói,
16:15
about our objectives.
324
975892
1287
về mục tiêu của chúng ta.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Nó sẽ chỉ trở nên chắc chắn hơn khi nó làm đúng nhiều hơn,
16:22
so the evidence is there
326
982748
1945
vậy đó sẽ là những bằng chứng
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
và chúng sẽ được thiết kế để diễn dịch đúng đắn điều này.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Nó sẽ hiểu được, ví dụ như những quyển sách rất thiên vị
16:31
in the evidence they contain.
329
991445
1483
về những đề tài mà chúng chứa.
16:32
They only talk about kings and princes
330
992952
2397
Chúng chỉ nói về các vị vua và hoàng tử
16:35
and elite white male people doing stuff.
331
995373
2800
và các đàn ông quý tộc da trắng làm gì đó.
16:38
So it's a complicated problem,
332
998197
2096
Nên đó là một vấn đề phức tạp,
16:40
but as it learns more about our objectives
333
1000317
3872
nhưng khi nó học hỏi nhiều hơn về mục tiêu của chúng ta,
16:44
it will become more and more useful to us.
334
1004213
2063
nó sẽ chở nên càng ngày càng có ích cho chúng ta.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: Và anh đã không thể rút gọn lại trong một luật,
16:48
you know, hardwired in:
336
1008850
1650
như là bó buộc nó lại:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"Nếu loài người đã cố để tắt nguồn tôi,
16:53
I comply. I comply."
338
1013841
1935
tôi sẽ tuân lệnh thôi."
16:55
SR: Absolutely not.
339
1015800
1182
SR: Thực sự thì không.
16:57
That would be a terrible idea.
340
1017006
1499
Đó sẽ là một ý tưởng tồi tệ.
16:58
So imagine that you have a self-driving car
341
1018529
2689
Hãy tưởng tượng anh có một chiếc xe tự lái
17:01
and you want to send your five-year-old
342
1021242
2433
và anh muốn gửi đứa con 5 tuổi tới trường mẫu giáo.
17:03
off to preschool.
343
1023699
1174
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
Anh có muốn đứa con 5 tuổi có thể tắt chiếc xe khi nó đang chạy không?
17:08
while it's driving along?
345
1028022
1213
Chắc là không đâu.
17:09
Probably not.
346
1029259
1159
Do đó nó cần hiểu được mức độ nhận thức của người đó.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
17:15
The more rational the person,
348
1035169
1676
Nhận thức người đó càng cao,
17:16
the more willing you are to be switched off.
349
1036869
2103
khả năng máy tính tự nguyện bị tắt càng cao.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Nếu người đó hoàn toàn lạ mặt hay thậm chí là kẻ xấu,
17:21
then you're less willing to be switched off.
351
1041563
2512
thì máy tính sẽ khó để bị tắt hơn.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: Được thôi, Stuart,
17:25
I really, really hope you figure this out for us.
353
1045989
2314
tôi rất mong anh sẽ giải quyết vấn đề này cho chúng ta.
Cảm ơn rất nhiều vì cuộc nói chuyện. Nó rất tuyệt vời.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
17:30
SR: Thank you.
355
1050726
1167
SR: Cảm ơn.
17:31
(Applause)
356
1051917
1837
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7