Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Huong Nguyen Reviewer: Uyên Võ
Tôi chuẩn bị nói về sự thất bại của trực giác
00:13
I'm going to talk about a failure of intuition
0
13000
2216
00:15
that many of us suffer from.
1
15240
1600
mà nhiều người trong chúng ta thường gặp phải.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Nó thật ra là sự thất bại trong việc phát hiện một mối nguy hiểm nhất định.
00:21
I'm going to describe a scenario
3
21360
1736
Tôi sẽ mô tả một viễn cảnh
mà tôi nghĩ vừa kinh khủng
00:23
that I think is both terrifying
4
23120
3256
00:26
and likely to occur,
5
26400
1760
vừa có thể sẽ xảy ra,
00:28
and that's not a good combination,
6
28840
1656
và đây không phải sự kết hợp tốt
00:30
as it turns out.
7
30520
1536
khi nó xảy ra.
Thế nhưng thay vì sợ, hầu hết các bạn sẽ cảm thấy
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
00:34
that what I'm talking about is kind of cool.
9
34560
2080
rằng điều tôi đang nói thật ra rất tuyệt
00:37
I'm going to describe how the gains we make
10
37200
2976
Tôi sẽ mô tả cách mà những thứ ta gặt hái được
00:40
in artificial intelligence
11
40200
1776
từ trí thông minh nhân tạo (AI)
có thể hủy diệt chúng ta.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Thực ra, tôi nghĩ rất khó để xem làm sao chúng có thể không tiêu diệt chúng ta
00:47
or inspire us to destroy ourselves.
14
47280
1680
hoặc làm cho chúng ta tự hủy diệt mình.
00:49
And yet if you're anything like me,
15
49400
1856
Nhưng nếu các bạn giống tôi,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
bạn sẽ thấy rằng nó rất vui khi nghĩ về những điều này.
00:53
And that response is part of the problem.
17
53960
3376
Và phản ứng đó là một phần của vấn đề.
00:57
OK? That response should worry you.
18
57360
1720
OK? Phản ứng đó sẽ làm bạn lo lắng.
00:59
And if I were to convince you in this talk
19
59920
2656
Và nếu tôi thuyết phục được các bạn trong buổi nói chuyện này
01:02
that we were likely to suffer a global famine,
20
62600
3416
rằng chúng ta có thể sẽ phải hứng chịu một nạn đói toàn cầu,
hoặc do biến đổi khí hậu hoặc do một số thiên tai khác,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
và rằng cháu chắt của các bạn hay của họ,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
01:12
are very likely to live like this,
23
72560
1800
rất có thể sẽ phải sống như thế này,
01:15
you wouldn't think,
24
75200
1200
thì bạn sẽ không nghĩ,
01:17
"Interesting.
25
77440
1336
"Tuyệt vời.
01:18
I like this TED Talk."
26
78800
1200
Tôi thích buổi nói chuyện này."
01:21
Famine isn't fun.
27
81200
1520
Nạn đói không vui vẻ gì đâu.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Tuy nhiên cái chết do khoa học viễn tưởng lại rất hài hước.
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
mà một trong số những thứ làm tôi lo lắng nhất về việc phát triển AI
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
là chúng ta dường như không thể sắp xếp một phản ứng cảm xúc thích hợp nào
01:35
to the dangers that lie ahead.
31
95320
1816
cho những mối nguy hiểm trước mắt.
Tôi không thể sắp xếp thứ phản ứng này, nên tôi mới đưa ra buổi nói chuyện này.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Nó như thể chúng ta đứng trước hai cánh cửa.
01:42
It's as though we stand before two doors.
33
102120
2696
01:44
Behind door number one,
34
104840
1256
Sau cánh cửa thứ nhất,
chúng ta ngưng quá trình xây dựng các loại máy móc thông minh.
01:46
we stop making progress in building intelligent machines.
35
106120
3296
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Phần cứng và phần mềm máy tính không cải tiến tốt hơn nữa vì vài lí do.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Giờ hãy dành thời gian suy nghĩ tại sao điều này có thể xảy ra.
Ý tôi là, dựa vào giá trị của trí thông minh và sự tự động hóa,
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
chúng ta vẫn sẽ tiếp tục cải tiến công nghệ nếu ta hoàn toàn có thể.
Điều gì có thể khiến chúng ta dừng làm việc này?
02:05
What could stop us from doing this?
40
125200
1667
02:07
A full-scale nuclear war?
41
127800
1800
Một cuộc chiến hạt nhân quy mô lớn?
Một đại dịch toàn cầu?
02:11
A global pandemic?
42
131000
1560
02:14
An asteroid impact?
43
134320
1320
Va chạm thiên thạch?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Hay Justin Bieber trở thành tổng thống Mỹ?
02:20
(Laughter)
45
140240
2280
(Cười)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Vấn đề là, thứ gì đó sẽ phải hủy diệt nền văn minh như chúng ta đã biết.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Bạn phải tưởng tượng nó sẽ phải tồi tệ như thế nào
02:33
to prevent us from making improvements in our technology
48
153680
3336
để ngăn chúng ta tiếp tục cải tiến công nghệ
vĩnh viễn,
02:37
permanently,
49
157040
1216
02:38
generation after generation.
50
158280
2016
thế hệ này qua thế hệ khác.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Gần như theo định nghĩa, đây là thứ tồi tệ nhất
02:42
that's ever happened in human history.
52
162480
2016
xảy ra trong lịch sử nhân loại.
02:44
So the only alternative,
53
164520
1296
Vậy nên lựa chọn duy nhất,
02:45
and this is what lies behind door number two,
54
165840
2336
và nó nằm sau cánh cửa số hai,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
đó là chúng ta tiếp tục cải tiến các máy móc thông minh
02:51
year after year after year.
56
171360
1600
năm này qua năm khác.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Tới một thời điểm nhất định, chúng ta sẽ tạo ra những cỗ máy thông minh hơn mình,
và một khi chúng ta sở hữu các cỗ máy thông minh hơn mình,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
03:00
they will begin to improve themselves.
59
180720
1976
chúng sẽ bắt đầu tự cải tiến.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Sau đó, chúng ta mạo hiểm với thứ mà nhà toán học Ij Good gọi là
03:05
an "intelligence explosion,"
61
185480
1776
sự "bùng nổ trí tuệ"
03:07
that the process could get away from us.
62
187280
2000
và quá trình đó có thể sẽ tiến xa ra khỏi chúng ta.
Và giờ, điều này thường hay bị biếm họa, như tôi có ở đây,
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
03:12
as a fear that armies of malicious robots
64
192960
3216
nỗi sợ trước một đội quân robot độc ác
03:16
will attack us.
65
196200
1256
sẽ tấn công chúng ta.
03:17
But that isn't the most likely scenario.
66
197480
2696
Nhưng đó chưa phải là viễn cảnh dễ xảy ra nhất.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Không phải những cỗ máy của chúng ta tự nhiên trở nên ác độc
Mối lo thật sự là khi chúng ta tạo ra những cỗ máy
03:25
The concern is really that we will build machines
68
205080
2616
03:27
that are so much more competent than we are
69
207720
2056
tài giỏi hơn chúng ta quá nhiều
03:29
that the slightest divergence between their goals and our own
70
209800
3776
để rồi, dù chỉ một khác biệt nhỏ nhất giữa mục tiêu của chúng và ta thôi
03:33
could destroy us.
71
213600
1200
cũng có thể hủy diệt chúng ta.
03:35
Just think about how we relate to ants.
72
215960
2080
Hãy nghĩ đến mối quan hệ giữa chúng ta loài kiến.
03:38
We don't hate them.
73
218600
1656
Chúng ta không ghét chúng.
03:40
We don't go out of our way to harm them.
74
220280
2056
Chúng ta không cố tình làm hại chúng.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Thực tế đôi khi chúng ta cố gắng không làm hại chúng.
03:44
We step over them on the sidewalk.
76
224760
2016
Chúng ta bước qua chúng trên vỉa hè.
03:46
But whenever their presence
77
226800
2136
Nhưng mỗi khi sự xuất hiện của chúng
03:48
seriously conflicts with one of our goals,
78
228960
2496
xung đột cực kì với một trong các mục đích của chúng ta,
03:51
let's say when constructing a building like this one,
79
231480
2477
Ví dụ như khi xây dựng một tòa nhà như thế này,
03:53
we annihilate them without a qualm.
80
233981
1960
chúng ta tiêu diệt chúng không lo lắng.
03:56
The concern is that we will one day build machines
81
236480
2936
Có nghĩa là một ngày nào đó khi chúng ta tạo ra các cỗ máy
03:59
that, whether they're conscious or not,
82
239440
2736
cho dù chúng có ý thức hay không,
04:02
could treat us with similar disregard.
83
242200
2000
cũng sẽ đối xử với chúng ta theo sự bất chấp tương tự như thế.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Bây giờ, tôi nghi ngờ rằng điều này có vẻ quá xa với nhiều người
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Tôi cá là có một số người đang nghi ngờ rằng AI siêu thông minh có thể xảy ra,
04:15
much less inevitable.
86
255720
1656
ít nhiều không thể tránh khỏi.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Nhưng sau đó bạn phải tìm ra điều sai với một trong các giả định sau.
Và chỉ có 3 giả định.
04:21
And there are only three of them.
88
261044
1572
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Trí thông minh là một vấn đề của quá trình xử lí thông tin trong các hệ thống vật lí.
Thực ra, điều này hơn một chút so với giả định.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Chúng ta đã tạo ra trí thông minh hạn hẹp trong các cỗ máy của mình rồi,
04:35
and many of these machines perform
92
275440
2016
Và rất nhiều máy móc cũng đã hoạt động
04:37
at a level of superhuman intelligence already.
93
277480
2640
ở mức độ của trí thông minh siêu việt rồi.
04:40
And we know that mere matter
94
280840
2576
Và chúng ta biết rằng chỉ có vật chất
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
mới có thể tạo cơ hội cho "trí thông minh không giới hạn,"
một khả năng suy nghĩ linh hoạt trên nhiều lĩnh vực,
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
04:49
because our brains have managed it. Right?
97
289760
3136
bởi vì bộ não chúng ta quản lí nó. Đúng chứ?
04:52
I mean, there's just atoms in here,
98
292920
3936
Ý tôi là, chỉ có các hạt nhân trong đây,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
và miễn là chúng ta tiếp tục xây dựng hệ thống các nguyên tử
05:01
that display more and more intelligent behavior,
100
301400
2696
để biểu lộ những hành động thông minh nhiều hơn nữa,
cuối cùng chúng ta sẽ, trừ khi chúng ta bị gián đoạn,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
05:06
we will eventually build general intelligence
102
306680
3376
cuối cùng chúng ta sẽ xây dựng được trí tuệ không giới hạn
cho máy móc của mình.
05:10
into our machines.
103
310080
1296
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Cần phải nhận ra rằng tiến độ không quan trọng.
bởi vì bất kì quá trình nào cũng đủ để đưa chúng ta vào khu vực kết thúc.
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Ta không cần định luật Moore để tiếp tục. Ta không cần phát triển theo cấp số nhân.
Chúng ta chỉ cần tiếp tục bước đi.
05:22
We just need to keep going.
107
322080
1600
05:25
The second assumption is that we will keep going.
108
325480
2920
Giả định thứ hai là chúng ta sẽ tiếp tục đi.
Chúng ta tiếp tục cải tiến những cỗ máy thông minh của mình.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Và dựa vào giá trị của trí thông minh --
05:33
And given the value of intelligence --
110
333000
4376
Ý tôi là, trí thông minh hoặc là nguồn gốc của tất cả mọi thứ chúng ta đánh giá
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
05:40
or we need it to safeguard everything we value.
112
340960
2776
hoặc chúng ta cần nó để bảo vệ tất cả mọi thứ chúng ta coi trọng.
05:43
It is our most valuable resource.
113
343760
2256
Nó là tài nguyên quý giá nhất của chúng ta.
Vì thế chúng ta muốn làm điều này.
05:46
So we want to do this.
114
346040
1536
05:47
We have problems that we desperately need to solve.
115
347600
3336
Chúng ta có những vần đề nhất định phải liều mạng giải quyết.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Chúng ta muốn chữa khỏi các căn bệnh như Alzheimer hay ung thư.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Chúng ta muốn nắm vững hệ thống kinh tế. Chúng ta muốn cải thiện khoa học khí hậu.
05:58
So we will do this, if we can.
118
358920
2256
Cho nên chúng ta sẽ làm nó nếu có thể.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Tàu đã rời khỏi trạm, và không thể kéo phanh nữa.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Và điều cuối: chúng ta không đứng trên đỉnh cao của trí thông minh,
06:11
or anywhere near it, likely.
121
371360
1800
hay có thể là chỗ nào đó gần nó.
06:13
And this really is the crucial insight.
122
373640
1896
Và điều này thực sự là cái nhìn sâu sắc quan trọng.
06:15
This is what makes our situation so precarious,
123
375560
2416
Đây là thứ làm tình trạng của chúng ta bất ổn,
và nó cũng làm trực giác của chúng ta về rủi ro trở nên không đáng tin.
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
Bây giờ hãy xem xét một người thông minh nhất trên đời.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Hầu như trong danh sách của các bạn đều sẽ có tên John von Neumann.
Ý tôi là, ấn tượng mà von Neumann tạo ra đối với mọi người xung quanh,
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
và nó cũng bao gồm những nhà toán học và vật lí vĩ đại ở thời của ông ta,
06:37
is fairly well-documented.
129
397520
1936
được lưu truyền khá tốt.
06:39
If only half the stories about him are half true,
130
399480
3776
Nếu một nửa câu chuyện về ông chỉ đúng 50%,
06:43
there's no question
131
403280
1216
không cần bàn cãi
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
ông là người thông minh nhất từng sống trên đời.
Vậy hãy xét về chuỗi phân bố của trí thông minh.
06:47
So consider the spectrum of intelligence.
133
407000
2520
06:50
Here we have John von Neumann.
134
410320
1429
Ở đây là John von Neumann.
06:53
And then we have you and me.
135
413560
1334
Tiếp theo là các bạn và tôi.
Và tiếp là con gà.
06:56
And then we have a chicken.
136
416120
1296
06:57
(Laughter)
137
417440
1936
(Cười)
06:59
Sorry, a chicken.
138
419400
1216
Xin lỗi, một con gà.
07:00
(Laughter)
139
420640
1256
(Cười)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Không lí do gì tôi phải làm buổi nói chuyện này tệ hại hơn cần thiết.
07:05
(Laughter)
141
425680
1600
(Cười)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Tuy nhiên, có vẻ có khả năng rất lớn là chuỗi phân bố trí thông minh
07:11
extends much further than we currently conceive,
143
431840
3120
mở rộng ra xa hơn nhiều so với những gì chúng ta tưởng tượng,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
và nếu chúng ta tạo ra những cỗ máy thông minh hơn mình,
chúng có thể sẽ khai phá dải phân bố này
07:19
they will very likely explore this spectrum
145
439120
2296
07:21
in ways that we can't imagine,
146
441440
1856
theo cách ta không thể tưởng tượng,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
và vượt xa chúng ta theo cách ta không thể tưởng tượng.
Và quan trọng là nhận ra rằng điều này đúng với tính hấp dẫn của sự mau lẹ.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Đúng chứ? Hãy cứ tưởng tượng nếu ta tạo ra một AI siêu thông minh
07:36
that was no smarter than your average team of researchers
150
456440
3456
mà không tài giỏi hơn nhóm các nhà nghiên cứu trung bình
07:39
at Stanford or MIT.
151
459920
2296
ở Stanford hay MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Vâng, các mạch điện tử hoạt động nhanh hơn khoảng một triệu lần
07:45
than biochemical ones,
153
465240
1256
so với các mạch sinh hóa,
07:46
so this machine should think about a million times faster
154
466520
3136
nên cỗ máy này có thể suy nghĩ nhanh hơn khoảng một triệu lần
07:49
than the minds that built it.
155
469680
1816
so với trí não đã tạo ra nó.
07:51
So you set it running for a week,
156
471520
1656
Rồi bạn cài đặt nó chạy một tuần,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
và nó sẽ thực hiện 20.000 năm làm việc ở trình độ trí tuệ của con người,
07:58
week after week after week.
158
478400
1960
tuần này qua tuần khác.
08:01
How could we even understand, much less constrain,
159
481640
3096
Thậm chí làm sao ta hiểu được, dù ít nhiều hạn chế,
08:04
a mind making this sort of progress?
160
484760
2280
một bộ óc thực hiện kiểu quá trình như vậy?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Một điều khác thật sự đáng lo lắng,
đó là, tưởng tượng ra một viễn cảnh tốt nhất.
08:11
is that, imagine the best case scenario.
162
491000
4976
Nào hãy tưởng tượng chúng ta tìm ra một thiết kế cho AI siêu thông minh
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
mà không có các vấn đề an toàn.
08:20
that has no safety concerns.
164
500200
1376
08:21
We have the perfect design the first time around.
165
501600
3256
Lần đầu tiên chúng ta có được một bản thiết kế hoàn hảo.
08:24
It's as though we've been handed an oracle
166
504880
2216
Nó như thể chúng ta nhận được một lời tiên tri
xảy ra chính xác như trong dự định.
08:27
that behaves exactly as intended.
167
507120
2016
Vâng, cỗ máy này sẽ là một thiết bị tuyệt vời giúp tiết kiệm nhân lực.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Nó có thể thiết kế một cỗ máy có khả năng tạo ra cỗ máy khác
08:33
It can design the machine that can build the machine
169
513680
2429
thực hiện các công việc thể chất,
08:36
that can do any physical work,
170
516133
1763
08:37
powered by sunlight,
171
517920
1456
chạy bằng ánh sáng mặt trời,
08:39
more or less for the cost of raw materials.
172
519400
2696
nhiều hơn hoặc ít hơn cho các chi phí nguyên liệu.
Vậy chúng ta đang nói tới sự kết thúc cho nỗi cực nhọc của con người.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Chúng ta cũng nói về sự chấm dứt cho các công việc trí óc.
Vậy loài khỉ giống chúng ta sẽ làm gì trong tình huống này?
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Vâng, chúng ta được tự do chơi Frisbee và nhắn tin với từng người.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Thêm vài LSD và vài lựa chọn cho bộ quần áo đáng ngờ,
09:00
and the whole world could be like Burning Man.
178
540720
2176
và cả thế giới sẽ như ở Burning Man.
09:02
(Laughter)
179
542920
1640
(Cười)
09:06
Now, that might sound pretty good,
180
546320
2000
Bây giờ, điều đó có lẽ nghe rất tốt,
09:09
but ask yourself what would happen
181
549280
2376
nhưng thử hỏi bản thân xem điều gì sẽ xảy ra
09:11
under our current economic and political order?
182
551680
2736
dưới trật tự kinh tế và chính trị của chúng ta bây giờ?
09:14
It seems likely that we would witness
183
554440
2416
Có vẻ là chúng ta sẽ chứng kiến
09:16
a level of wealth inequality and unemployment
184
556880
4136
một mức độ phân biệt giàu nghèo và nạn thất nghiệp
chưa từng thấy trước đây.
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Sự thiếu tự nguyện trong việc lập tức đưa sự giàu có mới này
09:25
to the service of all humanity,
187
565200
1480
vào phục vụ cho toàn nhân loại,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
một vài "tỷ tỷ phú" đươc vinh danh trên trang bìa của các tờ tạp chí kinh tế
09:31
while the rest of the world would be free to starve.
189
571280
2440
trong khi phần còn lại của thế giới thì chịu cảnh chết đói
Người Nga và Trung Quốc sẽ làm gì
09:34
And what would the Russians or the Chinese do
190
574320
2296
09:36
if they heard that some company in Silicon Valley
191
576640
2616
khi họ nghe được tin một số công ty trong Thung lũng Silicon
09:39
was about to deploy a superintelligent AI?
192
579280
2736
chuẩn bị triển khai một AI siêu thông minh?
Cỗ máy này có khả năng sẽ tiến hành chiến tranh
09:42
This machine would be capable of waging war,
193
582040
2856
09:44
whether terrestrial or cyber,
194
584920
2216
dù cho trên mặt đất hay trên mạng,
với sức mạnh chưa từng có.
09:47
with unprecedented power.
195
587160
1680
Đây là viễn cảnh "thắng làm vua".
09:50
This is a winner-take-all scenario.
196
590120
1856
Dẫn trước sáu tháng trong cuộc đua này
09:52
To be six months ahead of the competition here
197
592000
3136
tương đương với bị dẫn trước 500.000 năm,
09:55
is to be 500,000 years ahead,
198
595160
2776
09:57
at a minimum.
199
597960
1496
ít nhất là vậy.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Vì vậy, thậm chí nó có vẻ chỉ là những tin đồn cho kiểu đột phá như thế
10:04
could cause our species to go berserk.
201
604240
2376
nhưng cũng đủ khiến loài người cáu tiết.
10:06
Now, one of the most frightening things,
202
606640
2896
Và giờ, một trong những điều đáng sợ nhất,
10:09
in my view, at this moment,
203
609560
2776
theo tôi nghĩ ngay tại thời điểm này,
10:12
are the kinds of things that AI researchers say
204
612360
4296
chính là những thứ mà các nhà nghiên cứu về AI nói
10:16
when they want to be reassuring.
205
616680
1560
khi họ muốn được yên tâm.
Và thời gian là lí do thường nhất cho việc chúng ta không cần phải lo lắng.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
10:22
This is all a long way off, don't you know.
207
622480
2056
Các bạn biết không, đây là một con đường dài.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Có thể là 50 hay 100 năm nữa.
10:27
One researcher has said,
209
627720
1256
Một nhà nghiên cứu đã nói,
"lo lắng về độ an toàn của AI
10:29
"Worrying about AI safety
210
629000
1576
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
cũng như lo lắng về bùng nổ dân số trên sao Hỏa."
Đây là phiên bản của Thung lũng Silicon
10:34
This is the Silicon Valley version
212
634116
1620
10:35
of "don't worry your pretty little head about it."
213
635760
2376
về việc "đừng làm cái đầu nhỏ của bạn lo lắng về nó."
10:38
(Laughter)
214
638160
1336
(Cười)
10:39
No one seems to notice
215
639520
1896
Có vẻ chả ai chú ý
10:41
that referencing the time horizon
216
641440
2616
rằng xem xét trên phạm vi thời gian
là hoàn toàn vô căn cứ.
10:44
is a total non sequitur.
217
644080
2576
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Nếu trí thông minh chỉ là một vấn đề về xử lí thông tin,
10:49
and we continue to improve our machines,
219
649960
2656
và chúng ta tiếp tục cải tiến các cỗ máy,
10:52
we will produce some form of superintelligence.
220
652640
2880
chúng ta sẽ tạo ra được vài dạng của siêu trí tuệ.
10:56
And we have no idea how long it will take us
221
656320
3656
Và chúng ta không biết sẽ tốn bao nhiêu thời gian
để tạo ra những điều kiện thực hiện việc này một cách an toàn.
11:00
to create the conditions to do that safely.
222
660000
2400
11:04
Let me say that again.
223
664200
1296
Tôi xin nhắc lại.
11:05
We have no idea how long it will take us
224
665520
3816
Chúng ta không biết sẽ tốn bao nhiêu thời gian
11:09
to create the conditions to do that safely.
225
669360
2240
để tạo ra những điều kiện thực hiện việc này một cách an toàn.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Và nếu bạn chưa nhận ra, 50 năm không còn như xưa
11:16
This is 50 years in months.
227
676400
2456
Đây là 50 năm tính theo nhiều tháng.
11:18
This is how long we've had the iPhone.
228
678880
1840
Đây là thời gian chúng ta tạo ra iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Đây là thời gian "Gia đình Simpson" được chiếu trên TV.
11:24
Fifty years is not that much time
230
684680
2376
50 năm không quá nhiều
để thực hiện một trong số những thử thách lớn nhất mà loài người từng đối mặt.
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Một lần nữa, chúng ta có vẻ không thế đưa ra một phản ứng cảm xúc phù hợp
11:35
to what we have every reason to believe is coming.
233
695680
2696
cho thứ mà chúng ta có đủ lí do để tin rằng nó sẽ xảy ra.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Nhà khoa học máy tính Stuart Russell có một phép loại suy rất hay ở đây.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Ông nói, tưởng tượng chúng ta nhận được tin nhắn từ nền văn minh ngoài hành tinh,
11:47
which read:
236
707320
1696
ghi rằng:
"Loài người trên Trái Đất,
11:49
"People of Earth,
237
709040
1536
11:50
we will arrive on your planet in 50 years.
238
710600
2360
Chúng ta sẽ đáp xuống hành tinh các người trong 50 năm nữa.
11:53
Get ready."
239
713800
1576
Chuẩn bị đi."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Và giờ chúng ta chỉ đếm ngược từng tháng đến khi phi thuyền mẹ đáp xuống?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Chúng ta sẽ cảm thấy nhiều cấp bách hơn.
Một lí do khác bảo chúng ta không nên lo lắng
12:04
Another reason we're told not to worry
242
724680
1856
12:06
is that these machines can't help but share our values
243
726560
3016
là các cỗ máy này không làm gì khác ngoài chia sẻ giá trị với chúng ta
12:09
because they will be literally extensions of ourselves.
244
729600
2616
bởi vì chúng thật sự sẽ là những phần mở rộng của chúng ta.
12:12
They'll be grafted onto our brains,
245
732240
1816
Chúng sẽ được cấy vào não chúng ta,
và chúng ta về cơ bản trở thành hệ thống cảm xúc của chúng.
12:14
and we'll essentially become their limbic systems.
246
734080
2360
Giờ hãy xem xét
12:17
Now take a moment to consider
247
737120
1416
12:18
that the safest and only prudent path forward,
248
738560
3176
rằng con đường an toàn và đầy thận trọng duy nhất phía trước,
12:21
recommended,
249
741760
1336
được đề xuất,
chính là cấy trực tiếp công nghệ này vào não chúng ta.
12:23
is to implant this technology directly into our brains.
250
743120
2800
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Hiện giờ nó có lẽ thật sự là con đường an toàn, thận trọng duy nhất,
nhưng thường thì mối lo lắng an toàn của một người về công nghệ
12:30
but usually one's safety concerns about a technology
252
750000
3056
phải được tính toán khá kĩ càng trước khi bạn đính nó vào đầu mình.
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
12:36
(Laughter)
254
756760
2016
(Cười)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Vấn đề sâu hơn là xây dựng một AI siêu thông minh riêng lẻ
có vẻ dễ dàng hơn
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
là tạo ra một AI siêu thông minh
12:47
and having the completed neuroscience
258
767800
1776
và có được ngành khoa học thần kinh hoàn chỉnh
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
mà cho phép chúng ta chúng ta tích hợp trí óc của mình và nó.
12:52
And given that the companies and governments doing this work
260
772800
3176
Và giả sử các công ty và các chính phủ làm việc này
có thể sẽ nhận ra bản thân đang trong cuộc đua chống lại loài người,
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
12:59
given that to win this race is to win the world,
262
779680
3256
giả sử rằng thắng cuộc đua này là có cả thế giới,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
miễn là bạn không hủy diệt nó vào thời điểm kế tiếp,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
thì nó có vẻ như là bất kể cái gì dễ hơn
sẽ được hoàn thành trước.
13:08
will get done first.
265
788080
1200
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Bây giờ, đáng tiếc là tôi không có giải pháp cho vấn đề này,
13:13
apart from recommending that more of us think about it.
267
793440
2616
ngoại trừ đề nghị chúng ta cần nghĩ về nó nhiều hơn.
Tôi nghĩ chúng ta cần thứ gì đó như Manhattan Project
13:16
I think we need something like a Manhattan Project
268
796080
2376
13:18
on the topic of artificial intelligence.
269
798480
2016
trong chủ đề về trí thông minh nhân tạo.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Không vì để tạo ra nó, bởi tôi nghĩ chúng ta chắc chắn sẽ làm được,
13:23
but to understand how to avoid an arms race
271
803280
3336
mà để hiểu cách ngăn ngừa cuộc chạy đua vũ trang
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
và xây dựng nó theo cách phù hợp với lợi ích của chúng ta.
Khi chúng ta nói về AI siêu thông minh
13:30
When you're talking about superintelligent AI
273
810160
2136
13:32
that can make changes to itself,
274
812320
2256
có thể tự thay đổi,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
có vẻ như chúng ta chỉ có một cơ hội để làm những điều kiện ban đầu đúng đắn,
và thậm chí sau đó chúng ta sẽ cần phải ta hứng chịu
13:39
and even then we will need to absorb
276
819240
2056
13:41
the economic and political consequences of getting them right.
277
821320
3040
những hậu quả kinh tế chính trị khi làm nó đúng đắn.
13:45
But the moment we admit
278
825760
2056
Nhưng khoảnh khác ta thừa nhận
13:47
that information processing is the source of intelligence,
279
827840
4000
rằng xử lí thông tin là nguồn gốc của trí thông minh,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
rằng một số hệ thống tính toán phù hợp là nền tảng cho trí thông minh
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
và chúng ta thừa nhận rằng chúng ta tiếp tục cải tiến những hệ thống này,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
và chúng ta thừa nhận rằng chân trời của nhận thức có thể rất xa
14:07
what we currently know,
283
847760
1200
so với những gì chúng ta đang biết,
thì chúng ta phải công nhận
14:10
then we have to admit
284
850120
1216
14:11
that we are in the process of building some sort of god.
285
851360
2640
rằng chúng ta đang trong quá trình tạo ra một loại thánh thần.
14:15
Now would be a good time
286
855400
1576
Bây giờ sẽ là thời điểm tốt
để chắc chắn rằng nó là thánh thần mà chúng ta có thể sống chung
14:17
to make sure it's a god we can live with.
287
857000
1953
Cảm ơn các bạn rất nhiều.
14:20
Thank you very much.
288
860120
1536
14:21
(Applause)
289
861680
5093
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7