Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

284,020 views ・ 2023-07-11

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Gia Bảo Nguyễn Reviewer: Duy Le
00:04
Since 2001, I have been working on what we would now call
0
4334
3503
Kể từ năm 2001, tôi đã bắt đầu làm về mảng mà hiện tại ta hay gọi là
00:07
the problem of aligning artificial general intelligence:
1
7879
3629
vấn đề đồng thuận trí tuệ nhân tạo tổng quát (AGI):
00:11
how to shape the preferences and behavior
2
11550
2085
cách định hình ý muốn và hành vi
00:13
of a powerful artificial mind such that it does not kill everyone.
3
13677
4838
của 1 bộ óc nhân tạo tối tân và phải chắc là nó sẽ không giết bất cứ ai.
Tôi gần như là người tiên phong trong lĩnh vực này vào 2 thập kỉ trước,
00:19
I more or less founded the field two decades ago,
4
19224
3128
00:22
when nobody else considered it rewarding enough to work on.
5
22352
2794
khi đó chẳng ai dám nghĩ lĩnh vực này sẽ có kết quả.
00:25
I tried to get this very important project started early
6
25146
2711
Tôi đã cố gắng bắt đầu dự án quan trọng này thật sớm
00:27
so we'd be in less of a drastic rush later.
7
27899
2544
nhằm tránh những sự lỡ làng có thể phát sinh về sau.
00:31
I consider myself to have failed.
8
31069
2044
Tôi nhận ra mình đã thất bại.
00:33
(Laughter)
9
33154
1001
(Cười)
00:34
Nobody understands how modern AI systems do what they do.
10
34197
3337
Không ai hiểu làm thế nào mà những con AI đời mới lại khủng đến vậy.
00:37
They are giant, inscrutable matrices of floating point numbers
11
37576
2961
Chúng là các ma trận khổng lồ, khó hiểu, gồm các số thực nổi
00:40
that we nudge in the direction of better performance
12
40579
2460
mà con người sắp xếp lại nhằm cải thiện hiệu suất
00:43
until they inexplicably start working.
13
43039
2044
cho đến khi chúng vận hành trơn tru.
00:45
At some point, the companies rushing headlong to scale AI
14
45083
3378
Đến 1 thời điểm, những cty sẽ chạy đua để nâng cấp AI
00:48
will cough out something that's smarter than humanity.
15
48461
2670
đạt đến mức chúng có thể thông minh hơn cả con người.
00:51
Nobody knows how to calculate when that will happen.
16
51131
2544
Chẳng ai biết sẽ làm gì khi điều đó xảy đến cả.
00:53
My wild guess is that it will happen after zero to two more breakthroughs
17
53675
3712
Theo như tôi đoán điều này sẽ xảy ra sau 2 hoặc nhiều bước tiến đột phá nữa
00:57
the size of transformers.
18
57429
1710
với sự chuyển đổi quy mô lớn.
00:59
What happens if we build something smarter than us
19
59139
2335
Điều gì xảy ra khi ta tạo ra 1 thứ thông minh hơn mình
01:01
that we understand that poorly?
20
61516
2377
trong khi lại thiếu kiến thức về nó?
01:03
Some people find it obvious that building something smarter than us
21
63935
3170
Vài người chắc nịch rằng việc tạo ra 1 thứ thông minh hơn con người
mà ta không biết rõ sẽ dẫn đến 1 kết cục tồi tệ.
01:07
that we don't understand might go badly.
22
67105
2294
01:09
Others come in with a very wide range of hopeful thoughts
23
69441
3879
Vài người khác thì cởi mở hơn khi đưa ra khá nhiều sự kì vọng
01:13
about how it might possibly go well.
24
73361
2044
về những điều tốt đẹp mà nó có thể mang lại.
01:16
Even if I had 20 minutes for this talk and months to prepare it,
25
76281
3337
Kể cả khi tôi có 20 phút để trình bày ở đây và cả tháng để chuẩn bị,
01:19
I would not be able to refute all the ways people find to imagine
26
79659
3087
thì tôi cũng khó mà bác bỏ những gì mà mọi người đang hình dung
01:22
that things might go well.
27
82746
1710
rằng nó sẽ tốt đẹp.
01:24
But I will say that there is no standard scientific consensus
28
84456
4546
Nhưng tôi nói luôn là không có tiêu chuẩn khoa học nào đồng thuận
01:29
for how things will go well.
29
89044
1668
về việc mọi thứ sẽ tốt đẹp cả.
01:30
There is no hope that has been widely persuasive
30
90712
2252
Không có hy vọng là cụm từ mà ai cũng sẽ nghĩ về
bên cạnh đó còn là các cuộc kiểm định đầy hoài nghi.
01:33
and stood up to skeptical examination.
31
93006
1877
01:35
There is nothing resembling a real engineering plan for us surviving
32
95592
4421
Không có bất kì cái gì như là kế hoạch sinh tồn thực tiễn
01:40
that I could critique.
33
100013
1710
để tôi có thể dùng để phản biện.
01:41
This is not a good place in which to find ourselves.
34
101765
2752
Đây không phải là nơi để ta tìm thấy sự đồng thuận đâu.
01:44
If I had more time,
35
104517
1210
Nếu tôi có thời gian,
01:45
I'd try to tell you about the predictable reasons
36
105727
2294
Tôi sẽ kể mọi người nghe về vài phỏng đoán của tôi
01:48
why the current paradigm will not work
37
108063
1960
vì sao mô hình hiện tại sẽ không hoạt động
01:50
to build a superintelligence that likes you
38
110065
2460
để tạo ra những cỗ máy thông minh y hệt các bạn
01:52
or is friends with you, or that just follows orders.
39
112567
3378
hay y hệt bạn của bạn, hoặc cũng có thể là y hệt tất cả.
01:56
Why, if you press "thumbs up" when humans think that things went right
40
116613
4379
Vì sao vậy, nếu bạn bấm “thích” thì có nghĩa bạn đang nghĩ AI đã làm đúng
02:01
or "thumbs down" when another AI system thinks that they went wrong,
41
121034
3712
còn bấm “ghét” tức là bạn nghĩ AI đó đã làm sai,
02:04
you do not get a mind that wants nice things
42
124788
3503
Bạn không có 1 tư duy đủ tốt để mong cầu những điều tốt đẹp
02:08
in a way that generalizes well outside the training distribution
43
128291
4004
kể từ lúc mà dữ liệu được tổng hợp thậm chí vượt ngoài tầm huấn luyện
02:12
to where the AI is smarter than the trainers.
44
132337
2461
đến mức mà AI thông minh hơn cả người huấn luyện nó.
02:15
You can search for "Yudkowsky list of lethalities" for more.
45
135674
5130
Bạn có thể xem “Yudkowsky- danh sách tử vong” để biết thêm.
02:20
(Laughter)
46
140804
1793
(Cười)
02:22
But to worry, you do not need to believe me
47
142597
2169
Nhưng đừng lo, các bạn không cần tin tôi đâu
02:24
about exact predictions of exact disasters.
48
144808
2878
nhất là các tiên đoán chính xác về các thảm họa cụ thể.
02:27
You just need to expect that things are not going to work great
49
147727
2962
Các bạn chỉ cần mong là mọi thứ sẽ không hoạt động trơn tru
02:30
on the first really serious, really critical try
50
150730
3045
trong lần thử nghiệm nghiêm túc, trọng yếu đầu tiên
02:33
because an AI system smart enough to be truly dangerous
51
153817
3503
bỏi 1 hệ thống AI đủ thông minh để trở thành 1 mối đe dọa
02:37
was meaningfully different from AI systems stupider than that.
52
157362
3503
có ý nghĩa hoàn toàn khác với mấy con AI ngờ nghệch khác.
02:40
My prediction is that this ends up with us facing down something smarter than us
53
160907
5005
Theo tôi phỏng đoán thì ta sẽ phải đối đầu với 1 thứ thông minh hơn ta nhiều đấy
02:45
that does not want what we want,
54
165954
1752
chúng không cùng tư tưởng với ta,
02:47
that does not want anything we recognize as valuable or meaningful.
55
167706
4170
chúng không quan tâm tới những thứ mà đối với ta là vô giá và đầy ý nghĩa.
02:52
I cannot predict exactly how a conflict between humanity and a smarter AI would go
56
172252
4588
Tôi không phỏng đoán được xung đột giữa người và AI sẽ đi tới đâu
02:56
for the same reason I can't predict exactly how you would lose a chess game
57
176881
3838
tương tự vậy, tôi cũng không thể đoán được cách mà bạn thua 1 ván cờ là như nào
03:00
to one of the current top AI chess programs, let's say Stockfish.
58
180760
3671
nói tới AI chơi cờ đỉnh nhất hiện nay, phải nói tới Stockfish.
03:04
If I could predict exactly where Stockfish could move,
59
184973
3545
Nếu tôi có thể đoán được chính xác mọi nước đi của Stockfish,
03:08
I could play chess that well myself.
60
188560
2544
tôi hoàn toàn có thể chơi đỉnh như nó.
Tôi không thể dự đoán chính xác cách bạn thua Stockfish,
03:11
I can't predict exactly how you'll lose to Stockfish,
61
191146
2502
03:13
but I can predict who wins the game.
62
193648
2044
nhưng tôi có thể dự đoán xem ai thắng.
03:16
I do not expect something actually smart to attack us with marching robot armies
63
196401
4421
Tôi không chấp nhận 1 thứ thông minh đến mức
tấn công ta bằng đội quân robot hùng hậu
03:20
with glowing red eyes
64
200864
1543
cùng đôi mắt đỏ chói
03:22
where there could be a fun movie about us fighting them.
65
202407
3086
có lẽ sẽ có 1 bộ phim khá thú vị về việc chúng tấn công ta đấy.
03:25
I expect an actually smarter and uncaring entity
66
205535
2502
Tôi mong là sẽ có 1 thực thể thông minh nào đấy
sẽ phân tích các chiến thuật và công nghệ của ta
03:28
will figure out strategies and technologies
67
208079
2002
03:30
that can kill us quickly and reliably and then kill us.
68
210123
3545
rồi nhanh chóng giết chết ta cả về niềm tin lẫn thể xác.
03:34
I am not saying that the problem of aligning superintelligence
69
214461
2919
Tôi không nói vấn đề sắp xếp siêu trí tuệ nhân tạo
về lí thuyết là không thể giải quyết.
03:37
is unsolvable in principle.
70
217422
1710
03:39
I expect we could figure it out with unlimited time and unlimited retries,
71
219174
4879
Tôi mong ta có thể phát hiện ra với
quỹ thời gian và những lần thử nghiệm không giới hạn,
03:44
which the usual process of science assumes that we have.
72
224095
3796
cùng quy trình thông thường của khoa học giả định mà chúng ta có.
03:48
The problem here is the part where we don't get to say,
73
228308
2836
Vấn đề ở đây nằm ở phần mà ta chưa đề cập tới,
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
“Ha ha, coi kìa, nó không hiệu quả.
03:53
That clever idea that used to work on earlier systems
75
233521
3837
Những ý tưởng thông minh từng vận hành bằng các hệ thống cũ
03:57
sure broke down when the AI got smarter, smarter than us.”
76
237358
3504
chắc chắc sẽ lỗi thời khi AI dần thông thái, trí tuệ hơn ta.”
04:01
We do not get to learn from our mistakes and try again
77
241571
2544
Ta không cần phải học từ thất bại rồi đứng lên
bởi còn ai sống đâu mà đứng.
04:04
because everyone is already dead.
78
244157
1960
04:07
It is a large ask
79
247076
2586
Đó quả là một câu hỏi lớn
04:09
to get an unprecedented scientific and engineering challenge
80
249704
3003
khiến khoa học ngỡ nghàng và thách thức cả giới kĩ thuật
04:12
correct on the first critical try.
81
252707
2002
chính xác ngay từ lần thử đầu tiên.
04:15
Humanity is not approaching this issue with remotely
82
255084
3045
Nhân loại sẽ không tiếp cận vấn đề này 1 cách hờ hửng
04:18
the level of seriousness that would be required.
83
258171
2711
sự căng thẳng nhất định là điều cần thiết.
04:20
Some of the people leading these efforts
84
260924
1918
Vài người tiên phong đi theo giả thuyết này
04:22
have spent the last decade not denying
85
262884
2502
đã dành cả thập kỉ để khẳng định
04:25
that creating a superintelligence might kill everyone,
86
265386
2920
rằng việc tạo ra trí tuệ nhân tạo có thể hủy diệt nhân loại,
04:28
but joking about it.
87
268306
1376
đấy không phải để đùa.
04:30
We are very far behind.
88
270183
1877
Ta bị bỏ lại rất xa.
04:32
This is not a gap we can overcome in six months,
89
272101
2294
Một khoảng cách mà ta khó thể rút ngắn trong 6 tháng,
04:34
given a six-month moratorium.
90
274437
1919
6 tháng đình chỉ.
04:36
If we actually try to do this in real life,
91
276689
2503
Nếu ta thật sự làm điều đó ngoài đời,
04:39
we are all going to die.
92
279234
1668
Tất cả chúng ta sẽ chết.
04:41
People say to me at this point, what's your ask?
93
281402
2586
Mọi người hỏi tôi vào lúc đó, anh muốn gì?
04:44
I do not have any realistic plan,
94
284697
1627
Tôi không có kế hoạch thực tiễn,
04:46
which is why I spent the last two decades
95
286324
1960
đó là lí do tôi đã dành 2 thập kỉ qua
04:48
trying and failing to end up anywhere but here.
96
288326
2586
cố gắng rồi gục ngã chỉ để đứng ở đây.
04:51
My best bad take is that we need an international coalition
97
291913
3670
Tôi có 1 hạ sách đó là ta nên lập 1 liên minh quốc tế
04:55
banning large AI training runs,
98
295625
2252
để cấm luôn việc huấn luyện AI quy mô lớn,
04:57
including extreme and extraordinary measures
99
297877
3379
bao gồm cả những biện pháp cực đoan và phi lí nhất
05:01
to have that ban be actually and universally effective,
100
301256
3253
để mở rộng quy mô lệnh cấm và tăng hiệu quả,
05:04
like tracking all GPU sales,
101
304509
2377
như định vị tất cả GPU bán ra,
05:06
monitoring all the data centers,
102
306928
2127
giám sát tất cả các trung tâm dữ liệu,
05:09
being willing to risk a shooting conflict between nations
103
309055
2711
sẵn sàng gánh chịu nguy cơ vũ trang giữa các quốc gia
05:11
in order to destroy an unmonitored data center
104
311808
2711
nhằm phá hủy luôn các trung tâm dữ liệu ngoài kiểm soát
05:14
in a non-signatory country.
105
314561
1793
tại các quốc gia không quy phục.
05:17
I say this, not expecting that to actually happen.
106
317480
3170
Tôi nói vậy, không có nghĩa là tôi mong nó xảy ra.
05:21
I say this expecting that we all just die.
107
321109
2919
Tôi nói vậy bởi ta đều phải chết.
05:24
But it is not my place to just decide on my own
108
324779
3295
Nhưng tôi cũng không có lựa chọn nào khác cả
05:28
that humanity will choose to die,
109
328074
2211
bởi nhân loại sẽ chọn cái chết,
05:30
to the point of not bothering to warn anyone.
110
330326
2461
đó là lúc mà chả ai buồn cảnh bảo lẫn nhau nữa.
05:33
I have heard that people outside the tech industry
111
333204
2336
Tôi nghe nói những người không làm ở mảng công nghệ
05:35
are getting this point faster than people inside it.
112
335582
2627
sẽ nhìn nhận vấn đề nhanh hơn người trong nghành.
05:38
Maybe humanity wakes up one morning and decides to live.
113
338251
3712
Biết đâu nhân loại bỗng tỉnh dậy vào 1 buổi sáng nọ và quyết định sẽ sống.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
Cám ơn vì đã tham dự buổi TED của tôi.
05:45
(Laughter)
115
345049
1585
(Cười)
05:46
(Applause and cheers)
116
346676
6965
(Vỗ tay và cổ vũ)
05:56
Chris Anderson: So, Eliezer, thank you for coming and giving that.
117
356102
4421
Chris Anderson: Eliezer, cám ơn vì đã đến và nói về chủ đề này.
06:00
It seems like what you're raising the alarm about is that like,
118
360523
3962
Có vẻ việc anh đưa ra những cảnh báo vậy cứ như thể,
06:04
for this to happen, for an AI to basically destroy humanity,
119
364527
3962
để điều này xảy ra, để AI về cơ bản có thể hủy diệt nhân loại.
06:08
it has to break out, escape controls of the internet and, you know,
120
368489
5172
Nó buộc phải vượt qua, thoát khỏi kiểm soát của internet và, bạn biết mà,
06:13
start commanding actual real-world resources.
121
373661
2920
bắt đầu nhăm nhe những nguồn tài nguyên thực.
06:16
You say you can't predict how that will happen,
122
376581
2210
Anh nói anh không thể dự đoán điều gì sẽ xảy ra,
06:18
but just paint one or two possibilities.
123
378833
3462
nhưng cứ vẽ ra 1 hay 2 viễn cảnh xem.
06:22
Eliezer Yudkowsky: OK, so why is this hard?
124
382337
2794
Elizer Yudkowsky: Ok, nó khó chỗ nào đây?
06:25
First, because you can't predict exactly where a smarter chess program will move.
125
385131
3837
Thứ nhất, vì bạn không thể dự đoán nước cờ tiếp theo được lập trình như nào.
06:28
Maybe even more importantly than that,
126
388968
1877
Thậm chí có điều còn quan trọng hơn,
06:30
imagine sending the design for an air conditioner
127
390887
2794
thử tưởng tượng bạn gửi mẫu thiết kế của 1 cái máy điều hòa
06:33
back to the 11th century.
128
393723
1877
trở về thế kỉ 11.
06:35
Even if they -- if it’s enough detail for them to build it,
129
395642
3128
Ngay cả khi -- họ có đủ bản thảo chi tiết để tạo ra nó,
06:38
they will be surprised when cold air comes out
130
398811
2753
họ vẫn sẽ bị ngạc nhiên khi thấy khí lạnh tuôn ra
06:41
because the air conditioner will use the temperature-pressure relation
131
401564
3670
bởi máy điều hòa sẽ sử dụng tương quan nhiệt độ và áp suất
06:45
and they don't know about that law of nature.
132
405276
2461
và họ không hề biết về cái quy luật tự nhiên đó.
06:47
So if you want me to sketch what a superintelligence might do,
133
407779
4629
Nên là nếu anh muốn tôi phác thảo cái mà siêu trí tuệ nhân tạo có thể làm,
06:52
I can go deeper and deeper into places
134
412450
2336
Tôi có thể nói chi tiết đến từng đường tơ kẽ chỉ
06:54
where we think there are predictable technological advancements
135
414827
2962
tới độ ta thấy có mấy công nghệ dự đoán tối tân
06:57
that we haven't figured out yet.
136
417789
1626
mà ta thậm chưa hề hình dung qua,
06:59
And as I go deeper, it will get harder and harder to follow.
137
419415
2836
Và khi tôi càng đi sâu, vấn đề sẽ càng khó tiếp thu
07:02
It could be super persuasive.
138
422251
1961
Nó có thể cực kì thuyết phục.
07:04
That's relatively easy to understand.
139
424253
1877
Điều này cũng tương đối dễ hiểu,
07:06
We do not understand exactly how the brain works,
140
426130
2545
Ta không hề biết chính xác cách mà bộ não vận hành,
07:08
so it's a great place to exploit laws of nature that we do not know about.
141
428716
3504
nên nó là 1 nơi tuyệt vời để ta khai thác quy luật tự nhiên mà ta chưa biết.
07:12
Rules of the environment,
142
432261
1502
Quy luật của môi trường,
07:13
invent new technologies beyond that.
143
433805
2669
tạo ra những công nghệ mới ngoài phạm trù đó.
07:16
Can you build a synthetic virus that gives humans a cold
144
436808
3879
Bạn có thể tạo ra một loại virus tổng hợp khiến con người cảm lạnh
07:20
and then a bit of neurological change and they're easier to persuade?
145
440728
4213
cùng 1 chút thay đổi về hệ thần kinh để thuyết phục họ dễ dàng hơn?
07:24
Can you build your own synthetic biology,
146
444941
3336
Liệu bạn có thể tự tạo ra một thứ sinh học tổng hợp,
07:28
synthetic cyborgs?
147
448319
1585
người máy sinh học tổng hợp ấy?
07:29
Can you blow straight past that
148
449946
2044
Liệu bạn có thể thông quá nó
07:31
to covalently bonded equivalents of biology,
149
451990
4004
để xáo trộn những dạng cộng hưởng sinh học tương đương,
mà ở đó thay vì các protein gập lại và được hợp nhất bằng sự kết hợp tĩnh điện,
07:36
where instead of proteins that fold up and are held together by static cling,
150
456035
3754
07:39
you've got things that go down much sharper potential energy gradients
151
459789
3378
bạn lại có những thứ lao thẳng xuống độ dốc năng lượng tiềm năng
07:43
and are bonded together?
152
463209
1376
và được liên kết với nhau?
07:44
People have done advanced design work about this sort of thing
153
464585
3546
Con người đã có nhiều thiết kế tân tiến liên quan tới cái này
07:48
for artificial red blood cells that could hold 100 times as much oxygen
154
468172
3879
nhằm tạo ra các tế bào hồng cầu có thể chứa lượng khí oxy nhiều gấp 100 lần
07:52
if they were using tiny sapphire vessels to store the oxygen.
155
472093
3754
nếu họ sử dụng các bình đựng nhỏ bằng sa phia để lưu trữ khí oxy.
07:55
There's lots and lots of room above biology,
156
475888
2586
Có rất, rất nhiều thứ còn hơn cả sinh học,
07:58
but it gets harder and harder to understand.
157
478474
2211
nhưng nó cứ càng ngày càng khó hiểu
08:01
CA: So what I hear you saying
158
481519
1543
CA: Mấy điều tôi nghe nãy giờ
08:03
is that these terrifying possibilities there
159
483104
2294
đó là những viễn cảnh hết sức kinh khủng
08:05
but your real guess is that AIs will work out something more devious than that.
160
485440
5130
nhưng theo dự đoán của anh thì các AI có thể nghĩ ra những thứ còn gian xảo hơn.
08:10
Is that really a likely pathway in your mind?
161
490570
3837
liệu đó có phải là viễn cảnh mà anh đang đau đầu?
08:14
EY: Which part?
162
494407
1168
EY: Gì cơ?
08:15
That they're smarter than I am? Absolutely.
163
495616
2002
Chỗ mà chúng khôn hơn tôi ấy à? dĩ nhiên.
08:17
CA: Not that they're smarter,
164
497660
1418
CA: Không phải khôn hơn,
mà là tại sao chúng muốn đi theo hướng đó?
08:19
but why would they want to go in that direction?
165
499078
3045
08:22
Like, AIs don't have our feelings of sort of envy and jealousy and anger
166
502123
5422
Kiểu như, lũ AI đâu có những cảm xúc như hận thù, ghen ghét hay nổi giận đâu
08:27
and so forth.
167
507587
1168
và còn nhiều cái nữa.
08:28
So why might they go in that direction?
168
508755
2460
Vậy tại sao chúng lại chọn hướng đi đó
08:31
EY: Because it's convergently implied by almost any of the strange,
169
511215
4296
EY: bởi chúng sẽ suy diễn sau khi phát hiện các tình huống bất thường,
08:35
inscrutable things that they might end up wanting
170
515511
3379
những thứ khó lí giải khiến chúng bỗng có tham vọng
08:38
as a result of gradient descent
171
518931
1710
như là hậu quả bởi thuật toán suy giảm độ dốc
08:40
on these "thumbs up" and "thumbs down" things internally.
172
520683
2711
của mấy cái nút “thích” và “ghét” được tích hợp.
08:44
If all you want is to make tiny little molecular squiggles
173
524604
3920
Nếu bạn muốn tạo ra các phân tử nhỏ ngoằn ngèo
08:48
or that's like, one component of what you want,
174
528566
2461
hay cũng có thể, là một thành phần mà bạn muốn
08:51
but it's a component that never saturates, you just want more and more of it,
175
531069
3628
nhưng đó là 1 thành phần không bao giờ bảo hòa, bạn cứ thế muốn nhiều hơn,
08:54
the same way that we would want more and more galaxies filled with life
176
534697
3337
tương tự cái cách mà ta muốn có thêm vài thiên hà nữa có sự sống
08:58
and people living happily ever after.
177
538034
1793
và con người sống vui vẻ hạnh phúc.
08:59
Anything that just keeps going,
178
539869
1627
Mọi thứ cứ thế tiếp diễn.
09:01
you just want to use more and more material for that,
179
541537
3045
bạn càng ngày càng muốn nhiều nguyên liệu hơn cho nó,
09:04
that could kill everyone on Earth as a side effect.
180
544624
2669
hiệu ứng phụ của nó là người trên Trái Đất bị giết hết.
09:07
It could kill us because it doesn't want us making other superintelligences
181
547293
3545
Nó giết ta bởi nó không hề muốn ta tạo thêm những trí tuệ nhân tạo khác
09:10
to compete with it.
182
550880
1168
nhằm đối đầu với nó.
Nó giết ta bởi nó đang tận dụng toàn bộ lượng hóa chất trên Trái Đất
09:12
It could kill us because it's using up all the chemical energy on earth
183
552048
4379
09:16
and we contain some chemical potential energy.
184
556469
2586
mà ta thì lại trữ kha khá lượng hóa chất mà nó cần.
09:19
CA: So some people in the AI world worry that your views are strong enough
185
559055
6256
CA: Vài người trong giới AI lo là nhận định của anh đủ mạnh
09:25
and they would say extreme enough
186
565311
1585
khiến họ phải nói thôi đủ rồi
09:26
that you're willing to advocate extreme responses to it.
187
566896
3170
rằng anh sẵn sàng dùng những biện pháp cực đoan để đáp trả.
09:30
And therefore, they worry that you could be, you know,
188
570066
3462
Và vì thế, họ lo là anh có thể, anh biết đó,
09:33
in one sense, a very destructive figure.
189
573528
1918
ở khía cạnh nào đó, là 1 kẻ phá hoại.
09:35
Do you draw the line yourself in terms of the measures
190
575488
3170
Anh có vẽ nên làn ranh nào bên cạnh những đo lường
09:38
that we should take to stop this happening?
191
578699
2753
mà ta cần thực hiện để ngăn điều này xảy ra không?
09:41
Or is actually anything justifiable to stop
192
581494
3253
Hoặc bất cứ điều gì đủ hợp lí để chấm dứt
09:44
the scenarios you're talking about happening?
193
584747
2211
cái viễn cảnh mà anh nói sẽ xảy ra không?
09:47
EY: I don't think that "anything" works.
194
587834
3253
EY: Tôi không nghĩ là có “điều gì” đủ hiệu quả.
09:51
I think that this takes state actors
195
591087
4379
Tôi nghĩ là sẽ cần tới những nhà hoạt động liên bang
09:55
and international agreements
196
595508
2753
và thỏa hiệp quốc tế
09:58
and all international agreements by their nature,
197
598302
3254
và tất cả thỏa hiệp quốc tế theo lẽ thường,
10:01
tend to ultimately be backed by force
198
601556
1876
cuối cùng cũng lại dùng tới vũ lực thôi.
10:03
on the signatory countries and on the non-signatory countries,
199
603474
3379
cả ở các nước có kiểm soát lẫn các nước không kiểm soát,
10:06
which is a more extreme measure.
200
606894
1794
đó là biện pháp còn cực đoan hơn.
10:09
I have not proposed that individuals run out and use violence,
201
609856
2961
Tôi không đề xuất là mỗi người đều lao ra và dùng bạo lực,
10:12
and I think that the killer argument for that is that it would not work.
202
612859
4337
và tôi nghĩ thỏa thuận giết chóc sẽ không có hiệu quả đâu.
10:18
CA: Well, you are definitely not the only person to propose
203
618489
2961
CA: Được đấy, anh chắc chắn không phải là người duy nhất đề nghị
10:21
that what we need is some kind of international reckoning here
204
621450
4004
rằng cái mà ta cần là những thứ tính toán mang tầm quốc tế
10:25
on how to manage this going forward.
205
625496
2044
về việc quản lí phát triển vấn đề.
10:27
Thank you so much for coming here to TED, Eliezer.
206
627540
2419
Cám ơn anh vì đã tham gia TED, Eliezer.
10:30
(Applause)
207
630001
2085
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7