How to Keep AI Under Control | Max Tegmark | TED

167,367 views ・ 2023-11-02

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Giao Tran Reviewer: Quan Nguyen
00:03
Five years ago,
0
3833
2461
Cách đây 5 năm,
00:06
I stood on the TED stage
1
6294
1752
tôi đứng trên sân khấu TED
00:08
and warned about the dangers of superintelligence.
2
8046
4379
và cảnh báo về những hiểm nguy của Siêu trí tuệ.
00:13
I was wrong.
3
13051
1710
Những cảnh báo của tôi đã sai.
00:16
It went even worse than I thought.
4
16513
1752
Thực tế thậm chí còn tồi tệ hơn tôi nghĩ.
00:18
(Laughter)
5
18306
1752
(Khán giả cười)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Tôi chưa bao giờ nghĩ rằng các chính phủ sẽ để các công ty AI tiến xa như hiện tại
00:24
without any meaningful regulation.
7
24479
2294
mà không có bất kỳ quy định có ý nghĩa nào.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Và sự tiến bộ của Trí tuệ nhân tạo (AI) thậm chí còn nhanh hơn tôi dự đoán.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Hãy nhìn xem, đây là bối cảnh trừu tượng tôi đã trình bày trước đây về các nhiệm vụ
00:36
where the elevation represented how hard it was for AI
10
36241
3128
trong đó cao độ đại diện độ khó để
00:39
to do each task at human level.
11
39369
1919
AI thực hiện từng nhiệm vụ ở mức độ bằng với con người.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Và mực nước biển đại diện cho những gì AI có thể làm vào thời điểm đó.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
Và hỡi ơi, nước biển đã dâng lên nhanh chóng kể từ thời điểm đó.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Nhưng rất nhiều nhiệm vụ này đã biến mất (âm thanh bị chìm)
00:52
And the water is on track to submerge all land,
15
52882
3921
Và nước đang trên đà để nhấn chìm tất cả đất đai,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
tương xứng với trí thông minh của con người ở tất cả các nhiệm vụ nhận thức.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Đây là định nghĩa của Trí tuệ Nhân tạo Tổng hợp, AGI
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
cũng là mục tiêu được đặt ra của các công ty như OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind và Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Và các công ty này cũng đang cố gắng xây dựng Siêu trí tuệ,
01:16
leaving human intelligence far behind.
21
76448
2919
bỏ xa trí thông minh của con người.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Và nhiều người nghĩ rằng sẽ chỉ mất vài năm, có thể,
từ AGI trở thành Siêu trí tuệ.
01:24
So when are we going to get AGI?
23
84539
2795
Vậy thì khi nào AGI sẽ xuất hiện?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Chà, cho đến gần đây, hầu hết các nhà nghiên cứu AI đều nghĩ rằng
phải còn ít nhất là vài thập kỷ nữa.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Và bây giờ Microsoft đang nói, “Ồ, nó gần đến rồi.”
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
Chúng ta đang thấy nhen nhóm AGI trong ChatGPT-4
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
và trang cá cược Metaculus đang cho thấy thời gian còn lại
01:44
plummeting from 20 years away to three years away
28
104351
4129
đến khi AGI xuất hiện giảm mạnh từ 20 năm xuống còn 03 năm,
01:48
in the last 18 months.
29
108521
1544
trong 18 tháng qua.
01:50
And leading industry people are now predicting
30
110106
4922
Và những người hàng đầu trong ngành hiện đang dự đoán
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
rằng chúng ta có thể còn hai hoặc ba năm nữa cho đến khi chúng ta bị vượt mặt.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
Vì vậy, tốt hơn hết chúng ta nên ngừng nói về AGI như một rủi ro lâu dài,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
bằng không ai đó có thể gọi bạn là khủng long mắc kẹt trong quá khứ.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
Cách mà AI đã phát triển trong thời gian gần đây thực sự đáng kinh ngạc
02:12
Not long ago, robots moved like this.
35
132921
2419
Cách đây không lâu, robot di chuyển như thế này.
02:15
(Music)
36
135382
2085
(Âm nhạc)
02:18
Now they can dance.
37
138551
1418
Bây giờ chúng có thể nhảy.
02:20
(Music)
38
140804
2711
(Âm nhạc)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Mới năm ngoái, ứng dụng Midjourney đã tạo ra hình ảnh này.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Năm nay, yêu cầu tương tự tạo ra hình ảnh này.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Deepfake đang trở nên thực sự thuyết phục.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Video) Deepfake Tom Cruise: Tôi sẽ cho bạn thấy một vài phép thuật.
02:46
It's the real thing.
43
166913
1335
Nó là thật.
02:48
(Laughs)
44
168289
2086
(Cười)
02:50
I mean ...
45
170375
1293
Ý tôi là...
02:53
It's all ...
46
173920
1835
Tất cả đều là...
02:55
the real ...
47
175797
1710
thật...
02:57
thing.
48
177549
1168
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: Hay là không?
03:02
And Yoshua Bengio now argues
50
182387
2669
Và Yoshua Bengio bây giờ lập luận rằng
03:05
that large language models have mastered language
51
185056
3837
các mô hình ngôn ngữ lớn đã thành thạo ngôn ngữ
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
và kiến thức đến mức chúng vượt qua bài kiểm tra Turing.
Tôi biết một số người hoài nghi đang nói,
03:12
I know some skeptics are saying,
53
192355
1585
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
“Không, chúng chỉ là những con vẹt ngẫu nhiên cường điệu quá mức
03:16
that lack a model of the world,"
55
196693
1877
mà thiếu mô hình về thế giới,”
03:18
but they clearly have a representation of the world.
56
198611
2878
nhưng rõ ràng chúng có một sự tổng hợp về thế giới.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Trên thực tế, gần đây chúng tôi phát hiện Llama-2 thậm chí còn có
một bản đồ thế giới theo nghĩa đen.
03:28
And AI also builds
58
208121
3045
Và AI cũng xây dựng các
03:31
geometric representations of more abstract concepts
59
211207
3796
biểu diễn hình học của các khái niệm trừu tượng hơn
03:35
like what it thinks is true and false.
60
215003
3754
như những gì nó nghĩ là đúng và sai.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Vậy điều gì sẽ xảy ra nếu chúng ta có được AGI và Siêu trí tuệ?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Nếu bạn chỉ nhớ một điều trong bài nói chuyện của tôi, hãy để nó là điều này.
03:51
AI godfather, Alan Turing predicted
63
231311
3462
Cha đẻ AI, Alan Turing đã từng dự đoán
03:54
that the default outcome is the machines take control.
64
234814
4797
rằng kết quả mặc định là máy móc sẽ nắm quyền kiểm soát.
04:00
The machines take control.
65
240528
2211
Các máy móc nắm quyền kiểm soát.
04:04
I know this sounds like science fiction,
66
244240
2336
Tôi biết điều này nghe giống như khoa học viễn tưởng,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
nhưng, bạn biết đấy, có AI thông minh như GPT-4
04:10
also sounded like science fiction not long ago.
68
250163
2919
cũng nghe giống như khoa học viễn tưởng cách đây không lâu.
04:13
And if you think of AI,
69
253124
2378
Và nếu bạn nghĩ về AI,
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
nếu bạn nghĩ về Siêu trí tuệ nói riêng, chỉ như là một công nghệ khác,
04:21
like electricity,
71
261591
2419
như điện, có lẽ
04:24
you're probably not very worried.
72
264052
2002
bạn không lo lắng lắm.
04:26
But you see,
73
266095
1168
Nhưng bạn thấy đấy,
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
Turing nghĩ về Siêu trí tuệ giống như một giống loài mới.
04:31
Think of it,
75
271142
1168
Hãy nghĩ về điều đó,
04:32
we are building creepy, super capable,
76
272310
3879
chúng ta đang xây dựng những “kẻ tâm thần”
04:36
amoral psychopaths
77
276231
1585
đáng sợ, siêu năng lực, vô đạo đức,
04:37
that don't sleep and think much faster than us,
78
277857
2711
không ngủ và suy nghĩ nhanh hơn chúng ta nhiều,
04:40
can make copies of themselves
79
280610
1418
có thể tạo ra bản sao của chính chúng
04:42
and have nothing human about them at all.
80
282070
2002
và không có gì là con người trong chúng cả.
04:44
So what could possibly go wrong?
81
284072
1835
Vậy điều gì có thể xảy ra sai?
04:45
(Laughter)
82
285949
1543
(Cười)
04:47
And it's not just Turing.
83
287951
1585
Và không chỉ Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Giám đốc điều hành OpenAI Sam Altman, người đã cho chúng ta ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
gần đây đã cảnh báo rằng nó có thể là “tắt đèn cho tất cả chúng ta”.
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Giám đốc điều hành Anthropic, Dario Amodei,
thậm chí còn đưa ra một con số về rủi ro này: 10-25%.
05:02
10-25 percent.
87
302090
2210
05:04
And it's not just them.
88
304300
1335
Và không chỉ họ.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
Sự tuyệt chủng của con người do AI đã trở nên chính thống vào tháng 5
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
khi tất cả các CEO AGI và những người có tên tuổi
trong các nhà nghiên cứu AI
05:13
came on and warned about it.
91
313685
1376
đến và cảnh báo về điều đó.
05:15
And last month, even the number one of the European Union
92
315061
2920
Và tháng trước, ngay cả người đứng đầu Liên minh Châu Âu đã
05:18
warned about human extinction by AI.
93
318022
3295
cảnh báo về sự tuyệt chủng của con người bởi AI.
05:21
So let me summarize everything I've said so far
94
321359
2211
Vì vậy, hãy để tôi tóm tắt mọi thứ tôi đã nói
05:23
in just one slide of cat memes.
95
323611
2544
trong một slide meme mèo.
05:27
Three years ago,
96
327282
1793
Ba năm trước,
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
mọi người nói rằng đó là điều không thể tránh khỏi, Siêu trí tuệ,
05:33
it'll be fine,
98
333288
1501
nó sẽ ổn thôi,
05:34
it's decades away.
99
334789
1210
còn nhiều thập kỷ nữa.
05:35
Last year it was more like,
100
335999
1835
Năm ngoái thông điệp của họ giống như,
05:37
It's inevitable, it'll be fine.
101
337876
2043
điều đó không thể tránh khỏi, nó sẽ ổn thôi.
05:40
Now it's more like,
102
340295
2460
Bây giờ thì giống như,
05:42
It's inevitable.
103
342797
1251
đó là điều không thể tránh khỏi.
05:44
(Laughter)
104
344090
1126
(Cười)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Nhưng chúng ta hãy hít một hơi thật sâu
và cố gắng phấn chấn lên,
05:51
and cheer ourselves up,
106
351264
1168
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
bởi vì phần còn lại của bài trình bày của tôi sẽ là các tin tốt,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
rằng nó không phải là điều không thể tránh khỏi, và
05:58
alright?
109
358521
1168
chúng ta hoàn toàn có thể làm tốt hơn.
06:00
(Applause)
110
360315
2002
(Vỗ tay)
06:02
So ...
111
362317
1209
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Vấn đề thực sự là chúng ta thiếu một kế hoạch thuyết phục về an toàn AI.
06:10
People are working hard on evals
113
370700
3337
Mọi người đang làm việc chăm chỉ để đánh giá
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
để tìm kiếm hành vi AI rủi ro, và đó là điều tốt,
06:18
but clearly not good enough.
115
378124
2044
nhưng rõ ràng là chưa đủ tốt.
06:20
They're basically training AI to not say bad things
116
380209
4797
Về cơ bản, họ đang đào tạo AI để không nói những điều xấu
06:25
rather than not do bad things.
117
385006
2502
hơn là không làm những điều xấu.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Hơn nữa, đánh giá và gỡ lỗi thực sự chỉ là điều cần thiết,
06:32
not sufficient, conditions for safety.
119
392430
2002
không đủ để đảm bảo an toàn.
06:34
In other words,
120
394474
1751
Nói cách khác,
06:36
they can prove the presence of risk,
121
396225
3671
chúng có thể chứng minh sự hiện diện của rủi ro,
06:39
not the absence of risk.
122
399938
2168
không phải sự vắng mặt của rủi ro.
06:42
So let's up our game, alright?
123
402148
2544
Vậy, hãy làm tốt hơn nhé?
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Hãy thử xem làm thế nào chúng ta có thể tạo ra
AI an toàn có thể chứng minh được mà chúng ta có thể kiểm soát.
06:50
Guardrails try to physically limit harm.
125
410323
5047
Lan can cố gắng giảm thiểu nguy hại một cách vật lý.
06:55
But if your adversary is superintelligence
126
415828
2211
Nhưng nếu đối thủ của bạn là Siêu trí tuệ
hoặc một con người sử dụng Siêu trí thuệ chống lại bạn, chẳng hạn,
06:58
or a human using superintelligence against you, right,
127
418081
2544
07:00
trying is just not enough.
128
420625
1960
cố gắng là không đủ.
07:02
You need to succeed.
129
422585
1877
Bạn cần phải thành công.
07:04
Harm needs to be impossible.
130
424504
2169
Nguy hại cần phải là không thể.
07:06
So we need provably safe systems.
131
426714
2544
Vì vậy, chúng ta cần các hệ thống an toàn có thể chứng minh.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Có thể chứng minh được, không phải theo nghĩa nhẹ hơn
là thuyết phục một số thẩm phán,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
mà theo nghĩa mạnh hơn rằng một việc gì đó là không thể
07:16
according to the laws of physics.
134
436265
1585
theo các định luật vật lý.
07:17
Because no matter how smart an AI is,
135
437892
2002
Bởi vì cho dù AI thông minh đến đâu,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
chúng cũng không thể vi phạm các định luật vật lý
và làm những gì có thể chứng minh là không thể.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro và tôi đã viết một bài nghiên cứu về chủ đề này,
07:27
and we're optimistic that this vision can really work.
138
447318
5005
và chúng tôi lạc quan rằng tầm nhìn này thực sự có thể hiệu quả.
07:32
So let me tell you a little bit about how.
139
452323
2169
Vì vậy, hãy để tôi nói với bạn một chút về cách thực hiện.
07:34
There's a venerable field called formal verification,
140
454993
4421
Có một lĩnh vực đáng kính gọi là xác minh chính thức,
07:39
which proves stuff about code.
141
459455
2127
chứng minh những thứ về mã lập trình.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Và tôi lạc quan rằng AI sẽ cách mạng công tác chứng minh tự động
07:48
and also revolutionize program synthesis,
143
468214
3337
và cũng cách mạng sự tổng hợp chương trình,
07:51
the ability to automatically write really good code.
144
471592
3254
khả năng tự động viết mã lập trình rất tốt.
07:54
So here is how our vision works.
145
474887
1585
Vì vậy, đây là tầm nhìn của chúng tôi.
07:56
You, the human, write a specification
146
476472
4213
Bạn, con người, viết một yêu cầu kỹ thuật
08:00
that your AI tool must obey,
147
480685
2711
mà công cụ AI của bạn phải tuân theo,
08:03
that it's impossible to log in to your laptop
148
483438
2127
rằng không thể đăng nhập vào máy tính xách tay của bạn
08:05
without the correct password,
149
485565
1793
mà không có mật khẩu chính xác
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
hoặc máy in DNA không thể tổng hợp các vi-rút nguy hiểm.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Sau đó, một AI rất mạnh mẽ tạo ra cả công cụ AI của bạn
08:18
and a proof that your tool meets your spec.
152
498369
3837
và bằng chứng rằng công cụ của bạn đáp ứng các yêu cầu kỹ thuật của bạn.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
Học máy đặc biệt giỏi trong việc học thuật toán,
08:26
but once the algorithm has been learned,
154
506836
2169
nhưng một khi thuật toán đã được học,
08:29
you can re-implement it in a different computational architecture
155
509047
3169
bạn có thể triển khai lại nó trong một kiến trúc tính toán khác
08:32
that's easier to verify.
156
512216
1627
dễ xác minh hơn.
08:35
Now you might worry,
157
515344
1210
Bây giờ bạn có thể lo lắng,
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
làm thế nào tôi có thể hiểu được AI mạnh mẽ này
08:40
and the powerful AI tool it built
159
520475
1626
và công cụ AI và bằng chứng mạnh mẽ mà nó tạo ra
08:42
and the proof,
160
522143
1126
liệu tất cả chúng có quá phức tạp để bất kỳ con người nào có thể nắm bắt được?
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
08:46
Here is the really great news.
162
526147
2127
Đây là tin tức thực sự tuyệt vời.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Bạn không cần phải hiểu bất kỳ thứ gì trong số đó,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
bởi vì việc xác minh bằng chứng dễ hơn nhiều so với việc khám phá ra nó.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Vì vậy, bạn chỉ cần hiểu hoặc tin tưởng mã kiểm tra chứng minh của mình,
09:01
which could be just a few hundred lines long.
166
541245
2211
có thể chỉ dài vài trăm dòng.
09:03
And Steve and I envision
167
543498
2252
Và Steve và tôi hình dung
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
rằng những trình kiểm tra chứng minh như vậy sẽ được tích hợp
vào phần cứng máy tính của chúng ta
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
để việc áp dụng mã không an toàn trở thành điều không thể.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
Tuy nhiên, điều gì sẽ xảy ra nếu AI không thể viết công cụ AI đó cho bạn?
09:20
Then there's another possibility.
171
560056
3795
Nếu vậy, có một khả năng khác.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Bạn đào tạo AI để trước tiên chỉ học cách làm những gì bạn muốn
09:27
and then you use a different AI
173
567480
3337
và sau đó bạn sử dụng một AI khác
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
để trích xuất thuật toán và kiến thức đã học cho bạn,
09:34
like an AI neuroscientist.
175
574862
2086
giống như một nhà thần kinh học AI.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Cách thực hiện này đồng nhất với tinh thần của lĩnh vực diễn giải cơ học,
09:41
which is making really impressive rapid progress.
177
581160
3253
lĩnh vực đang đạt được những tiến bộ thực sự ấn tượng.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Các hệ thống an toàn có thể chứng minh rõ ràng
không phải là không thể.
09:47
Let's look at a simple example
179
587625
1502
Hãy xem xét một ví dụ đơn giản
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
về nơi đầu tiên chúng ta học máy một thuật toán từ dữ liệu
09:53
and then distill it out in the form of code
181
593840
4254
và sau đó chắt lọc nó thành dạng mã đáp ứng yêu cầu kỹ thuật.
09:58
that provably meets spec, OK?
182
598136
2252
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Hãy làm điều này với một thuật toán mà bạn có thể đã học ở lớp một,
10:05
addition,
184
605810
1168
phép toán cộng
khi bạn cộng các chữ số từ phải sang trái,
10:07
where you loop over the digits from right to left,
185
607019
2503
10:09
and sometimes you do a carry.
186
609564
1793
và đôi khi bạn thực hiện một thao tác mang theo.
10:11
We'll do it in binary,
187
611357
1752
Chúng ta sẽ thực hiện phép tính trong dạng nhị phân,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
như thể bạn đang đếm với hai ngón tay thay vì mười.
10:16
And we first train a recurrent neural network,
189
616279
3378
Và trước tiên chúng ta đào tạo một Mạng lưới Thần kinh Tái phát,
10:19
never mind the details,
190
619657
2211
không quan tâm đến các chi tiết,
10:21
to nail the task.
191
621909
1418
để hoàn thành nhiệm vụ.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Bây giờ bạn có một thuật toán mà bạn không hiểu nó hoạt động như thế nào
10:27
in a black box
193
627123
2753
trong một hộp đen
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
được xác định bởi một loạt các bảng số mà chúng tôi,
trong ngôn ngữ của những mọt sách, gọi là tham số.
10:34
call parameters.
195
634380
1502
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Sau đó, chúng ta sử dụng một công cụ AI mà chúng ta đã xây dựng để tự động
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
chắt lọc ra thuật toán đã học trong thể một chương trình Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Và sau đó chúng ta sử dụng công cụ xác minh chính thức được gọi là Daphne
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
để chứng minh rằng chương trình này cộng chính xác bất kỳ con số nào,
10:54
not just the numbers that were in your training data.
200
654942
2503
không chỉ những con số có trong dữ liệu đào tạo của bạn.
10:57
So in summary,
201
657778
1377
Như vậy, để tóm tắt lại,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
tôi tin rằng AI an toàn có thể chứng minh là có thể,
11:03
but it's going to take time and work.
203
663117
3003
nhưng nó sẽ mất thời gian và công sức.
11:06
And in the meantime,
204
666162
1209
Và trong thời gian chờ đợi,
11:07
let's remember that all the AI benefits
205
667413
4254
hãy nhớ rằng tất cả các lợi ích của AI
11:11
that most people are excited about
206
671709
3795
mà hầu hết mọi người đều hào hứng
11:15
actually don't require superintelligence.
207
675504
2628
thực ra không yêu cầu Siêu trí tuệ.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Chúng ta có thể có một tương lai lâu dài và tuyệt vời với AI.
11:25
So let's not pause AI.
209
685014
2169
Vì vậy, chúng ta đừng tạm dừng AI.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Hãy tạm dừng cuộc chạy đua bất chấp đến Siêu trí tuệ.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Hãy ngừng đào tạo một cách ám ảnh những mô hình ngày càng lớn
11:37
that we don't understand.
212
697276
1669
mà chúng ta không hiểu.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Hãy chú ý lời cảnh báo từ Hy Lạp Cổ đại
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
và đừng quá kiêu ngạo, như trong câu chuyện về Icarus.
11:46
Because artificial intelligence
215
706702
2711
Bởi vì Trí tuệ Nhân tạo
11:49
is giving us incredible intellectual wings
216
709455
4463
đang mang đến cho chúng ta những đôi cánh trí tuệ đáng kinh ngạc
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
để chúng ta có thể làm những điều ngoài những giấc mơ hoang dã nhất của mình
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
nếu chúng ta ngừng ám ảnh cố gắng bay về phía mặt trời.
12:02
Thank you.
219
722802
1168
Cảm ơn bạn.
12:03
(Applause)
220
723970
5880
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7