How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

60,892 views ・ 2024-05-01

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Quỳnh Phương Flora Reviewer: Thùy Dung Đỗ
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Khi tôi nói chuyện với mọi người về trí tuệ nhân tạo,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
điều tôi nghe nhiều từ những người không phải là chuyên gia là “Tôi không hiểu AI.”
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Nhưng khi tôi nói với các chuyên gia, có điều buồn cười xảy ra.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Họ nói, “Tôi không hiểu AI, và bất kỳ ai khác cũng vậy.”
00:21
This is a pretty strange state of affairs.
4
21393
3503
Đây là một tình trạng khá kỳ lạ.
00:24
Normally, the people building a new technology
5
24896
3295
Thông thường, những người xây dựng một công nghệ mới
00:28
understand how it works inside and out.
6
28233
2669
hiểu cách nó hoạt động từ trong ra ngoài.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Nhưng với AI, một công nghệ đang định hình lại hoàn toàn thế giới quanh ta,
00:36
that's not so.
8
36283
1167
nó không phải như vậy.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Tất nhiên, các chuyên gia biết rất nhiều về cách xây dựng và chạy hệ thống AI.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Nhưng khi nói đến cách chúng hoạt động bên trong,
00:45
there are serious limits to how much we know.
11
45000
2877
có những giới hạn nghiêm trọng đối với việc chúng ta biết bao nhiêu.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
Và điều này quan trọng bởi vì nếu không hiểu sâu sắc về AI,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
chúng ta thực sự khó biết nó sẽ có thể làm gì tiếp theo,
00:56
or even what it can do now.
14
56636
2336
hay thậm chí là những gì nó có thể làm bây giờ.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
Và thực tế là chúng ta gặp khó khăn trong việc hiểu
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
những gì đang xảy ra với công nghệ và dự đoán nó sẽ đi đến đâu tiếp theo,
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
là một trong số rào cản lớn nhất chúng ta phải đối mặt về việc tìm cách quản lý AI.
01:12
But AI is already all around us,
18
72861
2294
Nhưng AI đã ở xung quanh chúng ta,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
vì vậy chúng ta không thể chỉ ngồi và chờ đợi mọi thứ trở nên rõ ràng hơn.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Dù sao thì chúng ta cũng phải tạo ra một hướng đi nào đó.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Tôi đã làm việc về chính sách AI và các vấn đề quản trị
01:27
for about eight years,
22
87751
1167
trong khoảng tám năm,
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
Đầu tiên ở San Francisco, bây giờ ở Washington, DC.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Trên đường đi, tôi đã có một cái nhìn bên trong
01:35
at how governments are working to manage this technology.
25
95717
3754
về cách các chính phủ đang làm việc để quản lý công nghệ này.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
Và trong ngành công nghiệp, tôi cũng đã thấy một hoặc hai điều.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Vì vậy, tôi sẽ chia sẻ một vài ý tưởng
01:49
for what our path to governing AI could look like.
28
109022
3629
về con đường quản lý AI của chúng ta có thể trông như thế nào.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Nhưng trước tiên, hãy nói về những gì thực sự khiến AI trở nên khó hiểu
01:57
and predict.
30
117489
1251
và dự đoán.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Một thách thức lớn trong việc xây dựng “trí tuệ nhân tạo”
02:03
is that no one can agree on what it actually means
32
123495
3086
là không ai có thể đồng ý về ý nghĩa thực sự của việc
02:06
to be intelligent.
33
126623
1752
trở nên thông minh.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Đây là một nơi kỳ lạ khi xây dựng một công nghệ mới.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Khi anh em nhà Wright bắt đầu thử nghiệm với máy bay,
02:15
they didn't know how to build one,
36
135507
1668
họ không biết chế tạo thế nào,
02:17
but everyone knew what it meant to fly.
37
137175
3128
nhưng mọi người đều biết điều đó là gì khi bay.
02:21
With AI on the other hand,
38
141596
1794
Mặt khác, với AI,
02:23
different experts have completely different intuitions
39
143431
3295
các chuyên gia khác nhau có trực giác hoàn toàn khác nhau
02:26
about what lies at the heart of intelligence.
40
146726
2920
về những gì nằm ở trung tâm của trí thông minh.
02:29
Is it problem solving?
41
149646
2210
Đó có phải là giải quyết vấn đề?
02:31
Is it learning and adaptation,
42
151898
2711
Đó là học tập và thích nghi,
02:34
are emotions,
43
154651
1418
hay cảm xúc
02:36
or having a physical body somehow involved?
44
156111
3128
có một cơ thể vật lý bằng cách nào đó liên quan?
02:39
We genuinely don't know.
45
159698
1459
Chúng tôi thực sự không biết.
02:41
But different answers lead to radically different expectations
46
161157
4338
Nhưng các câu trả lời khác nhau dẫn đến những kỳ vọng hoàn toàn khác nhau
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
về việc công nghệ đang đi đến đâu và nó sẽ đến đó nhanh như thế nào.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Một ví dụ mà chúng ta bối rối là cách chúng ta thường
02:53
about narrow versus general AI.
49
173461
2294
nói về AI hẹp so với AI nói chung.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Trong một thời gian dài, chúng tôi đã nói chuyện về hai thùng.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Rất nhiều người nghĩ rằng chúng ta chỉ nên phân chia giữa AI hẹp,
03:03
trained for one specific task,
52
183763
1919
được đào tạo cho một nhiệm vụ cụ thể,
03:05
like recommending the next YouTube video,
53
185724
2669
như giới thiệu video YouTube tiếp theo,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
so với trí tuệ nhân tạo chung, hoặc AGI,
03:12
that could do everything a human could do.
55
192272
2586
mà có thể làm mọi thứ mà con người có thể làm.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Chúng tôi nghĩ về sự khác biệt này, hẹp so với chung chung,
03:18
as a core divide between what we could build in practice
57
198778
3963
như một sự phân chia cốt lõi giữa những gì chúng tôi có thể xây dựng trong thực tế
03:22
and what would actually be intelligent.
58
202782
2252
và những gì thực sự thông minh.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Nhưng sau đó một hoặc hai năm trước, ChatGPT đã xuất hiện.
03:31
If you think about it,
60
211541
1543
Nếu bạn nghĩ về nó,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
bạn biết đấy, đó có phải là AI hẹp, được đào tạo cho một nhiệm vụ thôi không?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Hay đó là AGI và có thể làm mọi thứ mà con người có thể làm?
03:41
Clearly the answer is neither.
63
221092
1502
Rõ ràng câu trả lời là không.
03:42
It's certainly general purpose.
64
222635
1919
Đó chắc chắn là mục đích chung.
03:44
It can code, write poetry,
65
224554
2920
Nó có thể viết mã, viết thơ,
03:47
analyze business problems, help you fix your car.
66
227515
3045
phân tích các vấn đề kinh doanh, giúp bạn sửa xe của bạn.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Nhưng nó còn khác xa với việc có thể làm mọi thứ tốt
03:54
as well as you or I could do it.
68
234189
2419
như bạn hoặc tôi có thể làm điều đó.
03:56
So it turns out this idea of generality
69
236608
2043
Hóa ra ý tưởng về tính tổng quát này
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
không thực sự là ranh giới phân chia đúng đắn
04:01
between intelligent and not.
71
241404
2127
giữa thông minh và không.
04:04
And this kind of thing
72
244073
1335
Và loại điều này
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
là một thách thức lớn đối với toàn bộ lĩnh vực AI bây giờ.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
Chúng tôi không có thỏa thuận nào về việc xây dựng cái gì
04:11
or on what the road map looks like from here.
75
251164
2419
hoặc về lộ trình từ đây trông như thế nào.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Chúng tôi thậm chí không hiểu rõ các hệ thống AI mà chúng tôi có ngày nay.
04:18
Why is that?
77
258004
1251
Tại sao lại như vậy?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
Các nhà nghiên cứu đôi khi mô tả mạng nơ-ron sâu,
04:22
the main kind of AI being built today,
79
262300
2085
loại AI chính đang được xây dựng ngày nay,
04:24
as a black box.
80
264427
1460
như một hộp đen.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Nhưng ý của họ không phải là nó vốn là bí ẩn
04:29
and we have no way of looking inside the box.
82
269974
2711
và chúng ta không có cách nào để nhìn vào bên trong hộp.
04:33
The problem is that when we do look inside,
83
273228
2669
Vấn đề là khi chúng ta nhìn vào bên trong,
04:35
what we find are millions,
84
275939
2335
những gì chúng ta tìm thấy là hàng triệu,
04:38
billions or even trillions of numbers
85
278316
2878
hàng tỷ hoặc thậm chí hàng nghìn tỷ con số
04:41
that get added and multiplied together in a particular way.
86
281194
3462
được cộng lại và nhân lên với nhau theo một cách cụ thể.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
Điều khiến các chuyên gia khó biết điều gì đang xảy ra
04:47
is basically just, there are too many numbers,
88
287617
3086
về cơ bản là, có quá nhiều con số,
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
và chúng ta vẫn chưa có cách tốt để phân biệt những gì họ đang làm.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
Có một chút nhiều hơn thế, nhưng không nhiều.
04:58
So how do we govern this technology
91
298545
3003
Vậy làm thế nào để chúng ta quản lý công nghệ này
05:01
that we struggle to understand and predict?
92
301589
2628
mà chúng ta phải chật vật để hiểu và dự đoán?
05:04
I'm going to share two ideas.
93
304717
1502
Tôi sẽ chia sẻ hai ý tưởng.
05:06
One for all of us and one for policymakers.
94
306261
3253
Một cho tất cả chúng ta và một cho các nhà hoạch định chính sách.
05:10
First, don't be intimidated.
95
310932
2711
Đầu tiên, đừng bị đe dọa.
05:14
Either by the technology itself
96
314102
2461
Hoặc bởi chính công nghệ
05:16
or by the people and companies building it.
97
316563
3086
hoặc bởi những người và công ty xây dựng nó.
05:20
On the technology,
98
320400
1168
Về công nghệ,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
AI có thể gây nhầm lẫn, nhưng nó không phải kỳ diệu.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Có một số phần của hệ thống AI mà chúng ta đã hiểu rõ,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
và ngay cả những phần chúng ta không hiểu cũng sẽ không bị mờ đục mãi mãi.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Một lĩnh vực nghiên cứu được gọi là “khả năng diễn giải AI”
05:34
has made quite a lot of progress in the last few years
103
334956
3128
đã đạt được khá nhiều tiến bộ trong vài năm qua
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
trong việc hiểu những gì tất cả hàng tỷ con số đó đang làm.
05:42
One team of researchers, for example,
105
342463
2169
Ví dụ, một nhóm các nhà nghiên cứu đã
05:44
found a way to identify different parts of a neural network
106
344674
3420
tìm ra cách xác định các phần khác nhau của mạng nơ-ron
05:48
that they could dial up or dial down
107
348136
2335
mà họ có thể quay số lên hoặc quay xuống
05:50
to make the AI's answers happier or angrier,
108
350513
3754
để làm cho câu trả lời của AI hạnh phúc hơn hoặc tức giận hơn,
05:54
more honest,
109
354309
1418
trung thực hơn,
05:55
more Machiavellian, and so on.
110
355768
2545
Machiavellian hơn, v.v.
05:58
If we can push forward this kind of research further,
111
358771
2503
Nếu chúng ta thúc đẩy loại nghiên cứu này hơn nữa,
06:01
then five or 10 years from now,
112
361316
2210
thì 5 hoặc 10 năm nữa,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
chúng ta có thể hiểu rõ hơn nhiều về những gì đang diễn ra
06:06
inside the so-called black box.
114
366571
2669
bên trong cái gọi là hộp đen.
06:10
And when it comes to those building the technology,
115
370325
2669
Và khi nói đến những người xây dựng công nghệ,
các nhà công nghệ đôi khi hành động như thể
06:13
technologists sometimes act as though
116
373036
1918
06:14
if you're not elbows deep in the technical details,
117
374996
3420
nếu bạn không sâu vào các chi tiết kỹ thuật,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
thì bạn không có quyền đưa ý kiến về những gì chúng ta nên làm với nó.
06:22
Expertise has its place, of course,
119
382337
2294
Tất nhiên, chuyên môn có vị trí của nó,
06:24
but history shows us how important it is
120
384672
2169
nhưng lịch sử cho thấy tầm quan trọng của việc
06:26
that the people affected by a new technology
121
386883
3003
những người bị ảnh hưởng bởi một công nghệ mới
06:29
get to play a role in shaping how we use it.
122
389886
2753
có ảnh hưởng trong việc định hình cách ta sử dụng nó.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Như những công nhân thế kỷ 20 đã đấu tranh cho sự an toàn của nhà máy,
06:37
or the disability advocates
124
397310
2127
hoặc những người ủng hộ người khuyết tật
06:39
who made sure the world wide web was accessible.
125
399437
3003
mà đã đảm bảo rằng mạng toàn cầu có thể truy cập được.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Bạn không cần phải là một nhà khoa học hoặc kỹ sư để có tiếng nói.
06:48
(Applause)
127
408821
4547
(Vỗ tay)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
Thứ hai, chúng ta cần tập trung vào khả năng thích ứng, không phải sự chắc chắn.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Rất nhiều cuộc trò chuyện về cách tạo ra chính sách cho AI
07:02
get bogged down in fights between, on the one side,
130
422919
2711
bị sa lầy trong các cuộc chiến giữa, một bên,
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
mọi người nói, “Ta phải nghiêm túc điều chỉnh AI ngay bây giờ
07:08
because it's so risky."
132
428716
1585
vì nó rất rủi ro.”
07:10
And on the other side, people saying,
133
430301
1794
Và ở phía còn lại, mọi người nói,
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
“Nhưng quy định sẽ giết chết sự đổi mới, và những rủi ro chỉ là tưởng tượng.”
07:16
But the way I see it,
135
436307
1168
Nhưng theo tôi,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
đó không chỉ là sự lựa chọn giữa đập phanh
07:20
or hitting the gas.
137
440478
1502
hoặc bấm ga.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Nếu bạn đang lái xe trên một con đường có những khúc cua bất ngờ,
07:26
then two things that will help you a lot
139
446275
2503
thì hai điều sẽ giúp bạn rất nhiều
07:28
are having a clear view out the windshield
140
448778
2794
là có tầm nhìn rõ ràng ra kính chắn gió
07:31
and an excellent steering system.
141
451614
2419
và một hệ thống lái tuyệt vời.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Trong AI, điều này có nghĩa là có một bức tranh rõ ràng về vị trí của công nghệ
07:39
and where it's going,
143
459080
1627
và nó sẽ đi đến đâu,
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
và có kế hoạch cho những việc cần làm trong các tình huống khác nhau.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Điều này nghĩa là những thứ như đầu tư vào khả năng đo lường
07:49
what AI systems can do.
146
469132
1877
những gì các hệ thống AI có thể làm.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Điều này nghe có vẻ mọt sách, nhưng nó thực sự quan trọng.
07:54
Right now, if we want to figure out
148
474595
2044
Bây giờ, nếu chúng ta muốn tìm hiểu xem
07:56
whether an AI can do something concerning,
149
476681
2002
AI có thể làm điều gì nguy hiểm không,
07:58
like hack critical infrastructure
150
478725
2377
như là hack cơ sở hạ tầng quan trọng
08:01
or persuade someone to change their political beliefs,
151
481102
4671
hay thuyết phục ai đó thay đổi quan điểm chính trị,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
phương pháp đo lường của chúng ta chỉ là sơ đẳng.
08:08
We need better.
153
488317
1210
Chúng ta cần cách tốt hơn.
08:10
We should also be requiring AI companies,
154
490319
2545
Chúng ta cũng nên yêu cầu các công ty AI,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
đặc biệt là các công ty xây dựng các hệ thống AI tiên tiến nhất,
08:16
to share information about what they're building,
156
496367
3170
chia sẻ thông tin về những gì họ đang xây dựng, những
08:19
what their systems can do
157
499537
1710
gì hệ thống của họ có thể làm
08:21
and how they're managing risks.
158
501289
2127
và cách họ quản lý rủi ro.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
Và họ nên cho phép các kiểm toán viên AI bên ngoài xem xét kỹ công việc của họ
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
để các công ty không chỉ chấm bài tập về nhà của riêng họ.
08:33
(Applause)
161
513801
4213
(Vỗ tay)
08:38
A final example of what this can look like
162
518014
2461
Ví dụ cuối về điều này có thể trông như thế nào
08:40
is setting up incident reporting mechanisms,
163
520475
3503
là thiết lập các cơ chế báo cáo sự cố,
08:44
so that when things do go wrong in the real world,
164
524020
2753
để khi có sự cố xảy ra trong thế giới thực,
08:46
we have a way to collect data on what happened
165
526814
2962
chúng ta có cách thu thập dữ liệu về những gì đã xảy ra
08:49
and how we can fix it next time.
166
529817
2002
và cách ta có thể sửa nó vào lần sau.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Cũng như dữ liệu thu thập được về các vụ tai nạn máy bay và tấn công mạng.
Không có ý tưởng nào trong này là của tôi,
08:57
None of these ideas are mine,
168
537158
1668
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
và một số trong số đó đã bắt đầu được thực hiện ở những nơi như Brussels,
09:03
London, even Washington.
170
543372
2128
London, thậm chí cả Washington.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Nhưng lý do tôi nhấn mạnh những ý tưởng này,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
đo lường, tiết lộ, báo cáo sự cố,
09:12
is that they help us navigate progress in AI
173
552757
2794
là chúng giúp chúng ta điều hướng tiến bộ trong AI
09:15
by giving us a clearer view out the windshield.
174
555593
3086
bằng cách cho chúng ta cái nhìn rõ ràng hơn về kính chắn gió.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Nếu AI đang tiến triển nhanh theo những hướng nguy hiểm,
09:22
these policies will help us see that.
176
562475
2377
những chính sách này sẽ giúp chúng ta thấy điều đó.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
Và nếu mọi thứ diễn ra suôn sẻ, họ cũng sẽ cho chúng ta thấy điều đó,
09:28
and we can respond accordingly.
178
568981
2211
và chúng ta có thể đáp ứng cho phù hợp.
09:33
What I want to leave you with
179
573569
1502
Điều tôi muốn để lại cho bạn
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
là đúng là có rất nhiều sự không chắc chắn
09:39
and disagreement in the field of AI.
181
579742
2961
và bất đồng trong lĩnh vực AI.
09:42
And that companies are already building and deploying AI
182
582745
4046
Và các công ty đã xây dựng và triển khai AI
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
khắp nơi theo những cách ảnh hưởng đến tất cả chúng ta.
09:52
Left to their own devices,
184
592004
1544
Bỏ mặc cho thiết bị của họ,
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
có vẻ như các công ty AI có thể đi theo hướng
09:56
to social media companies,
186
596717
1961
tương tự như các công ty mạng xã hội,
09:58
spending most of their resources on building web apps
187
598678
2627
dành phần lớn tài nguyên vào việc xây dựng các ứng dụng
10:01
and for users' attention.
188
601305
1836
và thu hút sự chú ý của người dùng.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
Và theo mặc định, nó trông như sức mạnh to lớn của các hệ thống AI tiên tiến hơn
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
có thể nằm trong tay của một số ít công ty,
10:12
or even a small number of individuals.
191
612567
1918
hoặc thậm chí một số ít cá nhân.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Nhưng tiềm năng của AI vượt xa điều đó.
10:18
AI already lets us leap over language barriers
193
618531
2711
AI đã cho phép chúng ta vượt qua rào cản ngôn ngữ
10:21
and predict protein structures.
194
621284
2252
và dự đoán cấu trúc protein.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Các hệ thống tiên tiến hơn có thể mở khóa năng lượng nhiệt hạch sạch, vô hạn
10:28
or revolutionize how we grow food
196
628082
2503
hoặc cách mạng hóa cách chúng ta trồng thực phẩm
10:30
or 1,000 other things.
197
630626
1835
hoặc 1.000 thứ khác.
10:32
And we each have a voice in what happens.
198
632962
2586
Và mỗi chúng ta đều có tiếng nói về những gì xảy ra.
10:35
We're not just data sources,
199
635548
2002
Chúng tôi không chỉ là nguồn dữ liệu,
10:37
we are users,
200
637592
2043
chúng tôi là người dùng,
10:39
we're workers,
201
639635
1502
chúng tôi là công nhân,
10:41
we're citizens.
202
641137
1209
chúng tôi là công dân.
10:43
So as tempting as it might be,
203
643514
2961
Vì vậy, dù nó có thể hấp dẫn,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
chúng tôi không thể chờ đợi sự rõ ràng hoặc đồng thuận của chuyên gia
10:51
to figure out what we want to happen with AI.
205
651147
3378
để tìm ra những gì chúng tôi muốn xảy ra với AI.
10:54
AI is already happening to us.
206
654525
2586
AI đang xảy ra với chúng ta.
10:57
What we can do is put policies in place
207
657737
3211
Những gì chúng ta có thể làm là đưa ra các chính sách
11:00
to give us as clear a picture as we can get
208
660948
2670
để cung cấp một bức tranh rõ ràng nhất có thể
11:03
of how the technology is changing,
209
663618
2460
về cách công nghệ đang thay đổi,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
và rồi ta có thể tham gia đấu trường và thúc đẩy tương lai mà ta thực sự muốn.
11:11
Thank you.
211
671751
1126
Cảm ơn bạn.
11:12
(Applause)
212
672919
3378
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7