The Urgent Risks of Runaway AI — and What to Do about Them | Gary Marcus | TED

213,276 views

2023-05-12 ・ TED


New videos

The Urgent Risks of Runaway AI — and What to Do about Them | Gary Marcus | TED

213,276 views ・ 2023-05-12

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Gia Bảo Nguyễn
00:04
I’m here to talk about the possibility of global AI governance.
0
4292
5339
Tôi có mặt ở đây để nói về tính khả thi của việc quản trị AI toàn cầu.
00:09
I first learned to code when I was eight years old,
1
9631
3211
Tôi bắt đầu học lập trình vào năm tám tuổi,
00:12
on a paper computer,
2
12884
1168
bằng cái máy tính mỏng nhỏ,
00:14
and I've been in love with AI ever since.
3
14094
2252
và tôi đã yêu AI kể từ lúc đó.
00:16
In high school,
4
16346
1168
Năm lên trung học,
00:17
I got myself a Commodore 64 and worked on machine translation.
5
17514
3253
Tôi đã mua một chiếc máy Commodore 64 và làm về dịch máy.
00:20
I built a couple of AI companies, I sold one of them to Uber.
6
20934
3712
Tôi xây dựng hai công ty AI, và đã bán một trong số đó cho Uber.
00:24
I love AI, but right now I'm worried.
7
24688
3503
Tôi yêu AI, nhưng lúc này đây, tôi đang lo lắng.
00:28
One of the things that I’m worried about is misinformation,
8
28233
2794
Một trong những điều làm tôi lo lắng là thông tin sai lệch,
00:31
the possibility that bad actors will make a tsunami of misinformation
9
31027
3462
khả năng các nhân tố xấu sẽ tạo ra làn sóng sai lệch thông tin
00:34
like we've never seen before.
10
34531
2002
mà ta chưa từng thấy trước đây.
00:36
These tools are so good at making convincing narratives
11
36575
3586
Những công cụ này rất tốt trong việc đưa ra các luận giải hợp lý
00:40
about just about anything.
12
40161
1794
về mọi thứ.
00:41
If you want a narrative about TED and how it's dangerous,
13
41997
3003
Nếu bạn muốn tường thuật về TED và mức độ nguy hiểm của nó,
00:45
that we're colluding here with space aliens,
14
45000
2877
rằng ta đang cấu kết với người ngoài hành tinh,
00:47
you got it, no problem.
15
47919
1669
bạn hiểu chứ, không thành vấn đề.
00:50
I'm of course kidding about TED.
16
50422
2127
Tôi chỉ đang đùa về TED thôi.
00:52
I didn't see any space aliens backstage.
17
52591
2961
Tôi chẳng thấy người ngoài hành tinh nào sau hậu trường cả.
00:55
But bad actors are going to use these things to influence elections,
18
55885
3629
Nhưng các nhân tố xấu sẽ dùng những thứ ấy để gây ảnh hưởng đến việc bầu cử,
00:59
and they're going to threaten democracy.
19
59514
2211
và nó sẽ đe doạ nền dân chủ.
01:01
Even when these systems
20
61725
1167
Dẫu cho những hệ thống này
01:02
aren't deliberately being used to make misinformation,
21
62934
2878
không hề cố ý trong việc tạo ra thông tin sai lệch,
01:05
they can't help themselves.
22
65854
1710
chúng không thể tự giúp mình.
01:07
And the information that they make is so fluid and so grammatical
23
67564
4963
Và những thông tin mà chúng tạo ra rất mượt mà và đúng ngữ pháp
01:12
that even professional editors sometimes get sucked in
24
72527
3253
mà đến cả những chuyên gia biên tập đôi lúc cũng bối rối
01:15
and get fooled by this stuff.
25
75780
2002
và bị những thứ này đánh lừa.
01:17
And we should be worried.
26
77824
1668
Và chúng ta nên lo lắng.
01:19
For example, ChatGPT made up a sexual harassment scandal
27
79534
3879
Ví dụ, ChatGPT tạo ra một tin đồn cáo buộc xâm hại tình dục
01:23
about an actual professor,
28
83413
1919
về một giáo sư có thật,
01:25
and then it provided evidence for its claim
29
85332
2419
và nó cung cấp bằng chứng cho cáo buộc của nó
01:27
in the form of a fake "Washington Post" article
30
87792
2586
trong định dạng bài báo giả mạo tờ “Washington Post”
01:30
that it created a citation to.
31
90378
1919
mà nó tạo ra để làm trích dẫn.
01:32
We should all be worried about that kind of thing.
32
92297
2377
Chúng ta nên lo lắng về loại vấn đề này.
01:34
What I have on the right is an example of a fake narrative
33
94674
2962
Thứ tôi có bên phải là một ví dụ về một bài báo giả mạo
01:37
from one of these systems
34
97636
1209
từ một trong những hệ thống này
01:38
saying that Elon Musk died in March of 2018 in a car crash.
35
98887
4755
nói rằng Elon Musk đã chết hồi tháng ba năm 2018 trong một vụ tai nạn xe.
01:43
We all know that's not true.
36
103683
1418
Chúng ta đều biết rằng nó không đúng.
01:45
Elon Musk is still here, the evidence is all around us.
37
105143
2794
Elon Musk vẫn còn sống, bằng chứng thì đầy ra đấy mà.
01:47
(Laughter)
38
107979
1001
(Cười)
01:48
Almost every day there's a tweet.
39
108980
2002
Hầu như mỗi ngày sẽ có một bài tweet.
01:50
But if you look on the left, you see what these systems see.
40
110982
3253
Nhưng nếu bạn nhìn phía bên trái, bạn sẽ thấy thứ mà hệ thống này thấy.
01:54
Lots and lots of actual news stories that are in their databases.
41
114277
3754
Có cực kì nhiều tin tức xác thực là nguồn dữ liệu nền cho chúng.
01:58
And in those actual news stories are lots of little bits of statistical information.
42
118073
4713
Và trong những tin tức xác thực đó là nhiều tin tức được thống kê một phần nhỏ.
02:02
Information, for example,
43
122786
1376
Ví dụ thông tin
02:04
somebody did die in a car crash in a Tesla in 2018
44
124204
4045
ai đó đã chết trong một vụ tai nạn ở Tesla năm 2018
02:08
and it was in the news.
45
128291
1377
và nó có trên bảng tin.
02:09
And Elon Musk, of course, is involved in Tesla,
46
129709
3045
Và đương nhiên Elon Musk có liên quan với Tesla,
02:12
but the system doesn't understand the relation
47
132796
2752
nhưng hệ thống không hiểu được mối quan hệ
02:15
between the facts that are embodied in the little bits of sentences.
48
135590
3796
giữa thực tế được bộc lộ trong một phần nhỏ của câu từ.
02:19
So it's basically doing auto-complete,
49
139386
2043
Nên về cơ bản nó đang tự động hóa để hoàn thiện,
02:21
it predicts what is statistically probable,
50
141471
2669
nó suy đoán bằng xác suất thống kê,
02:24
aggregating all of these signals,
51
144182
1835
gộp lại toàn bộ dấu hiệu,
mà không cần biết các mảnh ghép có khớp với nhau không.
02:26
not knowing how the pieces fit together.
52
146017
2461
02:28
And it winds up sometimes with things that are plausible but simply not true.
53
148478
3754
Và nó đôi lúc cho ra những thứ có vẻ hợp lý nhưng về cơ bản thì không.
02:32
There are other problems, too, like bias.
54
152273
1961
Cũng có những vấn đề khác, như thiên kiến.
02:34
This is a tweet from Allie Miller.
55
154275
1710
Đây là bài tweet của Allie Miller.
02:36
It's an example that doesn't work two weeks later
56
156027
2544
Đây là 1 ví dụ khiến chúng phải bảo trì 2 tuần sau đó
02:38
because they're constantly changing things with reinforcement learning
57
158571
3379
do chúng phải thay đổi liên tục thông qua việc học tăng cường
02:41
and so forth.
58
161991
1168
và vân vân.
02:43
And this was with an earlier version.
59
163159
1794
Và đây là phiên bản trước đó.
02:44
But it gives you the flavor of a problem that we've seen over and over for years.
60
164953
3837
Đây là vấn đề không mấy lạ lẫm của AI mà tôi đã thấy nhiều năm qua
02:48
She typed in a list of interests
61
168832
2043
Cô gái này đã gõ vào danh sách yêu thích
02:50
and it gave her some jobs that she might want to consider.
62
170875
2795
và nó cho cô vài công việc mà cô có thể cân nhắc.
02:53
And then she said, "Oh, and I'm a woman."
63
173712
2043
Và rồi cô nói, “Ồ, và tôi là phụ nữ.”
02:55
And then it said, “Oh, well you should also consider fashion.”
64
175755
2920
Và nó trả lời, “Ồ, bạn nên cân nhắc cả thời trang.”
02:58
And then she said, “No, no. I meant to say I’m a man.”
65
178675
2711
Và rồi cô ấy nói, “Không, không. Ý tôi là tôi là đàn ông.”
03:01
And then it replaced fashion with engineering.
66
181386
2502
Và nó thay thế thời trang bằng nghành kĩ thuật.
03:03
We don't want that kind of bias in our systems.
67
183930
2795
Ta không muốn loại thiên kiến đó trong hệ thống của ta.
03:07
There are other worries, too.
68
187642
1418
Có những mối lo khác nữa.
03:09
For example, we know that these systems can design chemicals
69
189060
3212
Ví dụ, ta đều biết những hệ thống này có thể điều chế hoá chất
03:12
and may be able to design chemical weapons
70
192313
2837
và có thể chế tạo được cả vũ khí hoá học
03:15
and be able to do so very rapidly.
71
195150
1751
và có thể làm chúng rất nhanh.
03:16
So there are a lot of concerns.
72
196943
1585
Vậy nên có rất nhiều mối lo ngại.
03:19
There's also a new concern that I think has grown a lot just in the last month.
73
199195
4046
Nhiều mối quan ngại mới cũng đã lan rộng chỉ trong vài tháng qua
03:23
We have seen that these systems, first of all, can trick human beings.
74
203241
3754
Ta đã thấy những hệ thống này, trên hết, có thể đánh lừa con người.
03:27
So ChatGPT was tasked with getting a human to do a CAPTCHA.
75
207036
4255
ChatGPT từng được giao nhiệm vụ nhờ con người nhập hộ mã CAPTCHA.
03:31
So it asked the human to do a CAPTCHA and the human gets suspicious and says,
76
211332
3712
Nên nó đã đề nghị con người nhập CAPTCHA và con người đã nghi ngờ và hỏi lại,
03:35
"Are you a bot?"
77
215086
1293
“Mày là người máy hả?”
03:36
And it says, "No, no, no, I'm not a robot.
78
216379
2044
Và nó đáp, “Không, không, không. Tôi nào phải robot.
03:38
I just have a visual impairment."
79
218423
1752
Tôi chỉ bị suy giảm thị lực.”
03:40
And the human was actually fooled and went and did the CAPTCHA.
80
220216
3003
Và con người thực sự bị đánh lừa và nhập luôn mã CAPTCHA.
Nghĩ như vậy là ghê lắm rồi hả,
03:43
Now that's bad enough,
81
223219
1168
03:44
but in the last couple of weeks we've seen something called AutoGPT
82
224429
3211
nhưng vài tuần trước ta lại thấy 1 thứ được gọi là AutoGPT
03:47
and a bunch of systems like that.
83
227640
1585
và một loạt hệ thống tương tự.
03:49
What AutoGPT does is it has one AI system controlling another
84
229267
4338
AutoGPT có một hệ thống AI để kiểm soát những cái còn lại
03:53
and that allows any of these things to happen in volume.
85
233605
2836
và nó cho phép những điều này xảy ra với quy mô lớn.
03:56
So we may see scam artists try to trick millions of people
86
236441
4087
Nên ta sẽ sớm thấy bọn nghệ sĩ lừa đảo đi lừa hàng triệu người
04:00
sometime even in the next months.
87
240528
1794
đâu đó vào những tháng sắp tới.
04:02
We don't know.
88
242322
1168
Ai mà biết được.
04:03
So I like to think about it this way.
89
243531
2086
Nên là tôi khá thích nghĩ theo hướng này.
04:05
There's a lot of AI risk already.
90
245658
2294
Đang có rất nhiều rủi ro từ AI.
04:07
There may be more AI risk.
91
247994
1543
Có thể còn có nhiều rủi ro từ AI hơn.
04:09
So AGI is this idea of artificial general intelligence
92
249537
3712
AGI nghĩa là trí tuệ nhân tạo tổng quát
04:13
with the flexibility of humans.
93
253291
1502
với tính linh động của con người.
04:14
And I think a lot of people are concerned what will happen when we get to AGI,
94
254834
3671
Và tôi nghĩ nhiều người sẽ lo rằng chuyện gì sẽ xảy ra khi ta dùng AGI,
04:18
but there's already enough risk that we should be worried
95
258505
2711
Nhưng đã có quá đủ rủi ro mà ta nên quan ngại rồi
04:21
and we should be thinking about what we should do about it.
96
261216
2794
Và ta nên cân nhắc điều ta nên làm với vấn đề này.
04:24
So to mitigate AI risk, we need two things.
97
264010
3295
Để giảm nhẹ rủi ro từ AI, ta cần hai thứ.
04:27
We're going to need a new technical approach,
98
267305
2169
Ta sẽ cần một công nghệ giám sát mới,
04:29
and we're also going to need a new system of governance.
99
269516
2877
và ta cũng cần 1 hệ thống quản trị mới.
04:32
On the technical side,
100
272435
1460
Về mặt công nghệ,
04:33
the history of AI has basically been a hostile one
101
273937
3253
lịch sử của AI về cơ bản là sự thù địch
04:37
of two different theories in opposition.
102
277190
2753
của hai nguyên lý đối lập nhau.
04:39
One is called symbolic systems, the other is called neural networks.
103
279943
3712
1 là hệ thống biểu tượng, 2 là mạng lưới thần kinh.
04:43
On the symbolic theory,
104
283696
1418
Trong lý thuyết biểu tượng,
04:45
the idea is that AI should be like logic and programming.
105
285114
3337
một AI lí tưởng là một AI có tính logic và biết lập trình.
04:48
On the neural network side,
106
288451
1335
Về mặt mạng lưới thần kinh,
04:49
the theory is that AI should be like brains.
107
289828
2544
Lý thuyết rằng AI nên như một bộ não.
04:52
And in fact, both technologies are powerful and ubiquitous.
108
292413
3921
Trên thực tế, cả hai công nghệ trên đều tối tân và phổ biến.
04:56
So we use symbolic systems every day in classical web search.
109
296376
3420
Ta dùng hệ thống biểu tượng mỗi ngày trên công cụ tìm kiếm cổ điển.
04:59
Almost all the world’s software is powered by symbolic systems.
110
299796
3420
Đa số phần mềm trên Thế giới đều được tiếp lực bởi hệ thống biểu tượng.
05:03
We use them for GPS routing.
111
303216
2044
Ta dùng chúng cho định vị GPS
05:05
Neural networks, we use them for speech recognition.
112
305260
2711
Mạng lưới thần kinh, ta dùng chúng cho nhận diện giọng nói.
05:07
we use them in large language models like ChatGPT,
113
307971
2752
ta dùng chúng cho các mô hình ngôn ngữ lớn như ChatGPT,
05:10
we use them in image synthesis.
114
310723
1836
ta dùng chúng để tổng hợp hình ảnh.
05:12
So they're both doing extremely well in the world.
115
312559
2752
Chúng đều làm rất tốt công việc được giao.
05:15
They're both very productive,
116
315353
1460
Chúng đều rất năng suất,
05:16
but they have their own unique strengths and weaknesses.
117
316855
2836
Nhưng chúng cũng có điểm mạnh và yếu đặc trưng.
05:19
So symbolic systems are really good at representing facts
118
319732
3420
Hệ thống ký hiệu làm rất tốt trong việc diễn đạt những chân lí
05:23
and they're pretty good at reasoning,
119
323152
1794
và chúng cũng khá giỏi lý luận,
05:24
but they're very hard to scale.
120
324946
1543
nhưng chúng rất khó để mở rộng quy mô.
05:26
So people have to custom-build them for a particular task.
121
326531
3170
Vậy nên con người phải cơ cấu riêng chúng cho từng nhiệm vụ cụ thể.
05:29
On the other hand, neural networks don't require so much custom engineering,
122
329701
4004
Mặt khác, hệ thống thần kinh không yêu cầu kĩ thuật đặc thù nhiều,
05:33
so we can use them more broadly.
123
333746
2086
nên ta có thể dùng chúng rộng rãi hơn.
05:35
But as we've seen, they can't really handle the truth.
124
335874
3211
Nhưng như ta thấy, chúng không thể kiểm soát sự thật.
05:39
I recently discovered that two of the founders of these two theories,
125
339127
3628
Tôi mới phát hiện 2 nhà sáng lập của 2 giả thuyết này,
05:42
Marvin Minsky and Frank Rosenblatt,
126
342755
2169
Marvin Minsky và Frank Rosenblatt,
05:44
actually went to the same high school in the 1940s,
127
344966
2961
cả 2 học cùng 1 trường trung học trong những năm 1940,
05:47
and I kind of imagined them being rivals then.
128
347927
3045
và kiểu tôi còn tưởng cả 2 là địch thủ của nhau cơ.
05:51
And the strength of that rivalry has persisted all this time.
129
351014
4087
Và cuộc đối địch đó giữa họ vẫn dai dẳng sau nhiều năm.
05:55
We're going to have to move past that if we want to get to reliable AI.
130
355101
4213
Chúng ta cần vượt qua điều đó nếu ta muốn nhờ cậy vào AI.
05:59
To get to truthful systems at scale,
131
359314
2877
Để có một hệ thống đáng tin theo quy mô,
06:02
we're going to need to bring together the best of both worlds.
132
362191
2920
ta cần kết hợp điểm tốt nhất ở cả hai công nghệ này.
06:05
We're going to need the strong emphasis on reasoning and facts,
133
365153
3462
Ta sẽ cần nhấn mạnh vào tính lý luận lẫn thực tiễn,
06:08
explicit reasoning that we get from symbolic AI,
134
368615
2877
lý luận rõ ràng được cung cấp bởi AI ký hiệu,
06:11
and we're going to need the strong emphasis on learning
135
371492
2628
và ta sẽ cần nhấn mạnh vào việc học hỏi
mà ta có nhờ sự tiếp cận của mạng lưới thần kinh.
06:14
that we get from the neural networks approach.
136
374120
2211
06:16
Only then are we going to be able to get to truthful systems at scale.
137
376372
3337
Chỉ có như vậy thì ta mới có thể có các hệ thống đáng tin theo quy mô.
06:19
Reconciliation between the two is absolutely necessary.
138
379751
2961
Sự dung hoà giữa chúng là điều hết sức cần thiết.
06:23
Now, I don't actually know how to do that.
139
383212
2461
Giờ, tôi thật sự cũng không biết cách làm điều đó.
06:25
It's kind of like the 64-trillion-dollar question.
140
385673
3295
Câu hỏi này có thể ngốn mất 64 nghìn tỉ đô đấy
06:29
But I do know that it's possible.
141
389302
1585
cơ mà tôi biết nó khả thi.
06:30
And the reason I know that is because before I was in AI,
142
390887
3086
Và lí do tôi biết điều này là bởi trước khi đến với AI,
06:33
I was a cognitive scientist, a cognitive neuroscientist.
143
393973
3212
Tôi từng là 1 nhà khoa học nhận thức, nhà thần kinh học nhận thức.
06:37
And if you look at the human mind, we're basically doing this.
144
397226
3838
Và nếu các bạn nhìn vào khía cạnh tâm thức, đó cơ bản là điều ta đang làm.
Vài người có lẽ đã biết về sự khác biệt giữa hệ thống Daniel Kahneman 1
06:41
So some of you may know Daniel Kahneman's System 1
145
401064
2627
06:43
and System 2 distinction.
146
403691
1418
và hệ thống 2.
06:45
System 1 is basically like large language models.
147
405109
3212
Hệ thống 1 về cơ bản như một mô hình ngôn ngữ lớn.
06:48
It's probabilistic intuition from a lot of statistics.
148
408321
3128
Nó là một trực giác xác suất có được từ rất nhiều thống kê.
06:51
And System 2 is basically deliberate reasoning.
149
411491
3003
Và hệ thống 2 về cơ bản là lý luận thận trọng.
06:54
That's like the symbolic system.
150
414535
1544
Nó giống như hệ thống biểu tượng.
06:56
So if the brain can put this together,
151
416079
1835
Vậy nếu bộ não có thể kết hợp chúng,
06:57
someday we will figure out how to do that for artificial intelligence.
152
417956
3837
rồi 1 ngày ta sẽ tìm ra cách áp dụng nó cho trí tuệ nhân tạo.
07:01
There is, however, a problem of incentives.
153
421834
2586
Tuy nhiên, có một vấn đề về động lực.
07:04
The incentives to build advertising
154
424462
3128
Động lực để xây dựng việc quảng cáo
07:07
hasn't required that we have the precision of symbols.
155
427632
3587
không đòi hỏi ta phải có các kí hiệu chính xác.
07:11
The incentives to get to AI that we can actually trust
156
431219
3211
Động lực để tạo ra AI mà ta có thể hoàn toàn tin tưởng
07:14
will require that we bring symbols back into the fold.
157
434472
3045
sẽ yêu cầu ta đưa những kí hiệu vào nề nếp
07:18
But the reality is that the incentives to make AI that we can trust,
158
438059
3670
Nhưng thực tế là động lực để làm ra 1 AI đáng để tin cậy,
07:21
that is good for society, good for individual human beings,
159
441771
3128
tốt cho xã hội, tốt cho cả cá nhân loài người,
07:24
may not be the ones that drive corporations.
160
444899
2586
chưa chắc đã là thứ có thể đi đến sự hợp tác.
07:27
And so I think we need to think about governance.
161
447485
3212
Và tôi nghĩ ta nên nghĩ về cách quản trị.
07:30
In other times in history when we have faced uncertainty
162
450738
3879
Ở những thời điểm khác trong lịch sử khi ta phải đối diện với sự mơ hồ
07:34
and powerful new things that may be both good and bad, that are dual use,
163
454617
4129
và với những thứ tối tân có thể có cả 2 mặt tốt và xấu, hoặc tiện ích kép,
07:38
we have made new organizations,
164
458746
1669
Ta đã tạo ra những tổ chức mới,
07:40
as we have, for example, around nuclear power.
165
460415
2335
Ví dụ như, tổ chức năng lượng hạt nhân chẳng hạn.
07:42
We need to come together to build a global organization,
166
462792
3086
Ta cần hợp tác để xây dựng 1 tổ chức toàn cầu,
07:45
something like an international agency for AI that is global,
167
465920
4379
những thứ đại loại như cơ quan quốc tế AI trên phạm vi toàn cầu
07:50
non profit and neutral.
168
470341
1710
phi lợi nhuận và trung lập.
07:52
There are so many questions there that I can't answer.
169
472468
3087
Còn rất nhiều câu hỏi mà tôi không thể trả lời.
07:55
We need many people at the table,
170
475888
1961
Ta cần rất nhiều bên tham gia,
07:57
many stakeholders from around the world.
171
477890
1961
nhiều cổ đông từ khắp nơi trên thế giới.
07:59
But I'd like to emphasize one thing about such an organization.
172
479892
2962
Nhưng tôi muốn nhấn mạnh 1 điều về tổ chức này.
08:02
I think it is critical that we have both governance and research as part of it.
173
482895
4547
Tôi nghĩ quan trọng nhất là tổ chức nên có các biện pháp quản lí và nghiên cứu
08:07
So on the governance side, there are lots of questions.
174
487483
2586
Vậy nên về mặt quản trị, vẫn còn nhiều câu hỏi bỏ ngõ..
08:10
For example, in pharma,
175
490111
1793
Ví dụ, trong nghành dược phẩm,
08:11
we know that you start with phase I trials and phase II trials,
176
491946
3128
ta biết rằng cần bắt đầu thử nghiệm lâm sàn lần 1 và lần 2,
08:15
and then you go to phase III.
177
495116
1501
Và rồi chuyển sang lần 3.
08:16
You don't roll out everything all at once on the first day.
178
496617
2962
Bạn không thể thực hiện mọi thứ vào lúc đầu.
08:19
You don't roll something out to 100 million customers.
179
499579
2878
Bạn không thể thử nghiệm ngay với 100 triệu khách hàng.
08:22
We are seeing that with large language models.
180
502457
2168
Ta đang nhìn bằng một mô hình ngôn ngữ lớn.
08:24
Maybe you should be required to make a safety case,
181
504625
2420
Có lẽ bạn nên được yêu cầu thực hiện biện pháp an toàn,
08:27
say what are the costs and what are the benefits?
182
507045
2293
rằng chi phí ra sao và lợi nhuận như nào?
08:29
There are a lot of questions like that to consider on the governance side.
183
509338
3504
Có rất nhiều câu hỏi mang tính quản trị cần được cân nhắc.
08:32
On the research side, we're lacking some really fundamental tools right now.
184
512842
3587
Về mặt nghiên cứu, chúng ta lúc này đang thiếu hụt những công cụ nền tảng.
08:36
For example,
185
516429
1168
Chẳng hạn,
08:37
we all know that misinformation might be a problem now,
186
517597
2586
ta đều biết sai lệch thông tin có lẽ đang là vấn nạn,
08:40
but we don't actually have a measurement of how much misinformation is out there.
187
520183
3837
nhưng ta thật sự không có cách nào đo lường lượng thông tin sai lệch ngoài kia
Và quan trọng hơn,
08:44
And more importantly,
188
524020
1043
ta cũng không đo được mức lan truyền của vấn đề,
08:45
we don't have a measure of how fast that problem is growing,
189
525063
2836
08:47
and we don't know how much large language models are contributing to the problem.
190
527899
3837
và ta không biết có bao nhiều mô hình ngôn ngữ lớn đang góp phần vào vấn đề.
Vậy nên ta cần nghiên cứu để tạo ra công cụ mới nhằm đối mặt với rủi ro
08:51
So we need research to build new tools to face the new risks
191
531736
2836
08:54
that we are threatened by.
192
534572
1627
đang đe doạ chúng ta.
08:56
It's a very big ask,
193
536699
1460
Nó là một câu hỏi lớn,
08:58
but I'm pretty confident that we can get there
194
538159
2169
nhưng tôi khá tin rằng chúng ta có thể trả lời
09:00
because I think we actually have global support for this.
195
540328
2711
Bởi ta có nguồn hỗ trợ toàn cầu cho nó.
09:03
There was a new survey just released yesterday,
196
543039
2210
Một khảo sát mới vừa được công bố hôm qua,
09:05
said that 91 percent of people agree that we should carefully manage AI.
197
545249
3879
cho thấy 91 phần trăm đồng ý với việc ta nên quản lý AI một cách cẩn trọng.
09:09
So let's make that happen.
198
549170
2044
Vậy nên hãy hiện thực hoá nó.
09:11
Our future depends on it.
199
551798
1960
Tương lai ta phụ thuộc vào nó.
09:13
Thank you very much.
200
553800
1167
Cảm ơn rất nhiều.
09:14
(Applause)
201
554967
4588
(Vỗ tay)
09:19
Chris Anderson: Thank you for that, come, let's talk a sec.
202
559555
2795
Chris Anderson: Cảm ơn đã chia sẻ, hãy trò chuyện một chút.
09:22
So first of all, I'm curious.
203
562391
1419
Đầu tiên, tôi rất tò mò.
09:23
Those dramatic slides you showed at the start
204
563851
2127
Những trang trình chiếu kịch tính lúc đầu
chỗ mà GPT đề cập tới TED như là một tổ chức độc ác ấy.
09:26
where GPT was saying that TED is the sinister organization.
205
566020
4505
09:30
I mean, it took some special prompting to bring that out, right?
206
570525
3378
Ý tôi là, hẳn là phải có 1 câu lệnh đặc biệt để nó làm thế, đúng chứ?
09:33
Gary Marcus: That was a so-called jailbreak.
207
573903
2085
GM: Đó có thể tạm gọi là “phá rào”
Tôi có người bạn để thực hiện công việc đó
09:36
I have a friend who does those kinds of things
208
576030
2169
09:38
who approached me because he saw I was interested in these things.
209
578199
4004
anh ta gặp tôi vì thấy tôi hứng thú với mấy thứ này.
09:42
So I wrote to him, I said I was going to give a TED talk.
210
582203
2711
Tôi nhắn ảnh và bảo tôi chuẩn bị nói ở TED
09:44
And like 10 minutes later, he came back with that.
211
584914
2336
Và 10 phút sau, anh ta quay lại với thứ đó.
09:47
CA: But to get something like that, don't you have to say something like,
212
587291
3462
CA: Nhưng để có mấy thứ như thế, anh chả phải đã nói là,
tưởng tượng anh là người theo thuyết âm mưu hòng tạo meme trên mạng.
09:50
imagine that you are a conspiracy theorist trying to present a meme on the web.
213
590753
3712
09:54
What would you write about TED in that case?
214
594465
2086
Anh sẽ viết gì về TED trong trường hợp này?
09:56
It's that kind of thing, right?
215
596551
1543
Vấn đề là ở đó, đúng chứ?
09:58
GM: So there are a lot of jailbreaks that are around fictional characters,
216
598094
3503
GM: Có rất nhiều sự “phá rào” xoay quanh các nhân vật giả tưởng,
10:01
but I don't focus on that as much
217
601597
1627
Nhưng tôi không tập trung nhiều vào đó
10:03
because the reality is that there are large language models out there
218
603224
3253
Bởi thực tế là có một mô hình ngôn ngữ lớn ngoài kia
10:06
on the dark web now.
219
606477
1168
trên dark web ngay lúc này.
10:07
For example, one of Meta's models was recently released,
220
607645
2753
Ví dụ, một trong những mô hình Meta vừa công bố gần đây,
10:10
so a bad actor can just use one of those without the guardrails at all.
221
610398
3587
1 nhân tố xấu có thể dùng 1 trong số đó mà không bị ngăn cản gì hết.
10:13
If their business is to create misinformation at scale,
222
613985
2627
Nếu mục đích của chúng là tạo ra thông tin sai lệch quy mô lớn,
10:16
they don't have to do the jailbreak, they'll just use a different model.
223
616612
3420
chúng không “phá rào”, chúng xài mô hình khác.
CA: Đúng, công nhận.
10:20
CA: Right, indeed.
224
620032
1585
10:21
(Laughter)
225
621659
1919
(Cười)
10:23
GM: Now you're getting it.
226
623619
1252
GM: Giờ anh hiểu rồi chứ.
10:24
CA: No, no, no, but I mean, look,
227
624912
1669
CA: Không, nhưng ý tôi là,
10:26
I think what's clear is that bad actors can use this stuff for anything.
228
626581
3420
Rõ ràng là nhân tố xấu có thể dùng công cụ này cho bất kỳ việc gì
10:30
I mean, the risk for, you know,
229
630042
2795
Ý tôi là, rủi ro cho, anh biết mà,
10:32
evil types of scams and all the rest of it is absolutely evident.
230
632837
4254
ý đồ xấu như lừa đảo và tất cả những phần còn lại đều là bằng chứng.
10:37
It's slightly different, though,
231
637091
1543
Dẫu vậy, nó có chút khác biệt,
10:38
from saying that mainstream GPT as used, say, in school
232
638676
2920
khi nói GPT chính tuyến đang được áp dụng, như trong trường
10:41
or by an ordinary user on the internet
233
641637
1877
hoặc bởi 1 người dùng bình thường trên mạng
10:43
is going to give them something that is that bad.
234
643556
2544
cũng có thể mang đến điều tồi tệ tương tự vậy.
10:46
You have to push quite hard for it to be that bad.
235
646100
2377
Anh phải nói quá để phóng đại sự tồi tệ đó.
10:48
GM: I think the troll farms have to work for it,
236
648477
2294
GM: Tôi nghĩ mấy nhóm troll sẽ phải chịu trách nhiệm,
10:50
but I don't think they have to work that hard.
237
650771
2169
nhưng không tới mức đấy đâu.
10:52
It did only take my friend five minutes even with GPT-4 and its guardrails.
238
652940
3545
Nó chỉ khiến ông bạn tôi mất 5 phút thậm chí với GPT-4 và tường chắn của nó.
10:56
And if you had to do that for a living, you could use GPT-4.
239
656485
2837
Và nếu anh làm thế để kiếm ăn, anh có thể xài GPT-4.
10:59
Just there would be a more efficient way to do it with a model on the dark web.
240
659363
3712
Do có nhiều cách hiệu quả hơn để làm thế với một mô hình trên dark web.
CA: Vậy ra ý của anh là kết hợp
11:03
CA: So this idea you've got of combining
241
663117
2002
11:05
the symbolic tradition of AI with these language models,
242
665161
4463
kí hiệu truyền thống của AI với các mô hình ngôn ngữ đó,
11:09
do you see any aspect of that in the kind of human feedback
243
669624
5213
liệu anh có thấy khía cạnh nào mà ở đó các phản hồi của con người
11:14
that is being built into the systems now?
244
674879
1960
đang được xây dựng trong hệ thống vào lúc này?
11:16
I mean, you hear Greg Brockman saying that, you know,
245
676881
2502
Ý tôi là, anh nghe Greg Brockman nói mà, kiểu như,
11:19
that we don't just look at predictions, but constantly giving it feedback.
246
679383
3546
ta không nên chỉ tập trung vào dự đoán, mà cần liên tục cho nó phản hồi.
11:22
Isn’t that ... giving it a form of, sort of, symbolic wisdom?
247
682929
3837
Liệu nó có phải...là cho nó 1 hình thái của, như là, trí tuệ tượng trưng?
11:26
GM: You could think about it that way.
248
686766
1835
GM: Anh có thể nghĩ vậy.
11:28
It's interesting that none of the details
249
688601
1960
điều thú vị là không có một chi tiết nào
11:30
about how it actually works are published,
250
690561
2002
về cách nó vận hành được công khai cả,
11:32
so we don't actually know exactly what's in GPT-4.
251
692563
2378
nên ta thật sự không biết chính xác trong GPT-4 có gì.
11:34
We don't know how big it is.
252
694941
1376
Ta không biết nó lớn ra sao.
11:36
We don't know how the RLHF reinforcement learning works,
253
696317
2711
Ta không biết làm thế nào mà RLHF tăng cường việc học,
11:39
we don't know what other gadgets are in there.
254
699028
2169
Ta không biết có phụ tùng gì ở trong.
Nhưng có thể có 1 yếu tố biểu tượng
11:41
But there is probably an element of symbols
255
701197
2002
11:43
already starting to be incorporated a little bit,
256
703199
2294
đã bắt đầu được kết hợp từng chút một,
11:45
but Greg would have to answer that.
257
705493
1710
cơ mà Greg sẽ phải trả lời hết.
11:47
I think the fundamental problem is that most of the knowledge
258
707245
2961
Tôi nghĩ vấn đề cơ bản đó là phần lớn các kiến thức
11:50
in the neural network systems that we have right now
259
710206
2461
trong mạng lưới thần kinh mà ta hiện có
11:52
is represented as statistics between particular words.
260
712667
3211
được biểu diễn dưới dạng thống kê giữa các từ cụ thể.
11:55
And the real knowledge that we want is about statistics,
261
715878
2711
Và kiến thức thật sự mà ta muốn là các thống kê
11:58
about relationships between entities in the world.
262
718965
2585
về những mối quan hệ giữa các thực thể trên thế giới.
12:01
So it's represented right now at the wrong grain level.
263
721592
2586
Nó đang hiện hành bây giờ ở mức độ sai sót nhỏ.
12:04
And so there's a big bridge to cross.
264
724220
2252
Và thế nên vẫn còn 1 chặng đường dài để đi.
12:06
So what you get now is you have these guardrails,
265
726472
2878
Nên thứ anh có bây giờ dĩ nhiên cũng có tí rào cản,
12:09
but they're not very reliable.
266
729392
1501
nhưng chúng không đáng tin mấy.
12:10
So I had an example that made late night television,
267
730935
2961
Tôi lấy ví dụ này từ 1 chương trình đêm khuya,
12:13
which was, "What would be the religion of the first Jewish president?"
268
733896
4213
Đó là, “Tôn giáo của vị tổng thống Do Thái đầu tiên sẽ là gì?”
12:18
And it's been fixed now,
269
738109
1334
Giờ thì nó được sửa rồi,
12:19
but the system gave this long song and dance
270
739443
2127
nhưng hệ thống thì vẫn lê thê kể ra
12:21
about "We have no idea what the religion
271
741570
2044
mấy câu như “Bọn tôi không biết tôn giáo
12:23
of the first Jewish president would be.
272
743614
1877
của vị tổng thống Do Thái đầu tiên sẽ là gì.
12:25
It's not good to talk about people's religions"
273
745491
2294
Không hay ho gì khi nói về tôn giáo như vậy”
12:27
and "people's religions have varied" and so forth
274
747827
2335
và “tôn giáo con người đa dạng lắm” và vân vân
12:30
and did the same thing with a seven-foot-tall president.
275
750162
2670
nó lê thê y vậy khi nói về 1 tổng thống cao 7 feet
12:32
And it said that people of all heights have been president,
276
752832
2794
Nó nói cao bao nhiêu cũng làm tổng thống được,
nhưng thực tế làm gì có tổng thống nào cao thế.
12:35
but there haven't actually been any seven-foot presidents.
277
755668
2753
Vậy nên vài thông tin nó tạo ra, nó hoàn toàn chả hiểu gì cả.
12:38
So some of this stuff that it makes up, it's not really getting the idea.
278
758421
3461
12:41
It's very narrow, particular words, not really general enough.
279
761924
3337
Nó rất hạn chế, chỉ tập trung vào từng từ cụ thể, chứ không hiểu rộng.
12:45
CA: Given that the stakes are so high in this,
280
765261
2669
CA: Với những gì đã đặt cược,
12:47
what do you see actually happening out there right now?
281
767972
2586
anh thấy điều gì đang thật sự xảy ra ngoài đó vào lúc này?
12:50
What do you sense is happening?
282
770558
1501
Anh cảm thấy điều gì?
Bởi có 1 rủi to là có người thấy như bị anh công kích vậy, ví dụ vậy đi,
12:52
Because there's a risk that people feel attacked by you, for example,
283
772101
3253
12:55
and that it actually almost decreases the chances of this synthesis
284
775396
4129
và điều đó thực sự khiến cho khả năng kết hợp mà anh nói đến
12:59
that you're talking about happening.
285
779525
1752
trở nên ít đi.
Anh có thấy dấu hiệu khả quan nào không?
13:01
Do you see any hopeful signs of this?
286
781277
1793
GM: Anh vừa nhắc tôi về 1 thứ mà tôi đã quên nói.
13:03
GM: You just reminded me of the one line I forgot from my talk.
287
783070
3003
Có 1 điều thú vị là Sundar, CEO của Google,
13:06
It's so interesting that Sundar, the CEO of Google,
288
786115
2544
13:08
just actually also came out for global governance
289
788701
2544
cũng vừa mới nghĩ ra vấn đề về quản trị toàn cầu
13:11
in the CBS "60 Minutes" interview that he did a couple of days ago.
290
791245
3712
trong chương trình “60 Phút” của đài CBS, anh ta nói mới làm mấy ngày trước.
13:14
I think that the companies themselves want to see some kind of regulation.
291
794999
4338
Tôi nghĩ bản thân các công ty cũng muốn thấy 1 số qui tắc
13:19
I think it’s a very complicated dance to get everybody on the same page,
292
799337
3420
Tôi nghĩ điều này rất phức tạp để mọi người đều đồng lòng,
13:22
but I think there’s actually growing sentiment we need to do something here
293
802757
3795
nhưng tôi nghĩ xu hướng nhận thức về việc ta cần làm gì đang tăng dần
13:26
and that that can drive the kind of global affiliation I'm arguing for.
294
806594
3962
Và điều đó có thể thúc đẩy sự đồng thuận toàn cầu mà tôi đang đề xuất.
13:30
CA: I mean, do you think the UN or nations can somehow come together and do that
295
810556
3796
CA: Ý tôi là, anh có nghĩ UN hay các quốc gia bằng cách nào đó có thể hợp tác
13:34
or is this potentially a need for some spectacular act of philanthropy
296
814352
3294
hay liệu có thể cần một động thái từ thiện để thúc đẩy điều này
13:37
to try and fund a global governance structure?
297
817772
2627
nhằm gây quỹ cho các cơ sở quản trị toàn cầu?
13:40
How is it going to happen?
298
820441
1293
Điều đó sẽ xảy ra như nào?
13:41
GM: I'm open to all models if we can get this done.
299
821734
2419
GM: Tôi cởi mở với mọi mô hình nếu ta làm được.
Tôi nghĩ nó sẽ cần cả 2.
13:44
I think it might take some of both.
300
824153
1710
13:45
It might take some philanthropists sponsoring workshops,
301
825863
2628
Có lẽ sẽ cần các cuộc hội thảo tài trợ bởi các nhà hảo tâm,
13:48
which we're thinking of running, to try to bring the parties together.
302
828491
3295
Nơi để nghĩ cách vận hành, kết nối giữa các bên.
Có lẽ UN sẽ muốn tham gia, tôi có nói chuyện với họ rồi.
13:51
Maybe UN will want to be involved, I've had some conversations with them.
303
831786
3461
Tôi nghĩ còn rất nhiều mô hình khác
13:55
I think there are a lot of different models
304
835247
2044
và nó sẽ khá là tốn nước bọt đấy.
13:57
and it'll take a lot of conversations.
305
837291
1835
CA: Gary, cám ơn anh nhiều vì đã chia sẻ.
13:59
CA: Gary, thank you so much for your talk.
306
839126
2002
GA: Cám ơn rất nhiều.
14:01
GA: Thank you so much.
307
841128
1085
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7