The Dark Side of Competition in AI | Liv Boeree | TED

149,153 views ・ 2023-11-09

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Dang Thu Reviewer: Ngọc Quỳnh Đặng
00:04
Competition.
0
4000
1502
Sự cạnh tranh.
00:05
It's a fundamental part of human nature.
1
5502
3003
Nó là căn bản trong bản tính con người.
00:09
I was a professional poker player for 10 years,
2
9047
2628
Tôi là một tay chơi poker chuyên nghiệp trong 10 năm,
00:11
so I've very much seen all the good, bad and ugly ways it can manifest.
3
11675
4421
và nó đã cho tôi thấy rất nhiều điều, cả những điều tốt đẹp, tệ hại và xấu xí.
00:16
When it's done right,
4
16763
1502
Khi làm đúng,
00:18
it can drive us to incredible feats in sports and innovation,
5
18306
5589
nó sẽ đưa đến những kỳ tích thể thao và cải tiến phi thường,
00:23
like when car companies compete over who can build the safest cars
6
23895
4380
như khi các hãng xe cạnh tranh xem ai có thể tạo những chiếc xe an toàn nhất
00:28
or the most efficient solar panels.
7
28275
2544
hoặc các tấm pin mặt trời hiệu quả nhất.
00:30
Those are all examples of healthy competition,
8
30860
2169
Đó là những ví dụ về cạnh tranh lành mạnh,
00:33
because even though individual companies might come and go,
9
33029
3170
bởi vì mặc dù các doanh nghiệp tư nhân có thể đến và đi,
00:36
in the long run,
10
36199
1168
về lâu dài,
00:37
the game between them creates win-win outcomes
11
37409
2419
cuộc đua giữa họ tạo ra kết quả đôi bên cùng có lợi
00:39
where everyone benefits in the end.
12
39828
2043
mà cuối cùng mọi người đều được hưởng lợi.
00:42
But sometimes competition is not so great
13
42581
3003
Có lúc cạnh tranh cũng không quá tuyệt,
00:45
and can create lose-lose outcomes where everyone's worse off than before.
14
45625
5464
nó có thể khiến cả 2 bên đều bị tổn thất, thậm chí còn khiến họ tệ hơn trước.
00:51
Take these AI beauty filters, for example.
15
51715
2878
Ví dụ như các bộ lọc làm đẹp AI.
00:54
As you can see, they're a very impressive technology.
16
54968
2586
Như bạn thấy đó, chúng là một công nghệ rất ấn tượng.
00:57
They can salvage almost any picture.
17
57596
2210
Chúng có thể cứu vãn mọi bức ảnh.
01:00
They can even make Angelina and Margot more beautiful.
18
60181
5297
Chúng còn có thể khiến cho Angelina và Margot đẹp hơn nữa.
01:05
So they're very handy,
19
65520
1335
Vì thế, chúng rất hữu dụng,
01:06
especially for influencers who, now, at the click of a button,
20
66896
3045
nhất là với người có tầm ảnh hưởng, giờ đây chỉ bằng một cú nhấp,
01:09
can transform into the most beautiful Hollywood versions of themselves.
21
69983
3795
là họ có thể biến thành những phiên bản Hollywood đẹp nhất.
01:13
But handy doesn't always mean healthy.
22
73778
2419
Nhưng tiện dụng không có nghĩa là lành mạnh.
01:16
And I've personally noticed how quickly these things can train you
23
76573
3879
Và cá nhân tôi nhận thấy những thứ này có thể nhanh chóng khiến bạn
01:20
to hate your natural face.
24
80493
2378
ghét khuôn mặt tự nhiên của mình.
01:22
And there's growing evidence that they're creating issues
25
82912
2795
Và càng có nhiều bằng chứng rằng chúng tạo ra các vấn đề
01:25
like body dysmorphia, especially in young people.
26
85707
3420
như rối loạn mặc cảm ngoại hình, nhất là ở giới trẻ.
01:29
Nonetheless, these things are now endemic to social media
27
89502
4421
Tuy nhiên, những thứ này lại là thuộc tính của mạng xã hội.
01:33
because the nature of the game demands it.
28
93965
2461
vì bản chất của trò chơi cần nó.
01:37
The platforms are incentivized to provide them
29
97093
2211
Các nền tảng được khuyến khích cung cấp chúng
01:39
because hotter pictures means more hijacked limbic systems,
30
99346
3253
vì bức ảnh càng nóng bỏng thì hệ viền sẽ càng bị kích thích,
01:42
which means more scrolling and thus more ad revenue.
31
102641
2502
dẫn tới lướt mạng nhiều hơn và tăng doanh thu quảng cáo.
01:45
And users are incentivized to use them
32
105644
2210
Và người dùng được khuyến khích dùng bộ lọc
01:47
because hotter pictures get you more followers.
33
107896
2377
vì ảnh đẹp hơn sẽ giúp bạn có nhiều người theo dõi hơn.
01:50
But this is a trap,
34
110815
2461
Nhưng đây là một cái bẫy,
01:53
because once you start using these things,
35
113318
2044
Vì một khi bạn bắt đầu dùng những thứ ấy,
01:55
it's really hard to go back.
36
115362
2127
thì sẽ khó để từ bỏ.
01:57
Plus, you don't even get a competitive advantage from them anymore
37
117530
3254
Hơn nữa, bạn sẽ không còn được ưu thế cạnh tranh từ nó nữa
02:00
because everyone else is already using them too.
38
120784
2502
bởi vì người khác cũng dùng nó rồi.
02:03
So influencers are stuck using these things
39
123787
3461
Vì vậy, người có tầm ảnh hưởng bị mắc kẹt trong những thứ này
02:07
with all the downsides
40
127290
1460
đi cùng với cả tá khuyết điểm
02:08
and very little upside.
41
128792
1793
và chút ít ưu điểm.
02:10
A lose-lose game.
42
130627
1334
Hai bên đều bị tổn thất.
02:12
A similar kind of trap is playing out in our news media right now,
43
132462
4504
Trên truyền thông đại chúng đã xuất hiện một cái bẫy tương tự,
02:16
but with much worse consequences.
44
136966
2712
nhưng để lại hậu quả còn tồi tệ hơn.
02:19
You'd think since the internet came along
45
139719
1961
Từ khi internet xuất hiện, ta cứ nghĩ
02:21
that the increased competition between news outlets
46
141680
3169
rằng sự cạnh tranh gia tăng giữa các hãng truyền thông
02:24
would create a sort of positive spiral,
47
144891
2044
sẽ tạo ra một vòng xoáy tích cực,
02:26
like a race to the top of nuanced, impartial, accurate journalism.
48
146976
4839
như cuộc chạy đua đến đỉnh cao của báo chí đa chiều, khách quan và chuẩn xác.
02:32
Instead, we're seeing a race to the bottom of clickbait and polarization,
49
152565
6132
Trái lại, ta lại thấy một cuộc đua của mồi nhấp chuột và sự phân cực,
02:38
where even respectable papers are increasingly leaning
50
158697
2836
ngay cả những tờ báo có tiếng cũng ngày càng hướng về
02:41
into these kind of low-brow partisan tactics.
51
161533
3253
loại chiến thuật thiên vị hạ tiện này.
02:45
Again, this is due to crappy incentives.
52
165537
3170
Nguyên nhân là do những động lực tồi tệ.
02:49
Today, we no longer just read our news.
53
169374
2669
Ngày nay, chúng ta không chỉ đọc tin tức.
02:52
We interact with it by sharing and commenting.
54
172085
3378
Chúng ta còn tương tác bằng cách chia sẻ và bình luận.
02:56
And headlines that trigger emotions like fear or anger
55
176131
4170
Và các tiêu đề khơi dậy những cảm xúc như sợ hãi hoặc tức giận
03:00
are far more likely to go viral than neutral or positive ones.
56
180343
4088
dễ lan truyền hơn các tiêu đề mang tính trung lập hoặc tích cực.
03:05
So in many ways, news editors are in a similar kind of trap
57
185098
4087
Các biên tập viên tin tức đang rơi vào một cái bẫy tương tự
03:09
as the influencers,
58
189185
1544
như người có ảnh hưởng,
03:10
where, the more their competitors lean into clickbaity tactics,
59
190770
4171
khi mà các đối thủ càng dùng chiến thuật mồi nhấp chuột,
03:14
the more they have to as well.
60
194983
1960
thì họ càng phải làm nhiều hơn.
03:16
Otherwise, their stories just get lost in the noise.
61
196943
2628
Nếu không, đoạn tin ngắn của họ sẽ chìm nghỉm.
03:20
But this is terrible for everybody,
62
200029
2420
Nhưng điều này đều tệ hại với tất cả,
03:22
because now the media get less trust from the public,
63
202490
3295
bởi vì bây giờ công chúng ít tin tưởng truyền thông hơn,
03:25
but also it becomes harder and harder for anyone to discern truth from fiction,
64
205785
4463
cũng ngày càng khó mà phân biệt đâu là thật và đâu là giả,
03:30
which is a really big problem for democracy.
65
210248
2127
gây ra một vấn đề lớn đối với nền dân chủ.
03:33
Now, this process of competition gone wrong
66
213251
3420
Quá trình cạnh tranh lầm lạc này
03:36
is actually the driving force behind so many of our biggest issues.
67
216713
4880
là lực thúc đẩy rất nhiều vấn đề lớn nhất hiện nay.
03:42
Plastic pollution,
68
222427
1877
Ô nhiễm nhựa,
03:44
deforestation,
69
224345
2128
nạn phá rừng,
03:46
antibiotic overuse in farming,
70
226514
2711
lạm dụng kháng sinh nông nghiệp,
03:49
arms races,
71
229225
1627
chạy đua vũ trang,
03:50
greenhouse gas emissions.
72
230894
1918
khí thải nhà kính.
03:52
These are all a result of crappy incentives,
73
232854
3754
Đây đều là kết quả từ những động lực tệ hại
03:56
of poorly designed games that push their players --
74
236649
3420
từ các trò chơi bị thiết kế kém đã đẩy người chơi --
04:00
be them people, companies or governments --
75
240069
2753
gồm các công dân, công ty hay chính phủ --
04:02
into taking strategies and tactics that defer costs and harms to the future.
76
242864
5714
vào các chiến lược và chiến thuật vừa tốn tiền vừa gây hại cho tương lai.
04:09
And what's so ridiculous is that most of the time,
77
249454
2919
Và nực cười thay là hầu như mọi lúc,
04:12
these guys don't even want to be doing this.
78
252415
2878
người chơi thậm chí còn chẳng muốn làm điều này.
04:15
You know, it's not like packaging companies
79
255335
2169
Bạn biết đấy, không phải là các công ty bao bì
04:17
want to fill the oceans with plastic
80
257545
1919
muốn lấy nhựa lấp biển
04:19
or farmers want to worsen antibiotic resistance.
81
259506
2836
hay nông dân muốn tình trạng kháng kháng sinh tồi tệ hơn.
04:22
But they’re all stuck in the same dilemma of:
82
262759
3420
Nhưng họ đều bị kẹt trong 1 tình thế tiến thoái lưỡng nan:
04:26
"If I don't use this tactic,
83
266221
2294
“Nếu mình không dùng chiêu này,
04:28
I’ll get outcompeted by all the others who do.
84
268515
3211
thì những người làm như vậy sẽ vượt mặt mình.
04:31
So I have to do it, too.”
85
271768
1835
Cho nên, mình cũng phải làm.”
04:34
This is the mechanism we need to fix as a civilization.
86
274604
3545
Đây là cơ chế mà chúng ta cần sửa đổi với tư cách người văn minh.
04:38
And I know what you're probably all thinking, "So it's capitalism."
87
278858
3170
Và tôi biết điều các bạn đang nghĩ, “Vậy là do chủ nghĩa tư bản.”
04:42
No, it's not capitalism.
88
282028
1543
Không, không phải do nó đâu.
04:43
Which, yes, can cause problems,
89
283613
1793
Đúng là nó có thể gây ra vấn đề,
04:45
but it can also solve them and has been fantastic in general.
90
285448
3170
nhưng nó cũng có thể giải quyết chúng và nhìn chung là hiệu quả.
04:48
It's something much deeper.
91
288618
2127
Nguyên nhân nằm sâu hơn nhiều.
04:51
It's a force of misaligned incentives of game theory itself.
92
291287
5005
Đó chính là động lực lệch lạc của bản thân lý thuyết trò chơi.
04:57
So a few years ago, I retired from poker,
93
297001
2378
Một vài năm trước, tôi đã nghỉ chơi poker,
04:59
in part because I wanted to understand this mechanism better.
94
299420
3671
một phần vì tôi muốn hiểu cơ chế này tốt hơn.
05:03
Because it takes many different forms, and it goes by many different names.
95
303633
4213
Bởi vì nó có nhiều hình thức khác nhau, và có nhiều tên khác nhau.
05:08
These are just some of those names.
96
308346
2085
Đây chỉ là một vài trong số đó.
05:11
You can see they're a little bit abstract and clunky, right?
97
311015
3337
Bạn có thể thấy chúng hơi trừu tượng và rườm rà, phải không?
05:14
They don't exactly roll off the tongue.
98
314394
2002
Chúng nói không được thuận miệng lắm.
05:16
And given how insidious and connected all of these problems are,
99
316771
5089
Và hiểu được độ xảo quyệt và liên quan của những vấn đề này,
05:21
it helps to have a more visceral way of recognizing them.
100
321901
3963
sẽ giúp chúng ta nhận biết chúng một cách trực quan hơn.
05:27
So this is probably the only time
101
327073
1585
Đây có lẽ là lần duy nhất
05:28
you're going to hear about the Bible at this conference.
102
328658
2711
mà bạn sẽ nghe về Kinh thánh tại hội thảo này.
05:31
But I want to tell you a quick story from it,
103
331369
2127
Bởi tôi muốn kể cho bạn 1 mẩu chuyện ngắn,
05:33
because allegedly, back in the Canaanite days,
104
333496
2544
tương truyền rằng vào thời Ca-na-an,
05:36
there was a cult who wanted money and power so badly,
105
336040
5256
có một giáo phái thèm khát tiền bạc và quyền lực tới mức
05:41
they were willing to sacrifice their literal children for it.
106
341296
3587
thực sự sẵn lòng hiến tế con cái chính mình vì nó.
05:45
And they did this by burning them alive in an effigy
107
345592
4212
Và họ làm thật, bằng cách thiêu sống chúng trong hình nhân
05:49
of a God that they believed would then reward them
108
349846
2711
của vị thần mà họ tin rằng sau đó sẽ ban thưởng
05:52
for this ultimate sacrifice.
109
352599
2127
cho họ vì màn hiến tế này.
05:55
And the name of this god was Moloch.
110
355643
2962
Và tên của vị thần này là Moloch.
05:59
Bit of a bummer, as stories go.
111
359772
2461
Hơi tệ là truyện diễn ra như vậy.
06:02
But you can see why it's an apt metaphor,
112
362233
2586
Nhưng ta có thể thấy được đây là 1 ẩn ý thích hợp ,
06:04
because sometimes we get so lost in winning the game right in front of us,
113
364861
6673
bởi vì đôi khi chúng ta lạc lối chỉ để chiến thắng trò chơi trước mắt,
06:11
we lose sight of the bigger picture
114
371534
1960
mà không thấy được bức tranh toàn cảnh
06:13
and sacrifice too much in our pursuit of victory.
115
373536
3754
và hy sinh quá nhiều để theo đuổi theo chiến thắng.
06:17
So just like these guys were sacrificing their children for power,
116
377832
4088
Vậy, giống những kẻ đã hy sinh con cái vì quyền lực này,
06:21
those influencers are sacrificing their happiness for likes.
117
381961
4588
người có ảnh hưởng đang đánh đổi hạnh phúc để lấy luợt thích.
06:27
Those news editors are sacrificing their integrity for clicks,
118
387008
4087
Biên tập viên tin tức đang đánh đổi sự chính trực để lấy lượt xem
06:31
and polluters are sacrificing the biosphere for profit.
119
391137
3796
và những người gây ô nhiễm đang đánh đổi sinh quyển để thu lợi nhuận.
06:35
In all these examples,
120
395767
1793
Trong tất cả những ví dụ này,
06:37
the short-term incentives of the games themselves are pushing,
121
397602
3962
chính những động lực ngắn hạn của trò chơi đang thúc đẩy
06:41
they're tempting their players
122
401606
1752
và cám dỗ những người chơi
06:43
to sacrifice more and more of their future,
123
403358
3378
hy sinh tương lai của họ ngày một nhiều hơn,
06:46
trapping them in a death spiral where they all lose in the end.
124
406778
4129
níu kéo họ trong các bẫy chết người mà chẳng ai được lợi gì cả.
06:52
That's Moloch's trap.
125
412158
2127
Đó là cái bẫy của Moloch.
06:54
The mechanism of unhealthy competition.
126
414661
2752
Cơ chế của cạnh tranh không lành mạnh.
06:58
And the same is now happening in the AI industry.
127
418164
3337
Và điều tương tự hiện đang xảy ra trong ngành công nghiệp AI.
07:02
We're all aware of the race that's heating up
128
422251
2128
Chúng ta đều thấy được sức nóng của cuộc đua
07:04
between companies right now
129
424379
1293
giữa các công ty hiện nay
07:05
over who can score the most compute,
130
425713
2253
về ai đạt được tài nguyên nhiều nhất,
07:08
who can get the biggest funding round or get the top talent.
131
428007
3379
ai gọi vốn được cao nhất hay ai có được tài năng hàng đầu.
07:11
Well, as more and more companies enter this race,
132
431386
3461
Khi càng có nhiều công ty tham gia cuộc đua này,
07:14
the greater the pressure for everyone to go as fast as possible
133
434847
3629
thì áp lực buộc mọi người phải đi càng nhanh càng tốt
07:18
and sacrifice other important stuff like safety testing.
134
438476
4171
và hy sinh những thứ quan trọng khác như kiểm tra an toàn.
07:23
This has all the hallmarks of a Moloch trap.
135
443189
3253
Nó có đủ các đặc điểm của cái bẫy Moloch.
07:27
Because, like, imagine you're a CEO who, you know, in your heart of hearts,
136
447068
3587
Bởi vì, giả sử bạn là một CEO và thực sự trong lòng bạn,
07:30
believes that your team is the best
137
450655
2586
bạn tin rằng đội ngũ của mình là những người
07:33
to be able to safely build extremely powerful AI.
138
453241
3462
hoàn toàn có khả năng dựng lên AI cực mạnh.
07:37
Well, if you go too slowly, then you run the risk of other,
139
457120
4170
Nếu bạn đi quá chậm, thì bạn có nguy cơ
07:41
much less cautious teams getting there first
140
461332
2628
bị các nhóm khác ít thận trọng hơn vượt mặt
và đưa hệ thống của họ vào hoạt động trước bạn.
07:44
and deploying their systems before you can.
141
464002
2168
07:46
So that in turn pushes you to be more reckless yourself.
142
466212
3378
Điều đó khiến bạn trở nên liều lĩnh hơn.
07:49
And given how many different experts and researchers,
143
469966
3628
Bởi lẽ rất nhiều các chuyên gia và nhà nghiên cứu khác nhau,
07:53
both within these companies
144
473594
1585
cả trong các công ty này
07:55
but also completely independent ones,
145
475179
2545
lẫn các đơn vị hoàn toàn độc lập,
07:57
have been warning us about the extreme risks of rushed AI,
146
477765
4296
đã cảnh báo về những rủi ro nguy hiểm của gấp rút phát triển AI,
08:02
this approach is absolutely mad.
147
482103
2711
cách tiếp cận này là hết sức điên rồ.
08:05
Plus, almost all AI companies
148
485398
3170
Hơn nữa, hầu như tất cả các công ty AI
08:08
are beholden to satisfying their investors,
149
488609
3003
đều bị buộc phải thỏa mãn các nhà đầu tư,
08:11
a short-term incentive which, over time, will inevitably start to conflict
150
491612
4255
một động lực ngắn hạn mà theo thời gian, sẽ nảy sinh mâu thuẫn
08:15
with any benevolent mission.
151
495867
1751
với bất kỳ sứ mệnh nhân từ nào.
08:18
And this wouldn't be a big deal
152
498202
1502
Đây sẽ không là điều to tác
08:19
if this was really just toasters we're talking about here.
153
499704
3337
nếu thứ mà chúng ta nói đến ở đây là máy nướng bánh mì.
08:23
But AI, and especially AGI,
154
503041
2752
Nhưng đây là AI, và đặc biệt là AGI,
08:25
is set to be a bigger paradigm shift
155
505835
1752
dự tính sẽ là sự chuyển đổi mô thức
08:27
than the agricultural or industrial revolutions.
156
507587
2669
lớn hơn các cuộc cách mạng nông nghiệp hoặc công nghiệp.
08:30
A moment in time so pivotal,
157
510590
2544
Một khoảnh khắc rất then chốt như vậy
08:33
it's deserving of reverence and reflection,
158
513176
4546
đáng được trân trọng và suy ngẫm,
08:37
not something to be reduced to a corporate rat race
159
517764
2419
chứ không nên bị hạ thấp thành cuộc chay đua doanh nghiệp
08:40
of who can score the most daily active users.
160
520183
2544
về khía cạnh lượng người dùng hoạt động hàng ngày cao nhất.
08:43
I'm not saying I know
161
523186
1209
Tôi không nói là tôi biết
08:44
what the right trade-off between acceleration and safety is,
162
524437
3420
đâu là sự đánh đổi đúng đắn giữa tăng tốc và an toàn,
08:47
but I do know that we'll never find out what that right trade-off is
163
527899
3962
nhưng tôi biết chúng ta sẽ không bao giờ tìm ra sự đánh đổi đúng đắn đó là gì
08:51
if we let Moloch dictate it for us.
164
531903
2794
nếu để Moloch chỉ đạo chúng ta.
08:56
So what can we do?
165
536699
1794
Vậy chúng ta có thể làm gì?
08:58
Well, the good news is we have managed to coordinate
166
538868
3086
Tin tốt là chúng ta đã thành công trong việc phối hợp
09:01
to escape some of Moloch's traps before.
167
541954
2002
để thoái khỏi vài cái bẫy Moloch trước đó.
09:04
We managed to save the ozone layer from CFCs
168
544540
2545
Chúng ta đã giải cứu tầng ozone khỏi CFC
09:07
with the help of the Montreal Protocol.
169
547126
2169
nhờ sự giúp đỡ của Nghị định thư Montreal.
09:09
We managed to reduce the number of nuclear weapons on Earth
170
549337
2878
Chúng ta đã giảm số lượng vũ khí hạt nhân trên Trái Đất
09:12
by 80 percent,
171
552256
1210
tới 80%,
09:13
with the help of the Strategic Arms Reduction Treaty in 1991.
172
553466
3378
với sự trợ giúp của Hiệp ước Giảm Vũ khí Chiến lược năm 1991.
09:17
So smart regulation may certainly help with AI too,
173
557428
4338
Vì vậy, quy chế khôn ngoan cũng có thể giúp ích cho AI,
09:21
but ultimately,
174
561766
1335
nhưng cuối cùng thì
09:23
it's the players within the game who have the most influence on it.
175
563142
4004
chính những người trong cuộc chơi mới có ảnh hưởng nhất đến nó.
09:27
So we need AI leaders to show us
176
567814
2294
Những doanh nghiệp AI dẫn đầu cần thể hiện
09:30
that they're not only aware of the risks their technologies pose,
177
570108
3586
rằng họ không chỉ nhận thức được những rủi ro công nghệ,
09:33
but also the destructive nature of the incentives
178
573736
3253
mà còn bản chất tàn phá của các động lực
09:37
that they're currently beholden to.
179
577031
1877
mà họ đang phải cam kết đáp ứng.
09:39
As their technological capabilities reach towards the power of gods,
180
579617
3712
Khi khả năng công nghệ của họ sánh được với sức mạnh của các vị thần,
09:43
they're going to need the godlike wisdom to know how to wield them.
181
583329
3712
họ sẽ cần trí tuệ thần thánh để sử dụng chúng.
09:47
So it doesn't fill me with encouragement
182
587917
2211
Vì vậy, tôi không cảm thấy hứng khởi
09:50
when I see a CEO of a very major company saying something like,
183
590169
4338
khi thấy CEO của một công ty khổng lồ nói điều gì đó như,
09:54
"I want people to know we made our competitor dance."
184
594507
2753
“Phải cho mọi người biết đối thủ bị chúng tôi vờn như thế nào.”
09:57
That is not the type of mindset we need here.
185
597677
2669
Đó không phải là lối tư duy mà ta cần.
10:00
We need leaders who are willing to flip Moloch's playbook,
186
600346
3629
Ta cần những nhà lãnh đạo sẵn lòng bài trừ chiến thuật Moloch,
10:04
who are willing to sacrifice their own individual chance of winning
187
604016
3671
những người sẵn sàng từ bỏ cơ hội chiến thắng của mình
10:07
for the good of the whole.
188
607687
1626
vì lợi ích của toàn thể.
10:10
Now, fortunately, the three leading labs are showing some signs of doing this.
189
610148
4921
May mắn là hiện tại ba phòng thí nghiệm hàng đầu cho thấy dấu hiệu thay đổi.
10:15
Anthropic recently announced their responsible scaling policy,
190
615695
3086
Anthropic mới đây công bố chính sách mở rộng có trách nhiệm,
10:18
which pledges to only increase capabilities
191
618823
2586
cam kết chỉ đẩy mạnh năng lực AI
10:21
once certain security criteria have been met.
192
621409
2627
khi một vài tiêu chí an toàn nhất định được đáp ứng.
10:24
OpenAI have recently pledged
193
624954
1418
OpenAI gần đây đã cam kết
10:26
to dedicate 20 percent of their compute purely to alignment research.
194
626414
3962
đóng góp 20% tài nguyên của họ hoàn toàn cho nghiên cứu đồng bộ.
10:31
And DeepMind have shown a decade-long focus
195
631627
3087
Và DeepMind đã thể hiện trọng tâm suốt thập kỷ
10:34
of science ahead of commerce,
196
634714
2377
đặt khoa học lên trên thương mại,
10:37
like their development of AlphaFold,
197
637133
1752
qua sự phát triển của AlphaFold,
10:38
which they gave away to the science community for free.
198
638885
2627
phần mềm mà họ tặng miễn phí cho cộng đồng khoa học.
10:41
These are all steps in the right direction,
199
641846
2044
Đây đều là những bước đi đúng hướng,
10:43
but they are still nowhere close to being enough.
200
643931
2836
nhưng chúng vẫn chưa thể coi là đủ.
10:46
I mean, most of these are currently just words,
201
646809
2586
Ý tôi là, hầu hết những cam kết hiện chỉ là lời nói,
10:49
they're not even proven actions.
202
649437
2127
còn chưa phải là hành động được kiểm chứng.
10:52
So we need a clear way to turn the AI race into a definitive race to the top.
203
652023
6006
Vì vậy, ta cần một cách thức rõ ràng để đưa cuộc đua AI lên đỉnh cao thực thụ.
10:58
Perhaps companies can start competing over who can be within these metrics,
204
658779
5297
Có lẽ các công ty nên bắt đầu cạnh tranh về những số liệu kể trên,
11:04
over who can develop the best security criteria.
205
664118
3128
về khía cạnh phát triển tiêu chí bảo mật tốt nhất.
11:07
A race of who can dedicate the most compute to alignment.
206
667288
4004
Một cuộc đua về khía cạnh cống hiến nhiều tài nguyên nhất cho đồng bộ.
11:11
Now that would truly flip the middle finger to Moloch.
207
671292
2669
Điều này giống như giơ ngón tay giữa vào Moloch vậy.
11:14
Competition can be an amazing tool,
208
674587
3253
Cạnh tranh có thể là 1 công cụ tuyệt vời,
11:17
provided we wield it wisely.
209
677882
2085
miễn là ta áp dụng nó một cách khôn ngoan.
11:20
And we're going to need to do that
210
680468
1668
Và chúng ta cần phải làm như vậy
11:22
because the stakes we are playing for are astronomical.
211
682136
3170
vì rủi ro mà ta đặt cược vào là vô cùng lớn.
11:25
If we get AI, and especially AGI, wrong,
212
685806
3421
Nếu chúng ta hiểu sai AI, đặc biệt là AGI,
11:29
it could lead to unimaginable catastrophe.
213
689268
2795
nó có thể dẫn đến thảm họa không thể tưởng tượng được.
11:32
But if we get it right,
214
692980
1502
Nhưng nếu chúng ta làm đúng,
11:34
it could be our path out of many of these Moloch traps
215
694523
2837
nó có thể là con đường thoát khỏi nhiều cái bẫy Moloch
11:37
that I've mentioned today.
216
697401
1502
mà tôi đã đề cập ngày hôm nay.
11:40
And as things get crazier over the coming years,
217
700446
3045
Khi mọi thứ trở nên điên rồ hơn trong những năm tới,
11:43
which they're probably going to,
218
703532
1836
và có lẽ sẽ là vậy,
11:45
it's going to be more important than ever
219
705368
2002
điều quan trọng hơn bao giờ hết
11:47
that we remember that it is the real enemy here, Moloch.
220
707370
4296
là chúng ta phải nhớ rằng Moloch mới là kẻ thù thực sự ở đây.
11:52
Not any individual CEO or company, and certainly not one another.
221
712208
4379
Không phải bất kỳ vị CEO hay công ty nào, và chắc chắn không phải lẫn nhau.
11:57
So don't hate the players,
222
717255
1751
Vì vậy, đừng ghét bỏ người chơi,
11:59
change the game.
223
719006
1293
hãy thay đổi trò chơi.
12:01
(Applause)
224
721509
1126
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7