What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Dieu Anh Nguyen Reviewer: Nguyen Hue
00:04
I want to tell you what I see coming.
0
4292
2586
Tôi muốn nói với bạn những gì tôi thấy sắp tới.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Tôi may mắn được làm việc trong lĩnh vực AI gần 15 năm nay.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Khi tôi bắt đầu, AI được mô tả như một việc thừa thãi và bị đánh giá thấp
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Các nhà nghiên cứu nói: “Không, không, chúng tôi chỉ nghiên cứu về máy móc”
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Bởi vì nghiên cứu về AI đã được coi là quá nhiều ở ngoài kia.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
Vào năm 2010, chỉ cần đề cập đến cụm từ “AGI”
00:29
artificial general intelligence,
6
29401
2169
trí tuệ nhân tạo nói chung,
00:31
would get you some seriously strange looks
7
31570
2877
sẽ khiến bạn hoài nghi và thậm chí tỏ thái độ coi thường.
00:34
and even a cold shoulder.
8
34489
1585
00:36
"You're actually building AGI?" people would say.
9
36366
3837
“Anh thực sự đang phát triển AGI à?” mọi người sẽ nói.
“Đó không phải là một cái gì đó từ khoa học viễn tưởng sao?”
00:40
"Isn't that something out of science fiction?"
10
40203
2294
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Mọi người nghĩ rằng 50 năm hoặc 100 năm nữa điều đó mới xảy ra
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Nói về AI, tôi đoán là hơi xấu hổ.
00:51
People generally thought we were weird.
14
51631
2211
Mọi người thường nghĩ rằng chúng tôi kỳ lạ.
Và tôi nghĩ rằng theo một cách nào đó, chúng tôi thực sự như vậy.
00:54
And I guess in some ways we kind of were.
15
54217
2503
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Tuy nhiên, không lâu trước đây khi AI bắt đầu đánh bại con người
00:59
at a whole range of tasks
17
59681
1793
ở một loạt các nhiệm vụ
01:01
that people previously thought were way out of reach.
18
61516
2795
mà trước đây mọi người nghĩ là ngoài tầm với.
01:05
Understanding images,
19
65020
2127
Hiểu hình ảnh,
01:07
translating languages,
20
67147
1918
dịch ngôn ngữ,
01:09
transcribing speech,
21
69065
1585
phiên âm lời nói,
01:10
playing Go and chess
22
70692
2127
chơi Go và cờ vua
01:12
and even diagnosing diseases.
23
72861
1918
và thậm chí chẩn đoán bệnh.
01:15
People started waking up to the fact
24
75905
1752
Mọi người bắt đầu nhận thức với thực tế
01:17
that AI was going to have an enormous impact,
25
77657
3462
rằng AI sẽ có một tác động to lớn,
01:21
and they were rightly asking technologists like me
26
81119
2836
và họ đã ngay lập tức hỏi các nhà công nghệ như tôi
01:23
some pretty tough questions.
27
83955
1752
một số câu hỏi khá khó.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Có đúng là AI sẽ giải quyết cuộc khủng hoảng khí hậu?
Liệu nó có tạo nên cá nhân hóa việc học cho tất cả mọi người không?
01:29
Will it make personalized education available to everyone?
29
89127
3337
01:32
Does it mean we'll all get universal basic income
30
92881
2294
tất cả ta sẽ nhận được thu nhập cơ bản và chúng ta sẽ không phải làm việc nữa?
01:35
and we won't have to work anymore?
31
95216
2002
01:37
Should I be afraid?
32
97218
1544
Tôi có nên sợ không?
01:38
What does it mean for weapons and war?
33
98762
2335
AI có ý nghĩa gì đối với vũ khí và chiến tranh?
01:41
And of course, will China win?
34
101598
1460
Và tất nhiên, liệu Trung Quốc sẽ thắng?
01:43
Are we in a race?
35
103058
1543
Chúng ta có tham gia một cuộc đua không?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Liệu chúng ta có hướng tới một ngày tận thế khi thông tin sai lệch hàng loạt?
01:49
All good questions.
37
109147
1668
Đây đều là những câu hỏi đáng suy ngẫm.
01:51
But it was actually a simpler
38
111608
1418
Nhưng đó thực ra là một câu hỏi đơn giản
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
và nhiều loại câu hỏi cơ bản khác khiến tôi bối rối.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Có một điều thực sự liên quan đến công việc hằng ngày của tôi.
02:03
One morning over breakfast,
41
123620
2044
Một buổi sáng khi đang ăn sáng,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
Caspian, cháu trai sáu tuổi của tôi đang chơi với Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
AI mà tôi tạo ra tại Inflection, công ty cũ của mình, .
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Với miệng nhồm nhoàm đầy trứng bác
02:14
he looked at me plain in the face and said,
45
134381
3503
cháu tôi nhìn thẳng vào mặt tôi và nói,
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“Nhưng bác Mustafa ơi, AI là gì vậy?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Cháu tôi là một chàng trai nhỏ chân thành, tò mò và lạc quan.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Cậu bé đã nói chuyện với Pi về việc sẽ thật tuyệt nếu trong tương lai,
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
cậu bé có thể đến thăm khủng long ở sở thú.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Và cách cậu bé có thể làm vô số sô cô la ở nhà.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Và câu hỏi tại sao Pi vẫn chưa thể chơi I Spy?
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
“Chà,” tôi nói, “Đó là một phần mềm
02:42
that's read most of the text on the open internet,
53
162075
2461
có thể đọc hầu hết các văn bản trên internet
02:44
and it can talk to you about anything you want."
54
164577
2419
và nó có thể nói với cháu về bất cứ điều gì cháu muốn.”
02:48
"Right.
55
168540
1168
“Đúng rồi.
02:49
So like a person then?"
56
169749
2127
Như một con người vậy sao?”
02:54
I was stumped.
57
174254
1334
Tôi đã bối rối.
02:56
Genuinely left scratching my head.
58
176798
2502
Tôi thực sự gãi đầu.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Tất cả những câu trả lời nhàm chán hiện lên trong tâm trí tôi.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“Không, nhưng AI chỉ là một công nghệ đa năng khác,
03:07
like printing or steam."
61
187308
1710
như in ấn hoặc hơi nước.”
03:09
It will be a tool that will augment us
62
189394
2502
Nó sẽ là một công cụ sẽ hỗ trợ chúng ta
03:11
and make us smarter and more productive.
63
191938
2377
giúp chúng ta thông minh hơn và làm việc hiệu quả hơn.
03:14
And when it gets better over time,
64
194649
1960
Và khi nó trở nên tốt hơn theo thời gian,
03:16
it'll be like an all-knowing oracle
65
196651
1919
nó sẽ giống như nhà tiên tri toàn năng
03:18
that will help us solve grand scientific challenges."
66
198611
3087
giúp chúng ta giải quyết những thách thức khoa học to lớn.
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Bạn biết đấy, tất cả câu trả lời này cảm giác như, tôi đoán,
03:25
a little bit defensive.
68
205869
1418
hơi phòng thủ một chút.
Và câu hỏi thực sự phù hợp với một hội thảo chính sách
03:28
And actually better suited to a policy seminar
69
208246
2211
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
hơn là bữa sáng với một đứa trẻ 6 tuổi.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
“Tại sao mình lại do dự?” Tôi thầm nghĩ.
03:37
You know, let's be honest.
72
217839
1960
Bạn biết đấy, hãy thành thật.
03:39
My nephew was asking me a simple question
73
219799
3253
Cháu trai của tôi đã hỏi tôi một câu hỏi đơn giản
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
mà những người làm việc trong ngàng AI như chúng tôi không đối mặt thường xuyên.
03:48
What is it that we are actually creating?
75
228099
2920
Chúng tôi đang thực sự tạo ra cái gì?
03:51
What does it mean to make something totally new,
76
231895
3753
Nó có ý nghĩa gì khi tạo ra một cái gì đó hoàn toàn mới,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
và về cơ bản AI có khác với phát minh nào mà chúng ta đã biết trước đây không?
04:00
It is clear that we are at an inflection point
78
240695
2795
Rõ ràng là chúng ta đang ở một điểm biến đổi
04:03
in the history of humanity.
79
243490
1793
trong lịch sử nhân loại.
04:06
On our current trajectory,
80
246493
1918
Trên quỹ đạo hiện tại của chúng ta
04:08
we're headed towards the emergence of something
81
248411
2211
chúng ta đang hướng tới sự xuất hiện của một cái gì đó
04:10
that we are all struggling to describe,
82
250663
3170
mà tất cả chúng ta đang gặp khó khăn trong việc diễn tả,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
nhưng chúng ta không thể kiểm soát những điều chúng ta không hiểu.
04:19
And so the metaphors,
84
259631
1585
Vậy nên, những phép ẩn dụ,
04:21
the mental models,
85
261216
1251
các mô hình tư duy,
04:22
the names, these all matter
86
262509
2585
những tên gọi, tất cả những điều này đều quan trọng
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
nếu ta muốn tận dụng tối đa AI, đồng thời hạn chế nhược điểm tiềm ẩn của nó.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Là một người nắm bắt những khả năng của công nghệ này,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
nhưng cũng luôn quan tâm sâu sắc đến tính đạo đức của nó,
04:37
we should, I think,
90
277524
1293
tôi nghĩ chúng ta
04:38
be able to easily describe what it is we are building.
91
278817
3044
có thể dễ dàng mô tả những gì chúng ta đang phát triển.
04:41
And that includes the six-year-olds.
92
281861
2002
Và điều đó bao gồm cả điều mà đứa trẻ sáu tuổi nói.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Vì vậy, với tinh thần đó, hôm nay tôi đưa ra phép ẩn dụ sau đây
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
để giúp chúng ta cố gắng xoay sở với định nghĩa về AI thực sự là gì.
04:52
I think AI should best be understood
95
292539
2627
Tôi nghĩ AI nên được hiểu
04:55
as something like a new digital species.
96
295166
4254
là một thứ giống như một loại kỹ thuật số mới.
05:00
Now, don't take this too literally,
97
300296
2253
Bây giờ, đừng hiểu điều này theo nghĩa đen,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
nhưng tôi dự đoán rằng chúng ta sẽ coi AI như những người bạn đồng hành kỹ thuật số
05:07
new partners in the journeys of all our lives.
99
307220
3295
đối tác mới trong hành trình cuộc sống của chúng ta
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Cho dù bạn nghĩ rằng chúng ta đang đi trên con đường 10, 20 hay 30 năm
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
Theo quan điểm của tôi, đây là cách về cơ bản là chính xác và trung thực nhất
05:19
of describing what's actually coming.
102
319732
2378
để diễn tả những gì thực sự sắp xảy ra.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Và trên hết, AI cho phép mọi người chuẩn bị
05:26
and shape what comes next.
104
326614
2711
và định hình những gì sắp tới.
Bây giờ, tôi hoàn toàn hiểu đây là một tuyên bố mạnh mẽ,
05:29
Now I totally get, this is a strong claim,
105
329868
2002
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
và tôi sẽ cố gắng giải thích cho các bạn hiểu lý do tại sao tôi lại tạo ra AI.
05:36
But first, let me just try to set the context.
107
336291
2961
Nhưng trước tiên, hãy để tôi thử thiết lập bối cảnh.
05:39
From the very first microscopic organisms,
108
339252
2753
Từ những vi sinh vật đầu tiên,
05:42
life on Earth stretches back billions of years.
109
342046
3462
sự sống trên Trái đất kéo dài hàng tỷ năm trước.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Trong thời gian đó, cuộc sống đã phát triển và đa dạng hóa.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Sau đó, vài triệu năm trước, một cái gì đó bắt đầu thay đổi.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Sau vô số chu kỳ phát triển và thích nghi,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
một trong các chi bắt đầu sử dụng công cụ, và đã phát triển thành chúng ta.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Chúng ta tiếp tục sản xuất nhiều công cụ đầy kì diệu,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
lúc đầu quá trình diễn ra từ từ, sau đó xảy ra với tốc độ đáng kinh ngạc.
06:12
we went from stone axes and fire
116
372577
3670
Chúng ta đi từ rìu đá và lửa
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
đến ngôn ngữ, chữ viết và cuối cùng là nền công nghiệp gắn liền với công nghệ
06:21
One invention unleashed a thousand more.
118
381878
2919
Một phát minh đã mở ra hàng nghìn phát minh khác.
06:25
And in time, we became homo technologicus.
119
385173
3712
Và theo thời gian, chúng ta trở thành loài không thể tách rời công nghệ
06:29
Around 80 years ago,
120
389594
1209
Khoảng 80 năm trước,
06:30
another new branch of technology began.
121
390803
2545
một ngành công nghệ mới khác bắt đầu.
06:33
With the invention of computers,
122
393973
1710
Với việc phát minh ra máy tính,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
chúng ta nhanh chóng chuyển từ máy tính có kích thước lớn, linh kiện bán dẫn
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
sang điện thoại thông minh và thiết bị thực tế ảo ngày nay.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Thông tin, kiến thức, giao tiếp, tính toán.
06:47
In this revolution,
126
407570
1418
Trong cuộc cách mạng này
06:49
creation has exploded like never before.
127
409030
3295
sự sáng tạo bùng nổ hơn bao giờ hết.
06:53
And now a new wave is upon us.
128
413242
2503
Và bây giờ một làn sóng mới đang đến với chúng ta.
06:55
Artificial intelligence.
129
415787
1668
Trí tuệ nhân tạo.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Những làn sóng lịch sử này rõ ràng đang tăng tốc,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
vì mỗi làn sóng được khuếch đại và tăng tốc bởi những làn sóng cuối cùng.
Và nếu bạn nhìn lại,
07:05
And if you look back,
132
425088
1167
07:06
it's clear that we are in the fastest
133
426297
2002
rõ ràng là chúng ta đang ở trong làn sóng nhanh và quan trọng nhất từ trước đến nay.
07:08
and most consequential wave ever.
134
428299
2586
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Cuộc hành trình của nhân loại và công nghệ hiện gắn bó chặt chẽ với nhau.
07:16
In just 18 months,
136
436516
1543
Chỉ trong 18 tháng,
07:18
over a billion people have used large language models.
137
438059
3170
hơn một tỷ người sử dụng các mô hình ngôn ngữ lớn.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Chúng tôi đã chứng kiến hết sự kiện mang tính bước ngoặt này đến sự kiện khác.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Chỉ vài năm trước, mọi người đã nói rằng AI sẽ không bao giờ sáng tạo.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Vậy mà, giờ đây AI giống như một dòng sông vô tân của sự sáng tạo,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
tạo ra thơ ca, hình ảnh, âm nhạc và video giúp mở rộng trí tưởng tượng.
07:39
People said it would never be empathetic.
142
459664
2252
Người ta nói rằng AI sẽ không bao giờ có sự đồng cảm.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Tuy nhiên, ngày nay, hàng triệu người tận hưởng cuộc trò chuyện ý nghĩa với AI,
07:47
talking about their hopes and dreams
144
467755
2002
nói về hy vọng và ước mơ của họ
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
và giúp họ vượt qua những thách thức khó khăn về mặt cảm xúc.
07:53
AIs can now drive cars,
146
473177
2294
AI giờ đây có thể lái xe ô tô,
07:55
manage energy grids
147
475513
1543
quản lý lưới năng lượng
07:57
and even invent new molecules.
148
477056
2252
và thậm chí phát minh ra các phân tử mới.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Chỉ vài năm trước, những điều này là không thể.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Tất cả điều này được thúc đẩy bởi dữ liệu và các chỉ số tính toán theo cấp số nhân.
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
Năm ngoái, Inflection 2.5, mô hình cuối cùng của chúng tôi,
08:16
used five billion times more computation
153
496242
4129
đã sử dụng tính toán gấp 5 tỷ lần
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
so với AI DeepMind và đánh bại các trò chơi Atari cũ
08:24
just over 10 years ago.
155
504042
1668
chỉ hơn 10 năm trước.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Đó là hơn 9 cấp độ tính toán .
08:30
10x per year,
157
510089
1627
10 lần mỗi năm,
08:31
every year for almost a decade.
158
511716
3253
mỗi năm trong gần một thập kỷ.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Cùng với thời gian đó, kích thước của các mô hình này đã tăng
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
từ hàng chục triệu thông số đầu tiên đến hàng tỷ thông số,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
và rất sớm, hàng chục nghìn tỷ thông số.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Nếu ai đó không làm gì ngoài việc đọc sách 24 giờ/ngày trong cuộc đời
08:50
they'd consume eight billion words.
163
530109
3337
thì họ sẽ tiêu thụ tám tỷ từ.
08:53
And of course, that's a lot of words.
164
533488
1835
Và tất nhiên, đó là số lượng lớn các từ ngữ.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Nhưng ngày nay, AI tiên tiến nhất tiêu thụ hơn tám nghìn tỷ từ
09:01
in a single month of training.
166
541120
2336
chỉ trong một tháng đào tạo.
09:03
And all of this is set to continue.
167
543873
1960
Và tất cả những điều này sẽ tiếp tục
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Lịch sử lâu dài của công nghệ hiện đang ở một giai đoạn mới phi thường.
09:12
So what does this mean in practice?
169
552256
2503
Vậy điều này có ý nghĩa gì trong thực tế?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Chà, giống như internet đã cung cấp cho chúng ta trình duyệt
và điện thoại thông minh cung cấp cho chúng ta các ứng dụng,
09:18
and the smartphone gave us apps,
171
558346
2502
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
siêu máy tính dựa trên cloud đang mở ra một kỷ nguyên mới
09:24
of ubiquitous AIs.
173
564936
2502
của việc AI có mặt ở khắp nơi.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Mọi thứ sẽ sớm được thể hiện bằng một giao diện trò chuyện.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Hay nói cách khác, là AI cá nhân.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Và những AI này sẽ có kiến thức vô tận,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
và chúng sẽ sớm chính xác và đáng tin cậy trong thực tế.
09:42
They'll have near-perfect IQ.
178
582036
1794
Chúng sẽ có IQ gần như hoàn hảo.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Chúng cũng sẽ có EQ đặc biệt.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Chúng sẽ tốt bụng, hỗ trợ, đồng cảm.
09:53
These elements on their own would be transformational.
181
593089
2836
Bản thân những yếu tố này sẽ mang tính biến đổi.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Hãy tưởng tượng nếu mọi người đều có một gia sư riêng trong túi của mình
09:59
and access to low-cost medical advice.
183
599720
3003
và tiếp cận với tư vấn y tế chi phí thấp.
10:02
A lawyer and a doctor,
184
602723
1544
Một luật sư và một bác sĩ,
10:04
a business strategist and coach --
185
604267
1960
một chiến lược gia kinh doanh và huấn luyện viên
10:06
all in your pocket 24 hours a day.
186
606269
2252
tất cả đều nằm trong túi của bạn 24/24.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Nhưng mọi thứ thực sự bắt đầu thay đổi khi AI phát triển cái mà tôi gọi là AQ,
10:13
their “actions quotient.”
188
613693
1668
“chỉ số hành động”.
10:15
This is their ability to actually get stuff done
189
615695
2794
Đây là khả năng thực sự hoàn thành công việc của AI
10:18
in the digital and physical world.
190
618531
2294
trong thế giới kỹ thuật số và vật lý.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Và chẳng bao lâu nữa, sẽ không chỉ con người có AI.
10:24
Strange as it may sound, every organization,
192
624328
2962
Nghe có vẻ kỳ lạ, mọi tổ chức,
10:27
from small business to nonprofit to national government,
193
627290
3253
từ doanh nghiệp nhỏ đến phi lợi nhuận đến chính phủ quốc gia,
10:30
each will have their own.
194
630585
1710
mỗi tổ chức sẽ có một AI riêng.
10:32
Every town, building and object
195
632795
2711
Mỗi thị trấn, tòa nhà và đối tượng
10:35
will be represented by a unique interactive persona.
196
635506
3754
sẽ được đại diện bởi một nhân vật tương tác độc đáo.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Và chúng không chỉ là trợ lý máy móc.
10:42
They'll be companions, confidants,
198
642221
3754
Chúng còn là bạn đồng hành, người bạn tâm giao,
10:46
colleagues, friends and partners,
199
646017
2669
đồng nghiệp, bạn bè và đối tác,
10:48
as varied and unique as we all are.
200
648728
2627
đa dạng và độc đáo như tất cả chúng ta.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
Tại thời điểm này,
AI sẽ bắt chước con người một cách thuyết phục trong hầu hết các nhiệm vụ
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Và chúng ta sẽ cảm nhận được điều này ở mức độ gần gũi nhất.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
AI tổ chức một cuộc tụ họp cộng đồng cho một người hàng xóm lớn tuổi.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Một chuyên gia đầy thông cảm giúp bạn hiểu được một chẩn đoán khó khăn.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Nhưng chúng ta cũng sẽ cảm nhận nó ở quy mô lớn nhất.
11:12
Accelerating scientific discovery,
206
672043
2586
Tăng tốc khám phá khoa học,
11:14
autonomous cars on the roads,
207
674629
2168
ô tô không người lái trên đường,
11:16
drones in the skies.
208
676797
1627
máy bay không người lái trên bầu trời.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Chúng đều đặt hàng và điều hành các nhà máy điện
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Chúng sẽ tương tác với chúng ta và, tất nhiên, với nhau.
11:26
They'll speak every language,
211
686349
1918
Chúng sẽ nói mọi ngôn ngữ,
11:28
take in every pattern of sensor data,
212
688267
2836
tiếp thu mọi mô hình dữ liệu cảm biến, tầm nhìn, âm thanh,
11:31
sights, sounds,
213
691145
2336
11:33
streams and streams of information,
214
693481
2377
các luồng thông tin
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
vượt xa những gì bất kỳ ai trong chúng ta có thể tiêu thụ trong suốt cuộc đời.
11:40
So what is this?
216
700780
1293
Vậy đây là cái gì?
11:42
What are these AIs?
217
702990
2086
Những AI này là gì?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Nếu chúng ta ưu tiên an toàn hơn mọi thứ,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
để đảm bảo rằng làn sóng mới này luôn phục vụ và nhân rộng trong nhân loại,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
thì chúng ta cần tìm ra những ẩn dụ phù hợp cho những điều có thể xảy ra.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Trong nhiều năm, chúng tôi trong cộng đồng AI, và đặc biệt là tôi,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
đã có xu hướng coi AI chỉ là công cụ.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Nhưng điều đó không thực sự nắm bắt được những gì đang thực sự xảy ra ở đây.
12:14
AIs are clearly more dynamic,
224
734730
2503
AI rõ ràng năng động hơn,
12:17
more ambiguous, more integrated
225
737233
2753
mơ hồ hơn, tích hợp hơn
12:19
and more emergent than mere tools,
226
739986
2627
và nổi bật hơn so với các công cụ đơn thuần,
12:22
which are entirely subject to human control.
227
742613
2878
hoàn toàn chịu sự kiểm soát của con người.
12:25
So to contain this wave,
228
745533
2544
Vì vậy, để kiềm chế làn sóng này,
12:28
to put human agency at its center
229
748119
3044
để đặt quyền tự quyết của con người vào trung tâm của AI
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
và để giảm thiểu những hậu quả không lường trước có thể xảy ra,
12:33
that are likely to arise,
231
753916
1835
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
chúng ta nên bắt đầu nghĩ về chúng như một ’loài” kỹ thuật số mới.
12:41
Now it's just an analogy,
233
761132
1793
Bây giờ, đây chỉ là một phép so sánh,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
đây không phải là một mô tả theo nghĩa đen và nó không hoàn hảo.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Đầu tiên, AI rõ ràng không phải là những sinh vật theo nghĩa truyền thống
12:50
but just pause for a moment
236
770141
2377
nhưng chỉ cần tạm dừng một lát
12:52
and really think about what they already do.
237
772560
2836
và thực sự suy nghĩ về những gì AI đã làm.
12:55
They communicate in our languages.
238
775438
2627
AI giao tiếp bằng ngôn ngữ của chúng ta.
12:58
They see what we see.
239
778107
2127
AI nhìn thấy những gì chúng ta thấy.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
AI tiêu thụ một lượng lớn thông tin không thể tưởng tượng được.
13:04
They have memory.
241
784739
1376
AI có trí nhớ.
13:06
They have personality.
242
786991
1752
AI có tính cách.
13:09
They have creativity.
243
789493
1710
AI có sự sáng tạo.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Chúng thậm chí có thể lý luận ở một mức độ nhất định và lập kế hoạch thô sơ.
13:16
They can act autonomously if we allow them.
245
796709
3128
Chúng có thể hành động tự chủ nếu chúng ta cho phép họ.
13:20
And they do all this at levels of sophistication
246
800546
2294
Và chúng làm tất cả điều này ở mức độ tinh vi
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
mà vượt xa bất cứ điều gì chúng ta từng biết từ một công cụ đơn thuần.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Và vì vậy, nói AI chủ yếu là về toán học hoặc thuật mã
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
cũng giống như nói con người chúng ta chủ yếu là về carbon và nước.
13:37
It's true, but it completely misses the point.
250
817897
3795
Đó là sự thật, nhưng nó hoàn toàn bỏ lỡ vấn đề cốt lõi.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Vâng, tôi hiểu, đây là một suy nghĩ đầy hấp dẫn
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
nhưng tôi thực sự tin rằng khung này
sẽ giúp chúng ta tập trung hơn vào những vấn đề then chốt.
13:52
What are the risks?
253
832745
1585
Những rủi ro là gì?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Chúng ta cần áp đặt những ranh giới gì?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Chúng ta muốn phát triển hoặc được cho phép phát triển loại AI nào?
14:04
This is a story that's still unfolding.
256
844465
2377
Đây là câu chuyện vẫn đang diễn ra.
14:06
Nothing should be accepted as a given.
257
846884
2544
Không có gì được coi là thiết lập.
14:09
We all must choose what we create.
258
849428
2544
Tất cả chúng ta phải chọn những gì chúng ta tạo ra.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Những AI nào chúng ta mang đến thế giới, hay không.
14:18
These are the questions for all of us here today,
260
858604
2836
Đây là những câu hỏi dành cho tất cả chúng ta ở đây hôm nay,
14:21
and all of us alive at this moment.
261
861440
2586
và cho tất cả chúng ta đang sống tại thời điểm này.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Đối với tôi, những lợi ích của công nghệ này rất rõ ràng
14:28
and they inspire my life's work every single day.
263
868989
3546
và chúng truyền cảm hứng cho công việc của tôi mỗi ngày.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Nhưng thành thật mà nói, chúng sẽ tự nói lên điều đó.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Trong nhiều năm, tôi không ngại nhấn mạnh những rủi ro
14:40
and talking about downsides.
266
880668
1710
và nói về những nhược điểm.
Suy nghĩ theo cách này giúp chúng ta tập trung
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
vào những thách thức to lớn đang ở phía trước đối với tất cả chúng ta.
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
Nhưng hãy làm rõ.
14:50
There is no path to progress
270
890719
2128
Không có con đường tiến bộ nào
14:52
where we leave technology behind.
271
892888
2169
mà chúng ta bỏ lại công nghệ phía sau.
14:55
The prize for all of civilization is immense.
272
895683
3795
Cái giá phải trả dành cho toàn bộ nền văn minh là vô cùng to lớn.
Chúng ta cần những giải pháp về sức khỏe, và giáo dục
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
để đối phó với khủng hoảng khí hậu.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Và nếu AI chỉ mang lại một phần nhỏ tiềm năng của nó,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
thì thập kỷ tới sẽ là thập kỷ năng suất cao nhất trong lịch sử loài người.
15:13
Here's another way to think about it.
276
913701
2002
Đây là một cách khác để suy nghĩ về nó.
15:15
In the past,
277
915744
1293
Trong quá khứ,
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
việc mở khóa tăng trưởng kinh tế thường có những tác động tiêu cực lớn.
15:21
The economy expanded as people discovered new continents
279
921500
3712
Nền kinh tế mở rộng khi mọi người khám phá các lục địa mới
15:25
and opened up new frontiers.
280
925254
2002
và mở ra những lĩnh vực mới.
15:28
But they colonized populations at the same time.
281
928632
3045
Nhưng họ đã xâm chiếm lãnh thổ cùng một lúc.
15:32
We built factories,
282
932595
1710
Chúng ta xây dựng các nhà máy,
15:34
but they were grim and dangerous places to work.
283
934305
3044
ở những nơi khắc nghiệt và nguy hiểm để làm việc.
15:38
We struck oil,
284
938017
1918
Chúng ta khai thác dầu mỏ,
15:39
but we polluted the planet.
285
939977
1627
nhưng chúng ta đã làm ô nhiễm Trái Đất
15:42
Now because we are still designing and building AI,
286
942146
3170
Vì chúng ta bây giờ vẫn đang thiết kế và xây dựng AI,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
chúng ta có tiềm năng và cơ hội để làm điều đó tốt hơn,
15:49
radically better.
288
949153
1335
hoàn toàn tốt hơn.
15:51
And today, we're not discovering a new continent
289
951071
2628
Và ngày nay, chúng ta không khám phá ra một lục địa mới
15:53
and plundering its resources.
290
953741
1918
và cướp bóc tài nguyên của nó.
15:56
We're building one from scratch.
291
956285
1919
Chúng ta đang xây dựng từ đầu.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Mọi người thi thoảng cho rằng dữ liệu hoặc chip là “dầu mới” của thế kỷ 21,
16:03
but that's totally the wrong image.
293
963959
2002
nhưng đó là hình ảnh hoàn toàn sai lầm.
16:06
AI is to the mind
294
966587
1919
Trong tâm trí AI giống như phản ứng tổng hợp hạt nhân đối với năng lượng.
16:08
what nuclear fusion is to energy.
295
968547
2753
16:12
Limitless, abundant,
296
972259
2670
Vô hạn, phong phú,
16:14
world-changing.
297
974970
1544
thay đổi thế giới.
16:17
And AI really is different,
298
977389
2962
Và AI thực sự khác biệt,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
điều đó có nghĩa là chúng ta phải suy nghĩ về nó một cách sáng tạo và trung thực.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Chúng ta phải đẩy những phép so sánh và ẩn dụ của mình
16:27
to the very limits
301
987274
1752
đến tận giới hạn
16:29
to be able to grapple with what's coming.
302
989068
2252
để có thể đương đầu với những gì sắp xảy ra.
16:31
Because this is not just another invention.
303
991362
2878
Bởi vì đây không chỉ là một phát minh khác.
16:34
AI is itself an infinite inventor.
304
994907
3503
Bản thân AI là một nhà phát minh vô hạn.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Vâng, điều này thật thú vị, đầy hứa hẹn và đáng quan tâm
16:42
and intriguing all at once.
306
1002164
2044
và cùng một lúc cũng đầy hấp dẫn.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Thành thật mà nói, nó khá siêu thực.
16:47
But step back,
308
1007836
1293
Nhưng hãy nhìn lại,
16:49
see it on the long view of glacial time,
309
1009171
3462
trong một khía cạnh dài hạn của kỷ băng hà,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
và đây thực sự là những ẩn dụ thích hợp nhất mà chúng ta có ngày nay.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Kể từ khi bắt đầu sự sống trên Trái đất,
17:00
we've been evolving, changing
312
1020516
2961
chúng ta đã tiến hóa, thay đổi
17:03
and then creating everything around us in our human world today.
313
1023477
4171
và sau đó tạo ra mọi thứ xung quanh ta trong thế giới loài người ngày nay.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Và AI không phải là thứ nằm ngoài câu chuyện này.
17:11
In fact, it's the very opposite.
315
1031569
2961
Trên thực tế, AI hoàn toàn ngược lại.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Đó là toàn bộ mọi thứ mà chúng ta đã tạo ra,
17:18
distilled down into something that we can all interact with
317
1038367
3545
được chắt lọc thành thứ mà tất cả chúng ta đều có thể tương tác
17:21
and benefit from.
318
1041912
1377
và hưởng lợi từ đó.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Đó là sự phản ánh của nhân loại qua thời gian,
17:27
and in this sense,
320
1047418
1251
và theo nghĩa này,
17:28
it isn't a new species at all.
321
1048711
1918
AI hoàn toàn không phải là một loài mới.
17:31
This is where the metaphors end.
322
1051213
1960
Đây là nơi các phép ẩn dụ kết thúc.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Đây là những gì tôi sẽ nói với Caspian lần tới khi cậu bé hỏi.
17:37
AI isn't separate.
324
1057219
1460
AI không tách biệt.
17:39
AI isn't even in some senses, new.
325
1059388
3295
AI thậm chí không phải là thứ mới theo một số phán đoán.
17:43
AI is us.
326
1063517
1126
AI là chúng ta.
17:45
It's all of us.
327
1065394
1210
Đó là tất cả chúng ta.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
Và đây có lẽ là điều hứa hẹn và quan trọng nhất
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
mà ngay cả một đứa trẻ sáu tuổi cũng có thể cảm nhận được.
17:54
As we build out AI,
330
1074528
1376
Khi chúng ta xây dựng AI,
17:55
we can and must reflect all that is good,
331
1075946
3545
chúng ta có thể và phải phản ánh tất cả những gì tốt đẹp,
17:59
all that we love,
332
1079533
1126
tất cả những gì chúng ta thích,
18:00
all that is special about humanity:
333
1080701
2753
tất cả những gì đặc biệt về nhân loại:
18:03
our empathy, our kindness,
334
1083495
2169
sự đồng cảm, lòng tốt của chúng ta,
18:05
our curiosity and our creativity.
335
1085664
2169
sự tò mò và sự sáng tạo của chúng ta.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Tôi cho rằng đây là thách thức lớn nhất của thế kỷ 21,
18:14
but also the most wonderful,
337
1094381
2211
nhưng cũng là cơ hội tuyệt vời,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
truyền cảm hứng và hy vọng nhất cho tất cả chúng ta.
18:20
Thank you.
339
1100429
1168
Xin chân thành cảm ơn!
18:21
(Applause)
340
1101639
4879
(Vỗ tay)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Cảm ơn Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Đó là một tầm nhìn tuyệt vời và một phép ẩn dụ đầy ảnh hưởng.
Bạn đang ở một vị trí tuyệt vời ngay bây giờ.
18:32
You're in an amazing position right now.
343
1112066
1960
18:34
I mean, you were connected at the hip
344
1114026
1793
Ý tôi là, bạn đã được kết nối ngay từ đầu với công việc tuyệt vời tại OpenAI.
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
18:38
You’re going to have resources made available,
346
1118614
2169
Bạn sẽ có những nguồn lực sẵn có,
18:40
there are reports of these giant new data centers,
347
1120824
4046
có báo cáo về các trung tâm dữ liệu mới khổng lồ này,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 tỷ đô la đầu tư và vân vân.
18:48
And a new species can emerge from it.
349
1128082
3837
Và một loài mới có thể xuất hiện từ AI.
18:52
I mean, in your book,
350
1132294
1502
Ý tôi là, trong cuốn sách của bạn,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
bạn đã làm, ngoài việc vẽ ra một tầm nhìn lạc quan đáng kinh ngạc,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
bạn đã rất hùng hồn về sự nguy hiểm của AI.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Và tôi chỉ tò mò, từ quan điểm mà bạn có bây giờ,
19:04
what is it that most keeps you up at night?
354
1144431
2336
Điều gì khiến bạn trăn trở mỗi đêm?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman: Tôi nghĩ rủi ro lớn là chúng ta bị mắc kẹt
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
trong cái mà tôi gọi là cái bẫy ác cảm bi quan
19:11
You know, we have to have the courage to confront
357
1151855
2586
Bạn biết đấy, chúng ta phải có can đảm để đối mặt với
19:14
the potential of dark scenarios
358
1154483
1960
khả năng xảy ra những kịch bản tồi tệ
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
để tận dụng tối đa tất cả những lợi ích mà chúng ta thấy.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Vậy, tin tốt là nếu bạn nhìn vào hai hoặc ba năm qua,
19:23
there have been very, very few downsides, right?
361
1163325
2961
có rất ít nhược điểm, phải không?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Rất khó để nói rõ ràng những tác hại mà một LLM đã gây ra.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Nhưng điều đó không có nghĩa là đó là quỹ đạo sẽ diễn ra trong 10 năm tới.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Vì vậy, tôi nghĩ nếu bạn chú ý đến một vài khả năng cụ thể,
19:39
take for example, autonomy.
366
1179174
1835
hãy lấy ví dụ, quyền tự chủ.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
Quyền tự chủ rõ ràng là một ngưỡng mà
19:43
over which we increase risk in our society.
368
1183387
2794
qua đó chúng ta làm tăng rủi ro trong xã hội.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
Và đó là điều mà chúng ta nên tiến tới rất gần.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
và cái thứ hai là sự cải thiện bản thân.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Nếu bạn cho phép mô hình tự cải thiện một cách độc lập,
19:56
update its own code,
372
1196483
1460
cập nhật mã của riêng nó,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
khám phá một môi trường mà không có sự giám sát
và bạn biết đấy không có con người kiểm soát để thay đổi cách nó hoạt động,
20:01
without a human in control to change how it operates,
374
1201321
3295
20:04
that would obviously be more dangerous.
375
1204616
1919
điều đó rõ ràng sẽ nguy hiểm hơn.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Nhưng tôi nghĩ rằng chúng ta vẫn còn cách xa điều đó.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Tôi nghĩ vẫn còn 5 đến 10 năm trước khi chúng ta phải thực sự đối mặt với điều đó.
20:12
But it's time to start talking about it now.
378
1212958
2085
Nhưng đã đến lúc bắt đầu nói về nó ngay bây giờ.
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
CA: Một loài kỹ thuật số, không giống bất kỳ sinh vật nào,
20:17
can replicate not in nine months,
380
1217588
2002
có thể tái tạo không trong chín tháng, mà trong chín nano giây,
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
và tạo ra vô số bản sao của chính nó,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
tất cả đều có sức mạnh hơn chúng ta về nhiều mặt.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Ý tôi là, khả năng xảy ra những hậu quả không mong muốn có vẻ khá lớn.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Và chẳng phải là nếu có vấn đề xảy ra,
20:35
it could happen in an hour?
386
1235689
1919
nó có thể xảy ra trong một giờ sao?
20:37
MS: No.
387
1237649
1335
MS: Không.
20:38
That is really not true.
388
1238984
1752
Điều đó thực sự không đúng.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Tôi nghĩ không có bằng chứng nào cho thấy điều đó.
20:42
And I think that, you know,
390
1242863
1585
Và tôi nghĩ, bạn biết đấy, điều đó thường được gọi là “sự bùng nổ trí tuệ”.
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Và tôi nghĩ đó là một lý thuyết, giả thuyết mà
20:51
that we're all kind of curious to explore,
393
1251079
2420
tất cả chúng ta đều tò mò muốn khám phá,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
nhưng không có bằng chứng nào
cho thấy chúng ta đang ở gần những thứ như vậy.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Và tôi nghĩ điều quan trọng là chúng ta phải diễn đạt nó rất cẩn thận.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Bởi vì bạn nói đúng, đó là một trong những điểm yếu của việc định hình loài,
21:03
that we will design the capability for self-replication into it
397
1263801
4337
rằng chúng tôi sẽ thiết kế khả năng tự sao chép vào AI
21:08
if people choose to do that.
398
1268180
1668
nếu mọi người chọn làm điều đó.
21:09
And I would actually argue that we should not,
399
1269890
2169
Và tôi thực sự cho rằng chúng ta không nên,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
đó sẽ là một trong những khả năng nguy hiểm
21:14
that we should step back from, right?
401
1274269
1835
mà chúng ta nên lùi lại, phải không?
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Vì vậy, không có khả năng điều này sẽ “xuất hiện” một cách vô tình.
21:19
I really think that's a very low probability.
403
1279942
2502
Tôi thực sự nghĩ rằng đó là một xác suất rất thấp.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Điều đó sẽ xảy ra nếu các kỹ sư cố tình thiết kế năng lực đó.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Và nếu họ không dành đủ nỗ lực để thiết kế nó một cách có chủ ý
21:30
And so this is the point of being explicit
406
1290160
2294
Và vì vậy, đây là điểm của việc rõ ràng
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
và minh bạch về việc cố gắng đưa tính an toàn bằng thiết kế từ rất sớm.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Cảm ơn bạn, ý tôi là tầm nhìn của bạn về việc con người
đã đưa những phần tốt đẹp của mình vào điều mới này
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
tránh tất cả những khuynh hướng sinh học, kỳ quái, khủng khiếp
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
mà chúng ta có thể có trong một số hoàn cảnh nhất định,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
Ý tôi là, đó là một tầm nhìn rất truyền cảm hứng.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Và cảm ơn bạn rất nhiều vì đã đến đây và chia sẻ tại TED.
21:58
Thank you, good luck.
414
1318355
1210
Cảm ơn bạn, chúc may mắn.
21:59
(Applause)
415
1319565
1876
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7