The Transformative Potential of AGI — and When It Might Arrive | Shane Legg and Chris Anderson | TED

208,779 views

2023-12-07 ・ TED


New videos

The Transformative Potential of AGI — and When It Might Arrive | Shane Legg and Chris Anderson | TED

208,779 views ・ 2023-12-07

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Nhi Tran Reviewer: Thái Hưng Trần
Chris Anderson: Shane, hãy cho chúng tôi một cái nhìn tổng quan về con người anh
00:04
Chris Anderson: Shane, give us a snapshot of you growing up
0
4042
2878
00:06
and what on Earth led you to get interested in artificial intelligence?
1
6920
3462
và điều gì đã khiến anh quan tâm đến trí tuệ nhân tạo?
00:10
Shane Legg: Well, I got my first home computer on my 10th birthday,
2
10423
4630
Shane Legg: Chà, tôi có cái máy vi tính đầu tiên vào sinh nhật lúc 10 tuổi,
00:15
and I --
3
15095
1710
và tôi --
00:16
this was before the internet and everything.
4
16846
2128
lúc đó là trước khi có internet và mọi thứ.
00:18
So you couldn't just go and surf the web and so on.
5
18974
2544
Nên bạn không thể lên mạng rồi lướt web, vâng vâng.
00:21
You had to actually make stuff yourself and program.
6
21560
2544
Thời đó bạn phải tự làm mọi thứ và lập trình.
00:24
And so I started programming,
7
24145
1585
Và thế là tôi bắt đầu lập trình,
00:25
and I discovered that in this computer there was a world,
8
25730
3462
và tôi phát hiện ra trong cái máy tính có một thế giới,
00:29
I could create a world,
9
29234
1418
tôi có thể tạo ra một thế giới,
00:30
I could create little agents that would run around
10
30652
2753
tôi có thể tạo ra các tác nhân nhỏ chạy xung quanh
00:33
and chase each other and do things and so on.
11
33446
2128
và đuổi theo nhau và làm mọi thứ, v.v.
00:35
And I could sort of, bring this whole universe to life.
12
35574
2585
Và tôi có thể làm cho cả vũ trụ này trở nên sống động.
00:38
And there was sort of that spark of creativity that really captivated me
13
38201
4338
Và đó là một tia lửa sáng tạo thực sự hấp dẫn tôi
00:42
and sort of, I think that was really the seeds
14
42539
2919
và tôi nghĩ đó chính là những hạt giống cảm hứng
00:45
of my interest that later grew
15
45500
1460
00:46
into an interest in artificial intelligence.
16
46960
2377
mà sau này trở thành niềm đam mê với trí tuệ nhân tạo.
00:49
CA: Because in your standard education, you had some challenges there.
17
49379
3795
Vì trong chương trình giáo dục phổ thông, anh đã gặp một số khó khăn.
00:53
SL: Yeah, I was dyslexic as a child.
18
53174
3587
Vâng, tôi mắc phải bệnh khó đọc khi còn nhỏ.
00:56
And so they were actually going to hold me back a year
19
56803
3796
Và vì vậy, giáo viên đã thực sự định cho tôi ở lại một lớp
01:00
when I was 10 years old,
20
60599
1418
khi tôi 10 tuổi,
01:02
and they sent me off to get my IQ tested to sort of,
21
62058
2586
và họ cho tôi đi kiểm tra chỉ số IQ
01:04
you know, assess how bad the problem was.
22
64686
2210
để đánh giá mức nghiêm trọng của vấn đề.
01:07
And they discovered I had an exceptionally high IQ.
23
67230
3337
Và họ phát hiện tôi có chỉ số IQ đặc biệt cao.
01:10
And then they were a little bit confused about what was going on.
24
70609
3128
Và sau đó họ khá bối rối về những gì đang xảy ra.
01:13
And fortunately, at that time,
25
73737
1626
May mắn thay, thời điểm đó,
01:15
there was somebody in the town I lived in
26
75405
2336
có một người ở nơi tôi sống
01:17
who knew how to test for dyslexia.
27
77782
1752
biết kiểm tra chứng khó đọc.
01:19
And it turns out I wasn't actually of limited intelligence.
28
79576
3378
Và kết quả là tôi không có bị hạn chế về trí tuệ.
01:22
I was dyslexic, and that was the issue.
29
82996
2419
Vấn đề là tôi mắc chứng khó đọc.
01:25
CA: You had reason from an early age to believe
30
85457
2210
Từ nhỏ, anh đã có cơ sở cho nhận định
01:27
that our standard assumptions about intelligence might be off a bit.
31
87709
3712
rằng các tiêu chuẩn của chúng ta về trí tuệ có thể hơi sai lệch.
01:31
SL: Well, I had reason, from an early age, to sometimes doubt authority.
32
91421
4004
Vâng, từ nhỏ, tôi đã có cơ sở để nghi vấn thẩm quyền của một số chuyên gia.
01:35
(Laughter)
33
95425
1001
(Cười)
01:36
You know, if the teacher thinks you're dumb, maybe it's not true.
34
96468
3086
Nếu giáo viên nghĩ bạn bị khờ, có thể điều đó không đúng.
01:39
Maybe there are other things going on.
35
99554
2169
Có thể những yếu tố khác đang xảy ra.
01:41
But I think it also created in me an interest in intelligence
36
101765
4629
Nhưng tôi nghĩ việc đó cũng đã tạo nên trong tôi đam mê với trí tuệ
01:46
when I sort of had that experience as a child.
37
106436
2794
nhờ những trải nghiệm đó khi còn bé.
01:49
CA: So you're credited by many
38
109272
1460
Anh được biết đến là người đã
01:50
as coining the term “artificial general intelligence,” AGI.
39
110774
3587
khai sinh thuật ngữ “trí tuệ nhân tạo tổng quát”, AGI.
01:54
Tell us about 2001, how that happened.
40
114402
2711
Hãy kể lại từ năm 2001, nó đã xảy ra như nào.
01:57
SL: Yeah, so I was approached by someone called Ben Goertzel
41
117113
3671
Ừm, tôi được liên hệ bởi mọt người tên là Ben Goertzel
02:00
who I'd actually been working with,
42
120784
1710
người mà thật ra tôi đang cùng làm việc, và anh ấy đang định viết một cuốn sách,
02:02
and he was going to write a book,
43
122494
2127
02:04
and he was thinking about a book on AI systems
44
124663
3503
và anh ấy đang nghĩ về một cuốn sách về các hệ thống AI
02:08
that would be much more general and capable,
45
128166
2085
thứ có sự tổng quát và tiềm năng lớn hơn,
02:10
rather than focusing on very narrow things.
46
130251
2461
thay vì tập trung vào những phạm vi hẹp.
Và anh ấy đang suy nghĩ tiêu đề cho cuốn sách.
02:13
And he was thinking about a title for the book.
47
133046
2210
Vì vậy, tôi gợi ý,
02:15
So I suggested to him, "If you're interested in very general systems,
48
135256
3295
“Nếu anh hứng thú với các hệ thống rất có tính tổng quát,
02:18
call it artificial general intelligence."
49
138551
1961
hãy gọi nó là trí tuệ nhân tạo tổng quát.”
02:20
And so he went with that.
50
140553
1210
Và thế là anh ấy chọn luôn.
02:21
And then him and various other people started using the term online
51
141763
3170
Sau đó anh ấy và nhiều người
bắt đầu sử dụng thuật ngữ này trên mạng và internet,
02:24
and the internet,
52
144933
1209
và nó trở nên phổ biến từ đó.
02:26
and then it sort of became popularized from there.
53
146142
2336
Sau đó, chúng tôi phát hiện ra có một người tên là Mike Garrod,
02:28
We later discovered there was someone called Mike Garrod,
54
148520
2711
đã xuất bản một bài báo trên một tạp chí công nghệ nano an ninh vào năm '97.
02:31
who published a paper in a security nanotech journal in '97.
55
151231
4296
02:35
So he is actually the first person to have used the term.
56
155568
2711
Vì vậy, anh ấy thực sự là người đầu tiên sử dụng thuật ngữ này.
02:38
But it turns out he pretty much meant the same thing as us anyway.
57
158279
3295
Nhưng hóa ra dù sao anh ấy cũng có ý nghĩa tương tự như chúng tôi.
02:41
CA: It was kind of an idea whose time had come,
58
161616
2419
Giống như một ý tưởng gặp thời điểm thích hợp,
02:44
to recognize the potential here.
59
164035
2211
để được ghi nhận về tiềm năng.
02:46
I mean, you made an early prediction that many people thought was bonkers.
60
166246
4212
Ý tôi là, anh đã đưa ra một dự đoán sớm mà nhiều người nghĩ là điên rồ.
02:50
What was that?
61
170458
1168
Đó là gì nhỉ?
02:51
SL: Well, in about 2001,
62
171668
2711
Chà, vào khoảng năm 2001,
02:54
a similar time to when I suggested this term artificial general intelligence,
63
174421
4838
tương tự như khi tôi đề xuất thuật ngữ trí tuệ nhân tạo tổng quát,
tôi đọc một cuốn sách của Ray Kurzweil, là “Thời đại của những cỗ máy tinh thần”,
02:59
I read a book by Ray Kurzweil, actually, "Age of Spiritual Machines,"
64
179259
3670
03:02
and I concluded that he was fundamentally right,
65
182971
3795
và tôi kết luận rằng về cơ bản ông ấy đã đúng,
03:06
that computation was likely to grow exponentially for at least a few decades,
66
186808
5714
rằng các phép tính có khả năng tăng theo cấp số mũ trong ít nhất là vài thập kỷ,
03:12
and the amount of data in the world would grow exponentially
67
192564
2836
và lượng dữ liệu trên thế giới sẽ tăng theo cấp lũy thừa
03:15
for a few decades.
68
195442
1167
trong vài thập kỷ.
03:16
And so I figured that if that was going to happen,
69
196609
2670
Thế nên tôi nghĩ rằng nếu điều đó sắp xảy ra,
03:19
then the value of extremely scalable algorithms
70
199279
3545
thì các thuật toán có khả năng nhân rộng
03:22
that could harness all this data and computation
71
202824
3295
mà khai thác được tất cả dữ liệu và phép tính này
03:26
were going to be very high.
72
206161
1835
sẽ có giá trị rất cao.
03:27
And then I also figured that in the mid 2020s,
73
207996
3462
Và sau đó tôi cũng nhận ra rằng tới giữa những năm đầu 20,
03:31
it would be possible then,
74
211499
1460
sẽ khả thi
nếu chúng ta có các thuật toán có khả năng nhân rộng cao này,
03:33
if we had these highly scalable algorithms,
75
213001
2711
03:35
to train artificial intelligence systems
76
215712
4254
để đào tạo các hệ thống trí tuệ nhân tạo
với lượng dữ liệu lớn hơn nhiều những gì một người có thể trải nghiệm trong đời.
03:40
on far more data than a human would experience in a lifetime.
77
220008
3420
03:43
And so as a result of that,
78
223470
1418
Và do đó,
03:44
you can find it on my blog from about 2009
79
224929
3838
bạn có thể tìm thấy nó trên blog của tôi từ khoảng năm 2009.
03:48
I think it's the first time I publicly talked about it,
80
228808
2586
Tôi nghĩ đây là lần đầu tiên tôi nói công khai về nó,
03:51
I predicted a 50 percent chance of AGI by 2028.
81
231436
3920
tôi dự đoán có 50% cơ hội chúng ta sẽ có AGI trong vòng 2028.
03:55
I still believe that today.
82
235815
2336
Tôi vẫn tin điều đó ngày hôm nay.
03:58
CA: That's still your date.
83
238151
1668
Đó vẫn là dự đoán của anh.
04:00
How did you define AGI back then, and has your definition changed?
84
240320
4045
Khi đó bạn đã định nghĩa AGI như thế nào và định nghĩa của bạn có thay đổi không?
04:04
SL: Yeah, I didn't have a particularly precise definition at the beginning.
85
244824
4171
Ừm, tôi không có định nghĩa hoàn toàn chính xác ngay từ đầu.
04:09
It was really just an idea of systems that would just be far more general.
86
249037
4588
Nó thực ra chỉ là một ý tưởng về các hệ thống có tính tổng quát hơn.
04:13
So rather than just playing Go or chess or something,
87
253666
2503
Vì vậy, thay vì chỉ chơi Go hoặc cờ vua gì đó,
04:16
rather than actually be able to do many, many different things.
88
256211
2961
thay vì khả năng làm nhiều, nhiều điều khác nhau.
04:19
The definition I use now is that it's a system
89
259214
2544
Theo định nghĩa của tôi bây giờ thì nó là một hệ thống
04:21
that can do all the cognitive kinds of tasks
90
261758
2627
có thể làm tất cả các loại nhiệm vụ đòi hỏi nhận thức
04:24
that people can do, possibly more,
91
264385
2545
con người có thể làm, có thể hơn thế nữa,
04:26
but at least it can do the sorts of cognitive tasks
92
266930
2419
nhưng ít nhất nó có thể thực hiện
dạng nhiệm vụ đòi hỏi nhận thức mà mọi người có thể thực hiện.
04:29
that people can typically do.
93
269349
1877
04:31
CA: So talk about just the founding of DeepMind
94
271267
3003
Bây giờ, hãy đến với về sự thành lập của DeepMind
04:34
and the interplay between you and your cofounders.
95
274270
4046
và sự phối hợp giữa anh và những người đồng sáng lập.
04:38
SL: Right. So I went to London to the place called the Gatsby Unit,
96
278316
4004
Vâng. Tôi đi London, đến một nơi gọi là Đơn vị Gatsby,
04:42
which studies theoretical neuroscience and machine learning.
97
282362
5046
nghiên cứu về khoa học thần kinh lý thuyết và học máy.
04:47
And I was interested in learning the relationships
98
287450
2378
Và tôi quan tâm đến việc tìm hiểu mối quan hệ
04:49
between what we understand about the brain
99
289828
2043
giữa những gì chúng ta hiểu về bộ não và những gì chúng ta biết được từ máy học.
04:51
and what we know from machine learning.
100
291871
1877
04:53
So that seemed like a really good place.
101
293748
1960
Do đó, nó là một nơi thích hợp.
04:55
And I met Demis Hassabis there.
102
295708
1544
Và tôi đã gặp Demis Hassabis ở đó.
Anh ấy có cùng người hướng dẫn sau tiến sĩ với tôi,
04:57
He had the same postdoc supervisor as me,
103
297252
2002
04:59
and we got talking.
104
299295
1252
và chúng tôi nói chuyện.
05:00
And he convinced me
105
300588
2628
Và anh ấy làm tôi thuyết phục
05:03
that it was the time to start a company then.
106
303258
2252
rằng đã đến lúc để bắt đầu một công ty.
05:05
That was in 2009 we started talking.
107
305510
2669
Đó là năm 2009, chúng tôi bắt đầu nói chuyện.
05:08
And I was a little bit skeptical.
108
308221
1668
Và tôi từng hơi hoài nghi.
05:09
I thought AGI was still a bit too far away,
109
309889
3545
Tôi nghĩ AGI vẫn còn quá xa,
nhưng anh ấy nghĩ rằng thời điểm đã đến, nên chúng tôi quyết định thực hiện nó.
05:13
but he thought the time was right, so we decided to go for it.
110
313434
3421
05:16
And then a friend of his was Mustafa Suleyman.
111
316896
3170
Sau đó một người bạn của anh ấy là Mustafa Suleyman.
05:20
CA: And specifically, one of the goals of the company
112
320733
2503
Cụ thể hơn, một trong những mục tiêu của công ty
05:23
was to find a pathway to AGI?
113
323236
1835
là tìm ra con đường dẫn đến AGI?
05:25
SL: Absolutely.
114
325113
1334
Chắc chắn rồi.
05:26
On our first business plan that we were circulating
115
326447
3879
Trong kế hoạch kinh doanh đầu tiên mà chúng tôi phát hành
05:30
when we were looking for investors in 2010,
116
330368
3045
khi chúng tôi đang kêu gọi nhà đầu tư vào năm 2010,
05:33
it had one sentence on the front cover and it said,
117
333413
2586
trên trang bìa có một câu là,
“Xây dựng trí tuệ nhân tạo tổng quát đầu tiên trên thế giới.”
05:36
"Build the world's first artificial general intelligence."
118
336040
2711
05:38
So that was right in from the beginning.
119
338793
2669
Đó là thứ được đặt ra ngay từ đầu.
05:42
CA: Even though you knew
120
342046
1502
Mặc dù anh biết
05:43
that building that AGI might actually have
121
343590
4337
rằng việc xây dựng AGI có thể gây ra
05:47
apocalyptic consequences in some scenarios?
122
347969
2628
hậu quả nghiêm trọng trong một số viễn cảnh?
05:50
SL: Yeah.
123
350930
1210
Đúng vậy.
05:52
So it's a deeply transformative technology.
124
352181
4672
Tóm lại, đó là một công nghệ mang tính bước ngoặt sâu sắc.
05:57
I believe it will happen.
125
357437
1585
Tôi tin rằng nó sẽ đến.
05:59
I think that, you know,
126
359856
1251
Tôi nghĩ rằng,
06:01
these algorithms can be understood and they will be understood at the time.
127
361149
3754
những thuật toán này có thể được nắm rõ và chúng sẽ được nắm rõ sau một thời gian.
06:04
And I think that intelligence is fundamentally
128
364944
2962
Và tôi nghĩ rằng trí tuệ bản chất là
06:07
an incredibly valuable thing.
129
367906
1876
một thứ vô cùng giá trị.
Mọi thứ xung quanh ta lúc này -- tòa nhà chúng ta đang ở,
06:10
Everything around us at the moment -- the building we’re in,
130
370241
2836
06:13
the words I’m using, the concepts we have, the technology around us --
131
373077
3671
ngôn từ tôi đang sử dụng, những khái niệm chúng ta có, công nghệ quanh ta --
06:17
you know, all of these things are being affected by intelligence.
132
377540
3087
tất cả những thứ này đều chịu tác động bởi trí tuệ.
06:20
So having intelligence in machines
133
380668
2878
Vì vậy, việc máy móc có trí tuệ là một thứ vô cùng đáng giá để phát triển.
06:23
is an incredibly valuable thing to develop.
134
383588
3879
06:27
And so I believe it is coming.
135
387467
2002
Vậy nên tôi tin rằng nó đang đến.
06:29
Now when a very, very powerful technology arises,
136
389510
4130
Bây giờ khi một công nghệ rất, rất quyền năng xuất hiện,
06:33
there can be a range of different outcomes.
137
393640
2627
có thể dẫn đến rất nhiều các kết quả khác nhau.
06:36
Things could go very, very well,
138
396309
1918
Mọi thứ có thể diễn ra rất, rất tốt,
06:38
but there is a possibility things can go badly as well.
139
398227
2586
nhưng cũng có khả năng mọi thứ sẽ trở nên tồi tệ.
06:40
And that was something I was aware of also from about 20 years ago.
140
400855
4963
Và đó là điều tôi đã nhận thức được từ khoảng 20 năm trước.
06:46
CA: So talk about, as DeepMind developed,
141
406319
3253
Thế thì, trong quá trình DeepMind phát triển,
06:49
was there a moment where you really felt,
142
409572
4296
có lúc nào bạn thực sự cảm thấy,
06:53
"My goodness, we're onto something unbelievably powerful?"
143
413910
3628
“Chúa ơi, chúng ta sắp chạm đến thứ gì đó với một sức mạnh khó tin?”
06:57
Like, was it AlphaGo, that whole story, or what was the moment for you?
144
417580
4296
Liệu đó là AlphaGo, toàn bộ câu chuyện
hay khoảnh khắc nào khác, với anh?
07:01
SL: Yeah, there were many moments over the years.
145
421918
2502
Vâng, đã có nhiều khoảnh khắc trong những năm qua.
07:04
One was when we did the Atari games.
146
424420
2211
Một là khi chúng tôi chơi mấy game Atari.
07:07
Have you seen those videos
147
427131
1252
Anh đã xem những video
07:08
where we had an algorithm that could learn to play multiple games
148
428424
3420
mà ta có một thuật toán có thể học cách chơi nhiều game
07:11
without being programmed for any specific game?
149
431844
2253
mà không cần lập trình cho trò chơi cụ thể nào chưa?
07:14
There were some exciting moments there.
150
434138
3295
Có một số khoảnh khắc thú vị ở đó.
07:17
Go, of course, was a really exciting moment.
151
437433
2586
Go, tất nhiên, là một khoảnh khắc thực sự thú vị.
07:20
But I think the thing that's really captured my imagination,
152
440937
3754
Nhưng tôi nghĩ điều thực sự cuốn hút trí tưởng tượng của tôi,
07:24
a lot of people's imagination,
153
444732
1460
trí tưởng tượng của rất nhiều người,
07:26
is the phenomenal scaling of language models in recent years.
154
446192
3253
là sự mở rộng phi thường của các mô hình ngôn ngữ trong những năm gần đây.
07:29
I think we can see they're systems
155
449821
1960
Tôi nghĩ ta có thể thấy đó là những hệ thống
07:31
that really can start to do some meaningful fraction
156
451781
3670
có thể thực sự bắt đầu thực hiện một phần
07:35
of the cognitive tasks that people can do.
157
455493
2377
các nhiệm vụ nhận thức mà con người có thể làm.
07:37
CA: Now, you were working on those models,
158
457912
2002
Hiện tại, anh đang phát triển những mô hình đó,
07:39
but were you, to some extent, blindsided
159
459914
1960
nhưng anh có, ở một mức độ, bị bất ngờ
07:41
by OpenAI's, sort of, sudden unveiling of ChatGPT?
160
461874
5923
bởi sự ra mắt đột ngột của ChatGPT của OpenAI không?
07:47
SL: Right.
161
467839
1168
Vâng.
Chúng tôi đang phát triển chúng và bạn biết đấy,
07:49
We were working on them and you know,
162
469007
1835
07:50
the transformer model was invented in Google,
163
470842
2127
mô hình biến đổi được tạo ra bởi Google,
07:53
and we had teams who were building big transformer language models and so on.
164
473011
5296
và chúng tôi có các nhóm đang xây dựng các mô hình ngôn ngữ biến đổi lớn, v.v.
07:58
CA: Google acquired DeepMind at some point in this journey.
165
478683
3170
Google đã mua lại DeepMind đâu đó trong hành trình này.
08:01
SL: Yeah, exactly.
166
481894
1335
Vâng, chính xác.
08:03
And so what I didn't expect
167
483229
4046
Điều tôi không dự đoán
08:07
was just how good a model could get training purely on text.
168
487275
4713
là trình độ mà một mô hình có thể đạt đến nhờ đào tạo hoàn toàn dựa trên văn bản.
08:11
I thought you would need more multimodality.
169
491988
2711
Tôi nghĩ bạn sẽ cần sự đa phương thức hơn.
08:14
You'd need images, you'd need sound, you'd need video and things like that.
170
494741
3712
Bạn sẽ cần hình ảnh, bạn sẽ cần âm thanh, bạn sẽ cần video và tương tự.
08:18
But due to the absolutely vast quantities of text,
171
498494
3671
Nhưng do lượng văn bản rất khổng lồ,
08:22
it can sort of compensate for these things to an extent.
172
502206
2753
nó có thể bù đắp cho những phương diện này đến một mức độ.
08:25
I still think you see aspects of this.
173
505376
2628
Tôi vẫn nghĩ rằng bạn cũng thấy các khía cạnh này.
08:28
I think language models tend to be weak in areas
174
508004
3170
Tôi thấy các mô hình ngôn ngữ có xu thế bị yếu ở các phương diện
08:31
that are not easily expressed in text.
175
511174
3211
không dễ thể hiện bằng văn bản.
08:34
But I don’t think this is a fundamental limitation.
176
514385
2419
Nhưng tôi không nghĩ đây là một hạn chế về bản chất.
08:36
I think we're going to see these language models expanding into video
177
516804
4964
Tôi nghĩ chúng ta sẽ thấy các mô hình ngôn ngữ này mở rộng sang dạng video,
08:41
and images and sound and all these things,
178
521809
2211
hình ảnh và âm thanh và tất cả những thứ này,
08:44
and these things will be overcome in time.
179
524020
2044
và những điều này sẽ được khắc phục theo thời gian.
08:46
CA: So talk to us, Shane,
180
526564
1335
Shane, hãy chia sẻ
08:47
about the things that you, at this moment,
181
527940
2962
về những điều mà anh, vào lúc này,
08:50
passionately feel that the world needs to be thinking about more cogently.
182
530902
4754
đánh giá là thế giới cần phải suy nghĩ về một cách rành mạch hơn.
08:55
SL: Right.
183
535698
1168
Vâng.
08:56
So I think that very, very powerful,
184
536866
2628
Tôi nghĩ rằng dạng trí tuệ nhân tạo
08:59
very intelligent artificial intelligence is coming.
185
539535
3504
rất, rất quyền năng, và rất thông minh đang đến.
09:03
I think that this is very, very likely.
186
543498
2669
Tôi nghĩ rằng điều này rất khả thi.
09:06
I don't think it's coming today.
187
546209
1585
Tôi không nghĩ nó sẽ đến hôm nay.
09:07
I don't think it's coming next year or the year after.
188
547794
2544
Tôi không nghĩ nó sẽ đến vào năm sau hoặc năm kia.
09:10
It's probably a little bit further out than that.
189
550338
2419
Có lẽ là còn xa hơn chút nữa.
09:12
CA: 2028?
190
552799
1293
2028?
09:14
SL: 2028, that's a 50 percent chance.
191
554092
2293
2028, khả năng khoảng 50%.
09:16
So, you know, if it doesn't happen in 2028,
192
556385
2044
Nên, anh thấy đó, nếu nó chưa xuất hiện vào 2028,
09:18
I'm not going to be surprised, obviously.
193
558429
2002
cũng không phải bất ngờ. Hẳn rồi.
09:20
CA: And when you say powerful,
194
560473
1460
Và khi anh dùng từ "quyền năng",
09:21
I mean there's already powerful AI out there.
195
561933
2127
thì vốn đã có AI quyền năng ngoài kia rồi, nhưng cái anh đang nói là một phiên bản
09:24
But you're saying basically a version
196
564060
1793
09:25
of artificial general intelligence is coming.
197
565853
2127
trí tuệ nhân tạo tổng quát đang đến.
09:28
SL: Yeah.
198
568022
1126
Vâng.
09:29
CA: So give us a picture of what that could look like.
199
569190
2711
Hãy nói về viễn cảnh đó có thể trông như thế nào.
09:31
SL: Well, if you had an artificial general intelligence,
200
571901
2669
Ừm, nếu bạn có trí tuệ nhân tạo tổng quát,
09:34
you could do all sorts of amazing things.
201
574570
2419
bạn có thể làm đủ điều tuyệt vời.
09:37
Just like human intelligence is able to do many, many amazing things.
202
577031
3253
Giống như trí tuệ con người có thể làm được rất nhiều điều tuyệt vời.
09:40
So it's not really about a specific thing,
203
580326
2002
Như vậy, nó không phải là một thứ cụ thể,
09:42
that's the whole point of the generality.
204
582370
1960
đó chính là giá trị của tính tổng quát.
09:44
But to give you one example,
205
584330
1752
Một ví dụ là,
09:46
we developed the system AlphaFold,
206
586082
2335
chúng tôi đã phát triển hệ thống AlphaFold,
09:48
which will take a protein and compute, basically, the shape of that protein.
207
588459
5881
nó sẽ nhận một protein và phân tích hình dạng của protein đó.
09:54
And that enables you to do all sorts of research
208
594382
2627
Điều này cho phép bạn thực hiện các loại nghiên cứu
09:57
into understanding biological processes,
209
597009
1919
về các quá trình sinh học, nghiên cứu thuốc và những thứ tương tự.
09:58
developing medicines and all kinds of things like that.
210
598970
2586
Còn giờ, nếu bạn có một hệ thống AGI,
10:01
Now, if you had an AGI system,
211
601556
1459
10:03
instead of requiring what we had at DeepMind,
212
603057
2586
thay vì đòi hỏi nguồn lực của chúng tôi ở DeepMind,
10:05
about roughly 30 world-class scientists
213
605685
2919
với khoảng 30 nhà khoa học hàng đầu thế giới
10:08
working for about three years to develop that,
214
608604
2670
làm việc trong khoảng ba năm để tạo ra nó,
10:11
maybe you could develop that with just a team
215
611315
2127
có lẽ bạn có thể làm điều đó với một nhóm
10:13
of a handful of scientists in one year.
216
613442
2211
gồm vài nhà khoa học trong vòng một năm.
10:16
So imagine these, sort of, AlphaFold-level developments
217
616154
3753
Rồi, bạn tưởng tượng những bước tiến mức độ Alphafold thế này
10:19
taking place around the world on a regular basis.
218
619949
3212
diễn ra khắp thế giới một cách thường xuyên.
10:23
This is the sort of thing that AGI could enable.
219
623202
2503
Đây là khả năng mà AGI có thể mở ra.
10:25
CA: So within months of AGI being with us, so to speak,
220
625997
4045
Vậy thì trong vòng vài tháng từ khi AGI xuất hiện,
10:30
it's quite possible that some of the scientific challenges
221
630084
3087
rất có thể một số rào cản trong khoa học
10:33
that humans have wrestled with for decades, centuries, if you like,
222
633171
3962
mà con người đã phải vật lộn trong nhiều thập kỷ, thậm chí hàng thế kỷ,
10:37
will start to tumble in rapid succession.
223
637133
2961
sẽ dần sụp đổ nhanh chóng.
10:40
SL: Yeah, I think it'll open up all sorts of amazing possibilities.
224
640136
4129
Vâng, tôi nghĩ nó sẽ mở ra đủ loại tiềm năng to lớn.
10:44
And it could be really a golden age of humanity
225
644265
4212
Và nó thực sự có thể là một thời kỳ hoàng kim của nhân loại,
10:48
where human intelligence,
226
648519
1835
nơi trí tuệ con người,
10:50
which is aided and extended with machine intelligence,
227
650396
4379
được hỗ trợ và mở mang bằng trí tuệ nhân tạo,
10:54
enables us to do all sorts of fantastic things
228
654775
2461
cho phép chúng ta thực hiện đủ điều kỳ diệu
10:57
and solve problems that previously were just intractable.
229
657278
4922
và giải quyết các vấn đề trước đây nằm ngoài tầm kiểm soát.
Chúng ta hãy quay lại với vấn đề này.
11:02
CA: So let's come back to that.
230
662200
1501
11:03
But I think you also,
231
663743
1585
Tôi nghĩ rằng anh cũng không phải là một người lạc quan phi thực tế,
11:05
you're not like, an irredeemable optimist only,
232
665328
2252
11:07
you see a potential for it to go very badly in a different direction.
233
667622
3920
mà anh thấy được khả năng nó phát triển theo hướng thực sự tồi tệ.
11:11
Talk about what that pathway could look like.
234
671542
2711
Hãy nói về việc hướng đi đó có thể trông như thế nào.
11:14
SL: Well, yeah, I want to explain.
235
674253
1961
Ồ, vâng, tôi cũng muốn làm rõ là,
Tôi không đồng tình với những người
11:17
I don't believe the people
236
677048
1585
11:18
who are sure that it's going to go very well,
237
678674
2253
chắc chắn rằng mọi thứ sẽ diễn ra rất tốt đẹp,
11:20
and I don't believe the people
238
680968
1460
và tôi không đồng tình với những người
11:22
who are sure that it’s going to go very, very badly.
239
682428
2461
chắc chắn rằng sự việc sẽ trở nên rất, rất tệ.
11:24
Because what we’re talking about is an incredibly profound transition.
240
684889
4046
Bởi vì những gì chúng ta đang nói đến là một quá trình chuyển đổi vô cùng sâu sắc.
11:29
It's like the arrival of human intelligence in the world.
241
689352
3211
Nó giống như sự xuất hiện của trí tuệ nhân loại trên thế giới.
11:32
This is another intelligence arriving in the world.
242
692605
2961
Đây là một dạng trí tuệ khác đến với thế giới.
11:35
And so it is an incredibly deep transition,
243
695608
3045
Và đây là quá trình chuyển đổi vô cùng sâu sắc,
11:38
and we do not fully understand all the implications
244
698653
3128
mà chúng ta chưa thể hiểu hết toàn bộ tác động
11:41
and consequences of this.
245
701781
1585
và hậu quả của nó.
11:43
And so we can't be certain
246
703407
1418
Và vì vậy chúng ta không thể chắc chắn
11:44
that it's going to be this, that or the other thing.
247
704867
2461
rằng nó sẽ thành cái này, cái kia hay cái khác nữa.
11:47
So we have to be open-minded about what may happen.
248
707328
3211
Vì vậy, chúng ta phải cởi mở đón nhận những gì có thể xảy ra.
11:51
I have some optimism because I think
249
711332
1919
Tôi khá lạc quan vì tôi nghĩ
11:53
that if you want to make a system safe,
250
713251
3086
rằng nếu bạn muốn đảm bảo hệ thống an toàn,
11:56
you need to understand a lot about that system.
251
716379
2669
bạn cần rất nhiều thông tin về hệ thống đó.
11:59
You can't make an airplane safe
252
719090
1668
Bạn không thể làm một chiếc máy bay an toàn
12:00
if you don't know about how airplanes work.
253
720800
2627
nếu bạn không hiểu cách máy bay hoạt động.
12:03
So as we get closer to AGI,
254
723761
2252
Vậy nên khi chúng ta tiến gần hơn đến AGI,
12:06
we will understand more and more about these systems,
255
726055
2502
chúng ta sẽ càng hiểu hơn những hệ thống này
12:08
and we will see more ways to make these systems safe,
256
728557
3003
và chúng ta sẽ có càng nhiều cách để làm cho các hệ thống này an toàn,
12:11
make highly ethical AI systems.
257
731560
2712
tạo ra các hệ thống AI có tính đạo đức cao.
12:15
But there are many things we don't understand about the future.
258
735064
3587
Nhưng còn rất nhiều điều chúng ta không biết về tương lai.
12:18
So I have to accept that there is a possibility that things may go badly
259
738693
5297
Vì vậy, tôi cũng chấp nhận khả năng mọi thứ có thể diễn ra tồi tệ
12:23
because I don't know what's going to happen.
260
743990
2085
vì tôi không biết điều gì sẽ xảy ra.
12:26
I can't know that about the future in such a big change.
261
746117
3336
Tôi không thể biết được trong một tương lai có sự thay đổi lớn như thế.
12:29
And even if the probability of something going bad is quite small,
262
749453
4839
Và kể cả khi xác suất thứ gì đó trở nên tồi tệ là khá nhỏ,
12:34
we should take this extremely seriously.
263
754333
2378
chúng ta nên thực sự xem xét khả năng này.
12:36
CA: Paint a scenario of what going bad could look like.
264
756711
2877
Thế hãy hình dung một kịch bản tồi tệ có thể trông như nào.
12:39
SL: Well, it's hard to do
265
759630
1710
Chà, thực sự khá là khó
12:41
because you're talking about systems
266
761382
1752
vì anh đang nói về các hệ thống
12:43
that potentially have superhuman intelligence, right?
267
763134
3503
có thể sở hữu trí tuệ siêu phàm, nhỉ?
12:46
So there are many ways in which things would go bad in the world.
268
766637
4463
Có nhiều cách để mọi thứ phát triển một cách tồi tệ trên thế giới.
12:51
People sometimes point to, I don't know, engineered pathogens, right?
269
771142
3295
Mọi người hay nhắc đến, tôi không rõ nữa, mầm bệnh nhân tạo, nhỉ?
12:54
Maybe a superintelligence could design an engineered pathogen.
270
774437
3753
Có lẽ một siêu trí tuệ có thể tạo ra một tác nhân gây bệnh.
12:58
It could be much more mundane things.
271
778190
2253
Nó cũng có thể là những thứ đơn giản hơn nhiều.
13:00
Maybe with AGI, you know,
272
780484
2545
Có lẽ với AGI, bạn biết đấy,
13:03
it gets used to destabilize democracy in the world,
273
783070
4588
nó có thể thành công cụ gây mất ổn định cho nền dân chủ trên thế giới,
13:07
with, you know, propaganda or all sorts of other things like that.
274
787700
3128
thông qua tuyên truyền chính trị hoặc những thứ tương tự vậy.
13:10
We don't know --
275
790870
1168
Chúng tôi không biết --
Cái này có thể đã xảy ra rồi.
13:12
CA: That one might already have happened.
276
792079
2002
[Cười]
Có lẽ đã và đang xảy ra rồi. Nhưng có thể có nhiều thứ như thế hơn nữa,
13:14
SL: There might be happening a bit already.
277
794081
2002
13:16
But, you know, there may be a lot more of this
278
796125
2169
nếu chúng ta có các hệ thống quyền năng hơn.
13:18
if we have more powerful systems.
279
798294
1626
13:19
So there are many ways in which societies can be destabilized.
280
799920
2920
Vì vậy, có nhiều cách để gây mất ổn định cho xã hội.
13:22
And you can see that in the history books.
281
802882
2043
Và bạn có thể thấy điều đó trong sách sử.
13:24
CA: I mean, Shane, if you could have asked all humans,
282
804967
2544
Này, Shane, giả sử anh có thể hỏi tất cả mọi người,
13:27
say, 15 years ago, OK, we can open a door here,
283
807511
4338
ví dụ, vào 15 năm trước, rằng OK, chúng ta có thể mở cánh cửa này,
13:31
and opening this door could lead to the best-ever outcomes for humanity.
284
811891
3670
và mở cánh cửa này có thể dẫn đến những hệ quả tốt nhất với nhân loại.
13:35
But there's also a meaningful chance,
285
815603
1793
Nhưng cũng có một nguy cơ,
13:37
let's say it's more than five percent,
286
817396
2544
giả sử nó lớn hơn 5%,
13:39
that we could actually destroy our civilization.
287
819982
2753
là chúng ta hủy diệt luôn nền văn minh loài người.
13:43
I mean, isn't there a chance that most people would have actually said,
288
823235
3337
Thế thì, hoàn toàn có thể là mọi người sẽ nói,
13:46
"Don't you dare open that damn door.
289
826614
1752
“Đừng có mà mở cánh cửa chết tiệt đó. Chờ đã."
13:48
Let's wait."
290
828407
1168
13:50
SL: If I had a magic wand and I could slow things down,
291
830326
4087
Nếu tôi có một chiếc đũa phép và tôi có thể làm chậm mọi thứ lại,
13:54
I would use that magic wand, but I don't.
292
834455
2336
tôi sẽ dùng cây đũa phép đó,
nhưng mà tôi chẳng có.
13:56
There are dozens of companies,
293
836791
1835
Có hàng tá công ty,
13:58
well, there's probably 10 companies in the world now
294
838626
2461
thật ra là khoảng 10 công ty trên thế giới hiện tại
14:01
that can develop the most cutting-edge models, including, I think,
295
841087
4421
có thể phát triển các mô hình tiên tiến nhất,
tính luôn cả, tôi nghĩ là,
14:05
some national intelligence services who have secret projects doing this.
296
845508
4087
một số cơ quan tình báo quốc gia với các dự án tuyệt mật liên quan đến việc này.
14:10
And then there's, I don't know,
297
850262
1502
Và còn có, tôi không chắc,
14:11
dozens of companies that can develop something that's a generation behind.
298
851764
3503
hàng tá công ty có thể phát triển những thứ có công nghệ kém hơn một đời.
14:15
And remember, intelligence is incredibly valuable.
299
855267
3379
Phải biết rằng, trí tuệ vô cùng có giá trị.
14:18
It's incredibly useful.
300
858687
1168
Nó cực kỳ hữu ích.
14:19
We're doing this
301
859855
1168
Chúng tôi đang theo đuổi nó
14:21
because we can see all kinds of value that can be created in this
302
861065
3086
vì chúng tôi thấy được đủ loại giá trị có thể được tạo ra
14:24
for all sorts of reasons.
303
864151
1752
dựa trên nhiều lý do.
14:25
How do you stop this process?
304
865903
2836
Làm sao để dừng lại quá trình này?
14:28
I don't see any realistic plan that I've heard of,
305
868781
2836
Tôi không thấy phương án khả dĩ nào để dừng lại quá trình này.
14:31
of stopping this process.
306
871659
1209
14:32
Maybe we can --
307
872868
1210
Có lẽ chúng ta có thể --
14:34
I think we should think about regulating things.
308
874078
2294
Tôi nghĩ ta nên suy nghĩ về cách kiểm soát chúng.
14:36
I think we should do things like this as we do with every powerful technology.
309
876414
3670
Tôi nghĩ chúng ta nên làm những gì ta làm đối với mọi công nghệ quyền năng.
14:40
There's nothing special about AI here.
310
880084
1877
Không có gì đặc biệt hơn về AI cả.
14:41
People talk about, oh, you know, how dare you talk about regulating this?
311
881961
3462
Mọi người nói là, ồ,
sao bạn có thể nói về việc kiểm soát thứ này?
Không đâu, con ngườỉ kiểm soát các công nghệ quyền năng mãi
14:45
No, we regulate powerful technologies all the time in the interests of society.
312
885464
3837
vì an nguy xã hội.
14:49
And I think this is a very important thing that we should be looking at.
313
889343
3420
Và tôi nghĩ đây là một vấn đề trọng yếu mà chúng ta nên xem xét.
14:52
CA: It's kind of the first time we have this superpowerful technology out there
314
892763
3754
Có thể nói đây là lần đầu tiên chúng ta có công nghệ siêu quyền năng này
14:56
that we literally don't understand in full how it works.
315
896559
3086
mà chúng ta không thực sự hiểu đầy đủ nó hoạt động như nào.
14:59
Is the most single, most important thing we must do, in your view,
316
899645
3921
Theo anh, có phải thứ quan trọng nhất, mà chúng ta phải làm,
15:03
to understand, to understand better what on Earth is going on,
317
903566
4671
là tìm hiểu, hiểu rõ hơn về những gì đang xảy ra trên Trái đất,
15:08
so that we least have a shot at pointing it in the right direction?
318
908279
3170
để ta có khả năng định hướng công nghệ này một cách đúng đắn?
15:11
SL: There is a lot of energy behind capabilities at the moment
319
911449
3294
Hiện có rất nhiều sự quan tâm cho những khả năng có thể được khai thác
15:14
because there's a lot of value in developing the capabilities.
320
914785
3045
bởi vì giá trị từ việc khai phá các khả năng của nó là rất lớn.
15:17
I think we need to see a lot more energy going into actual science,
321
917830
4504
Tôi nghĩ chúng ta cần dành nhiều tài nguyên hơn cho nghiên cứu khoa học,
15:22
understanding how these networks work,
322
922376
3128
để hiểu cách các mạng lưới này hoạt động,
những gì chúng đang thực hiện, những gì chúng không thực hiện được,
15:25
what they're doing, what they're not doing,
323
925504
2169
15:27
where they're likely to fail,
324
927715
1835
những mảng chúng có thể gặp thất bại
15:29
and understanding how we put these things together
325
929592
2419
và để hiểu cách kết hợp những thứ này lại
15:32
so that we're able to find ways
326
932011
2085
để chúng ta tìm được phương pháp
15:34
to make these AGI systems profoundly ethical and safe.
327
934138
4129
làm cho các hệ thống AGI thực sự có tính đạo đức và an toàn.
15:38
I believe it's possible.
328
938267
1793
Tôi tin điều này là có thể.
15:40
But we need to mobilize more people's minds and brains
329
940895
5505
Nhưng chúng ta cần huy động được tâm sức của nhiều người hơn
15:46
to finding these solutions
330
946442
2502
để tìm ra những giải pháp
15:48
so that we end up in a future
331
948986
1835
dẫn đến một tương lai mà con người
15:50
where we have incredibly powerful machine intelligence
332
950863
3962
sở hữu trí tuệ máy cực kỳ quyền năng
15:54
that's also profoundly ethical and safe,
333
954867
2836
và đồng thời có tính đạo đức và an toàn
15:57
and it enhances and extends humanity
334
957745
2753
và điều này sẽ nâng cao tầm vóc và mở ra cho con người
16:00
into, I think, a new golden period for humanity.
335
960539
4296
tôi nghĩ là, một thời hoàng kim mới của nhân loại.
16:05
CA: Shane, thank you so much for sharing that vision
336
965920
2460
Shane, cám ơn vì đã chia sẻ tầm nhìn đó và đến với TED.
16:08
and coming to TED.
337
968380
1210
Cám ơn! (Vỗ tay)
16:09
(Applause)
338
969590
1460
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7