Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

405,313 views ・ 2023-04-28

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Quỳnh Lê Thị Phương Reviewer: Gia Bảo Nguyễn
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Tôi đang rất phấn khích để chia sẻ một vài suy nghĩ thú vị về trí tuệ nhân tạo.
00:10
But first, let's get philosophical
1
10799
3044
Nhưng trước tiên, cùng học triết với tôi nhe
00:13
by starting with this quote by Voltaire,
2
13843
2545
bắt đầu với câu nói của Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
một triết gia Khai sáng của thế kỷ 18,
00:18
who said, "Common sense is not so common."
4
18682
2961
ông nói, “Hiểu biết thông thường không hẳn là thứ thông dụng.”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Để rồi giờ trích dẫn này bỗng hợp lí đến kinh ngạc
00:24
to artificial intelligence today.
6
24854
2169
khi ta nói về trí tuệ nhân tạo ngày nay.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Dù vậy, không thể phủ nhận AI quả là một thứ công cụ tối tân,
00:31
beating the world-class "Go" champion,
8
31027
2586
đã đánh bại nhà vô địch thế giới “Go” ,
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
tham gia kỳ thi tuyển sinh đại học và thậm chí vượt qua cả kì thi luật “Bar”.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Tôi đã là nhà khoa học máy tính suốt 20 năm qua,
00:40
and I work on artificial intelligence.
11
40579
2419
lĩnh vực của tôi là về trí tuệ nhân tạo.
00:43
I am here to demystify AI.
12
43039
2586
Tôi ở đây để làm sáng tỏ về AI.
00:46
So AI today is like a Goliath.
13
46626
3462
AI ngày nay giống như gã khổng lồ Goliath vậy.
00:50
It is literally very, very large.
14
50130
3003
Nó là một mảng rất, rất rộng.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Người ta đồn rằng AI gần đây nhất được huấn luyện lập trình bởi chục ngàn GPU
00:59
and a trillion words.
16
59389
2544
Và hàng nghìn tỷ từ.
01:02
Such extreme-scale AI models,
17
62475
2086
Có một mô hình trí tuệ nhân tạo quy mô lớn,
01:04
often referred to as "large language models,"
18
64603
3128
thường được gọi là “Mô hình ngôn ngữ khổng lồ,”
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
xuất hiện để định hình sức nóng của AGI,
01:11
artificial general intelligence.
20
71610
2627
gọi là trí tuệ tổng hợp nhân tạo.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Cho đến khi nó mắc những lỗi sai nhỏ nhặt và ngớ ngẩn
01:18
which it often does.
22
78158
1585
mà nó thường hay mắc.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Nhiều người tin rằng dù hiện tại AI có mắc lỗi đi chăng nữa
thì ta cũng có thể sửa nó dễ dàng bằng vũ lực
01:24
can be easily fixed with brute force,
24
84080
2002
01:26
bigger scale and more resources.
25
86124
2127
vời quy mô và nguồn tài nguyên lớn hơn.
01:28
What possibly could go wrong?
26
88585
1960
Vậy thì cái sai ở đây là gì?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Có 3 thách thức ngay lập tức mà chúng ta phải đối mặt ở quy mô xã hội.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Đầu tiên, các mô hình AI quy mô lớn có chi phí đào tạo rất đắt đỏ
01:44
and only a few tech companies can afford to do so.
29
104059
3461
và chỉ có một vài công ty công nghệ đủ khả năng làm điều đó.
01:48
So we already see the concentration of power.
30
108104
3796
Nên là ta thấy đó, quả là một sự tập trung quyền lực không hề nhẹ
01:52
But what's worse for AI safety,
31
112817
2503
Nhưng điều tệ hơn về tính an toàn của AI là,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
chúng ta bây giờ đang phụ thuộc vào số ít các công ty công nghệ
01:59
because researchers in the larger community
33
119115
3796
do các nhà nghiên cứu tại các cộng đồng lớn hơn
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
không đủ nguồn lực để quan sát và tháo lắp những mô hình này.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
Và đừng quên lượng khí thải carbon khổng lồ
02:12
and the environmental impact.
36
132295
1919
và sự tác động tới môi trường.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Và cũng có nhiều câu hỏi thêm khá thông minh về AI thế này.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
Liệu AI, kể cả khi không có trực giác, có thật sự an toàn cho nhân loại?
02:24
And is brute-force scale really the only way
39
144307
4463
Và liệu việc sử dụng vũ lực có phải là cách duy nhất
02:28
and even the correct way to teach AI?
40
148812
2919
và cũng là cách chuẩn nhất để dạy dỗ AI?
02:32
So I’m often asked these days
41
152232
1668
Mấy nay tôi hay được hỏi là
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
Liệu có khả thi không khi ta cứ thế nghiên cứu
02:36
without extreme-scale compute.
43
156569
1961
mà không cần lường đến tính quy mô của nó.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
Tôi đang làm tại 1 trường Đại Học và 1 tổ chức phi lợi nhuận,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
nên tôi không thể nào xây được một trại GPU đủ lớn
nhằm tạo ra những mô hình ngôn ngữ khổng lồ được.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Tuy nhiên, tôi tin vẫn còn nhiều thứ mà ta cần làm
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
và có thể làm để khiến AI trở nên ổn định và có tình người.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
Chúng ta cần làm AI nhỏ hơn, để dân chủ hóa nó.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
Ta cần làm AI an toàn hơn, bằng cách dạy chúng các chuẩn mực và giá trị con người
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Có lẽ ta nên lấy câu chuyện “David và gã khổng lồ Goliath” làm ví dụ,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
ở đó, Goliath chính là những mô hình ngôn ngữ khổng lồ,
và lấy cảm hứng từ cuốn sách kinh điển “Binh pháp Tôn Tử”,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
03:21
which tells us, in my interpretation,
53
201156
2419
trong đó có nói, theo tôi nhớ thôi nhé,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
Biết mặt kẻ thù, chọn lựa trận chiến, và cải tiến vũ khí.
03:28
Let's start with the first, know your enemy,
55
208163
2669
Bắt đầu với câu đầu tiên, biết mặt kẻ thù
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
điều đó có nghĩa là là ta cần phải đánh giá AI một cách kĩ càng
03:35
AI is passing the bar exam.
57
215044
2169
AI vừa đỗ kì thi Bar rồi đấy.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
Vậy điều đó có nghĩa là AI có trực giác đúng không?
03:41
You might assume so, but you never know.
59
221342
2795
cứ cho là vậy đi, nhưng đố ai mà biết được.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Gỉa sử tôi lấy năm cái áo ra phơi khô dưới ánh nắng mặt trời,
03:48
and it took them five hours to dry completely.
61
228600
3003
và chúng mất năm tiếng để khô hoàn toàn.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
Vậy mất bao lâu để làm khô 30 bộ quần áo?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4, hệ thống AI tân tiến nhất cho kết quả là 30 giờ
03:59
Not good.
64
239694
1502
thấy chưa đủ tốt hả.
04:01
A different one.
65
241196
1167
Thử ví dụ khác nhé.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
Tôi có bình 12 lít và bình 6 lít,
04:04
and I want to measure six liters.
67
244741
1626
và tôi muốn đo bình 6 lít
04:06
How do I do it?
68
246367
1252
Tôi làm sao giờ đây?
04:07
Just use the six liter jug, right?
69
247660
2002
Chỉ cần sử dụng bình sáu lít thôi, đúng không?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 sau đó cho ra vài kết quả rất vô nghĩa.
04:13
(Laughter)
71
253792
2919
(Tiếng cười)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Bước một, đổ đầy bình sáu lít,
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
bước hai, đổ nước từ bình sáu vào bình 12 lít
04:22
step three, fill the six-liter jug again,
74
262550
3087
bước ba, đổ đầy lại bình sáu lít,
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
bước bốn, cẩn thận đổ nước từ bình 6 vào lại bình 12 lít
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
Và cuối cùng bạn có sáu lít nước trong bình sáu lít
04:34
that should be empty by now.
77
274979
1460
mà đáng ra giờ nó đã chả còn 1 giọt.
04:36
(Laughter)
78
276439
1377
(Tiếng cười)
04:37
OK, one more.
79
277857
1126
Được rồi, một cái nữa.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
Liệu tôi có bị xì lốp khi đạp xe qua cái cầu
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
mà trên đó toàn là đinh, vít rồi cả mảnh kính vỡ không?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Có, rất có thể, GPT-4 cho biết,
04:51
presumably because it cannot correctly reason
83
291454
2378
đơn thuần là do nó không thể suy luận được
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
rằng nếu trên cầu toàn những chiếc đinh gãy và kính vỡ,
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
thì bề mặt cầu sẽ không tiếp xúc trực tiếp với những vật nhọn kia.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Ok, giờ bạn thấy sau về anh chàng luật sư AI đã đổ kì thi Bar
05:08
yet randomly fails at such basic common sense?
87
308429
3546
nhưng lại thất bại trong việc giải đáp một vấn đề quá cơ bản như thế?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
AI ngày nay thông minh đến kinh ngạc,
nhưng cũng ngớ ngẩn đến bất ngờ
05:18
(Laughter)
89
318898
1418
(Tiếng cười)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
Đó là tác dụng phụ không thể tránh khỏi của việc dạy dỗ AI bằng vũ lực.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Người lạc quan thì cho là, “Đừng quá lo lắng về nó.
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
Tất cả điều này có thể dễ dàng khắc phục bằng cách bổ sung vài ví dụ tương tự
05:33
as yet more training data for AI."
93
333663
2753
và nhiều dữ liệu đào tạo hơn cho AI.”
05:36
But the real question is this.
94
336916
2044
Nhưng câu hỏi thực ra là thế này.
05:39
Why should we even do that?
95
339460
1377
Ta làm thế để làm gì?
05:40
You are able to get the correct answers right away
96
340879
2836
Bạn có thể có câu trả lời chính xác ngay lập tức
05:43
without having to train yourself with similar examples.
97
343715
3295
mà không cần phải rèn luyện bản thân với những ví dụ tương tự.
05:48
Children do not even read a trillion words
98
348136
3378
Lũ trẻ thậm chí không cần đọc tới một nghìn tỷ từ
05:51
to acquire such a basic level of common sense.
99
351556
3420
chỉ để đạt đến một mức độ cơ bản như vậy về trực giác.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Quan sát này cũng dẫn ta đến yếu tố tiếp theo,
05:58
choose your battles.
101
358146
1710
chọn lựa trận chiến
06:00
So what fundamental questions should we ask right now
102
360148
4421
Vậy những câu hỏi cơ bản mà ta cần hỏi bây giờ
06:04
and tackle today
103
364569
1918
và giải quyết ngay hôm nay
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
nhằm giải quyết hiện trạng của AI quy mô lớn này là gì?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Tôi nói trực giác là một trong những ưu tiên hàng đầu.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
Trực giác là một thách thức sừng sững về AI
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Để giải thích, tôi sẽ thử lấy vật chất tối làm ví dụ
06:23
So only five percent of the universe is normal matter
108
383796
2878
Chỉ có 5% của vũ trụ là vật chất thông thường
06:26
that you can see and interact with,
109
386716
2794
mà bạn có thể thấy và tương tác,
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
còn 95% còn lại là vật chất tối và năng lượng tối
06:34
Dark matter is completely invisible,
111
394390
1835
Vật chất tối hoàn toàn vô hình,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
nhưng các nhà khoa học cho rằng nó tồn tại để tạo ảnh hưởng đến thế giới hữu hình,
06:40
even including the trajectory of light.
113
400897
2627
bao gồm cả quỹ đạo ánh sáng.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Với ngôn ngữ, vật chất thông thường chính là những chữ viết,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
còn vật chất tối là những quy tắc bất thành văn về cách thế giới vận hành,
06:51
including naive physics and folk psychology,
116
411574
3212
bao gồm cả “vật lý ngây thơ” và “tâm lý học dân gian,”
06:54
which influence the way people use and interpret language.
117
414827
3546
nó ảnh hưởng đến cách mọi người sử dụng và giải thích ngôn ngữ.
06:58
So why is this common sense even important?
118
418831
2503
Vậy tại sao trực giác lại quan trọng?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
Thì, trong một thí nghiệm tưởng tượng nổi tiếng do Nick Bostrom đề xuất,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
AI được yêu cầu sản xuất và tối đa hóa các kẹp giấy.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
Và con AI đó quyết định giết con người nhằm tối ưu hóa nguồn tài nguyên bổ sung
07:19
to turn you into paper clips.
122
439769
2461
hòng biến bạn thành kẹp giấy.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
Bởi AI vốn không có chút hiểu biết cơ bản nào về cái gọi là giá trị nhân đạo.
07:29
Now, writing a better objective and equation
124
449070
3295
Giờ, kể cả bạn có viết và lập trình nó theo kiểu
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
bổ sung thêm lệnh: “Đừng hủy diệt loài người”
07:35
will not work either
126
455284
1210
cũng chả có tác dụng gì
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
bởi AI vẫn sẽ tiếp tục và giết hết tất cả cây cối,
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
nghĩ rằng điều đó hoàn toàn ổn.
07:42
And in fact, there are endless other things
129
462583
2002
Và trên thực tế, có vô số những thứ
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
AI rõ ràng là không được làm trong lúc tối đa hóa mấy cái kẹp giấy,
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
bao gồm: “Không lan truyền tin giả,” “Không ăn cắp,” “Không nói dối,”
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
tất cả đều là 1 phần trong sự hiểu biết của chúng ta về cách thế giới vận hành.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
Dẫu vậy, mảng AI trong suốt thập kỉ qua đã coi trực giác
08:00
as a nearly impossible challenge.
134
480810
2753
như một điều gần như không thể.
08:03
So much so that when my students and colleagues and I
135
483563
3837
Tuyệt vọng đến mức khi các sinh viên, đồng nghiệp và cả tôi
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
bắt đầu làm về vấn đề này cách đây vài năm, chúng tôi đã từng rất nản.
Chúng tôi biết là chủ đề này đã từng được nghiên cứu vào những năm 70 80;
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
08:14
shouldn’t work on it because it will never work;
138
494490
2419
không nên nghiên cứu vì nó không thể thành công đâu;
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
trên thực tế, nghiên cứu này còn chả được đầu tư nghiêm túc
08:20
Now fast forward to this year,
140
500329
2128
Rồi, đi nhanh tới năm nay,
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
Tôi nghe là: “Đừng làm việc nữa vì ChatGPT gần như làm được hết rồi.”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
Rồi nào là “Chỉ cần mở rộng thôi và phép màu sẽ xuất hiện,
08:29
and nothing else matters.”
143
509338
1794
không còn vấn đề gì nữa.”
08:31
So my position is that giving true common sense
144
511174
3545
Vai trò của tôi đó là đưa ra những nhận định đúng
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
robot giống con người với AI là trực giác, vẫn còn khó lắm.
08:38
And you don’t reach to the Moon
146
518514
1502
Và đâu ai đi lên mặt trăng
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
bằng cách làm cho tòa nhà cao nhất thế giới cao hơn từng inch một.
08:44
Extreme-scale AI models
148
524270
1460
Các mô hình AI quy mô lớn
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
đang dần tích lũy thêm lượng kiến thức tổng quát,
08:48
I'll give you that.
150
528983
1168
Tôi nói thế đấy.
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
Nhưng như ta thấy, chúng vẫn có lúc trầy trật trước những vấn đề quá đổi tầm thường
08:54
that even children can do.
152
534489
2419
thậm chí trẻ con còn làm được.
08:56
So AI today is awfully inefficient.
153
536908
3879
Vậy nên, AI ngày nay cực kỳ kém hiệu quả.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
Và liệu có cách thay thế hay cách nào đó mà ta chưa khám phá ra không?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Một cách để xây dựng mạng lưới thần kinh sâu sắc và tối tân,
09:09
but without going so extreme with the scale.
156
549378
2712
mà không cần phải mở rộng quy mô.
09:12
So this leads us to our final wisdom:
157
552465
3170
Và điều này dẫn ta đến yếu tố cuối cùng:
09:15
innovate your weapons.
158
555635
1710
cải tiến vũ khí.
09:17
In the modern-day AI context,
159
557345
1668
Trong bối cảnh AI hiện đại,
09:19
that means innovate your data and algorithms.
160
559055
3086
thì nó có nghĩa là đổi mới dữ liệu và thuật toán của bạn.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
OK, đại khái là có ba loại dữ liệu
09:24
that modern AI is trained on:
162
564852
1961
nhằm huấn luyện AI:
09:26
raw web data,
163
566813
1376
dữ liệu web thô,
09:28
crafted examples custom developed for AI training,
164
568231
4462
các ví dụ thủ công được phát triển tùy chỉnh để đào tạo AI,
09:32
and then human judgments,
165
572735
2044
rồi cả sự phán xét của con người,
09:34
also known as human feedback on AI performance.
166
574821
3211
hay còn gọi là phản hồi của con người về hiệu suất AI.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
Nếu AI chỉ được huấn luyện với loại đầu tiên, dữ liệu web thô,
09:42
which is freely available,
168
582078
1710
thứ vốn được cung cấp miễn phí,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
điều đó không tốt vì nguồn dữ liệu này đầy sự phân biệt chủng tộc và giới tính
09:48
and misinformation.
170
588584
1126
cả thông tin sai lệch nữa.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Vậy nên vấn đề không phải là bạn dùng bao nhiêu, rác thì vẫn là rác.
09:54
So the newest, greatest AI systems
172
594507
2794
Các hệ thống AI mới và tốt nhất
09:57
are now powered with the second and third types of data
173
597343
3337
chủ yếu được chạy bởi loại dữ liệu thứ 2 và thứ 3
10:00
that are crafted and judged by human workers.
174
600680
3378
được tạo ra và đánh giá bởi chính những con người.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
Nó giống như viết sách giáo khoa chuyên ngành cho AI nghiên cứu vậy
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
và sau đó thuê người dạy kèm để phản hồi liên tục về AI.
10:15
These are proprietary data, by and large,
177
615027
2461
Đây là những dữ liệu độc quyền, lớn và đa dạng,
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
được đồn đoán có giá hàng chục triệu đô la.
10:20
We don't know what's in this,
179
620908
1460
Ta không biết trong đó có gì.
10:22
but it should be open and publicly available
180
622410
2419
nhưng nó nên được để mở và công khai
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
để ta có thể kiểm tra và đảm bảo các chuẩn mực cũng như giá trị ấy đủ đa dạng.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Vì lý do này, 2 đội của tôi ở UW và AI2
10:32
have been working on commonsense knowledge graphs
183
632628
2461
đã và đang làm việc trên các biểu đồ tri giác
10:35
as well as moral norm repositories
184
635089
2086
lẫn kho chuẩn mực đạo đức
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
nhằm dạy dỗ AI về những chuẩn mực và đạo đức cơ bản.
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
Dữ liệu hoàn toàn mở để bất kỳ ai cũng có thể kiểm tra nội dung
10:44
and make corrections as needed
187
644473
1502
và chỉnh sửa khi cần thiết
10:45
because transparency is the key for such an important research topic.
188
645975
4171
bởi vì tính minh bạch chính là chìa khóa trong chủ đề nghiên cứu quan trọng này.
10:50
Now let's think about learning algorithms.
189
650646
2545
Giờ hãy nghĩ về việc học các thuật toán.
10:53
No matter how amazing large language models are,
190
653733
4629
Không quan trọng ngôn ngữ lập trình tuyệt vời đến đâu,
10:58
by design
191
658404
1126
về thiết kế
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
chúng có thể không phù hợp để đóng vai trò là những mô hình tri thức đáng tin cậy.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
Và những mô hình ngôn ngữ này thu được một lượng lớn kiến thức,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
nhưng chúng coi đó là 1 sản phẩm phụ hơn là học một cách trực tiếp.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Hậu quả là các tác dụng phụ như ảo giác
11:18
and lack of common sense.
196
678841
2002
và thiếu trực giác.
11:20
Now, in contrast,
197
680843
1210
Bây giờ, ngược lại,
11:22
human learning is never about predicting which word comes next,
198
682053
3170
việc học của con người không phải là đi dự đoán xem sẽ có từ gì,
11:25
but it's really about making sense of the world
199
685223
2877
mà là tìm hiểu về ý nghĩa thật sự của thế giới
và học về cách mà thế giới vận hành.
11:28
and learning how the world works.
200
688142
1585
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Có lẽ AI cũng nên được dạy theo cách đó.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Vậy nên, như một nghĩa vụ hòng hướng tới việc tiếp thu kiến thức trực quan hơn,
11:39
my team has been investigating potential new algorithms,
203
699195
3879
nhóm của tôi đang nghiên cứu các thuật toán mới đầy tiềm năng,
11:43
including symbolic knowledge distillation
204
703115
2628
bao gồm cả chắt lọc các kiến thức tượng trưng
11:45
that can take a very large language model as shown here
205
705743
3795
có thể lấy một mô hình ngôn ngữ rất lớn như trên đây
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
tôi không để vừa màn hình được bởi nó lớn quá,
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
rồi nghiền nó lại thành 1 mô hình nhỏ hơn
11:58
using deep neural networks.
208
718214
2252
dùng mạng lưới thần kinh sâu.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Làm như vậy, ta cũng sẽ tạo ra thuật toán, người khác có thể xem.
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
đặc trưng, khả năng diễn đạt kiến thức thông thường,
12:09
so that people can inspect and make corrections
211
729141
2211
để mọi người có thể kiểm tra và sửa chữa
12:11
and even use it to train other neural commonsense models.
212
731394
3545
và thậm chí sử dụng nó để đào tạo các mô hình thần kinh tri giác khác.
12:15
More broadly,
213
735314
1210
Rộng hơn,
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
chúng tôi đã giải được câu đố tưởng chừng như bất khả thi này
12:21
of common sense, ranging from physical,
215
741237
2669
của trực giác, từ thể chất,
12:23
social and visual common sense
216
743906
2169
khả năng xã hội và nhìn nhận
12:26
to theory of minds, norms and morals.
217
746117
2419
đến thuyết duy tâm, chuẩn mực và đạo đức.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Từng mảnh riêng lẻ có vẻ hơi kì và không hoàn thiện,
12:32
but when you step back,
219
752415
1585
nhưng khi bạn lùi lại,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
thì như thể những mảnh ghép này đan lại với nhau thành một tấm thảm
12:38
that we call human experience and common sense.
221
758504
3045
mà ta hay gọi là trải nghiệm và trực giác con người
12:42
We're now entering a new era
222
762174
1961
Chúng ta hiện đang bước vào 1 kỷ nguyên mới
12:44
in which AI is almost like a new intellectual species
223
764176
5923
tại đó AI như một chủng loài với trí tuệ riêng
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
với những điểm mạnh và điểm yếu độc đáo so với con người.
12:54
In order to make this powerful AI
225
774478
3546
Nhằm tạo ra những AI tối tân
12:58
sustainable and humanistic,
226
778065
2336
ổn định và nhân văn,
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
chúng ta cần dạy cho AI những ý thức, chuẩn mực và giá trị chung.
13:04
Thank you.
228
784530
1376
Cảm ơn mọi người.
13:05
(Applause)
229
785906
6966
(Vỗ tay)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Coi kìa.
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, xin hãy ở lại một xíu.
13:18
This is so interesting,
232
798002
1418
Điều này thật thú vị,
13:19
this idea of common sense.
233
799462
2002
ý tưởng về tri giác này.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Chúng tôi rất mong chờ vào những tiến triển sắp tới.
13:25
But help me understand.
235
805926
1168
Nhưng hãy giải đáp cho tôi xíu nhé.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Kiểu, ta có mô hình của một đứa trẻ đang học
13:31
How does a child gain common sense
237
811599
3044
Vậy thì làm sao để mà đứa trẻ đó có tri giác
13:34
apart from the accumulation of more input
238
814685
3545
ngoài việc tích lũy thêm kiến thức bên ngoài
13:38
and some, you know, human feedback?
239
818230
3045
và mấy thứ, kiểu như, phản hồi của con người?
13:41
What else is there?
240
821317
1293
Còn cách nào nữa không?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: Về cơ bản, vẫn còn nhiều thứ bị thiếu
13:45
but one of them is, for example,
242
825613
1918
nhưng một trong số đó là, ví dụ như,
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
khả năng đưa ra giả thuyết và thực hiện các thí nghiệm,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
tương tác với thế giới và phát triển cái giả thuyết đó.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
Chúng ta trừu tượng hóa các khái niệm về cách thế giới vận hành,
13:59
and then that's how we truly learn,
246
839835
2044
và đó là cách chúng ta thực sự học,
14:01
as opposed to today's language model.
247
841921
3003
trái ngược với các mô hình ngôn ngữ ngày nay.
14:05
Some of them is really not there quite yet.
248
845424
2795
Vài trong số chúng vẫn chưa hoàn thiện.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
Cô đã ví dụ là ta không thể đi lên Mặt Trăng
bằng cách xây thêm tầng cho toà nhà rồi đi lên từng bước một.
14:12
by extending a building a foot at a time.
250
852014
2544
14:14
But the experience that most of us have had
251
854558
2044
Nhưng theo trải nghiệm của hầu hết mọi người
14:16
of these language models is not a foot at a time.
252
856602
2336
mô hình ngôn ngữ này không phải là đi lên từng bước một.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
Nó giống như là một bước đi thần tốc thì đúng hơn.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Cô có chắc là với tốc độ phát triển như hiện tại
14:25
each next level seems to be bringing with it
255
865319
2711
từng bước tiến nhỏ đó đang mang theo
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
những loại hình nhận thức như độ khôn và tri thức
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Tôi phải thừa nhận là việc mở rộng quy mô
14:38
really enhances the performance across the board.
258
878124
3670
thực sự làm tăng hiệu suất một cách đáng kể trên tất cả các lĩnh vực.
14:42
So there's real learning happening
259
882086
2544
Nên dĩ nhiên việc học hỏi là thật
14:44
due to the scale of the compute and data.
260
884630
4797
tùy vào quy mô của máy tính và dữ liệu.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Tuy nhiên, chất lượng của việc học vẫn thiếu đi 1 số thứ để hoàn thiện.
14:53
And the thing is,
262
893681
1168
Và vấn đề là,
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
Chúng tôi vẫn chưa biết rằng mình đã đạt tới mức đó hay chưa
14:58
just by scaling things up.
264
898561
2335
nếu chỉ bằng cách nhân rộng mọi thứ lên.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
Và nếu ta không thể, thì câu hỏi “còn cách nào” liệu còn ý nghĩa gì?
15:05
And then even if we could,
266
905401
1877
Và thậm chí nếu chúng ta có thể,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
liệu chúng ta có thích ý tưởng về 1 mô hình AI quy mô lớn
15:12
that only a few can create and own?
268
912575
4337
mà chỉ số ít trong đó có thể chế tạo và tự sở hữu hay không?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Ý tôi là, OpenAI nói thế này, “Chúng tôi bị hấp dẫn bởi việc các bạn làm
bọn tôi muốn mọi người giúp cải thiện mô hình của chúng tôi,”
15:23
we would like you to help improve our model,"
270
923043
2837
15:25
can you see any way of combining what you're doing
271
925921
2670
Có cách nào kết hợp những gì bạn đang làm
15:28
with what they have built?
272
928632
1710
với những gì họ đang xây dựng không?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Đó cũng là điều tôi đang hình dung
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
ta sẽ xây dựng từ việc tăng cường mạng lưới thần kinh sâu.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
Và biết đâu lại có một vùng Goldilocks ở đâu đó
15:41
such that ...
276
941770
1168
như nãy đó...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
Tôi cũng không dám tưởng tượng là nhỏ hơn thì sẽ tốt hơn, kiểu vậy.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
Có thể việc mở rộng quy mô cũng hợp lí nếu vừa đủ, nhưng bên cạnh đó,
15:50
the winning recipe might be something else.
279
950696
2294
nguyên liệu của thành công có thể là một thứ gì đó khác.
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Vậy nên việc tổng hợp các ý tưởng lại biết đâu có thể tạo sự đột phá thì sao.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, cảm ơn rất nhiều vi bài diễn thuyết nhé.
16:00
(Applause)
282
960873
1585
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7