Jeff Dean: AI isn't as smart as you think -- but it could be | TED

253,387 views ・ 2022-01-12

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Anh Phạm Reviewer: Ly Nguyễn
00:13
Hi, I'm Jeff.
0
13329
1583
Xin chào, tôi là Jeff.
00:15
I lead AI Research and Health at Google.
1
15746
2833
Tôi đứng đầu mảng Nghiên cứu AI và Sức khỏe tại Google.
00:18
I joined Google more than 20 years ago,
2
18621
1875
Tôi gia nhập Google hơn 20 năm trước,
00:20
when we were all wedged into a tiny office space,
3
20538
3166
khi mà chúng tôi còn chen chúc trong một văn phòng chật hẹp,
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
tầng trên cửa hàng T-Mobile bây giờ trên phố Palo Alto.
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
Tôi đã thấy rất nhiều sự chuyển đổi điện toán thời kỳ đó,
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
và trong thập kỷ vừa qua, tôi đã thấy AI có thể làm những điều to lớn.
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
Nhưng chúng ta vẫn làm sai ở rất nhiều khía cạnh.
00:37
That's what I want to talk to you about today.
8
37329
2209
Đó là điều tôi muốn nói với bạn ngày hôm nay.
00:39
But first, let's talk about what AI can do.
9
39579
2209
Trước tiên, hãy nói về những thứ AI làm được.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
Trong thập kỷ trước, chúng tôi đã thấy những tiến bộ vượt bậc
00:45
in how AI can help computers see, understand language,
11
45121
4333
trong cách AI giúp máy tính nhìn thấy và hiểu ngôn ngữ,
00:49
understand speech better than ever before.
12
49496
2833
hiểu lời nói hơn bao giờ hết.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
Những thứ trước đó ta không thể làm, bây giờ đã có thể.
00:54
If you think about computer vision alone,
14
54954
2333
Chỉ cần nghĩ về thị giác máy tính,
00:57
just in the last 10 years,
15
57329
1583
thì chỉ trong 10 năm qua,
00:58
computers have effectively developed the ability to see;
16
58912
2792
máy tính đã phát triển khả năng thị giác rất hiệu quả;
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
10 năm trước chúng không thể nhìn giờ chúng đã có thể
01:04
You can imagine this has had a transformative effect
18
64287
2500
Bạn có thể nghĩ điều này đã có một hiệu ứng biến đổi
01:06
on what we can do with computers.
19
66787
2209
đối với những gì ta có thể làm với máy tính.
01:08
So let's look at a couple of the great applications
20
68996
2500
Chúng ta hãy xem xét một vài ứng dụng tuyệt vời
01:11
enabled by these capabilities.
21
71496
2000
được kích hoạt bởi những khả năng này.
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
Có thể dự báo lũ lụt tốt hơn giúp mọi người an toàn
01:15
using machine learning.
23
75996
1500
sử dụng máy học.
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
Ta có thể dịch hơn 100 ngôn ngữ để chúng ta có thể giao tiếp tốt hơn
01:20
and better predict and diagnose disease,
25
80788
2000
và dự báo và chẩn đoán bệnh tốt hơn,
01:22
where everyone gets the treatment that they need.
26
82788
2333
ở nơi mọi người nhận được sự điều trị họ cần.
01:25
So let's look at two key components
27
85163
1916
Vậy ta hãy nhìn vào hai yếu tố chính
01:27
that underlie the progress in AI systems today.
28
87121
2333
nền tảng của sự tiến bộ của hệ thống AI ngày nay.
01:30
The first is neural networks,
29
90121
1542
Đầu tiên là mạng nơ-ron nhân tạo
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
một cách tiếp cận đột phá để giải quyết một số vấn đề khó khăn này
01:35
that has really shone in the last 15 years.
31
95121
2833
thứ đã thực sự tỏa sáng trong 15 năm qua.
01:37
But they're not a new idea.
32
97954
1625
Nhưng không phải một ý tưởng mới.
01:39
And the second is computational power.
33
99621
1833
Và thứ hai là năng lực điện toán.
01:41
It actually takes a lot of computational power
34
101454
2167
Thực sự cần rất nhiều năng lực điện toán
01:43
to make neural networks able to really sing,
35
103663
2083
để làm mạng nơ-ron có thể thực sự hoạt động,
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
và trong 15 năm qua, chúng ta đã có thể giảm chúng đi một nửa,
01:49
and that's partly what's enabled all this progress.
37
109121
2458
đó là thứ đã một phần giúp sự tiến bộ này diễn ra.
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
Nhưng đồng thời, tôi nghĩ chúng ta đang làm sai một vài thứ,
01:55
and that's what I want to talk to you about
39
115413
2000
và đó là những thứ tôi muốn nói với bạn
01:57
at the end of the talk.
40
117454
1167
tại cuối buổi hôm nay.
01:58
First, a bit of a history lesson.
41
118663
1958
Trước tiên là một chút bài học lịch sử.
02:00
So for decades,
42
120663
1208
Trong nhiều thập kỷ,
02:01
almost since the very beginning of computing,
43
121913
2125
gần như kể từ khởi nguyên của điện toán,
02:04
people have wanted to be able to build computers
44
124079
2250
mọi người đã muốn có thể chế tạo máy tính
02:06
that could see, understand language, understand speech.
45
126329
3917
mà có thể thấy, hiểu ngôn ngữ, hiểu lời nói.
02:10
The earliest approaches to this, generally,
46
130579
2000
Cách tiếp cận đầu tiên cho mục tiêu đó,
02:12
people were trying to hand-code all the algorithms
47
132621
2333
là việc mọi người thử viết mã cho các thuật toán
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
cần thiết để hoàn thành các nhiệm vụ khó khăn kia,
02:17
and it just turned out to not work very well.
49
137454
2375
và nó hóa ra không hoạt động tốt lắm.
02:19
But in the last 15 years, a single approach
50
139829
3250
Nhưng trong 15 năm qua, một cách tiếp cận duy nhất
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
bất ngờ vượt qua đồng thời tất cả các vấn đề khác nhau này:
02:27
neural networks.
52
147954
1542
mạng nơ-ron nhân tạo.
02:29
So neural networks are not a new idea.
53
149538
1833
Nên mạng nơ-ron không còn mới nữa.
02:31
They're kind of loosely based
54
151371
1417
Chúng hơi dựa trên
02:32
on some of the properties that are in real neural systems.
55
152788
3041
một số thuộc tính trong các hệ thống thần kinh thực tế.
02:35
And many of the ideas behind neural networks
56
155829
2084
Và nhiều ý tưởng đằng sau mạng nơ-ron
02:37
have been around since the 1960s and 70s.
57
157954
2250
đã có từ những năm 1960 và 70.
02:40
A neural network is what it sounds like,
58
160204
2167
Mạng nơ-ron giống như tên của nó,
02:42
a series of interconnected artificial neurons
59
162413
2708
là một loạt các nơ-ron nhân tạo được liên kết với nhau
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
mô phỏng gần giống các tính chất các nơ-ron thần kinh của bạn.
02:48
An individual neuron in one of these systems
61
168163
2166
Một nơ-ron của một trong những hệ thống này
02:50
has a set of inputs,
62
170371
1417
có một bộ thông tin đầu vào,
02:51
each with an associated weight,
63
171788
2041
mỗi thông tin có một trọng số,
02:53
and the output of a neuron
64
173871
1833
và đầu ra của một nơ-ron
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
là kết quả của thông tin đầu vào nhân với trọng số.
02:59
So pretty simple,
66
179288
1208
Chúng khá là đơn gian,
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
và rất nhiều nơ-ron làm việc với nhau để học những thứ vô cùng phức tạp.
03:04
So how do we actually learn in a neural network?
68
184496
2833
Vậy chúng ta học như thế nào trong một mạng nơ-ron nhân tạo?
03:07
It turns out the learning process
69
187371
1708
Hóa ra, quá trình học
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
bao gồm việc liên tục có những sự thay đổi nhỏ
03:11
to the weight values,
71
191913
1208
với những trọng số,
03:13
strengthening the influence of some things,
72
193121
2042
tăng cường sức ảnh hưởng của một số yếu tố
03:15
weakening the influence of others.
73
195204
1959
và giảm nhẹ ảnh hưởng của những thứ khác.
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
Bằng sự điều hướng cả hệ thống đến những hành vi mong muốn,
03:21
these systems can be trained to do really complicated things,
75
201163
2916
ta có thể rèn luyện các hệ thống này làm những điều phức tạp,
03:24
like translate from one language to another,
76
204121
2875
như là dịch từ một ngôn ngữ này sang ngôn ngữ khác,
03:27
detect what kind of objects are in a photo,
77
207038
3083
phát hiện ra có những vật gì trong một bức ảnh,
03:30
all kinds of complicated things.
78
210121
1875
tất cả những thứ phức tạp.
03:32
I first got interested in neural networks
79
212038
2000
Tôi lần đầu hứng thú với mạng nơ-ron
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
khi tôi học một lớp học về chủ đề này ở trường đại học năm 1990.
03:37
At that time,
81
217163
1125
Khi đó,
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
mạng nơ-ron nhân tạo cho ra các kết quả ấn tượng với những vấn đề nhỏ bé,
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
nhưng lại không thể mở rộng ra giải quyết các vấn đề quan trọng ngoài thực tế.
03:46
But I was super excited.
84
226538
1500
Nhưng tôi vẫn rất hào hứng.
03:48
(Laughter)
85
228079
2500
(Tiếng cười)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
Tôi nghĩ ta chỉ cần nhiều năng lực điện toán hơn.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
Và Đại học Minnesota lúc đó có một chiếc máy tính với 32 bộ xử lý.
03:56
I thought, "With more compute power,
88
236621
1792
Tôi nghĩ, Với nhiều năng lực điện toán
03:58
boy, we could really make neural networks really sing."
89
238413
3000
chúng ta sẽ có thể thật sự khiến mạng nơ-ron trở nên nổi trội.”
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
Nên tôi quyết định làm một bài luận về việc dạy song song các mạng nơ-ron,
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
với ý tưởng là dùng các bộ xử lý của một máy tính hoặc trong một hệ thống máy
04:09
to all work toward the same task,
92
249079
2125
để tất cả thực hiện một tác vụ,
04:11
that of training neural networks.
93
251204
1584
huấn luyện mạng nơ-ron nhân tạo.
04:12
32 processors, wow,
94
252829
1292
32 bộ xử lý, chà,
04:14
we’ve got to be able to do great things with this.
95
254163
2833
ta chắc chắn có thể làm được nhiều điều tuyệt vời với chúng.
04:17
But I was wrong.
96
257496
1167
Nhưng tôi đã sai.
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
Hóa ra chúng ta cần khoảng gấp 1 triệu lần nhiều năng lực điện toán
04:23
as we had in 1990
98
263371
1375
mà chúng ta có ở năm 1990
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
để thực sự khiến mạng nơ-ron nhân tạo tạo ra những điều ấn tượng.
04:28
But starting around 2005,
100
268121
2417
Nhưng bắt đầu từ khoảng năm 2005,
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
nhờ có bước tiến về điện toán của định luật Moore,
04:33
we actually started to have that much computing power,
102
273121
2625
ta đã bắt đầu thực sự có năng lực điện toán như vậy,
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
các nhà nghiên cứu ở một số trường đại học khắp thế giới đã nhìn thấy thành công
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
trong việc sử dụng mạng nơ-ron cho hàng loạt các kiểu tác vụ khác nhau.
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
Tôi và một số người khác ở Google đã nghe về một số những thành công này,
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
và quyết định bắt đầu dự án huấn luyện một mạng lưới nơ-ron rất lớn.
04:51
One system that we trained,
107
291079
1459
Một mạng lưới chúng tôi
04:52
we trained with 10 million randomly selected frames
108
292538
3541
dạy với 10 triệu khung hình được chọn lựa ngẫu nhiên
04:56
from YouTube videos.
109
296079
1292
từ các video trên YouTube.
04:57
The system developed the capability
110
297371
1750
Hệ thống phát triển khả năng
04:59
to recognize all kinds of different objects.
111
299121
2583
để nhận ra các loại vật thể khác nhau.
05:01
And it being YouTube, of course,
112
301746
1542
Và ở trên YouTube, tất nhiên,
05:03
it developed the ability to recognize cats.
113
303329
2500
nó được phát triển khả năng để nhận diện các chú mèo.
05:05
YouTube is full of cats.
114
305829
1292
YouTube đầy rẫy mèo.
05:07
(Laughter)
115
307163
1416
(Tiếng cười)
05:08
But what made that so remarkable
116
308621
2208
Nhưng điều đáng chú ý là
05:10
is that the system was never told what a cat was.
117
310871
2417
hệ thống đó chưa bao giờ được dạy con mèo là gì.
05:13
So using just patterns in data,
118
313704
2500
Bằng việc sự dụng sự lặp lại trong dữ liệu,
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
hệ thống đã tự mài dũa ý tưởng về một con mèo.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
Tất cả điều này xảy ra ở thời kỳ đầu của một thập niên của chuỗi các thành công
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
với việc dùng mạng nơ-ron nhân tạo cho vô vàn tác vụ,
05:26
at Google and elsewhere.
122
326663
1166
tại Google và nơi khác.
05:27
Many of the things you use every day,
123
327871
2167
Rất nhiều thứ bạn dùng mỗi ngày,
05:30
things like better speech recognition for your phone,
124
330079
2500
như nhận diện lời nói tốt hơn trên điện thoại của bạn
05:32
improved understanding of queries and documents
125
332579
2209
việc hiểu tốt hơn các câu hỏi hay văn bản
05:34
for better search quality,
126
334829
1459
để chất lượng tìm kiếm tốt hơn
05:36
better understanding of geographic information to improve maps,
127
336329
3042
việc hiểu tốt hơn về thông tin địa lý giúp cải thiện các bản đồ,
05:39
and so on.
128
339413
1166
vân vân.
05:40
Around that time,
129
340621
1167
Hồi đó,
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
chúng tôi còn hào hứng về việc khả năng xây dựng được phần cứng mà phù hợp hơn
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
với những phép tính toán mà mạng nơ-ron muốn làm được.
05:48
Neural network computations have two special properties.
132
348371
2667
Việc tính toán sử dụng mạng nơ-ron có hai đặc tính.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
Đầu tiên là chúng chấp nhận việc giảm tính chính xác.
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
Chỉ cần vài chữ số quan trọng, không cần đến sáu bảy số.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
Và thứ hai là tất cả những thuật toán thường được tạo thành
05:59
of different sequences of matrix and vector operations.
136
359996
3458
từ chuỗi những ma trận và hoạt động véc-tơ khác nhau.
06:03
So if you can build a computer
137
363496
1750
Nếu bạn có thể tạo ra một máy tính
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
mà hoạt động tốt với những ma trận và hoạt động véc-tơ với tính chính xác thấp
06:09
but can't do much else,
139
369079
1709
nhưng không làm được nhiều thứ khác
06:10
that's going to be great for neural-network computation,
140
370829
2625
mà có ích cho việc tính toán của mạng nơ-ron nhân tạo,
06:13
even though you can't use it for a lot of other things.
141
373496
2667
cho dù bạn không thể dùng nó cho nhiều mục đích khác.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
Nếu tạo ra được chiếc máy đó, người ta sẽ tìm ra ứng dụng tuyệt vời.
06:19
This is the first one we built, TPU v1.
143
379496
2083
Đây là bản đầu tiên của chúng tôi, TPU v1.
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
TPU nghĩa là Bộ Xử Lý Ten-xơ.
06:24
These have been used for many years behind every Google search,
145
384204
3042
Chúng được dùng qua nhiều năm cho công cụ tìm kiếm của Google,
06:27
for translation,
146
387246
1167
để dịch thuật,
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
trong các trận đấu DeepMind AlphaGo,
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
nên có thể Lee Sedol và Ke Jie không nhận ra,
06:33
but they were competing against racks of TPU cards.
149
393038
2708
nhưng họ đã đấu với rất nhiều tủ rack chứa các thẻ TPU.
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
Chúng tôi đã tạo ra nhiều phiên bản kế tiếp cho TPU.
06:38
that are even better and more exciting.
151
398371
1875
mà thậm chí còn tốt hơn và đỉnh hơn.
06:40
But despite all these successes,
152
400288
2083
Nhưng bất chấp tất cả các thành công này,
06:42
I think we're still doing many things wrong,
153
402371
2208
Tôi nghĩ chúng ta vẫn làm sai nhiều thứ,
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
và tôi sẽ nói với bạn ba điểm chính chúng ta đang làm sai,
06:47
and how we'll fix them.
155
407454
1167
và cách khắc phục chúng.
06:48
The first is that most neural networks today
156
408663
2083
Đầu tiên là hầu hết mạng nơ-ron ngày nay
06:50
are trained to do one thing, and one thing only.
157
410746
2250
được dạy để làm một tác vụ duy nhất
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
Bạn dạy nó 1 tác vụ bạn rất quan tâm,
06:56
but it's a pretty heavyweight activity.
159
416288
1916
nhưng đó lại là công việc khá nặng nhọc.
06:58
You need to curate a data set,
160
418246
1667
Bạn cần chọn ra một bộ dữ liệu,
06:59
you need to decide what network architecture you'll use
161
419913
3000
bạn cần quyết định kiến trúc mạng bạn sẽ dùng
07:02
for this problem,
162
422954
1167
cho tác vụ này,
07:04
you need to initialize the weights with random values,
163
424121
2708
bạn phải khởi chạy các trọng số với giá trị ngẫu nhiên,
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
áp dụng rất nhiều phép tính toán để thay đổi các trọng số.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
Và cuối cùng, nếu bạn may mắn, bạn sẽ có được một mô hình
07:12
that is really good at that task you care about.
166
432538
2291
mà làm rất giỏi nhiệm vụ mà bạn nó muốn làm.
07:14
But if you do this over and over,
167
434871
1583
Nhưng nếu bạn lặp đi lặp lại,
07:16
you end up with thousands of separate models,
168
436496
2667
bạn sẽ có được hàng ngàn mô hình biệt lập,
07:19
each perhaps very capable,
169
439204
1792
mỗi mô hình đều rất thành thạo,
07:21
but separate for all the different tasks you care about.
170
441038
2791
nhưng lại thực hiện độc lập các tác vụ mà bạn muốn làm.
07:23
But think about how people learn.
171
443829
1667
Hãy nghĩ về cách con người học.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
Năm vừa qua, nhiều người chúng ta học hàng loạt những kỹ năng mới.
07:28
I've been honing my gardening skills,
173
448746
1792
Tôi đã rèn luyện kỹ năng làm vườn,
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
thử nghiệm với kỹ thuật thủy canh chiều dọc.
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
Để làm được, tôi không cần học lại tất cả những thứ tôi đã biết về cây cối.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
Tôi đã biết cách đặt cây vào trong lỗ,
07:40
how to pour water, that plants need sun,
177
460163
2291
cách tưới cây, và việc cây cần ánh nắng,
07:42
and leverage that in learning this new skill.
178
462496
3583
và tận dụng những kiến thức đó để học kỹ năng mới này.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
Máy tính có thể làm được vậy, nhưng giờ chúng chưa làm được.
07:49
If you train a neural network from scratch,
180
469163
2583
Nếu bạn huấn luyện một mạng nơ-ron từ đầu,
07:51
it's effectively like forgetting your entire education
181
471746
3542
nó giống như việc quên đi tất cả những điều bạn được dạy
07:55
every time you try to do something new.
182
475288
1875
mỗi khi bạn cố học một thứ gì mới.
07:57
That’s crazy, right?
183
477163
1000
Điên dồ, phải không?
07:58
So instead, I think we can and should be training
184
478788
3708
Thay vào đó, tôi nghĩ chúng ta có thể và nên rèn luyện
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
các mô hình có thể làm hàng ngàn, triệu tác vụ khác nhau.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
Mỗi phần của mô hình đó sẽ chuyên môn hóa những thứ khác nhau.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
Và nếu chúng ta có một mô hình có thể làm hàng ngàn tác vụ,
08:12
and the thousand and first thing comes along,
188
492538
2166
và đến tác vụ thứ 1001,
08:14
we can leverage the expertise we already have
189
494746
2125
ta có thể tận dụng chuyên môn chúng ta đã có
08:16
in the related kinds of things
190
496913
1541
với những kiến thức liên quan
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
để chúng ta có thể nhanh chóng làm được tác vụ mới này,
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
giống như bạn, nếu bạn đối diện với vấn đề mới,
08:24
you quickly identify the 17 things you already know
193
504121
2625
bạn nhanh chóng xác định 17 điều bạn đã biết
08:26
that are going to be helpful in solving that problem.
194
506746
2542
mà sẽ giúp giải quyết vấn đề đó.
08:29
Second problem is that most of our models today
195
509329
2709
Vấn đề thứ hai là hầu hết các mô hình của ta có ngày nay
08:32
deal with only a single modality of data --
196
512079
2125
chỉ xử lý một dạng dữ liệu duy nhất,
08:34
with images, or text or speech,
197
514204
3084
như hình ảnh, hoặc chữ hoặc lời nói,
08:37
but not all of these all at once.
198
517329
1709
chứ không thể xử lý đồng thời.
08:39
But think about how you go about the world.
199
519079
2042
Nhưng nghĩ về cách bạn đón nhận thế giới.
08:41
You're continuously using all your senses
200
521121
2333
Bạn liên tục dùng tất cả các giác quan
08:43
to learn from, react to,
201
523454
3083
để học hỏi, phản ứng lại,
08:46
figure out what actions you want to take in the world.
202
526579
2667
để quyết định được những hành động bạn muốn thực hiện.
08:49
Makes a lot more sense to do that,
203
529287
1667
Như vậy hợp lý hơn,
08:50
and we can build models in the same way.
204
530954
2000
bạn có thể xây dựng mô hình theo cách đó.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
Chúng ta có thể xây dựng mô hình tiếp nhận các kiểu dữ liệu đầu vào khác nhau,
08:57
text, images, speech,
206
537037
1750
chữ viết, hình ảnh, lời nói,
08:58
but then fuse them together,
207
538829
1417
nhưng kết hợp chúng với nhau,
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
để bất kể mô hình nhìn thấy từ “con báo”,
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
hay nhìn thấy một video hình con báo hay nghe thấy ai đó nói từ “con báo”,
09:08
the same response is triggered inside the model:
210
548329
2250
thì phản ứng tương tự kích hoạt trong mô hình:
09:10
the concept of a leopard
211
550621
1750
ý niệm về một con báo
09:12
can deal with different kinds of input data,
212
552412
2250
có thể xử lý với dạng dữ liệu đầu vào khác nhau,
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
kể cả với dữ liệu không từ con người, như là chuỗi gen,
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
đám mây 3D của các điểm, cũng như là hình ảnh, chữ viết và video.
09:20
The third problem is that today's models are dense.
215
560912
3625
Vấn đề thứ ba là sự dày đặc của các mô hình hiện tại.
09:24
There's a single model,
216
564579
1417
Với một mô hình riêng lẻ,
09:25
the model is fully activated for every task,
217
565996
2375
nó đó sẽ được kích hoạt toàn bộ cho mỗi tác vụ,
09:28
for every example that we want to accomplish,
218
568412
2125
mà chúng ta muốn thực hiện,
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
bất kể đó là một việc rất đơn giản hay rất phức tạp.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
Điều này, cũng không giống cách bộ não hoạt động.
09:36
Different parts of our brains are good at different things,
221
576204
3000
Các phần khác nhau của bộ não giỏi những việc khác nhau,
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
và chúng liên tục kết nối các vùng của bộ não
09:42
that are relevant for the task at hand.
223
582579
2167
mà liên quan đến công việc ta muốn làm.
09:44
For example, nervously watching a garbage truck
224
584787
2334
Ví dụ, bạn đang lo lắng nhìn chiếc xe rác
09:47
back up towards your car,
225
587162
1875
lùi đến chiếc ô tô của bạn,
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
thì phần não bộ nghĩ về các bài thơ sonnet của Shakespear
09:51
is probably inactive.
227
591996
1250
chắc sẽ không hoạt động.
09:53
(Laughter)
228
593246
1625
(Tiếng cười)
09:54
AI models can work the same way.
229
594912
1750
Mô hình AI có thể hoạt động tương tự
09:56
Instead of a dense model,
230
596662
1292
Thay cho mô hình dày đặc,
09:57
we can have one that is sparsely activated.
231
597954
2250
ta có thể tạo mô hình kích hoạt từng phần.
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
Với mỗi tác vụ khác nhau, ta sẽ kích hoạt từng phần khác nhau của mô hình.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
Trong lúc huấn luyện, mô hình có thể học được phần nào thực hiện tốt việc gì,
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
để liên tục nhận diện phần nào của mô hình cần kích hoạt
10:12
in order to accomplish a new task.
235
612662
1834
để có thể thực hiện một tác vụ mới.
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
Lợi ích là chúng ta có thể có những mô hình với công suất lớn,
10:18
but it's very efficient,
237
618037
1250
nhưng lại rất hiệu quả,
10:19
because we're only calling upon the parts that we need
238
619329
2583
vì chúng ta chỉ kích hoạt các phần mô hình chúng ta cần
10:21
for any given task.
239
621954
1208
cho một tác vụ nhất định.
10:23
So fixing these three things, I think,
240
623162
2000
Việc khắc phục được ba điểm này, tôi nghĩ
10:25
will lead to a more powerful AI system:
241
625162
2209
sẽ dẫn đến một hệ thống AI mạnh mẽ hơn:
10:27
instead of thousands of separate models,
242
627412
2000
thay vì hàng ngàn mô hình biệt lập,
10:29
train a handful of general-purpose models
243
629412
2000
ta dạy một lượng mô hình tổng quát
10:31
that can do thousands or millions of things.
244
631454
2083
mà có thể làm hàng ngàn, triệu thứ.
10:33
Instead of dealing with single modalities,
245
633579
2042
Thay vì xử lý một dạng dữ liệu,
10:35
deal with all modalities,
246
635662
1334
ta xử lý tất cả các dạng,
10:36
and be able to fuse them together.
247
636996
1708
và có thể kết hợp chúng với nhau.
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
Thay cho mô hình dày đặc, ta dùng các mô hình công suất lớn, rải rác,
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
mà ta sẽ kích hoạt các phần liên quan ta cần đến.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
Chúng tôi đang xây dựng hệ thống có thể thực hiện các cách tiếp cận này,
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
và chúng tôi gọi hệ thống này là “Lộ trình.”
10:51
So the idea is this model will be able to do
252
651287
3084
Ý tưởng là mô hình này có thể làm
10:54
thousands or millions of different tasks,
253
654412
2084
hàng ngàn, triệu tác vụ khác nhau,
10:56
and then, we can incrementally add new tasks,
254
656537
2250
rồi ta có thể ngày càng cộng thêm tác vụ mới,
10:58
and it can deal with all modalities at once,
255
658787
2125
và có thể xử lý nhiều dạng dữ liệu cùng lúc,
11:00
and then incrementally learn new tasks as needed
256
660954
2958
và học thêm nhiều tác vụ mới
11:03
and call upon the relevant bits of the model
257
663954
2083
và kích hoạt các phần liên quan của mô hình
11:06
for different examples or tasks.
258
666037
1709
cho các ví dụ và tác vụ khác nhau.
11:07
And we're pretty excited about this,
259
667787
1750
Và chúng tôi rất hào hứng với nó,
11:09
we think this is going to be a step forward
260
669537
2042
chúng tôi nghĩ đây sẽ là một bước tiến
11:11
in how we build AI systems.
261
671621
1333
trong cách xây hệ thống AI
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
Nhưng tôi cũng muốn đề cập đến AI có trách nhiệm.
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
Chúng ta rõ ràng cần đảm bảo rằng tầm nhìn về hệ thống AI mạnh mẽ này
11:21
benefits everyone.
264
681579
1167
có lợi cho mọi người.
11:23
These kinds of models raise important new questions
265
683496
2458
Kiểu mô hình này đặt ra các câu hỏi mới quan trọng
11:25
about how do we build them with fairness,
266
685954
2458
về cách ta xây dựng chúng với sự công bằng
11:28
interpretability, privacy and security,
267
688454
3208
sự dễ hiểu, riêng tư và bảo mật,
11:31
for all users in mind.
268
691662
1459
cho tất cả người dùng.
11:33
For example, if we're going to train these models
269
693621
2291
Ví dụ, nếu chúng ta sẽ huấn luyện các mô hình này
11:35
on thousands or millions of tasks,
270
695954
2125
với hàng ngàn, triệu tác vụ,
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
chúng ta sẽ cần huấn luyện chúng với một lượng lớn dữ liệu.
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
Và chúng ta cần đảm bảo dữ liệu được thu thập với sự thận trọng
11:44
and is representative of different communities and situations
273
704287
3667
và mang tính đại diện các cộng đồng và tình huống khác nhau
11:47
all around the world.
274
707954
1167
trên toàn thế giới.
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
Và dữ liệu chỉ là một khía cạnh của AI có trách nhiệm.
11:53
We have a lot of work to do here.
276
713621
1583
Chúng ta còn nhiều việc phải làm.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
Vậy nên năm 2018, Google đã xuất bản bộ quy tắc AI này
11:57
by which we think about developing these kinds of technology.
278
717912
3500
khi chúng tôi nghĩ về việc phát triển những kiểu công nghệ này.
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
Và chúng đã hướng dẫn chúng tôi trong cách làm nghiên cứu trong mảng này,
12:05
how we use AI in our products.
280
725121
1833
cách dùng AI trong các sản phẩm.
12:06
And I think it's a really helpful and important framing
281
726996
2750
Và tôi nghĩ đó là một bộ khung rất hữu ích và quan trọng
12:09
for how to think about these deep and complex questions
282
729746
2875
trong cách nghĩ về những câu hỏi sâu và quan trọng đó
12:12
about how we should be using AI in society.
283
732621
2833
về cách chúng ta nên dùng AI trong xã hội.
12:15
We continue to update these as we learn more.
284
735454
3625
Chúng tôi tiếp tục cập nhật bộ quy tắc đó khi chúng tôi hiểu nhiều điều hơn.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
Rất nhiều quy tắc này là những lĩnh vực nghiên cứu đang tiến hành
12:22
super important area.
286
742537
1542
những lĩnh vực siêu quan trọng.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
Dịch chuyển từ các hệ thống một-mục-đích mà nhận ra khuôn mẫu trong dữ liệu
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
sang các hệ thống thông minh đa-mục-đích như vậy
12:31
that have a deeper understanding of the world
289
751037
2292
với hiểu biết sâu sắc hơn về thế giới
12:33
will really enable us to tackle
290
753329
1583
sẽ giúp chúng ta động đến
12:34
some of the greatest problems humanity faces.
291
754954
2500
các vấn đề quan trọng nhất mà nhân loại phải đối mặt.
12:37
For example,
292
757454
1167
Ví dụ,
12:38
we’ll be able to diagnose more disease;
293
758662
2375
ta có thể chuẩn đoán được nhiều bệnh hơn;
12:41
we'll be able to engineer better medicines
294
761079
2000
ta có thể tạo ra các loại thuốc tốt hơn
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
bằng cách kết hợp các mô hình này với tri thức hóa học và vật lý;
12:46
we'll be able to advance educational systems
296
766204
2667
chúng ta sẽ có thể cải tiến các hệ thống giáo dục
12:48
by providing more individualized tutoring
297
768871
2041
bằng việc dạy kèm được cá nhân hóa hơn
12:50
to help people learn in new and better ways;
298
770912
2375
để giúp con người học theo cách mới và tốt hơn;
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
chúng ta có thể động đến các vấn đề rất phức tạp,
12:55
like climate change,
300
775704
1208
như biến đổi khí hậu,
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
và có thể là kiến tạo giải pháp năng lượng sạch.
12:59
So really, all of these kinds of systems
302
779787
2667
Nên thật sự, tất cả các kiểu hệ thống này
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
sẽ cần có chuyên môn đa ngành
13:05
of people all over the world.
304
785371
1875
của con người trên toàn thế giới.
13:07
So connecting AI with whatever field you are in,
305
787287
3542
Vậy nên hãy kết nối AI với bất kỳ lĩnh vực nào bạn đang làm việc,
13:10
in order to make progress.
306
790829
1750
để tạo ra bước tiến.
13:13
So I've seen a lot of advances in computing,
307
793579
2292
Tôi đã thấy rất nhiều bước tiến trong điện toán,
13:15
and how computing, over the past decades,
308
795912
2292
và cách điện toán, trong vài thập kỷ qua,
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
đã giúp hàng triệu người hiểu hơn về thế giới quanh họ.
13:22
And AI today has the potential to help billions of people.
310
802412
3000
Và AI ngày nay có khả năng giúp hàng tỷ người.
13:26
We truly live in exciting times.
311
806204
2125
Chúng ta đang sống ở thời đại đầy kỳ thú.
13:28
Thank you.
312
808746
1166
Cảm ơn.
13:29
(Applause)
313
809912
7000
(Tiếng vỗ tay)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
Chris Anderson: Cảm ơn rất nhiều.
13:41
I want to follow up on a couple things.
315
821537
2375
Tôi muốn nối tiếp với một vài điểm.
13:44
This is what I heard.
316
824454
2792
Đây là những gì tôi nghe được.
13:47
Most people's traditional picture of AI
317
827287
4125
Cái nhìn thông thường của mọi người về AI
13:51
is that computers recognize a pattern of information,
318
831412
3125
là những chiếc máy tính nhận ra một khuôn mẫu của thông tin,
13:54
and with a bit of machine learning,
319
834579
2125
với một chút về máy học,
13:56
they can get really good at that, better than humans.
320
836704
2625
chúng có thể rất giỏi với việc đó, giỏi hơn con người.
13:59
What you're saying is those patterns
321
839329
1792
Vậy anh đang nói là các khuôn mẫu đó
14:01
are no longer the atoms that AI is working with,
322
841121
2875
không còn là những thứ AI tương tác cùng,
14:04
that it's much richer-layered concepts
323
844037
2542
mà là những ý tưởng có nhiều tầng nội dung
14:06
that can include all manners of types of things
324
846621
3458
bao gồm tất cả các dạng thông tin
14:10
that go to make up a leopard, for example.
325
850121
3000
và tạo thành, ví dụ như là một con báo.
14:13
So what could that lead to?
326
853121
2916
Vậy điều đó đưa chúng ta đến đâu?
14:16
Give me an example of when that AI is working,
327
856079
2750
Hãy cho tôi một ví dụ khi công nghệ AI đó đi vào vận hành,
14:18
what do you picture happening in the world
328
858829
2042
anh nghĩ điều gì sẽ xảy ra trên thế giới
14:20
in the next five or 10 years that excites you?
329
860912
2209
trong năm hay 10 năm tới mà khiến anh hào hứng?
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
Jeff Dean: tôi nghĩ thử thách lớn trong AI
14:26
is how do you generalize from a set of tasks
331
866079
2375
là làm sao để khái quát hóa từ chuỗi các tác vụ
14:28
you already know how to do
332
868496
1416
bạn đã biết làm
14:29
to new tasks,
333
869954
1208
thành những tác vụ mới,
14:31
as easily and effortlessly as possible.
334
871204
2542
một cách dễ dàng và không mất sức nhất.
14:33
And the current approach of training separate models for everything
335
873746
3250
Cách tiếp cận hiện tại là dạy các mô hình độc lập mọi thứ
14:36
means you need lots of data about that particular problem,
336
876996
3166
nghĩa là bạn cần rất nhiều dữ liệu về vấn đề cụ thể đó,
14:40
because you're effectively trying to learn everything
337
880162
2542
bởi vì bạn cần học hỏi mọi thứ một cách hiệu quả
14:42
about the world and that problem, from nothing.
338
882746
2541
về thế giới và vấn đề đó, từ con số không.
14:45
But if you can build these systems
339
885287
1667
Nhưng nếu có thể tạo các hệ thống
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
đã biết cách làm hàng ngàn, triệu tác vụ,
14:51
then you can effectively teach them to do a new thing
341
891496
3791
thì bạn có thể dạy chúng một điều mới một cách hiệu quả
14:55
with relatively few examples.
342
895329
1500
chỉ với vài ví dụ.
14:56
So I think that's the real hope,
343
896871
2083
Tôi nghĩ đó mới là hy vọng thực sự,
14:58
that you could then have a system where you just give it five examples
344
898996
4083
là bạn có thể có một hệ thống mà bạn chỉ cho nó năm ví dụ
15:03
of something you care about,
345
903121
1541
về một thứ bạn quan tâm,
15:04
and it learns to do that new task.
346
904704
1917
và nó sẽ học cách làm tác vụ mới đó.
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
CA: Bạn có thể thực hiện một dạng tự học
15:09
that is based on remarkably little seeding.
348
909079
2542
dựa trên chỉ một chút kiến thức nền.
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
JD: đúng rồi, thay vì phải có 10,000 hay 100,000 ví dụ
15:14
to figure everything in the world out.
350
914579
1833
để hiểu được mọi thứ trên thế giới.
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
CA: Liệu có những hậu quả kinh hoàng ngoài dự tính
15:19
possible, from that?
352
919287
1334
có thể xảy ra không?
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
JD: Tôi nghĩ nó phụ thuộc vào cách bạn áp dụng hệ thống
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
Rất rõ ràng là AI có thể là một hệ thống mạnh mẽ cho mục đích tốt.,
15:27
or if you apply it in ways that are not so great,
355
927496
2333
hay nếu bạn áp dụng nó theo cách không tốt,
15:29
it can be a negative consequence.
356
929871
3375
thì có thể gây ra hậu quả xấu.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
Đó là lí do tại sao tôi nghĩ cần có một bộ quy tắc
15:36
by which you look at potential uses of AI
358
936371
2250
để nhìn vào các công dụng tiềm năng của AI
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
và cân nhắc một cách rất thận trọng những ứng dụng của nó.
15:43
CA: One of the things people worry most about
360
943787
2209
CA: Một trong những điều con người lo lắng nhất
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
là nếu AI trở nên quá giỏi trong việc học hỏi về thế giới hiện tại
15:49
it's going to carry forward into the future
362
949621
2875
nó có thể sẽ mang đến tương lai
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
những khía cạnh hiện tại không tốt của thế giới.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
Và rõ ràng đã có một cuộc tranh cãi về điều này
15:59
recently at Google.
365
959662
2417
gần đây ở Google.
16:02
Some of those principles of AI development,
366
962121
3083
Một trong số những quy tắc đó của việc phát triển AI,
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
Các anh đã bị chất vấn về việc không thực sự thực hiện chúng.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
Tôi không muốn nghe bình luận về trường hợp cụ thể nào,
16:13
but ... are you really committed?
369
973621
2708
nhưng ... các anh có thật sự cam kết với việc này?
16:16
How do we know that you are committed to these principles?
370
976329
2750
Làm sao để chúng tôi biết anh cam kết với các quy tắc này?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
Đó liệu là PR, hay thật sự là cốt lõi của công việc hằng ngày của các anh?
16:23
JD: No, that is absolutely real.
372
983496
1541
JD: Không, chúng là thật.
16:25
Like, we have literally hundreds of people
373
985079
2125
Chúng tôi có gần như hàng trăm người
16:27
working on many of these related research issues,
374
987204
2333
đang làm về nhiều vấn đề nghiên cứu liên quan này
16:29
because many of those things are research topics
375
989537
2417
vì rất nhiều trong số đó là các đề tài nghiên cứu
16:31
in their own right.
376
991996
1166
thuộc sở hữu của họ.
16:33
How do you take data from the real world,
377
993162
2250
Cách để bạn lấy dữ liệu từ thế giới thực,
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
của hiện tại, chứ không phải thế giới chúng ta mong muốn,
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
và cách để bạn dùng dữ liệu đó để dạy các mô hình máy học
16:43
and adapt the data bit of the scene
380
1003621
2500
và thích ứng dữ liệu từ hoàn cảnh
16:46
or augment the data with additional data
381
1006162
2500
hoặc tăng thêm nguồn dữ liệu
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
để nó có thể phản ánh những giá trị mà ta muốn hệ thống sẽ có,
16:51
not the values that it sees in the world?
383
1011996
2208
không phải các giá trị nó thấy trong thế giới?
16:54
CA: But you work for Google,
384
1014204
2417
CA: Nhưng anh làm việc cho Google,
16:56
Google is funding the research.
385
1016662
2084
Google tài trợ các nghiên cứu.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
Làm sao để chúng tôi biết những giá trị nền tàng mà hệ thống AI này sẽ xây dựng
17:03
are for the world,
387
1023871
1208
để dành cho thế giới,
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
chứ không phải, ví dụ như để tối đa hóa lợi nhuận của một mô hình quảng cáo?
17:10
When you know everything there is to know about human attention,
389
1030037
3084
Khi anh biết mọi điều cần biết về sự quan tâm của con người,
17:13
you're going to know so much
390
1033121
1500
anh sẽ biết quá nhiều điều
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
về những phần kì cục, đen tối của chúng tôi.
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
Trong nhóm của anh, có các quy tắc về việc khi nào sẽ kìm lại,
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
ranh giới giữa việc thúc đẩy thương mại,
17:27
"You must do it for this purpose,"
394
1047079
2292
“Bạn phải làm điều đó cho mục đích này”
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
để có thể truyền cảm hứng cho các kỹ sư của anh vv,
17:31
to do this for the world, for all of us.
396
1051913
1916
để làm vì thế giới, và tất cả chúng ta.
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
JD: Nhóm nghiên cứu chúng tôi có hợp tác
17:36
with a number of groups across Google,
398
1056038
1833
với một số các nhóm khác trong Google,
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
bao gồm nhóm Quảng cáo, nhóm Tìm Kiếm, và nhóm Bản đồ,
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
chúng tôi có vài sự hợp tác, nhưng cũng là những nghiên cứu cơ bản
17:43
that we publish openly.
401
1063954
1542
mà chúng tôi xuất bản rộng rãi.
17:45
We've published more than 1,000 papers last year
402
1065538
3333
Chúng tôi xuất bản hơn 1000 nghiên cứu năm ngoái
17:48
in different topics, including the ones you discussed,
403
1068871
2583
về các chủ đề khác nhau, gồm có các thứ anh vừa bàn đến
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
về sự công bằng, sự dễ hiểu của các mô hình máy học,
17:54
things that are super important,
405
1074538
1791
những điều vô cùng quan trọng,
17:56
and we need to advance the state of the art in this
406
1076371
2417
và chúng ta cần cải tiến tới mức cao nhất
17:58
in order to continue to make progress
407
1078829
2209
để tiếp tục có được các bước tiến
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
bảo đảm các mô hình này được phát triển an toàn và có trách nhiệm.
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
CA: Tôi cảm thấy chúng ta đang ở thời đại mà con người lo lắng
18:07
about the power of the big tech companies,
410
1087829
2042
về sức mạnh của các công ty công nghệ lớn,
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
và gần như luôn có một khoảnh khắc để cho thế giới thấy rằng
18:13
that this is being done to make a better future,
412
1093663
3333
điều này được thực hiện để khiến tương lai tốt đẹp hơn.
18:17
that is actually key to Google's future,
413
1097038
2791
điều đó chính là chìa khóa của tương lai của Google,
18:19
as well as all of ours.
414
1099871
1750
cũng như là của chúng ta.
18:21
JD: Indeed.
415
1101663
1166
JD: Đúng vậy
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
CA: Thật tuyệt khi anh đã đến đây và diễn thuyết, Jeff.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
Cảm ơn anh rất nhiều đã đến tham dự TED.
18:27
JD: Thank you.
418
1107538
1166
JD: Xin cảm ơn
18:28
(Applause)
419
1108704
1167
(Tiếng vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7