How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Lam Nguyen Reviewer: Lan Dang
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Tôi đang làm việc để giúp máy tính có thể "giao tiếp" với thế giới.
00:17
There are a lot of ways to do this,
1
17754
1793
Có rất nhiều phương pháp để làm điều đó,
00:19
and I like to focus on helping computers
2
19571
2592
tôi muốn tập trung vào khía cạnh khiến máy tính
00:22
to talk about what they see and understand.
3
22187
2874
có thể diễn đạt điều mà chúng đang thấy và hiểu.
00:25
Given a scene like this,
4
25514
1571
Với một bức ảnh thế này,
00:27
a modern computer-vision algorithm
5
27109
1905
một thuật toán nhận diện hình ảnh hiện đại
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
có khả năng nhận biết đâu là cô gái và đâu là chú chó.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Nó sẽ cho bạn biết rằng cô gái đang cười.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Thậm chí nó còn nói với bạn rằng chú chó đó cực kỳ dễ thương.
00:38
I work on this problem
9
38784
1349
Trong quá trình làm việc,
00:40
thinking about how humans understand and process the world.
10
40157
4212
tôi suy nghĩ nhiều về cách con người nhận thức thế giới xung quanh.
00:45
The thoughts, memories and stories
11
45577
2952
Những suy nghĩ, ký ức, hay kỷ niệm
00:48
that a scene like this might evoke for humans.
12
48553
2818
đều được con người gọi đến khi cần thiết.
00:51
All the interconnections of related situations.
13
51395
4285
Tất cả các mối liên hệ với các tình huống cụ thể có liên quan.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Có thể bạn đã từng thấy chú chó này rồi,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
hoặc bạn đã từng chạy bộ dọc bờ biển giống thế này,
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
và điều đó gợi nhớ cho bạn những suy nghĩ và ký ức của kỳ nghỉ trước đây,
01:06
past times to the beach,
17
66649
1920
những lần ra biển,
01:08
times spent running around with other dogs.
18
68593
2603
những lần chạy bộ cùng chú chó cưng của mình.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Một trong các mục tiêu tôi luôn hướng tới là giúp máy tính hiểu được
01:16
what it's like to have these experiences,
20
76919
2896
"cảm giác" khi trải qua những điều như vậy,
01:19
to understand what we share and believe and feel,
21
79839
5176
hiểu được cách chúng ta chia sẻ, tin tưởng, cảm nhận lẫn nhau,
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
điều đó giúp công nghệ máy tính tiến hoá mạnh mẽ
01:30
in a way that's complementary with our own experiences.
23
90428
4587
tới mức chúng có thể hỗ trợ cho những trải nghiệm của chúng ta.
01:35
So, digging more deeply into this,
24
95539
3387
Tìm hiểu sâu hơn về vấn đề này,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
vài năm trước, tôi bắt đầu giúp máy tính tạo ra các câu chuyện "như người kể"
01:44
from sequences of images.
26
104879
1666
từ một chuỗi những bức ảnh.
01:47
So, one day,
27
107427
1904
Một ngày kia,
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
tôi đang cố gắng "hỏi" chiếc máy của mình về cảm xúc của nó khi được tới Úc.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Nó nhìn vào một bức ảnh, trong đó có một chú gấu koala.
01:58
It didn't know what the koala was,
30
118236
1643
Nó không biết gì về loài gấu đó,
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
nhưng nó cho rằng đó là một sinh vật có ngoại hình khá hay ho.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Sau đó, tôi cho nó xem một loạt ảnh về một căn nhà đang đổ sập trong đám cháy.
02:09
It took a look at the images and it said,
33
129704
3285
Nó nhìn vào những bức ảnh đó và nói,
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
"Một quang cảnh tuyệt vời ngoài sức tưởng tượng!"
02:17
It sent chills down my spine.
35
137450
2095
Điều đó làm tôi rợn người.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Nó đang thấy một sự kiện khủng khiếp, khiến mạng sống con người bị đe doạ,
02:25
and thought it was something positive.
37
145579
2382
nhưng vẫn nghĩ đó là điều tốt đẹp.
02:27
I realized that it recognized the contrast,
38
147985
3441
Tôi nhận ra rằng nó đã để ý tới sự tương phản màu sắc,
02:31
the reds, the yellows,
39
151450
2699
các gam màu đỏ và vàng,
02:34
and thought it was something worth remarking on positively.
40
154173
3078
và khiến nó cho rằng đó là một sự kiện tốt đẹp.
02:37
And part of why it was doing this
41
157928
1615
Một phần lý do nó nghĩ như vậy
02:39
was because most of the images I had given it
42
159577
2945
vì hầu hết những bức ảnh tôi cho nó xem
02:42
were positive images.
43
162546
1840
đều nói lên sự tốt đẹp.
02:44
That's because people tend to share positive images
44
164903
3658
Lý do vì hầu hết mọi người đều chia sẽ những tấm ảnh tốt đẹp
02:48
when they talk about their experiences.
45
168585
2190
khi họ nói về trải nghiệm của chính mình.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Bạn có nhớ lần cuối bạn thấy ai đó "selfie" tại đám tang?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Tôi nhận ra điều đó khi cố gắng cải thiện AI
02:58
task by task, dataset by dataset,
48
178553
3714
từng chút một, trong mỗi công việc, với các bộ dữ liệu khác nhau,
03:02
that I was creating massive gaps,
49
182291
2897
tôi đang tạo ra những lỗ hổng lớn,
03:05
holes and blind spots in what it could understand.
50
185212
3999
những "điểm mù" làm hạn chế những điều AI có thể hiểu được.
03:10
And while doing so,
51
190307
1334
Khi làm vậy,
03:11
I was encoding all kinds of biases.
52
191665
2483
tôi đã khiến AI suy nghĩ theo lối mòn (bias).
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Điều đó phản ánh một điểm nhìn hạn hẹp,
03:18
limited to a single dataset --
54
198371
2261
do chỉ được huấn luyện với một bộ dữ liệu duy nhất.
03:21
biases that can reflect human biases found in the data,
55
201283
3858
Lối mòn của dữ liệu cũng phản ánh lối mòn trong suy nghĩ con người,
03:25
such as prejudice and stereotyping.
56
205165
3104
biểu hiện qua thành kiến và sự đánh đồng.
03:29
I thought back to the evolution of the technology
57
209554
3057
Tôi nghĩ lại về cách công nghệ thay đổi và tiến hoá,
03:32
that brought me to where I was that day --
58
212635
2502
điều đó giúp tôi đứng ở đây hôm nay --
03:35
how the first color images
59
215966
2233
những bức ảnh màu đầu tiên
03:38
were calibrated against a white woman's skin,
60
218223
3048
phản ứng rất tốt với màu da của người da trắng,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
có nghĩa rằng ảnh màu đã vô tình "chống lại" người da đen.
03:46
And that same bias, that same blind spot
62
226514
2925
Điểm nhìn hạn hẹp dẫn đến "điểm mù" đó
03:49
continued well into the '90s.
63
229463
1867
vẫn tiếp tục cho đến những năm 1990.
03:51
And the same blind spot continues even today
64
231701
3154
Một điểm mù tương tự vẫn kéo dài cho đến ngày nay
03:54
in how well we can recognize different people's faces
65
234879
3698
về khả năng nhận diện những khuôn mặt khác nhau
03:58
in facial recognition technology.
66
238601
2200
trong công nghệ nhận dạng khuôn mặt.
04:01
I though about the state of the art in research today,
67
241323
3143
Tôi nghĩ tới những nghiên cứu mới nhất hiện nay,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
khi ta bó hẹp suy nghĩ của mình trong một bộ dữ liệu và một vấn đề.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
Bằng việc làm như vậy, ta đã tạo ra thêm nhiều điểm mù và lối mòn,
04:14
that the AI could further amplify.
70
254593
2277
điều đó được AI nhân thêm bội phần.
04:17
I realized then that we had to think deeply
71
257712
2079
Khi đó, tôi nhận ra ta cần suy nghĩ sâu hơn
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
về bộ mặt của những công nghệ hiện nay trong năm hay mười năm nữa.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
Con người tiến hoá rất chậm, theo thời gian, họ trở nên thích nghi hơn
04:29
in the interaction of humans and their environment.
74
269156
3534
khi tương tác với người khác và với môi trường.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Ngược lại, AI tiến hoá với tốc độ không tưởng.
04:39
And that means that it really matters
76
279013
1773
Điều đó thực sự quan trọng
04:40
that we think about this carefully right now --
77
280810
2317
nếu chúng ta nghĩ kỹ --
04:44
that we reflect on our own blind spots,
78
284180
3008
chúng chính là những "điểm mù" của ta,
04:47
our own biases,
79
287212
2317
những lối mòn cũ kỹ của ta,
04:49
and think about how that's informing the technology we're creating
80
289553
3857
hãy nghĩ đến tầm ảnh hưởng của nó đến thứ công nghệ ta đang tạo ra hôm nay,
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
và bàn đến ý nghĩa của chúng đối với tương lai ta sau này.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
Các giám đốc điều hành và nhà khoa học đã cho biết những gì họ nghĩ
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
về cách mà công nghệ AI hoạt động trong tương lai.
05:05
Stephen Hawking warns that
84
305157
1618
Stephen Hawking đã cảnh báo rằng
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"Trí tuệ nhân tạo có thể là điểm kết thúc của loài người."
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Elon Musk cảnh báo đó là mối nguy hại liên quan đến sự tồn vong
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
và là một trong những hiểm hoạ lớn nhất nền văn minh này phải đối mặt.
05:17
Bill Gates has made the point,
88
317665
1452
Bill Gates thì cho rằng,
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"Tôi không hiểu nổi vì sao người ta chẳng lo lắng gì cả."
05:23
But these views --
90
323412
1318
Nhưng các quan điểm này --
05:25
they're part of the story.
91
325618
1734
chúng là một phần của bức tranh lớn hơn.
05:28
The math, the models,
92
328079
2420
Những mô hình toán học,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
những viên gạch nền tảng của trí tuệ nhân tạo
05:33
are something that we call access and all work with.
94
333617
3135
đều là những thứ chúng tôi thường xuyên làm việc cùng.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Ta có những nền tảng mã nguồn mở dành riêng cho Học máy hoặc AI
05:40
that we can contribute to.
96
340585
1734
mà ai cũng có thể đóng góp vào.
05:42
And beyond that, we can share our experience.
97
342919
3340
Xa hơn nữa, thông qua đó, ta có thể chia sẻ trải nghiệm của mình.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Ta có thể chia sẻ những điều mà công nghệ khiến ta bận tâm
05:50
and how it excites us.
99
350252
1467
và cách chúng làm ta thích thú.
05:52
We can discuss what we love.
100
352251
1867
Ta có thể nói về thứ ta yêu quý.
05:55
We can communicate with foresight
101
355244
2031
Ta có thể đưa ra những dự đoán
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
về những khía cạnh công nghệ giúp ích con người
06:02
or could be more problematic over time.
103
362180
2600
hoặc những vấn đề cần giải quyết.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Nếu chúng ta đều cởi mở trong vấn đề chia sẻ về AI
06:09
with foresight towards the future,
105
369966
1809
với tầm nhìn tương lai rõ ràng,
06:13
this will help create a general conversation and awareness
106
373093
4270
điều đó sẽ chúng ta tạo nên một nền tảng kiến thức
06:17
about what AI is now,
107
377387
2513
về bản chất của AI hiện nay,
06:21
what it can become
108
381212
2001
sự phát triển của nó trong tương lai,
06:23
and all the things that we need to do
109
383237
1785
và những điều ta phải làm
06:25
in order to enable that outcome that best suits us.
110
385046
3753
để đảm bảo một kết quả tốt nhất cho chúng ta.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Ta đã biết rõ những điều đó qua việc sử dụng các công nghệ ngày nay.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Ta dùng điện thoại thông minh, trợ lý ảo và những con robot biết dọn phòng.
06:38
Are they evil?
113
398457
1150
Điều đó có xấu xa không?
06:40
Maybe sometimes.
114
400268
1547
Cũng tuỳ lúc.
06:42
Are they beneficial?
115
402664
1333
Chúng có ích cho ta không?
06:45
Yes, they're that, too.
116
405005
1533
Cũng tuỳ lúc thôi.
06:48
And they're not all the same.
117
408236
1761
Và không phải trường hợp nào cũng như nhau.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
Khi đó, bạn đã thấy những tia sáng từ tương lai tới.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Tương lai sẽ tiếp diễn từ những điều chúng ta đang xây dựng hôm nay.
06:59
We set into motion that domino effect
120
419165
2642
Giống như hiệu ứng domino,
07:01
that carves out AI's evolutionary path.
121
421831
2600
ta vẽ nên lộ trình phát triển và tiến hoá của AI.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
Những gì ta làm bây giờ sẽ quyết định AI tương lai.
07:08
Technology that immerses us in augmented realities
123
428566
3699
Những công nghệ giúp ta được sống trong thực tế tăng cường,
07:12
bringing to life past worlds.
124
432289
2566
đem tới cho chúng ta sự sống từ xa xưa.
07:15
Technology that helps people to share their experiences
125
435844
4312
Công nghệ giúp con người chia sẻ những trải nghiệm của mình
07:20
when they have difficulty communicating.
126
440180
2262
khi họ gặp khó khăn trong việc giao tiếp.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
Hay công nghệ chuyên về thu thập và xử lý thế giới hình ảnh,
07:27
used as technology for self-driving cars.
128
447879
3079
được dùng trong các sản phẩm như xe tự lái.
07:32
Technology built on understanding images and generating language,
129
452490
3413
Công nghệ chuyên về xử lý hình ảnh và sinh ra ngôn ngữ,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
được phát triển để hỗ trợ những người gặp vấn đề về thị lực,
07:40
be better able to access the visual world.
131
460014
2800
hỗ trợ họ hiểu rõ hơn về những hình ảnh quanh mình.
07:42
And we also see how technology can lead to problems.
132
462838
3261
Và ta cũng thấy được rằng công nghệ tạo ra những vấn đề mới.
07:46
We have technology today
133
466885
1428
Ngày nay, ta có những công nghệ
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
phân tích chính xác ngoại hình của con người,
07:52
such as the color of our skin or the look of our face --
135
472196
3272
ví dụ như màu da hay các đường nét trên khuôn mặt,
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
nhằm dự đoán liệu ta có nguy cơ trở thành tội phạm hoặc khủng bố được không.
07:59
We have technology that crunches through our data,
137
479688
2905
Ta có những công nghệ xử lý dữ liệu cá nhân của người khác,
08:02
even data relating to our gender or our race,
138
482617
2896
thậm chí chúng kiểm tra dữ liệu về giới tính và chủng tộc,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
nhằm quyết định xem liệu ta có được vay tiền hay không.
08:09
All that we see now
140
489494
1579
Mọi thứ ta thấy bây giờ
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
chỉ là một mảnh ghép nhỏ trong sự tiến hoá của AI.
08:15
Because where we are right now,
142
495763
1778
Bởi vì hiện tại ta đang sống
08:17
is within a moment of that evolution.
143
497565
2238
vẫn nằm trong quá trình tiến hoá đó.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Điều đó có nghĩa những điều ta làm bây giờ sẽ ảnh hưởng sâu rộng đến hiện tại
08:24
and in the future.
145
504516
1200
và đến tương lai.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Nếu ta muốn AI tiến hoá theo hướng hỗ trợ loài người,
08:30
then we need to define the goals and strategies
147
510038
2801
ta cần định nghĩa rõ ràng mục tiêu và các phương pháp cụ thể
08:32
that enable that path now.
148
512863
1733
để vạch ra con đường đó.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Tôi muốn thấy một thứ phù hợp nhất với con người,
08:39
with our culture and with the environment.
150
519442
2800
với văn hoá của chúng ta và với môi trường.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Công nghệ cần hỗ trợ những người gặp vấn đề về thần kinh
08:47
or other disabilities
152
527943
1721
hay bất cứ khuyết tật nào khác
08:49
in order to make life equally challenging for everyone.
153
529688
3216
nhằm tạo ra một cuộc sống bình đẳng cho tất cả mọi người.
08:54
Technology that works
154
534097
1421
Công nghệ cần được áp dụng
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
bất kể ngoại hình hay màu da của bạn thế nào.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Điều tôi muốn tập trung đến là về công nghệ cho ngày mai
09:05
and for 10 years from now.
157
545149
1733
và cho mười năm nữa.
09:08
AI can turn out in many different ways.
158
548530
2634
AI sẽ biến thể theo nhiều cách khác nhau.
09:11
But in this case,
159
551688
1225
Nhưng trong tình huống này,
09:12
it isn't a self-driving car without any destination.
160
552937
3328
nó không chỉ là một chiếc xe tự lái mà không biết điểm đích.
09:16
This is the car that we are driving.
161
556884
2400
Nó giống như chiếc xe ta đang lái hằng ngày.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Ta sẽ quyết định lúc nào nên tăng tốc và giảm tốc.
09:23
We choose if we need to make a turn.
163
563572
2400
Ta quyết định lúc nào nên rẽ.
09:26
We choose what the AI of the future will be.
164
566868
3000
Ta quyết định số phận của AI tương lai.
09:31
There's a vast playing field
165
571186
1337
Có vô vàn bộ mặt
09:32
of all the things that artificial intelligence can become.
166
572547
2965
mà trí tuệ nhân tạo có thể biến thành.
09:36
It will become many things.
167
576064
1800
Chúng sẽ có mặt trong nhiều thứ.
09:39
And it's up to us now,
168
579694
1732
Điều đó phụ thuộc vào chúng ta,
09:41
in order to figure out what we need to put in place
169
581450
3061
ta cần tìm hiểu những gì cần thực hiện ngay hôm nay
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
để tìm đường đi đúng đắn cho trí tuệ nhân tạo,
09:48
are the ones that will be better for all of us.
171
588366
3066
một con đường đi giúp tất cả chúng ta tốt hơn.
09:51
Thank you.
172
591456
1150
Cám ơn.
09:52
(Applause)
173
592630
2187
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7