How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Gia Bảo Nguyễn
Bạn đã ra bao nhiêu quyết định cho mình trong hôm nay rồi,
hay cũng có thể là trong tuần hoặc năm nay,
bằng trí tuệ nhân tạo?
00:12
How many decisions have been made about you today,
1
12875
3768
Tôi kiếm sống bằng cách xây dựng AI
00:16
or this week or this year,
2
16667
2601
nên, nói cách khác, tôi kiểu như 1 kẻ mọt sách vậy.
00:19
by artificial intelligence?
3
19292
1958
Và do tôi là một đứa mọt sách,
nên mỗi khi có chuyện gì đó mới
00:22
I build AI for a living
4
22958
1685
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
về việc trí tuệ nhân tạo đang lấy mất công việc của chúng ta,
00:27
And because I'm kind of a nerd,
6
27708
2393
hay những robot được cấp quyền công dân ở 1 đất nước có thật,
00:30
wherever some new news story comes out
7
30125
2351
Tôi là kiểu người mà lũ bạn hay những người theo dõi hay gọi là
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
kẻ hay lo về tương lai.
00:35
or robots getting citizenship of an actual country,
9
35958
4185
Ta thấy điều này ở mọi nơi.
Truyền thông sợ rằng những lãnh chúa robot đang dần chiếm lấy thế giới.
00:40
I'm the person my friends and followers message
10
40167
3142
00:43
freaking out about the future.
11
43333
1542
Ta có thể đỗ lỗi cho Hollywood vì điều này.
00:45
We see this everywhere.
12
45833
2101
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
Nhưng trong thực tế, đó không phải là vấn đề mà ta nên tập trung vào.
00:52
We could blame Hollywood for that.
14
52875
1917
Còn nhiều mối nguy hơn đang đè ấp, 1 nguy cơ lớn hơn với AI,
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
mà ta cần sửa chữa đầu tiên.
Nên ta sẽ quay lại với câu hỏi này:
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
Bạn dùng AI để ra bao nhiêu quyết định cho mình vào hôm nay?
01:04
that we need to fix first.
17
64917
1583
01:07
So we are back to this question:
18
67417
2309
Và bao nhiêu trong số đó
01:09
How many decisions have been made about you today by AI?
19
69750
4708
dựa trên giới tính, chủng tộc hay lí lịch của bạn?
01:15
And how many of these
20
75792
1976
Các thuật toán được dùng vào mọi lúc
01:17
were based on your gender, your race or your background?
21
77792
4500
để đưa quyết định rằng ta là ai và ta muốn gì.
Vài người phụ nữ trong phòng này sẽ biết tôi đang nói về cái gì
01:24
Algorithms are being used all the time
22
84500
2768
01:27
to make decisions about who we are and what we want.
23
87292
3833
Nếu bạn được gọi tham gia vào những quảng cáo thử thai trên YouTube
tầm 1,000 lần.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
Hoặc bạn đã lướt qua các quảng cáo của các phòng khám hiếm muộn
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
trên Facebook feed.
Hay trong trường hợp của tôi, là văn phòng hôn nhân Ấn Độ.
01:39
like 1,000 times.
26
99667
2059
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
(Cười)
Nhưng AI không chỉ được dùng để ra quyết định
01:44
on your Facebook feed.
28
104625
2042
về các sản phầm mà ta muốn mua
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
hay về chương mình mà ta muốn xem tiếp.
01:50
(Laughter)
30
110042
1267
01:51
But AI isn't just being used to make decisions
31
111333
2976
Tôi tự nhũ bạn sẽ cảm thấy thế nào khi có ai đó nghĩ về mấy thứ như này:
01:54
about what products we want to buy
32
114333
2601
01:56
or which show we want to binge watch next.
33
116958
2500
“Một người da den hoặc Latin
sẽ có khả năng trả nợ đúng hạn ít hơn so với một người da trắng.”
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
“Một người tên John có thể là một lập trình viên tốt hơn
02:06
"A black or Latino person
35
126250
1934
so với một người tên Mary.”
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
“Người da đen thì có khả năng tái phạm tội cao hơn người da trắng.”
02:13
"A person called John makes a better programmer
37
133542
2809
02:16
than a person called Mary."
38
136375
1667
Bạn có lẽ đang nghĩ,
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
“Wow, giọng điệu đó như là 1 kẻ phân biệt chủng tộc và giới tính,” đúng chứ?
Đây là vài quyết định thật mà AI đưa ra gần đây,
02:26
You're probably thinking,
40
146958
1268
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
dựa trên những định kiến mà nó học được từ chúng ta,
từ chính con người.
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
AI đang được dùng để giúp ra quyết định rằng bạn có được gọi tới phỏng vấn;
02:37
based on the biases it has learned from us,
43
157875
2934
02:40
from the humans.
44
160833
1250
bạn trả bao nhiêu cho bảo hiểm xe hơi;
điểm tín dụng của bạn tốt ra sao;
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
và cả xếp hạng bạn đạt được
trong đánh giá hiệu suất hàng năm của mình.
02:48
how much you pay for your car insurance;
46
168583
2393
Nhưng tất cả những quyết định này đều được sàn lọc qua
02:51
how good your credit score is;
47
171000
1893
những giả định của nó về danh tính, chủng tộc, giới tính, tuổi tác của ta.
02:52
and even what rating you get in your annual performance review.
48
172917
3125
02:57
But these decisions are all being filtered through
49
177083
3143
Sao điều đó lại xảy ra?
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
Giờ, tưởng tương một AI đang giúp người quản lí tuyển dụng
tìm ra nhóm trưởng công nghệ kế tiếp trong công ty.
03:08
How is that happening?
51
188250
2268
Đến nay, người quản lí đã tuyển phần lớn là nam giới.
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
Nên AI đã học ra 1 điều là nam giới làm lập trình nhiều hơn nữ.
03:14
find the next tech leader in the company.
53
194083
2851
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
Và đó có thể xem là một bước nhảy vọt ngắn để nó cho là:
nam giới giỏi lập trình hơn nữ giới.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
Chính ta đã tăng cường sự thiên vị của mình vào AI.
03:25
And it's a very short leap from there to:
56
205542
2892
Và giờ, nó đang lọc ra hết những ứng viên nữ.
03:28
men make better programmers than women.
57
208458
2042
03:31
We have reinforced our own bias into the AI.
58
211417
3726
Mà khoan, nếu quản lí tuyển dụng là con người làm điều này,
03:35
And now, it's screening out female candidates.
59
215167
3625
ta đang bị xúc phạm, ta không cho phép điều đó.
Thể loại phân biệt giới tính này quả thật không ổn.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
Và bằng cách nào đó, AI đã vượt lên trên cả quy luật,
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
bởi máy móc là thứ ra quyết định.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
03:49
And yet somehow, AI has become above the law,
63
229833
4518
Không phải do nó.
Chính ta cũng đã tăng cường định kiến của mình trong cách mà ta tương tác với AI
03:54
because a machine made the decision.
64
234375
2083
Bạn có thường sử dụng trợ lí giọng nói như Siri, Alexa hay cả Cortana?
03:57
That's not it.
65
237833
1518
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
Chúng đều có 2 điểm chung:
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
thứ nhất, chúng không bao giờ nhớ đúng tên tôi,
và thứ 2, chúng đều là nữ.
04:10
They all have two things in common:
68
250917
2559
Chúng được thiết kể để là những đầy tớ ngoan ngoãn của ta,
04:13
one, they can never get my name right,
69
253500
3101
bật tắt đèn của bạn, đặt hàng hộ bạn.
04:16
and second, they are all female.
70
256625
2667
Ta cũng có cả AI nam nữa, nhưng chúng có vẻ quyền lực hơn,
04:20
They are designed to be our obedient servants,
71
260417
2767
như IBM Watson, dùng để ra quyết định kinh doanh,
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
Einstein của Salesforce hay ROSS, một luật sư robot.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
Nên hơi tội cho robot, đến cả chúng cũng bị phân biệt giới tính nơi công sở.
04:30
like IBM Watson, making business decisions,
74
270458
3059
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
(Cười)
Hãy thử nghĩ 2 thứ này hợp lại và ảnh hưởng đến
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
1 đứa trẻ mới lớn trong thế giới xoay quanh AI ra sao.
04:42
(Laughter)
77
282292
1125
04:44
Think about how these two things combine
78
284542
2851
Nên họ đã làm vài nghiên cứu cho 1 dự án trường học
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
và họ Google các bức ảnh của CEO.
Thuật toán cho ra kết quả phần lớn là đàn ông.
04:52
So they're doing some research for a school project
80
292750
2934
Và rồi, họ Google trợ lí cá nhân.
04:55
and they Google images of CEO.
81
295708
3018
Như bạn có thể đoán, nó cho ra chủ yếu là nữ.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
Và rồi họ muốn bật chút âm nhạc, và có thể là đặt ít đồ ăn,
05:01
And now, they Google personal assistant.
83
301667
2559
và giờ, họ ra lệnh cho trợ lí có giọng nữ đầy vâng lời ấy.
05:04
As you can guess, it shows them mostly females.
84
304250
3434
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
Vài trong số các bộ óc thông minh nhất của nhân loại
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
đang tạo ra thứ công nghệ này hiện nay.
Thứ công nghệ có thể tạo ra mọi thứ mà chúng muốn.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
Và, họ đã chọn tạo ra nó theo phong cách của thư kí “Mad Man” những năm 50.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
Yay!
Nhưng OK, đừng quá lo.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
bài nói này sẽ không dừng ở khúc mà tôi bảo
rằng ta cứ thể để những cỗ máy phân biệt chủng tộc, giới tính vận hành thế giới.
05:34
Yay!
90
334792
1500
05:36
But OK, don't worry,
91
336958
1310
Tin tốt về AI là toàn bộ vẫn trong tầm kiểm soát của ta.
05:38
this is not going to end with me telling you
92
338292
2059
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
Ta cần dạy AI về những giá trị, những phẩm chất đạo đức đúng đắn.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
Nên có 3 điều mà ta có thể làm.
Thứ nhất, ta có thể cảnh giác về chính những định kiến của mình
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
và định kiến của những cỗ máy quanh ta.
05:56
So there are three things we can do.
96
356167
2184
Hai là, ta cần chắc chắn là có các đội nhóm khác nhau
05:58
One, we can be aware of our own biases
97
358375
3351
đang xây dựng thứ công nghệ này.
Và ba là, ta cần cho chúng những trải nghiệm đa dạng để học hỏi
06:01
and the bias in machines around us.
98
361750
2726
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
Tôi có thể nói về 2 cái đầu tiên là nhờ kinh nghiệm cá nhân
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
Khi bạn làm ở mảng công nghệ
và bạn trông không giống Mark Zuckerberg hay Elon Musk,
06:14
I can talk about the first two from personal experience.
101
374875
3309
cuộc sống của bạn sẽ hơi khó khăn, năng lực của bạn thì bị đặt dấu hỏi.
06:18
When you work in technology
102
378208
1435
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
Đây là một ví dụ.
Cũng như đa số các nhà phát triển, tôi hay tham gia các diễn đàn công nghệ
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
và chia sẻ kiến thức để giúp đỡ mọi người.
06:27
Here's just one example.
105
387875
1393
Và tôi thấy,
06:29
Like most developers, I often join online tech forums
106
389292
3726
khi tôi tham gia với tư cách là chính mình, với ảnh và tên của chính tôi,
06:33
and share my knowledge to help others.
107
393042
3226
Tôi thường nhận được những câu hỏi hoặc bình luận như này:
06:36
And I've found,
108
396292
1309
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
“Cô nghĩ là cô có đủ bằng cấp để nói chuyện về AI ở đây à?”
06:41
I tend to get questions or comments like this:
110
401625
4601
“Cô nghĩ là cô biết về học máy tới mức nào?”
Nên, bạn biết đó, tôi đã lập một tài khoản khác,
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
và lần này, thay vì ảnh của chính tôi, tôi chọn ảnh 1 con mèo đeo tên lửa.
06:50
"What makes you think you know about machine learning?"
112
410458
3476
06:53
So, as you do, I made a new profile,
113
413958
3435
Và tôi chọn 1 cái tên để không làm lộ giới tính thật.
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
Các bạn có thể đoán được diễn biến sau đó rồi chứ hả?
Nên, lần này, tôi đã không nhận được bình luận khiếm nhã nào về năng lực của mình
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
07:05
You can probably guess where this is going, right?
116
425917
2726
và tôi thực sự có thể hoàn thành một số việc.
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
Và nó khốn nạn lắm.
Tôi đã tạo ra các con robot khi mới 15,
07:15
and I was able to actually get some work done.
118
435083
3334
tôi có ít bằng cấp về khoa học máy tính,
và rồi sau, tôi phải giấu giới tính của mình
07:19
And it sucks, guys.
119
439500
1851
để cho công việc của tôi được thực hiện nghiêm túc.
07:21
I've been building robots since I was 15,
120
441375
2476
07:23
I have a few degrees in computer science,
121
443875
2268
Nên là, chuyện gì đang xảy ra vậy?
Liêu đàn ông có giỏi về công nghệ hơn đàn bà?
07:26
and yet, I had to hide my gender
122
446167
2434
07:28
in order for my work to be taken seriously.
123
448625
2250
Một nghiên cứu khác chỉ ra
rằng khi một nữ lập trình viên trên 1 nền tảng giấu giới tính thật, như tôi,
07:31
So, what's going on here?
124
451875
1893
07:33
Are men just better at technology than women?
125
453792
3208
mã lập trình của họ sẽ có tỉ lệ được chấp thuận cao hơn 4% so với nam.
07:37
Another study found
126
457917
1559
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
Nên vấn đề không nằm ở thiên phú.
Đấy là về tinh hoa của AI
07:44
their code was accepted four percent more than men.
128
464458
3250
nói rằng một lập trình viên phải trông giống một người nhất định.
07:48
So this is not about the talent.
129
468542
2916
Cái mà ta thực sự cần làm để khiến AI tốt hơn
07:51
This is about an elitism in AI
130
471958
2893
chính là mang đến những người từ mọi loại bối cảnh lại với nhau.
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
Ta cần những người có thể viết và kể những câu chuyện
07:59
What we really need to do to make AI better
132
479375
3101
để giúp ta định hình tính cách cho AI.
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
Ta cần những người có thể giải quyết vấn đề.
08:06
We need people who can write and tell stories
134
486542
2559
Ta cần những người có thể đối diện với thách thức
08:09
to help us create personalities of AI.
135
489125
2167
và ta cần những người có thể nói ta biết vấn đề thực sự cần khắc phục là gì
08:12
We need people who can solve problems.
136
492208
2042
08:15
We need people who face different challenges
137
495125
3768
và giúp ta tìm cách để công nghệ có thể thật sự khắc phục nó.
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
Bởi, khi những người từ những bối cảnh đa dạng cùng chung tay,
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
khi ta xây dựng những thứ theo đúng cách,
thì các khả năng là vô hạn.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
Và đó chính là cái kết mà tôi muốn nói cho các bạn.
08:33
when we build things in the right way,
141
513583
2143
Các robot phân biệt chủng tộc hay các cỗ máy lấy mất việc của ta sẽ dần ít đi
08:35
the possibilities are limitless.
142
515750
2042
và những thành tựu của công nghệ sẽ càng nhiều thêm.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
Nên, đúng vậy, vài thứ năng lượng trong thế giới của AI,
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
trong thế giới của công nghệ
08:46
and more about what technology can actually achieve.
145
526332
3125
sẽ là về các quảng cáo mà bạn thấy trên sóng nhà mình.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
Nhưng rất nhiều trong số đó đang hướng tới việc làm cho thế giới tốt đẹp hơn.
08:53
in the world of technology
147
533750
1393
08:55
is going to be about what ads you see on your stream.
148
535167
4267
Thử nghĩ về một người phụ nữ mang thai ở Cộng hòa Dân chủ Congo,
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
người phải đi bộ 17 tiếng để đến phòng khám thai gần nhất trong thôn
để được chuẩn đoán.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
Sẽ ra sao nếu thay vào đó cô ấy được chuẩn đoán qua điện thoại?
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
Hay nghĩ về điều mà AI có thể làm
09:13
to get a checkup.
152
553500
1851
cho 1 trong 3 người phụ nữ ở Nam Phi
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
những người phải hứng chịu bạo lực gia đình.
Nếu nó không an toàn để nói thành lời,
09:19
Or think about what AI could do
154
559750
1809
09:21
for those one in three women in South Africa
155
561583
2726
họ có thể dùng dịch vụ của AI để nâng cao cảnh giác,
được tư vấn tài chính và pháp lý.
09:24
who face domestic violence.
156
564333
2125
09:27
If it wasn't safe to talk out loud,
157
567083
2726
Đây đều là các ví dụ thực tiễn của các dự án mà người ta, bao gồm cả tôi,
09:29
they could get an AI service to raise alarm,
158
569833
2476
09:32
get financial and legal advice.
159
572333
2459
đang thực hiện bây giờ, dùng đến AI.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
Nên, tôi chắc là vài ngày tới sẽ có thêm một câu chuyện thời sự khác
về những nguy cơ đang hiện hữu,
09:41
are working on right now, using AI.
161
581000
2500
lũ robot đang chiếm hữu và lấy dần công việc của bạn.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
(Cười)
Và khi chuyện như vậy xảy tới,
09:49
about the existential risk,
163
589167
2684
Tôi biết là tôi cũng có 1 thông điệp tương tự là hoài lo về tương lai
09:51
robots taking over and coming for your jobs.
164
591875
2434
Nhưng tôi cảm thấy vô cùng tích cực về thứ công nghệ này.
09:54
(Laughter)
165
594333
1018
09:55
And when something like that happens,
166
595375
2309
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
Đây là cơ hội của chúng ta để kiến tạo lại thế giới thành 1 nơi công bằng hơn.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
Nhưng để làm điều đó, ta cần xây dựng đúng cách ngay từ đầu.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
Ta cần những người với giới tính, chủng tộc, xu hướng và bối cảnh khác nhau
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
Ta cần phụ nữ là những người kiến tạo
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
chứ không chỉ là những cỗ máy đang tính toán sự kiến tạo.
Ta cần suy nghĩ thận trọng về cái mà ta dạy máy móc,
10:26
We need women to be the makers
172
626458
2476
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
về dữ liệu mà ta đưa cho chúng,
nhằm để chúng không lặp lại những sai lầm của ta trong quá khứ.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
Nên tôi hy vọng bạn có thể suy nghẫm về 2 thứ
10:37
what data we give them,
175
637667
1642
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
Thứ nhất, tôi hy vọng bạn suy nghẫm lại về định kiến ngày nay.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
Và rằng lần tới mà bạn lướt ngang qua 1 quảng cáo
nói rằng bạn đang hứng thú với phòng khám hiếm muộn
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
hay các trang cá cược online,
10:53
And that the next time you scroll past an advert
179
653125
3184
bạn hãy nhớ một điều như này
thứ công nghệ tương tự cũng đang giả định rằng người đàn ông da đen sẽ lại tái phạm.
10:56
that assumes you are interested in fertility clinics
180
656333
2810
10:59
or online betting websites,
181
659167
2851
Hay một người phụ nữ sẽ có khả năng làm trợ lí cá nhân cao hơn là CEO.
11:02
that you think and remember
182
662042
2017
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
Và tôi hy vọng điều đó gợi nhắc bạn rằng ta cần làm gì đó.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
Và hai là,
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
Tôi hy vọng mọi người nghĩ về một thực tế
là bạn không nhất thiết phải nhìn về 1 hướng
hay nền tảng nhất định về kĩ sư hay công nghệ
11:20
And second,
186
680917
1851
11:22
I hope you think about the fact
187
682792
1892
để tạo ra AI,
thứ sẽ là một lực lượng phi thường trong tương lai của chúng ta.
11:24
that you don't need to look a certain way
188
684708
1976
11:26
or have a certain background in engineering or technology
189
686708
3851
Bạn không cần phải trông như Mark Zuckenberg,
bạn có thể trông như tôi.
11:30
to create AI,
190
690583
1268
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
Và đó là nghĩa vụ của tất cả những ai trong căn phòng này
nhằm thuyết phục chính phủ và các tập đoàn
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
11:38
you can look like me.
193
698333
1250
xây dựng công nghệ AI cho tất cả mọi người,
11:41
And it is up to all of us in this room
194
701250
2893
bao gồm cả các trường hợp ngoại lệ.
Và để cho tất cả chúng ta được giáo dục
11:44
to convince the governments and the corporations
195
704167
2726
về thứ công nghệ hiện tượng này trong tương lai.
11:46
to build AI technology for everyone,
196
706917
2892
11:49
including the edge cases.
197
709833
2393
Bởi nếu ta làm thế,
thì ta chỉ mới chạm vào phần nổi của những gì ta có thể đạt được với AI.
11:52
And for us all to get education
198
712250
2059
11:54
about this phenomenal technology in the future.
199
714333
2375
Cám ơn mọi người.
(Vỗ tay)
11:58
Because if we do that,
200
718167
2017
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
12:05
Thank you.
202
725125
1268
12:06
(Applause)
203
726417
2708
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7