How humans and AI can work together to create better businesses | Sylvain Duranton

28,428 views

2020-02-14 ・ TED


New videos

How humans and AI can work together to create better businesses | Sylvain Duranton

28,428 views ・ 2020-02-14

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Translator: Anh Trần Reviewer: vo vy
00:12
Let me share a paradox.
1
12865
2127
Để tôi chia sẻ với các bạn một nghịch lí.
00:16
For the last 10 years,
2
16429
1467
Trong suốt mười năm qua,
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
nhiều công ty đã cố gắng hạn chế tình trạng quan liêu,
00:21
to have fewer central rules and procedures,
4
21792
2833
giảm bớt các quy tắc và quy trình,
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
cho phép các địa phương tự quản để bộ máy trở nên tinh gọn hơn.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Và giờ họ đang làm việc nhiều hơn với trí tuệ nhân tạo, AI,
00:32
unaware that cool technology
7
32814
2445
mà không biết rằng công nghệ
00:35
might make them more bureaucratic than ever.
8
35283
3602
có thể gia tăng tình trạng quan liêu hơn trước.
00:39
Why?
9
39378
1151
Tại sao?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Vì trí tuệ nhân tạo vận hành giống nạn quan liêu.
00:44
The essence of bureaucracy
11
44403
2412
Bản chất của nạn quan liêu
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
là đề cao các quy tắc và quy trình hơn quyết định của con người.
00:51
And AI decides solely based on rules.
13
51887
3841
Và trí tuệ nhân tạo quyết định hoàn toàn dựa trên các quy tắc.
00:56
Many rules inferred from past data
14
56062
2833
Rất nhiều các quy tắc dựa trên dữ liệu trước
00:58
but only rules.
15
58919
1904
nhưng chỉ là các quy tắc.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
Và nếu quyết định của con người không được xem trọng,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
trí tuệ nhân tạo sẽ tạo ra một kiểu quan liêu mới đáng sợ hơn --
01:09
I call it "algocracy" --
18
69538
2999
tôi gọi nó là "algocracy" --
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
nơi trí tuệ nhân tạo sẽ đưa ra nhiều quyết định hoàn toàn dựa trên các quy tắc
01:17
outside of any human control.
20
77085
2317
ngoài tầm kiểm soát của con người.
01:20
Is there a real risk?
21
80427
1674
Có rủi ro gì đằng sau đó không?
01:22
Yes.
22
82514
1150
Có.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Tôi lãnh đạo một đội gồm 800 chuyên gia về trí tuệ nhân tạo.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Chúng tôi đã triển khai hơn 100 giải pháp đặc chế về trí tuệ nhân tạo
01:30
for large companies around the world.
25
90599
2467
tại các công ty lớn trên toàn thế giới.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Và tôi chứng kiến nhiều tổ chức đoàn thể vận hành giống nạn quan liêu ngày trước.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Họ muốn chiếm nhiều tiền, loại bỏ những người kiểu cũ ra khỏi cuộc chơi
01:44
and rely only upon AI to take decisions.
28
104720
3865
và dựa hoàn toàn vào trí tuệ nhân tạo để đưa ra quyết định.
01:49
I call this the "human-zero mindset."
29
109244
4253
Tôi gọi đó là "con người có tư duy bằng không."
01:54
And why is it so tempting?
30
114260
2118
Tại sao điều này lại lôi cuốn đến vậy?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Vì "Con người với trí tuệ nhân tạo" là một quá trình dài,
02:02
costly and difficult.
32
122307
2609
tốn kém và đầy khó khăn.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Đội kinh doanh, đội công nghệ, đội dữ liệu khoa học
02:08
have to iterate for months
34
128257
2079
phải nhắc đi nhắc lại trong nhiều tháng
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
với nhân viên cách để con người và trí tuệ nhân tạo có thể hợp tác với nhau tốt nhất.
02:16
Long, costly and difficult.
36
136160
3428
Một hành trình dài, tốn kém và đầy khó khăn.
02:19
But the reward is huge.
37
139891
2070
Nhưng thành quả nhận được vô cùng to lớn.
02:22
A recent survey from BCG and MIT
38
142343
3306
Một cuộc khảo sát gần đây từ BCG và MIT
02:25
shows that 18 percent of companies in the world
39
145673
4507
cho thấy 18% các công ty trên thế giới
02:30
are pioneering AI,
40
150204
2214
đã đi đầu trong lĩnh vực trí tuệ nhân tạo,
02:32
making money with it.
41
152442
2301
kiếm tiền từ nó.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Các công ty này tập trung 80% nguồn lực về trí tuệ nhân tạo
02:40
on effectiveness and growth,
43
160771
1953
để đảm bảo tính hiệu quả và sự phát triển
02:42
taking better decisions --
44
162748
2170
và đưa ra các quyết định đúng đắn --
02:44
not replacing humans with AI to save costs.
45
164942
3538
và không thay thế con người bằng trí tuệ nhân tạo để tiết kiệm chi phí.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Tại sao quyết định của con người vẫn quan trọng?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Đơn giản vì làm một mình, trí tuệ nhân tạo có thể sẽ làm những việc ngớ ngẩn.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Có khi không có gì nghiêm trọng, như dòng tweet này.
03:03
"Dear Amazon,
49
183212
1564
"Amazon thân mến,
03:04
I bought a toilet seat.
50
184800
1386
tôi đã mua một cái bồn cầu.
03:06
Necessity, not desire.
51
186210
1661
Do tôi cần, chứ không phải ao ước.
03:07
I do not collect them,
52
187895
1452
Tôi không sưu tầm chúng,
03:09
I'm not a toilet-seat addict.
53
189371
2238
tôi không phải là người thích bồn cầu.
03:11
No matter how temptingly you email me,
54
191633
2206
Dù bạn có gửi một email hấp dẫn thế nào,
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
tôi cũng không bao giờ nghĩ, "Oh, tiếp tục đi,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
cho tôi một cái bồn cầu nữa, tôi sẽ tự xử."
03:18
(Laughter)
57
198400
1344
(Cười)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Nhưng đôi khi nghiêm trọng hơn, như dòng tweet này.
03:24
"Had the same situation
59
204903
1787
"Cùng tình trạng
03:26
with my mother's burial urn."
60
206714
2459
với hũ đựng tro cốt của mẹ tôi."
03:29
(Laughter)
61
209197
1008
(Cười)
03:30
"For months after her death,
62
210229
1365
"Nhiều tháng sau khi bà mất,
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
tôi liên tục nhận được tin nhắn từ Amazon, nói rằng, "Nếu bạn thích..."
03:35
(Laughter)
64
215190
2015
(Cười)
03:37
Sometimes with worse consequences.
65
217229
2528
Có khi lại gây hậu quả nghiêm trọng hơn.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Để trí tuệ nhân tạo đánh trượt hồ sơ của học sinh nộp vào trường đại học.
03:44
Why?
67
224535
1150
Tại sao?
03:45
Because it has "learned," on past data,
68
225709
2670
Vì nó được "lập trình", dựa trên dữ liệu
03:48
characteristics of students that will pass and fail.
69
228403
3182
và đặc điểm của những học sinh sẽ đỗ hoặc trượt.
03:51
Some are obvious, like GPAs.
70
231609
2103
Một số cái rất rõ ràng, như điểm GPA.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Nhưng nếu tất cả học sinh cùng một mã bưu chính bị trượt,
03:59
it is very likely that AI will make this a rule
72
239202
3532
rất có thể trí tuệ nhân tạo sẽ lấy đó làm nguyên tắc
04:02
and will reject every student with this postal code,
73
242758
3770
và sẽ đánh trượt tất cả học sinh có mã bưu chính đó,
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
không cho ai cơ hội chứng minh rằng nguyên tắc đó là sai.
04:11
And no one can check all the rules,
75
251857
2516
Và không ai có thể kiểm tra toàn bộ nguyên tắc,
04:14
because advanced AI is constantly learning.
76
254397
3452
vì trí tuệ nhân tạo làm việc liên tục.
04:18
And if humans are kept out of the room,
77
258307
2326
Và nếu con người không có ở đó,
04:20
there comes the algocratic nightmare.
78
260657
3277
sẽ xảy ra những ác mộng trí tuệ nhân tạo.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Ai sẽ chịu trách nhiệm cho việc đánh trượt thí sinh?
04:27
No one, AI did.
80
267347
1643
Không ai, sẽ là trí tuệ nhân tạo.
04:29
Is it fair? Yes.
81
269014
1674
Điều này có công bằng không? Có.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Bộ nguyên tắc tương tự cũng được áp dụng với mọi người.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Liệu có thể cân nhắc lại về trường hợp của những đứa trẻ có mã bưu chính sai?
04:38
No, algos don't change their mind.
84
278899
3111
Không, thuật toán không thể quyết định.
04:42
We have a choice here.
85
282974
2016
Chúng ta có một lựa chọn ở đây.
04:45
Carry on with algocracy
86
285756
2524
Tiếp tục làm việc với trí tuệ nhân tạo
04:48
or decide to go to "Human plus AI."
87
288304
2865
hoặc quyết định đi tới "Con người với trí tuệ nhân tạo."
04:51
And to do this,
88
291193
1333
Và để làm được việc này,
04:52
we need to stop thinking tech first,
89
292550
3440
ta cần dừng nghĩ đến công nghệ đầu tiên,
04:56
and we need to start applying the secret formula.
90
296014
3650
và cần bắt đầu áp dụng một công thức bí mật.
05:00
To deploy "Human plus AI,"
91
300601
2103
Để triển khai "Con người và trí tuệ nhân tạo"
05:02
10 percent of the effort is to code algos;
92
302728
2921
cần 10% nỗ lực lập trình thuật toán;
05:05
20 percent to build tech around the algos,
93
305673
3531
20% xây dựng công nghệ xung quanh thuật toán,
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
thu thập dữ liệu, xây dựng giao diện người dùng, hợp nhất vào hệ thống;
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
nhưng 70% còn lại
05:16
is about weaving together AI with people and processes
96
316286
4476
sẽ khớp trí tuệ nhân tạo với con người và các quy trình
05:20
to maximize real outcome.
97
320786
2374
để tối đa hoá giá trị sản phẩm thu được.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
Trí tuệ nhân tạo thất bại khi ta rút ngắn 70% kia.
05:28
The price tag for that can be small,
99
328794
3159
Tag giá có thể nhỏ,
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
nhưng lại tốn rất nhiều triệu đô vào thứ công nghệ vô dụng.
05:35
Anyone cares?
101
335986
1150
Có ai quan tâm không?
05:38
Or real tragedies:
102
338153
2325
Hoặc là những bi kịch có thực:
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
Có 346 thương vong trong vụ va chạm gần đây giữa hai máy bay B-737
05:48
when pilots could not interact properly
104
348776
3261
khi các phi công không thể kết nối trực tiếp
05:52
with a computerized command system.
105
352061
2467
với hệ thống máy tính.
05:55
For a successful 70 percent,
106
355974
1794
Muốn thành công ở 70% này
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
bước đầu tiên là phải đảm bảo thuật toán phải được các nhà khoa học dữ liệu
06:02
and domain experts together.
108
362911
2118
và các chuyên gia trong ngành lập trình.
06:05
Take health care for example.
109
365427
2198
Lấy một ví dụ thuộc ngành chăm sóc sức khoẻ.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Một nhóm của tôi gặp phải một vấn đề nhỏ khi nghiên cứu loại thuốc mới.
06:12
When taking their first dose,
111
372784
1499
Khi uống liều đầu tiên,
06:14
some patients, very few, have heart attacks.
112
374307
3484
một số ít bệnh nhân có thể bị đau tim.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Vậy nên tất cả các bệnh nhân sau khi uống liều đầu tiên
06:21
have to spend one day in hospital,
114
381276
2682
phải ở lại bệnh viện một ngày
06:23
for monitoring, just in case.
115
383982
2071
để được theo dõi.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Mục tiêu là xác định những bệnh nhân không có nguy cơ đau tim,
06:32
who could skip the day in hospital.
117
392193
2333
để có thể không phải ở lại bệnh viện nữa.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Chúng tôi dùng trí tuệ nhân tạo phân tích dữ liệu từ các cuộc thử nghiệm y học,
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
liên hệ dấu hiệu điện tim, thành phần của máu, các dấu ấn sinh học
06:44
with the risk of heart attack.
120
404537
2000
với nguy cơ bị đau tim.
06:47
In one month,
121
407232
1274
Trong một tháng,
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
mẫu của chúng tôi đã giúp 62% bệnh nhân không có nguy cơ mắc đau tim.
06:54
They could skip the day in hospital.
123
414887
2222
Họ không cần phải ở lại bệnh viện.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Bạn có cảm thấy thoải mái khi được ở nhà sau lần uống thuốc đầu tiên
07:01
if the algo said so?
125
421379
1524
nếu thuật toán nói như thế?
07:02
(Laughter)
126
422927
1015
(Cười)
07:03
Doctors were not.
127
423966
1650
Các bác sĩ thì không.
07:05
What if we had false negatives,
128
425966
2302
Sẽ ra sao nếu ta đánh giá sai,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
nhỡ các bệnh nhân mà trí tuệ nhân tạo cho rằng họ có thể ở nhà, lại qua đời?
07:13
(Laughter)
130
433545
1365
(Cười)
07:14
There started our 70 percent.
131
434934
2452
Đây là khởi đầu cho 70% của chúng tôi.
07:17
We worked with a team of doctors
132
437410
1992
Chúng tôi đã làm việc với đội ngũ bác sĩ
07:19
to check the medical logic of each variable in our model.
133
439426
3799
để kiểm tra tính logic về mặt y học của mỗi biến số trong mẫu của mình.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Ví dụ, chúng tôi dùng sự tập trung các enzym của gan
07:28
as a predictor,
135
448130
1273
để dự đoán,
07:29
for which the medical logic was not obvious.
136
449427
3698
trong trường hợp này tính logic không hề rõ ràng.
07:33
The statistical signal was quite strong.
137
453149
2666
Các dấu hiệu thống kê khá nhiều.
07:36
But what if it was a bias in our sample?
138
456300
2833
Nhưng sẽ ra sao nếu có một đường chéo ở mẫu của chúng tôi?
07:39
That predictor was taken out of the model.
139
459157
2800
Sự dự đoán này vượt ra ngoài mẫu của chúng tôi.
07:42
We also took out predictors for which experts told us
140
462307
3445
Chúng tôi cũng thử nghiệm một vài dự đoán do các chuyên gia gợi ý
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
nhưng không được các bác sĩ đánh giá chặt chẽ.
07:50
After four months,
142
470371
1690
Sau bốn tháng,
07:52
we had a model and a medical protocol.
143
472085
3071
chúng tôi đã có mô hình và biên bản y tế.
07:55
They both got approved
144
475514
1666
Cả hai đều được đồng ý.
07:57
my medical authorities in the US last spring,
145
477204
3222
Nghiên cứu của tôi ở Mỹ vào mùa xuân năm ngoái
08:00
resulting in far less stress for half of the patients
146
480450
3706
giúp giảm sự căng thẳng cho một nửa bệnh nhân
08:04
and better quality of life.
147
484180
1800
và cải thiện chất lượng cuộc sống.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Và chúng tôi hi vọng sẽ bán được 100 triệu cho loại thuốc này.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
70% trong việc hợp tác trí tuệ nhân tạo với đội ngũ và các quy trình
08:15
also means building powerful interfaces
150
495890
3571
đã xây dựng được mặt phân giãn vững chắc
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
cho con người và trí tuệ nhân tạo cùng giải quyết những vấn đề hóc búa nhất.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Một lần chúng tôi có thử thách từ nhà bán lẻ thời trang.
08:31
"We have the best buyers in the world.
153
511143
2498
"Chúng tôi đã có khách hàng tốt nhất trên thế giới.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Các bạn có thể thiết kế động cơ dùng trí tuệ nhân tạo mà dự đoán được mặt hàng?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
Nói cho chúng tôi biết bao nhiêu áo phông nam cao cấp, màu xanh nhạt
08:42
we need to buy for next year?
156
522990
2047
chúng tôi cần mua cho năm sau?
08:45
At predicting better what will sell or not
157
525061
2810
Và dự đoán xem cái gì bán được hay không
08:47
than our designers."
158
527895
1960
tốt hơn các nhà thiết kế."
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
Đội chúng tôi đã nghiên cứu mô hình trong vài tuần, dựa vào dữ liệu bán hàng trước,
08:54
and the competition was organized with human buyers.
160
534434
3533
và cuộc thi được tổ chức với khách hàng thật.
08:58
Result?
161
538347
1150
Kết quả ư?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
Trí tuệ nhân tạo đã thắng, tỉ lệ dự đoán sai ít hơn 25%.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Con người cũng có thể thử sử dụng mô hình này
09:10
and create a fight with all human buyers.
164
550760
2754
và tạo ra một cuộc thách đấu với các khách hàng.
09:13
Have fun.
165
553538
1150
Thật thú vị.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Nhưng chúng tôi biết khách hàng có những hiểu biết về xu hướng thời trang
09:20
that could not be found in past data.
167
560355
2845
mà không có ở dữ liệu trước.
09:23
There started our 70 percent.
168
563701
2857
Bắt đầu 70% của chúng tôi.
09:26
We went for a second test,
169
566582
1944
Chúng tôi thực hiện bài kiểm tra thứ hai
09:28
where human buyers were reviewing quantities
170
568550
3103
để khách hàng kiểm tra số lượng sản phẩm
09:31
suggested by AI
171
571677
1662
được trí tuệ nhân tạo gợi ý
09:33
and could correct them if needed.
172
573363
2325
và có thể sửa chúng nếu cần.
09:36
Result?
173
576180
1150
Kết quả ư?
09:37
Humans using AI ...
174
577704
2117
Người sử dụng trí tuệ nhân tạo...
09:39
lose.
175
579845
1407
thất bại.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
75% lỗi được sửa bởi con người
09:45
were reducing accuracy.
177
585970
2055
lại ít chính xác hơn.
09:49
Was it time to get rid of human buyers?
178
589002
3174
Có phải đã đến lúc loại bỏ các khách hàng không?
09:52
No.
179
592200
1158
Không.
09:53
It was time to recreate a model
180
593382
2617
Đến lúc cần phải thiết kế lại mô hình
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
để con người không cần phải cố gắng dự đoán khi trí tuệ nhân tạo làm việc sai,
10:01
but where AI would take real input from human buyers.
182
601118
4542
nhưng là nơi trí tuệ nhân tạo có thể xử lí được thông tin từ khách hàng.
10:06
We fully rebuilt the model
183
606962
1611
Chúng tôi xây dựng lại mô hình
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
và tránh xa giao diện ban đầu, giao diện đó như muốn nói:
10:14
"Hey, human! This is what I forecast,
185
614585
2437
"Hey! Đây là những gì tôi dự đoán,
10:17
correct whatever you want,"
186
617046
1761
đối chiếu với cái bạn cần,"
10:18
and moved to a much richer one, more like,
187
618831
3636
và chuyển đến một giao diện giàu có hơn, như,
10:22
"Hey, humans!
188
622491
1976
"Hey,
10:24
I don't know the trends for next year.
189
624491
1825
tôi không biết xu hướng của năm sau.
10:26
Could you share with me your top creative bets?"
190
626340
2956
Bạn có thể chia sẻ dự đoán tốt nhất của mình được không?"
10:30
"Hey, humans!
191
630063
1476
"Hey,
10:31
Could you help me quantify those few big items?
192
631563
2719
bạn giúp tôi xác định số lượng một ít đồ lớn được không?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
Tôi không thể tìm thấy bất kì sự so sánh nào tốt trong quá khứ."
10:38
Result?
194
638401
1150
Kết quả ư?
10:40
"Human plus AI" wins,
195
640195
2000
"Con người và trí tuệ nhân tạo" đã thắng,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
giảm 50% tỉ lệ đoán sai.
10:47
It took one year to finalize the tool.
197
647770
2828
Phải mất một năm để hoàn thành công cụ này.
10:51
Long, costly and difficult.
198
651073
3317
Một quá trình dài, tốn kém và đầy khó khăn.
10:55
But profits and benefits
199
655046
2206
Nhưng lợi nhuận và lợi ích
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
mà nó mang lại là tiết kiệm được 100 triệu cho nhà bán lẻ mỗi năm.
11:03
Seventy percent on very sensitive topics
201
663459
2936
70% thành công ở các chủ đề nhạy cảm
11:06
also means human have to decide what is right or wrong
202
666419
3778
nghĩa là con người phải quyết định đúng sai
11:10
and define rules for what AI can do or not,
203
670221
4086
và đặt ra các luật lệ những gì trí tuệ nhân tạo có thể làm hoặc không,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
như đặt giá để ngăn chặn máy
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
trả mức giá cao quá cho những khách hàng không có học thức
11:22
who would accept them.
206
682387
1466
chấp nhận chúng.
11:24
Only humans can define those boundaries --
207
684538
2563
Chỉ con người mới có thể đặt ra ranh giới như vậy --
11:27
there is no way AI can find them in past data.
208
687125
3621
trí tuệ nhân tạo không thể tìm thấy chúng trong dữ liệu.
11:31
Some situations are in the gray zone.
209
691230
2467
Một số trường hợp trong vùng màu xám.
11:34
We worked with a health insurer.
210
694135
2745
Chúng tôi làm việc với một công ty bảo hiểm sức khoẻ.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Anh phát triển thiết bị dùng trí tuệ nhân tạo để xác định trong các khách hàng,
11:41
people who are just about to go to hospital
212
701641
2548
những người sẽ đến bệnh viện
11:44
to sell them premium services.
213
704213
2269
để bán dịch vụ bảo hiểm của mình.
11:46
And the problem is,
214
706506
1515
Vấn đề là,
11:48
some prospects were called by the commercial team
215
708045
2969
viễn cảnh được vẽ ra bởi những người làm thương mại
11:51
while they did not know yet
216
711038
2697
trong khi họ không biết rằng
11:53
they would have to go to hospital very soon.
217
713759
2818
mình sẽ sớm phải đến bệnh viện.
11:57
You are the CEO of this company.
218
717720
2317
Nếu là CEO của công ty này,
12:00
Do you stop that program?
219
720061
1667
bạn có dừng chương trình này không?
12:02
Not an easy question.
220
722577
1913
Không phải là một câu hỏi dễ.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Và để trả lời câu hỏi này, một số công ty đang xây dựng đội ngũ,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
đặt ra các tiêu chuẩn đạo đức giúp đội kinh doanh và công nghệ đặt giới hạn
12:13
between personalization and manipulation,
223
733918
3596
giữa việc cá nhân hoá và thao túng,
12:17
customization of offers and discrimination,
224
737538
2969
giữ việc tùy chỉnh đề nghị với việc phân biệt đối xử,
12:20
targeting and intrusion.
225
740531
2023
mục tiêu và sự xâm lấn.
12:24
I am convinced that in every company,
226
744562
3674
Tôi bị thuyết phục rằng ở mỗi công ty,
12:28
applying AI where it really matters has massive payback.
227
748260
4650
áp dụng trí tuệ nhân tạo thu được một nguồn lợi vô cùng lớn.
12:33
Business leaders need to be bold
228
753474
2151
Lãnh đạo các công ty cần dũng cảm
12:35
and select a few topics,
229
755649
1976
lựa chọn các chủ đề,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
và với mỗi chủ đề đó, huy động 10, 20, 30 người từ các đội tốt nhất --
12:42
tech, AI, data science, ethics --
231
762609
3333
công nghệ, trí tuệ nhân tạo, khoa học dữ liệu, nội quy --
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
và áp dụng đầy đủ vòng xoay 10, 20, 70%
12:50
of "Human plus AI,"
233
770411
1722
của "Con người và trí tuệ nhân tạo,"
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
nếu họ muốn khai thác trí tuệ nhân tạo hiệu quả trong đội và các quá trình.
12:57
There is no other way.
235
777006
1889
Không còn cách nào khác.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Các cư dân ở các nước phát triển sợ nạn quan liêu gây ra bởi trí tuệ nhân tạo.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
7000 người được hỏi trong cuộc khảo sát gần đây.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Hơn 75% bày tỏ sự lo lắng
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
về ảnh hưởng của trí tuệ nhân tạo đến lực lượng lao động, chính sách,
13:15
on the risk of a dehumanized society.
240
795697
3436
và nguy cơ xã hội trở thành vô nhân đạo.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Sự gia tăng của nạn quan liêu này sẽ tạo ra khe hở chống lại trí tuệ nhân tạo
13:24
within companies or in society at large.
242
804561
4103
ở các công ty và xã hội nói chung.
13:29
"Human plus AI" is our only option
243
809014
3285
"Con người với trí tuệ nhân tạo" là lựa chọn duy nhất của chúng ta
13:32
to bring the benefits of AI to the real world.
244
812323
3134
để mang những lợi ích của trí tuệ nhân tạo đến với thế giới.
13:36
And in the end,
245
816038
1158
Và cuối cùng,
13:37
winning organizations will invest in human knowledge,
246
817220
4134
chiến thắng các cuộc thi còn cung cấp cho con người kiến thức,
13:41
not just AI and data.
247
821378
2325
không chỉ trí tuệ nhân tạo và dữ liệu.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
Tuyển dụng, đào tạo và khen thưởng thành tích của con người.
13:48
Data is said to be the new oil,
249
828800
3142
Dữ liệu được cho là mỏ dầu mới,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
nhưng tin tôi đi, kiến thức của con người mới tạo ra sự khác biệt,
13:56
because it is the only derrick available
251
836061
3588
vì nó là cái cần cẩu có sẵn duy nhất
13:59
to pump the oil hidden in the data.
252
839673
3674
để hút dầu trong dữ liệu.
14:04
Thank you.
253
844633
1153
Xin cảm ơn.
14:05
(Applause)
254
845810
3904
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7