Machine intelligence makes human morals more important | Zeynep Tufekci

180,005 views ・ 2016-11-11

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Le Huong
Vì thế, tôi đã có công việc đầu tiên của mình là một lập trình viên máy tính
00:12
So, I started my first job as a computer programmer
0
12739
4122
00:16
in my very first year of college --
1
16885
1956
ngay trong những năm học đại học đầu tiên
00:18
basically, as a teenager.
2
18865
1507
về cơ bản, khi vẫn là một thiếu niên
00:20
Soon after I started working,
3
20889
1732
Không lâu sau khi tôi bắt đầu công việc,
00:22
writing software in a company,
4
22645
1610
trong lúc đang viết phần mềm cho công ty,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
thì người quản lý ở đó tiến đến chỗ tôi
00:28
and he whispered to me,
6
28458
1268
và thì thầm vào tai tôi
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Hắn có phát hiện nếu tôi nói dối không?"
00:33
There was nobody else in the room.
8
33806
2077
Không có một ai khác trong phòng cả.
"Ai có thể nhận ra anh đang nói dối?" "Và tại sao ta phải nói thầm?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
Ông quản lý chỉ tay vào chiếc máy tính trong phòng.
00:42
The manager pointed at the computer in the room.
10
42266
3107
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Hắn có phát hiện nếu tôi nói dối không?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Vâng, ông quản lý này đang ngoại tình với cô tiếp tân.
00:53
(Laughter)
13
53999
1112
( Cười)
Và tôi vẫn chỉ là một đứa oắt con.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
nên tôi nói thầm lại với anh ta,
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
" Có chứ, nó biết khi nào ông nói dối đấy."
(Cười)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Vâng, tôi cười nhưng thực ra là cười bản thân.
01:07
Nowadays, there are computational systems
19
67915
3268
Ngày nay, có những hệ thống máy tính
01:11
that can suss out emotional states and even lying
20
71207
3548
có thể nhận diện trạng thái cảm xúc, ngay cả việc nói dối
01:14
from processing human faces.
21
74779
2044
thông qua phân tích nhân diện.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Các nhà quảng cáo và thậm chí cả chính quyền rất hứng thú với điều này.
01:22
I had become a computer programmer
23
82319
1862
Tôi đã trở thành 1 lập trình viên
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
vì tôi từng là đứa trẻ say mê Toán và Khoa học.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Nhưng khoảng thời gian đó, tôi cũng học về vũ khí hạt nhân.
và tôi trở nên rất quan ngại về vấn đề đạo đức của khoa học.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Tôi đã rất bối rối.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Tuy nhiên, do hoàn cảnh gia đình,
01:37
I also needed to start working as soon as possible.
29
97943
3298
tôi cần phải bắt đầu làm việc càng sớm càng tốt.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Vì vậy nên tôi nói với bản thân, này, hãy chọn một ngành kỹ thuật
01:44
where I can get a job easily
31
104588
1796
giúp tôi có thể dễ dàng kiếm việc
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
mà lại không phải quan tâm đến những câu hỏi đạo đức phiền phức.
Vì vậy nên tôi chọn máy tính.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Cười lớn)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Vậy đấy! haha Tôi cười vì chính mình!
Ngày nay, các nhà khoa học máy tính xây dựng hệ điều hành
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
có thể điều khiển thứ mà một tỉ người xem hằng ngày.
Họ đang phát triển những chiếc xe có thể tự quyết định nó sẽ cán qua ai.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Họ thậm chí còn đang tạo ra nhiều máy móc, vũ khí,
02:12
that might kill human beings in war.
40
132944
2285
có thể tiêu diệt loài người trong chiến tranh.
02:15
It's ethics all the way down.
41
135253
2771
Chung quy lại đều liên quan tới đạo đức
02:19
Machine intelligence is here.
42
139183
2058
Trí tuệ nhân tạo là đây.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Ta không chỉ sử dụng những thuật toán để đưa ra mọi quyết định
02:25
but also new kinds of decisions.
44
145321
1886
mà còn cả những chuyện chưa từng xảy ra
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Ta đưa cho máy móc những câu hỏi không có một đáp án đúng nào cả,
02:32
that are subjective
46
152427
1202
những câu hỏi chủ quan
02:33
and open-ended and value-laden.
47
153653
2325
những câu hỏi mở và mang tính giả định.
Chúng ta hỏi những câu hỏi như,
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"Công ty nên thuê ai?"
"Những gì bạn nên được biết từ bạn bè?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Phạm nhân nào có khả năng tái phạm cao?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Dòng tin hay bộ phim nào nên được đề xuất cho mọi người?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Nhìn xem, đúng, chúng ta đã sử dụng máy tính một thời gian dài,
02:51
but this is different.
54
171988
1517
nhưng lần này thì khác.
02:53
This is a historical twist,
55
173529
2067
Đây là một bước ngoặt lịch sử,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
vì ta không thể trông cậy vào sự tính toán cho các quyết định chủ quan thế này
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
như cái cách chúng ta dựa vào nó để lái máy bay, xây cầu,
03:06
going to the moon.
58
186425
1259
để đi lên mặt trăng.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Máy bay liệu có an toàn hơn? Cây cầu có lắc lư và sập không?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Thế đấy, chúng ta đều có một chuẩn mực thống nhất và khá rõ ràng,
03:16
and we have laws of nature to guide us.
61
196254
2239
và ta có những quy luật của tự nhiên hướng dẫn.
03:18
We have no such anchors and benchmarks
62
198517
3394
Chúng ta không hề có những điểm tựa hay tiêu chuẩn như vậy
03:21
for decisions in messy human affairs.
63
201935
3963
cho các quyết định về những vấn đề phức tạp của con người.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Để làm vấn đề phức tạp hơn, phần mềm của ta ngày càng trở nên hùng mạnh,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
nhưng nó đồng thời trở nên khó hiểu và phức tạp hơn.
03:34
Recently, in the past decade,
66
214542
2040
Gần đây, trong thập kỷ gần đây,
03:36
complex algorithms have made great strides.
67
216606
2729
các thuật toán phức tạp đã đạt được những bước tiến lớn.
03:39
They can recognize human faces.
68
219359
1990
Chúng có thể nhận diện khuôn mặt người.
03:41
They can decipher handwriting.
69
221985
2055
Chúng có thể giải mã được chữ viết tay.
03:44
They can detect credit card fraud
70
224436
2066
Chúng có thể nhận biết thẻ tín dụng giả
03:46
and block spam
71
226526
1189
và chặn tin rác
03:47
and they can translate between languages.
72
227739
2037
và chúng có thể phiên dịch ngôn ngữ.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Chúng có thể phát hiện khối u trong phim chụp y khoa.
03:52
They can beat humans in chess and Go.
74
232398
2205
Chúng đánh bại con người trong cờ vua và Go.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Đa phần những tiến bộ này đến từ phương pháp "máy tính tự học"
Máy tính tự học khác với lập trình truyền thống,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
ở chỗ bạn đưa ra những hướng dẫn cụ thể, chính xác, kỹ lưỡng cho máy tính.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Đúng hơn là bạn cho một đống dữ liệu vào hệ thống,
04:11
including unstructured data,
79
251584
1656
bao gồm dữ liệu chưa được sắp xếp,
04:13
like the kind we generate in our digital lives.
80
253264
2278
như loại chúng ta tạo ra trong thế giới số
04:15
And the system learns by churning through this data.
81
255566
2730
Và hệ thống học bằng cách lướt qua các dữ liệu này.
04:18
And also, crucially,
82
258669
1526
Và quan trọng hơn,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
những hệ thống này không hoạt động dựa trên logic một-câu-trả-lời-duy-nhất.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Chúng không cho ra câu trả lời đơn giản mà có tính xác suất hơn
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Cái này có nhiều khả năng là cái bạn đang muốn tìm."
Lợi thế ở đây là: biện pháp này rất hiệu quả.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Trưởng hệ thống Al của Google gọi nó là,
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"sự hiệu quả bất hợp lý của dữ liệu."
04:39
The downside is,
89
279791
1353
Bất lợi ở đây là,
04:41
we don't really understand what the system learned.
90
281738
3071
ta không thật sự hiểu cái mà hệ thống học được.
04:44
In fact, that's its power.
91
284833
1587
Thực tế, đó là sức mạnh của nó.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Cái này khác với việc đưa ra hướng dẫn cho máy tính;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
Nó giống hơn với việc huấn luyện một loại chó cưng bằng máy
04:55
we don't really understand or control.
94
295288
2371
mà chúng ta không thật sự hiểu hay kiểm soát.
04:58
So this is our problem.
95
298362
1551
Vậy nên đó là vấn đề của ta.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Nó là vấn đề khi mà hệ thống trí tuệ nhân tạo hiểu sai sự việc.
05:04
It's also a problem when it gets things right,
97
304713
3540
Nó cũng là vấn đề khi nó hiểu đúng sự việc,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
bởi vì chúng ta không thể phân biệt được khi nó là một vấn đề chủ quan.
05:11
We don't know what this thing is thinking.
99
311929
2339
Chúng ta không biết được vật này đang nghĩ gì.
05:15
So, consider a hiring algorithm --
100
315493
3683
Thử xem xét một thuật toán thuê --
một hệ thống dùng để thuê nhân viên, dựa vào hệ thống máy móc tự học.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Một hệ thống như vậy sẽ được đào tạo dựa trên dự liệu của nhân viên cũ
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
và được hướng dẫn để tìm và thuê
05:31
people like the existing high performers in the company.
104
331270
3038
những người tương tự với nhân viên xuất sắc hiện có ở công ty.
05:34
Sounds good.
105
334814
1153
Nghe có vẻ tốt đấy.
05:35
I once attended a conference
106
335991
1999
Tôi từng tham dự một hội nghị
bao gồm quản lý nhân sự và các lãnh đạo,
05:38
that brought together human resources managers and executives,
107
338014
3125
những nhân vật cấp cao,
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
dùng hệ thống như vậy khi thuê
05:43
They were super excited.
110
343976
1646
Họ cực kỳ phấn khích về việc đó.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Họ nghĩ rằng hệ thống này sẽ giúp việc thuê người khách quan và ít thiên vị hơn,
05:50
and give women and minorities a better shot
112
350323
3000
và cho phụ nữ và người thiểu số một cơ hội tốt hơn
05:53
against biased human managers.
113
353347
2188
chống lại những người quản lý thiên vị.
05:55
And look -- human hiring is biased.
114
355559
2843
Đúng là người thuê người thường có sự thiên vị.
Tôi biết vậy.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Trong những việc đầu tiên của tôi với vai trò lập trình viên,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
quản lý trực tiếp của tôi thỉnh thoảng sẽ đến chỗ tôi
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
rất sớm vào buổi sáng hoặc rất muộn vào buổi chiều,
để nói, "Zeynep, cùng đi ăn trưa nào!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Tôi bị bối rối bởi giờ giấc thất thường.
06:16
It's 4pm. Lunch?
121
376915
2129
Bây giờ là 4g chiều mà ăn trưa ư?
Tôi thì thiếu tiền, mà bữa trưa miễn phí. Cho nên tôi luôn đi
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Sau đó tôi nhận ra chuyện gì đang diễn ra.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Những quản lý trực tiếp của tôi chưa hề thông báo với cấp trên
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
rằng lập trình viên họ thuê cho việc quan trọng là một thiếu nữ
06:32
who wore jeans and sneakers to work.
126
392416
3930
mặc quần jeans và đi giày thể thao đi làm.
Tôi làm tốt việc, chỉ ăn mặc không đúng
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
và sai độ tuổi và giới tính.
Cho nên việc tuyển chọn không dựa theo giới tính và sắc tộc
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
rõ ràng tốt cho tôi.
Nhưng với những hệ thống này, nó phức tạp hơn, và đây là lý do:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Bây giờ, hệ thống tính toán có thể đưa ra đủ mọi loại kết luận vể bạn
06:56
from your digital crumbs,
133
416783
1872
dựa trên những vết tích số của bạn,
06:58
even if you have not disclosed those things.
134
418679
2333
ngay cả khi bạn không hề tiết lộ những việc đó.
07:01
They can infer your sexual orientation,
135
421506
2927
Chúng có thể đưa ra kết luận về xu hướng tình dục của bạn,
07:04
your personality traits,
136
424994
1306
tính cách bạn,
07:06
your political leanings.
137
426859
1373
quan điểm chính trị của bạn.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Chúng có sức mạnh dự đoán với sự chuẩn xác cao.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Nhớ rằng - ngay cả những việc bạn không hề tiết lộ.
07:15
This is inference.
140
435964
1591
Đây chỉ mới là việc suy luận
07:17
I have a friend who developed such computational systems
141
437579
3261
Tôi có một người bạn thiết kế những hệ thống tính toán như vậy
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
để dự đoán khả năng mắc bệnh trầm cảm lâm sàng hoặc hậu thai sản
07:24
from social media data.
143
444529
1416
từ những dự liệu truyền thông xã hội.
07:26
The results are impressive.
144
446676
1427
Kết quả thật đáng ấn tượng.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Hệ thống của cô ấy có thể dự đoán được khả năng mắc trầm cảm
07:31
months before the onset of any symptoms --
146
451873
3903
hàng tháng trước khi các triệu chứng xuất hiện --
07:35
months before.
147
455800
1373
hàng tháng trước.
07:37
No symptoms, there's prediction.
148
457197
2246
Không hề có triệu chứng, nhưng lại có dự đoán.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Cô mong rằng nó được sử dụng cho việc can thiệp sớm. Tuyệt vời!
07:44
But now put this in the context of hiring.
150
464911
2040
Nhưng giờ đặt nó vào viễn cảnh tuyển chọn.
Ở buổi họp quản lý nhân sự này,
07:48
So at this human resources managers conference,
151
468027
3046
tôi tiếp cận một quản lý cấp cao của một công ty lớn,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
và nói rằng, "Này, nếu như, ngoài sự hiểu biết của bạn,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
hệ thống của bạn đang gạt bỏ người có thể bị trầm cảm cao trong tương lai?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Hiện tại họ không hề bị trầm cảm, chỉ là trong tương lai có khả năng.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Nếu như hệ thống loại bỏ những phụ nữ có khả năng mang thai
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
trong một vài năm tới nhưng hiện không mang thai?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Nếu nó chọn những người có tính hung hăng vì đó là bản chất làm việc ở đây?"
Bạn không thể thấy điều này qua việc xem tỉ lệ giới tính
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Điều đó có thể được cân bằng.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Và vì đây là máy móc tự học, chứ không phải mã hóa truyền thống,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
không hề có một biến số nào có tên "có khả năng trầm cảm cao",
08:37
"higher risk of pregnancy,"
163
517926
1833
"có khả năng mang thai cao",
08:39
"aggressive guy scale."
164
519783
1734
"tính cách hung hăng".
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Bạn không chỉ không biết hệ thống của bạn lựa chọn dựa trên tiêu chí gì,
08:45
you don't even know where to begin to look.
166
525698
2323
bạn còn không biết phải bắt đầu tìm từ đâu.
Nó là một hộp đen.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Nó có khả năng tiên đoán, nhưng bạn không hiểu nó.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
Tôi hỏi cô, "Bạn có chốt an toàn nào
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
để đảm bảo rằng hộp đen của bạn không làm gì mờ ám?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Cô ấy nhìn tôi như thể tôi vừa đạp lên 10 cái đuôi chó.
09:04
(Laughter)
172
544765
1248
(Cười lớn)
Cô nhìn tôi chằm chằm và nói,
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"Tôi không muốn nghe thêm một từ nào về vấn đề này nữa."
09:13
And she turned around and walked away.
175
553458
2034
Và cô ấy bỏ đi.
Cho bạn biết- cô ấy không thô lỗ
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Rõ ràng rằng: điều tôi không biết không phải là vấn đề của tôi, đi đi, ánh nhìn chết người.
09:23
(Laughter)
178
563906
1246
(Cười lớn)
09:25
Look, such a system may even be less biased
179
565862
3839
Một hệ thống như vậy có thể ít thiên vị hơn
09:29
than human managers in some ways.
180
569725
2103
những người quản lý theo cách nào đó.
09:31
And it could make monetary sense.
181
571852
2146
Và nó có khả năng ra quyết định tài chính.
09:34
But it could also lead
182
574573
1650
Nhưng nó cũng có thể dẫn đến
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
một thị trường việc làm ổn định nhưng lén lút cô lập
những người có khả năng trầm cảm cao.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng,
09:46
without even knowing we've done this,
186
586373
2285
khi mà chúng ta còn thậm chí không biết chúng ta làm vậy,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ?
09:53
Another problem is this:
188
593265
1458
Một vấn đề khác là:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta,
09:59
human imprints.
190
599790
1816
dấu ấn của con người.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Chúng có thể phản ánh những thiên vị của chúng ta,
và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
và phóng đại chúng
10:10
and showing them back to us,
194
610974
1418
và thể hiện chúng lại cho chúng ta,
10:12
while we're telling ourselves,
195
612416
1462
trong khi chúng ta lại tự bảo bản thân,
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Chúng ta đang tính toán một cách trung lập, khách quan."
10:18
Researchers found that on Google,
197
618314
2677
Các nhà nghiên cứu tìm ra rằng trên Google,
phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
Và các tìm kiếm tên của người Mỹ gốc Phi
sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
ngay cả khi người đó không hề phạm tội.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết,
10:46
can have life-altering consequences.
204
646263
2661
có thể có các hậu quả nặng nề.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Ở Wisconsin, một bị cáo bị kết án sáu năm tù
vì trốn tránh cảnh sát.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Bạn có thể không biết rằng,
các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Ông ta muốn biết: Kết quả này được tính toán như thế nào?
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Nó là một hộp đen thương hiệu.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán
11:17
with what public data they could find,
213
677952
2016
họ dùng để tra cứu các dữ liệu công cộng,
11:19
and found that its outcomes were biased
214
679992
2316
và nhận ra rằng các kết quả của chúng rất thiên vị
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai
11:30
at twice the rate of white defendants.
217
690425
3895
nhiều gấp đôi bị cáo da trắng.
11:35
So, consider this case:
218
695891
1564
Thử nhìn vào vụ án này:
Người phụ nữ này đón chị đỡ đầu của bà trễ
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
từ một trường ở quận Broward, Florida,
11:44
running down the street with a friend of hers.
221
704757
2356
chạy xuống phố với một người bạn của bà.
Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
và họ nghịch ngợm nhảy lên nó.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng,
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Hey, đó là xe đạp của con tôi!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt.
Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Cô đã phạm một vài tội vị thành niên.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot --
một mớ đồ trị giá $85, một tội ăn cắp vặt.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Nhưng ông có hai tiền án cướp có vũ khí.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y.
12:33
He, on the other hand, did reoffend
235
753218
2076
Ngược lại, ông ta tái phậm
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
và hiện đang bị ở tù tám năm cho tội ác sau này.
Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
và không để chúng có những sức mạnh không kiểm soát này.
(Vỗ tay)
12:46
(Applause)
239
766120
2879
Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Ví dụ như thuật toán trang chủ hùng mạnh của Facebook --
bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
từ bạn bè và những trang bạn theo dõi.
13:04
Should you be shown another baby picture?
244
784898
2275
Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa?
13:07
(Laughter)
245
787197
1196
(Cười lớn)
13:08
A sullen note from an acquaintance?
246
788417
2596
Một thông điệp u tối từ một người quen?
13:11
An important but difficult news item?
247
791449
1856
Một mẩu tin quan trọng nhưng phức tạp?
13:13
There's no right answer.
248
793329
1482
Không hề có câu trả lời đúng nào.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook tối đa hóa các tương tác trên trang chủ:
13:17
likes, shares, comments.
250
797518
1415
thích, chia sẻ, bình luận.
Vào tháng 8/2014,
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
biểu tình diễn ra ở Ferguson, Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng,
dưới điều kiện mờ ám.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
Tin tức về các buổi biểu tình tràn ngập
trên trang chủ Twitter không được thanh lọc bởi thuật toán,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
nhưng không hề hiện ra trên Facebook của tôi.
13:39
Was it my Facebook friends?
258
819182
1734
Liệu đó có phải do các bạn trên Facebook của tôi?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Tôi tắt thuật toán của Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
và rất khó để làm vậy vì Facebook luôn muốn bạn
13:46
come under the algorithm's control,
261
826344
2036
ở dưới sự kiểm soát của thuật toán,
13:48
and saw that my friends were talking about it.
262
828404
2238
và thấy rằng bạn bè tôi đang nói về vấn đề đó.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Chỉ là do thuật toán không cho tôi thấy điều đó.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Câu chuyện ở Ferguson không hề thân thiện với thuật toán.
Nó không được "yêu thích".
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Ai sẽ bấm "thích"?
14:03
It's not even easy to comment on.
268
843500
2206
Nó không hề đơn giản để bình luận.
14:05
Without likes and comments,
269
845730
1371
Thiếu các lượt yêu thích và bình luận,
thuật toán lại hiển thị nó cho càng ít người,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
cho nên chúng ta không hề thấy nó.
14:12
Instead, that week,
272
852946
1228
Thay vào đó, trong tuần đó,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Thuật toán của Facebook lại làm nổi bật mẩu tin
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
về ALS Thử Thách Chậu Đá.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi.
14:22
But it was super algorithm-friendly.
276
862536
1904
Nhưng nó rất được thuật toán yêu thích.
14:25
The machine made this decision for us.
277
865219
2613
Cỗ máy đưa ra quyết định này cho chúng ta.
14:27
A very important but difficult conversation
278
867856
3497
Một cuộc hội thoại quan trọng nhưng khó khăn
14:31
might have been smothered,
279
871377
1555
có thể vừa bị giết chết,
14:32
had Facebook been the only channel.
280
872956
2696
nếu như Facebook là cổng thông tin duy nhất.
Cuối cùng, các hệ thống này có thể phạm lỗi
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
theo nhiều cách không giống gì hệ thống con người.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
quét sạch các người thi con người trong trò Jeopardy?
Nó là một người chơi tuyệt vời.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Nhưng ở màn cuối của Jeopardy, khi được hỏi:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II,
14:57
its second-largest for a World War II battle."
288
897615
2252
sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II."
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Nhạc nền Jeopardy)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
Hai người chơi con người đoán đúng.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Ngược lại, Watson lại trả lời "Toronto" --
cho một phân mục thành phố Mỹ!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
Một hệ thống ấn tượng phạm một lỗi
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2.
15:18
Our machine intelligence can fail
296
918823
3109
Cỗ máy thông minh của chúng ta đã thất bại
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
theo nhiều cách không hề giống con người,
theo những cách chúng ta không ngờ tới và không chuẩn bị cho.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin
15:35
in some subroutine.
301
935467
1432
trong một thủ tục phụ nào đó.
15:36
(Laughter)
302
936923
1579
(Cười lớn)
15:38
In May of 2010,
303
938526
2786
Vào tháng 5/2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi
15:45
in Wall Street's "sell" algorithm
305
945404
3028
trong thuật toán "bán" của Wall Street
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút.
15:53
I don't even want to think what "error" means
307
953722
2187
Tôi không hề muốn nghĩ đến "lỗi" đó là gì
15:55
in the context of lethal autonomous weapons.
308
955933
3589
khi nói đến các vũ khí tự phát nguy hiểm.
16:01
So yes, humans have always made biases.
309
961894
3790
Cho nên vâng, con người luôn thiên vị.
16:05
Decision makers and gatekeepers,
310
965708
2176
Các người đưa ra quyết định và những người gác cổng,
16:07
in courts, in news, in war ...
311
967908
3493
trong tòa án, trên báo chí, trong chiến tranh,...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói.
16:14
We cannot escape these difficult questions.
313
974487
3521
Chúng ta không thể trốn tránh những câu hỏi khó.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc.
16:22
(Applause)
315
982676
4208
(Vỗ tay)
Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí"
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học.
Chúng ta cần điều ngược lại.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Chúng ta cần đảm bảo tính trung thực của các thuật toán,
16:48
auditing and meaningful transparency.
321
1008602
2445
sự rõ ràng ý nghĩa và qua kiểm tra.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Chúng ta cần chấp nhận rằng khi đem toán học và tính toán
16:54
to messy, value-laden human affairs
323
1014638
2970
vào các vấn đề phức tạp, nhiều tầng giá trị của con người
16:57
does not bring objectivity;
324
1017632
2384
không hề đem đến tính khách quan;
mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Vâng, chúng ta có thể và nên sử dụng tính toán
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
để giúp chúng ta đưa ra các quyết định đúng đắn hơn.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta,
và sử dụng thuật toán nội trong khuôn khổ đó,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta
17:22
to one another as human to human.
331
1042854
2454
cho người khác giữa người với người.
17:25
Machine intelligence is here.
332
1045807
2609
Máy móc thông minh tồn tại ở đây.
17:28
That means we must hold on ever tighter
333
1048440
3421
Điều đó có nghĩa là chúng ta cần .... hơn
17:31
to human values and human ethics.
334
1051885
2147
các giá trị nhân bản và đạo đức nhân văn.
Xin cám ơn.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7