The era of blind faith in big data must end | Cathy O'Neil

242,918 views ・ 2017-09-07

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: PanaEk Warawit Reviewer: Thanyanuch Tantikul
00:12
Algorithms are everywhere.
0
12795
1596
อัลกอริทึมอยู่ทุกหนแห่ง
00:15
They sort and separate the winners from the losers.
1
15931
3125
มันคัดแยกและ กันผู้ชนะออกจากผู้แพ้
00:19
The winners get the job
2
19839
2264
ผู้ชนะได้งาน
00:22
or a good credit card offer.
3
22127
1743
หรือได้ข้อเสนอบัตรเครดิตดีๆ
00:23
The losers don't even get an interview
4
23894
2651
ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์
00:27
or they pay more for insurance.
5
27410
1777
หรือต้องจ่ายเบี้ยประกันแพงกว่า
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
เรากำลังถูกให้คะแนน จากสูตรลับที่เราไม่เข้าใจ
00:34
that often don't have systems of appeal.
7
34495
3217
และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้
00:39
That begs the question:
8
39060
1296
นั่นทำให้เกิดคำถามขึ้นว่า
00:40
What if the algorithms are wrong?
9
40380
2913
แล้วถ้าอัลกอริทึมมันผิดล่ะ
00:44
To build an algorithm you need two things:
10
44920
2040
ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง
00:46
you need data, what happened in the past,
11
46984
1981
คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต
00:48
and a definition of success,
12
48989
1561
และนิยามของความสำเร็จ
00:50
the thing you're looking for and often hoping for.
13
50574
2457
สิ่งที่คุณมองหา หรือหวังว่าจะเจอ
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
คุณฝึกสอนอัลกอริทึม โดยการมองหา และคำนวณ
00:58
The algorithm figures out what is associated with success.
15
58116
3419
อัลกอริทึมจะคำนวณหา ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ
01:01
What situation leads to success?
16
61559
2463
สถานการณ์อย่างไรที่จะนำ ไปสู่ความสำเร็จ
01:04
Actually, everyone uses algorithms.
17
64701
1762
ความจริงแล้ว ทุกคนต่าง ก็ใช้อัลกอริทึม
01:06
They just don't formalize them in written code.
18
66487
2718
เพียงแต่ไม่ได้เขียนเป็นโปรแกรม เป็นทางการ
01:09
Let me give you an example.
19
69229
1348
ขอยกตัวอย่างนะคะ
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
ฉันใช้อัลกอริทึมทุกวัน เพื่อทำอาหารสำหรับครอบครัว
01:13
The data I use
21
73941
1476
ข้อมูลที่ฉันใช้
01:16
is the ingredients in my kitchen,
22
76214
1659
คือวัตถุดิบที่มีในครัว
01:17
the time I have,
23
77897
1527
เวลาที่ฉันมี
01:19
the ambition I have,
24
79448
1233
ความตั้งใจที่มี
01:20
and I curate that data.
25
80705
1709
และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป ว่าเป็นอาหารนะคะ
01:26
(Laughter)
27
86713
1869
(เสียงหัวเราะ)
01:28
My definition of success is:
28
88606
1845
นิยามความสำเร็จของฉันคือ
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
มื้ออาหารจะถือว่าสำเร็จ ถ้าเด็กๆ ยอมกินผัก
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
มันจะต่างออกไปมาก ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
เขาจะบอกว่า ความสำเร็จคือ เขาได้กินนูเทลล่าเยอะๆ
01:40
But I get to choose success.
32
100999
2226
แต่ฉันเป็นคนเลือกนิยามความสำเร็จ
01:43
I am in charge. My opinion matters.
33
103249
2707
ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ
01:45
That's the first rule of algorithms.
34
105980
2675
มันเป็นกฏข้อแรกของอัลกอริทึม
01:48
Algorithms are opinions embedded in code.
35
108679
3180
อัลกอริทึมคือความคิดเห็น ที่ถูกฝังลงในในโค้ดโปรแกรม
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
ซึ่งมันแตกต่างอย่างมาก กับที่คุณ หรือคนทั่วไปคิดถึงอัลกอริทึม
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
พวกเขาคิดว่า อัลกอริทึมมีความ ตรงไปตรงมา เป็นวิทยาศาสตร์
02:02
That's a marketing trick.
38
122207
1699
นั่นเป็นแค่กลทางการตลาด
02:05
It's also a marketing trick
39
125089
2125
และก็เป็นทริกการตลาดนี่แหละ
02:07
to intimidate you with algorithms,
40
127238
3154
ที่คุกคามคุณด้วยอัลกอริทึม
02:10
to make you trust and fear algorithms
41
130416
3661
เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม
02:14
because you trust and fear mathematics.
42
134101
2018
เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา อย่างมืดบอดในข้อมูลมหาศาล (big data)
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่ โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก
02:29
with a complex, secret algorithm
46
149511
2727
อัลกอริทึมที่ซับซ้อน และเป็นความลับ
02:32
called the "value-added model."
47
152262
1489
ที่เรียกว่า "โมเดลเพิ่มคุณค่า"
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
ฉันบอกเธอว่า "เอาล่ะ มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย
02:37
I'm going to explain it to you."
49
157441
1541
ฉันจะอธิบายให้เธอฟังเอง"
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
เธอบอก "ฉันพยายามจะเอาสูตรมา
02:41
but my Department of Education contact told me it was math
51
161171
2772
แต่ทางกระทรวงศึกษาธิการ แจ้งว่ามันเป็นคณิตศาสตร์
02:43
and I wouldn't understand it."
52
163967
1546
และฉันคงไม่เข้าใจ"
02:47
It gets worse.
53
167086
1338
มันยิ่งแย่ลงไปกว่านั้นอีก
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
หนังสือพิมพ์นิวยอร์กโพสต์ ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล
02:52
got all the teachers' names and all their scores
55
172002
2959
และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน ของครูแต่ละคน
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
แล้วนำมาตีพิมพ์ เหมือนกับว่าจะประจานเหล่าครู
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ ผ่านช่องทางเดียวกัน
03:02
I was told I couldn't.
58
182788
2149
กลับได้รับการแจ้งว่า ไม่สามารถให้สูตรได้
03:04
I was denied.
59
184961
1236
ฉันถูกปฏิเสธ
03:06
I later found out
60
186221
1174
และฉันมาพบภายหลังว่า
03:07
that nobody in New York City had access to that formula.
61
187419
2866
ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้
03:10
No one understood it.
62
190309
1305
ไม่มีใครเข้าใจมัน
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
จนกระทั่งคนที่ฉลาดมากคนหนึ่ง เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์
03:16
He found 665 teachers from that New York Post data
64
196997
3621
เขาพบข้อมูลเกี่ยวกับครู 665 คน จากข้อมูลของนิวยอร์คโพสต์
03:20
that actually had two scores.
65
200642
1866
ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า
03:22
That could happen if they were teaching
66
202532
1881
ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน
03:24
seventh grade math and eighth grade math.
67
204437
2439
คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด
03:26
He decided to plot them.
68
206900
1538
เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ
03:28
Each dot represents a teacher.
69
208462
1993
แต่ละจุดแทนครูแต่ละคน
03:30
(Laughter)
70
210924
2379
(เสียงหัวเราะ)
03:33
What is that?
71
213327
1521
นั่นคืออะไร?
03:34
(Laughter)
72
214872
1277
(เสียงหัวเราะ)
03:36
That should never have been used for individual assessment.
73
216173
3446
นั่นไม่ควรจะถูกเอามาใช้ ในการประเมินรายบุคคล
03:39
It's almost a random number generator.
74
219643
1926
มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย
03:41
(Applause)
75
221593
2946
(เสียงปรบมือ)
03:44
But it was.
76
224563
1162
แต่ก็เป็นไปแล้ว
03:45
This is Sarah Wysocki.
77
225749
1176
และนี่คือ ซาร่า ไวซอคกี
03:46
She got fired, along with 205 other teachers,
78
226949
2175
เธอถูกไล่ออก พร้อมกับ ครูคนอื่นๆ อีก 205 คน
03:49
from the Washington, DC school district,
79
229148
2662
จากเขตการศึกษาวอชิงตันดีซี
03:51
even though she had great recommendations from her principal
80
231834
2909
ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว ที่ดีมากจากครูใหญ่ของเธอ
03:54
and the parents of her kids.
81
234767
1428
และจากผู้ปกครองของนักเรียน
03:57
I know what a lot of you guys are thinking,
82
237210
2032
ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่
03:59
especially the data scientists, the AI experts here.
83
239266
2487
โดยเฉพาะเหล่านักวิทยาการข้อมูล ที่เชี่ยวชาญ AI ในที่นี้
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
คุณคงคิดว่า "แหม ฉันคงไม่มีทาง สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก"
04:06
But algorithms can go wrong,
85
246673
1683
แต่อัลกอริทึม ก็สามารถผิดพลาดได้
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่ ทั้งๆ ที่มีเจตนาดีได้
04:14
And whereas an airplane that's designed badly
87
254351
2379
นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่
04:16
crashes to the earth and everyone sees it,
88
256754
2001
ซึ่งพอตกลงมา ทุกคนจะมองเห็นได้
04:18
an algorithm designed badly
89
258779
1850
แต่อัลกอริทึมที่ออกแบบไม่ดี
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้
04:27
This is Roger Ailes.
91
267568
1570
นี่คือโรเจอร์ เอลส์
04:29
(Laughter)
92
269162
2000
(เสียงหัวเราะ)
04:32
He founded Fox News in 1996.
93
272344
2388
เขาก่อตั้งฟอกซ์นิวส์ในปี 1996
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง การคุกคามทางเพศ
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส ที่จะประสบความสำเร็จในฟอกซ์นิวส์
04:41
He was ousted last year, but we've seen recently
96
281120
2520
เขาออกจากตำแหน่งเมื่อปีที่แล้ว แต่เราได้เห็นเร็วๆ นี้ว่า
04:43
that the problems have persisted.
97
283664
2670
ปัญหาเรื่องเพศ ยังคงมีอยู่
04:47
That begs the question:
98
287474
1400
ซึ่งนั่นก่อให้เกิดคำถามว่า
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
ฟอกซ์นิวส์ควรจะทำอย่างไร เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น
04:53
Well, what if they replaced their hiring process
100
293065
3041
แล้วถ้าหากว่าพวกเขาเปลี่ยน กระบวนการว่าจ้าง
04:56
with a machine-learning algorithm?
101
296130
1654
มาให้ใช้อัลกอริทึมที่ เรียนรู้ด้วยเครื่อง (Machine Learning) ละ
04:57
That sounds good, right?
102
297808
1595
นั่นฟังดูดีใช่มั้ยละ
04:59
Think about it.
103
299427
1300
ลองคิดดูดีๆ นะคะ
05:00
The data, what would the data be?
104
300751
2105
ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา
05:07
Reasonable.
106
307851
1502
สมเหตุสมผล
05:09
What about the definition of success?
107
309377
1938
แล้วนิยามของความสำเร็จละ
05:11
Reasonable choice would be,
108
311741
1324
ตัวเลือกที่ดูเหมาะสมก็คือ
05:13
well, who is successful at Fox News?
109
313089
1778
คิดดูนะ ใครที่ประสบความสำเร็จ ที่ฟอกซ์นิวส์
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่ มาได้สัก 4 ปี
05:18
and was promoted at least once.
111
318495
1654
และได้เลื่อนตำแหน่ง อย่างน้อยหนึ่งครั้ง
05:20
Sounds reasonable.
112
320636
1561
ฟังดูเข้าท่าดีใช่มั้ยล่ะ
05:22
And then the algorithm would be trained.
113
322221
2354
และอัลกอริทึมก็จะถูกฝึกสอน
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
มันจะถูกสอนให้มองหาผู้สมัคร มองหาลักษณะที่จะนำไปสู่ความสำเร็จ
05:29
what kind of applications historically led to success
115
329039
4318
ใบสมัครแบบไหน ที่จะประสบความสำเร็จ จากในอดีตที่ผ่านมา
05:33
by that definition.
116
333381
1294
ตามนิยามความสำเร็จ
05:36
Now think about what would happen
117
336020
1775
ลองคิดดูซิว่า จะเกิดอะไรขึ้น
05:37
if we applied that to a current pool of applicants.
118
337819
2555
ถ้าเราเอามาประยุกต์ใช้กับ กลุ่มผู้สมัครในปัจจุบัน
05:40
It would filter out women
119
340939
1629
มันจะคัดกรองเอาผู้หญิงออกไป
05:43
because they do not look like people who were successful in the past.
120
343483
3930
เพราะผู้หญิงดูไม่เหมือนกับ คนที่จะประสบความสำเร็จในอดีต
05:51
Algorithms don't make things fair
121
351572
2537
อัลกอริทึมไม่ได้ ทำให้เกิดความยุติธรรมขึ้นนะคะ
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
ถ้าคุณแค่หลับหูหลับตา เอาอัลกอริทึมมาใช้
05:56
They don't make things fair.
123
356851
1482
มันไม่ทำให้เกิดความเป็นธรรม
05:58
They repeat our past practices,
124
358357
2128
มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต
06:00
our patterns.
125
360509
1183
รูปแบบของเรา
06:01
They automate the status quo.
126
361716
1939
มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ
06:04
That would be great if we had a perfect world,
127
364538
2389
ซึ่งมันคงจะเป็นเรื่องเยี่ยม ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ
06:07
but we don't.
128
367725
1312
แต่เราไม่ได้อยู่
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
และฉันจะเพิ่มเติมอีกว่า ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว
06:14
but the data scientists in those companies
130
374266
2588
แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น
06:16
are told to follow the data,
131
376878
2189
ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก
06:19
to focus on accuracy.
132
379091
2143
ให้เน้นไปที่ความถูกต้องแม่นยำ
06:22
Think about what that means.
133
382093
1381
ลองคิดดูว่า นั่นหมายความว่าอย่างไร
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
เนื่องจากเราต่างก็มีอคติ มันหมายความว่า เรากำลังสร้างการเหยียดเพศ
06:27
or any other kind of bigotry.
135
387549
1836
หรือความอคติดื้อรั้นบางอย่างลงในระบบ
06:31
Thought experiment,
136
391308
1421
มาทดลองด้านความคิดกันหน่อย
06:32
because I like them:
137
392753
1509
เพราะฉันชอบทำ
06:35
an entirely segregated society --
138
395394
2975
สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง ทุกชุมชน
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
และเราส่งตำรวจไปแค่ที่ชุมชน ของคนกลุ่มเสียงข้างน้อยเท่านั้น
06:46
to look for crime.
141
406480
1193
เพื่อตรวจหาอาชญากรรม
06:48
The arrest data would be very biased.
142
408271
2219
ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก
06:51
What if, on top of that, we found the data scientists
143
411671
2575
นอกจากนั้นแล้ว ถ้าเราหานักวิทยาการข้อมูลและจ้าง
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
ให้พวกเขาเหล่านั้น ทำนายว่า อาชญากรรมครั้งต่อไปจะเกิดที่ไหน
06:59
Minority neighborhood.
145
419095
1487
ชุมชนของคนกลุ่มน้อย
07:01
Or to predict who the next criminal would be?
146
421105
3125
หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร?
07:04
A minority.
147
424708
1395
คนกลุ่มน้อย
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
นักวิทยาการข้อมูลก็คงจะอวดโอ่ ได้ว่าโมเดลของพวกเขานั้น
07:11
their model would be,
149
431334
1297
ยอดเยี่ยมและแม่นยำเพียงใด
07:12
and they'd be right.
150
432655
1299
และพวกเขาก็คงจะเป็นฝ่ายถูก
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง
07:20
in many cities and towns,
152
440410
1287
ในหลายๆ เมืองทั้งเล็กและใหญ่
07:21
and we have plenty of evidence
153
441721
1893
และเรายังมีหลักฐานอีกมากมาย
07:23
of biased policing and justice system data.
154
443638
2688
ของข้อมูลเกี่ยวกับ กระบวนการยุติธรรมที่มีอคติ
07:27
And we actually do predict hotspots,
155
447452
2815
และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ
07:30
places where crimes will occur.
156
450291
1530
คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
และเราก็มีการพยากรณ์การเกิด อาชญากรรมจริงๆ
07:36
the criminality of individuals.
158
456111
1770
การเกิดอาชญากรรมของแต่ละบุคคล
07:38
The news organization ProPublica recently looked into
159
458792
3963
องค์กรสื่อที่เรียกว่า โปรพับลิก้า ได้ทำการศึกษาเมื่อเร็วๆ นี้
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า
07:44
as they're called,
161
464827
1163
"ความเสี่ยงที่จะทำผิดซ้ำซาก"
07:46
being used in Florida during sentencing by judges.
162
466014
3194
ที่ถูกใช้ในรัฐฟลอริด้า ในระหว่างกระบวนการตัดสินของศาล
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย ได้คะแนน 10 เต็ม 10
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
ส่วนดีแลน ทางด้านขวา ได้ 3 เต็ม 10
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
10 เต็ม 10 ความเสี่ยงสูง 3 เต็ม 10 ความเสี่ยงต่ำ
08:00
They were both brought in for drug possession.
166
480418
2385
พวกเราถูกคุมตัวมาด้วยข้อหา มียาเสพติดในครอบครอง
08:02
They both had records,
167
482827
1154
ทั้งคู่ต่างก็มีประวัติอาชญากรรม
08:04
but Dylan had a felony
168
484005
2806
แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย
08:06
but Bernard didn't.
169
486835
1176
แต่เบอร์นาร์ดไม่มี
08:09
This matters, because the higher score you are,
170
489638
3066
เรื่องนี้เป็นประเด็น เพราะว่า ยิ่งคุณได้คะแนนสูงเท่าไหร่
08:12
the more likely you're being given a longer sentence.
171
492728
3473
ยิ่งมีโอกาสที่จะต้องโทษ เป็นเวลาที่ยาวนานกว่า
08:18
What's going on?
172
498114
1294
นี่มันเกิดอะไรขึ้น?
08:20
Data laundering.
173
500346
1332
การฟอกข้อมูล
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
มันคือกระบวนการที่ นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด
08:27
inside black box algorithms
175
507201
1821
เอาไว้ภายในกล่องดำของอัลกอริทึม
08:29
and call them objective;
176
509046
1290
แล้วเรียกมันว่า ภววิสัย
08:31
call them meritocratic.
177
511140
1568
เรียกมันว่า คุณธรรมนิยม
08:34
When they're secret, important and destructive,
178
514938
2385
เมื่อมันเป็นความลับ มีความสำคัญ และมีอำนาจทำลายล้าง
08:37
I've coined a term for these algorithms:
179
517347
2487
ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า
08:39
"weapons of math destruction."
180
519858
1999
"อาวุธทำลายล้างด้วยคณิตศาสตร์"
08:41
(Laughter)
181
521881
1564
(เสียงหัวเราะ)
08:43
(Applause)
182
523469
3054
(เสียงปรบมือ)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
พวกมันอยู่ทุกหนแห่ง และนี่ไม่ใช่ความผิดพลาด
08:49
These are private companies building private algorithms
184
529515
3723
นี่คือเหล่าบริษัทเอกชน ที่สร้างอัลกอริทึมภาคเอกชน
08:53
for private ends.
185
533262
1392
เพื่อผลประโยชน์ของเอกชน
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
แม้กระทั่งเรื่องที่ฉันพูดถึง เกี่ยวกับครูและตำรวจสาธารณะ
08:58
those were built by private companies
187
538272
1869
อัลกอริทึมเหล่านั้นถูกสร้างโดย บริษัทเอกชน
09:00
and sold to the government institutions.
188
540165
2231
และขายให้กับหน่วยงานของรัฐ
09:02
They call it their "secret sauce" --
189
542420
1873
พวกเขาเรียกมันว่า "สูตรลับ"
09:04
that's why they can't tell us about it.
190
544317
2128
และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้
09:06
It's also private power.
191
546469
2220
และมันยังเป็นอำนาจของเอกชนด้วย
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
พวกเขาได้กำไรจากการใช้ อำนาจที่ลึกลับและตรวจสอบไม่ได้
09:16
Now you might think, since all this stuff is private
193
556934
2934
ถึงตอนนี้คุณอาจจะคิดว่า ในเมื่อของพวกนี้เป็นของเอกชน
09:19
and there's competition,
194
559892
1158
และมันมีการแข่งขัน
09:21
maybe the free market will solve this problem.
195
561074
2306
บางทีสภาพตลาดเสรี อาจจะช่วยแก้ปัญหานี้ให้ได้
09:23
It won't.
196
563404
1249
มันแก้ไม่ได้
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
เพราะมีความร่ำรวยมหาศาล ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม
09:28
Also, we're not economic rational agents.
198
568947
3369
และอีกอย่าง คนเราก็ไม่ได้มีความ เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์
09:32
We all are biased.
199
572851
1292
เราต่างก็มีอคติกันอยู่ทุกคน
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
เราต่างก็มีความเหยียดเชื้อชาติและอคติ ในแบบที่เราไม่คิดว่าจะมี
09:38
in ways that we don't even know.
201
578181
2019
หรือในแบบที่เราเองก็ไม่รู้ตัว
09:41
We know this, though, in aggregate,
202
581172
3081
แต่เรารู้ว่า ในภาพรวมระดับสังคม เรามีอคติเหล่านี้
09:44
because sociologists have consistently demonstrated this
203
584277
3220
เพราะว่านักสังคมวิทยา ได้สาธิตให้เราเห็นอคติเหล่านี้
09:47
with these experiments they build,
204
587521
1665
อยู่บ่อยๆ ผ่านการทดลองต่างๆ
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
เช่นการส่งใบสมัครงานออกไป
09:51
equally qualified but some have white-sounding names
206
591802
2501
โดยระบุคุณสมบัติพอๆ กัน แต่กลุ่มหนึ่งชื่อเหมือนคนขาว
09:54
and some have black-sounding names,
207
594327
1706
อีกกลุ่มมีชื่อเหมือนคนผิวสี
09:56
and it's always disappointing, the results -- always.
208
596057
2694
และผลลัพธ์ที่ออกมาก็น่าผิดหวัง อยู่เสมอมา ตลอดมาจริงๆ
09:59
So we are the ones that are biased,
209
599330
1771
ดังนั้น พวกเรานี่เองแหละที่มีอคติ
10:01
and we are injecting those biases into the algorithms
210
601125
3429
และเรากำลังใส่อคติเหล่านั้น ลงไปในอัลกอริทึม
10:04
by choosing what data to collect,
211
604578
1812
โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร
10:06
like I chose not to think about ramen noodles --
212
606414
2743
เหมือนที่ฉันเลือกที่จะไม่ใช้ บะหมี่กึ่งสำเร็จรูป
10:09
I decided it was irrelevant.
213
609181
1625
ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
แต่โดยการเชื่อข้อมูลที่เรา เก็บมาจากผลการกระทำในอดีต
10:16
and by choosing the definition of success,
215
616538
2014
และโดยการเลือกนิยามของความสำเร็จ
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
เราจะคาดหวังว่าอัลกอริทึมจะ ออกมาดีได้อย่างไร?
10:22
We can't. We have to check them.
217
622583
2356
เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน
10:25
We have to check them for fairness.
218
625985
1709
เราต้องตรวจสอบมัน ในแง่ความเป็นธรรม
10:27
The good news is, we can check them for fairness.
219
627718
2711
ข่าวดีก็คือ เราสามารถตรวจสอบ ความเป็นธรรมของมันได้
10:30
Algorithms can be interrogated,
220
630453
3352
อัลกอริทึมสามารถถูกสอบสวนได้
10:33
and they will tell us the truth every time.
221
633829
2034
และมันจะบอกความจริงเราทุกครั้ง
10:35
And we can fix them. We can make them better.
222
635887
2493
และเราสามารถซ่อมแซมมันได้ เราทำให้มันดีขึ้นได้
10:38
I call this an algorithmic audit,
223
638404
2375
ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม"
10:40
and I'll walk you through it.
224
640803
1679
และฉันจะเล่าให้พวกคุณฟัง
10:42
First, data integrity check.
225
642506
2196
สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
สำหรับอัลกอริทึมความเสี่ยง ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
การตรวจสอบข้อมูลหมายถึง การที่เราต้องตระหนักความจริงที่ว่า
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
ในสหรัฐนั้น ทั้งคนขาวและคนดำ ต่างก็เสพยาในอัตราเดียวกัน
10:56
but blacks are far more likely to be arrested --
229
656549
2485
แต่คนดำนั้นมีโอกาสสูงกว่ามาก ที่จะถูกจับ
10:59
four or five times more likely, depending on the area.
230
659058
3184
สูงกว่ามากถึง 4 หรือ 5 เท่า ขึ้นอยู่กับสถานที่
11:03
What is that bias looking like in other crime categories,
231
663137
2826
แล้วอคตินั้นเป็นอย่างไร ในอาชญากรรมประเภทอื่นๆ
11:05
and how do we account for it?
232
665987
1451
แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร
11:07
Second, we should think about the definition of success,
233
667982
3039
อย่างที่สอง เราควรจะคิดถึง นิยามของความสำเร็จ
11:11
audit that.
234
671045
1381
ตรวจสอบนิยามเหล่านั้น
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
จำไว้ว่า ในอัลกอริทึมการว่าจ้าง ที่เราได้พูดถึงนั้น
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
ใครบางคนที่อยู่มาสี่ปีและได้ เลื่อนขั้นอย่างน้อยครั้งหนึ่ง
11:18
Well, that is a successful employee,
237
678415
1769
นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน จากวัฒนธรรมของพวกเขาด้วย
11:23
That said, also it can be quite biased.
239
683909
1926
หมายความว่า มันสามารถที่จะลำเอียงได้มาก
11:25
We need to separate those two things.
240
685859
2065
เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน
11:27
We should look to the blind orchestra audition
241
687948
2426
เราน่าจะดูการปิดตาคัดตัว ที่ใช้ในวงออร์เคสตรา
11:30
as an example.
242
690398
1196
เป็นตัวอย่าง
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
นั่นคือเมื่อคนที่กำลังทดสอบ ถูกกั้นอยู่หลังม่าน
11:34
What I want to think about there
244
694766
1931
สิ่งที่ฉันคิดก็คือ
11:36
is the people who are listening have decided what's important
245
696721
3417
นั่นทำให้คนที่กำลังฟังอยู่ สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ
11:40
and they've decided what's not important,
246
700162
2029
และพวกเขาได้ตัดสินใจแล้วว่า อะไรไม่ใช่สิ่งสำคัญ
11:42
and they're not getting distracted by that.
247
702215
2059
และจะไม่ยอมให้เกิดการ เบี่ยงเบนความสนใจไปได้
11:44
When the blind orchestra auditions started,
248
704781
2749
เมื่อเริ่มมีการคัดตัวสมาชิก วงออร์เคสตราแบบปิดตา
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
จำนวนของนักดนตรีหญิง ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า
11:52
Next, we have to consider accuracy.
250
712073
2015
ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู จะล้มเหลวในทันที
11:59
No algorithm is perfect, of course,
252
719398
2162
จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
ดังนั้นเราจะต้องพิจารณาถึง ความผิดพลาดต่างๆ ของทุกอัลกอริทึม
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
ความผิดพลาดเกิดบ่อยแค่ไหน และมันส่งผลเสียต่อใครบ้าง
12:11
What is the cost of that failure?
255
731670
1718
ความเสียหายนั้นมีต้นทุนเป็นอย่างไร
12:14
And finally, we have to consider
256
734254
2207
และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง
12:17
the long-term effects of algorithms,
257
737793
2186
ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ
12:20
the feedback loops that are engendering.
258
740686
2207
ที่เกิดจากวงจรของเสียงตอบรับ
12:23
That sounds abstract,
259
743406
1236
นั่นฟังดูค่อนข้างเป็นนามธรรม
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค ได้เคยหยุดคิดถึงผลกระทบ
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
ก่อนที่พวกเขาจะตัดสินใจแสดง แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
ฉันมีอีกสองประเด็นที่อยากบอก เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง
12:41
We should be translators of ethical discussions that happen
264
761340
3783
เราควรเป็นผู้สื่อประเด็น ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น
12:45
in larger society.
265
765147
1294
ในสังคมวงกว้าง
12:47
(Applause)
266
767399
2133
(เสียงปรบมือ)
12:49
And the rest of you,
267
769556
1556
และสำหรับคุณที่เหลือ
12:51
the non-data scientists:
268
771831
1396
ที่ไม่ใช่นักวิทยาการข้อมูล
12:53
this is not a math test.
269
773251
1498
นี่ไม่ใช่การทดสอบทางคณิตศาสตร์
12:55
This is a political fight.
270
775452
1348
นี่เป็นการต่อสู้ทางการเมือง
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
เราจำเป็นต้องเรียกร้องความรับผิดชอบ ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้
13:03
(Applause)
272
783938
1499
(เสียงปรบมือ)
13:05
The era of blind faith in big data must end.
273
785461
4225
ยุคแห่งความเชื่อที่มืดบอด ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง
13:09
Thank you very much.
274
789710
1167
ขอบคุณมากค่ะ
13:10
(Applause)
275
790901
5303
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7