How I'm fighting bias in algorithms | Joy Buolamwini

308,224 views ・ 2017-03-29

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: yamela areesamarn Reviewer: Rawee Ma
00:12
Hello, I'm Joy, a poet of code,
0
12861
3134
สวัสดีค่ะ ฉันชื่อ จอย เป็นกวีเขียนรหัส
00:16
on a mission to stop an unseen force that's rising,
1
16019
4993
มีภาระหน้าที่เพื่อหยุดยั้ง พลังที่เรามองไม่เห็นที่กำลังพุ่งขึ้นมา
00:21
a force that I called "the coded gaze,"
2
21036
2856
พลังที่ฉันเคยเรียกว่า การจ้องมองที่ถูกเข้ารหัส (โคดเดด เกซ)
00:23
my term for algorithmic bias.
3
23916
3309
ศัพท์ของฉันเอง สำหรับอคติในชุดคำสั่งขั้นตอนวิธี (algorithmic bias)
00:27
Algorithmic bias, like human bias, results in unfairness.
4
27249
4300
อคติที่ว่านั้น ก็เหมือนกับอคติของมนุษย์ มีผลทำให้เกิดความไม่เป็นธรรม
00:31
However, algorithms, like viruses, can spread bias on a massive scale
5
31573
6022
แต่ขั้นตอนวิธีปฏิบัติ ก็เหมือนกับไวรัส สามารถแพร่กระจายอคติ ไปได้อย่างกว้างขวาง
00:37
at a rapid pace.
6
37619
1582
ในย่างก้าวที่รวดเร็ว
00:39
Algorithmic bias can also lead to exclusionary experiences
7
39763
4387
อคติในชุดคำสั่งขั้นตอนวิธี ยังสามารถนำไปสู่ประสบการณ์ที่กันออกไป
00:44
and discriminatory practices.
8
44174
2128
และการกระทำที่แบ่งแยกเลือกปฏิบัติ
00:46
Let me show you what I mean.
9
46326
2061
ขอแสดงให้คุณเข้าใจว่าฉันหมายถึงอะไร
00:48
(Video) Joy Buolamwini: Hi, camera. I've got a face.
10
48800
2436
(วิดีโอ) จอยบัวลามวินิ: สวัสดีค่ะ กล้อง ฉันมีใบหน้า
00:51
Can you see my face?
11
51982
1864
คุณสามารถเห็นใบหน้าฉันหรือไม่ค่ะ
00:53
No-glasses face?
12
53871
1625
ใบหน้าที่ไม่มีแว่นตานะค่ะ
00:55
You can see her face.
13
55521
2214
คุณสามารถเห็นใบหน้าของเธอได้
00:58
What about my face?
14
58057
2245
แล้วใบหน้าของฉันเองล่ะ
01:03
I've got a mask. Can you see my mask?
15
63710
3750
ฉันสวมหน้ากากอยู่นะ คุณสามารถเห็นหน้ากากของฉันหรือไม่ค่ะ
01:08
Joy Buolamwini: So how did this happen?
16
68294
2365
จอย บัวลามมินิ: ค่ะ สิ่งนี้เกิดขึ้นได้อย่างไรหรือ
01:10
Why am I sitting in front of a computer
17
70683
3141
ทำไมฉันจึงกำลังนั่งอยู่หน้าคอมพิวเตอร์
01:13
in a white mask,
18
73848
1424
ใส่หน้ากากสิขาว
01:15
trying to be detected by a cheap webcam?
19
75296
3650
พยายามจะให้ถูกตรวจพบโดยเว็บแคมราคาถูก ๆ
01:18
Well, when I'm not fighting the coded gaze
20
78970
2291
ค่ะ เมื่อฉันไม่ได้กำลังต่อสู้ อยู่กับโคดเด็ดเกซ
01:21
as a poet of code,
21
81285
1520
ในฐานะเป็นกวีเขียนรหัส
01:22
I'm a graduate student at the MIT Media Lab,
22
82829
3272
ฉันเป็นนักศึกษาบัณฑิตศึกษา อยู่ที่ห้องทดลองสื่อที่สถาบัน MIT
01:26
and there I have the opportunity to work on all sorts of whimsical projects,
23
86125
4917
และที่นั่นฉันได้โอกาสทำงานในทุก ๆ เรื่อง เกี่ยวกับโครงการแปลก ๆ ซึ่งรวมถึง
01:31
including the Aspire Mirror,
24
91066
2027
กระจกตามความปรารถนา (Aspire Mirror)
01:33
a project I did so I could project digital masks onto my reflection.
25
93117
5134
เป็นโครงการที่ฉันทำ เพื่อให้ฉันฉาย หน้ากากดิจิตอล ลงบนภาพสะท้อนของฉันบนกระจก
01:38
So in the morning, if I wanted to feel powerful,
26
98275
2350
ดังนั้น ในตอนเช้า ถ้าฉันต้องการจะรู้สึกมีพลัง
01:40
I could put on a lion.
27
100649
1434
ฉันก็ใส่หน้ากากสิงโต
01:42
If I wanted to be uplifted, I might have a quote.
28
102107
3496
ถ้าต้องการทำให้รู้สึกเบิกบานใจ ฉันอาจยกหรือคัดลอกคำพูดมา
01:45
So I used generic facial recognition software
29
105627
2989
ดังนั้น ฉันจึงได้ใช้โปรแกรมจดจำใบหน้า แบบพื้นฐาน
01:48
to build the system,
30
108640
1351
เพื่อสร้างระบบนั้นขึ้นมา
01:50
but found it was really hard to test it unless I wore a white mask.
31
110015
5103
แต่ก็ได้พบว่า มันยากจริง ๆ ที่จะทดสอบมัน เว้นแต่ว่าฉันจะต้องใส่หน้ากากสีขาว
01:56
Unfortunately, I've run into this issue before.
32
116102
4346
โชคไม่ดีค่ะ ฉันเคยวิ่งเข้าไปพบปัญหานี้ มาก่อน
02:00
When I was an undergraduate at Georgia Tech studying computer science,
33
120472
4303
เมื่อตอนเรียนปริญญาตรีอยู่ที่จอร์เจียเทค เรียนวิทยาศาสตร์คอมพิวเตอร์
02:04
I used to work on social robots,
34
124799
2055
ฉันเคยทำงานเกี่ยวกับหุ่นยนต์สังคม
02:06
and one of my tasks was to get a robot to play peek-a-boo,
35
126878
3777
และงานหน้าที่อย่างหนึ่งของฉันก็คือ ให้หุ่นยนต์เล่นเกมจ๊ะเอ๋
02:10
a simple turn-taking game
36
130679
1683
เป็นเกมง่าย ๆ แบบผลัดกันเล่น
02:12
where partners cover their face and then uncover it saying, "Peek-a-boo!"
37
132386
4321
ที่ผู้เล่นปิดหน้าของตนไว้ แล้วก็เปิดออก พร้อมกับพูดว่า "จ๊ะเอ๋"
02:16
The problem is, peek-a-boo doesn't really work if I can't see you,
38
136731
4429
ปัญหาก็ตือ จะเล่น จ๊ะเอ๋ ไม่ได้ ถ้าฉันมองไม่เห็นคุณ
02:21
and my robot couldn't see me.
39
141184
2499
และหุ่นยนต์ของฉันก็มองไม่เห็นฉัน
02:23
But I borrowed my roommate's face to get the project done,
40
143707
3950
แต่ฉันไปยืมใบหน้าของเพื่อนร่วมห้องมา เพื่อให้โครงการนี้สำเร็จ
02:27
submitted the assignment,
41
147681
1380
ส่งงานนั้นให้อาจารย์ไปได้
02:29
and figured, you know what, somebody else will solve this problem.
42
149085
3753
และก็คิดไปว่า คุณรู้ไหม จะมีคนอื่นมาแก้ปัญหานี้
02:33
Not too long after,
43
153489
2003
หลังจากนั้นไม่นานนัก
02:35
I was in Hong Kong for an entrepreneurship competition.
44
155516
4159
ตอนอยู่ที่ฮ่องกงในการแข่งขันผู้ประกอบการ
02:40
The organizers decided to take participants
45
160159
2694
ผู้จัดการแข่งขันตัดสินใจ พาผู้เข้าร่วมการแข่งขัน
02:42
on a tour of local start-ups.
46
162877
2372
ไปเที่ยวชมธุรกิจเติบโตเร็วในท้องถิ่น
02:45
One of the start-ups had a social robot,
47
165273
2715
หนึ่งในธุรกิจเติบโตเร็วนั้นมีหุ่นยนต์สังคม (social robot)
02:48
and they decided to do a demo.
48
168012
1912
และพวกเขาก็ตัดสินใจแสดงให้ดูเป็นตัวอย่าง
02:49
The demo worked on everybody until it got to me,
49
169948
2980
การแสดงทำได้ดีกับทุก ๆ คน จนมาถึงฉัน
02:52
and you can probably guess it.
50
172952
1923
และคุณก็น่าจะเดาออก
02:54
It couldn't detect my face.
51
174899
2965
มันตรวจไม่พบใบหน้าของฉัน
02:57
I asked the developers what was going on,
52
177888
2511
ฉันเลยถามผู้ที่พัฒนาสร้างมันขึ้นมา ว่าเกิดอะไรขึ้น
03:00
and it turned out we had used the same generic facial recognition software.
53
180423
5533
และก็กลายเป็นว่า พวกเราใช้ โปรแกรมจดจำใบหน้าแบบพื้นฐานแบบเดียวกัน
03:05
Halfway around the world,
54
185980
1650
ห่างออกไปครึ่งหนึ่งของโลก
03:07
I learned that algorithmic bias can travel as quickly
55
187654
3852
ฉันเรียนรู้ว่าอคติในชุดคำสั่งขั้นตอนวิธี สามารถเดินทางไปได้อย่างรวดเร็ว
03:11
as it takes to download some files off of the internet.
56
191530
3170
เท่า ๆ กับที่มันใช้เวลาคัดลอกบางแฟ้มข้อมูล ของอินเตอร์เน็ตออกไปจนหมด
03:15
So what's going on? Why isn't my face being detected?
57
195565
3076
ดังนั้น จึงเกิดอะไรขึ้นหรือค่ะ ทำไมมันจึงตรวจไม่ใบหน้าของฉัน
03:18
Well, we have to look at how we give machines sight.
58
198665
3356
ค่ะ เราก็ต้องมาดูว่า เราให้เครื่องจักรกล มองเห็นได้อย่างไร
03:22
Computer vision uses machine learning techniques
59
202045
3409
การมองเห็นของคอมพิวเตอร์นั้น ใช้เทคนิคการเรียนรู้ของเครื่องจักรกล
03:25
to do facial recognition.
60
205478
1880
เพื่อให้จดจำใบหน้าได้
03:27
So how this works is, you create a training set with examples of faces.
61
207382
3897
สิ่งนี้ทำงานอย่างไรนั้น คือ คุณสร้างชุด การฝึกขึ้นมาพร้อมกับตัวอย่างใบหน้าแบบต่าง ๆ
03:31
This is a face. This is a face. This is not a face.
62
211303
2818
นี่เป็นใบหน้า นี่ก็เป็นใบหน้า นี่ไม่ใช่ใบหน้า
03:34
And over time, you can teach a computer how to recognize other faces.
63
214145
4519
และเมื่อเวลาผ่านไป คุณก็สามารถสอนคอมพิวเตอร์ วิธีการจดจำใบหน้าอื่น ๆ ได้
03:38
However, if the training sets aren't really that diverse,
64
218688
3989
อย่างไรก็ตาม ถ้าหากว่าชุดการฝึกนั้น ไม่มีความหลากหลายอย่างแท้จริงแล้ว
03:42
any face that deviates too much from the established norm
65
222701
3349
ใบหน้าใดก็ตามที่เบี่ยงเบนไปอย่างมาก จากบรรทัดฐานที่สร้างขึ้นมา
03:46
will be harder to detect,
66
226074
1649
ก็จะเป็นการยากที่จะตรวจพบได้
03:47
which is what was happening to me.
67
227747
1963
ซึ่งก็คือ สิ่งที่กำลังเกิดขึ้นกับฉัน
03:49
But don't worry -- there's some good news.
68
229734
2382
แต่ไม่ต้องเป็นห่วงนะคะ -- มีข่าวดีอยู่บ้าง
03:52
Training sets don't just materialize out of nowhere.
69
232140
2771
ชุดการฝึกนั้น ไม่ได้แค่เป็นตัวเป็นตน ขึ้นมาได้เอง
03:54
We actually can create them.
70
234935
1788
จริง ๆ เราสามารถสร้างพวกมันขึ้นมาได้
03:56
So there's an opportunity to create full-spectrum training sets
71
236747
4176
ดังนั้นจึงมีโอกาสที่จะสร้าง ชุดการฝึกแบบครบถ้วนทุกส่วน
04:00
that reflect a richer portrait of humanity.
72
240947
3824
ที่สะท้อนภาพเหมือนของมนุษย์ ได้สมบูรณ์ยิ่งขึ้น
04:04
Now you've seen in my examples
73
244795
2221
ค่ะ คุณก็ได้เห็นในตัวอย่างของฉันแล้ว
04:07
how social robots
74
247040
1768
ว่า หุ่นยนต์สังคมเป็นอย่างไร
04:08
was how I found out about exclusion with algorithmic bias.
75
248832
4611
ฉันค้นพบได้อย่างไร เกี่ยวกับการกันแยกออกไป ด้วยอคติของชุดคำสั่งปฏิบัติ
04:13
But algorithmic bias can also lead to discriminatory practices.
76
253467
4815
แต่อคติของชุดคำสั่งขั้นตอนวิธี ยังสามารถ นำไปสู่การเลือกปฏิบัติได้อีกด้วย
04:19
Across the US,
77
259257
1453
ขณะนี้ทั่วทั้งสหรัฐ
04:20
police departments are starting to use facial recognition software
78
260734
4198
กรมตำรวจกำลังเริ่มใช้โปรแกรมการจดจำใบหน้า
04:24
in their crime-fighting arsenal.
79
264956
2459
ในคลังแสงต่อสู้อาชญากรรมของพวกเขา
04:27
Georgetown Law published a report
80
267439
2013
คณะกฎหมายมหาวิทยาลัยจอร์ดทาวน์ ได้ตีพิมพ์
04:29
showing that one in two adults in the US -- that's 117 million people --
81
269476
6763
แสดงให้เห็นว่า ผู้ใหญ่หนึ่งในสองคน ในสหรัฐ -- นั่นก็คือ คน 117 ล้านคน --
04:36
have their faces in facial recognition networks.
82
276263
3534
มีใบหน้าของพวกเขา อยู่ในเครือข่ายของการจดจำใบหน้าแล้ว
04:39
Police departments can currently look at these networks unregulated,
83
279821
4552
ปัจจุบันกรมตำรวจสามารถเข้าไป ดูเครือข่ายเหล่านี้ได้ โดยไม่มีการควบคุม
04:44
using algorithms that have not been audited for accuracy.
84
284397
4286
โดยใช้ชุดคำสั่งที่ยังไม่ได้ถูกตรวจสอบ ในเรื่องความเที่ยงตรง
04:48
Yet we know facial recognition is not fail proof,
85
288707
3864
แต่เราก็รู้ว่า การจดจำใบหน้า ไม่ใช่ข้อมูลที่ใช้ไม่ได้
04:52
and labeling faces consistently remains a challenge.
86
292595
4179
และการบอกชื่อลักษณะของใบหน้า ก็ยังคงเป็นสิ่งที่ท้าทาย
04:56
You might have seen this on Facebook.
87
296798
1762
คุณอาจจะได้เห็นสิ่งนี้มาแล้ว ในเฟซบุค
04:58
My friends and I laugh all the time when we see other people
88
298584
2988
เพื่อน ๆ ฉันและตัวฉันหัวเราะตลอดเวลา เมื่อเราเห็นคนอื่น ๆ
05:01
mislabeled in our photos.
89
301596
2458
ติดป้ายชื่อผิด ๆ ในภาพของเรา
05:04
But misidentifying a suspected criminal is no laughing matter,
90
304078
5591
แต่การระบุตัวอาชญากรผู้ต้องสงสัยผิดไป ไม่ใช่เรื่องน่าขบขัน
05:09
nor is breaching civil liberties.
91
309693
2827
และไม่ใช่เป็นเรื่องทำให้เกิดรอยแตกร้าว ในเสรีภาพของพลเมือง
05:12
Machine learning is being used for facial recognition,
92
312544
3205
การเรียนรู้ของเครื่องจักรกล กำลังถูกใช้ สำหรับการจดจำใบหน้า
05:15
but it's also extending beyond the realm of computer vision.
93
315773
4505
แต่มันยังกำลังขยายออกไปเกินขอบเขต ของการมองเห็นของคอมพิวเตอร์
05:21
In her book, "Weapons of Math Destruction,"
94
321086
4016
หนังสือ "อาวุธของการทำลายเชิงคณิตศาสตร์" (Weapons of Math Destruction)
05:25
data scientist Cathy O'Neil talks about the rising new WMDs --
95
325126
6681
นักวิทยาศาสตร์ข้อมูล แคธี่ โอนีล พูดถึง การเกิดขึ้นของ ดับเบิลยูเอ็มดี แบบใหม่ --
05:31
widespread, mysterious and destructive algorithms
96
331831
4353
คือ ชุดคำสั่งที่ ขยายกว้าง (widespread) ลึกลับ (mysterious) ทำลายล้าง (destructive)
05:36
that are increasingly being used to make decisions
97
336208
2964
ที่กำลังถูกใช้เพิ่มมากขึ้น เพื่อใช้ในการตัดสินใจ
05:39
that impact more aspects of our lives.
98
339196
3177
ที่เกิดผลกระทบต่อด้านต่าง ๆ ในชีวิตของเรามากยิ่งขึ้น
05:42
So who gets hired or fired?
99
342397
1870
ใครถูกจ้างงาน หรือถูกไล่ออกหรือคะ
05:44
Do you get that loan? Do you get insurance?
100
344291
2112
คุณได้เงินกู้นั่น หรือได้ประกันหรือไม่คะ
05:46
Are you admitted into the college you wanted to get into?
101
346427
3503
คุณได้รับการตอบรับให้เข้าเรียน ในมหาวิทยาลัยที่คุณต้องการหรือไม่คะ
05:49
Do you and I pay the same price for the same product
102
349954
3509
คุณและฉันจ่ายเงินซื้อสินค้าอย่างเดียวกัน ในราคาที่เท่ากันหรือไม่คะ
05:53
purchased on the same platform?
103
353487
2442
เมื่อสินค้านั้นถูกซื้อบนฐานงานเดียวกัน
05:55
Law enforcement is also starting to use machine learning
104
355953
3759
การบังคับกฏหมาย กำลังเริ่มต้นที่จะใช้ การเรียนรู้ของเครื่องจักรกล
05:59
for predictive policing.
105
359736
2289
เพื่อคาดเดาและระบุอาชญากรรม
06:02
Some judges use machine-generated risk scores to determine
106
362049
3494
ผู้พิพากษาบางคนใช้คะแนนความเสี่ยง ที่ได้จากเครื่องจักรกล เพื่อตัดสินใจว่า
06:05
how long an individual is going to spend in prison.
107
365567
4402
บุคคลหนึ่งจะใช้เวลาติดคุกนานเท่าใด
06:09
So we really have to think about these decisions.
108
369993
2454
แท้จริง เราจึงต้องคิดเกี่ยวกับ การตัดสินใจเหล่านี้
06:12
Are they fair?
109
372471
1182
มันยุติธรรมหรือไม่
06:13
And we've seen that algorithmic bias
110
373677
2890
และเราก็ได้เห็นแล้วว่า อคติในชุดคำสั่งขั้นตอนการวิธีนั้น
06:16
doesn't necessarily always lead to fair outcomes.
111
376591
3374
ไม่ได้จำเป็นเสมอว่า จะนำไปสู่ผลลัพธ์ที่เป็นธรรม
06:19
So what can we do about it?
112
379989
1964
ดังนั้น เราจะสามารถทำอะไรได้ในเรื่องนี้
06:21
Well, we can start thinking about how we create more inclusive code
113
381977
3680
ค่ะ เราสามารถเริ่มคิดเกี่ยวกับว่า จะสร้างรหัสที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้
06:25
and employ inclusive coding practices.
114
385681
2990
และใช้วิธีการปฏิบัติในการลงรหัส ที่ครอบคลุมเบ็ดเสร็จ ได้อย่างไร
06:28
It really starts with people.
115
388695
2309
โดยแท้จริงแล้ว มันเริ่มต้นจากผู้คน
06:31
So who codes matters.
116
391528
1961
ใครเป็นคนลงรหัส จึงเป็นเรื่องสำคัญ
06:33
Are we creating full-spectrum teams with diverse individuals
117
393513
4119
เรากำลังสร้างทีมงานที่ครบถ้วนทุกส่วน พร้อมกับบุคคลที่หลากหลายหรือไม่
06:37
who can check each other's blind spots?
118
397656
2411
มีใครที่จะสามารถตรวจสอบ จุดบอดของแต่ละคนหรือไม่
06:40
On the technical side, how we code matters.
119
400091
3545
ในด้านเทคนิคนั้น เราลงรหัสอย่างไร เป็นสิ่งสำคัญ
06:43
Are we factoring in fairness as we're developing systems?
120
403660
3651
เราแบ่งแยกออกเป็นส่วนๆในเรื่องความเป็นธรรม ขณะที่เราพัฒนาระบบหรือไม่
06:47
And finally, why we code matters.
121
407335
2913
และท้ายสุด ทำไมเราจึงลงรหัส ก็สำคัญ
06:50
We've used tools of computational creation to unlock immense wealth.
122
410605
5083
เราใช้เครื่องมือของการสร้างเชิงคอมพิวเตอร์ เพื่อปลดล็อกความมั่งคั่งที่มากมาย
06:55
We now have the opportunity to unlock even greater equality
123
415712
4447
ถึงตอนนี้ เรามีโอกาสที่จะปลดล็อกเปิดได้ แม้กระทั่งระดับคุณภาพที่ยิ่งใหญ่กว่า
07:00
if we make social change a priority
124
420183
2930
ถ้าเราทำให้การเปลี่ยนแปลงทางสังคมนั้น เป็นสิ่งสำคัญอันดับแรก
07:03
and not an afterthought.
125
423137
2170
และไม่ใช่เป็นสิ่งที่จะนำมาคิดพิจารณา ในภายหลัง
07:05
And so these are the three tenets that will make up the "incoding" movement.
126
425828
4522
และทั้งหมดนี้ คือ หลักการสามข้อที่จะ ก่อร่างขึ้นเป็นความเคลื่อนไหว "การลงรหัส"
07:10
Who codes matters,
127
430374
1652
คนที่ลงรหัสนั้นสำคัญ
07:12
how we code matters
128
432050
1543
เราจะลงรหัสอย่างไรนั้นสำคัญ
07:13
and why we code matters.
129
433617
2023
และทำไมเราจึงลงรหัส ก็สำคัญ
07:15
So to go towards incoding, we can start thinking about
130
435664
3099
ดังนั้น จะไปสู่การลงรหัส เราสามารถเริ่มต้นการคิดเกี่ยวกับ
07:18
building platforms that can identify bias
131
438787
3164
การสร้างฐานงานที่สามารถระบุอคติได้
07:21
by collecting people's experiences like the ones I shared,
132
441975
3078
โดยการรวบรวมประสบการณ์ของผู้คน เช่น คนที่ฉันได้ไปแบ่งปันความคิด
07:25
but also auditing existing software.
133
445077
3070
และก็ยังไปตรวจสอบโปรแกรมคอมพิวเตอร์ ที่มีอยู่อีกด้วย
07:28
We can also start to create more inclusive training sets.
134
448171
3765
เรายังสามารถที่จะสร้างชุดการฝึก ที่ครอบคลุมเบ็ดเสร็จยิ่งกว่านี้ได้อีกด้วย
07:31
Imagine a "Selfies for Inclusion" campaign
135
451960
2803
ลองคิดดูซิคะ รณรงค์ "มือถือถ่ายภาพตัวเอง เพื่อนำไปรวมด้วย"
07:34
where you and I can help developers test and create
136
454787
3655
ซึ่งคุณและฉันสามารถช่วยนักพัฒนาทั้งหลาย ทดสอบและสร้างขึ้นมาได้
07:38
more inclusive training sets.
137
458466
2093
ชุดการฝึกแบบครอบคลุมเบ็ดเสร็จ
07:41
And we can also start thinking more conscientiously
138
461122
2828
และเรายังเริ่มต้นการคิดที่ เป็นเรื่องเป็นราวยิ่งขึ้นได้อีก
07:43
about the social impact of the technology that we're developing.
139
463974
5391
เกี่ยวกับผลกระทบของเทคโนโลยีต่อสังคม ที่เรากำลังพัฒนากัน
07:49
To get the incoding movement started,
140
469389
2393
เพื่อให้การเคลื่อนไหวเชิงการลงรหัส เริ่มต้นขึ้นมา
07:51
I've launched the Algorithmic Justice League,
141
471806
2847
ฉันได้เริ่ม คณะเพื่อความเป็นธรรม ด้านชุดคำสั่งขั้นตอนวิธี
07:54
where anyone who cares about fairness can help fight the coded gaze.
142
474677
5872
ซึ่งใครๆที่สนใจเกี่ยวกับความเป็นธรรมมาร่วม ช่วยต่อสู้เรื่อง การจ้องมองที่ถูกเข้ารหัส
08:00
On codedgaze.com, you can report bias,
143
480573
3296
ที่ codedgaze.com คุณสามารถรายงานเกี่ยวกับ อคติ
08:03
request audits, become a tester
144
483893
2445
ร้องขอการตรวจสอบ มาเป็นผู้ทดสอบ
08:06
and join the ongoing conversation,
145
486362
2771
และเข้ามาร่วมการสนธนาที่กำลังมีอยู่
08:09
#codedgaze.
146
489157
2287
ที่ #codedgaze
08:12
So I invite you to join me
147
492562
2487
จึงขอเชิญชวนคุณให้มาร่วมกับฉัน
08:15
in creating a world where technology works for all of us,
148
495073
3719
ในการสร้างโลกใบหนึ่ง ซึ่งเทคโนโลยี ทำงานให้กับเราทุกคน
08:18
not just some of us,
149
498816
1897
ไม่ใช่แค่พวกเราบางคน
08:20
a world where we value inclusion and center social change.
150
500737
4588
โลกใบหนึ่ง ที่เราเห็นคุณค่าในการรวมกัน และมีศูนย์กลางอยู่ที่การเปลี่ยนแปลงสังคม
08:25
Thank you.
151
505349
1175
ขอบคุณค่ะ
08:26
(Applause)
152
506548
4271
(เสียงปรบมือ)
08:32
But I have one question:
153
512693
2854
แต่ฉันมีคำถามหนึ่ง
08:35
Will you join me in the fight?
154
515571
2059
คุณจะมาเข้าร่วมกับฉันในการต่อสู้หรือไม่คะ
08:37
(Laughter)
155
517654
1285
(เสียงหัวเราะ)
08:38
(Applause)
156
518963
3687
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7