Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Teerachart Prasert Reviewer: Sritala Dhanasarnsombut
00:12
So, I started my first job as a computer programmer
0
12739
4122
ดิฉันเริ่มทำงานครั้งแรก เป็นคอมพิวเตอร์ โปรแกรมเมอร์
00:16
in my very first year of college --
1
16885
1956
ในปีแรกที่เรียนมหาวิทยาลัย
00:18
basically, as a teenager.
2
18865
1507
ตั้งแต่ยังวัยรุ่น
00:20
Soon after I started working,
3
20889
1732
เริ่มทำงานเขียนโปรแกรม
00:22
writing software in a company,
4
22645
1610
ให้บริษัทได้ไม่นาน
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
ผู้จัดการคนหนึ่งในบริษัทนั้น มาหาดิฉัน
00:28
and he whispered to me,
6
28458
1268
แล้วกระซิบถามว่า
00:30
"Can he tell if I'm lying?"
7
30229
2861
"มันจับโกหกผมได้หรือเปล่า?"
00:33
There was nobody else in the room.
8
33806
2077
ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก
"ใครที่ไหนจับโกหกคุณได้เหรอ? แล้วเราจะกระซิบกันทำไม?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
ผู้จัดการก็ชี้ ไปที่คอมพิวเตอร์
00:45
"Can he tell if I'm lying?"
11
45397
3096
"มันจับโกหกผมได้หรือเปล่า?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
พอดีว่า ผู้จัดการคนนั้น เป็นชู้อยู่กับพนักงานต้อนรับ
00:53
(Laughter)
13
53999
1112
(เสียงหัวเราะ)
ตอนนั้น ฉันยังเป็นแค่วัยรุ่น
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
ฉันเลยกระซิบดัง ๆ กลับไปว่า
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ"
(เสียงหัวเราะ)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
ดิฉันอำไปขำ ๆ แต่ตอนนี้ ดิฉันกลับขำไม่ออกเสียเอง
01:07
Nowadays, there are computational systems
19
67915
3268
ปัจจุบัน มีระบบคอมพิวเตอร์
01:11
that can suss out emotional states and even lying
20
71207
3548
ที่สามารถตรวจจับอารมณ์ หรือกระทั่งคำโกหกได้
01:14
from processing human faces.
21
74779
2044
โดยการประมวลผลใบหน้ามนุษย์
01:17
Advertisers and even governments are very interested.
22
77248
4153
ทั้งบริษัทโฆษณาและรัฐบาล ต่างก็สนใจอย่างมาก
01:22
I had become a computer programmer
23
82319
1862
ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์ และวิทยาศาสตร์มาก ๆ
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
แต่พอโตขึ้น ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์
ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง จริยธรรมทางวิทยาศาสตร์เอามาก ๆ
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
ดิฉันรู้สึกไม่ดีเลย
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว
01:37
I also needed to start working as soon as possible.
29
97943
3298
ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค
01:44
where I can get a job easily
31
104588
1796
แบบที่ดิฉันจะได้งานง่าย ๆ
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
และก็ไม่ต้องมาปวดหัวกับ ปัญหาจริยธรรมอะไรก็แล้วกัน
ดิฉันเลยเลือกคอมพิวเตอร์
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(เสียงหัวเราะ)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
ฮ่า ฮ่า ฮ่า ดิฉันนี่เองกลับขำไม่ออก
ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์ กำลังสร้างแพลตฟอร์ม
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
ที่ควบคุมสื่อซึ่งประชากร เป็นพันล้านคนดูอยู่ทุกวัน
พวกเขากำลังสร้างรถ ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ
02:12
that might kill human beings in war.
40
132944
2285
ที่คร่าชีวิตมนุษย์ในสงครามได้
02:15
It's ethics all the way down.
41
135253
2771
สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม
02:19
Machine intelligence is here.
42
139183
2058
เครื่องจักร มีสติปัญญาแล้ว
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
เราใช้คอมพิวเตอร์คำนวณ เพื่อตัดสินใจเรื่องสารพัดอย่าง
02:25
but also new kinds of decisions.
44
145321
1886
รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
เราเริ่มใช้คอมพิวเตอร์ เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว
02:32
that are subjective
46
152427
1202
คำถามอัตนัย
02:33
and open-ended and value-laden.
47
153653
2325
ปลายเปิด และต้องใช้มุมมองในการตอบ
คำถามอย่างเช่น
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"บริษัทควรจ้างใครดี"
"ควรแสดงอัพเดตของเฟรนด์คนไหนดี"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
ใช่ค่ะ เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว
02:51
but this is different.
54
171988
1517
แต่นี่ไม่เหมือนแต่ก่อน
02:53
This is a historical twist,
55
173529
2067
นี่คือจุดพลิกผันครั้งประวัติศาสตร์
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์ มาช่วยแก้ปัญหาเชิงอัตวิสัย
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน สร้างสะพาน
03:06
going to the moon.
58
186425
1259
หรือไปดวงจันทร์
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
เครื่องบินปลอดภัยขึ้นมั้ย สะพานจะแกว่งหรือพังมั้ย
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
เรื่องแบบนี้ เรามีจุดตรวจสอบ ที่จับต้อง เห็นตรงกันได้
03:16
and we have laws of nature to guide us.
61
196254
2239
และเรามีกฎธรรมชาติช่วยนำทางให้
03:18
We have no such anchors and benchmarks
62
198517
3394
แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น
03:21
for decisions in messy human affairs.
63
201935
3963
สำหรับการตัดสิน เรื่องธุระที่ยุ่งเหยิงของมนุษย์
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
เรื่องยิ่งยุ่งยากขึ้นอีก เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น
03:30
but it's also getting less transparent and more complex.
65
210183
3773
แต่ขณะเดียวกัน ก็โปร่งใสลดลง และซับซ้อนมากขึ้น
03:34
Recently, in the past decade,
66
214542
2040
ในทศวรรษที่ผ่านมา
03:36
complex algorithms have made great strides.
67
216606
2729
อัลกอริธึ่มระดับซับซ้อน ก้าวล้ำรุดหน้าอย่างยิ่ง
03:39
They can recognize human faces.
68
219359
1990
พวกมันตรวจจับใบหน้ามนุษย์ได้
03:41
They can decipher handwriting.
69
221985
2055
แกะลายมือได้
03:44
They can detect credit card fraud
70
224436
2066
ตรวจหาการโกงบัตรเครดิต
03:46
and block spam
71
226526
1189
และบล็อกสแปมได้
03:47
and they can translate between languages.
72
227739
2037
แปลภาษาได้หลากหลาย
03:49
They can detect tumors in medical imaging.
73
229800
2574
ค้นหาเนื้องอกผ่านระบบฉายภาพได้
03:52
They can beat humans in chess and Go.
74
232398
2205
เล่นหมากรุกและโกะชนะมนุษย์ได้
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ "แมคชีน เลิร์นนิ่ง" (Machine Learning)
แมคชีน เลิร์นนิ่ง ต่างจาก การเขียนโปรแกรมทั่วไป
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์ อย่างละเอียด เจาะจง และรัดกุม
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก เข้าสู่ระบบ
04:11
including unstructured data,
79
251584
1656
ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง
04:13
like the kind we generate in our digital lives.
80
253264
2278
แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต
04:15
And the system learns by churning through this data.
81
255566
2730
จากนั้น ระบบจะเรียนรู้ โดยประมวลย่อยข้อมูลเหล่านั้น
04:18
And also, crucially,
82
258669
1526
และที่สำคัญ
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
ระบบพวกนี้ไม่ได้ทำงาน โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ แต่เป็นคำตอบที่อิงความน่าจะเป็น
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่"
ซึ่งมีด้านดีคือ วิธีการนี้ทรงพลังเอามาก ๆ
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า"
04:39
The downside is,
89
279791
1353
แต่ด้าบลบก็คือ
04:41
we don't really understand what the system learned.
90
281738
3071
เรายังไม่เข้าใจเลยว่า อะไรคือสิ่งที่ระบบเรียนรู้
04:44
In fact, that's its power.
91
284833
1587
ซึ่งนี่เองคือจุดเด่นของมัน
04:46
This is less like giving instructions to a computer;
92
286946
3798
นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์
04:51
it's more like training a puppy-machine-creature
93
291200
4064
แต่เป็นเหมือนการฝึกลูกหมา ที่เผอิญเป็นคอมพิวเตอร์
04:55
we don't really understand or control.
94
295288
2371
เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย
04:58
So this is our problem.
95
298362
1551
นี่เองคือปัญหาของเรา
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
จะเกิดปัญหาขึ้น เมื่อระบบเอไอ พวกนี้ตีความข้อมูลผิด
05:04
It's also a problem when it gets things right,
97
304713
3540
และจะเกิดปัญหาเช่นกัน แม้เมื่อมันตีความถูก
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก เมื่อพูดถึงปัญหาแบบอัตนัย
05:11
We don't know what this thing is thinking.
99
311929
2339
เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่
05:15
So, consider a hiring algorithm --
100
315493
3683
สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน
ระบบที่ตัดสินใจจ้างพนักงาน โดยใช้วิธีแมคชีน เลิร์นนิ่ง
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
และถูกสั่งให้ค้นหาและว่าจ้าง
05:31
people like the existing high performers in the company.
104
331270
3038
คนที่มีคุณสมบัติเหมือนพนักงาน ระดับเยี่ยมที่มีอยู่ในปัจจุบัน
05:34
Sounds good.
105
334814
1153
ฟังดูดี
05:35
I once attended a conference
106
335991
1999
ครั้งหนึ่ง ดิฉันเข้าประชุม
งานเสวนาที่รวมเอา ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์
05:38
that brought together human resources managers and executives,
107
338014
3125
คนระดับสูง ๆ
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
ที่ใช้ระบบแบบนี้ไว้จ้างงาน
05:43
They were super excited.
110
343976
1646
พวกเขาตื่นเต้นมาก ๆ
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง
05:50
and give women and minorities a better shot
112
350323
3000
ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น
05:53
against biased human managers.
113
353347
2188
เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ
05:55
And look -- human hiring is biased.
114
355559
2843
การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ
ฉันรู้ดี
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
บางครั้ง หัวหน้าของฉัน จะมาหาฉัน
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
ตอนเช้ามาก ๆ หรือไม่ก็ ตอนบ่ายมาก ๆ
เธอบอกว่า "เซย์เน็ป ไปกินข้าวเที่ยงกัน!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
พอดูเวลา ฉันก็จะงง
06:16
It's 4pm. Lunch?
121
376915
2129
บ่าย 4 ข้าวเที่ยงเหรอ?
ตอนนั้น ฉันไม่มีเงิน ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
หัวหน้าของฉันไม่ได้ บอกผู้ใหญ่ตามตรงว่า
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
โปรแกรมเมอร์ที่พวกเขาจ้าง มานั้น เป็นแค่วัยรุ่นผู้หญิง
06:32
who wore jeans and sneakers to work.
126
392416
3930
ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน
ดิฉันทำผลงานดี แต่รูปลักษณ์นั้นไม่ผ่าน
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
ไม่ผ่านทั้งอายุ และเพศ
แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
ถูกใจฉันแน่นอน
แต่ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของคุณได้สารพัด
06:56
from your digital crumbs,
133
416783
1872
จากร่องรอยทางดิจิตอลของคุณ
06:58
even if you have not disclosed those things.
134
418679
2333
ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม
07:01
They can infer your sexual orientation,
135
421506
2927
พวกมันคาดเดาได้ ทั้งรสนิยมทางเพศของคุณ
07:04
your personality traits,
136
424994
1306
บุคลิกนิสัย
07:06
your political leanings.
137
426859
1373
แนวโน้มทางการเมือง
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
พวกมันสามารถทำนายได้ ด้วยความแม่นยำสูง
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
อย่าลืมค่ะ นี่แค่เรื่อง ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ
07:15
This is inference.
140
435964
1591
เป็นแค่การคาดเดา
07:17
I have a friend who developed such computational systems
141
437579
3261
ดิฉันมีเพื่อนที่พัฒนา ระบบคอมพิวเตอร์แบบนี้
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
เพื่อทำนายความน่าจะเป็น ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก
07:24
from social media data.
143
444529
1416
โดยใช้ข้อมูลโซเชียลมีเดีย
07:26
The results are impressive.
144
446676
1427
ผลที่ได้ น่าประทับใจมาก
07:28
Her system can predict the likelihood of depression
145
448492
3357
ระบบของเธอสามารถทำนาย แนวโน้มการเป็นโรคซึมเศร้า
07:31
months before the onset of any symptoms --
146
451873
3903
ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง
07:35
months before.
147
455800
1373
รู้ล่วงหน้าหลายเดือน
07:37
No symptoms, there's prediction.
148
457197
2246
ยังไม่มีอาการ แต่เป็นแค่การทำนาย
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
เธอหวังว่าจะใช้ระบบนี้ เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ!
07:44
But now put this in the context of hiring.
150
464911
2040
ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน
ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ งานนี้
07:48
So at this human resources managers conference,
151
468027
3046
ดิฉันพูดคุยกับผู้บริหารระดับสูง ของบริษัทใหญ่ยักษ์แห่งหนึ่ง
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
ดิฉันถามเธอว่า "สมมติว่า โดยที่คุณไม่ล่วงรู้"
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
ระบบคัดคนที่มีแนวโน้ม เป็นโรคซึมเศร้าในอนาคตสูงออกไป
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง ว่าจะตั้งครรภ์
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
สมมติว่า มันจ้างคนบุคลิกก้าวร้าว เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ
เรื่องเหล่านี้ คุณดูไม่ออก โดยใช้แค่เพศจำแนก
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
มันอาจเหมือน ๆ กันก็ได้
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง ไม่ใช่การโปรแกรมแบบปกติ
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
จึงไม่มีตัวแปรที่ระบุว่า "ความเสี่ยงซึมเศร้าสูง"
08:37
"higher risk of pregnancy,"
163
517926
1833
"ความเสี่ยงตั้งครรภ์สูง"
08:39
"aggressive guy scale."
164
519783
1734
"ระดับความก้าวร้าวสูง"
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
คุณไม่เพียงไม่รู้ว่า ระบบเลือกอะไรมา
08:45
you don't even know where to begin to look.
166
525698
2323
คุณไม่รู้ด้วยซ้ำ ว่าจะเริ่มหาจากตรงไหนดี
มันเหมือนกล่องดำ
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้
08:52
"What safeguards," I asked, "do you have
169
532486
2369
ฉันถาม "คุณจะใช้วิธีป้องกันใด
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
เพื่อให้แน่ใจว่า กล่องดำของคุณ ไม่ทำอะไรนอกลู่นอกทาง
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
เธอมองดิฉันกลับเหมือนดิฉันกำลัง เหยียบหางลูกหมาอยู่ 10 ตัว
09:04
(Laughter)
172
544765
1248
(เสียงหัวเราะ)
เธอจ้องดิฉันกลับ และพูดว่า
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"อย่ามาพูดอะไรแบบนี้ ให้ฉันฟังอีกนะคะ"
09:13
And she turned around and walked away.
175
553458
2034
แล้วเธอก็หันหน้า เดินหนีไป
เธอไม่ได้หยาบคายหรอกค่ะ
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน ไปไกล ๆ ไล่ด้วยสายตา
09:23
(Laughter)
178
563906
1246
(เสียงหัวเราะ)
09:25
Look, such a system may even be less biased
179
565862
3839
ระบบแบบนั้น อาจมีอคติน้อยกว่า
09:29
than human managers in some ways.
180
569725
2103
ผู้จัดการมนุษย์ในบางด้าน
09:31
And it could make monetary sense.
181
571852
2146
และอาจคุ้มค่าทางการเงินด้วยก็จริง
09:34
But it could also lead
182
574573
1650
แต่ก็อาจเป็นต้นเหตุ
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
ที่ค่อย ๆ นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า
ออกจากตลาดแรงงานไปเลย โดยเราไม่รู้ตัว
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
นี่คือสังคมแบบที่เราอยาก สร้างขึ้น
09:46
without even knowing we've done this,
186
586373
2285
โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
อยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ
09:53
Another problem is this:
188
593265
1458
อีกปัญหาหนึ่งคือ
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
ระบบเหล่านี้ มักถูกฝึกฝน โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา
09:59
human imprints.
190
599790
1816
พฤติกรรมของมนุษย์
10:02
Well, they could just be reflecting our biases,
191
602188
3808
ฉะนั้น มันอาจรับเอาอคติของเรา
แล้วก็หยิบอคติเหล่านั้นออกมา
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
ขยายให้รุนแรงขึ้น
10:10
and showing them back to us,
194
610974
1418
แล้วก็แสดงผลกลับมาให้เราดู
10:12
while we're telling ourselves,
195
612416
1462
ขณะที่เราพร่ำบอกตัวเองว่า
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"เรากำลังคำนวณอย่างเป็นกลาง ตามข้อเท็จจริง"
10:18
Researchers found that on Google,
197
618314
2677
นักวิจัยพบว่าบนกูเกิ้ล
โฆษณางานรายได้สูงมีแนวโน้มจะแสดง ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน
ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง กับประวัติอาชญากรรมจะแสดงขึ้นมา
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม
10:38
Such hidden biases and black-box algorithms
202
638693
3549
อคติซ่อนเร้น และอัลกอริธึ่มกล่องดำแบบนี้เอง
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ แต่บางครั้งก็ไม่อาจรู้ได้
10:46
can have life-altering consequences.
204
646263
2661
ที่อาจสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี
ข้อหาหลบหนีตำรวจ
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
เรื่องนี้คุณอาจไม่รู้
แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
ผู้ต้องหาคนนั้นอยากรู้ว่า คะแนนนี้มีวิธีคำนวณอย่างไร
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
บริษัทนั้นปฎิเสธที่จะให้ ศาลไต่สวนอัลกอริธึ่มของตนเอง
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร ตรวจสอบอัลกอริธึ่มนั้น
11:17
with what public data they could find,
213
677952
2016
โดยใช้ข้อมูลสาธารณะเท่าที่หาได้
11:19
and found that its outcomes were biased
214
679992
2316
และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
ความสามารถในการทำนายย่ำแย่ ดีกว่าเดาสุ่มแค่นิดเดียว
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
มันให้ผลลัพธ์ที่ผิดพลาดว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต
11:30
at twice the rate of white defendants.
217
690425
3895
สูงเป็นสองเท่าของผู้ต้องหาผิวขาว
11:35
So, consider this case:
218
695891
1564
ลองดูอีกคดีหนึ่ง
ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม กลับจากโรงเรียน
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า สายกว่าเวลา
11:44
running down the street with a friend of hers.
221
704757
2356
เธอกับเพื่อน ๆ วิ่งกันไปตามถนน
แล้วเจอจักรยานเด็ก และสกูตเตอร์วางทิ้งไว้
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
แล้วก็เอามาใช้อย่างไม่คิด
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
ขณะที่กำลังจะปั่นจักรยานไป ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"เฮ้ นั่นของลูกฉันนะ"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
พวกเธอเลยทิ้งจักรยาน รีบเดินหนี แล้วก็ถูกจับกุม
เธอผิดจริง เธอโง่เขลา แต่เธอก็อายุแค่ 18 ด้วย
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
ส่วนผู้ชายคนนั้น ถูกจับกุม ข้อหาขโมยของในโฮมดีโป้
มูลค่า 85 ดอลลาร์ เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
แต่เขามีประวัติกรรโชคทรัพย์ มาแล้วถึงสองครั้ง
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
แต่อัลกอริธึ่มกลับให้คะแนน ความเสี่ยงเธอสูง ไม่ใช่เขา
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
สองปีต่อมา โปรพับลิก้า พบว่า เธอไม่ได้กระทำผิดซ้ำอีก
12:30
It was just hard to get a job for her with her record.
234
750644
2550
แต่ด้วยประวัติของเธอ ทำให้เธอหางานทำได้ยาก
12:33
He, on the other hand, did reoffend
235
753218
2076
แต่ผู้ชายนั้น กลับทำความผิดซ้ำ
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
และตอนนี้ ต้องโทษจำคุกแปดปี จากการทำผิดหนหลัง
ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุลเช่นนี้
(เสียงปรบมือ)
12:46
(Applause)
239
766120
2879
การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
ลองดูฟีดข่าวทรงอิทธิพล ของเฟซบุ้กเป็นตัวอย่าง
อันที่จัดลำดับข่าวสารทุกอย่าง แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ
13:04
Should you be shown another baby picture?
244
784898
2275
จะโชว์อะไรดีล่ะ รูปเด็กเล็ก
13:07
(Laughter)
245
787197
1196
(เสียงหัวเราะ)
13:08
A sullen note from an acquaintance?
246
788417
2596
หรือโน้ตขึงขังที่คนรู้จักเขียน
13:11
An important but difficult news item?
247
791449
1856
หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก
13:13
There's no right answer.
248
793329
1482
ไม่มีคำตอบผิดถูก
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
เฟซบุ้กให้ความสำคัญกับ การมีปฏิสัมพันธ์ต่อคอนเทนต์
13:17
likes, shares, comments.
250
797518
1415
ไลค์ แชร์ คอมเมนต์
ในเดือนสิงหาคม ค.ศ. 2014
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย
ในสภาพการณ์ที่ีน่าสงสัย
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
ข่าวการประท้วงผุดเต็มฟีด
บนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
แต่หาไม่เจอบนเฟซบุ้กเลย
13:39
Was it my Facebook friends?
258
819182
1734
เพราะเพื่อนบนเฟซบุ้กของฉันหรือ?
13:40
I disabled Facebook's algorithm,
259
820940
2032
ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
ซึ่งทำได้ยาก เพราะเฟซบุ้ก จะยืนกรานแต่ให้คุณ
13:46
come under the algorithm's control,
261
826344
2036
อยู่ใต้บงการของอัลกอริธึ่ม
13:48
and saw that my friends were talking about it.
262
828404
2238
แล้วก็พบว่า เพื่อน ๆ ของฉัน ต่างก็พูดถึงเรื่องนี้
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
แต่อัลกอริธึ่มมันไม่ยอม โชว์ให้ดิฉันดู
13:53
I researched this and found this was a widespread problem.
264
833199
3042
ฉันค้นคว้าเรื่องนี้ต่อ และพบว่านี่เป็นปัญหาในวงกว้าง
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
ข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริธึ่ม
เพราะมัน "ไม่มีคนไลค์"
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
ใครจะไปกดไลค์ล่ะ
14:03
It's not even easy to comment on.
268
843500
2206
ขนาดคอมเมนต์ยังยากเลย
14:05
Without likes and comments,
269
845730
1371
เมื่อไม่มีไลค์ หรือคอมเมนต์
อัลกอริธึ่มจึงมีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
เราเลยไม่เห็นข่าวนี้เลย
14:12
Instead, that week,
272
852946
1228
แต่ในสัปดาห์นั้น
14:14
Facebook's algorithm highlighted this,
273
854198
2298
สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
คือ การท้าราดน้ำแข็งสู้โรค ALS
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
จุดประสงค์ดี มีการราดน้ำแข็ง ได้บริจาคช่วยคน ดีค่ะ
14:22
But it was super algorithm-friendly.
276
862536
1904
แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย
14:25
The machine made this decision for us.
277
865219
2613
เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา
14:27
A very important but difficult conversation
278
867856
3497
การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้
14:31
might have been smothered,
279
871377
1555
อาจถูกกำจัดออก
14:32
had Facebook been the only channel.
280
872956
2696
หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว
และท้ายที่สุด ระบบพวกนี้ ก็อาจผิดพลาด
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
พวกคุณคงรู้จักวัตสัน ระบบสมองประดิษฐ์ของ IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
ที่เอาชนะคู่แข่งมนุษย์ แบบขาดลอยในรายการเจพเปอร์ดี้
มันเล่นเกมเก่งมาก
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
แต่ในเจพเปอร์ดี้รอบสุดท้าย วัตสันต้องตอบคำถามนี้ค่ะ
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"สนามบินที่ใหญ่ที่สุดของมัน ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2
14:57
its second-largest for a World War II battle."
288
897615
2252
และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2"
14:59
(Hums Final Jeopardy music)
289
899891
1378
(ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย)
15:01
Chicago.
290
901582
1182
ชิคาโก้ค่ะ
15:02
The two humans got it right.
291
902788
1370
มนุษย์สองคนตอบถูกต้อง
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
แต่วัตสัน ตอบว่า "โตรอนโต้"
ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กประถมไม่มีทางพลาด
15:18
Our machine intelligence can fail
296
918823
3109
สมองประดิษฐ์อาจทำผิดพลาดได้
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
ด้วยพฤติการณ์คนละแบบกับของมนุษย์
ในรูปแบบที่เราจะคาดไม่ถึง และไม่ได้เตรียมรับมือ
15:25
in ways we won't expect and be prepared for.
298
925080
2950
การไม่ได้งานทั้งที่คุณ มีคุณสมบัติพร้อมก็แย่อยู่แล้ว
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
แต่คงแย่สุด ๆ ถ้าไม่ได้งาน เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์
15:35
in some subroutine.
301
935467
1432
ในซับรูทีนบางตัว
15:36
(Laughter)
302
936923
1579
(เสียงหัวเราะ)
15:38
In May of 2010,
303
938526
2786
เมื่อเดือนพฤษภาคม 2010
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับ
15:45
in Wall Street's "sell" algorithm
305
945404
3028
ในอัลกอริธึ่มของวอลล์สตรีท
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
ทำให้เงินในตลาดหายไป กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที
15:53
I don't even want to think what "error" means
307
953722
2187
ดิฉันไม่อยากคิดเลยว่า "ข้อบกพร่อง" จะเป็นแบบไหน
15:55
in the context of lethal autonomous weapons.
308
955933
3589
ถ้าเกิดเปลี่ยนเป็น อาวุธอันตรายแบบอัตโนมัติแทน
16:01
So yes, humans have always made biases.
309
961894
3790
มนุษย์ล้วนมีอคติกันทั้งนั้น
16:05
Decision makers and gatekeepers,
310
965708
2176
ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ
16:07
in courts, in news, in war ...
311
967908
3493
ทั้งในศาล ในข่าว และในสงคราม
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
พวกเขาผิดพลาดได้ทั้งนั้น แต่นั่นแหละ คือประเด็นของดิฉัน
16:14
We cannot escape these difficult questions.
313
974487
3521
เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
เราจะถ่ายโอนความรับผิดชอบ ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้
16:22
(Applause)
315
982676
4208
(เสียงปรบมือ)
ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing)
เราต้องทำตรงกันข้าม
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
เราต้องส่งเสริมการสีบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้ สามารถตรวจสอบย้อนกลับได้
16:48
auditing and meaningful transparency.
321
1008602
2445
ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม
16:51
We need to accept that bringing math and computation
322
1011380
3234
เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์
16:54
to messy, value-laden human affairs
323
1014638
2970
มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม
16:57
does not bring objectivity;
324
1017632
2384
ไม่ได้ทำให้เกิดความเที่ยงตรง อย่างภววิสัย
แต่ความซับซ้อนของปัญหามนุษย์ จะเล่นงานอัลกอริธึ่มแทน
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
จริงค่ะ คอมพิวเตอร์นั้น เราใช้ได้ และควรใช้ด้วย
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
เพื่อให้เราตัดสินใจได้ดีขึ้น
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม ในการตัดสินใจนั้น
แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา
17:22
to one another as human to human.
331
1042854
2454
ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน
17:25
Machine intelligence is here.
332
1045807
2609
เรามีสมองประดิษฐ์ไว้ใช้แล้ว
17:28
That means we must hold on ever tighter
333
1048440
3421
นั่นหมายความว่า เรายิ่งต้องยึดมั่น
17:31
to human values and human ethics.
334
1051885
2147
ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์
ขอบคุณค่ะ
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7