We're building a dystopia just to make people click on ads | Zeynep Tufekci

739,958 views ・ 2017-11-17

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: yamela areesamarn Reviewer: Nattpapat Pinyopusarerk
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
เมื่อผู้คนออกมากล่าวว่า กลัวปัญญาประดิษฐ์
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
บ่อยครั้ง พวกมันนำมาซึ่งภาพพจน์ พวกหุ่นยนต์มนุษย์วิ่งพล่านอาละวาดไปทั่ว
00:20
You know? Terminator?
2
20320
1240
รู้ไหม? หนังเรื่องคนเหล็ก?
00:22
You know, that might be something to consider,
3
22400
2336
นั่นอาจเป็นบางสิ่งบางอย่าง ที่ต้องมาพิจารณาให้ดี
00:24
but that's a distant threat.
4
24760
1856
แต่นั่นเป็นภัยคุกคามที่ยังอยู่ห่างไกล
00:26
Or, we fret about digital surveillance
5
26640
3456
หรือไม่ก็ เป็นการที่เราทุกข์กังวลใจ เกี่ยวกับการสอดแนมผ่านทางระบบดิจิตอล
00:30
with metaphors from the past.
6
30120
1776
โดยการเปรียบเทียบจากอดีต
00:31
"1984," George Orwell's "1984,"
7
31920
2656
"1984" หนังสือของจอร์จ ออร์เวลล์ "1984"
00:34
it's hitting the bestseller lists again.
8
34600
2280
ขณะนี้ติดอันดับหนังสือขายดีที่สุดอีกครั้ง
00:37
It's a great book,
9
37960
1416
เป็นหนังสือที่เยี่ยมมาก
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
แต่นั่นไม่ถือเป็นจินภาพที่ถูกต้อง ของสังคมที่เลวร้ายสำหรับศตวรรษที่ 21 นี้
00:44
What we need to fear most
11
44080
1416
สิ่งที่เราต้องกลัวมากที่สุด
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
ไม่ใช่สิ่งที่ปัญญาประดิษฐ์ จะทำกับเราด้วยตัวมันเอง
00:50
but how the people in power will use artificial intelligence
13
50320
4736
แต่เป็นวิธีการที่คนที่มีอำนาจ จะใช้ปัญญาประดิษฐ์
00:55
to control us and to manipulate us
14
55080
2816
เพื่อควบคุมเรา และเพื่อล่อลวงเรา
00:57
in novel, sometimes hidden,
15
57920
3136
ในรูปแบบนิยาย ซึ่งบางครั้งก็ซ่อนเร้น
01:01
subtle and unexpected ways.
16
61080
3016
ในรูปแบบที่แยบยล และคาดไม่ถึง
01:04
Much of the technology
17
64120
1856
เทคโนโลยีจำนวนมาก
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
ที่คุกคามอิสระภาพ และเกียรติยศของเรา ในช่วงอนาคตอันใกล้นี้
01:10
is being developed by companies
19
70360
1856
กำลังถูกพัฒนาโดยบริษัทต่าง ๆ
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
ในธุรกิจที่เข้ามาเก็บและขาย ข้อมูล และความสนใจของเรา
01:17
to advertisers and others:
21
77200
2256
ให้กับพวกบริษัทโฆษณาและบริษัทอื่น ๆ
01:19
Facebook, Google, Amazon,
22
79480
3416
เช่น เฟสบุ๊ก กูเกิล อเมซอน
01:22
Alibaba, Tencent.
23
82920
1880
อาลีบาบา เท็นเซ็นท์
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
ตอนนี้ ปัญญาประดิษฐ์ได้เริ่ม ปรับเสริมธุรกิจพวกเขาให้แข็งแรงขึ้นอีกด้วย
01:31
And it may seem like artificial intelligence
25
91560
2096
และมันอาจดูราวกับว่า ปัญญาประดิษฐ์
01:33
is just the next thing after online ads.
26
93680
2856
ก็เป็นเพียงแค่สิ่งที่จะมาถัดไปจาก โฆษณาทางอินเตอร์เน็ต
01:36
It's not.
27
96560
1216
แต่มันไม่ใช่ค่ะ
01:37
It's a jump in category.
28
97800
2456
มันเป็นการก้าวกระโดดในลำดับขั้น
01:40
It's a whole different world,
29
100280
2576
มันเป็นโลกที่แตกต่างออกไปอย่างสิ้นเชิง
01:42
and it has great potential.
30
102880
2616
และมันก็มีศักยภาพที่ยิ่งใหญ่
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
มันอาจเร่งความเข้าใจของเราให้เร็วขึ้นได้ ในการศึกษา และการวิจัยหลายๆสาขา
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
แต่เมื่อถอดคำพูดของนักปรัชญาฮอลลีวูด ผู้มีชื่อเสียง ที่กล่าวว่า
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"ด้วยศักยภาพมหาศาล ก็จะมีมาซึ่ง การเสี่ยงที่มหาศาลเช่นกัน"
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
ทีนี้มาดูข้อเท็จจริงพื้นฐาน ของชีวิตดิจิตอลของเรา อย่างโฆษณาออนไลน์
02:05
Right? We kind of dismiss them.
35
125080
2896
ใช่มั๊ยคะ? เราไม่ค่อยจะสนใจมัน
02:08
They seem crude, ineffective.
36
128000
1976
มันดูจะยังหยาบ ๆ ไร้ประสิทธิภาพ
02:10
We've all had the experience of being followed on the web
37
130000
4256
เราทุกคนเคยมีประสบการณ์ของการถูกติดตาม ทางอินเตอร์เน็ตมาแลัว
02:14
by an ad based on something we searched or read.
38
134280
2776
โดยโฆษณาที่ขึ้นอยู่กับบางอย่าง ที่เราเคยค้นหาหรือเคยอ่าน
02:17
You know, you look up a pair of boots
39
137080
1856
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
แล้วก็นานเป็นอาทิตย์ รองเท้าบูทพวกนั้น ก็ตามคุณไปทั่ว ไม่ว่าจะไปที่ไหน
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
แม้กระทั่งว่า คุณยอมไปซื้อมันมา มันก็ยังคงตามคุณไปทั่ว
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
เหมือนพวกเราชินชากับ การล่อลวงพื้นฐานง่าย ๆ กระจอก ๆ นั้นไปแล้ว
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
เรากลอกตารำคราญใจ และเราคิดว่า "รู้อะไรมั๊ย? ของแบบนี้ใช้ไม่ได้ผลหรอก"
02:33
Except, online,
44
153720
2096
ยกเว้นทางอินเตอร์เน็ต
02:35
the digital technologies are not just ads.
45
155840
3600
เทคโนโลยีดิจิตอลนั้น ไม่ใช่แค่เพียงโฆษณา
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
ทีนี้ เพื่อจะได้เข้าใจเรื่องนั้น เรามาคิดถึงตัวอย่างในโลกทางกายภาพ
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
คุณก็รู้ ที่ช่องจ่ายเงิน ในซุปเปอร์มาร์เก็ต ใกล้เครื่องคิดเงิน
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
จะมีพวกลูกอมและหมากฝรั่ง วางอยู่ในระดับสายตาของพวกเด็ก ๆ​
02:52
That's designed to make them whine at their parents
49
172800
3496
นั่นถูกออกแบบมา เพื่อให้เด็กเหล่านั้น งอแงใส่พ่อแม่
02:56
just as the parents are about to sort of check out.
50
176320
3080
ในขณะที่พ่อแม่ กำลังจะจ่ายเงิน
03:00
Now, that's a persuasion architecture.
51
180040
2640
นั่นค่ะ นั่นเป็นสถาปัตยกรรมเชิงการชักจูง
03:03
It's not nice, but it kind of works.
52
183160
3096
ไม่ใช่สิ่งที่ดี แต่ใช้การได้
03:06
That's why you see it in every supermarket.
53
186280
2040
นั่นคือเหตุผลที่คุณเห็นมัน ในทุกร้านค้า
03:08
Now, in the physical world,
54
188720
1696
ทีนี้ ในโลกทางกายภาพนั้น,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
สถาปัตยกรรมเชิงชักจูงแบบนั้น ค่อนข้างมีข้อจำกัด
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
เพราะคุณได้แค่วางของหลายอย่าง ไว้ใกล้เครื่องคิดเงินได้ ใช่มั๊ยคะ?
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
แล้วพวกลูกกวาดและหมากฝรั่ง ก็เหมือนๆกันสำหรับทุกคน
03:22
even though it mostly works
58
202120
1456
แม้ว่าวิธีนี้ส่วนใหญ่ใช้การได้
03:23
only for people who have whiny little humans beside them.
59
203600
4040
แต่ก็เพียงกับคนที่มีเจ้าตัวน้อย ร้องโหยหวนอยู่ข้างกาย
03:29
In the physical world, we live with those limitations.
60
209160
3920
ในโลกเชิงกายภาพ เราอยู่กับข้อจำกัดเหล่านั้น
03:34
In the digital world, though,
61
214280
1936
แต่ในโลกดิจิตอลเนี่ยสิ
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
สถาปัตยกรรมเชิงชักจูง สามารถถูกสร้างขึ้นมาได้ในระดับพันล้าน
03:41
and they can target, infer, understand
63
221840
3856
และมันก็สามารถเล็งเป้า สรุป เข้าใจ
03:45
and be deployed at individuals
64
225720
2896
และถูกนำไปแยกใช้กับปัจเจกบุคคล
03:48
one by one
65
228640
1216
ทีละคน
03:49
by figuring out your weaknesses,
66
229880
2136
โดยการวิเคราะห์ถึงจุดอ่อนของคุณ
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
และมันก็ยังสามารถถูกส่งไปที่หน้าจอ โทรศัพท์ส่วนตัวของทุกคน
03:57
so it's not visible to us.
68
237680
2256
เพื่อที่เราจะได้มองไม่เห็น
03:59
And that's different.
69
239960
1256
และนั่นเป็นข้อแตกต่าง
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
และนั่นเป็นเพียงของพื้น ๆ ที่ปัญญาประดิษฐ์สามารถทำได้
04:04
Now, let's take an example.
71
244840
1336
ทีนี้ มาดูอีกสักตัวอย่างค่ะ
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
เอาว่า คุณอยากจะขายตั๋วเครื่องบิน ไปที่ลาส เวกัสนะคะ?
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
ในโลกเดิม ๆ คุณอาจคิดถึง กลุ่มประชากรที่คุณจะตั้งเป้า
04:12
based on experience and what you can guess.
74
252440
2520
ขึ้นอยู่กับประสบการณ์ และสิ่งที่คุณสามารถคาดเดาได้
04:15
You might try to advertise to, oh,
75
255560
2816
คุณอาจจะพยายามโฆษณาไปยัง,
04:18
men between the ages of 25 and 35,
76
258400
2496
ผู้ชายอายุระหว่าง 25 ถึง 35 ปี
04:20
or people who have a high limit on their credit card,
77
260920
3936
หรือ ผู้คนที่มีวงเงินบัตรเครดิตสูง
04:24
or retired couples. Right?
78
264880
1376
หรือคู่ครองวัยเกษียณ ใช่ไหม?
04:26
That's what you would do in the past.
79
266280
1816
นั่นเป็นสิ่งที่คุณอาจจะทำในอดีต
04:28
With big data and machine learning,
80
268120
2896
ด้วยข้อมูลขนาดใหญ่ และการเรียนรู้ของเครื่องจักรกล
04:31
that's not how it works anymore.
81
271040
1524
นั่นไม่ใช่วิธีที่ได้ผลต่อไปแล้ว
04:33
So to imagine that,
82
273320
2176
เพื่อที่จะจินตนาการถึงสิ่งนั้น
04:35
think of all the data that Facebook has on you:
83
275520
3856
ลองคิดถึงข้อมูลทั้งหมด ที่เฟสบุ๊กมีเกี่ยวกับคุณ:
04:39
every status update you ever typed,
84
279400
2536
ทุกสถานะที่คุณเคยพิมพ์
04:41
every Messenger conversation,
85
281960
2016
ทุกการสนทนาในแมสเซนเจอร์
04:44
every place you logged in from,
86
284000
1880
ทุกที่ ที่คุณเคยใช้ล๊อคอิน
04:48
all your photographs that you uploaded there.
87
288400
3176
รูปภาพคุณทั้งหมด ที่คุณถ่ายโอนข้อมูลลงไป
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
ถ้าคุณเริ่มต้นพิมพ์บางอย่าง แล้วเปลี่ยนใจและลบมันไปเสีย
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
เฟซบุ๊กจะเก็บมันไว้ แล้วก็วิเคราะห์ สิ่งที่คุณลบไปแล้วนั้นด้วย
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
เพิ่มมากขึ้นเรื่อย ๆ มันพยายามจะจับคู่ คุณกับข้อมูลออฟไลน์ของคุณ
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
นอกจากนี้ มันยังไปซื้อข้อมูลมากมาย จากนายหน้าขายข้อมูลอีกด้วย
05:06
It could be everything from your financial records
92
306320
3416
ข้อมูลนั้นอาจจะเป็นได้ทุกเรื่อง ตั้งแต่บันทึกด้านการเงินของคุณ
05:09
to a good chunk of your browsing history.
93
309760
2120
จนถึงประวัติการเรียกดูเว็บไซต์มากมาย
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
ใช่ไหมคะ? ในสหรัฐฯ ข้อมูลพวกนั้น ถูกเก็บรวบรวมไว้ประจำเป็นกิจวัตร
05:17
collated and sold.
95
317800
1960
เรียบเรียงแล้วก็ขายไป
05:20
In Europe, they have tougher rules.
96
320320
2440
แต่ในยุโรป พวกเขามีกฎที่เข้มงวดกว่านี้ค่ะ
05:23
So what happens then is,
97
323680
2200
สิ่งที่เกิดขึ้นก็คือ
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
โดยการคลุกเคล้าข้อมูลทั่วทั้งหมด, ชุดคำสั่งการเรียนรู้ของเครื่องพวกนี้ --
05:30
that's why they're called learning algorithms --
99
330960
2896
นั่นคือเหตุผลที่เรียกมันว่า ชุดคำสั่งขั้นตอนการเรียนรู้ ..
05:33
they learn to understand the characteristics of people
100
333880
4096
พวกมันเรียนรู้ที่จะเข้าใจ ลักษณะเฉพาะของผู้คน
05:38
who purchased tickets to Vegas before.
101
338000
2520
ที่ซื้อตั๋วไปลาสเวกัสมาก่อนแล้ว
05:41
When they learn this from existing data,
102
341760
3536
เมื่อพวกมันเรียนรู้เรื่องนี้ จากข้อมูลที่มีอยู่
05:45
they also learn how to apply this to new people.
103
345320
3816
พวกมันยังเรียนรู้อีกด้วย ถึงวิธีประยุกต์ใช้กับคนใหม่
05:49
So if they're presented with a new person,
104
349160
3056
ดังนั้นถ้ามีคนใหม่เข้ามา
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
พวกมันก็สามารถแยกได้ว่า คนนั้นน่าจะซื้อตั๋วไปฃาสเวกัสหรือไม่
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
ก็ดีค่ะ คุณกำลังคิดถึง การเสนอขายตั๋วไปเวกัส
06:03
I can ignore that.
107
363200
1456
ฉันไม่สนใจเรื่องนั้นก็ได้
06:04
But the problem isn't that.
108
364680
2216
แต่นั่นไม่ใช่ปัญหา
06:06
The problem is,
109
366920
1576
ปัญหาที่ว่านั้นคือ
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
เราจะไม่เข้าใจแท้จริงอีกต่อไปว่า ชุดคำสั่ง ขั้นตอนวิธีที่ซับซ้อนพวกนี้ทำงานอย่างไร
06:12
We don't understand how they're doing this categorization.
111
372680
3456
เราไม่เข้าใจว่า พวกมันกำลังทำ การแยกประเภทข้อมูลนี้ได้อย่างไร
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
มันเป็นระบบเมตริกที่ใหญ่มหึมา เต็มไปด้วยแถบแถวของข้อมูลนับพัน
06:20
maybe millions of rows and columns,
113
380600
1960
หรืออาจจะนับล้านเลยก็ได้
06:23
and not the programmers
114
383320
2640
และไม่ว่าจะเป็นคนเขียนโปรแกรม
06:26
and not anybody who looks at it,
115
386760
1680
และใครก็ตามที่ดูมัน
06:29
even if you have all the data,
116
389440
1496
แม้คุณจะมีข้อมูลทั้งหมดนั้น
06:30
understands anymore how exactly it's operating
117
390960
4616
ก็อาจจะไม่เข้าใจอีกต่อไปว่า มันกำลังทำงานอย่างไร
06:35
any more than you'd know what I was thinking right now
118
395600
3776
ไม่มากไปกว่า การที่คุณอาจล่วงรู้ ว่าฉันกำลังคิดอยู่ในขณะนี้
06:39
if you were shown a cross section of my brain.
119
399400
3960
หากว่าคุณได้เห็นภาพตัดตามขวางของสมองฉัน
06:44
It's like we're not programming anymore,
120
404360
2576
มันเหมือนกับว่า เราไม่ได้กำลังเขียนโปรแกรมอีกต่อไปแล้ว
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
แต่เรากำลังสร้างสติปัญญาที่หลักแหลม ที่เราไม่เข้าใจอย่างแท้จริง ให้เติบโตขึ้น
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
และสิ่งเหล่านี้ทำงานก็ต่อเมื่อ มีข้อมูลจำนวนมากมายเท่านั้น
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
ดังนั้น พวกเขาจึงส่งเสริม การสอดแนมเชิงลึกกับพวกเราทุกคน
07:01
so that the machine learning algorithms can work.
124
421640
2336
เพื่อให้เครื่องจักรใช้ ชุดคำสั่งการเรียนรู้มาทำงาน
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
นั่นคือเหตุผลที่เฟซบุ๊กต้องการ รวบรวมข้อมูลคุณทั้งหมดเท่าที่จะทำได้
07:07
The algorithms work better.
126
427200
1576
เพื่อให้ชุดคำสั่งทำงานได้ดีขึ้น
07:08
So let's push that Vegas example a bit.
127
428800
2696
ค่ะ เรามารุกต่อในตัวอย่างเรื่องเวกัสอีกนิด
07:11
What if the system that we do not understand
128
431520
3680
สมมุติว่าระบบที่ว่า ซึ่งเราไม่เข้าใจนั้น
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
กำลังจับได้ว่า มันง่ายกว่าที่จะขายตั๋วไปเวกัส
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
ให้กับคนที่เป็นโรคจิตชนิดไบโพลาร์ และกำลังจะเข้าช่วงอารมณ์ดีผิดปกติ
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
คนแบบนั้นมีแนวโน้มที่จะใช้จ่ายเงินเกินตัว เป็นนักพนันที่ควบคุมตัวเองไม่ได้
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
มันก็จะทำสิ่งที่ว่านี้ และคุณก็ไม่อาจรู้ได้ ว่านั่นคือสิ่งที่มันหยิบมาใช้ได้
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
ครั้งหนึ่ง ฉันเคยให้ตัวอย่างนี้ กับกลุ่มนักวิทยาศาสตร์คอมพิวเตอร์
07:39
and afterwards, one of them came up to me.
134
459400
2056
และหลังจากนั้น หนึ่งในนั้นมาหาฉัน
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
เขาเดือดร้อนใจ และบอกว่า "นั่นล่ะสาเหตุที่ผมพิมพ์เผยแพร่มันไม่ได้"
07:45
I was like, "Couldn't publish what?"
136
465600
1715
ฉันก็แบบ "ไม่อาจพิมพ์เผยแพร่อะไร?"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
เขาได้พยายามดูว่า คุณจะสามารถรู้ได้ถึง การเข้าสู่ช่วงอารมณ์ดีผิดปกติ
07:53
from social media posts before clinical symptoms,
138
473680
3216
จากการพิมพ์ข้อความลงในสื่อสังคมออนไน์ ก่อนมีอาการของโรค
07:56
and it had worked,
139
476920
1776
และปรากฎว่ามันก็ทำได้
07:58
and it had worked very well,
140
478720
2056
และมันก็ใช้การได้อย่างดีมาก
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
และเขาก็ไม่รู้ว่า มันทำงานได้อย่างไร หรือมันกำลังหยิบจับอะไรขึ้นมา
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
ดังนั้น ปัญหาจึงยังไม่ได้ถูกแก้ไข ถ้าเขาไม่ได้พิมพ์เผยแพร่มันไป
08:11
because there are already companies
143
491280
1896
เพราะในขณะนี้ มีหลายบริษัท
08:13
that are developing this kind of technology,
144
493200
2536
ที่กำลังพัฒนาเทคโนโลยีประเภทนี้อยู่
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
และมีอยู่มากมายหลายอย่างแค่ หาได้ง่ายมีจำหน่ายทั่วไป
08:19
This is not very difficult anymore.
146
499240
2576
นี่ไม่ใช่เรื่องยากเย็นมากมายอีกต่อไป
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
คุณเคยเข้าไปในยูทูบมั๊ยคะ ตั้งใจจะดูแค่วิดีโอเดียว
08:25
and an hour later you've watched 27?
148
505320
2360
และแล้วหนึ่งชั่วโมงต่อมา คุณดูไปแล้ว 27 เรื่อง
08:28
You know how YouTube has this column on the right
149
508760
2496
คุณรู้ถึงการที่ยูทูบมีช่อง อยู่ทางขวามือ
08:31
that says, "Up next"
150
511280
2216
ที่บอกไว่า "ลำดับต่อไป"
08:33
and it autoplays something?
151
513520
1816
และมันก็เล่นต่อเองได้ในบางครั้ง?
08:35
It's an algorithm
152
515360
1216
เป็นชุดคำสั่งขั้นตอนวิธี
08:36
picking what it thinks that you might be interested in
153
516600
3616
กำลังจับสิ่งที่มันคิดว่า คุณอาจจะสนใจ
08:40
and maybe not find on your own.
154
520240
1536
และบางทีคุณอาจพบไม่ได้ด้วยตัวเอง
08:41
It's not a human editor.
155
521800
1256
มันไม่ใช่บรรณาธิการมนุษย์
08:43
It's what algorithms do.
156
523080
1416
มันเป็นสิ่งที่ทำโดยชุดคำสั่ง
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
มันจับเอาสิ่งที่คุณได้ดูไปแล้ว และสิ่งที่คนเหมือนคุณได้ดูไปแล้ว
08:49
and infers that that must be what you're interested in,
158
529280
4216
และอนุมานว่า นั่นจะต้องเป็นสิ่งที่คุณสนใจ
08:53
what you want more of,
159
533520
1255
ที่คุณจะต้องการมากขึ้น
08:54
and just shows you more.
160
534799
1336
แล้วแค่แสดงให้คุณเห็นมากขึ้น
08:56
It sounds like a benign and useful feature,
161
536159
2201
ฟังดูเหมือนกับ เป็นคุณลักษณะที่ดี และมีประโยชน์
08:59
except when it isn't.
162
539280
1200
เว้นแต่มันไม่ใช่
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
ในปี 2016 ฉันเข้าร่วมการชุมนุมกับ โดแนล ทรัมพ์ ซึ่งตอนนั้นยังเป็นผู้สมัคร
09:09
to study as a scholar the movement supporting him.
164
549840
3336
เพื่อที่จะศึกษาในฐานะผู้ที่ได้รับทุน ความเคลื่อนไหวที่สนับสนุนเขาอยู่
09:13
I study social movements, so I was studying it, too.
165
553200
3456
ฉันศึกษาความเคลื่อนไหวทางด้านสังคม จึงกำลังศึกษามันด้วยเช่นกัน
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
แล้วฉันก็อยากจะเขียนอะไรสักอย่าง เกี่ยวกับการชุมนุมครั้งหนึ่งของเขา
09:20
so I watched it a few times on YouTube.
167
560040
1960
ฉันจึงเข้าไปดูมันสองสามครั้งในยูทูบ
09:23
YouTube started recommending to me
168
563240
3096
ยูทูบก็เริ่มแนะนำฉัน
09:26
and autoplaying to me white supremacist videos
169
566360
4256
และก็เล่นวิดีโออัตโนมัติให้ฉันดูวิดีโอ ของผู้ที่เชื่อในความเป็นเลิศของคนผิวขาว
09:30
in increasing order of extremism.
170
570640
2656
ตามลำดับที่เพิ่มสูงขึ้นเรื่อยๆ ของลัทธิหัวรุนแรง
09:33
If I watched one,
171
573320
1816
ถ้าหากดูไปแล้วหนึ่งเรื่อง
09:35
it served up one even more extreme
172
575160
2976
มันก็ให้อีกหนึ่งเรื่องที่ยิ่งสูงขึ้นอีก
09:38
and autoplayed that one, too.
173
578160
1424
และเล่นโดยอัตโนมัติด้วย
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
ถ้าคุณดูเนื้อหาของ ฮิลลารี คลินตัน หรือ เบอร์นี แซนเดอร์
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
ยูทูบก็แนะนำ และเล่นให้อัตโนมัติ เรื่องเกี่ยวกับฝ่ายซ้ายสมคบคิดกัน
09:49
and it goes downhill from there.
176
589600
1760
แล้วก็เป็นอย่างนี้ไป หนักขึ้นเรื่อยๆ
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
คุณอาจจะกำลังคิดอยู่ว่า นี่มันเป็นเรื่องการเมือง แต่มันไม่ใข่
09:55
This isn't about politics.
178
595560
1256
สิ่งนี้ไม่ได้เกี่ยวกับการเมือง
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
เรื่องนี้เป็นแค่ขั้นตอนคำสั่ง ที่กำลังวิเคราะห์พฤติกรรมมนุษย์
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
มีอยู่ครั้งหนึ่ง ฉันดูวิดิโอ เกี่ยวกับลัทธิมังสวิรัติ ในยูทูบ
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
และยูทูบก็แนะนำ และเล่นวิดิโอต่ออัตโนมัติ เรื่องเกี่ยวกับการเป็นคนกินมังสวิรัติ
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
เหมือนอย่างกับว่า คุณไม่เคยสุดโต่งพอ สำหรับยูทูบ
10:12
(Laughter)
183
612760
1576
(เสียงหัวเราะ)
10:14
So what's going on?
184
614360
1560
แล้วมันกำลังเกิดอะไรขึ้นเหรอคะ?
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
ตอนนี้ ขั้นตอนคำสั่งของยูทูบ จดทะเบียนกรรมสิทธิ์ไปแล้ว
10:20
but here's what I think is going on.
186
620080
2360
แต่ตรงนี้ เป็นสิ่งที่ฉันคิดว่า กำลังเกิดขึ้นอยู่
10:23
The algorithm has figured out
187
623360
2096
ชุดคำสั่งขั้นตอนวิธีคิดออกแล้วว่า
10:25
that if you can entice people
188
625480
3696
ถ้าหากสามารถชักนำผู้คนไป
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
ให้คิดว่า คุณแสดงให้พวกเขาได้เห็น บางสิ่งบางอย่างที่สุดโต่งยิ่งขึ้น
10:32
they're more likely to stay on the site
190
632960
2416
พวกเขาก็น่าจะยังคงดูเว็บไซต์นั้นอยู่ นานยิ่งขึ้น
10:35
watching video after video going down that rabbit hole
191
635400
4416
ดูวิดีโอแล้ววิดีโอเล่า ลงไปสู่ภาวะอันชุลมุนวุ่นวาย
10:39
while Google serves them ads.
192
639840
1680
ในขณะที่กูเกิลก็เอาโฆษณามาให้คุณดู
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
ทีนี้ เมื่อไม่มีใครสนใจจะว่าอะไร ในเรื่องจริยธรรมของร้านค้า
10:47
these sites can profile people
194
647720
4240
เว็บไซต์พวกนี้ก็สามารถเก็บเอาข้อมูลส่วนตัว ของผู้คนทั้งหลาย
10:53
who are Jew haters,
195
653680
1920
ที่เกลียดชังพวกยิว
10:56
who think that Jews are parasites
196
656360
2480
ที่คิดว่าพวกยิวเป็นพวกเกาะคนอื่นกิน
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
และที่มีความพอใจในการเป็นปฏิปักษ์ กับพวกยิวอย่างเปิดเผยแน่นอน
11:06
and let you target them with ads.
198
666080
2000
และก็ให้คุณตั้งเป้าไปที่พวกเขา ในการโฆษณา
11:09
They can also mobilize algorithms
199
669200
3536
พวกเขายังสามารถระดม ชุดคำสั่งขั้นตอนวิธีเข้ามาได้อีกด้วย
11:12
to find for you look-alike audiences,
200
672760
3136
เพื่อใช้ค้นหาผู้ชมที่มีความคล้ายคลึงกับคุณ
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
ผู้คนที่ไม่ได้มีเนื้อหาต่อต้านยิว อย่างเปิดเผยในข้อมูลส่วนตัว
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
แต่เป็นชุดคำสั่งนั้นแกะรอยได้ว่า อาจจะรู้สึกหวั่นไหวต่อข่าวสารข้อความนั้น
11:27
and lets you target them with ads, too.
203
687720
1920
และให้คุณเล็งเป้าโฆษณาไปที่พวกเขาอีกด้วย
11:30
Now, this may sound like an implausible example,
204
690680
2736
เรื่องนี้อาจจะฟังดูแล้ว เหมือนตัวอย่างที่เหลือเชื่อ
11:33
but this is real.
205
693440
1320
แต่นี่เป็นเรื่องจริง
11:35
ProPublica investigated this
206
695480
2136
เว็บไซต์ข่าวสหรัฐฯโปรพับลิกา ตรวจสอบเรื่องนี้
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
และพบว่า โดยแท้แล้ว คุณก็สามารถทำแบบนี้ได้ ในเฟซบุ๊ก
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
และเฟซบุ๊กก็ช่วยเหลือเสนอแนะ
11:43
on how to broaden that audience.
209
703720
1600
เรื่องวิธีจะขยายผู้ชมให้กว้างขึ้น
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
เว็บไซต์ข่าวบัซฟีดได้ทดลองกับกูเกิล และก็พบอย่างรวดเร็วมาก
11:49
yep, you can do it on Google, too.
211
709760
1736
ใช่เลย คุณทำบนกูเกิลได้ด้วย
11:51
And it wasn't even expensive.
212
711520
1696
และมันไม่แพงด้วยซ้ำ
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
นักข่าวโปรพับลิกา ใช้เงินประมาณ 30 ดอลลาร์
11:57
to target this category.
214
717680
2240
เพื่อตั้งเป้าประเภทนี้
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
เมื่อปีที่แล้ว ผู้จัดการด้านสื่อสังคม ของโดนัลด์ ทรัมป์ ได้เปิดเผยว่า
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
เขาใช้วิธีโพสในเฟซบุ๊กแบบให้เห็นเฉพาะ กลุ่มที่ตั้งเป้าไว้เท่านั้น เพื่อระดมคน
12:13
not to persuade them,
217
733280
1376
ไม่ใช่เพื่อชักจูงคน
12:14
but to convince them not to vote at all.
218
734680
2800
แต่เพื่อโน้มน้าวพวกเค้า ไม่ไปลงคะแนนเสียงเลย
12:18
And to do that, they targeted specifically,
219
738520
3576
และในการทำอย่างนั้น พวกเขาก็ตั้งเป้าเจาะจงเป็นพิเศษ
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
ตัวอย่างเช่น คนแอฟริกันอเมริกัน ในเมืองสำคัญ เช่น ฟิลาเดลเฟีย
12:26
and I'm going to read exactly what he said.
221
746040
2456
และก็กำลังจะอ่านสิ่งที่เขาพูด ตรงเป๊ะกับที่เขาพูด
12:28
I'm quoting.
222
748520
1216
ฉัยยกคำพูดมาตรง ๆ
12:29
They were using "nonpublic posts
223
749760
3016
พวกเขาใช้ "โพสที่ไม่เป็นสาธารณะ
12:32
whose viewership the campaign controls
224
752800
2176
ซึ่งจำกัดการผู้เข้าชมนั้น โดยทีมหาเสียง
12:35
so that only the people we want to see it see it.
225
755000
3776
เพื่อให้เฉพาะผู้เข้าชมที่เราต้องการ ให้เห็นเท่านั้น ที่ได้เห็นมัน
12:38
We modeled this.
226
758800
1216
เราสร้างรูปแบบนี้ขึ้น
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
มันจะกระทบกระเทือนอย่างรวดเร็วไปถึง ความสามารถของเธอ ที่จะทำให้คนพวกนี้ออกมา"
12:45
What's in those dark posts?
228
765720
2280
มีอะไรอยู่ในโพสต์เฉพาะกิจนั้นบ้าง
12:48
We have no idea.
229
768480
1656
เราเดาไม่ออกเลย
12:50
Facebook won't tell us.
230
770160
1200
เฟซบุ๊กจะไม่บอกเรา
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
เฟซบุ๊กยังจัดเรียงการโพสต์นั้น ไปตามลำดับคำสั่งชุดขั้นตอนวิธี
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
สิ่งที่เพื่อนคุณใส่เข้าไปในเฟซบุ๊ก หรือบนเพจที่คุณติดตามอยู่
13:00
It doesn't show you everything chronologically.
233
780640
2216
มันไม่ได้แสดงทุกอย่างให้คุณดู ตามลำดับก่อนหลัง
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
มันเรียงลำดับตามที่ชุดคำสั่งขั้นตอนวิธี คิดว่า มันจะหลอกล่อคุณ
13:07
to stay on the site longer.
235
787720
1840
ให้ยังอยู่ในเว็บไซต์นั้น ให้นานขึ้น
13:11
Now, so this has a lot of consequences.
236
791040
3376
เรื่องนี้จึงส่งให้เกิดผลที่ตามมามากมาย
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
คุณอาจกำลังคิดว่า ใครบางคนกำลังดูถูกดูแคลนคุณอยู่ บนเฟซบุ๊ก
13:18
The algorithm may never be showing your post to them.
238
798800
3256
ลำดับขั้นตอนคำสั่งอาจไม่แสดง สิ่งที่คุณโพสต์ลงไป ให้พวกเขาเห็นเลย
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
ชุดคำสั่ง กำลังจัดลำดับความสำคัญ ของบางเรื่อง และก็ฝังกลบเรื่องอื่นที่เหลือ
13:29
Experiments show
240
809320
1296
การทดลองแสดงให้เห็นว่า
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
สิ่งที่ลำดับขั้นตอนคำสั่งหยิบออกมาให้เห็น สามารถกระทบถึงอารมณ์ของคุณได้
13:36
But that's not all.
242
816600
1200
แต่นั่นไม่ใช่ทั้งหมด
13:38
It also affects political behavior.
243
818280
2360
มันยังกระทบถึงพฤติกรรมทางการเมืองอีกด้วย
13:41
So in 2010, in the midterm elections,
244
821360
4656
ดังนั้น ในปี ค.ศ 2010 ในการเลือกตั้งกึ่งวาระ
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
เฟซบุ๊กได้ทำการทดลองกับชาวอเมริกัน จำนวน 61 ล้านคนในสหรัฐฯ
13:51
that was disclosed after the fact.
246
831960
1896
ซึ่งถูกเปิดเผยออกมา หลังข้อเท็จจริงนั้น
13:53
So some people were shown, "Today is election day,"
247
833880
3416
คนบางคนจึงได้รับการนำแสดงให้เห็น "วันนี้เป็นวันเลือกตั้ง"
13:57
the simpler one,
248
837320
1376
ข้อความง่าย ๆ
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
และบางคนก็ได้รับการนำเสนอให้เห็น ข้อความที่ปรับเปลี่ยนไปเล็กน้อยนั้น
14:02
with those little thumbnails
250
842640
2096
พร้อมกับรูปหัวแม่มือเล็กๆ
14:04
of your friends who clicked on "I voted."
251
844760
2840
ของเพื่อนคุณที่คลิกเข้าไปที่ "ฉันออกเสียงเลือกตั้งแล้ว"
14:09
This simple tweak.
252
849000
1400
นี่เป็นการปรับเปลี่ยนที่ง่าย
14:11
OK? So the pictures were the only change,
253
851520
4296
ใช่ไหม? รูปภาพจึงเป็นสิ่งเดียวที่เปลี่ยน
14:15
and that post shown just once
254
855840
3256
และการโพสต์นั้นแสดงให้เห็นแค่ครั้งเดียว
14:19
turned out an additional 340,000 voters
255
859120
6056
ปรากฎว่า มีคนไปออกเสียงเพิ่มขึ้น ถึง 340,000 คน
14:25
in that election,
256
865200
1696
ในการเลือกตั้งครั้งนั้น,
14:26
according to this research
257
866920
1696
ตามรายงานวิจัยนี้
14:28
as confirmed by the voter rolls.
258
868640
2520
ซึ่งได้รับการยืนยัน โดยทะเบียนผู้มีสิทธิเลือกตั้ง
14:32
A fluke? No.
259
872920
1656
เป็นความบังเอิญหรือ? ไม่ใช่ค่ะ
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
เพราะว่าในปี ค.ศ 2012 พวกเขาทำการทดลองเหมือนกันนี้อีกครั้ง
14:40
And that time,
261
880840
1736
และในครั้งนั้น
14:42
that civic message shown just once
262
882600
3296
ข้อความเกี่ยวกับสิทธิหน้าที่พลเมืองนั้น ถูกนำเสนอแค่ครั้งเดียว
14:45
turned out an additional 270,000 voters.
263
885920
4440
ปรากฎว่าได้คนที่มาออกเสียงเพิ่มขึ้น อีก 270,000 คน
14:51
For reference, the 2016 US presidential election
264
891160
5216
เพื่อการอ้างอิง การเลือกตั้งประธานาธิบดี ของสหรัฐฯ ในปี ค.ศ 2016
14:56
was decided by about 100,000 votes.
265
896400
3520
ถูกตัดสินด้วยเสียงราว 100,000 เสียง
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
ปัจจุบัน เฟซบุ๊กยังสรุปได้อย่างง่ายดาย อีกด้วยว่า มุมมองการเมืองคุณเป็นอย่างไร
15:06
even if you've never disclosed them on the site.
267
906120
2256
แม้ว่าคุณไม่เคยเปิดเผยเรื่องนั้นในเว็บไซต์
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
ใช่ไหม? ชุดขั้นตอนคำสั่งเหล่านี้ กลับทำได้ง่ายดาย
15:11
What if a platform with that kind of power
269
911960
3896
อะไรจะเกิดขึ้น หากว่าระบบ ที่พร้อมด้วยพลังอำนาจเช่นนั้น
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
ตัดสินใจให้ผู้สนับสนุนของผู้สมัครคนหนึ่ง ออกไปลงคะแนน เกินกว่าผู้สมัครอีกคน?
15:21
How would we even know about it?
271
921680
2440
แล้วเราจะรู้เกี่ยวกับมันได้อย่างไร?
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
ตอนนี้ เราได้เริ่มต้นมาจากที่แห่งหนึ่ง ซึ่งดูเหมือนจะไม่มีอันตราย --
15:29
online adds following us around --
273
929720
2216
คือโฆษณาออนไลน์ ที่ติดตามเราไปทั่ว --
15:31
and we've landed someplace else.
274
931960
1840
แล้วเราก็ร่อนลงไปในที่อีกแห่งหนึ่ง
15:35
As a public and as citizens,
275
935480
2456
ในฐานะที่เป็นสาธารณชน และในฐานะพลเมือง
15:37
we no longer know if we're seeing the same information
276
937960
3416
เราจะไม่รู้อีกต่อไป ว่าเรากำลังเห็นข้อมูลข่าวสารเดียวกัน
15:41
or what anybody else is seeing,
277
941400
1480
หรือสิ่งที่คนอื่นเห็นคืออะไร
15:43
and without a common basis of information,
278
943680
2576
และเมื่อปราศจากพื้นฐานข้อมูลข่าวสารร่วมกัน
15:46
little by little,
279
946280
1616
ทีละน้อยละนิด
15:47
public debate is becoming impossible,
280
947920
3216
การอภิปรายโต้เถียงกันทางสาธารณะ ก็กำลังจะเป็นไปไม่ได้
15:51
and we're just at the beginning stages of this.
281
951160
2976
และเราก็เพียงแค่อยู่ที่ขั้นตอนต้น ๆ ของเรื่องนี้เท่านั้น
15:54
These algorithms can quite easily infer
282
954160
3456
ชุดคำสั่งขั้นตอนวิธีเหล่านี้ สามารถอนุมานได้อย่างง่ายดาย
15:57
things like your people's ethnicity,
283
957640
3256
อย่างชาติพันธุ์ของคุณ
16:00
religious and political views, personality traits,
284
960920
2336
แนวคิดเรื่องศาสนาและการเมือง ลักษณะบุคลิกภาพ
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
ความเฉลียวฉลาด ความสุข การใช้สารเสพย์ติด
16:06
parental separation, age and genders,
286
966680
3136
การหย่าร้างของพ่อแม่ อายุ และเพศ
16:09
just from Facebook likes.
287
969840
1960
จากเพียงแค่ ปุ่มชอบ ของเฟซบุ๊ก
16:13
These algorithms can identify protesters
288
973440
4056
ชุดคำสั่งขั้นตอนวิธีเหล่านี้ ก็สามารถระบุตัวผู้ประท้วงได้
16:17
even if their faces are partially concealed.
289
977520
2760
แม้ว่าใบหน้าของพวกเขา จะถูกปกปิดซ่อนเร้นเป็นบางส่วน
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
ชุดคำสั่งขั้นตอนวิธีเหล่านี้ อาจจะสามารถแกะรอยแนวโน้มทางเพศของผู้คน
16:28
just from their dating profile pictures.
291
988360
3200
จากเพียงภาพข้อมูลส่วนตัว ในการนัดหมายนัดพบของพวกเขา
16:33
Now, these are probabilistic guesses,
292
993560
2616
ตอนนี้ นี่คือการคะเนถึงความน่าจะเป็นไปได้
16:36
so they're not going to be 100 percent right,
293
996200
2896
ดังนั้นมันจึงจะไม่ถูกต้อง 100 เปอร์เซ็นต์
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
แต่ฉันไม่เห็นมี การต่อต้านที่ทรงพลัง ต่อสิ่งล่อใจที่จะใช้เทคโนโลยีเหล่านี้
16:44
just because there are some false positives,
295
1004040
2176
แค่เพราะพวกมัน มีประโยชน์เชิงเท็จบางอย่าง
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
ซึ่งแน่นอนว่า มันสามารถสร้างปัญหาอีกหลายชั้น
16:49
Imagine what a state can do
297
1009520
2936
ลองจินตนาการดูว่า รัฐจะสามารถทำอะไรได้บ้าง
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
ด้วยปริมาณข้อมูลมากมายที่มี เกี่ยวกับพลเมืองของรัฐ
16:56
China is already using face detection technology
299
1016680
4776
ขณะนี้จีนกำลังใช้เทคโนโลยี การแกะรอยใบหน้าแล้ว
17:01
to identify and arrest people.
300
1021480
2880
เพื่อระบุตัวและจับกุมผู้คน
17:05
And here's the tragedy:
301
1025280
2136
และนี่เป็นเรื่องเศร้าที่ว่านั้น:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
เรากำลังสร้างโครงสร้างพื้นฐานของ สอดแนมตามแบบลัทธิอำนาจนิยมขึ้นมา
17:13
merely to get people to click on ads.
303
1033000
2960
เพียงเพื่อให้ผู้คนคลิกเข้าไปในโฆษณา
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
เรื่องนี้ จะไม่เป็นลัทธิอำนาจนิยม ตามแบบของออร์เวลล์
17:19
This isn't "1984."
305
1039839
1897
นี่ไม่ใช่เรื่อง "1984"
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
ทีนี้ ถ้าลัทธิอำนาจนิยมกำลังใช้ ความกลัวที่โจ่งแจ้ง เพื่อคุกคามข่มขวัญเรา
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
เราทุกคนก็จะตกใจกลัว แต่เราก็จะรู้
17:29
we'll hate it and we'll resist it.
308
1049280
2200
เราก็จะเกลียดชังมัน และเราก็จะต่อต้านมัน
17:32
But if the people in power are using these algorithms
309
1052880
4416
แต่ถ้าคนที่อยู่ในอำนาจนั้น กำลังใช้ชุดตำสั่งขั้นตอนวิธีเหล่านี้
17:37
to quietly watch us,
310
1057319
3377
เพื่อเฝ้ามองดูเราอย่างเงียบ ๆ
17:40
to judge us and to nudge us,
311
1060720
2080
เพื่อตัดสินเรา และเพื่อสะกิดเรา
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
เพื่อให้คาดเดาและระบุตัวตน คนที่จะสร้างความเดือดร้อน และผู้ทรยศ
17:47
to deploy persuasion architectures at scale
313
1067920
3896
เพื่อวางสถาปัตยกรรมการโน้มน้าว อย่างกว้างขวาง
17:51
and to manipulate individuals one by one
314
1071840
4136
และเพื่อโน้มน้าวบุคคล ทีละคน
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
โดยการใช้จุดอ่อนและความเปราะบางอ่อนแอ ส่วนตัวรายบุคคลของพวกเขา
18:02
and if they're doing it at scale
316
1082720
2200
และถ้าเขากำลังทำสิ่งนั้นอยู่ อย่างกว้างขวาง
18:06
through our private screens
317
1086080
1736
ผ่านทางหน้าจอส่วนตัวของเรา
18:07
so that we don't even know
318
1087840
1656
เพื่อที่ว่า กระทั่งเราไม่รู้เลยว่า
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
พลเมืองพวกพ้องและเพื่อนบ้านของเรานั้น กำลังดูอะไรอยุ่,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
ลัทธิอำนาจนิยมนั้น จะครอบงำเราเอาไว้ ราวกับใยแมงมุม
18:18
and we may not even know we're in it.
321
1098400
2480
และจนกระทั่งเราอาจไม่รู้เลยว่า เราอยู่ในนั้น
18:22
So Facebook's market capitalization
322
1102440
2936
ดังนั้นโครงสร้างเงินทุนการตลาดของเฟซบุ๊ก
18:25
is approaching half a trillion dollars.
323
1105400
3296
จึงกำลังเข้าไปถึงเงินจำนวน ครึ่งล้านล้านดอลลาร์
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
นั่นเพราะว่า มันทำงานได้เยี่ยมยอด ในฐานะเป็นสถาปัตยกรรมการชักจูง
18:33
But the structure of that architecture
325
1113760
2816
แต่โครงสร้างของสถาปัตยกรรมดังกล่าวนั้น
18:36
is the same whether you're selling shoes
326
1116600
3216
ก็เหมือนกัน ไม่ว่าคุณจะกำลังขายรองเท้า
18:39
or whether you're selling politics.
327
1119840
2496
หรือไม่ว่าคุณจะกำลังขายนโยบยาการเมืองอยู่
18:42
The algorithms do not know the difference.
328
1122360
3120
ชุดคำสั่งขั้นตอนวิธีไม่รู้ถึงความแตกต่าง
18:46
The same algorithms set loose upon us
329
1126240
3296
ชุดคำสั่งขั้นตอนวิธีเดียวกันที่ปล่อยเรา
18:49
to make us more pliable for ads
330
1129560
3176
ให้เรายิ่งโอนอ่อนตามโฆษณายิ่งขึ้น
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
ก็กำลังจัดระเบียบ กระแสข้อมูลข่าวสาร ด้านการเมือง ส่วนตัว และสังคมของเราอีกด้วย
18:59
and that's what's got to change.
332
1139520
1840
และนั่นเป็นสิ่งที่จะต้องเปลี่ยน
19:02
Now, don't get me wrong,
333
1142240
2296
ทีนี้ อย่าเข้าใจฉันผิดไปนะคะ
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
เราใช้ฐานงานดิจิตอล ก็เพราะว่า มันให้คุณค่าที่ยิ่งใหญ่แก่เรา
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
เราใช้เฟซบุ๊กเพื่อติดต่อกับเพื่อน ๆ และครอบครัวเราไปทั่วโลก
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
ฉันได้เขียนหนังสือไว้ว่า สื่อสังคมออนไลน์ สำคัญยิ่งต่อการเคลื่อนไหวทางสังคมอย่างไร
19:19
I have studied how these technologies can be used
337
1159800
3016
ฉันได้ศึกษาถึงวิธีที่จะ สามารถนำเทคโนโลยีเหล่านี้ไปใช้ได้อย่างไร
19:22
to circumvent censorship around the world.
338
1162840
2480
เพื่อหลีกเลี่ยงการเซ็นเซอร์ทั่วโลก
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
แต่ไม่ใช่ว่า คนที่ทำงาน ในที่อย่างเฟซบุ๊ก หรือกุเกิล
19:33
are maliciously and deliberately trying
340
1173720
2696
กำลังมุ่งร้ายและจงใจพยายาม
19:36
to make the country or the world more polarized
341
1176440
4456
ที่จะทำให้ประเทศชาติ หรือโลก ถูกแบ่งแยกยิ่งขึ้น
19:40
and encourage extremism.
342
1180920
1680
และส่งเสริมลัทธิหัวรุนแรง
19:43
I read the many well-intentioned statements
343
1183440
3976
ฉันได้อ่านคำแถลงที่ปรารถณาดีมากมาย
19:47
that these people put out.
344
1187440
3320
ที่ผู้คนเหล่านี้แถลงออกมา
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
ทว่าที่สำคัญ มันไม่ใช่ความตั้งใจหรือคำแถลง ที่ผู้คนในเทคโนโลยีนั้นบอกมาหรอก
19:57
it's the structures and business models they're building.
346
1197680
3560
แต่มันเป็นโครงสร้าง และแบบแผนทางธุรกิจ ที่พวกเขากำลังสร้างขึ้นมาต่างหาก
20:02
And that's the core of the problem.
347
1202360
2096
และนั่นแหละ คือ แก่นของปัญหา
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
หรือเฟซบุ๊คเป็นการหลอกลวงขนาดยักษ์ ในเงินครึ่งล้านล้านนั้น
20:10
and ads don't work on the site,
349
1210200
1896
และโฆษณาก็ใช้การไม่ได้ในเว็บไซต์นั้น
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
มันใช้การไม่ได้ ในฐานะเป็นสถาปัตยกรรมเชิงการชักจูง
20:14
or its power of influence is of great concern.
351
1214840
4120
หรือเป็นเรื่องอำนาจในการชักจูง โน้มน้าวของมันนั้น เป็นเรื่องน่าห่วงใยมากๆ
20:20
It's either one or the other.
352
1220560
1776
มันเป็นอย่างใดอย่างหนึ่ง
20:22
It's similar for Google, too.
353
1222360
1600
มันก็คล้ายคลึงสำหรับกูเกิลด้วย
20:24
So what can we do?
354
1224880
2456
ดังนั้น เราจะสามารถทำอะไรได้หรือ?
20:27
This needs to change.
355
1227360
1936
สิ่งนี้จำเป็นต้องเปลี่ยน
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
ตอนนี้ ฉันไม่อาจเสนอสูตรสำเร็จง่าย ๆ ได้
20:31
because we need to restructure
357
1231920
2256
เพราะว่าเราจำเป็นต้องปรับโครงสร้าง
20:34
the whole way our digital technology operates.
358
1234200
3016
ในเรื่องวิธีการทั้งหมด ที่เทคโนโลยีดิจิตอลทำงาน
20:37
Everything from the way technology is developed
359
1237240
4096
ทุกสิ่งทุกอย่าง ตั้งแต่วิธีการ ที่เทคโนโลยีนี้ถูกพัฒนาขึ้นมา
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
ไปจนถึงแรงจูงใจ เศรษฐกิจ และเรื่องอื่นๆ
20:45
are built into the system.
361
1245240
2280
ซึ่งถูกสร้างเข้ามาอยู่ในระบบนี้
20:48
We have to face and try to deal with
362
1248480
3456
เราจะต้องเผชิญหน้าและพยายามที่จะจัดการกับ
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
การขาดความโปร่งใส ที่ถูกสร้างขึ้นมาโดย ชุดคำสั่งขั้นตอนวิธี ที่สั่งการด้วยตัวเอง
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
ความท้าทายเชิงโครงสร้าง ในความคลุมเครือ ของการเรียนรู้ของเครื่องจักร
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
ข้อมูลที่เอามาตามอำเภอใจ ที่ถูกสะสมจากพวกเรา
21:05
We have a big task in front of us.
366
1265000
2520
เรามีงานชิ้นใหญ่อยู่เบื้องหน้าเรา
21:08
We have to mobilize our technology,
367
1268160
2680
เราจะต้องระดมเทคโนโลยีของเรา
21:11
our creativity
368
1271760
1576
ความคิดสร้างสรรค์ของเรา
21:13
and yes, our politics
369
1273360
1880
และใช่ค่ะ, การเมืองของเรา
21:16
so that we can build artificial intelligence
370
1276240
2656
เพื่อที่ว่าเราจะสามารถสร้างปัญญาประดิษฐ์
21:18
that supports us in our human goals
371
1278920
3120
ที่จะส่งเสริมเรา ในเป้าหมาย ด้านความเป็นมนุษย์ของเรา
21:22
but that is also constrained by our human values.
372
1282800
3920
แต่สิ่งนั้นก็ยังถูกบีบบังคับไว้ด้วย ค่านิยมในความเป็นมนุษย์ของเราอีกด้วย
21:27
And I understand this won't be easy.
373
1287600
2160
และฉันก็เข้าใจว่า นี่ไม่ใช่เรื่องง่าย
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
เราอาจจะแม้กระทั่ง ตกลงกันได้ง่ายๆ ในเรื่องความหมายของคำศัพท์เหล่านั้น
21:34
But if we take seriously
375
1294920
2400
แต่ถ้าหากว่าเราเอาจริงเอาจัง
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
ว่าระบบที่เราพึ่งพามันอย่างมากเหล่านี้นั้น ทำงานอย่างไร
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
ฉันก็ไม่เห็นว่า เราจะสามารถเลื่อน การพูดคุยกันในเรื่องนี้ต่อไปอีก ได้อย่างไร
21:49
These structures
378
1309200
2536
โครงสร้างเหล่านี้
21:51
are organizing how we function
379
1311760
4096
กำลังจะจัดระบบวิธีการที่เราปฏิบัติการงาน
21:55
and they're controlling
380
1315880
2296
และพวกมันกำลังควบคุม
21:58
what we can and we cannot do.
381
1318200
2616
สิ่งที่เราสามารถทำได้ และที่เราทำไม่ได้
22:00
And many of these ad-financed platforms,
382
1320840
2456
และฐานโฆษณาที่ได้เงินสนับสนุนเหล่านี้ เป็นจำนวนมาก
22:03
they boast that they're free.
383
1323320
1576
พวกเขาอวดอ้างว่า พวกเขาเป็นอิสระ
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
แต่ในเนื้อหานี้นั้น มันหมายถึงว่า เราเป็นผลิตภัณฑ์ ที่กำลังถูกขาย
22:10
We need a digital economy
385
1330840
2736
เราจำเป็นต้องมีเศรษฐกิจเชิงดิจิตอล
22:13
where our data and our attention
386
1333600
3496
เป็นที่ซึ่งข้อมูลของเรา และความสนใจของเรานั้น
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
ไม่ใช่สำหรับเพื่อขายให้กับ เผด็จการหรือพวกกวนเมืองที่เสนอราคาสูงสุด
22:23
(Applause)
388
1343160
3800
(เสียงปรบมือ)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
ค่ะ เพื่อกลับไปที่ถ้อยความฮอลลีวูด ที่พูดถึงมาแล้วนั้
22:33
we do want the prodigious potential
390
1353760
3736
เราต้องการจริงๆ ให้ศักยภาพที่มหาศาล
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
ของปัญญาประดิษฐ์ และดิจิตอลเทคโนโลยี เบ่งบาน
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
แต่ในเรื่องนั้น เราจะต้องเผชิญกับ ภัยอันตรายมากมายมหาศาลนี้
22:46
open-eyed and now.
393
1366360
1936
เปิดหูเปิดตาเสียตอนนี้เลยค่ะ
22:48
Thank you.
394
1368320
1216
ขอบคุณคะ
22:49
(Applause)
395
1369560
4640
(ปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7