The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,905,054 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,905,054 views ・ 2018-07-13

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Kelwalin Dhanasarnsombut Reviewer: Uma Read
00:12
I'm James.
0
12777
1183
ผมชื่อเจมส์ครับ
00:13
I'm a writer and artist,
1
13984
1686
ผมเป็นนักเขียนและศิลปิน
00:15
and I make work about technology.
2
15694
2341
และทำงานเกี่ยวกับเทคโนโลยี
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
งานของผมได้แก่การเขียนแบบ โดรนทหารที่มีขนาดเท่าจริง
00:22
in city streets around the world,
4
22389
1828
บนถนนในเมืองทั่วโลก
00:24
so that people can start to think and get their heads around
5
24241
2950
เพื่อที่คนจะได้เริ่มครุ่นคิดกัน และลองนึกตรึกตรองกันดู
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
มันค่อนข้างที่จะเป็นเทคโนโลยี ที่เห็นได้ยากและคนไม่ค่อยจะคิดถึง
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
งานอื่นของผมเช่น เครือข่ายประสาท ที่คาดคะเนผลลัพธ์ของการเลือกตั้ง
00:35
based on weather reports,
8
35354
1737
ตามการรายงานพยากรณ์อากาศ
00:37
because I'm intrigued about
9
37115
1314
เพราะว่าผมสนใจว่า
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
เทคโนโลยีใหม่ ๆ แปลก ๆ เหล่านี้ จะทำอะไรได้บ้าง
00:43
Last year, I built my own self-driving car.
11
43405
2426
ปีที่แล้ว ผมสร้างรถยนต์ที่ขับเคลื่อนเอง ด้วยตัวผมเอง
00:45
But because I don't really trust technology,
12
45855
2526
เพราะว่าผมไม่ไว้ใจเทคโนโลยีจริง ๆ
00:48
I also designed a trap for it.
13
48405
1928
ผมออกแบบหลุมพรางให้มัน
00:50
(Laughter)
14
50777
1086
(เสียงหัวเราะ)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
และผมทำงานเหล่านี้เป็นส่วนใหญ่ เพราะว่าผมพบว่ามันน่าทึ่งอย่างยิ่ง
00:56
but also because I think when we talk about technology,
16
56209
2602
แต่ยังเป็นเพราะว่าผมคิดว่า เมื่อเราพูดถึงเทคโนโลยี
00:58
we're largely talking about ourselves
17
58835
2619
เรามักพูดกันถึงตัวเราเอง
01:01
and the way that we understand the world.
18
61478
2299
และในแบบที่เราเข้าใจโลก
01:03
So here's a story about technology.
19
63801
2442
ครับ นี่จะเป็นเรื่องราวเกี่ยวกับเทคโนโลยี
01:07
This is a "surprise egg" video.
20
67520
2830
นี่คือวีดีโอ "ไข่พิศวง"
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
เป็นวีดีโอที่มีการเปิดไข่ช็อกโกแลต
01:13
and showing the toys inside to the viewer.
22
73746
2126
เพื่อดูว่าของเล่นข้างในคืออะไร
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
ตลอดเจ็ดนาที ก็มีแค่นั้นแหละครับ
01:19
And I want you to notice two things about this.
24
79428
3051
และผมก็อยากให้คุณสังเกตอะไรสองอย่าง
01:22
First of all, this video has 30 million views.
25
82503
4074
อย่างแรกเลย วีดีโอนี้มีผู้ชม 30 ล้านครั้ง
01:26
(Laughter)
26
86601
1275
(เสียงหัวเราะ)
01:28
And the other thing is,
27
88376
1166
และอีกอย่างก็คือ
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
มันมาจากช่องที่มีผู้ติดตาม 6.3 ล้านคน
01:33
that has a total of eight billion views,
29
93459
2680
นั่นเท่ากับมีผู้ชมทั้งหมดแปดพันล้านครั้ง
01:36
and it's all just more videos like this --
30
96163
3106
และมันก็ยังมีวีดีโอแบบนี้อีกมากมาย
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
คน 30 ล้านคน กำลังดูการแกะไข่พวกนี้
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
มันฟังดูพิลึก แต่ถ้าคุณลองค้นหาด้วยคำว่า "ไข่พิศวง" บนยูทูป
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
มันจะบอกว่ามีวีดีโอเหล่านี้ 10 ล้านวีดีโอ
01:52
and I think that's an undercount.
34
112240
1657
และผมคิดว่านั่นยังไม่หมด
01:53
I think there's way, way more of these.
35
113921
1897
ผมคิดว่ามันยังมีวีดีโอพวกนี้อยู่อีกมาก
01:55
If you keep searching, they're endless.
36
115842
2242
ถ้าคุณลองค้นหาไปเรื่อย ๆ พวกมันมีมากมายมหาศาล
01:58
There's millions and millions of these videos
37
118108
2159
มีวีดีโอแบบนี้มากมายนับไม่ถ้วน
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
ด้วยยี่ห้อและวัสดุต่าง ๆ ที่พิศดารขึ้นเรื่อย ๆ
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
และพวกมันก็ถูกโหลดขึ้นไปบนยูทูป มากขึ้นทุกวัน
02:07
Like, this is a strange world. Right?
40
127639
3511
โลกนี้มันประหลาด ใช่ไหมครับ
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
แต่ประเด็นก็คือ คนที่ดูวีดีโอเหล่านี้ ไม่ใช่ผู้ใหญ่
02:14
It's kids, small children.
42
134581
2921
แต่เป็นเด็ก เด็กเล็ก ๆ
02:17
These videos are like crack for little kids.
43
137526
2154
วีดีโอเหล่านี้ เหมือนเป็นหลุมดักเด็กเล็ก
02:19
There's something about the repetition,
44
139704
2075
มันมีอะไรบ้างอย่างเกี่ยวกับการทำซ้ำ ๆ
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
เหมือนการเปิดที่กระตุ้นโดปามีน ทีละนิดอย่างสม่ำเสมอ
02:24
that completely hooks them in.
46
144295
1866
ที่ดึงความสนใจของเด็กได้อย่างอยู่หมัด
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
และเด็ก ๆ ที่ดูวีดีโอเหล่านี้ ซ้ำแล้วซ้ำเล่า
02:31
and they do it for hours and hours and hours.
48
151018
2327
และพวกเขาก็ดูกันเป็นชั่วโมง ๆ
02:33
And if you try and take the screen away from them,
49
153369
2356
และถ้าคุณพยายาม ที่จะดึงจอไปจากเด็กแล้วล่ะก็
02:35
they'll scream and scream and scream.
50
155749
1782
พวกเขาก็จะร้องจ้ากันไม่หยุด
02:37
If you don't believe me --
51
157555
1262
ถ้าไม่เชื่อผมนะ
02:38
and I've already seen people in the audience nodding --
52
158841
2607
แล้วผมก็เห็นคนที่กำลังฟังอยู่ พยักหน้าเห็นด้วยแล้ว
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
ถ้าคุณไม่เชื่อผม ลองถามใครสักคน ที่มีลูกเล็ก ๆ สิครับ
02:44
and they'll know about the surprise egg videos.
54
164887
2340
พวกเขารู้ดีเลยเรื่องวีดีโอไข่พิศวง
02:47
So this is where we start.
55
167251
2070
และนี่คือจุดเริ่มต้นของเรา
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
ในปี ค.ศ. 2018 ใครบางคน หรืออาจจะหลาย ๆ คน
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
ใช้กลไกเดียวกับที่เฟสบุ๊กหรืออินสตาแกรมใช้
02:56
to get you to keep checking that app,
58
176976
1989
เพื่อให้คุณกลับไปกดดูแอพเรื่อย ๆ
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
และพวกเขาก็ใช้มันกับยูทูป และเข้ายึดครองสมองของเด็กตัวเล็ก ๆ
03:02
in return for advertising revenue.
60
182998
1958
เพื่อให้ได้มาซึ่งค่าโฆษณา
03:06
At least, I hope that's what they're doing.
61
186346
2001
อย่างน้อย ผมก็หวังว่า นั่นเป็นสิ่งที่พวกเขาทำ
03:08
I hope that's what they're doing it for,
62
188371
1955
ผมหวังว่า เขาทำเพื่อผลกำไรนั้น
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
เพราะว่ามันมีวิธีที่ง่ายกว่านี้ ในการสร้างผลกำไรบนยูทูป
03:15
You can just make stuff up or steal stuff.
64
195682
2332
คุณก็แค่สร้างอะไรสักอย่างขึ้นมา หรือขโมยอะไรมาก็ได้
03:18
So if you search for really popular kids' cartoons
65
198038
2635
ถ้าคุณลองค้นหาการ์ตูนที่เด็ก ๆ ชื่นชอบ
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
อย่าง "ปาป้า พิ๊ก" หรือ "พาว เพโทร"
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
คุณก็จะพบกับวีดีโอออนไลน์เช่นนี้ มากมายมหาศาลเช่นกัน
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
แน่นอนล่ะว่า ส่วนใหญ่แล้ว มันไม่ได้ถูกปะไว้ที่นั่นโดยผู้ผลิตวีดีโอ
03:28
They come from loads and loads of different random accounts,
69
208922
2999
พวกมันมาจากผู้ใช้ที่หลากหลาย
03:31
and it's impossible to know who's posting them
70
211945
2240
และเราก็ไม่อาจรู้ได้ว่า ใครเป็นผู้ที่โหลดพวกมันขึ้นไป
03:34
or what their motives might be.
71
214209
1822
หรือพวกเขามีจุดประสงค์อะไร
03:36
Does that sound kind of familiar?
72
216428
1930
ฟังดูคุ้น ๆ ไหมครับ
03:38
Because it's exactly the same mechanism
73
218382
1980
เพราะว่านั่นเป็นกระบวนการเดียวกันเป๊ะ
03:40
that's happening across most of our digital services,
74
220386
2600
ที่เกิดขึ้นกับบริการดิจิทัลอื่น ๆ
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
ซึ่งเราไม่สามารถบอกได้เลย ว่าข้อมูลนี้มาจากไหน
03:46
It's basically fake news for kids,
76
226241
1829
มันเป็นเหมือนข่าวเทียมสำหรับเด็ก
03:48
and we're training them from birth
77
228094
2161
และเรากำลังให้มันสอนเด็กตั้งแต่แบเบาะ
03:50
to click on the very first link that comes along,
78
230279
2506
ให้กดลิงก์แรกที่เห็น
03:52
regardless of what the source is.
79
232809
1953
โดยไม่ต้องคำนึงว่ามันมาจากไหน
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
นั่นไม่น่าจะเป็นความคิดที่ดีสักเท่าไร
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
นี่เป็นอีกอย่างหนึ่ง ที่นิยมกันในยูทูปของเด็ก ๆ
04:01
This is called the "Finger Family Song."
82
241133
1928
มันเรียกว่า "เพลงครอบครัวนิ้วมือ"
04:03
I just heard someone groan in the audience.
83
243085
2018
ผมว่าผมได้ยินผู้ฟังส่งเสียงคร่ำครวญนะ
04:05
This is the "Finger Family Song."
84
245127
1624
นี่คือ "เพลงครอบครัวนิ้วมือ"
04:06
This is the very first one I could find.
85
246775
1930
นี่เป็นอันแรกที่ผมเจอ
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
มันถูกโหลดขึ้นไปตั้งแต่ปี ค.ศ. 2007 และมีผู้ชม 200,000 ครั้ง
04:11
which is, like, nothing in this game.
87
251582
1976
ซึ่งเรียกได้ว่าเล็กน้อยมาก
04:13
But it has this insanely earwormy tune,
88
253582
2852
แต่มันมีทำนองที่ติดหูสุด ๆ
04:16
which I'm not going to play to you,
89
256458
1682
ซึ่งผมจะไม่เปิดให้ฟังนะครับ
04:18
because it will sear itself into your brain
90
258164
2008
เพราะว่ามันจะทำร้ายสมองของคุณ
04:20
in the same way that it seared itself into mine,
91
260196
2395
แบบเดียวกับที่มันทำร้ายสมองของผม
04:22
and I'm not going to do that to you.
92
262615
1770
และผมจะไม่ทำแบบนั้นหรอกครับ
04:24
But like the surprise eggs,
93
264409
1344
แต่เช่นเดียวกันกับ ไข่พิศวง
04:25
it's got inside kids' heads
94
265777
2164
มันบุกเข้าไปในสมองของเด็ก ๆ
04:27
and addicted them to it.
95
267965
1607
และทำให้พวกเขาติดงอมแงม
04:29
So within a few years, these finger family videos
96
269596
2531
ฉะนั้น ภายในไม่กี่ปี วีดีโอเพลงครอบครัวนิ้วมือ
04:32
start appearing everywhere,
97
272151
1303
จะผุดขึ้นทุกหนทุกแห่ง
04:33
and you get versions in different languages
98
273478
2029
และคุณก็จะเห็นมันถูกแปลง เป็นภาษาต่าง ๆ
04:35
with popular kids' cartoons using food
99
275531
2121
โดยมีการ์ตูนที่สร้างจากอาหาร ที่เด็ก ๆ ชอบกัน
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
หรือใช้แอนิเมชั่นรูปแบบอื่น ๆ
04:40
you seem to have lying around.
101
280250
2252
ที่คุณเคยเห็นมาก่อนหน้านี้
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
และอีกครั้งหนึ่ง วีดีโอออนไลน์แบบนี้
04:48
available online in all of these kind of insane combinations.
103
288223
3435
ก็มากมายหลายรูปแบบ บ้าบอคอแตกเหลือเกิน
04:51
And the more time you start to spend with them,
104
291682
2228
และยิ่งคุณใช้เวลากับมันมากเท่าไร
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
คุณก็จะยิ่งรู้สึกบ้าบอขึ้นเรื่อย ๆ
04:57
And that's where I kind of launched into this,
106
297652
3333
และนั่นก็เป็นจุดเริ่มต้นของผม ที่มีต่อสิ่งนี้
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
ความรู้สึกที่แสนแปลกประหลาด และการขาดความเข้าใจโดยสิ้นเชิง
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
ว่าสิ่งที่ปรากฏอยู่รอบตัวผมนี้ ถูกสร้างขึ้นได้อย่างไร
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
เพราะว่าเราไม่อาจรู้ได้เลย ว่าสิ่งเหล่านี้มาจากไหน
05:12
Like, who is making them?
110
312089
1241
เช่น ใครเป็นผู้สร้าง
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
บางวีดีโอน่าจะถูกสร้าง โดยกลุ่มของแอนิเมเตอร์มืออาชีพ
05:16
Some of them are just randomly assembled by software.
112
316521
2882
บางวีดีโออาจถูกนำมารวมกันแบบสุ่ม ๆ โดยซอร์ฟแวร์
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
บางวีดีโอก็น่าจะ ส่งเสริมให้เกิดความบันเทิงกับเด็ก
05:23
And some of them are from people
114
323704
1552
แต่บางวีดีโอก็น่าจะมาจาก
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
คนที่ควรอยู่ห่าง ๆ เด็กเอาไว้
05:28
(Laughter)
116
328311
1615
(เสียงหัวเราะ)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
และอีกครั้ง เราไม่อาจรู้ได้เลย ว่าใครเป็นผู้สร้างสิ่งเหล่านี้
05:35
like, this is a bot?
118
335651
1156
โปรแกรมอย่างนั้นหรือ
05:36
Is this a person? Is this a troll?
119
336831
2647
คนทั่วไป หรือว่าเกรียนที่ไหน
05:39
What does it mean that we can't tell the difference
120
339502
2382
มันคืออะไรกันแน่ ที่ว่าเราไม่อาจบอกความแตกต่าง
05:41
between these things anymore?
121
341908
1583
ระหว่างสิ่งเหล่านี้ได้อีกแล้ว
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
และอีกแหละ คุณรู้สึกว่า มันคุ้น ๆ บ้างหรือยัง
05:50
So the main way people get views on their videos --
123
350145
2580
โดยทั่วไปวีดีโอเหล่านี้ถูกรับชม
05:52
and remember, views mean money --
124
352749
1707
อ้อ จำนวนครั้งที่ชมหมายถึงเงินนะครับ
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
ก็เพราะมันมีชื่อหัวข้อ เหมือนกับวีดีโอที่ได้รับความนิยม
05:59
So you take, like, "surprise eggs"
126
359246
1687
ฉะนั้น ใช้ชื่อหัวข้อ เช่น "ไข่พิศวง"
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
กับ "พาว เพโทร" และ "ไข่อีสเตอร์"
06:03
or whatever these things are,
128
363047
1393
หรืออะไรก็ตามแต่
06:04
all of these words from other popular videos into your title,
129
364464
2893
ที่เป็นคำจากวีดีโออื่นที่ได้รับความนิยม
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
จนกระทั่งคุณได้ข้อความ ที่ไร้ซึ่งความหมายทางภาษา
06:10
that doesn't make sense to humans at all.
131
370373
2498
สำหรับคนแล้วจะอ่านไม่เข้าใจเลย
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
เพราะแน่ล่ะว่า ผู้ชมวีดีโอเหล่านี้ เป็นแค่เด็กเล็ก ๆ เองไม่ใช่หรือ
06:16
and what the hell do they know?
133
376465
1827
พวกเขาจะไปรู้อะไรล่ะ
06:18
Your real audience for this stuff is software.
134
378316
3007
ผู้ชมตัวจริงคือซอร์ฟแวร์
06:21
It's the algorithms.
135
381347
1156
คืออัลกอริธึม
06:22
It's the software that YouTube uses
136
382527
1855
คือซอร์ฟแวร์ที่ยูทูปใช้
06:24
to select which videos are like other videos,
137
384406
2483
เพื่อเลือกวีดีโอที่คล้ายกับวีดีโออื่น
06:26
to make them popular, to make them recommended.
138
386913
2243
เพื่อทำให้พวกมันได้รับความนิยม ได้รับการอ้างถึง
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
และเป็นเหตุว่าทำไม มันจึงลงเอย ที่การยำรวมอย่างไร้ความหมายนี้
06:32
both of title and of content.
140
392665
2071
ทั้งหัวข้อและเนื้อหา
06:35
But the thing is, you have to remember,
141
395792
1894
แต่ประเด็นก็คือ คุณต้องจำไว้ว่า
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
ยังมีคนจริง ๆ ที่อยู่เบื้องหลัง ระบบที่ถูกปรับด้วยอัลกอริธึมนี้
06:42
people who are kind of increasingly forced to act out
143
402212
2790
คนจำพวกที่ถูกกดดัน
06:45
these increasingly bizarre combinations of words,
144
405026
3066
ให้ทำการผนวกคำอย่างแสนพิลึกนี้
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
ราวกับศิลปินที่ด้นสดแบบไม่ลืมหูลืมตา เพื่อสนองตอบเสียงกรีดร้องระงม
06:53
of a million toddlers at once.
146
413313
2203
ของเด็กทารกล้านคน
06:57
There are real people trapped within these systems,
147
417168
2468
มีคนจริง ๆ ที่ติดอยู่ในระบบเหล่านี้
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
และนี่ก็เป็นอีกเรื่องประหลาด ของวัฒนธรรมที่ถูกขับเคลื่อนด้วยอัลกอริธึม
07:03
because even if you're human,
149
423739
1381
เพราะแม้ว่าคุณจะเป็นคน
07:05
you have to end up behaving like a machine
150
425144
2145
คุณลงเอยที่การทำตัวเป็นหุ่นยนต์
07:07
just to survive.
151
427313
1800
เพียงเพื่อจะเอาตัวรอด
07:09
And also, on the other side of the screen,
152
429137
2100
และอีกข้างหนึ่งของจอ
07:11
there still are these little kids watching this stuff,
153
431261
2947
ก็ยังมีเด็กเล็ก ๆ ดูสิ่งนี้กันอยู่
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
พวกเขาติดงอมแงม จดจ่อเต็มที่ เพราะกลไกประหลาดนี้
07:18
And most of these kids are too small to even use a website.
155
438768
2798
และเด็กส่วนใหญ่ก็เล็กเกินไป ที่จะเคยใช้เว็บไซต์
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
พวกเขาก็แค่กด ๆ ไปบนจอ ด้วยมือเล็ก ๆ ของพวกเขา
07:24
And so there's autoplay,
157
444890
1217
แล้วไหนจะยังมีการเล่นอัตโนมัติ
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
ที่จะเล่นวีดีโอวนไปเรื่อย ๆ
07:29
endlessly for hours and hours at a time.
159
449734
2059
ไม่หยุดไม่หย่อนครั้งละหลายชั่วโมง
07:31
And there's so much weirdness in the system now
160
451817
2843
และตอนนี้ระบบ ก็มีความประหลาดเยอะแล้ว
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
การเล่นโดยอัตโนมัติ นำคุณไปพบกับความแปลกประหลาด
07:37
This is how, within a dozen steps,
162
457717
2488
นั่นคือสาเหตุว่า ทำไมภายในสิบกว่าขั้นตอน
07:40
you can go from a cute video of a counting train
163
460229
3158
จากวีดีโอน่ารัก ๆ เกี่ยวกับรถไฟสอนการนับ
07:43
to masturbating Mickey Mouse.
164
463411
2442
ถึงได้กลายเป็นมิ๊กกี้เม้าส์ช่วยตัวเองไปได้
07:46
Yeah. I'm sorry about that.
165
466529
2288
ครับ ขอโทษด้วยจริง ๆ ครับ
07:48
This does get worse.
166
468841
1700
มันมีที่แย่กว่านี้อีก
07:50
This is what happens
167
470565
1282
นี่เกิดขึ้น
07:51
when all of these different keywords,
168
471871
3086
เมื่อคำหลักต่าง ๆ เหล่านี้
07:54
all these different pieces of attention,
169
474981
2461
ความสนใจต่าง ๆ เหล่านี้
07:57
this desperate generation of content,
170
477466
2807
การสร้างเนื้อหาอย่างไม่ลืมหัวลืมตานี้
08:00
all comes together into a single place.
171
480297
2582
ทุกสิ่งมารวมตัวกันในที่เดียว
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
นี่จึงเป็นที่ที่คำหลักประหลาด ๆ ฝังอยู่
08:08
You cross-breed the finger family video
173
488367
2391
คุณผสมวีดีโอเพลงครอบครัวนิ้ว
08:10
with some live-action superhero stuff,
174
490782
2088
กับยอดมนุษย์ที่แสดงด้วยคนจริง
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
คุณเติมมุกตลกเกรียน ๆ แปลก ๆ หรืออะไรสักอย่างเข้าไป
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
และทันใดนั้น คุณก็จะไปถึงดินแดนประหลาด
08:19
The stuff that tends to upset parents
177
499564
2113
สิ่งที่ทำให้บรรดาพ่อแม่ไม่พอใจ
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
คือสิ่งที่มีเนื้อหาที่รุนแรง หรือเกี่ยวข้องกับเรื่องเพศ ใช่ไหมครับ
08:25
Children's cartoons getting assaulted,
179
505056
2822
การ์ตูนของเด็กถูกทำร้าย
08:27
getting killed,
180
507902
2018
ถูกฆ่า
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
การเล่นพิเรนที่ทำให้เด็ก ๆ หวาดกลัว
08:33
What you have is software pulling in all of these different influences
182
513311
3675
เรามีซอร์ฟแวร์ ที่ดึงเอาสิ่งเย้ายวนทั้งหลายเข้ามา
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
เพื่อทำให้เกิดฝันร้ายของเด็ก ๆ อย่างอัตโนมัติ
08:39
And this stuff really, really does affect small children.
184
519995
2701
และสิ่งนี้ก็ส่งผลต่อเด็กเล็ก ๆ จริง ๆ
08:42
Parents report their children being traumatized,
185
522720
2866
ผู้ปกครองรายงานว่า ลูก ๆ ถูกทำให้หวาดผวา
08:45
becoming afraid of the dark,
186
525610
1392
กลัวความมืด
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
กลัวตัวการ์ตูนที่พวกเขาชอบ
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
สิ่งที่คุณควรเรียนรู้ก็คือ ถ้าคุณมีลูกเล็ก ๆ
08:54
keep them the hell away from YouTube.
189
534159
1996
เอายูทูปไปให้ไกลจากพวกเขาเลยครับ
08:56
(Applause)
190
536743
3949
(เสียงปรบมือ)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
แต่อีกอย่างหนึ่งที่กวนใจผมก็คือ
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
ผมไม่แน่ใจว่า เราจะรู้ว่า เรามาถึงจุดนี้ได้อย่างไร
09:10
We've taken all of this influence, all of these things,
193
550951
2931
เรารับเอาอิทธิพลของสิ่งเหล่านี้
09:13
and munged them together in a way that no one really intended.
194
553906
2953
และจัดเรียงมันเข้าด้วยกัน ในแบบที่ไม่มีใครจะจงใจ
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
แต่กระนั้น นี่ก็ยังเป็นวิธี ที่เราสร้างโลกใหม่ของเรา
09:20
We're taking all of this data,
196
560063
1773
เรานำข้อมูลทั้งหมดนี้
09:21
a lot of it bad data,
197
561860
1447
ข้อมูลแย่ ๆ จำนวนมาก
09:23
a lot of historical data full of prejudice,
198
563331
3029
ข้อมูลทางประวัติศาสตร์ ที่เต็มไปด้วยอคติ
09:26
full of all of our worst impulses of history,
199
566384
2837
เต็มไปด้วยส่วนที่แย่ที่สุด ของเราในประวัติศาสตร์
09:29
and we're building that into huge data sets
200
569245
2049
เราก็เอามันไปประกอบ เป็นชุดข้อมูลขนาดใหญ่
09:31
and then we're automating it.
201
571318
1423
แล้วก็ให้มันทำงานโดยอัตโนมัติ
09:32
And we're munging it together into things like credit reports,
202
572765
3502
เราจัดเรียงมันเข้าด้วยกัน เป็นรายงานเครดิต
09:36
into insurance premiums,
203
576291
1634
เป็นเบี้ยประกันภัย
09:37
into things like predictive policing systems,
204
577949
2693
เป็นระบบนโยบายที่คาดการณ์ได้
09:40
into sentencing guidelines.
205
580666
1762
เป็นแนวทางในการตัดสินใจ อะไรประมาณนั้น
09:42
This is the way we're actually constructing the world today
206
582452
2821
นี่เป็นวิธีที่เราใช้สร้างโลกของเรา
09:45
out of this data.
207
585297
1151
จากข้อมูลนี้
09:46
And I don't know what's worse,
208
586472
1698
และผมก็ไม่รู้ว่าอะไรที่แย่กว่ากัน
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
ระหว่างการที่เราสร้างระบบ ที่น่าจะถูกปรับมาให้เหมาะสม
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
กับแง่มุมที่แย่ที่สุด ของพฤติกรรมมนุษย์
09:54
or that we seem to have done it by accident,
211
594278
2425
หรือการที่เราเหมือนจะสร้างมันขึ้นมา โดยบังเอิญ
09:56
without even realizing that we were doing it,
212
596727
2207
โดยไม่ได้ตระหนักเลยว่า เรากำลังทำอะไรอยู่
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
เพราะว่าเราไม่ได้มีความเข้าใจ ระบบที่เรากำลังสร้างอยู่
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
และเราก็ไม่รู้จริง ๆ ว่าจะทำให้มันต่างจากนี้ได้อย่างไร
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
ผมคิดว่ามีสองสามสิ่ง ที่น่าจะเป็นตัวส่งเสริมหลัก
10:10
most fully on YouTube,
216
610158
1189
ที่ทำให้ยูทูปเป็นอย่างนี้
10:11
and the first of those is advertising,
217
611371
1827
อย่างแรกก็คือการโฆษณา
10:13
which is the monetization of attention
218
613222
2837
ซึ่งเป็นการใช้เงินเป็นตัวบ่งบอกความสนใจ
10:16
without any real other variables at work,
219
616083
3136
โดยไม่ได้ใช้ตัวแปรอื่น ๆ ของงานจริง ๆ
10:19
any care for the people who are actually developing this content,
220
619243
3885
ไม่ได้ใส่ใจกับคน ที่เป็นผู้พัฒนาเนื้อหาเหล่านี้
10:23
the centralization of the power, the separation of those things.
221
623152
3636
การรวมอำนาจได้ ก็หมายถึงการแพร่กระจายของสิ่งเหล่านี้
10:26
And I think however you feel about the use of advertising
222
626812
3144
และผมคิดว่า ไม่ว่าคุณจะรู้สึกอย่างไร ต่อการใช้โฆษณา
10:29
to kind of support stuff,
223
629980
1238
เพื่อสนับสนุน เช่น
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
การดูผู้ชายใส่ผ้าอ้อมกลิ้งไปบนพื้นทราย
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
โดยหวังว่าอัลกอริธึมที่พวกเขาก็ไม่เข้าใจ
10:37
will give them money for it
226
637340
1315
ทำใช้มันทำเงินให้กับพวกเขา
10:38
suggests that this probably isn't the thing
227
638679
2037
มันบอกเราว่า สังคมและวัฒนธรรมของเรา
10:40
that we should be basing our society and culture upon,
228
640740
2563
ไม่ควรที่มีสิ่งเหล่านี้เป็นรากฐาน
10:43
and the way in which we should be funding it.
229
643327
2160
และวิธีการหาเงินของเรา ก็ไม่ควรจะเป็นแบบนี้
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
อีกสิ่งหนึ่งที่เป็นแรงขับสำคัญ ของการทำอย่างอัตโนมัตินี้
10:49
which is the deployment of all of this technology
231
649054
2329
ซึ่งเป็นการกำหนดทิศทางของเทคโนโลยีทุกอย่าง
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
ตั้งแต่วินาทีที่มันมาถึง
10:53
and then once it's out there,
233
653952
1412
และเมื่อมันอยู่ตรงนั้นแล้ว
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
มันก็ทำให้เราได้โอกาสปัดความรับผิดชอบ ในทำนองว่า "เทคโนโลยีมันทำ เราเปล่า"
10:59
Like, "We're not involved in it."
235
659255
1642
เช่น "เราไม่ได้มีส่วนเกี่ยวข้อง"
11:00
That's not really good enough,
236
660921
1767
นั่นมันยังดีไม่พอ
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
เพราะสิ่งนี้ ไม่ได้แค่ถูกควบคุมด้วยอัลกอริธึม
11:05
it's also algorithmically policed.
238
665446
2498
แต่ยังถูกควบคุมด้วยอัลกอริธึม
11:07
When YouTube first started to pay attention to this,
239
667968
2848
เมื่อยูทูปเริ่มให้ความสนใจกับสิ่งนี้
11:10
the first thing they said they'd do about it
240
670840
2087
สิ่งแรกที่พวกเขาบอกว่าจะทำก็คือ
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
พวกเขาจะปรับอัลกอริธึม การเรียนรู้ของเครื่องให้ดีขึ้น
11:15
to moderate the content.
242
675670
1329
เพื่อกลั่นกรองเนื้อหา
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
ครับ ไม่ว่าผู้เชี่ยวชาญคนไหน ๆ ก็จะบอกว่า
11:20
is basically what we've started to call
244
680532
1896
การเรียนรู้ของเครื่อง คือสิ่งที่ตอนแรกเราเรียกว่า
11:22
software that we don't really understand how it works.
245
682452
2588
ซอร์ฟแวร์ที่เราไม่เข้าใจว่ามันทำงานอย่างไร
11:25
And I think we have enough of that already.
246
685064
3983
และผมก็คิดว่าเราพอกับมันแล้ว
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
เราไม่ควรที่จะทิ้งให้มันเป็นภาระของ ปัญญาประดิษฐ์ในการตัดสินใจ
11:32
what's appropriate or not,
248
692261
1251
ว่าอะไรควรหรือไม่ควร
11:33
because we know what happens.
249
693536
1436
เพราะเรารู้ว่ามันเกิดอะไรขึ้น
11:34
It'll start censoring other things.
250
694996
1688
มันจะเริ่มปิดกั้นสิ่งอื่น
11:36
It'll start censoring queer content.
251
696708
1783
มันจะเริ่มปิดกั้นเนื้อหาที่พิลึก
11:38
It'll start censoring legitimate public speech.
252
698515
2237
มันจะเริ่มปิดกั้น การพูดคุยของประชาชน
11:40
What's allowed in these discourses,
253
700776
1925
วาทกรรมใด ๆ ที่ได้รับอนุญาต
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
ไม่ควรที่จะเป็นบางสิ่ง ที่ขึ้นอยู่กับระบบที่ไร้การรับผิดชอบ
11:45
It's part of a discussion all of us should be having.
255
705846
2947
มันเป็นส่วนหนึ่งของการอภิปรายร่วมกัน ของพวกเราทุกคน
11:48
But I'd leave a reminder
256
708817
1308
ผมขอย้ำว่า
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
ทางเลือกนั้นก็อาจไม่น่าอภิรมย์พอกัน
11:52
YouTube also announced recently
258
712926
1535
ยูทูปยังประกาศเมื่อเร็ว ๆ นี้ว่า
11:54
that they're going to release a version of their kids' app
259
714485
2767
พวกเขากำลังจะปล่อย แอพเวอร์ชั่นสำหรับเด็ก
11:57
that would be entirely moderated by humans.
260
717276
2407
ที่ถูกดูแลด้วยมนุษย์ทั้งหมด
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
มาร์ค ซัคเกอร์เบอร์ก เจ้าของเฟสบุ๊ก พูดอะไรทำนองนี้ที่สภาคอนเกรส
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
เมื่อถูกกระทู้ถามว่า พวกเขาจะจัดการ ผลิตภัณฑ์ของพวกเขาอย่างไร
12:06
He said they'd have humans doing it.
263
726787
1747
เขาบอกว่า พวกเขาจะให้มนุษย์มาจัดการ
12:08
And what that really means is,
264
728558
1459
และความหมายที่แท้จริงก็คือ
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
แทนที่จะให้เด็กน้อยเห็นเป็นคนแรก
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
พวกเขากำลังจะให้ลูกจ้างชั่วคราว ที่ได้ค่าแรงต่ำ ๆ
12:16
without proper mental health support
267
736100
1726
ที่ไม่ได้รับการรับรองด้านสุขภาพจิต
12:17
being damaged by it as well.
268
737850
1376
ได้รับผลกระทบนั้นด้วยเช่นกัน
12:19
(Laughter)
269
739250
1096
(เสียงหัวเราะ)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
แและผมคิดว่า เราทุกคนทำได้ดีกว่านั้น
12:22
(Applause)
271
742995
2499
(เสียงปรบมือ)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
ผมคิดว่า แนวคิดที่นำสองสิ่งมาบรรจบกัน สำหรับผมแล้ว
12:30
is agency.
273
750705
1420
คือการลงมือทำ
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
ในลักษณะที่ว่า เราเข้าใจมันจริง ๆ แค่ไหน
12:35
how we know how to act in our own best interests.
275
755330
4390
เรารู้ว่าต้องทำอย่างไร จากพื้นฐานความรู้ที่ดีที่สุดที่เรามี
12:39
Which -- it's almost impossible to do
276
759744
1787
ซึ่งมันแทบจะเป็นไปไม่ได้เลย
12:41
in these systems that we don't really fully understand.
277
761555
3485
ในระบบเหล่านี้ ที่เราไม่ได้เข้าใจมันเสียจริง ๆ
12:45
Inequality of power always leads to violence.
278
765064
3071
ความไม่เท่าเทียมกันของอำนาจ นำไปสู่ความรุนแรงเสมอ
12:48
And we can see inside these systems
279
768159
1685
และเราก็เห็นได้ในระบบเหล่านี้
12:49
that inequality of understanding does the same thing.
280
769868
2611
ที่ความไม่เข้าใจที่ไม่เท่าเทียมกัน ทำในสิ่งเดียวกัน
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
ถ้ามีสักสิ่งที่เราจะทำ เพื่อเริ่มพัฒนาระบบเหล่านี้
12:56
it's to make them more legible to the people who use them,
282
776306
2718
มันก็น่าจะเป็นการทำให้พวกมัน เป็นที่เข้าใจของผู้ใช้มากขึ้น
12:59
so that all of us have a common understanding
283
779048
2196
เพื่อที่ทุกคนจะได้เข้าใจตรงกัน
13:01
of what's actually going on here.
284
781268
1851
ว่าเกิดอะไรขึ้นกันแน่
13:03
The thing, though, I think most about these systems
285
783970
2968
แต่สิ่งที่ผมคิดมากที่สุด เกี่ยวกับระบบเหล่านี้ก็คือ
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
มันไม่ได้เกี่ยวกับยูทูปแค่อย่างเดียว อย่างที่ผมได้อธิบายไปแล้ว
13:10
It's about everything.
287
790843
1312
มันเกี่ยวกับทุก ๆ อย่าง
13:12
These issues of accountability and agency,
288
792179
2444
ปัญหาเกี่ยวกับการตรวจสอบและการปฏิบัติ
13:14
of opacity and complexity,
289
794647
2225
เกี่ยวกับความคลุมเครือและความซับซ้อน
13:16
of the violence and exploitation that inherently results
290
796896
3177
ของความรุนแรงและการหาประโยชน์ ที่เป็นผลลัพธ์ที่ตามมา
13:20
from the concentration of power in a few hands --
291
800097
2794
จากอำนาจที่อยู่ในกำมือคนไม่กี่คน
13:22
these are much, much larger issues.
292
802915
2579
นี่มันเป็นปัญหาที่ใหญ่กว่ามาก
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
และพวกมันไม่ใช่แค่ปัญหาของยูทูป และไม่ใช่แค่ปัญหาของเทคโนโลยี
13:30
and they're not even new.
294
810106
1265
และมันก็ไม่ได้เป็นเรื่องใหม่เลย
13:31
They've been with us for ages.
295
811395
1461
เราอยู่กับมันมาตั้งนานแล้ว
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
แต่เราสร้างระบบนี้ที่มีความเป็นสากล ระบบอินเทอร์เน็ต
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
ที่นำเสนอให้กับเราในแบบที่ไม่ธรรมดา
13:40
making them undeniable.
298
820337
1547
ทำให้พวกมันยากที่จะถูกปฏิเสธ
13:41
Technology has this extraordinary capacity
299
821908
2820
เทคโนโลยีมีศักยภาพที่เหนือธรรมดา
13:44
to both instantiate and continue
300
824752
3973
ต่อทั้งการใช้อ้างอิงและสานต่อ
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
ความเหนือธรรมดาที่สุดของเรา ความต้องการและความอคติที่ถูกซ่อนเร้น
13:53
and encoding them into the world,
302
833021
1866
และการนำพวกมันมาสู่โลก
13:54
but it also writes them down so that we can see them,
303
834911
3474
แต่มันยังเป็นการเขียนออกมา เพื่อที่เราจะได้เห็น
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
เพื่อที่เราจะไม่เสแสร้งอีกต่อไปว่า พวกมันไม่ได้มีอยู่
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
เราต้องหยุดคิดว่าเทคโนโลยีเป็นคำตอบ ของทุก ๆ ปัญหา
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
แต่ให้คิดว่ามันเป็นแนวทาง ที่จะระบุว่าปัญหาจริง ๆ คืออะไร
14:09
so we can start thinking about them properly
307
849887
2144
เพื่อที่เราจะเริ่มคิดถึงพวกมัน ได้อย่างเหมาะสม
14:12
and start to address them.
308
852055
1766
และเริ่มจัดการกับมันจริง ๆ
14:13
Thank you very much.
309
853845
1335
ขอบคุณมากครับ
14:15
(Applause)
310
855204
5192
(เสียงปรบมือ)
14:21
Thank you.
311
861733
1188
ขอบคุณครับ
14:22
(Applause)
312
862945
2869
(เสียงปรบมือ)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
เฮเลน วอลเตอร์: ขอบคุณค่ะ เจมส์ ที่มาบรรยายให้เราฟัง
14:32
So it's interesting:
314
872041
1189
มันน่าสนใจค่ะ
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
เมื่อคุณคิดถึงภาพยนตร์ ที่เกี่ยวกับเจ้าหุ่นยนต์ยึดครองโลก
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
มันดูมีน่าตื่นตามากว่าที่คุณอธิบาย
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
แต่ฉันสงสัยว่า ในภาพยนตร์ มีกลุ่มที่ลุกขึ้นมาต่อต้าน
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
แล้วเรามีกลุ่ม ที่ลุกขึ้นมาต่อต้านสิ่งนี้ไหม
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
คุณเห็นสัญญาณในเชิงบวก หรือต้นกล้าของการต่อต้านไหมคะ
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
เจมส์ บริเดิล: ผมไม่รู้อะไรเกี่ยวกับ การต่อต้านโดยตรงนะครับ
14:54
because I think this stuff is super long-term.
321
894947
2264
เพราะคิดว่ามันเป็นเรื่องระยะยาวมาก
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
ผมคิดว่ามันก่อตัวฝังแน่น อยู่ในวัฒนธรรมของเรา
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
เอเลนอร์ ซิตต้า เพื่อนของผม พูดเสมอ ๆ ว่า
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
ปัญหาเทคโนโลยี ในระดับและขอบเขตที่เหมาะสม
15:05
are political problems first of all.
325
905568
2267
เป็นปัญหาการเมืองเลยประการแรก
15:07
So all of these things we're working to address within this
326
907859
2785
ฉะนั้น ทุกอย่างที่เรากำลังทำ เพื่อจัดการกับมัน
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
จะไม่ได้รับการแก้ไข ด้วยการสร้างเทคโนโลยีที่ดีกว่าเท่านั้น
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
แต่ด้วยการเปลี่ยนสังคม ที่กำลังผลิตเทคโนโลยีเหล่านั้นด้วย
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
ฉะนั้น ตอนนี้ ผมคิดว่า เรายังต้องทำอะไรอีกมากมาย
15:20
But as I said, I think by unpacking them,
330
920505
1986
แต่อย่างที่ผมบอก ถ้าเราแก้ปมมันออก
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
โดยการอธิบาย โดยการพูดคุย ในแบบที่ตรงประเด็นที่สุด
15:25
we can actually start to at least begin that process.
332
925236
2505
เราสามารถเริ่มกระบวนการนั้นได้
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
เฮเลน: และเมื่อคุณพูดถึง ความเข้าใจและความรู้เกี่ยวกับดิจิตัล
15:31
I find it difficult to imagine
334
931351
1591
ฉันพบว่ามันยากที่จะนึกว่า
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
เราต้องยกเรื่องความรู้เกี่ยวกับดิจิตัล ให้เป็นภาระของผู้ใช้เอง
15:36
But whose responsibility is education in this new world?
336
936670
4562
แต่ใครกันล่ะที่มีหน้าที่ให้ความรู้ เกี่ยวกับโลกใหม่นี้
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
เจมส์: ครับ ผมคิดว่ามันเป็นความรับผิดชอบ ของพวกเราทุกคน
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
ทุกอย่างที่เราทำ ทุกอย่างที่เราสร้างขึ้นประดิษฐ์ขึ้น
15:47
needs to be made in a consensual discussion
339
947900
3692
ต้องเกิดขึ้นจากการอภิปรายตกลงกัน
15:51
with everyone who's avoiding it;
340
951616
1940
กับทุกคนที่ไม่อยากให้มันเกิดขึ้น
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
ที่เราไม่อยากจะสร้างระบบ ที่จงใจลวงหรือทำให้คนประหลาดใจ
15:57
into doing the right thing,
342
957945
2300
แล้วทำในสิ่งที่ถูกต้อง
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
แต่เกี่ยวกับการมีส่วนร่วมในทุกก้าว ในการให้ความรู้
16:03
because each of these systems is educational.
344
963529
2278
เพราะแต่ละระบบก็คือการศึกษา
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
นั่นคือสิ่งที่ผมหวัง แม้แต่กับสิ่งที่ดูเละเทะนี้
16:08
that if you can take it and look at it properly,
346
968957
2262
ถ้าเรานำมันมาพิจารณาได้อย่างเหมาะสม
16:11
it's actually in itself a piece of education
347
971243
2089
มันก็เป็นการศึกษาด้วยตัวของมันเองอยู่แล้ว
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
ที่จะทำให้เราเริ่มเห็นว่าระบบที่ซับซ้อน มาบรรจบและทำงานด้วยกันได้อย่างไร
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
และอาจใช้ความรู้นั้น กับสิ่งอื่น ๆ ในโลกนี้ได้
16:20
HW: James, it's such an important discussion,
350
980667
2115
เฮเลน: เจมส์คะ นี่เป็นการสนทนาที่สำคัญมาก
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
และฉันก็รู้ว่าอีกหลายคนในที่นี้ ใจกว้างแล้วก็พร้อมที่จะยอมรับมัน
16:26
so thanks for starting off our morning.
352
986057
1859
ขอบคุณมาก ๆ สำหรับ การบรรยายแรกในเช้าวันนี้
16:27
JB: Thanks very much. Cheers.
353
987940
1400
เจมส์: ขอบคุณมากครับ
16:29
(Applause)
354
989364
1651
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7