The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Mai Nguyen Reviewer: Nhu PHAM
00:12
I'm James.
0
12777
1183
Tôi là James.
00:13
I'm a writer and artist,
1
13984
1686
Nhà văn và nghệ sĩ,
00:15
and I make work about technology.
2
15694
2341
và tôi sáng tác phẩm về công nghệ.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Tôi vẽ viền máy bay do thám quân sự theo kích thước thật
00:22
in city streets around the world,
4
22389
1828
lên đường phố khắp thế giới,
00:24
so that people can start to think and get their heads around
5
24241
2950
để mọi người bắt đầu suy nghĩ và quan tâm
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
đến những công nghệ khó nhìn thấy và khó hiểu này.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Tôi tạo ra những tác phẩm như mạng dự đoán kết quả bỏ phiếu
00:35
based on weather reports,
8
35354
1737
dựa trên báo cáo thời tiết,
00:37
because I'm intrigued about
9
37115
1314
vì tôi quan tâm đến
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
tiềm năng thực sự của những công nghệ mới lạ này.
Năm ngoái, tôi tự chế tạo xe tự lái.
00:43
Last year, I built my own self-driving car.
11
43405
2426
00:45
But because I don't really trust technology,
12
45855
2526
Vì không thật sự tin tưởng vào công nghệ,
00:48
I also designed a trap for it.
13
48405
1928
tôi tự thiết kế luôn đường chạy.
00:50
(Laughter)
14
50777
1086
(Tiếng cười)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Tôi làm những việc này không chỉ vì thấy nó cực kỳ thú vị,
mà còn vì tôi nghĩ công nghệ là cách
00:56
but also because I think when we talk about technology,
16
56209
2602
00:58
we're largely talking about ourselves
17
58835
2619
ta nói về bản thân mình
01:01
and the way that we understand the world.
18
61478
2299
cũng như nhìn nhận của ta về thế giới.
01:03
So here's a story about technology.
19
63801
2442
Và đây là một câu chuyện về công nghệ.
01:07
This is a "surprise egg" video.
20
67520
2830
Đây là một video "trứng bất ngờ".
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Đó cơ bản là video ai đó ngồi mở thật nhiều trứng sô-cô-la
01:13
and showing the toys inside to the viewer.
22
73746
2126
để người xem thấy được đồ chơi bên trong.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Chỉ vậy thôi. Đó là toàn bộ nội dung trong bảy phút.
01:19
And I want you to notice two things about this.
24
79428
3051
Và tôi muốn các bạn chú ý đến hai điều.
01:22
First of all, this video has 30 million views.
25
82503
4074
Thứ nhất, video này đạt 30 triệu lượt xem.
01:26
(Laughter)
26
86601
1275
(Tiếng cười)
01:28
And the other thing is,
27
88376
1166
Điều còn lại là,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
nó thuộc một kênh có 6.3 triệu người theo dõi,
01:33
that has a total of eight billion views,
29
93459
2680
với tổng số tám tỷ lượt xem,
01:36
and it's all just more videos like this --
30
96163
3106
chỉ toàn video như thế.
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 triệu người xem ai đó mở những quả trứng này.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Nghe kỳ cục, nhưng nếu bạn gõ "trứng bất ngờ" trên YouTube,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
kết quả cho thấy có 10 triệu video như thế,
01:52
and I think that's an undercount.
34
112240
1657
và tôi nghĩ thực tế còn nhiều, nhiều hơn.
01:53
I think there's way, way more of these.
35
113921
1897
01:55
If you keep searching, they're endless.
36
115842
2242
Nếu tiếp tục tìm, bạn sẽ thấy vô số.
01:58
There's millions and millions of these videos
37
118108
2159
Có hàng triệu, hàng triệu video thế này
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
dưới đủ mọi hình thức kết hợp giữa nhãn hàng và nội dung,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
và mỗi ngày, càng nhiều video như vậy được tải lên.
02:07
Like, this is a strange world. Right?
40
127639
3511
Một thế giới kỳ lạ phải không?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Nhưng vấn đề là, những video này không dành cho người lớn,
02:14
It's kids, small children.
42
134581
2921
mà là cho trẻ nhỏ.
02:17
These videos are like crack for little kids.
43
137526
2154
Những video này giống như ma túy với chúng.
02:19
There's something about the repetition,
44
139704
2075
Sự lặp đi lặp lại,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
những tiết lộ nho nhỏ
02:24
that completely hooks them in.
46
144295
1866
gây kích thích và cuốn hút chúng.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Trẻ nhỏ xem những video này hết lần này đến lần khác,
trong hàng giờ, hàng giờ liền.
02:31
and they do it for hours and hours and hours.
48
151018
2327
02:33
And if you try and take the screen away from them,
49
153369
2356
Và nếu bạn cố tách chúng ra khỏi màn hình,
02:35
they'll scream and scream and scream.
50
155749
1782
chúng sẽ la hét dữ dội.
02:37
If you don't believe me --
51
157555
1262
Nếu bạn không tin tôi --
02:38
and I've already seen people in the audience nodding --
52
158841
2607
tôi đã thấy vài khán giả gật đầu --
nếu bạn không tin tôi, hãy hỏi người có con nhỏ,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
02:44
and they'll know about the surprise egg videos.
54
164887
2340
và họ sẽ biết về những video "trứng bất ngờ" này.
02:47
So this is where we start.
55
167251
2070
Đây là nơi ta bắt đầu.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Đây là năm 2018, ai đó, hoặc rất nhiều người,
đang sử dụng cùng một cơ chế mà Facebook và Instagram đang dùng
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
02:56
to get you to keep checking that app,
58
176976
1989
để khiến bạn liên tục mở chúng ra xem.
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
Và họ dùng nó trên YouTube để tác động lên não bộ của trẻ nhỏ
03:02
in return for advertising revenue.
60
182998
1958
để đổi lấy lợi nhuận quảng cáo.
Ít ra thì tôi hy vọng đó là điều họ đang làm.
03:06
At least, I hope that's what they're doing.
61
186346
2001
03:08
I hope that's what they're doing it for,
62
188371
1955
Tôi hy vọng đó là mục đích của họ,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
bởi có những cách dễ hơn để thu lợi từ quảng cáo trên YouTube.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Bạn có thể bịa chuyện hoặc ăn cắp nội dung.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Tìm những phim hoạt hình thật sự phổ biến với trẻ em
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
như "Pepper Pig" hoặc "Paw Patrol,"
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
bạn sẽ thấy có hàng triệu đoạn phim này trên mạng.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Tất nhiên, phần lớn không phải do tác giả gốc tải lên.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Chúng đến từ nhiều tài khoản bất kỳ khác nhau,
03:31
and it's impossible to know who's posting them
70
211945
2240
và không thể biết người tải là ai
03:34
or what their motives might be.
71
214209
1822
hay động cơ của họ là gì.
03:36
Does that sound kind of familiar?
72
216428
1930
Điều này nghe có quen không?
03:38
Because it's exactly the same mechanism
73
218382
1980
Bởi vì đó chính là cơ chế
03:40
that's happening across most of our digital services,
74
220386
2600
đang hoạt động trên hầu hết các dịch vụ kỹ thuật số,
khi ta không thể biết thông tin này đến từ ai.
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
03:46
It's basically fake news for kids,
76
226241
1829
Nó cơ bản là tin giả với trẻ em,
03:48
and we're training them from birth
77
228094
2161
và chúng ta huấn luyện chúng từ bé
03:50
to click on the very first link that comes along,
78
230279
2506
để bấm vào đường dẫn nào xuất hiện đầu tiên
03:52
regardless of what the source is.
79
232809
1953
bất kể nguồn tin là gì.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Có vẻ không phải là một ý tưởng hay.
Còn đây là một thứ khác rất phổ biến với trẻ trên YouTube,
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
04:01
This is called the "Finger Family Song."
82
241133
1928
gọi là "Bài hát Gia đình Ngón tay".
04:03
I just heard someone groan in the audience.
83
243085
2018
Tôi vừa nghe ai đó "ồ" lên.
04:05
This is the "Finger Family Song."
84
245127
1624
Đây là "Bài hát Gia đình Ngón tay", bài xưa nhất mà tôi tìm được.
04:06
This is the very first one I could find.
85
246775
1930
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Từ năm 2007, và chỉ có 200,000 lượt xem.
04:11
which is, like, nothing in this game.
87
251582
1976
Chẳng là gì trong cuộc chơi này cả.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Nhưng nó có một giai điệu bắt tai khủng khiếp,
04:16
which I'm not going to play to you,
89
256458
1682
mà tôi sẽ không phát cho các bạn nghe,
04:18
because it will sear itself into your brain
90
258164
2008
vì nó sẽ in vào não bạn
04:20
in the same way that it seared itself into mine,
91
260196
2395
như cách mà nó đã in vào não tôi,
04:22
and I'm not going to do that to you.
92
262615
1770
và tôi sẽ không làm điều đó với các bạn đâu.
04:24
But like the surprise eggs,
93
264409
1344
Nhưng cũng như trứng bất ngờ, nó len lỏi vào não trẻ
04:25
it's got inside kids' heads
94
265777
2164
04:27
and addicted them to it.
95
267965
1607
và làm chúng bị nghiện.
04:29
So within a few years, these finger family videos
96
269596
2531
Chỉ trong vài năm, những video "Gia đình Ngón tay" này
04:32
start appearing everywhere,
97
272151
1303
xuất hiện khắp nơi, với nhiều phiên bản ngôn ngữ.
04:33
and you get versions in different languages
98
273478
2029
04:35
with popular kids' cartoons using food
99
275531
2121
Những đoạn phim hoạt hình minh hoạ bằng thức ăn
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
hay bất kỳ yếu tố hoạt hình nào có sẵn.
04:40
you seem to have lying around.
101
280250
2252
Có hàng triệu, hàng triệu video thế này trên mạng
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
04:48
available online in all of these kind of insane combinations.
103
288223
3435
với đa dạng những sự kết hợp điên rồ.
04:51
And the more time you start to spend with them,
104
291682
2228
Và càng dành nhiều thời gian để xem,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
bạn càng cảm thấy mình trở nên điên khùng.
04:57
And that's where I kind of launched into this,
106
297652
3333
Đó là khi tôi bắt đầu nhận thấy
một cảm giác kỳ lạ và không thể hiểu nổi
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
về cách những thứ này được tạo ra và hiện diện quanh mình.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Không thể biết được chúng đến từ đâu.
05:12
Like, who is making them?
110
312089
1241
Ai tạo ra chúng?
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
Một số có vẻ là từ các nhóm làm phim hoạt hình chuyên nghiệp.
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Một số khác chỉ là do phần mềm sắp xếp ngẫu nhiên.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Một số trông có vẻ là những sản phẩm giải trí chỉn chu cho trẻ,
05:23
And some of them are from people
114
323704
1552
và một số được tạo ra bởi những người
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
rõ ràng là không nên ở gần con nít.
05:28
(Laughter)
116
328311
1615
(Tiếng cười)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Một lần nữa, việc không thể lần ra ai tạo ra những thứ này -
liệu có phải là một phần mềm tự động?
05:35
like, this is a bot?
118
335651
1156
05:36
Is this a person? Is this a troll?
119
336831
2647
Hay người thật? Hay là một trò đùa?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Ý nghĩa của việc không thể phân biệt
05:41
between these things anymore?
121
341908
1583
những nguồn này nữa là gì?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Và cảm giác không chắc chắn này quen thuộc phải không?
Thủ thuật chính để thu hút người xem video,
05:50
So the main way people get views on their videos --
123
350145
2580
05:52
and remember, views mean money --
124
352749
1707
hãy nhớ rằng, lượt xem tạo ra tiền,
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
là chèn các cụm từ phổ biến vào tiêu đề video.
Chẳng hạn như với "trứng bất ngờ",
05:59
So you take, like, "surprise eggs"
126
359246
1687
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
bạn thêm vào tiêu đề "Paw Patrol," "trứng Phục sinh"
06:03
or whatever these things are,
128
363047
1393
06:04
all of these words from other popular videos into your title,
129
364464
2893
hay bất kỳ từ khoá tương tự từ các video nổi tiếng khác
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
cho tới khi có một hỗn hợp từ ngữ vô nghĩa
06:10
that doesn't make sense to humans at all.
131
370373
2498
mà người thường chẳng thể nào hiểu được.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Tất nhiên chỉ có trẻ nhỏ mới xem những video này,
06:16
and what the hell do they know?
133
376465
1827
và chúng thì biết gì cơ chứ?
06:18
Your real audience for this stuff is software.
134
378316
3007
Khán giả thực sự của những video này là phần mềm, là những thuật toán.
06:21
It's the algorithms.
135
381347
1156
06:22
It's the software that YouTube uses
136
382527
1855
Đó là phần mềm YouTube dùng
06:24
to select which videos are like other videos,
137
384406
2483
để chọn những video giống nhau,
06:26
to make them popular, to make them recommended.
138
386913
2243
phổ biến chúng, gợi ý chúng.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
Đó là lý do, cuối cùng, bạn có thứ hỗn tạp vô nghĩa này,
06:32
both of title and of content.
140
392665
2071
cả trong tiêu đề lẫn nội dung.
06:35
But the thing is, you have to remember,
141
395792
1894
Những vấn đề là, bạn cần phải nhớ,
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
vẫn còn có con người trong hệ thống tối ưu bằng thuật toán này,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
những người bị buộc phải ngày càng tăng cường
06:45
these increasingly bizarre combinations of words,
144
405026
3066
mức độ kết hợp những từ khóa kỳ dị này,
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
như một nghệ sĩ ứng biến tuyệt vọng đáp lại tiếng la hét
06:53
of a million toddlers at once.
146
413313
2203
của hàng triệu trẻ sơ sinh.
Có những con người thực bị kẹt trong hệ thống này,
06:57
There are real people trapped within these systems,
147
417168
2468
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
một điều kỳ lạ khác trong nền văn hóa bị thuật toán chi phối.
07:03
because even if you're human,
149
423739
1381
Vì ngay cả khi là người thật,
07:05
you have to end up behaving like a machine
150
425144
2145
bạn, cuối cùng, cũng phải hành xử như máy để tồn tại.
07:07
just to survive.
151
427313
1800
Ở phía bên kia màn hình cũng vậy,
07:09
And also, on the other side of the screen,
152
429137
2100
07:11
there still are these little kids watching this stuff,
153
431261
2947
trẻ nhỏ xem những thứ này,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
chúng bị mắc kẹt, hoàn toàn bị cơ chế này cuốn hút.
Phần lớn những đứa trẻ này quá nhỏ để biết cách truy cập trang web.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Chúng đơn giản chỉ là đập bàn tay nhỏ xíu lên màn hình.
07:24
And so there's autoplay,
157
444890
1217
Rồi lại có chức năng tự động phát,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
những video này liên tục
07:29
endlessly for hours and hours at a time.
159
449734
2059
trong một vòng lặp vô tận hàng giờ liền.
07:31
And there's so much weirdness in the system now
160
451817
2843
Hệ thống này giờ đã quá kỳ dị
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
đến nỗi chức năng tự động phát này sẽ đưa bạn đến những nội dung kỳ lạ.
07:37
This is how, within a dozen steps,
162
457717
2488
Đó là cách mà, trong hơn chục cái nhấp chuột,
07:40
you can go from a cute video of a counting train
163
460229
3158
bạn có thể từ đang xem một video dễ thương về đếm số xe lửa
07:43
to masturbating Mickey Mouse.
164
463411
2442
đến video chuột Mickey thủ dâm.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Đúng vậy. Rất tiếc là như thế.
07:48
This does get worse.
166
468841
1700
Chuyện này ngày càng trở nên tồi tệ.
07:50
This is what happens
167
470565
1282
Đây là điều sẽ xảy ra
07:51
when all of these different keywords,
168
471871
3086
khi tất cả những từ khóa khác nhau này,
07:54
all these different pieces of attention,
169
474981
2461
tất cả những nội dung thu hút này,
07:57
this desperate generation of content,
170
477466
2807
cả một thế hệ thèm khát nội dung này,
08:00
all comes together into a single place.
171
480297
2582
đều tập trung về một chỗ.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Dây là nơi mà tất cả những từ khóa kỳ dị này phản tác dụng.
Bạn ghép các video về Gia đình Ngón tay
08:08
You cross-breed the finger family video
173
488367
2391
08:10
with some live-action superhero stuff,
174
490782
2088
với những đoạn phim hành động siêu anh hùng,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
thêm vào trò chơi khăm kỳ cục hay gì đó
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
và bạn có được một video hết sức kỳ dị như thế này.
08:19
The stuff that tends to upset parents
177
499564
2113
Thứ thường làm phụ huynh lo lắng
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
là những nội dung có tính bạo lực hoặc tình dục, đúng không?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Phim hoạt hình cho trẻ bị tấn công,
08:27
getting killed,
180
507902
2018
bị tiêu diệt,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
những trò chơi khăm làm cho trẻ bị khủng hoảng.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Cái bạn có là phần mềm dùng tất cả các luồng ảnh hưởng này
để tự động tạo ra cơn ác mộng tồi tệ nhất cho lũ trẻ.
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
08:39
And this stuff really, really does affect small children.
184
519995
2701
Và nó thật sự tác động lên trẻ nhỏ.
08:42
Parents report their children being traumatized,
185
522720
2866
Phụ huynh cho biết con họ bị khủng hoảng,
08:45
becoming afraid of the dark,
186
525610
1392
sợ bóng tối,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
sợ các nhân vật hoạt hình yêu thích của chúng.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Nếu rút ra được điều gì từ việc này, thì đó là nếu bạn có con nhỏ,
08:54
keep them the hell away from YouTube.
189
534159
1996
giữ chúng tránh xa YouTube.
08:56
(Applause)
190
536743
3949
(Vỗ tay)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Những còn một điều khác thật sự làm tôi quan tâm,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
đó là tôi không chắc ta hiểu được vì sao đi đến nước này.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Ta lấy tất cả những tác nhân, tất cả mọi thứ,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
nhào nặn theo một cách không ai tính trước.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
Nhưng đây cũng là cách ta xây dựng thế giới này.
Ta lấy mọi dữ liệu, phần lớn là dữ liệu xấu,
09:20
We're taking all of this data,
196
560063
1773
09:21
a lot of it bad data,
197
561860
1447
09:23
a lot of historical data full of prejudice,
198
563331
3029
nhiều dữ liệu lịch sử mang đầy định kiến,
09:26
full of all of our worst impulses of history,
199
566384
2837
và những thôi thúc tồi tệ nhất.
09:29
and we're building that into huge data sets
200
569245
2049
Ta dựng nên những bộ dữ liệu lớn
09:31
and then we're automating it.
201
571318
1423
rồi tự động hóa chúng,
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Ta lồng ghép chúng vào những thứ như báo cáo tín dụng,
09:36
into insurance premiums,
203
576291
1634
phí bảo hiểm,
09:37
into things like predictive policing systems,
204
577949
2693
hệ thống cảnh sát ngăn ngừa,
09:40
into sentencing guidelines.
205
580666
1762
nguyên tắc tuyên án.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Đây là cách chúng ta xây dựng nên thế giới ngày nay
09:45
out of this data.
207
585297
1151
từ dữ liệu.
09:46
And I don't know what's worse,
208
586472
1698
Và tôi không biết điều gì tồi tệ hơn,
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
tạo ra một hệ thống hoàn toàn tối ưu
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
cho các khía cạnh tệ hại nhất trong hành vi con người,
09:54
or that we seem to have done it by accident,
211
594278
2425
hay vô tình làm thế mà không hề hay biết,
09:56
without even realizing that we were doing it,
212
596727
2207
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
vì ta không thật sự hiểu hệ thống mà ta dựng nên,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
và không biết làm cách nào làm khác đi.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Có một vài thứ, tôi nghĩ,
là nguyên nhân chính thúc đẩy chuyện này trên YouTube,
10:10
most fully on YouTube,
216
610158
1189
10:11
and the first of those is advertising,
217
611371
1827
đầu tiên là quảng cáo,
10:13
which is the monetization of attention
218
613222
2837
tức là kiếm tiền từ sự chú ý
10:16
without any real other variables at work,
219
616083
3136
mà không thật sự tính đến các yếu tố khác,
10:19
any care for the people who are actually developing this content,
220
619243
3885
không quan tâm đến những người thật sự tạo ra các nội dung này,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
sự tập trung quyền lực, và sự tách biệt khỏi những thứ khác.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Dù góc nhìn của bạn về quảng cáo là gì
10:29
to kind of support stuff,
223
629980
1238
có thể là ủng hộ,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
thì cảnh những người trưởng thành mặc tã lăn lộn trên cát
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
với hy vọng sẽ nhận được tiền từ một thuật toán khó hiểu
10:37
will give them money for it
226
637340
1315
10:38
suggests that this probably isn't the thing
227
638679
2037
cho thấy đây chắc chắn không phải là
10:40
that we should be basing our society and culture upon,
228
640740
2563
nền tảng mà ta mong muốn tạo dựng xã hội và văn hóa,
10:43
and the way in which we should be funding it.
229
643327
2160
và không phải cách mà ta nên ủng hộ.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Còn một nhân tố chính thúc đẩy quá trình tự động hóa này
là sự triển khai tất cả các công nghệ
10:49
which is the deployment of all of this technology
231
649054
2329
ngay khi vừa phát triển xong mà không có bất kỳ sự giám sát.
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
10:53
and then once it's out there,
233
653952
1412
Để rồi khi phát sinh vấn đề,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
ta bực bội phát biểu: "Không phải do chúng tôi, mà là do công nghệ."
10:59
Like, "We're not involved in it."
235
659255
1642
Như thể: "Chúng tôi vô can." Không đủ thuyết phục,
11:00
That's not really good enough,
236
660921
1767
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
bởi thuật toán không chỉ điều khiển thứ này,
11:05
it's also algorithmically policed.
238
665446
2498
mà còn kiểm soát nó.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Khi YouTube bắt đầu quan tâm đến vấn đề này,
11:10
the first thing they said they'd do about it
240
670840
2087
giải pháp đầu tiên của họ
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
là cải tiến thuật toán máy học (machine learning)
11:15
to moderate the content.
242
675670
1329
để giám sát nội dung.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Về máy học, bất kỳ chuyên gia nào cũng sẽ nói
11:20
is basically what we've started to call
244
680532
1896
cơ bản đó là tên gọi phần mềm
11:22
software that we don't really understand how it works.
245
682452
2588
khi ta bắt đầu không hiểu cách thức nó hoạt động.
11:25
And I think we have enough of that already.
246
685064
3983
Tôi nghĩ, thế đã là quá đủ.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Chúng ta không nên để trí tuệ nhân tạo quyết định
11:32
what's appropriate or not,
248
692261
1251
những gì là phù hợp, bởi ta biết điều gì sẽ xảy ra.
11:33
because we know what happens.
249
693536
1436
11:34
It'll start censoring other things.
250
694996
1688
Nó sẽ bắt đầu kiểm duyệt những nội dung khác.
11:36
It'll start censoring queer content.
251
696708
1783
Nội dung liên quan đến đồng tính, Những phát biểu hợp pháp trước công chúng.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
11:40
What's allowed in these discourses,
253
700776
1925
Những gì được tự do ngôn luận
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
thì không nên bị loại bỏ bởi các hệ thống khó hiểu này.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Bởi đó là một phần thảo luận mà tất cả chúng ta nên tham gia.
11:48
But I'd leave a reminder
256
708817
1308
Nhưng tôi xin nhắc một điều
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
là giải pháp thay thế cũng không hề dễ chịu.
11:52
YouTube also announced recently
258
712926
1535
YouTube vừa thông báo
11:54
that they're going to release a version of their kids' app
259
714485
2767
họ sẽ đưa ra phiên bản ứng dụng dành cho trẻ em
11:57
that would be entirely moderated by humans.
260
717276
2407
hoàn toàn do con người giám sát.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Zuckerberg của Facebook cũng nói tương tự trước Quốc hội,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
khi bị hỏi dồn sẽ giám sát sản phẩm của họ ra sao.
12:06
He said they'd have humans doing it.
263
726787
1747
Anh ta nói họ có người để làm điều đó.
12:08
And what that really means is,
264
728558
1459
Ý nghĩa thật của nó là
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
thay vì trẻ nhỏ là người đầu tiên thấy những thứ này,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
ta sẽ có những nhân công hợp đồng bấp bênh, lương thấp,
12:16
without proper mental health support
267
736100
1726
không được hỗ trợ sức khỏe tinh thần đúng cách, xem qua nó trước.
12:17
being damaged by it as well.
268
737850
1376
12:19
(Laughter)
269
739250
1096
(Tiếng cười)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Tôi nghĩ chúng ta có thể làm tốt hơn thế.
12:22
(Applause)
271
742995
2499
(Vỗ tay)
Theo tôi, việc đưa hai điều đó lại với nhau là sự đại diện.
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
12:30
is agency.
273
750705
1420
Sự đại diện, ý tôi là, chúng ta hiểu biết đến đâu,
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
12:35
how we know how to act in our own best interests.
275
755330
4390
chúng ta biết phải làm gì để đạt lợi ích tốt nhất.
12:39
Which -- it's almost impossible to do
276
759744
1787
Điều này gần như là không thể
12:41
in these systems that we don't really fully understand.
277
761555
3485
với những hệ thống mà chúng ta không hiểu hết.
12:45
Inequality of power always leads to violence.
278
765064
3071
Bất bình đẳng về quyền lực luôn dẫn đến bạo lực.
12:48
And we can see inside these systems
279
768159
1685
Và có thể thấy trong những hệ thống này,
12:49
that inequality of understanding does the same thing.
280
769868
2611
bất bình đẳng tri thức cũng dẫn đến điều tương tự.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Nếu có thể làm gì để cải thiện hệ thống này
12:56
it's to make them more legible to the people who use them,
282
776306
2718
đó là làm cho chúng dễ hiểu hơn với người dùng,
12:59
so that all of us have a common understanding
283
779048
2196
để tất cả chúng ta đều có đủ hiểu biết
13:01
of what's actually going on here.
284
781268
1851
về những gì thực sự đang diễn ra.
13:03
The thing, though, I think most about these systems
285
783970
2968
Tuy nhiên, tôi nghĩ những vấn đề hệ thống này
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
không chỉ là của YouTube, như đã giải thích.
13:10
It's about everything.
287
790843
1312
Mà là tất cả.
13:12
These issues of accountability and agency,
288
792179
2444
Những vấn đề về trách nhiệm và đại diện,
13:14
of opacity and complexity,
289
794647
2225
về sự thiếu minh bạch và sự phức tạp,
13:16
of the violence and exploitation that inherently results
290
796896
3177
về bạo lực và khai thác bạo lực
do sự tập trung quyền lực vào một số ít người,
13:20
from the concentration of power in a few hands --
291
800097
2794
13:22
these are much, much larger issues.
292
802915
2579
đó là những vấn đề to lớn hơn nhiều.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Đây không chỉ là vấn đề của YouTube, hay của giới công nghệ,
và nó, thậm chí, cũng không mới.
13:30
and they're not even new.
294
810106
1265
13:31
They've been with us for ages.
295
811395
1461
Đây là vấn đề của chúng ta từ rất lâu.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Nhưng khi ta xây dựng hệ thống toàn cầu này, Internet,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
các vấn đề này nổi lên theo những cách thức dị thường,
13:40
making them undeniable.
298
820337
1547
không thể chối bỏ được.
13:41
Technology has this extraordinary capacity
299
821908
2820
Công nghệ có khả năng phi thường
13:44
to both instantiate and continue
300
824752
3973
để vừa đại diện vừa chắp cánh
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
những khao khát và định kiến bất thường nhất mà ta hằng chôn giấu
rồi mã hóa và đưa chúng ra thế giới,
13:53
and encoding them into the world,
302
833021
1866
13:54
but it also writes them down so that we can see them,
303
834911
3474
nhưng nó cũng ghi lại để chúng ta thấy,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
để chúng ta không còn có thể vờ như chúng không hiện hữu.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Ta cần ngưng cho rằng công nghệ là giải pháp cho mọi vấn đề,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
mà xem chúng như một hướng dẫn cho các vấn đề thật sự,
14:09
so we can start thinking about them properly
307
849887
2144
để ta có thể suy nghĩ thấu đáo
14:12
and start to address them.
308
852055
1766
và tìm cách giải quyết.
14:13
Thank you very much.
309
853845
1335
Xin cám ơn.
14:15
(Applause)
310
855204
5192
(Vỗ tay)
14:21
Thank you.
311
861733
1188
Xin cám ơn.
14:22
(Applause)
312
862945
2869
(Vỗ tay)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Helen Walters: Cảm ơn James đã đến và nói về vấn đề này,
Thật thú vị khi nhớ lại các bộ phim,
14:32
So it's interesting:
314
872041
1189
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
trong đó, người máy nắm quyền thống trị,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
hơi hào nhoáng hơn so với những gì anh mô tả.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Những tôi thắc mắc, trong phim, ta nhận thấy sự phản kháng tăng dần.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Vậy trong thực tế, có sự phản kháng nào với những thứ này không?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Anh có thấy những dấu hiệu tích cực nào của sự phản kháng?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
JB: Tôi không biết có sự phản kháng trực tiếp không,
14:54
because I think this stuff is super long-term.
321
894947
2264
vì tôi nghĩ vấn đề này cực kỳ lâu dài.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
Nó ăn sâu vào nền văn hóa theo nhiều cách.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Bạn tôi, Eleanor Saitta, luôn nói
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
tất cả những vấn đề công nghệ có quy mô và phạm vi đủ lớn
15:05
are political problems first of all.
325
905568
2267
trước tiên, đều là vấn đề chính trị.
15:07
So all of these things we're working to address within this
326
907859
2785
Vì thế, tất cả những vấn đề mà ta nhắm đến
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
không thể được giải quyết chỉ bằng việc tạo ra công nghệ tốt hơn,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
mà là thay đổi cách xã hội tạo ra những công nghệ này.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Vậy nên, không, tôi nghĩ ta còn một chặng đường rất dài.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Nhưng như tôi nói, bằng cách chia nhỏ vấn đè,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
giải thích và nói về chúng một cách trung thực,
15:25
we can actually start to at least begin that process.
332
925236
2505
ta thật sự có thể bắt đầu quá trình phản kháng đó.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
HW: Khi anh nói về am hiểu công nghệ kỹ thuật số,
15:31
I find it difficult to imagine
334
931351
1591
tôi thấy khó mà tưởng tượng
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
việc đặt gánh nặng tìm hiểu kỹ thuật lên người dùng.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Nhưng ai chịu trách nhiệm về giáo dục trong thế giới mới này?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
JB: Tôi nghĩ trách nhiệm này thuộc về tất cả chúng ta,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
tất cả những gì ta làm, dựng nên, tạo ra,
15:47
needs to be made in a consensual discussion
339
947900
3692
phải được thực hiện với sự thảo luận và đồng ý
15:51
with everyone who's avoiding it;
340
951616
1940
với tất cả những người đang tránh né chúng;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
chúng ta không tạo ra hệ thống
để lừa người khác làm điều đúng đắn,
15:57
into doing the right thing,
342
957945
2300
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
mà thực sự từng bước giáo dục họ,
16:03
because each of these systems is educational.
344
963529
2278
bởi mỗi hệ thống này đều có tính giáo dục.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Đó là điều tôi hy vọng, là ngay cả trong thực tế ảm đạm,
16:08
that if you can take it and look at it properly,
346
968957
2262
nếu xem xét nó một cách đúng đắn,
16:11
it's actually in itself a piece of education
347
971243
2089
bạn sẽ thấy nó thật sự là giáo dục
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
cho phép bạn nhìn thấy
cách hệ thống phức tạp này kết hợp và hoạt động
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
và có thể áp dụng kiến thức này ở nơi khác trên thế giới.
16:20
HW: James, it's such an important discussion,
350
980667
2115
HW: James, đây là một cuộc thảo luận quan trọng,
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
mà tôi biết nhiều người đã rất cởi mở và sẵn lòng lắng nghe.
16:26
so thanks for starting off our morning.
352
986057
1859
Cảm ơn vì đã chia sẻ với chúng tôi sáng hôm nay.
16:27
JB: Thanks very much. Cheers.
353
987940
1400
JB: Cám ơn rất nhiều.
16:29
(Applause)
354
989364
1651
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7