The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Sophia Kuchina Редактор: Natalia Ost
00:12
I'm James.
0
12777
1183
Меня зовут Джеймс.
00:13
I'm a writer and artist,
1
13984
1686
Я писатель и художник,
00:15
and I make work about technology.
2
15694
2341
а ещё я занимаюсь технологиями.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Например, на улицах разных городов мира
я рисую эскизы военных дронов в натуральную величину,
00:22
in city streets around the world,
4
22389
1828
00:24
so that people can start to think and get their heads around
5
24241
2950
чтобы люди задумались и разобрались
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
в этих незаметных и трудных для понимания технологиях.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Я создаю такие вещи, как нейросети, которые предсказывают результаты выборов
00:35
based on weather reports,
8
35354
1737
на основе прогнозов погоды,
потому что я заинтригован
00:37
because I'm intrigued about
9
37115
1314
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
теми возможностями, которые могут предложить эти новые чудны́е технологии.
00:43
Last year, I built my own self-driving car.
11
43405
2426
В прошлом году я изобрёл свой беспилотный автомобиль..
00:45
But because I don't really trust technology,
12
45855
2526
Но так как я не особо доверяю технологиям,
00:48
I also designed a trap for it.
13
48405
1928
я также соорудил и ловушку для них.
00:50
(Laughter)
14
50777
1086
(Смех)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
И я делаю эти вещи, главным образом, потому что абсолютно увлечён ими,
00:56
but also because I think when we talk about technology,
16
56209
2602
но ещё я считаю, что говоря о технологиях,
00:58
we're largely talking about ourselves
17
58835
2619
мы по большей части говорим о нас самих
01:01
and the way that we understand the world.
18
61478
2299
и о нашем ви́дении мира.
01:03
So here's a story about technology.
19
63801
2442
Представляю вам историю о технологиях.
01:07
This is a "surprise egg" video.
20
67520
2830
Это видео про яйцо с сюрпризом.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
По сути, в нём человек раскрывает целую кучу шоколадных яиц
01:13
and showing the toys inside to the viewer.
22
73746
2126
и показывает игрушки из них зрителям.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
И всё. Это всё, что он делает, целых семь долгих минут.
01:19
And I want you to notice two things about this.
24
79428
3051
Я хочу, чтобы вы отметили здесь две вещи.
01:22
First of all, this video has 30 million views.
25
82503
4074
Во-первых, у этого видео 30 миллионов просмотров.
01:26
(Laughter)
26
86601
1275
(Смех)
01:28
And the other thing is,
27
88376
1166
А во-вторых,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
оно размещено на канале с 6,3 миллиона подписчиков
01:33
that has a total of eight billion views,
29
93459
2680
и 8 миллиардами просмотров,
01:36
and it's all just more videos like this --
30
96163
3106
и все видео на нём похожи на это —
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 миллионов людей смотрят на то, как парень распаковывает яйца.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Звучит странно, но если вы забьёте в поиск на YouTube «яйца с сюрпризом»,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
то найдёте 10 миллионов таких видео.
01:52
and I think that's an undercount.
34
112240
1657
И я считаю, что это не всё.
01:53
I think there's way, way more of these.
35
113921
1897
Думаю, их гораздо, гораздо больше.
01:55
If you keep searching, they're endless.
36
115842
2242
Если продолжите искать, их будет бесконечное множество.
01:58
There's millions and millions of these videos
37
118108
2159
Существуют миллионы, миллионы таких видео
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
с самыми причудливыми комбинациями брендов и материалов,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
и каждый божий день их выкладывают всё больше и больше.
02:07
Like, this is a strange world. Right?
40
127639
3511
Что за странный мир. Не так ли?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Но дело в том, что такие видео смотрят не взрослые.
02:14
It's kids, small children.
42
134581
2921
Их смотрят дети, маленькие дети.
02:17
These videos are like crack for little kids.
43
137526
2154
Эти видео как наркотик для малышей.
02:19
There's something about the repetition,
44
139704
2075
Есть что-то в повторении,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
в той регулярной дозе дофамина при раскрытии интриги,
02:24
that completely hooks them in.
46
144295
1866
что их так цепляет.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
И маленькие дети пересматривают эти видео снова, и снова, и снова,
02:31
and they do it for hours and hours and hours.
48
151018
2327
они делают это часами, и ещё, и ещё.
02:33
And if you try and take the screen away from them,
49
153369
2356
А если попытаетесь отнять у них экран,
02:35
they'll scream and scream and scream.
50
155749
1782
они будут кричать, и кричать, и кричать.
02:37
If you don't believe me --
51
157555
1262
Если не верите мне —
02:38
and I've already seen people in the audience nodding --
52
158841
2607
я уже видел, как некоторые в зале кивают —
если не верите мне, спросите у людей, у которых есть маленькие дети,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
и они расскажут вам всё о видео про яйца с сюрпризом.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
Вот с чего мы начнём.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Сейчас 2018 год, и некоторые, если не многие, люди
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
используют те же механизмы, которыми пользуются, скажем, Facebook и Instagram,
02:56
to get you to keep checking that app,
58
176976
1989
чтобы вы постоянно проверяли их приложение.
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
И их же используют на YouTube, чтобы промывать мозги маленьким детям,
03:02
in return for advertising revenue.
60
182998
1958
получая взамен доходы от рекламы.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Ну, я надеюсь, что они делают именно это.
03:08
I hope that's what they're doing it for,
62
188371
1955
Точнее, для этого.
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
Ведь на YouTube можно получать доход от рекламы более простыми способами.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Можно просто что-то придумывать или его воровать.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
И если забить в поисковик популярные мультики для детей,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
«Свинку Пеппу» или «Щенячий патруль»,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
можно увидеть, что их тоже миллионы в онлайн-доступе.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Разумеется, большинство из них размещены не создателями оригиналов.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Их выкладывают с сотни различных случайных аккаунтов,
03:31
and it's impossible to know who's posting them
70
211945
2240
и почти невозможно узнать, кто именно их выкладывает
03:34
or what their motives might be.
71
214209
1822
и каковы их цели.
03:36
Does that sound kind of familiar?
72
216428
1930
Звучит знакомо?
03:38
Because it's exactly the same mechanism
73
218382
1980
Потому что именно по такому механизму
03:40
that's happening across most of our digital services,
74
220386
2600
работает большинство цифровых служб,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
где невозможно отследить источник информации.
03:46
It's basically fake news for kids,
76
226241
1829
Это как фальшивые новости для детей,
03:48
and we're training them from birth
77
228094
2161
и мы с рождения приучаем их
03:50
to click on the very first link that comes along,
78
230279
2506
жать на первую попавшуюся ссылку,
03:52
regardless of what the source is.
79
232809
1953
не смотря на её источник.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Это не кажется такой уж хорошей идеей.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Есть ещё одна очень популярная вещь для детей на YouTube.
04:01
This is called the "Finger Family Song."
82
241133
1928
И это «Песня семьи пальчиков».
Я только что услышал стон в зале.
04:03
I just heard someone groan in the audience.
83
243085
2018
Вот эта «Песня семьи пальчиков».
04:05
This is the "Finger Family Song."
84
245127
1624
04:06
This is the very first one I could find.
85
246775
1930
Это самое раннее, что мне удалось найти.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Видео загружено в 2007, и у него только 200 000 просмотров,
04:11
which is, like, nothing in this game.
87
251582
1976
что просто ничто в данном случае.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Но у неё дико навязчивый мотив,
04:16
which I'm not going to play to you,
89
256458
1682
и я не буду её включать,
потому что она въестся в ваш мозг,
04:18
because it will sear itself into your brain
90
258164
2008
04:20
in the same way that it seared itself into mine,
91
260196
2395
точно так же, как въелась в мой,
04:22
and I'm not going to do that to you.
92
262615
1770
а я не буду так с вами поступать.
04:24
But like the surprise eggs,
93
264409
1344
Но, как и яйца с сюрпризом,
04:25
it's got inside kids' heads
94
265777
2164
она влезла в головы детям
04:27
and addicted them to it.
95
267965
1607
и застряла там.
04:29
So within a few years, these finger family videos
96
269596
2531
И спустя несколько лет эти песни семьи пальчиков
04:32
start appearing everywhere,
97
272151
1303
начали появляться везде.
04:33
and you get versions in different languages
98
273478
2029
Есть версии на разных языках
04:35
with popular kids' cartoons using food
99
275531
2121
с разными персонажами мультиков,
снятые при помощи еды или каких угодно материалов,
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
которые есть под рукой.
04:40
you seem to have lying around.
101
280250
2252
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
И опять-таки, есть немыслимое, просто невероятное количество таких видео
04:48
available online in all of these kind of insane combinations.
103
288223
3435
в открытом доступе в немыслимых комбинациях.
04:51
And the more time you start to spend with them,
104
291682
2228
И чем больше времени вы с ними проводите,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
тем больше чувствуете, что, возможно, начинаете сходить с ума.
04:57
And that's where I kind of launched into this,
106
297652
3333
Тут-то я и задумался над этим,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
над этим чувством полного отчуждения и полнейшего непонимания того,
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
как было создано всё, что мне показывают вокруг.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Так как невозможно узнать, откуда все эти видео берутся.
Например, кто их делает?
05:12
Like, who is making them?
110
312089
1241
Некоторые из них, оказывается, сняты группой профессиональных мультипликаторов.
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Некоторые просто в случайном порядке подбираются программой.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Некоторые созданы вроде бы адекватными детскими аниматорами.
05:23
And some of them are from people
114
323704
1552
А некоторые придумали люди,
которых, очевидно, вообще нельзя подпускать к детям.
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
(Смех)
05:28
(Laughter)
116
328311
1615
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
И опять-таки, эта невозможность понять, кто создаёт данный контент —
05:35
like, this is a bot?
118
335651
1156
какой-то бот?
05:36
Is this a person? Is this a troll?
119
336831
2647
человек? тролль?
05:39
What does it mean that we can't tell the difference
120
339502
2382
О чём говорит то, что мы уже не можем увидеть разницу
05:41
between these things anymore?
121
341908
1583
между ними?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
И не кажется ли вам теперь эта неопределённость знакомой?
05:50
So the main way people get views on their videos --
123
350145
2580
Основной способ получения просмотров своих видео —
05:52
and remember, views mean money --
124
352749
1707
и помните, просмотры значат деньги —
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
это напихать в название видео популярные словечки.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Например, берёте «яйца с сюрпризом»
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
и добавляете «Щенячий патруль», «пасхальные яйца»
06:03
or whatever these things are,
128
363047
1393
или вообще что угодно.
06:04
all of these words from other popular videos into your title,
129
364464
2893
Пишете всё это в названии,
пока это не превратится в бессмысленный набор слов,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
06:10
that doesn't make sense to humans at all.
131
370373
2498
который совершенно не понятен людям.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Потому что, разумеется, смотреть это видео будут лишь маленькие дети,
06:16
and what the hell do they know?
133
376465
1827
а что они вообще понимают?
06:18
Your real audience for this stuff is software.
134
378316
3007
Ваша настоящая аудитория в таких случаях — это программы, ПО.
06:21
It's the algorithms.
135
381347
1156
Это алгоритмы.
06:22
It's the software that YouTube uses
136
382527
1855
Это софт, который использует YouTube,
06:24
to select which videos are like other videos,
137
384406
2483
чтобы отбирать видео, которые похожи на другие видео,
06:26
to make them popular, to make them recommended.
138
386913
2243
чтобы делать их популярными, ставить в рекомендованное.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
И поэтому вы видите такую бессмысленную кашу
06:32
both of title and of content.
140
392665
2071
как в названии, так и в содержании.
06:35
But the thing is, you have to remember,
141
395792
1894
Но вам нужно помнить,
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
что за этой оптимизированной для алгоритмов системой стоят люди.
06:42
people who are kind of increasingly forced to act out
143
402212
2790
Люди, которым приходится разбираться
06:45
these increasingly bizarre combinations of words,
144
405026
3066
в этом диком наборе слов,
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
словно музыкант-импровизатор, который отвечает на крики
06:53
of a million toddlers at once.
146
413313
2203
миллионов малышей.
06:57
There are real people trapped within these systems,
147
417168
2468
В эти системы впутаны настоящие люди,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
и это уже другой невероятно странный аспект этой культуры алгоритмов.
07:03
because even if you're human,
149
423739
1381
Потому что, даже если вы человек,
07:05
you have to end up behaving like a machine
150
425144
2145
вам приходится вести себя как машина,
чтобы просто выжить.
07:07
just to survive.
151
427313
1800
Кроме того, по ту сторону экрана
07:09
And also, on the other side of the screen,
152
429137
2100
07:11
there still are these little kids watching this stuff,
153
431261
2947
всё-таки сидят маленькие дети.
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
Их как заворожённых удерживают эти странные механизмы.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
И большинству из них слишком рано даже пользоваться этим сайтом.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Они просто молотят по экрану своими ручками.
07:24
And so there's autoplay,
157
444890
1217
Но благодаря автовоспроизведению
эти видео проигрываются снова и снова по кругу
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
07:29
endlessly for hours and hours at a time.
159
449734
2059
долгие, долгие часы.
07:31
And there's so much weirdness in the system now
160
451817
2843
Сейчас у этой системы есть такая особенность,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
что автовоспроизведение заводит вас в крайне странные места.
07:37
This is how, within a dozen steps,
162
457717
2488
Вот так через цепочку в десяток видео
07:40
you can go from a cute video of a counting train
163
460229
3158
вы можете от милого видео с паровозиком, обучающим счёту,
07:43
to masturbating Mickey Mouse.
164
463411
2442
попасть на мастурбирующего Микки Мауса.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Прошу прощения за это.
07:48
This does get worse.
166
468841
1700
Дальше ещё хуже.
07:50
This is what happens
167
470565
1282
Вот что происходит,
07:51
when all of these different keywords,
168
471871
3086
когда куча разных ключевых слов,
07:54
all these different pieces of attention,
169
474981
2461
куча всяких завлекалочек
07:57
this desperate generation of content,
170
477466
2807
и эта бессмысленная генерация контента
08:00
all comes together into a single place.
171
480297
2582
оказываются в одном месте.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Вот, где гнездятся все эти до ужаса странные ключевые слова.
08:08
You cross-breed the finger family video
173
488367
2391
Вы скрещиваете видео про семью пальчиков
08:10
with some live-action superhero stuff,
174
490782
2088
с кадрами из фильмов про супергероев,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
добавляете странные локальные шутки,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
и внезапно оказываетесь в наистраннейшем месте.
08:19
The stuff that tends to upset parents
177
499564
2113
Контент, напрягающий родителей,
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
обычно с наличием жестоких или сексуальных сцен, так?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Персонажей детских мультиков насилуют,
08:27
getting killed,
180
507902
2018
убивают,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
издеваются таким образом, что это пугает детей.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
А происходит это потому, что программа использует всё это,
чтобы автоматически генерировать самые страшные детские кошмары.
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
08:39
And this stuff really, really does affect small children.
184
519995
2701
И такой контент действительно оказывает влияние на детей.
08:42
Parents report their children being traumatized,
185
522720
2866
Родители жалуются на то, что их дети получают психотравмы,
08:45
becoming afraid of the dark,
186
525610
1392
боятся темноты,
боятся своих любимых персонажей мультиков.
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Если вы что-то отсюда и вынесете — если у вас маленькие дети,
держите их подальше от YouTube.
08:54
keep them the hell away from YouTube.
189
534159
1996
08:56
(Applause)
190
536743
3949
(Аплодисменты)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Но с другой стороны, меня очень беспокоит,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
что мы даже не знаем, как мы дошли до такого.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Мы взяли все эти вещи
09:13
and munged them together in a way that no one really intended.
194
553906
2953
и совместили их так, как никто из нас не желал.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
Но так мы строим весь мир.
09:20
We're taking all of this data,
196
560063
1773
Мы берём все эти данные,
09:21
a lot of it bad data,
197
561860
1447
очень много плохих данных,
09:23
a lot of historical data full of prejudice,
198
563331
3029
много исторических данных, переполненных предрассудками,
09:26
full of all of our worst impulses of history,
199
566384
2837
со всеми нашими худшими мотивами в истории,
09:29
and we're building that into huge data sets
200
569245
2049
и мы строим из этого огромные базы данных,
09:31
and then we're automating it.
201
571318
1423
а затем их автоматизируем.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
И всё это выливается в кредитные отчёты,
09:36
into insurance premiums,
203
576291
1634
страховые платежи,
09:37
into things like predictive policing systems,
204
577949
2693
профилактические системы надзора,
09:40
into sentencing guidelines.
205
580666
1762
директивы по назначению наказаний.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Вот как мы строим наш мир сегодня
на основе этих данных.
09:45
out of this data.
207
585297
1151
09:46
And I don't know what's worse,
208
586472
1698
И я не знаю, что хуже:
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
то, что мы строим полностью оптимизированные системы
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
для худших аспектов человеческого поведения,
09:54
or that we seem to have done it by accident,
211
594278
2425
или то, что мы делаем это непредумышленно,
09:56
without even realizing that we were doing it,
212
596727
2207
не отдавая отчёт своим действиям,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
потому что не до конца понимаем системы, которые построили,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
и теперь мы не знаем, как что-то изменить.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Есть две причины, по которым, как мне кажется, на YouTube
всё есть так, как есть.
10:10
most fully on YouTube,
216
610158
1189
10:11
and the first of those is advertising,
217
611371
1827
И первая причина — это реклама,
10:13
which is the monetization of attention
218
613222
2837
что по сути является монетаризацией внимания,
10:16
without any real other variables at work,
219
616083
3136
никаких других целей она не преследует
10:19
any care for the people who are actually developing this content,
220
619243
3885
и не заботится о людях, в действительности разрабатывающих контент.
10:23
the centralization of the power, the separation of those things.
221
623152
3636
Никакой централизации власти, никакого разграничения.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Как бы вы ни относились к использованию рекламы
10:29
to kind of support stuff,
223
629980
1238
для поддержки продуктов,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
то, что кто-то, не понимая работы алгоритма, надеется,
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
что валяющиеся в песке взрослые мужики в подгузниках
10:37
will give them money for it
226
637340
1315
принесут им деньги,
10:38
suggests that this probably isn't the thing
227
638679
2037
наводит на мысли, что мы, вероятно,
10:40
that we should be basing our society and culture upon,
228
640740
2563
не на этом должны основывать наше общество и культуру
и не так их спонсировать.
10:43
and the way in which we should be funding it.
229
643327
2160
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Вторая причина, являющаяся основной, — это автоматизация,
которая всё это распределяет,
10:49
which is the deployment of all of this technology
231
649054
2329
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
как только оно появляется, без какого-либо надзора.
10:53
and then once it's out there,
233
653952
1412
А когда оно становится доступным,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
мы как бы разводим руками и говорим: «Это не мы, это всё технологии».
10:59
Like, "We're not involved in it."
235
659255
1642
Или: «Мы тут ни при чём».
11:00
That's not really good enough,
236
660921
1767
Так не пойдёт,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
потому что всё это не только подчиняется алгоритмам,
11:05
it's also algorithmically policed.
238
665446
2498
но и ими контролируется.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Когда в YouTube впервые обратили внимание на это,
11:10
the first thing they said they'd do about it
240
670840
2087
сначала они сказали,
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
что разработают новые алгоритмы машинного обучения,
11:15
to moderate the content.
242
675670
1329
чтобы следить за контентом.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Машинное обучение, по словам любого эксперта, —
11:20
is basically what we've started to call
244
680532
1896
это, по сути, то, что мы начали называть
11:22
software that we don't really understand how it works.
245
682452
2588
софтом, принцип работы которого мы не понимаем.
11:25
And I think we have enough of that already.
246
685064
3983
И я считаю, что с нас хватит этого.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Мы не должны перекладывать на искусственный интеллект решение,
11:32
what's appropriate or not,
248
692261
1251
что приемлемо, а что нет,
11:33
because we know what happens.
249
693536
1436
ведь мы знаем, что будет.
11:34
It'll start censoring other things.
250
694996
1688
Он станет подвергать цензуре и другие вещи:
11:36
It'll start censoring queer content.
251
696708
1783
видео гомосексуального содержания,
11:38
It'll start censoring legitimate public speech.
252
698515
2237
законные публичные выступления.
11:40
What's allowed in these discourses,
253
700776
1925
То, что дозволено в этом плане
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
не должно решаться непостижимыми системами.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Это должно решаться в ходе беседы между всеми нами.
11:48
But I'd leave a reminder
256
708817
1308
Но я напомню,
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
что альтернатива тоже неблагоприятна.
11:52
YouTube also announced recently
258
712926
1535
YouTube недавно объявил,
11:54
that they're going to release a version of their kids' app
259
714485
2767
что выпустит версию приложения для детей,
которое будет полностью проверяться людьми.
11:57
that would be entirely moderated by humans.
260
717276
2407
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Цукерберг в Конгрессе сказал, что в Facebook будет то же самое,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
когда его спросили, как будет проверяться их контент.
12:06
He said they'd have humans doing it.
263
726787
1747
Он сказал, что это поручат людям.
И имеют в виду они то,
12:08
And what that really means is,
264
728558
1459
что первыми видео увидят не дети,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
а сомнительные работники с низкой зарплатой,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
без должной поддержки психического здоровья,
12:16
without proper mental health support
267
736100
1726
которых эти видео также травмируют.
12:17
being damaged by it as well.
268
737850
1376
(Смех)
12:19
(Laughter)
269
739250
1096
И я думаю, что все мы можем достичь гораздо большего.
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
(Аплодисменты)
12:22
(Applause)
271
742995
2499
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
На мой взгляд, эти вещи объединяет между собой
12:30
is agency.
273
750705
1420
наличие посредника.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
То есть то, что мы понимаем через посредника.
12:35
how we know how to act in our own best interests.
275
755330
4390
Иными словами, то, как мы понимаем, как вести себя в своих интересах.
12:39
Which -- it's almost impossible to do
276
759744
1787
А это сделать почти невозможно
12:41
in these systems that we don't really fully understand.
277
761555
3485
в условиях тех систем, которые мы не полностью понимаем.
12:45
Inequality of power always leads to violence.
278
765064
3071
Неравное распределение власти всегда приводит к насилию.
12:48
And we can see inside these systems
279
768159
1685
И мы видим, что с этими системами
12:49
that inequality of understanding does the same thing.
280
769868
2611
неравный уровень понимания приводит к тому же.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Если мы как-то и можем улучшить эти системы,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
то только сделав их понятнее пользователям,
чтобы каждый из нас имел представление
12:59
so that all of us have a common understanding
283
779048
2196
о том, что там на самом деле происходит.
13:01
of what's actually going on here.
284
781268
1851
13:03
The thing, though, I think most about these systems
285
783970
2968
Однако, я думаю, что основное здесь то,
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
что эти системы, как я, надеюсь, объяснил, касаются не конкретно YouTube.
13:10
It's about everything.
287
790843
1312
Они касаются всего.
13:12
These issues of accountability and agency,
288
792179
2444
Проблемы контроля и посредничества,
13:14
of opacity and complexity,
289
794647
2225
неясности и сложности,
13:16
of the violence and exploitation that inherently results
290
796896
3177
насилия и эксплуатации, которая, по сути, происходит
из-за концентрации власти в нескольких руках —
13:20
from the concentration of power in a few hands --
291
800097
2794
13:22
these are much, much larger issues.
292
802915
2579
это очень серьёзные проблемы.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
И это проблемы не только YouTube и не только технологий в целом,
13:30
and they're not even new.
294
810106
1265
они даже не новы.
13:31
They've been with us for ages.
295
811395
1461
Они существовали годами.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Но мы наконец создали эту систему, всемирную сеть — интернет,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
которая представляет их нам так невероятно,
13:40
making them undeniable.
298
820337
1547
что их стало невозможно отрицать.
13:41
Technology has this extraordinary capacity
299
821908
2820
Технологии обладают необычайной возможностью
13:44
to both instantiate and continue
300
824752
3973
как поддерживать, так и развивать
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
все наши самые странные и тайные желания и склонности,
13:53
and encoding them into the world,
302
833021
1866
раскрывать их всему миру,
13:54
but it also writes them down so that we can see them,
303
834911
3474
а также фиксирует их так, что мы их замечаем
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
и больше не можем делать вид, будто их не существует.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Мы должны перестать видеть в технологиях решение всех наших проблем
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
и вместо этого относиться к ним как к средству выявления этих проблем,
14:09
so we can start thinking about them properly
307
849887
2144
чтобы можно было размышлять в правильном ключе
14:12
and start to address them.
308
852055
1766
и начать их решать.
14:13
Thank you very much.
309
853845
1335
Спасибо огромное.
(Аплодисменты)
14:15
(Applause)
310
855204
5192
14:21
Thank you.
311
861733
1188
Спасибо.
14:22
(Applause)
312
862945
2869
(Аплодисменты)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Хелен Уолтерс: Джеймс, спасибо, что пришёл и выступил у нас.
Что замечательно,
14:32
So it's interesting:
314
872041
1189
когда на ум приходят фильмы, в которых роботы господствуют над миром,
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
всё это кажется более привлекательным, чем то, о чём ты рассказал.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Но меня волнует вот что: в этих фильмах всегда есть какое-то сопротивление.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Есть ли сопротивление в данном случае?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Видишь ли ты какие-то зачатки и предзнаменования сопротивления?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
Джеймс Брайдл: Не знаю насчёт прямого сопротивления,
14:54
because I think this stuff is super long-term.
321
894947
2264
ещё слишком рано для этого.
Думаю, это глубоко заложено в нашей культуре.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Моя подруга Элеанор Саитта, всегда говорит,
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
что любая технологическая проблема глобального масштаба —
15:05
are political problems first of all.
325
905568
2267
это в первую очередь политическая проблема.
15:07
So all of these things we're working to address within this
326
907859
2785
И всё, над чем мы работаем,
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
нельзя разрешить, просто разработав улучшенные технологии,
необходимо менять общество, которое эти технологии создаёт.
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Так что нет, на данный момент мы ещё слишком далеки от этого.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Но как я сказал, по-моему, разбирая их,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
объясняя их, откровенно говоря о них,
мы можем по крайней мере запустить этот процесс.
15:25
we can actually start to at least begin that process.
332
925236
2505
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
ХУ: Когда ты говоришь о доступности и цифровой грамотности,
15:31
I find it difficult to imagine
334
931351
1591
мне трудно представить,
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
что мы должны переложить это бремя на самих пользователей.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Но кто же будет ответственен за обучение в этом новом мире?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
ДБ: Опять-таки, думаю, ответственность лежит на всех нас,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
и всё, что мы делаем, создаём, строим,
15:47
needs to be made in a consensual discussion
339
947900
3692
должно совершаться при всеобщем согласии,
15:51
with everyone who's avoiding it;
340
951616
1940
включая тех, кто избегает этого обсуждения.
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
И мы должны быть уверены, что создаём системы не для обмана людей,
15:57
into doing the right thing,
342
957945
2300
чтобы они сделали что нам нужно,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
но что люди действительно вовлечены в процесс обучения на каждом этапе,
16:03
because each of these systems is educational.
344
963529
2278
потому что все эти системы образовательные.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Я надеюсь, что даже такая безжалостная штука,
16:08
that if you can take it and look at it properly,
346
968957
2262
если правильно к ней подойти и разобраться,
16:11
it's actually in itself a piece of education
347
971243
2089
несёт в себе элемент обучения,
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
которое позволит вам увидеть, как сложные системы взаимодействуют
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
и, возможно, впоследствии применить эти знания где-нибудь ещё.
16:20
HW: James, it's such an important discussion,
350
980667
2115
ХУ: Джеймс, это такая важная тема,
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
и я знаю, что многие здесь открыты и готовы к разговору,
поэтому спасибо, что начал наше утро.
16:26
so thanks for starting off our morning.
352
986057
1859
ДБ: Спасибо большое. Спасибо.
16:27
JB: Thanks very much. Cheers.
353
987940
1400
(Аплодисменты)
16:29
(Applause)
354
989364
1651
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7