The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,902,851 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,902,851 views ・ 2018-07-13

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Inna Fedorenko
00:12
I'm James.
0
12777
1183
Мене звати Джеймс.
00:13
I'm a writer and artist,
1
13984
1686
Я письменник та художник,
00:15
and I make work about technology.
2
15694
2341
і я розробляю технології.
Я займаюсь тим, що малюю військові дрони у реальних масштабах
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
00:22
in city streets around the world,
4
22389
1828
на вулицях міст по всьому світі,
00:24
so that people can start to think and get their heads around
5
24241
2950
щоб люди почали задумуватися та осмислювати
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
ці незвичні та чудернацькі технології.
Я створюю такі речі, як нейронні мережі, які передбачають результати виборів
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
00:35
based on weather reports,
8
35354
1737
на основі звітів про погоду,
00:37
because I'm intrigued about
9
37115
1314
оскільки мене інтригують
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
справжні можливості цих нових чудернацьких технологій.
Минулого року я створив свій власний автомобіль без водія.
00:43
Last year, I built my own self-driving car.
11
43405
2426
00:45
But because I don't really trust technology,
12
45855
2526
Та оскільки я не дуже довіряю технологіям,
00:48
I also designed a trap for it.
13
48405
1928
я наготував і пастку для нього.
00:50
(Laughter)
14
50777
1086
(Сміх)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Я займаюсь цим, бо мене це захоплює,
00:56
but also because I think when we talk about technology,
16
56209
2602
ба більше, я вважаю, коли мова заходить про технології,
00:58
we're largely talking about ourselves
17
58835
2619
то в основному, ми думаємо про самих себе
01:01
and the way that we understand the world.
18
61478
2299
та власний спосіб розуміння світу.
01:03
So here's a story about technology.
19
63801
2442
Тож ось історія про технології.
Це відео "яйця з сюрпризом".
01:07
This is a "surprise egg" video.
20
67520
2830
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Це просто відео, де хтось відкриває купу шоколадних яєць,
01:13
and showing the toys inside to the viewer.
22
73746
2126
і показує глядачеві, що там всередині.
І все. Це все триває сім довгих хвилин.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
01:19
And I want you to notice two things about this.
24
79428
3051
Я хочу, щоб ви звернули увагу на дві речі.
01:22
First of all, this video has 30 million views.
25
82503
4074
Перш за все, у цього відео 30 мільйонів переглядів.
01:26
(Laughter)
26
86601
1275
(Сміх)
Інша річ,
01:28
And the other thing is,
27
88376
1166
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
що це відео з каналу, у якого 6.3 мільйонів підписників,
01:33
that has a total of eight billion views,
29
93459
2680
всього у них 8 мільярдів переглядів.
01:36
and it's all just more videos like this --
30
96163
3106
Таких відео ще багато —
30 мільйонів людей дивляться, як хлопець відкриває яйця.
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Звучить досить дивно, та коли ви пошукаєте "яйце з сюрпризом" на ютубі,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
він покаже вам ще 10 мільйонів таких відео,
01:52
and I think that's an undercount.
34
112240
1657
я думаю, це ще дуже мало.
01:53
I think there's way, way more of these.
35
113921
1897
Думаю, такого набагато більше.
01:55
If you keep searching, they're endless.
36
115842
2242
Продовжуйте шукати — у цього просто немає кінця краю.
01:58
There's millions and millions of these videos
37
118108
2159
Мільйони та мільйони цих відео
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
у мерехтливих поєднаннях брендів та матеріалів,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
і кожного дня цих відео завантажується все більше і більше.
02:07
Like, this is a strange world. Right?
40
127639
3511
Дивний світ. Чи не так?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Але справа в тому, що ці відео переглядають не дорослі.
02:14
It's kids, small children.
42
134581
2921
Це діти, малі діти.
02:17
These videos are like crack for little kids.
43
137526
2154
Такі відео для дітей, як наркотики.
02:19
There's something about the repetition,
44
139704
2075
Тут справа криється у повторах —
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
постійних маленьких дозах дофаміну, коли щось відкривається,
02:24
that completely hooks them in.
46
144295
1866
і це цілковито захоплює їх.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
І маленькі діти переглядають такі відео,
і вони роблять це годинами і годинами.
02:31
and they do it for hours and hours and hours.
48
151018
2327
02:33
And if you try and take the screen away from them,
49
153369
2356
Якщо ви спробуєте забрати від них екран,
02:35
they'll scream and scream and scream.
50
155749
1782
вони будуть кричати і кричати.
02:37
If you don't believe me --
51
157555
1262
Якщо ви не вірите мені,
02:38
and I've already seen people in the audience nodding --
52
158841
2607
я вже бачу, що дехто в залі киває,
якщо ви не вірите мені, знайдіть когось, у кого є дитина, та спитайте:
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
02:44
and they'll know about the surprise egg videos.
54
164887
2340
що їй відомо про відео з яйцями із сюрпризом.
02:47
So this is where we start.
55
167251
2070
Саме з цього ми почнемо.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Це 2018, і хтось, а може, й багато людей,
для того, щоб ми постійно зависали в одній і тій же програмі,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
користується механізмом, подібним до того, що в Інстаграмі та Фейсбуці,
02:56
to get you to keep checking that app,
58
176976
1989
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
але в Ютубі мета цього механізму — це зламати голови малих дітей
03:02
in return for advertising revenue.
60
182998
1958
в обмін на дохід від реклами.
Врешті, я сподіваюсь, що саме це їх мета.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Сподіваюсь, що заради цього вони все провертають,
03:08
I hope that's what they're doing it for,
62
188371
1955
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
оскільки це легкий шлях заробити на рекламі в Ютубі.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Ми можемо або виробляти, або викрадати продукт.
Якщо ви шукаєте дійсно популярні дитячі мультфільми,
03:18
So if you search for really popular kids' cartoons
65
198038
2635
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
такі як: "Свинка Пеппа" чи "Щенячий патруль",
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
то знайдете мільйони та мільйони таких відео.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Звичайно, що більшість з них не випущена оригінальними творцями.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Вони належать тоннам інших випадкових аккаунтів,
03:31
and it's impossible to know who's posting them
70
211945
2240
тож неможливо дізнатися, хто їх постить
03:34
or what their motives might be.
71
214209
1822
чи які їх мотиви.
Нічого не нагадує?
03:36
Does that sound kind of familiar?
72
216428
1930
03:38
Because it's exactly the same mechanism
73
218382
1980
Бо саме такий механізм
03:40
that's happening across most of our digital services,
74
220386
2600
діє на більшості цифрових сервісів,
коли неможливо дізнатися, звідки походить ця інформація.
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
Простіше кажучи, це фейкові новини для дітей.
03:46
It's basically fake news for kids,
76
226241
1829
03:48
and we're training them from birth
77
228094
2161
А ми з народження навчаємо їх
03:50
to click on the very first link that comes along,
78
230279
2506
натискати на перше ліпше посилання,
03:52
regardless of what the source is.
79
232809
1953
незалежно від його джерела.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Це явно не надто хороша ідея.
А ось інша дуже популярна річ дитячого Ютубу.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
04:01
This is called the "Finger Family Song."
82
241133
1928
Це зветься "Пісня родини пальчиків".
04:03
I just heard someone groan in the audience.
83
243085
2018
Я чув, як хтось застогнав в аудиторії.
04:05
This is the "Finger Family Song."
84
245127
1624
Це "Пісня родини пальчиків".
04:06
This is the very first one I could find.
85
246775
1930
Це найперша, яку я знайшов.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Вона з 2007, і у неї лише 200 000 переглядів,
04:11
which is, like, nothing in this game.
87
251582
1976
що, практично, нічого не значить у цій грі.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Але в неї така заїдаюча мелодія,
04:16
which I'm not going to play to you,
89
256458
1682
яку я не буду вмикати,
04:18
because it will sear itself into your brain
90
258164
2008
бо вона просто пропалить вам мозок,
04:20
in the same way that it seared itself into mine,
91
260196
2395
так само, як випалила мій.
04:22
and I'm not going to do that to you.
92
262615
1770
Не буду такого з вами чинити.
04:24
But like the surprise eggs,
93
264409
1344
Але так само, як і яйця з сюрпризами,
04:25
it's got inside kids' heads
94
265777
2164
воно проникло в голови дітей
04:27
and addicted them to it.
95
267965
1607
і підсадило їх.
04:29
So within a few years, these finger family videos
96
269596
2531
За кілька років це відео із родиною пальчиків
04:32
start appearing everywhere,
97
272151
1303
почало з'являтись усюди,
04:33
and you get versions in different languages
98
273478
2029
з'явились версії різними мовами
04:35
with popular kids' cartoons using food
99
275531
2121
з популярними дитячими мультиками, які використовували їжу,
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
чи, чесно кажучи, будь-які анімаційні елементи,
04:40
you seem to have lying around.
101
280250
2252
що є навколо.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
І знову, сила-силенна цих відео
04:48
available online in all of these kind of insane combinations.
103
288223
3435
стала доступною онлайн в усіх цих божевільних комбінаціях.
04:51
And the more time you start to spend with them,
104
291682
2228
І чим більше часу ви проводите з ними,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
тим частіше задумуєтесь, яким божевіллям це може ще обернутися.
04:57
And that's where I kind of launched into this,
106
297652
3333
Саме тут підключився і я,
відчуття глибокої дивини та глибокої нестачі розуміння,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
як же ж було складено ось це все навколо мене.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Бо просто неможливо дізнатися, звідки ці речі.
Хто їх робить?
05:12
Like, who is making them?
110
312089
1241
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
Деякі з них, виявляється, створюють команди професійних аніматорів.
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Деякі з них просто довільно збирає програма.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Деякі, досить гарні, створені молодими творцями дитячого контенту.
05:23
And some of them are from people
114
323704
1552
Деякі створені людьми,
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
які і близько не повинні підходити до дітей.
05:28
(Laughter)
116
328311
1615
(Сміх)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
І знову ж таки, марна трата сил вирахувати, хто ж створює цей матеріал:
05:35
like, this is a bot?
118
335651
1156
05:36
Is this a person? Is this a troll?
119
336831
2647
чи це бот,
чи це людина, а чи троль?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Це означає, що ми вже не можемо знайти різницю?
05:41
between these things anymore?
121
341908
1583
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
І знову, чи не нагадує, бува, щось ця непевність?
05:50
So the main way people get views on their videos --
123
350145
2580
Основний спосіб, яким люди отримують перегляди,
05:52
and remember, views mean money --
124
352749
1707
і пам'ятайте, перегляди означають гроші —
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
це заголовки, напхані різними термінами.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Наприклад, беремо "яйця з сюрпризами",
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
потім додаємо "Щенячий патруль", "Великоднє яйце"
06:03
or whatever these things are,
128
363047
1393
06:04
all of these words from other popular videos into your title,
129
364464
2893
чи будь-що інше —
всі ці слова з інших популярних відео,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
доки це не стане такою мішаниною,
06:10
that doesn't make sense to humans at all.
131
370373
2498
що взагалі не матиме жодного смислу для інших людей.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Бо саме діти дивляться ваші відео,
06:16
and what the hell do they know?
133
376465
1827
а що вони в біса знають?
06:18
Your real audience for this stuff is software.
134
378316
3007
Вашим справжнім глядачем є програма.
06:21
It's the algorithms.
135
381347
1156
Алгоритми.
06:22
It's the software that YouTube uses
136
382527
1855
Ютуб використовує ці алгоритми
06:24
to select which videos are like other videos,
137
384406
2483
для підбору схожих відео,
06:26
to make them popular, to make them recommended.
138
386913
2243
щоб зробити їх популярними, та рекомендованими.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
Саме тому із заголовками та змістом
06:32
both of title and of content.
140
392665
2071
відбувається така нісенітниця.
06:35
But the thing is, you have to remember,
141
395792
1894
Але одну річ ви маєте запам'ятати —
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
за всією цією алгоритмічно оптимізованою системою стоять люди,
люди яких постійно змушують зображати
06:42
people who are kind of increasingly forced to act out
143
402212
2790
06:45
these increasingly bizarre combinations of words,
144
405026
3066
ці неймовірно чудернацькі комбінації слів.
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
Вони ніби відчайдуші актори-імпровізатори, які реагують на численні крики
06:53
of a million toddlers at once.
146
413313
2203
мільйонів малюків.
У пастку цієї системи потрапили справжні люди,
06:57
There are real people trapped within these systems,
147
417168
2468
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
що також дивна річ в цій керованій алгоритмами культурі,
07:03
because even if you're human,
149
423739
1381
бо навіть, якщо ви людина,
07:05
you have to end up behaving like a machine
150
425144
2145
то щоб вижити,
ви маєте поводитись, як машина.
07:07
just to survive.
151
427313
1800
Однак по іншу сторону екрану
07:09
And also, on the other side of the screen,
152
429137
2100
07:11
there still are these little kids watching this stuff,
153
431261
2947
все ще сидять ці маленькі діти, які все це дивляться,
вони тут застрягли, бо вся їх увага поглинається цими дивними механізмами.
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Більшість цих дітей занадто маленькі, щоб навіть користуватися сайтом.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Вони просто молотять по екрану своїми пальчиками.
07:24
And so there's autoplay,
157
444890
1217
Тож стоїть автоплей,
який продовжує програвати ці відео знову і знову, і так по колу,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
07:29
endlessly for hours and hours at a time.
159
449734
2059
безкінечно, годинами.
07:31
And there's so much weirdness in the system now
160
451817
2843
Зараз ця система стала така дика,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
цей автоплей заведе тебе до справді дивних місць.
07:37
This is how, within a dozen steps,
162
457717
2488
Саме так, за десяток кроків
ви дійдете від милого відео рахуючого поїзду
07:40
you can go from a cute video of a counting train
163
460229
3158
07:43
to masturbating Mickey Mouse.
164
463411
2442
до мастурбуючого Міккі-Мауса.
Так. Вибачте за це.
07:46
Yeah. I'm sorry about that.
165
466529
2288
07:48
This does get worse.
166
468841
1700
Та буває навіть гірше.
07:50
This is what happens
167
470565
1282
Саме це і відбувається,
07:51
when all of these different keywords,
168
471871
3086
коли всі ці різні слова,
07:54
all these different pieces of attention,
169
474981
2461
різні шматочки уваги,
07:57
this desperate generation of content,
170
477466
2807
таке відчайдушне генерування контенту —
08:00
all comes together into a single place.
171
480297
2582
все це поєднується в одному місці.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Ось розсадок цих дивних слів.
Суміш відео із сім'єю пальців
08:08
You cross-breed the finger family video
173
488367
2391
з якоюсь супергеройською темою,
08:10
with some live-action superhero stuff,
174
490782
2088
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
потім йдуть якісь дивні жарти, тролінг чи ще щось,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
і раптом, ви опиняєтесь у справді дивному місці.
08:19
The stuff that tends to upset parents
177
499564
2113
Саме матеріал із сексуальним чи насильницьким підтекстом
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
засмучує батьків.
У дитячих мультиках на персонажів нападають,
08:25
Children's cartoons getting assaulted,
179
505056
2822
08:27
getting killed,
180
507902
2018
вбивають,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
так жартують, що це наганяє на дітей паніку.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Якщо у вас буде програма, які зіштовхне всі ці сили,
то вона автоматично створить найгірший дитячий кошмар.
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
08:39
And this stuff really, really does affect small children.
184
519995
2701
І ця річ дійсно впливає на маленьких дітей.
08:42
Parents report their children being traumatized,
185
522720
2866
Батьки говорять, що їх діти отримали травму,
08:45
becoming afraid of the dark,
186
525610
1392
тепер вони бояться темряви,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
бояться улюблених персонажів мультфільмів.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Якщо ви хочете цього уникнути, коли у вас є маленькі діти —
08:54
keep them the hell away from YouTube.
189
534159
1996
тримайте їх геть від Ютубу.
08:56
(Applause)
190
536743
3949
(Оплески)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Але мене дивує дещо інше —
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
ми навіть не розуміємо, як тут опинилися.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Ми всі піддалися цьому впливу всіх цих речей,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
і ми навіть не очікували, що вони так заплутаються.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
І все ж, саме таким способом ми створюємо цілий світ.
Ми беремо всі ці дані —
09:20
We're taking all of this data,
196
560063
1773
09:21
a lot of it bad data,
197
561860
1447
чимало поганих даних,
09:23
a lot of historical data full of prejudice,
198
563331
3029
чимало історичних даних, повних упередження,
09:26
full of all of our worst impulses of history,
199
566384
2837
повних найгірших історичних імпульсів,
09:29
and we're building that into huge data sets
200
569245
2049
і вбудовуємо все це у величезні блоки даних,
09:31
and then we're automating it.
201
571318
1423
які потім автоматизуємо.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Ми всі разом видозмінюємо це у такі речі, як кредитні звіти,
09:36
into insurance premiums,
203
576291
1634
страхові внески,
09:37
into things like predictive policing systems,
204
577949
2693
упереджені політичні системи,
09:40
into sentencing guidelines.
205
580666
1762
винесення вироків.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Саме таким способом ми сьогодні створюємо світ,
09:45
out of this data.
207
585297
1151
виходячи з цих даних.
09:46
And I don't know what's worse,
208
586472
1698
І я не знаю, що гірше —
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
те, що ми створюємо систему, які видається цілком сприятливою
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
для найгірших аспектів людської поведінки,
09:54
or that we seem to have done it by accident,
211
594278
2425
чи те, що ми, здається, створили її такою випадково,
09:56
without even realizing that we were doing it,
212
596727
2207
навіть не усвідомлюючи, що робимо,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
бо ми навіть не розуміємо систему, яку створюємо,
і не розуміємо, як інакше поводити себе з нею.
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Я думаю, існує пара речей, які дійсно заправляють всім цим на Ютубі
10:10
most fully on YouTube,
216
610158
1189
у повну силу.
10:11
and the first of those is advertising,
217
611371
1827
Перша з них, це реклама —
10:13
which is the monetization of attention
218
613222
2837
монетизація уваги
10:16
without any real other variables at work,
219
616083
3136
без жодної видозміни у роботі,
10:19
any care for the people who are actually developing this content,
220
619243
3885
жодної турботи про людей, які виробляють цей контент,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
та централізація сили, розділення тих речей.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Гадаю, щоб ви не думали про використання реклами
10:29
to kind of support stuff,
223
629980
1238
як вид підтримки продукту,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
та вигляд дорослих чоловіків у памперсах, які качаються по піску
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
в надії на те, що алгоритм, який вони навіть не розуміють,
10:37
will give them money for it
226
637340
1315
принесе їм за це гроші,
10:38
suggests that this probably isn't the thing
227
638679
2037
явно свідчить про те, що це не та річ,
10:40
that we should be basing our society and culture upon,
228
640740
2563
на якій ми повинні базувати культуру та суспільство,
10:43
and the way in which we should be funding it.
229
643327
2160
і не той шлях, яким ми повинні його забезпечувати.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Інша річ полягає в тому, що основним двигуном є автоматизм —
випуск технологій,
10:49
which is the deployment of all of this technology
231
649054
2329
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
як тільки вони з'являються, без жодного їх перегляду,
10:53
and then once it's out there,
233
653952
1412
і як тільки вони опиняються поза досяжністю,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
піднімати лапки вгору і говорити: " То не ми, то технології".
10:59
Like, "We're not involved in it."
235
659255
1642
Типу "ми до цього не причетні".
11:00
That's not really good enough,
236
660921
1767
Але це не є добре,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
оскільки ці речі не просто алгоритмічно керуються,
11:05
it's also algorithmically policed.
238
665446
2498
а мають алгоритмічну політику.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Коли Ютуб почав звертати на це увагу,
11:10
the first thing they said they'd do about it
240
670840
2087
то перше, що вони заявили,
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
що створять кращу машину, яка вивчатиме алгоритми,
11:15
to moderate the content.
242
675670
1329
щоб моделювати контент.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Що ж, машинне навчання, і як скаже нам кожен експерт,
11:20
is basically what we've started to call
244
680532
1896
так ми називаємо програми,
11:22
software that we don't really understand how it works.
245
682452
2588
чию роботу ми не розуміємо.
І я думаю, з нас вже достатньо.
11:25
And I think we have enough of that already.
246
685064
3983
Не варто дозволяти штучному розуму вирішувати,
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
що прийнятне для нас, а що ні,
11:32
what's appropriate or not,
248
692261
1251
11:33
because we know what happens.
249
693536
1436
оскільки ми знаємо, що саме відбувається.
11:34
It'll start censoring other things.
250
694996
1688
Він почне моніторити інші речі.
11:36
It'll start censoring queer content.
251
696708
1783
Він почне моніторити дивний контент.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
Він почне переглядати законні публічні промови.
11:40
What's allowed in these discourses,
253
700776
1925
Те, що дозволяється в цьому дискурсі,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
не повино лишатися на розсуд невідповідних систем.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Це частина дискусії, у якій всі ми повинні брати участь.
11:48
But I'd leave a reminder
256
708817
1308
Але я хочу нагадати,
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
що альтернатива також не є дуже приємною.
11:52
YouTube also announced recently
258
712926
1535
Недавно Ютуб оголосив,
11:54
that they're going to release a version of their kids' app
259
714485
2767
що вони збираються відкрити свою версію дитячого додатку,
11:57
that would be entirely moderated by humans.
260
717276
2407
яким будуть керувати тільки люди.
Фейсбук — Цукерберг сказав те ж саме в Конгресі,
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
коли на нього натиснули, щоб він змінив контент.
12:06
He said they'd have humans doing it.
263
726787
1747
Він сказав, що ним керуватимуть люди.
12:08
And what that really means is,
264
728558
1459
Насправді, це означає,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
що першими ці відео будуть переглядати не діти,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
а контрактні робітники без достатньої заробітної плати
та без відповідного психічного обстеження,
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
яким це все також наноситиме травму.
12:19
(Laughter)
269
739250
1096
(Сміх)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Та я думаю, ми можемо зробити краще.
12:22
(Applause)
271
742995
2499
(Оплески)
Думка, яка об'єднує ці дві речі разом, особисто для мене,
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
це організація,
12:30
is agency.
273
750705
1420
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
тобто, наскільки добре ми розуміємо організацію,
12:35
how we know how to act in our own best interests.
275
755330
4390
тобто, чи знаємо ми, як діяти у власних інтересах.
Що просто неможливо зробити
12:39
Which -- it's almost impossible to do
276
759744
1787
12:41
in these systems that we don't really fully understand.
277
761555
3485
у цих системах, яких ми дійсно не розуміємо.
Нерівність сил завжди приводить до насилля.
12:45
Inequality of power always leads to violence.
278
765064
3071
І ми можемо помітити, що всередині цих систем
12:48
And we can see inside these systems
279
768159
1685
12:49
that inequality of understanding does the same thing.
280
769868
2611
нерівність розуміння створює те ж саме.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Якщо існує те, що можна зробити для поліпшення цих систем —
12:56
it's to make them more legible to the people who use them,
282
776306
2718
зробити їх більш розбірливими для тих людей, які ними користуються,
12:59
so that all of us have a common understanding
283
779048
2196
щоб ми мали хоча б загальне уявлення,
13:01
of what's actually going on here.
284
781268
1851
що там насправді відбувається.
13:03
The thing, though, I think most about these systems
285
783970
2968
На мою думку, справа в тому, що більшість цих систем,
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
як я сподіваюсь, не відноситься до Ютубу.
13:10
It's about everything.
287
790843
1312
Вони стосуються всього.
13:12
These issues of accountability and agency,
288
792179
2444
Проблеми відповідальності та організації,
13:14
of opacity and complexity,
289
794647
2225
непрозорості та складності,
13:16
of the violence and exploitation that inherently results
290
796896
3177
насилля та експлуатації незворотньо приводить
від концентрації влади у кількох руках
13:20
from the concentration of power in a few hands --
291
800097
2794
13:22
these are much, much larger issues.
292
802915
2579
до набагато, набагато більших проблем.
Це проблеми не тільки Ютубу і не технологій в цілому,
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
вони навіть не нові.
13:30
and they're not even new.
294
810106
1265
13:31
They've been with us for ages.
295
811395
1461
Вони віками були з нами.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Та врешті, ми створили цю систему — глобальну систему, Інтернет,
яка фактично показує їх нам цим екстраординарним шляхом,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
13:40
making them undeniable.
298
820337
1547
роблячи їх незапаречними.
13:41
Technology has this extraordinary capacity
299
821908
2820
У технологій є ця екстраординарна здатність
13:44
to both instantiate and continue
300
824752
3973
як показувати приклад, так і грати
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
на наших найприхованіших бажаннях та упередженнях
та розкодовувати їх для світу,
13:53
and encoding them into the world,
302
833021
1866
13:54
but it also writes them down so that we can see them,
303
834911
3474
а також записувати їх, щоб ми змогли їх побачити,
щоб ми не могли прикидатися, ніби їх не існує.
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Нам потрібно припинити вважати технологіїї вирішенням всіх наших проблем,
і почати вважати їх гідом до наших справжніх проблем,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
14:09
so we can start thinking about them properly
307
849887
2144
щоб ми почали відповідно думати про них
14:12
and start to address them.
308
852055
1766
і почали їх вирішувати.
14:13
Thank you very much.
309
853845
1335
Дуже дякую.
14:15
(Applause)
310
855204
5192
(Оплески)
14:21
Thank you.
311
861733
1188
Дякую.
14:22
(Applause)
312
862945
2869
(Оплески)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Хелен Волтерс: Джеймсе, дякую тобі за цю цікаву промову.
Це дуже цікаво:
14:32
So it's interesting:
314
872041
1189
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
коли ти думаєш про фільми, у яких перемогли роботичні надрозуми,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
це виглядає більш гламурно, ніж ти щойно описав.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Але мені цікаво — в тих фільмах присутній опір.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
А чи можна запобігти цьому контенту?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Ти бачиш якісь позитивні знаки оживлення опору?
Джеймс Брідл: Я нічого не знаю про прямий опір,
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
14:54
because I think this stuff is super long-term.
321
894947
2264
бо вважаю, що цей контент супердовготривалий.
Думаю, це стало дуже поглибленою культурою.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Мій друг, Елеанор Саїтта, завжди говорить,
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
що будь-які технологічні проблеми у широкому спектрі та ракурсі
15:05
are political problems first of all.
325
905568
2267
перш за все, є політичними проблемами.
15:07
So all of these things we're working to address within this
326
907859
2785
Тож всі ці проблеми, над якими ми працюємо та вирішуємо,
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
не будуть вирішуватися самим лише покращенням технологій,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
а зміною суспільства, яке створює ці технології.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Тож прямо зараз, я вважаю, що у нас до чорта довгий шлях.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Як я говорив, розпакувавши їх,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
пояснивши їх, відверто поговоривши про них,
ми по-справжньому зможемо хоча б розпочати цей процес.
15:25
we can actually start to at least begin that process.
332
925236
2505
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
Х.В.: Ти говорив про зручність та про цифрову грамотність.
Мені важко уявити,
15:31
I find it difficult to imagine
334
931351
1591
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
що нам потрібно місце, де самі користувачі будуть нести тягар цифрової грамотності.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Але хто буде відповідальним за це у цьому новому світі?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
Д.Б.: Знову, думаю, ця відповідальність залежить від усіх нас,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
все що ми робимо, будуємо, створюємо,
15:47
needs to be made in a consensual discussion
339
947900
3692
повинно створюватися в координованій дискусії,
15:51
with everyone who's avoiding it;
340
951616
1940
із кожним, хто цього уникає;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
ми не будемо перероблювати системи, які обманним чином залучатимуть людей
15:57
into doing the right thing,
342
957945
2300
до чогось хорошого,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
але вони залучені у кожний крок освіти,
16:03
because each of these systems is educational.
344
963529
2278
бо кожна із цих систем є освітньою.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Саме тому я маю сподівання і на цей похмурий контент,
16:08
that if you can take it and look at it properly,
346
968957
2262
якщо ви поглянете на нього під правильним кутом,
16:11
it's actually in itself a piece of education
347
971243
2089
то, саме по собі, це і є частиною освіти,
яка дозволить вам почати бачити комплексні системи за роботою
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
і, можливо, дасть змогу застосовувати ці знання в іншому місці.
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
Х.В.: Джеймсе, це така важлива дискусія,
16:20
HW: James, it's such an important discussion,
350
980667
2115
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
і я знаю, що багато присутніх тут дійсно відкриті та готові до неї,
тож дякую тобі за її початок сьогодні.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
Д.Б.: Дуже дякую. Дякую.
(Оплески)
16:29
(Applause)
354
989364
1651
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7