The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Irena Djourelova Reviewer: Yavor Ivanov
00:12
I'm James.
0
12777
1183
Аз съм Джеймс.
00:13
I'm a writer and artist,
1
13984
1686
Аз съм писател и творец,
00:15
and I make work about technology.
2
15694
2341
и създавам работи, свързани с технологиите.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Аз правя неща като да рисувам очертания в реален размер на военни самолети
00:22
in city streets around the world,
4
22389
1828
върху градските улици по света,
00:24
so that people can start to think and get their heads around
5
24241
2950
за да хората започнат да мислят и да поразмишляват
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
за тези доста трудно видими и доста трудни за обмисляне технологии.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Аз правя неща като невронни комютърни мрежи,
които предвиждат резултатите от изборите
00:35
based on weather reports,
8
35354
1737
въз основа на прогнози за времето,
00:37
because I'm intrigued about
9
37115
1314
защото съм заинтругуван
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
какви са реалните възможности на тези странни нови технологии.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Миналата година създадох моя собствена самокараща се кола.
00:45
But because I don't really trust technology,
12
45855
2526
Но понеже не вярвам много на технологиите,
00:48
I also designed a trap for it.
13
48405
1928
аз ѝ устроих и капан.
00:50
(Laughter)
14
50777
1086
(Смях)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
И правя тези неща, предимно защото ги намирам за напълно завладяващи,
00:56
but also because I think when we talk about technology,
16
56209
2602
но също защото мисля, че когато говорим за технологии,
00:58
we're largely talking about ourselves
17
58835
2619
ние говорим до голяма степен говорим за нас
01:01
and the way that we understand the world.
18
61478
2299
и за начина, по който разбираме света.
01:03
So here's a story about technology.
19
63801
2442
И така, ето една история, свързана с технологиите.
01:07
This is a "surprise egg" video.
20
67520
2830
Това е видео за "яйца-изненада".
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
В общи линии това е видео, в което някой отваря много шоколадови яйца
01:13
and showing the toys inside to the viewer.
22
73746
2126
и показва на зрителите играчките вътре.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Това е.
Това е всичко, което се случва за седем дълги минути.
01:19
And I want you to notice two things about this.
24
79428
3051
И искам да забележете две неща относно това.
01:22
First of all, this video has 30 million views.
25
82503
4074
Първо, това видео има 30 милиона гледания.
01:26
(Laughter)
26
86601
1275
(Смях)
01:28
And the other thing is,
27
88376
1166
А другото нещо е,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
че идва от канал, който има 6.3 милиона редовни зрители,
01:33
that has a total of eight billion views,
29
93459
2680
който има сумарно 8 билиона гледания,
01:36
and it's all just more videos like this --
30
96163
3106
и всичките те са просто на още видеа като това -
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 милиона души гледат някакъв тип, който отваря такива яйца.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Звучи доста странно, но ако потърсите "яйца-изненада" в Ютуб,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
ще ви покаже, че има 10 милиона от тези видеа.
01:52
and I think that's an undercount.
34
112240
1657
И мисля, че подценявам бройката.
01:53
I think there's way, way more of these.
35
113921
1897
Мисля, че има доста, доста повече от тези.
01:55
If you keep searching, they're endless.
36
115842
2242
Ако продължите да търсите, те ще са безкрайни.
01:58
There's millions and millions of these videos
37
118108
2159
Има милиони, и милиони от тези видеа
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
в покачващо се барокови комбинации от брандове и материали,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
и има все повече, и повече от тях, които биват качвани всеки един ден.
02:07
Like, this is a strange world. Right?
40
127639
3511
Това е странен свят, нали?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Но въпросът е, че не възрастните са тези, които гледат подобни видеа.
02:14
It's kids, small children.
42
134581
2921
Това са децата, малките деца.
02:17
These videos are like crack for little kids.
43
137526
2154
Тези видеа са като наркотик за малки деца.
02:19
There's something about the repetition,
44
139704
2075
Има нещо в повторението,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
в постоянната малка доза допамин при разкриването,
02:24
that completely hooks them in.
46
144295
1866
което изцяло ги пристрастява.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
И малките деца гледат тези видеа отново, и отново, и отново,
02:31
and they do it for hours and hours and hours.
48
151018
2327
и го правят за часове, и часове, и часове.
02:33
And if you try and take the screen away from them,
49
153369
2356
И ако се опиташ да им да им отнемеш екрана,
02:35
they'll scream and scream and scream.
50
155749
1782
те ще крещят, и ще крещят, и ще крещят.
02:37
If you don't believe me --
51
157555
1262
Ако не ми вярвате,
02:38
and I've already seen people in the audience nodding --
52
158841
2607
а вече видях хора в публиката да кимат,
ако не ми вярвате, намерете някого с малко дете и го попитайте,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
и ще знае за видеата с яйца-изненада.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
Ето къде започваме.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
2018-та година сме и някой или пък много хора
използват същия механизъм, който Фейсбук и Инстаграм използват,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
02:56
to get you to keep checking that app,
58
176976
1989
за да ви накарат да проверявате постоянно апликациите им,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
а те го използват в Ютуб,
за да хакнат мозъците на много малки деца,
03:02
in return for advertising revenue.
60
182998
1958
за да получат в замяна печалба от реклами.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Поне, надявам се, че това правят.
03:08
I hope that's what they're doing it for,
62
188371
1955
Надявам се, че затова го правят,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
защото има по-лесни начини да печелиш от реклами в Ютуб.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Можеш да си измисляш неща или да крадеш неща.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Ако потърсите наистина популярни анимационни,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
като "Пепа Прасето" или "Отряд на лапи",
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
ще намерите милиони, и милиони и от тези видеа онлайн.
Разбира се, по-голямата част от тях
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
не са публикувани от оригиналните им създатели.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Те идват от много, много различни случайни акаунти
03:31
and it's impossible to know who's posting them
70
211945
2240
и е невъзможно да разбереш кой ги публикува
03:34
or what their motives might be.
71
214209
1822
или какви могат да са техните мотиви.
03:36
Does that sound kind of familiar?
72
216428
1930
Звучи ли ви познато?
03:38
Because it's exactly the same mechanism
73
218382
1980
Това е, защото същият механизъм
03:40
that's happening across most of our digital services,
74
220386
2600
се прилага върху повечето от нашите дигатални услуги,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
където е невъзможно да разбереш откъде идва тази информация.
03:46
It's basically fake news for kids,
76
226241
1829
Общо взето, това са фалшиви новини за деца,
03:48
and we're training them from birth
77
228094
2161
а ние ги обучаваме от раждането им
03:50
to click on the very first link that comes along,
78
230279
2506
да кликат върху първия линк, който видят,
03:52
regardless of what the source is.
79
232809
1953
независимо от какъв източник идва той.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Това не изглежда като невероятно добра идея.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Ето още нещо, което е много популярно в детския Ютуб.
То е наречено "Песента на семейство Пръсти",
04:01
This is called the "Finger Family Song."
82
241133
1928
и отново дочух някой да изохква в публиката,
04:03
I just heard someone groan in the audience.
83
243085
2018
04:05
This is the "Finger Family Song."
84
245127
1624
това е "Песента на семейство Пръсти".
04:06
This is the very first one I could find.
85
246775
1930
Това е първата, която успях да намеря.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Тя е от 2007-ма и има само 200 000 гледания,
04:11
which is, like, nothing in this game.
87
251582
1976
което е общо взето нищo в тази игра.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Но има безумно паразитна мелодия,
04:16
which I'm not going to play to you,
89
256458
1682
която няма да ви пускам,
04:18
because it will sear itself into your brain
90
258164
2008
защото ще се притъпи в мозъците ви
04:20
in the same way that it seared itself into mine,
91
260196
2395
по същия начин, по който се притъпи в моя,
04:22
and I'm not going to do that to you.
92
262615
1770
и аз няма да ви го причиня.
04:24
But like the surprise eggs,
93
264409
1344
Но също като яйцата-изненада,
04:25
it's got inside kids' heads
94
265777
2164
тя е влязла в главите на децата
04:27
and addicted them to it.
95
267965
1607
и те са пристрастени към нея.
04:29
So within a few years, these finger family videos
96
269596
2531
И така, след няколко години тези видеа за семейства пръсти
04:32
start appearing everywhere,
97
272151
1303
започват да се появяват навсякъде
04:33
and you get versions in different languages
98
273478
2029
и сега има версии на различни езици,
04:35
with popular kids' cartoons using food
99
275531
2121
с популярни анимационни, използвайки храна
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
или честно казано с кавито и да е анимационни елементи
04:40
you seem to have lying around.
101
280250
2252
си намерите около вас.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
И отново - има милиони, и милиони, и милиони от тези видеа,
04:48
available online in all of these kind of insane combinations.
103
288223
3435
достъпни онлайн във всичките тези налудничеви комбинации.
04:51
And the more time you start to spend with them,
104
291682
2228
И колкото повече време прекарвате с тях,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
толкова по-луди, и луди
започвате да чувствате, че вероятно сте.
04:57
And that's where I kind of launched into this,
106
297652
3333
И горе-долу така попаднах на това.
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
На това чувство на дълбока странност и на липса на разбиране
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
за това как това нещо е конструирано и съществува покрай мен.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Защото е невъзможно да знаеш откъде идват тези неща.
Като например, кой ги прави?
05:12
Like, who is making them?
110
312089
1241
Някои от тях изглежда, че са направени от екип от професионални аниматори.
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Някои от тях са случайно сглобени от софтуер.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Някои изглеждат като благотворни развлечения за малки деца.
05:23
And some of them are from people
114
323704
1552
А други са направни от хора,
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
които очевидно не трябва въобще да стоят около деца.
(Смях)
05:28
(Laughter)
116
328311
1615
Нали?
И ...
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Отново се връщаме на тази невъзможност
да разберем кой създава тези неща.
05:35
like, this is a bot?
118
335651
1156
Дали е робот?
05:36
Is this a person? Is this a troll?
119
336831
2647
Дали е човек?
Дали е интернет трол?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Какво означава, че вече не правим разликата
05:41
between these things anymore?
121
341908
1583
между всички тези неща?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
И отново, това чувство за несигурност не ни ли е познато в момента?
05:50
So the main way people get views on their videos --
123
350145
2580
Основният начин, по който хората получават гледания е,
05:52
and remember, views mean money --
124
352749
1707
запомнете, гледанията означават пари,
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
че те наблъскват заглавията на видеата с популярни термини,
05:59
So you take, like, "surprise eggs"
126
359246
1687
Взимате "яйца-изненада", например,
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
и след това добавяте "Отряд на лапи", "Великденски яйца"
или кавито и да са тези неща,
06:03
or whatever these things are,
128
363047
1393
06:04
all of these words from other popular videos into your title,
129
364464
2893
всичките тези думи от други популярни видеа в заглавието,
и така получавате този вид безмислена синтактична каша,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
06:10
that doesn't make sense to humans at all.
131
370373
2498
която въобще няма логика за хората.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Защото, разбира се, само мъничките деца гледат видеата,
06:16
and what the hell do they know?
133
376465
1827
а какво, по дяволите, разбират те?
06:18
Your real audience for this stuff is software.
134
378316
3007
Истинската аудитория за тези неща е софтуерът.
06:21
It's the algorithms.
135
381347
1156
Това са алгоритмите.
06:22
It's the software that YouTube uses
136
382527
1855
Това е софтуерът, който Ютуб използва,
06:24
to select which videos are like other videos,
137
384406
2483
за да избере кои видеа наподобяват други видеа,
06:26
to make them popular, to make them recommended.
138
386913
2243
за да ги направи популярни, за да ги препоръча.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
И ето защо резултатът е тази, общо взето, безмислена каша,
06:32
both of title and of content.
140
392665
2071
както в заглавието, така и в съдържанието.
06:35
But the thing is, you have to remember,
141
395792
1894
Но въпросът е, че трябва да запомните,
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
че хората реално са част
от тази алгоритмично оптимизирана система,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
хора, които стават все по-принудени да извършат
06:45
these increasingly bizarre combinations of words,
144
405026
3066
тези все по-странни комбинации от думи
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
като отчаян творец-импровизатор,
който отговаря на комбинацията от викове
06:53
of a million toddlers at once.
146
413313
2203
на милиони малки деца наведнъж.
06:57
There are real people trapped within these systems,
147
417168
2468
Има истински хора в капана на тези системи.
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
И това е другото дълбоко странно нещо,
в тази култура, водена от алгоритмите,
07:03
because even if you're human,
149
423739
1381
че дори и да си човек,
трябва да се държиш като машина
07:05
you have to end up behaving like a machine
150
425144
2145
07:07
just to survive.
151
427313
1800
само за да оцелееш.
07:09
And also, on the other side of the screen,
152
429137
2100
Освен това, от другата страна на екрана
07:11
there still are these little kids watching this stuff,
153
431261
2947
все още стоят тези малки деца и гледат тези неща -
приклещени.
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
Цялото им внимание е заграбено от тези странни механизми.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
И повечето от тези деца са прекалено малки дори да ползват уебсайтове.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Те просто удрят по екраните с техните малки ръчички.
07:24
And so there's autoplay,
157
444890
1217
Има и автоматично пускане,
което просто пуска тези видеа отново, и отново, и отново...
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
07:29
endlessly for hours and hours at a time.
159
449734
2059
безкрайно - за часове, и часове наведнъж.
07:31
And there's so much weirdness in the system now
160
451817
2843
Има толкова много странности в сегашната система,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
че автоматичното пускане те води на доста странни места.
07:37
This is how, within a dozen steps,
162
457717
2488
Затова с дузина стъпки,
07:40
you can go from a cute video of a counting train
163
460229
3158
можете да започнете от сладко видео с броящ влак
07:43
to masturbating Mickey Mouse.
164
463411
2442
до мастурбиращ Мики Маус.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Да, съжалавам, за което.
07:48
This does get worse.
166
468841
1700
И става все по-зле.
07:50
This is what happens
167
470565
1282
Това се случва,
07:51
when all of these different keywords,
168
471871
3086
когато всички тези различни ключови думи,
07:54
all these different pieces of attention,
169
474981
2461
всички тези различни парчета внимание,
07:57
this desperate generation of content,
170
477466
2807
това отчайващо поколение от съдържание,
08:00
all comes together into a single place.
171
480297
2582
се съберат на едно единствено място.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Това е там, където тези дълбоко странни ключови думи
се прибират да си починат.
08:08
You cross-breed the finger family video
173
488367
2391
Ако кръстосаш видеото за семейство Пръсти
08:10
with some live-action superhero stuff,
174
490782
2088
с някакви неща за екшън супергерои,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
добавиш странна тролска вътрешна шега или нещо,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
изведнъж, ще отидеш на много странно място, определено.
08:19
The stuff that tends to upset parents
177
499564
2113
Нещата, които изглежда, че разстройват родителите
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
са тези с агресивно или сексуално съдържание, нали?
Детските герои са нападани,
08:25
Children's cartoons getting assaulted,
179
505056
2822
08:27
getting killed,
180
507902
2018
убивани,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
подлежат на странни шеги, които искрено ужасяват децата.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Това, което имаме, е софтуер, който събира всичките различни влияния,
за да генерира автоматично най-ужасяващите детски кошмари.
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
08:39
And this stuff really, really does affect small children.
184
519995
2701
А тези неща наистина, наистина оказват влияние върху малките деца.
08:42
Parents report their children being traumatized,
185
522720
2866
Родителите докладват, че децата им са травматизирани,
08:45
becoming afraid of the dark,
186
525610
1392
започват да се страхуват от тъмното,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
започват да е страхуват от техните любими анимационни герои.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Ако си вземете една поука, нека бъде, че ако имате малки деца,
дръжте ги далеч от Ютуб, по дяволите.
08:54
keep them the hell away from YouTube.
189
534159
1996
08:56
(Applause)
190
536743
3949
(Аплодисменти)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Но другото нещо, което ме притеснява е,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
че не съм сигурен, че разбираме как стигнахме до този етап.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Взели сме цялото това влияние, всичките тези неща,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
и сме ги групирали заедно по начин, който никой не е предвидил.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
И все пак, това е същия начин, по който ние конструираме света.
09:20
We're taking all of this data,
196
560063
1773
Става дума за всичките тези данни,
09:21
a lot of it bad data,
197
561860
1447
много некачествени данни,
09:23
a lot of historical data full of prejudice,
198
563331
3029
много остарели данни, пълни с предразсъдъци,
09:26
full of all of our worst impulses of history,
199
566384
2837
пълни с нашите най-лоши импулси в историята,
09:29
and we're building that into huge data sets
200
569245
2049
и ги изграждаме в огромни набори от данни
09:31
and then we're automating it.
201
571318
1423
а след това ги автоматизираме.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Сглобяваме ги заедно в неща като кредитни доклади,
09:36
into insurance premiums,
203
576291
1634
застрахователни премии,
09:37
into things like predictive policing systems,
204
577949
2693
в неща като превантивни полицейски системи,
09:40
into sentencing guidelines.
205
580666
1762
като насоки за издаване на присъди.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Това е начинът, по който изграждаме светът днес,
09:45
out of this data.
207
585297
1151
чрез тези данни.
09:46
And I don't know what's worse,
208
586472
1698
И не знам кое е по-лошото -
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
че сме изградили система, която е изцяло оптимизирана за
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
най-ужасните аспекти на човешкото поведение
09:54
or that we seem to have done it by accident,
211
594278
2425
или че изглежда, че сме го направили по случайност
09:56
without even realizing that we were doing it,
212
596727
2207
без дори да осъзнаваме какво вършим,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
защото ние не разбираме съвсем системите, които изграждаме,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
не разбираме изцяло как да направим нещо различно с тях.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Мисля, че има няколко неща, които изглежда подклаждат това
10:10
most fully on YouTube,
216
610158
1189
предимно в Ютуб.
10:11
and the first of those is advertising,
217
611371
1827
Първото е рекламата,
10:13
which is the monetization of attention
218
613222
2837
което е монетизация на внимание
10:16
without any real other variables at work,
219
616083
3136
без да се взимат предвид други реални фактори,
10:19
any care for the people who are actually developing this content,
220
619243
3885
без грижа за хората, които всъщност създават това съдържание,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
централизацията на правомощията или разграничаването на тези неща.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Мисля, че както и да се чувствате спрямо използването на реклама
10:29
to kind of support stuff,
223
629980
1238
за вид подкрепа на работи,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
гледката на зрели мъже в памперси, които се въргалят в пясъка
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
с надеждата, че алгоритъм, който не разбират съвсем,
10:37
will give them money for it
226
637340
1315
ще им донесе пари,
10:38
suggests that this probably isn't the thing
227
638679
2037
предполага, че най-вероятно това не е нещото,
10:40
that we should be basing our society and culture upon,
228
640740
2563
на което трябва да основем обществото и културата си,
10:43
and the way in which we should be funding it.
229
643327
2160
и начинът, по който да я спонсорираме.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Другото нещо, което е може би най-значимият двигател на това
е автоматизацията,
10:49
which is the deployment of all of this technology
231
649054
2329
което е внедряването на цялата тази технология
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
веднага щом е създадена, без никакви предпазни мерки.
10:53
and then once it's out there,
233
653952
1412
Щом веднъж вече се ползва,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
си вдигаме ръцете във въздуха и казваме: "Хей, не бяхме ние - беше технологията."
10:59
Like, "We're not involved in it."
235
659255
1642
Тип: "Ние не сме замесени".
11:00
That's not really good enough,
236
660921
1767
Това съвсем не е достатъчно,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
защото тези неща не просто се оправляват с алгоритми,
11:05
it's also algorithmically policed.
238
665446
2498
но също се следят с алгоритми.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Когато Ютуб започна да обръща внимание на това,
11:10
the first thing they said they'd do about it
240
670840
2087
първото нещо, което казаха, че ще направят,
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
беше да внедрят по-добри системи за самообучение,
11:15
to moderate the content.
242
675670
1329
за да модерират съдържанието.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Машинното самообучение, както всеки експерт би ви казал,
11:20
is basically what we've started to call
244
680532
1896
е общо взето е това, което сме започнали да наричаме
11:22
software that we don't really understand how it works.
245
682452
2588
софтуера, който не разбираме съвсем как работи.
11:25
And I think we have enough of that already.
246
685064
3983
Но мисля, че вече ни е омръзнало от това.
Не трябва да оставяме изкуственият интелект да решава
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
11:32
what's appropriate or not,
248
692261
1251
какво е подходящо и какво не е,
11:33
because we know what happens.
249
693536
1436
защото знаем какво ще се случи.
11:34
It'll start censoring other things.
250
694996
1688
Ще започне да цензурира други работи.
11:36
It'll start censoring queer content.
251
696708
1783
Ще започне да цензурира хомосексуално съдържание.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
Ще започне да цензурира законната публична реч.
11:40
What's allowed in these discourses,
253
700776
1925
Това, което е позволено в тези беседи,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
не трябва да бъде нещо, което зависи от необясними системи.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Това е част от дискусията, която всеки от нас трябва да води.
11:48
But I'd leave a reminder
256
708817
1308
Но ще ви напомня,
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
че алтернативата също не е много приятна.
11:52
YouTube also announced recently
258
712926
1535
Ютуб анонсира наскоро също,
11:54
that they're going to release a version of their kids' app
259
714485
2767
че те ще издадат версия на тяхната апликация за деца,
11:57
that would be entirely moderated by humans.
260
717276
2407
която ще е изцяло модерирана от хора.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Фейсбук, Зъкърбърг каза горе-долу същото нещо на конгреса,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
когато го притиснаха за това как ще модерират нещата си.
12:06
He said they'd have humans doing it.
263
726787
1747
Той каза, че ще назначат хора да го правят.
12:08
And what that really means is,
264
728558
1459
Това, което всъщност означава това е,
че вместо малките деца да са първите хора, които гледат тези неща,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
ще има нисколатени случайни контрактори
без подходяща подкрепа за психичното им здраве,
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
които също ще бъдат повредени от тях.
12:19
(Laughter)
269
739250
1096
(Смях)
Мисля, че всички ние можем да се справим доста по-добре от това.
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
12:22
(Applause)
271
742995
2499
(Аплодисменти)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Според мен идеята, която събира тези две неща заедно,
за мен наистина е посредничеството.
12:30
is agency.
273
750705
1420
Колко всъщност наистина разбираме ние от посредничеството?
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Имам предвид -
12:35
how we know how to act in our own best interests.
275
755330
4390
как разбираме, че работим за нашите най-добри интереси,
12:39
Which -- it's almost impossible to do
276
759744
1787
което е почти невъзможно да се направи
12:41
in these systems that we don't really fully understand.
277
761555
3485
в тези системи, които не разбираме изцяло.
12:45
Inequality of power always leads to violence.
278
765064
3071
Неравнството в правомощията винаги води до насилие.
12:48
And we can see inside these systems
279
768159
1685
А в тези системи можем да видим,
12:49
that inequality of understanding does the same thing.
280
769868
2611
че неравенството в разбирането прави същото нещо.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Има едно нещо, което може да направим,
за да започнем да подобряваме тези системи,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
това е да ги направим по-разбираеми за хората, които ги ползват,
12:59
so that all of us have a common understanding
283
779048
2196
за да може всички ние да имаме обща култура
13:01
of what's actually going on here.
284
781268
1851
за това, което всъщност наистина се случва тук.
13:03
The thing, though, I think most about these systems
285
783970
2968
Обаче това, за което мисля предимно за повечето от тези системи, е
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
(както се надявам вече поясних), че това не е свързано само с Ютуб.
13:10
It's about everything.
287
790843
1312
Става дума за всичко.
13:12
These issues of accountability and agency,
288
792179
2444
Тези проблеми с отговорността и посредничеството,
13:14
of opacity and complexity,
289
794647
2225
с неяснотата и сложността,
13:16
of the violence and exploitation that inherently results
290
796896
3177
с насилието и експлоатацията, които по своята същност произтичат
13:20
from the concentration of power in a few hands --
291
800097
2794
от концентрацията на правомощие в ръцете на малцина -
13:22
these are much, much larger issues.
292
802915
2579
това са много, много по-големи проблеми.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
И това не са само проблемите на Ютуб, и не само на технологиите като цяло,
13:30
and they're not even new.
294
810106
1265
а дори не са нови.
13:31
They've been with us for ages.
295
811395
1461
Те са с нас от години.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Но най-накрая изработихме тази глобална система, интернетът,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
която ни ги показа по този невероятен начин,
13:40
making them undeniable.
298
820337
1547
който ги прави неоспорими.
13:41
Technology has this extraordinary capacity
299
821908
2820
Технологията има невероятения потенциал
13:44
to both instantiate and continue
300
824752
3973
едновременно да ни покаже нагледно и да продължи
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
всички наши най-невероятни, често прикривани желания и предразсъдъци
13:53
and encoding them into the world,
302
833021
1866
и да ги внедри в света,
13:54
but it also writes them down so that we can see them,
303
834911
3474
но и да ги запише така, че да можем да ги видим,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
за да не можем да се преструваме повече, че те не съществуват.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Трябва да спрем да мислим за технологиите като за решение на всичките ни проблеми,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
а да мислим за тях като пътеводител
към това какво представляват тези проблеми,
14:09
so we can start thinking about them properly
307
849887
2144
за да можем да започнем да мислим за тях подобаващо
14:12
and start to address them.
308
852055
1766
и да започнем да ги адресираме.
14:13
Thank you very much.
309
853845
1335
Благодаря ви много.
14:15
(Applause)
310
855204
5192
(Аплодисменти)
14:21
Thank you.
311
861733
1188
Благодаря.
14:22
(Applause)
312
862945
2869
(Аплодисменти)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Хелън Уолтърс: Джеймс, благодаря ти, че дойде, за да ни представиш тази реч.
Толкова е интересно,
14:32
So it's interesting:
314
872041
1189
когато се замислиш за филмите, където множество роботи ни завземат,
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
изглежда малко по-ефектно, отколкото това, което ти обясняваш.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Но се чудя, в тези филми съпротивата обикновено се надига.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Има ли съпротива, която се надига срещу тези неща?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Виждаш ли положителни знаци, зелени изстрели от съпротивата?
Джеймс Брайдъл: Не знам за директна съпротива,
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
14:54
because I think this stuff is super long-term.
321
894947
2264
защото мисля, че тези неща са много дълготрайни.
Мисля, че са внедрени в културата ни по много дълбоки начини.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Една моя приятелка, Елеонор Саита, винаги казва,
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
че всеки технологичен проблем със задоволитен мащаб и досег
15:05
are political problems first of all.
325
905568
2267
е преди всичко политически проблем.
15:07
So all of these things we're working to address within this
326
907859
2785
Така че всичко, върху което работим, за да адресираме това,
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
няма да се разрешат чрез изграждането на по-добра технология,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
а всъщност като променим обществото, което създава въпросните технологии.
Така че - не, за момента мисля, че имаме дяволски дълъг път за изминаване.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
15:20
But as I said, I think by unpacking them,
330
920505
1986
Но, както казах, като ги разнищим,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
като ги обясним, като говорим за тях супер честно,
така поне можем да започнем процеса.
15:25
we can actually start to at least begin that process.
332
925236
2505
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
Хелън Уолтърс: Когато говориш за честливост и дигитална грамотност,
15:31
I find it difficult to imagine
334
931351
1591
аз намирам за трудно да си представя,
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
че трябва да поставим бремето на грамотността върху самите потребители.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Но чия е отговорността за образование в този нов свят?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
Джеймс Брайдъл: Отново, мисля, че отговорността е на всички нас,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
че всичко, което правим, което градим, което създаваме,
15:47
needs to be made in a consensual discussion
339
947900
3692
трябва да бъде направено в дискусия по взаимно съгласие
15:51
with everyone who's avoiding it;
340
951616
1940
между всички, които я избягват;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
че не изграждаме системи, предназначени да излъжат или изненадат хората,
15:57
into doing the right thing,
342
957945
2300
за да вършат правилното нещо,
а те да са включени във всяка стъпка в образоването им,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
16:03
because each of these systems is educational.
344
963529
2278
защото всяка от тези системи е образователна.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
На това се надявам дори спрямо тези наистина мрачни работи,
16:08
that if you can take it and look at it properly,
346
968957
2262
че ако ги вземеш и ги разгледаш добре,
ще видиш в тях парче образование,
16:11
it's actually in itself a piece of education
347
971243
2089
което позволява да започнем да виждаме как сложни системи са събрани и работят
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
и може би да приложим това знание някъде другаде в света.
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
16:20
HW: James, it's such an important discussion,
350
980667
2115
Хелън Уолтърс: Джеймс, това е толква важна дискусия
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
и знам, че има много хора тук са отворени и подготвени да се включат,
така че благодаря, че откри сутринта ни.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
Джеймс Брайдъл: Благодаря много за поканата. Поздрави!
(Аплодисменти)
16:29
(Applause)
354
989364
1651
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7