The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Ве молиме кликнете двапати на англискиот титл подолу за да го репродуцирате видеото.

Translator: Dijana Markoska Reviewer: Julia Kalaputi
00:12
I'm James.
0
12777
1183
Јас сум Џејмс.
00:13
I'm a writer and artist,
1
13984
1686
Јас сум писател и уметник
00:15
and I make work about technology.
2
15694
2341
и творам на тема технологија.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
На пример, цртам контури на воени дронови во реална големина
00:22
in city streets around the world,
4
22389
1828
над градските улици ширум светот,
00:24
so that people can start to think and get their heads around
5
24241
2950
со цел луѓето да почнат да размислуваат и да ги разберат
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
овие технологии кои навистина е тешко да се видат и да се сфатат.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Изработувам, на пример,невронски мрежи кои предвидуваат резултати
00:35
based on weather reports,
8
35354
1737
врз основа на временска прогрноза,
00:37
because I'm intrigued about
9
37115
1314
бидејќи ме интересираат
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
сите реаални можности кои ги нудат овие нови и чудни технологии.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Лани си направив сопствен самовозечки автомобил.
00:45
But because I don't really trust technology,
12
45855
2526
Но бидејќи не ѝ верувам сосема на технологијата,
00:48
I also designed a trap for it.
13
48405
1928
креирав и стапица за неа.
00:50
(Laughter)
14
50777
1086
(смеа)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
И ги правам овие работи, пред сѐ, затоа што сметам дека се чудесни
00:56
but also because I think when we talk about technology,
16
56209
2602
но исто така бидејќи, мислам, кога зборуваме за технологија,
00:58
we're largely talking about ourselves
17
58835
2619
во голема мера зборуваме за себе
01:01
and the way that we understand the world.
18
61478
2299
и за начинот на кој го разбираме светот.
01:03
So here's a story about technology.
19
63801
2442
Па, еве една приказна за технологијата.
01:07
This is a "surprise egg" video.
20
67520
2830
Ова е видео со „киндер јајца“.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Во суштина тоа е видео во кое некој отвора еден куп чололадни јајца
01:13
and showing the toys inside to the viewer.
22
73746
2126
и ги покажува играчките кои ги наоѓа во нив.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Толку. Само тоа се случува цели долги седум минути.
01:19
And I want you to notice two things about this.
24
79428
3051
И сакам да забележите две работи во врска со тоа.
01:22
First of all, this video has 30 million views.
25
82503
4074
Прво, ова видео има 30 милиони прегледи.
01:26
(Laughter)
26
86601
1275
(смеа)
01:28
And the other thing is,
27
88376
1166
А втората работа е,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
доаѓа од канал кој има 6,3 милиони претплатници,
01:33
that has a total of eight billion views,
29
93459
2680
кој има вкупно 8 милијарди прегледи,
01:36
and it's all just more videos like this --
30
96163
3106
и тоа исти вакви видеа --
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 милиони луѓе кои гледаат како некој тип ги отвора овие јајца.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Звучи чудно, но ако пребарувате „киндер јајца" нa Јутјуб,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
ќе видите дека постојат 10 милиони вакви видеа,
01:52
and I think that's an undercount.
34
112240
1657
во најмала рака.
01:53
I think there's way, way more of these.
35
113921
1897
Мислам дека има многу, многу повеќе.
01:55
If you keep searching, they're endless.
36
115842
2242
Ако продолжите да барате, им нема крај.
01:58
There's millions and millions of these videos
37
118108
2159
Има милиони вакви видеа,
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
во сѐ побарокни комбинации на брендови и материјали,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
и сѐ повеќе и повеќе од нив се прикачуваат секој ден.
02:07
Like, this is a strange world. Right?
40
127639
3511
Нели е ова чуден свет?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Но, не се возрасните тие кои што ги гледаат овие видеа.
02:14
It's kids, small children.
42
134581
2921
Тоа се децата, малите деца.
02:17
These videos are like crack for little kids.
43
137526
2154
Овие видеа се како дрога за малите деца.
02:19
There's something about the repetition,
44
139704
2075
Има нешто во тоа повторување,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
во постојаната доза на допамин при откривањето,
02:24
that completely hooks them in.
46
144295
1866
што целосно ги навлекува.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
И мaлите деца ги гледаат овие видеа пак и пак и пак,
02:31
and they do it for hours and hours and hours.
48
151018
2327
и го прават тоа со часови, и часови, и часови.
02:33
And if you try and take the screen away from them,
49
153369
2356
И ако се обидете да ги оттргнете од екранот,
02:35
they'll scream and scream and scream.
50
155749
1782
тие ќе вриштат и вриштат, и вриштат.
02:37
If you don't believe me --
51
157555
1262
Ако не ми верувате --
02:38
and I've already seen people in the audience nodding --
52
158841
2607
а забележав некои од вас во публиката дека климаат --
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
ако не ми верувате, најдете некои со мали деца и прашајте ги,
02:44
and they'll know about the surprise egg videos.
54
164887
2340
и тие ќе знаат за видеата со киндер јајца.
02:47
So this is where we start.
55
167251
2070
Па, тука започнуваме.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
2018 година е, некој, или многу луѓе,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
го користат истиот механизам којшто го користат Фејсбук и Инстаграм
02:56
to get you to keep checking that app,
58
176976
1989
да ве наведат постојано да ги проверувате,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
и го применуваат на YouTube за да ги хакираат мозоците на многу мали деца
03:02
in return for advertising revenue.
60
182998
1958
со цел да остварат приходи од реклами.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Барем, се надевам дека тоа го прават.
03:08
I hope that's what they're doing it for,
62
188371
1955
Се надевам дека заради тоа го прават,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
бидејќи има и полесни начини да се оствари приход од реклами на YouTube.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Можете и да измислувате работи, или да крадете.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Ако пребарувате навистина познати детски цртани:
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
"Прасето Пепа", "Патрола на Кутриња“,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
ќе дознаете дека и нив ги има милиони и милиони на Интернет.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Секако, повеќето од нив не се објавени од нивните оригинални креатори
03:28
They come from loads and loads of different random accounts,
69
208922
2999
туку потекнуваат од многу различни, случајни канали,
03:31
and it's impossible to know who's posting them
70
211945
2240
и е невозможно да се знае кој ги објавува
03:34
or what their motives might be.
71
214209
1822
и со какви намери.
03:36
Does that sound kind of familiar?
72
216428
1930
Дали тоа ви звучи познато?
03:38
Because it's exactly the same mechanism
73
218382
1980
Затоа што тоа е токму истиот механизам
03:40
that's happening across most of our digital services,
74
220386
2600
кој го има на повеќето наши дигитални услуги,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
каде е невозможно да се знае од каде потекнува информацијата.
03:46
It's basically fake news for kids,
76
226241
1829
Тоа е во основа како "лажни вести" за деца,
03:48
and we're training them from birth
77
228094
2161
и ние ги тренираме од раѓање
03:50
to click on the very first link that comes along,
78
230279
2506
да кликнат на првиот линк кој ќе се појави,
03:52
regardless of what the source is.
79
232809
1953
без разлика од кој извор доаѓа.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Тоа не изгледа како многу добра идеја.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Еве уште едно нешто што е многу популарно на Јутјуб.
04:01
This is called the "Finger Family Song."
82
241133
1928
Се вика "Семејство Прсти“.
04:03
I just heard someone groan in the audience.
83
243085
2018
Некој штотуку офна во публиката.
04:05
This is the "Finger Family Song."
84
245127
1624
Песната за семејството прсти.
04:06
This is the very first one I could find.
85
246775
1930
Ова е токму првата што ја најдов.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Потекнува од 2007 година и има само 200.000 прегледи,
04:11
which is, like, nothing in this game.
87
251582
1976
што е многу малку во споредба со други.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Но, има ритам што ти се вовлекува во главата,
04:16
which I'm not going to play to you,
89
256458
1682
нема да ви ја пуштам,
04:18
because it will sear itself into your brain
90
258164
2008
зашто ќе ви остане запечатена во мозокот,
04:20
in the same way that it seared itself into mine,
91
260196
2395
исто како што ми се случи мене,
04:22
and I'm not going to do that to you.
92
262615
1770
и нема да ви го направам тоа вам.
04:24
But like the surprise eggs,
93
264409
1344
Но, како и киндер јајцата
04:25
it's got inside kids' heads
94
265777
2164
се вовлекува во главите на децата
04:27
and addicted them to it.
95
267965
1607
и ги направи зависни од неа.
04:29
So within a few years, these finger family videos
96
269596
2531
Така, за неколку години, видеата со семејството прсти
04:32
start appearing everywhere,
97
272151
1303
почна да ги има насекаде,
04:33
and you get versions in different languages
98
273478
2029
и имате верзии на различни јазици,
04:35
with popular kids' cartoons using food
99
275531
2121
каде познати цртани ликови користат храна
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
или, искрено, користат секакви елементи за анимација
04:40
you seem to have lying around.
101
280250
2252
што ќе им се најдат при рака.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
И уште еднаш, има милиони и милиони вакви видеа,
04:48
available online in all of these kind of insane combinations.
103
288223
3435
достапни на Интернет во сите овие налудничави комбинации.
04:51
And the more time you start to spend with them,
104
291682
2228
И колку повеќе време минувате со нив,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
толку повеќе ви се чини дека полудувате.
04:57
And that's where I kind of launched into this,
106
297652
3333
И така се впуштив во ова,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
со чувство на длабоко непознавање и неразбирање
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
за начинот како е конструирано ова околу мене.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Бидејќи е невозможно да се знае од каде потекнуваат овие работи.
05:12
Like, who is making them?
110
312089
1241
Кој ги прави?
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
Некои се чини дека се направени од тимови професионални аниматори.
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Некои се составени по случајност со помош на софтвер.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Некои се од пристојни аниматори на мали деца.
05:23
And some of them are from people
114
323704
1552
А некои се од луѓе кои очигледно
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
воопшто не смеат да бидат во близина на деца.
05:28
(Laughter)
116
328311
1615
(смеа)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Повторно, неможноста да се дознае кој ги изработува овие работи,
05:35
like, this is a bot?
118
335651
1156
дали е тоа робот?
05:36
Is this a person? Is this a troll?
119
336831
2647
Дали е личност? Дали е трол?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Што значи тоа што повеќе не можеме да ги разликуваме
05:41
between these things anymore?
121
341908
1583
овие работи?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Нели тоа чувство на несигурност ви е некако познато?
05:50
So the main way people get views on their videos --
123
350145
2580
Најчесто луѓето привлекуваат прегледи на нивните видеа,
05:52
and remember, views mean money --
124
352749
1707
и запомнете, прегледите значат пари
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
така што ги полнат насловите на овие видеа со познати зборови.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Пример, почнувате со „киндер јајца"
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
и додавате "Патрола на кутриња," "Велигденски јајца,"
06:03
or whatever these things are,
128
363047
1393
или што и да е,
06:04
all of these words from other popular videos into your title,
129
364464
2893
сите овие зборови од други популарни видеа,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
додека не завршите со еден куп без јазично значење,
06:10
that doesn't make sense to humans at all.
131
370373
2498
без логика.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Затоа што, се разбира, овие видеа ги гледаат мали деца,
06:16
and what the hell do they know?
133
376465
1827
а што разбираат тие?
06:18
Your real audience for this stuff is software.
134
378316
3007
Вашата вистинска публика за овие работи е софтверот.
06:21
It's the algorithms.
135
381347
1156
Алгоритмите.
06:22
It's the software that YouTube uses
136
382527
1855
Софтверот кој Јутјуб го користи
06:24
to select which videos are like other videos,
137
384406
2483
да одреди кои видеа се слични на други видеа,
06:26
to make them popular, to make them recommended.
138
386913
2243
да им ја подигне популарноста, да ги препорача.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
И затоа завршувате со ваква комплетно безначајна мешавина
06:32
both of title and of content.
140
392665
2071
на наслови и на содржини.
06:35
But the thing is, you have to remember,
141
395792
1894
Но, мора да запомните
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
дека се`уште постои човечки фактор во овој систем на алгоритми,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
луѓе кои сѐ повеќе се принудени да ги одиграат
06:45
these increasingly bizarre combinations of words,
144
405026
3066
овие сѐ побизарни комбинации на зборови,
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
како очајни импровизатори во одговор на здружените врисоци
06:53
of a million toddlers at once.
146
413313
2203
на милиони деца во исто време.
06:57
There are real people trapped within these systems,
147
417168
2468
Вистински луѓе се заробени во овие системи,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
и тоа е другата чудна работа во оваа култура водена од алгоритми,
07:03
because even if you're human,
149
423739
1381
затоа што, иако си човек,
07:05
you have to end up behaving like a machine
150
425144
2145
на крајот се однесуваш како машина,
07:07
just to survive.
151
427313
1800
само за да преживееш.
07:09
And also, on the other side of the screen,
152
429137
2100
Исто така, на другата страна на екранот
07:11
there still are these little kids watching this stuff,
153
431261
2947
се`уште се наоѓаат овие мали деца, кои ги гледаат овие работи,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
заглавени, нивното целосно внимание зграпчено од овие чудни механизми.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Повеќето од овие деца се премали за да користат вебстрани.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Само удираат со рачињата по екраните.
07:24
And so there's autoplay,
157
444890
1217
Па имаме автоматско пуштање
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
каде видеата се пуштаат пак и пак во круг,
07:29
endlessly for hours and hours at a time.
159
449734
2059
бескрајно, со часови и часови.
07:31
And there's so much weirdness in the system now
160
451817
2843
Системот стана толку чуден
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
што автоматското пуштање ве носи на прилично чудни места.
07:37
This is how, within a dozen steps,
162
457717
2488
Така, во десетина чекори,
07:40
you can go from a cute video of a counting train
163
460229
3158
можете да стигнете од слатко видео со воз со бројки,
07:43
to masturbating Mickey Mouse.
164
463411
2442
до Мики Маус кој мастурбира.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Да. Жалам.
07:48
This does get worse.
166
468841
1700
А има и полошо.
07:50
This is what happens
167
470565
1282
Ова се случува
07:51
when all of these different keywords,
168
471871
3086
кога сите тие различни зборови за пребарување,
07:54
all these different pieces of attention,
169
474981
2461
сите тие делчиња за привлекување внимание,
07:57
this desperate generation of content,
170
477466
2807
цело ова очајничко креирање содржини,
08:00
all comes together into a single place.
171
480297
2582
ќе се соберат на едно место.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Ова е асолништето на сите тие многу чудни зборови.
08:08
You cross-breed the finger family video
173
488367
2391
Ќе вкрстите видео со семејството прсти
08:10
with some live-action superhero stuff,
174
490782
2088
со некои акциони суперхерои,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
ќе додадете некои чудни, тролски шеги и слично,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
и одеднаш, се наоѓате на навистина чудно место.
08:19
The stuff that tends to upset parents
177
499564
2113
Она што најчесто ги вознемирува родителите
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
се материјалите со насилна и сексуална содржина, нели?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Ликови од цртаните филмови биваат нападнати,
08:27
getting killed,
180
507902
2018
убиени,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
чудни трикови кои навистина ги преплашуваат децата.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Софтверот ги избира сите овие различни влијанија
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
со цел автматски да ги генерира најстрашните детски кошмари.
08:39
And this stuff really, really does affect small children.
184
519995
2701
А овие работи навистина многу влијаат врз децата.
08:42
Parents report their children being traumatized,
185
522720
2866
Родители пријавуваат дека децата им биле трауматизирани,
08:45
becoming afraid of the dark,
186
525610
1392
се плашат од темнината,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
се плашат од нивните омилени ликови од цртаните филмови.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Ако едно нешто научивме од ова, тоа е: ако имате мали деца
08:54
keep them the hell away from YouTube.
189
534159
1996
држете ги подалеку од Јутјуб!
08:56
(Applause)
190
536743
3949
(аплауз)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Но, другото нешто, кое најмногу ме мачи,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
е помислата дека не ни знаеме како стигнавме дотука.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Ги зедовме сите овие влијанија сите овие работи,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
и ги измешавме заедно на начин на кој никој не намераваше.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
А сепак, на истиот начин го градиме целиот свет.
09:20
We're taking all of this data,
196
560063
1773
Зборуваме за сите овие податоци,
09:21
a lot of it bad data,
197
561860
1447
голем дел од нив лоши,
09:23
a lot of historical data full of prejudice,
198
563331
3029
многу историски податоци, полни со предрасуди,
09:26
full of all of our worst impulses of history,
199
566384
2837
полни со нашите најлоши пориви во историјата,
09:29
and we're building that into huge data sets
200
569245
2049
и ги внесуваме во огромни датотеки
09:31
and then we're automating it.
201
571318
1423
и потоа ги автоматизираме.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Ги вметнуваме во кредитни извештаи,
09:36
into insurance premiums,
203
576291
1634
премии за осигурување,
09:37
into things like predictive policing systems,
204
577949
2693
предиктивни полициски системи,
09:40
into sentencing guidelines.
205
580666
1762
упатства за донесување пресуди.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Вака всушност го градиме денешниот свет,
09:45
out of this data.
207
585297
1151
врз основа на податоци.
09:46
And I don't know what's worse,
208
586472
1698
И не знам што е полошо:
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
тоа што градиме систем кој се чини е целосно оптимизиран
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
за апсолутно најлошите варијанти на човечко однесување,
09:54
or that we seem to have done it by accident,
211
594278
2425
или тоа што истото го правиме случајно,
09:56
without even realizing that we were doing it,
212
596727
2207
без воопшто да сфатиме што правиме,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
бидејќи не ги разбираме добро системите кои ги градиме
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
и не знаеме како да постапиме поинаку.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Има две работи кои сметам дека се движечка сила на овој феномен,
10:10
most fully on YouTube,
216
610158
1189
особено на Јутјуб.
10:11
and the first of those is advertising,
217
611371
1827
Првата е рекламирањето,
10:13
which is the monetization of attention
218
613222
2837
односно монетизацијата на привлеченото внимание,
10:16
without any real other variables at work,
219
616083
3136
без земање во предвид други варијабли,
10:19
any care for the people who are actually developing this content,
220
619243
3885
без грижа за луѓето кои всушност ја креираат таа содржина,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
централизацијата на моќта, одделувањето на тие нешта.
10:26
And I think however you feel about the use of advertising
222
626812
3144
И сметам дека без разлика какво мислењеимате за рекламите,
10:29
to kind of support stuff,
223
629980
1238
како финансиска поддршка,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
глетката на возрасни мажи во пелени како се тркалаат во песокта,
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
со надеж дека некој алгоритам кој ни самите не го разбираат
10:37
will give them money for it
226
637340
1315
ќе им даде пари за тоа,
10:38
suggests that this probably isn't the thing
227
638679
2037
упатува на тоа дека ова веројатно не е начинот
10:40
that we should be basing our society and culture upon,
228
640740
2563
на кој треба да го градиме нашето општество и култура,
10:43
and the way in which we should be funding it.
229
643327
2160
нити начинот на кој треба да го финансираме.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
А вториот двигател на оваа ситуација е автоматизацијата,
10:49
which is the deployment of all of this technology
231
649054
2329
односно примената на сета таа технологија
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
веднаш штом се појави, без никаков надзор,
10:53
and then once it's out there,
233
653952
1412
и кога е веќе пласирана,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
ги креваме рацете и велиме: "Еј, не е до нас, до технолгијата е."
10:59
Like, "We're not involved in it."
235
659255
1642
Демек, "Ние не сме дел од тоа."
11:00
That's not really good enough,
236
660921
1767
Тое не е доволно добро.
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
Затоа што ова не е само предводено,
11:05
it's also algorithmically policed.
238
665446
2498
туку е и контролирано од алгоритми.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Кога Јутјуб почна да обрнува внимание на ова,
11:10
the first thing they said they'd do about it
240
670840
2087
првото нешто што рекоа дека ќе го превземат
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
беше дека ќе применат подобри алгоритми за машинско учење
11:15
to moderate the content.
242
675670
1329
да ја ублажат содржината.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Е па, машинското учење, секој експерт во областа ќе ви каже,
11:20
is basically what we've started to call
244
680532
1896
го нарекуаваме всушност
11:22
software that we don't really understand how it works.
245
682452
2588
софтверот кој не го разбираме како функционира.
11:25
And I think we have enough of that already.
246
685064
3983
Мислам дека веќе имаме доволно од тоа.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Не треба да оставаме на вештачката интелигенција
11:32
what's appropriate or not,
248
692261
1251
да одлучи што е соодветно,
11:33
because we know what happens.
249
693536
1436
зашто знаеме што ќе се случи.
11:34
It'll start censoring other things.
250
694996
1688
Ќе почне да цензурира други работи:
11:36
It'll start censoring queer content.
251
696708
1783
необични содржини,
11:38
It'll start censoring legitimate public speech.
252
698515
2237
или легитимент јавен говор.
11:40
What's allowed in these discourses,
253
700776
1925
Што е дозволено, а што не,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
не треба да се остави на неодговорни системи.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Тоа е дел од дискусија во која сите треба да учествуваме.
11:48
But I'd leave a reminder
256
708817
1308
Но, потсетувам дека
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
ниту алтернативата не е многу пријатна.
11:52
YouTube also announced recently
258
712926
1535
Јутјуб неодамна изјавија
11:54
that they're going to release a version of their kids' app
259
714485
2767
дека ќе издадат верзија на нивната апликација за деца
11:57
that would be entirely moderated by humans.
260
717276
2407
која ќе биде целосно прегледувана од луѓе.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Фејсбук - Закерберг изјави нешто слично пред Конгресот,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
на прашањето како ќе управуваат со нивната содржина.
12:06
He said they'd have humans doing it.
263
726787
1747
Рече дека луѓе ќе го прават тоа.
12:08
And what that really means is,
264
728558
1459
А, тоа всушност значи дека
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
наместо малите деца да бидат првите кои ќе ги видат овие содржини,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
сега ќе има слабо платени, загрозени работници,
без соодветна ментално-здравствена заштита.
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
оштетени од истите содржини.
12:19
(Laughter)
269
739250
1096
(смеа)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
И сметам дека можеме многу подобро од тоа.
12:22
(Applause)
271
742995
2499
(аплауз)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Смислата, според мене, која ги поврзува овие работи
12:30
is agency.
273
750705
1420
е дејствувањето.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Колку навистина разбираме? Под дејствување подразбирам:
12:35
how we know how to act in our own best interests.
275
755330
4390
како знаеме како да постапиме во наш најдобар интерес.
12:39
Which -- it's almost impossible to do
276
759744
1787
Што е речиси невозможно да се направи
12:41
in these systems that we don't really fully understand.
277
761555
3485
во овие ситеми кои не ги разбираме целосно.
12:45
Inequality of power always leads to violence.
278
765064
3071
Нееднаквоста на моќта секогаш води до насилство.
12:48
And we can see inside these systems
279
768159
1685
Во овие системи можеме да видиме
12:49
that inequality of understanding does the same thing.
280
769868
2611
дека нееднаквото разбирање го предизвикува истото.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Ако постои начин како да започнеме да ги подобруваме овие системи
12:56
it's to make them more legible to the people who use them,
282
776306
2718
тоа е да ги направиме почитливи за луѓето кои ги користат,
12:59
so that all of us have a common understanding
283
779048
2196
така што сите ќе имаме заедничко разбирање
13:01
of what's actually going on here.
284
781268
1851
за тоа што всушност се случува тука.
13:03
The thing, though, I think most about these systems
285
783970
2968
Проблемот со повеќето од овие системи
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
не е во врска со Јутјуб, како што објаснив,
13:10
It's about everything.
287
790843
1312
туку со сѐ.
13:12
These issues of accountability and agency,
288
792179
2444
Прашањата на одговорност и дејствување,
13:14
of opacity and complexity,
289
794647
2225
на нејасност и комплексност,
13:16
of the violence and exploitation that inherently results
290
796896
3177
на насилството и експлоатацијата кои неизбежно произлегуваат
13:20
from the concentration of power in a few hands --
291
800097
2794
од концентрацијата на моќ во нечии раце --
13:22
these are much, much larger issues.
292
802915
2579
ова се многу, многу поголеми проблеми.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Тоа се проблеми не само на Јутјуб, и не само на технологијата воопшто,
13:30
and they're not even new.
294
810106
1265
и не се новосоздадени.
13:31
They've been with us for ages.
295
811395
1461
Со нас се долго време.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Но, конечно го изградивме овој систем овој глобален систем, Интернетот,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
кој на извонреден начин ни ги покажува ,
13:40
making them undeniable.
298
820337
1547
и ги прави вистински.
13:41
Technology has this extraordinary capacity
299
821908
2820
Технологијата има исклучителна способност
13:44
to both instantiate and continue
300
824752
3973
истовремено да ги прикаже и продолжи
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
сите наши извонредни, често притаени, желби и предрасуди
13:53
and encoding them into the world,
302
833021
1866
и да ги вкодира во светот,
13:54
but it also writes them down so that we can see them,
303
834911
3474
но и да ги запише за да ни се видливи
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
и да не можеме да се преправаме дека не постојат повеќе.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Не треба да ја гледаме технологијата како решение на сите наши проблеми,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
туку како водич за идентификување на тие проблеми,
14:09
so we can start thinking about them properly
307
849887
2144
со цел да почнеме соодветно да ги
14:12
and start to address them.
308
852055
1766
разгледуваме и да дејствуваме.
14:13
Thank you very much.
309
853845
1335
Многу ви благодарам.
14:15
(Applause)
310
855204
5192
(аплауз)
14:21
Thank you.
311
861733
1188
Благодарам!
14:22
(Applause)
312
862945
2869
(аплауз)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Хелен Волтерс: Џејмс, благодарам за гостувањето и за говорот.
14:32
So it's interesting:
314
872041
1189
Значи, интересно е:
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
кога размислуваш за филмови во кои роботите го преземаат светот,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
сѐ изгледа погламурозно од она што ни го опиша.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Се прашувам -- во тие филмови имаме градење на отпор.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Дали градиме отпор кон овие работи во реалноста?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Дали забележуваш позитивни знаци, никулци на отпорот?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
Џејмс Бридл: Не знам за директен отпор,
14:54
because I think this stuff is super long-term.
321
894947
2264
бидејќи ова се дологорочни работи.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
Мислам дека е длабоко всадено во културата.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Моја пријателка, Еленор Саита, секогаш вели
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
дека секој технолошки проблем со доволна големина и опсег
15:05
are political problems first of all.
325
905568
2267
е пред сѐ политички проблем.
15:07
So all of these things we're working to address within this
326
907859
2785
Така што сите овие работи кои се трудиме да ги решиме
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
нема да ги решиме само преку градење подобра технологија,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
туку преку менување на општеството кое ги произведува овие технологии.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Така што, засега мислам дека имаме уште многу работа пред нас.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Но, како што реков, со нивното отворање,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
објаснување, дискутирање за нив многу искрено,
15:25
we can actually start to at least begin that process.
332
925236
2505
можеме барем да го започнеме тој процес.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
ХВ: Кога зборуваш за читливост и дигитална писменост,
15:31
I find it difficult to imagine
334
931351
1591
тешко ми е да замислам
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
дека товарот на дигиталната писменост треба да остане кај самите корисници.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Тогаш, чија одговорност е образованието во овој нов свет?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
ЏБ: Сметам дека таа е одговорност на сите нас,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
дека сѐ што правиме, сѐ што градиме, сѐ што создаваме,
15:47
needs to be made in a consensual discussion
339
947900
3692
треба да биде во заеднички разговор
15:51
with everyone who's avoiding it;
340
951616
1940
со сите кои го избегнуваат;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
дека не градиме системи наменети да ги залажат или изненадат луѓето
15:57
into doing the right thing,
342
957945
2300
да постапат правилно,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
туку да бидат вклучени во секој чекор од нивното образование,
16:03
because each of these systems is educational.
344
963529
2278
бидејќи секој од овие системи е образовен.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
На тоа се надевам, дури и мрачните аспекти,
16:08
that if you can take it and look at it properly,
346
968957
2262
ако се земат и се разгледаат соодветно,
16:11
it's actually in itself a piece of education
347
971243
2089
сами по себе се парче едукација
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
што ви овозможува да согледате како комплексните системи функционираат
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
и можеби да го примените знаењето на друго место.
16:20
HW: James, it's such an important discussion,
350
980667
2115
ХВ: Џејмс, ова е многу значајна дискусија,
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
и знам дека многу од луѓето овде се отворени и подготвени да се вклучат,
16:26
so thanks for starting off our morning.
352
986057
1859
па фала што ни го отпочна утрото.
16:27
JB: Thanks very much. Cheers.
353
987940
1400
ЏБ: Благодарам!. Поздрав.
16:29
(Applause)
354
989364
1651
(аплауз)
About this website

Оваа страница ќе ве запознае со видеата на YouTube кои се корисни за учење англиски јазик. Ќе гледате часови по англиски јазик кои ги учат врвни наставници од целиот свет. Кликнете двапати на англиските преводи прикажани на секоја видео страница за да го репродуцирате видеото од таму. Преводите се движат синхронизирано со репродукцијата на видеото. Ако имате какви било коментари или барања, ве молиме контактирајте не користејќи ја оваа контакт форма.

https://forms.gle/WvT1wiN1qDtmnspy7