The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Please double-click on the English subtitles below to play the video.

Prevodilac: Mirjana Čutura Lektor: Tijana Mihajlović
00:12
I'm James.
0
12777
1183
Зовем се Џејмс.
00:13
I'm a writer and artist,
1
13984
1686
Писац сам и уметник
00:15
and I make work about technology.
2
15694
2341
и стварам дела о технологији.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Цртам ствари као што су обриси војних дронова у природној величини
00:22
in city streets around the world,
4
22389
1828
на градским улицама широм света
00:24
so that people can start to think and get their heads around
5
24241
2950
да би људи почели да размишљају и да разумеју ове технологије
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
које се прилично ретко виђају и о којима се ретко размишља.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Правим неуронске мреже које предвиђају резултате избора
00:35
based on weather reports,
8
35354
1737
на основу временских извештаја,
00:37
because I'm intrigued about
9
37115
1314
јер сам заинтригиран стварним могућностима ових чудних нових технологија.
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
00:43
Last year, I built my own self-driving car.
11
43405
2426
Прошле године сам направио свој самовозећи аутомобил.
00:45
But because I don't really trust technology,
12
45855
2526
Међутим, пошто баш не верујем технологији, дизајнирао сам и клопку за њега.
00:48
I also designed a trap for it.
13
48405
1928
00:50
(Laughter)
14
50777
1086
(Смех)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Ове ствари углавном радим јер мислим да су потпуно фасцинантне,
00:56
but also because I think when we talk about technology,
16
56209
2602
али и зато што мислим да, када причамо о технологији,
00:58
we're largely talking about ourselves
17
58835
2619
у већини случајева причамо о нама самима
01:01
and the way that we understand the world.
18
61478
2299
и начину на који разумемо свет.
01:03
So here's a story about technology.
19
63801
2442
Ево једне приче о технологији.
01:07
This is a "surprise egg" video.
20
67520
2830
Ово је видео о киндер јајету.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
То је, у ствари, снимак некога ко отвара гомилу чоколадних јаја
01:13
and showing the toys inside to the viewer.
22
73746
2126
и гледаоцу показује играчке из њих.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
То је то. То је све што се дешава током седам дугих минута.
01:19
And I want you to notice two things about this.
24
79428
3051
Желим да обратите пажњу на две ствари у вези са тим.
01:22
First of all, this video has 30 million views.
25
82503
4074
Прво, овај видео има 30 милиона прегледа.
01:26
(Laughter)
26
86601
1275
(Смех)
01:28
And the other thing is,
27
88376
1166
Друга ствар је да се налази на каналу који има 6,3 милиона пратилаца
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
01:33
that has a total of eight billion views,
29
93459
2680
и укупно осам милијарди прегледа,
01:36
and it's all just more videos like this --
30
96163
3106
а садржи једино још више оваквих видеа.
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
Тридесет милиона људи гледа овог момка како отвара ова јаја.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Звучи прилично чудно, али ако укуцате „киндер јаја“ у претраживач Јутјуба,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
рећи ће вам да постоји десет милиона ових видеа,
01:52
and I think that's an undercount.
34
112240
1657
а мислим да је тај број потцењен.
01:53
I think there's way, way more of these.
35
113921
1897
Мислим да их има много, много више.
01:55
If you keep searching, they're endless.
36
115842
2242
Ако наставите претрагу, нема им краја.
01:58
There's millions and millions of these videos
37
118108
2159
Има на милионе и милионе ових видеа
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
у све учесталијим барокним комбинацијама брендова и материјала,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
а све се више и више њих поставља сваког дана.
02:07
Like, this is a strange world. Right?
40
127639
3511
Чудан је ово свет, зар не?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Међутим, ствар је у томе да ове видео-снимке не гледају одрасли,
02:14
It's kids, small children.
42
134581
2921
већ деца, мала деца.
02:17
These videos are like crack for little kids.
43
137526
2154
Ови видео-снимци су као кокаин за малу децу.
02:19
There's something about the repetition,
44
139704
2075
Нешто у вези са понављањем,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
непрекидном малом налету допамина приликом открића,
02:24
that completely hooks them in.
46
144295
1866
их у потпуности навлачи.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Мала деца гледају ове видео-снимке опет и опет и опет,
02:31
and they do it for hours and hours and hours.
48
151018
2327
а то раде из сата у сат.
02:33
And if you try and take the screen away from them,
49
153369
2356
Ако покушате да их одвојите од екрана, урлаће и урлаће и урлаће.
02:35
they'll scream and scream and scream.
50
155749
1782
02:37
If you don't believe me --
51
157555
1262
Ако ми не верујете -
02:38
and I've already seen people in the audience nodding --
52
158841
2607
а већ сам видео људе у публици како климају главом -
ако ми не верујете, нађите неког ко има малу децу и питајте их,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
и знаће за видео снимке о киндер јајима.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
Овде почињемо.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
У 2018. години смо, а неко, или много људи,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
користи исти механизам који Фејсбук и Инстаграм користе
02:56
to get you to keep checking that app,
58
176976
1989
да вас натерају да проверавате ту апликацију,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
а користе је на Јутјубу да хакују мозгове веома мале деце
03:02
in return for advertising revenue.
60
182998
1958
у замену за приход од реклама.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Макар се надам да је то оно што раде.
03:08
I hope that's what they're doing it for,
62
188371
1955
Надам се да због тога то раде,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
јер постоје лакши начини да се оствари приход од реклама на Јутјубу.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Можете једноставно направити или украсти нешто.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Ако тражите веома популарне дечије цртане филмове
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
као што су „Пепа прасе“ или „Патролне шапе“,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
видећете да постоје и милиони оваквих видеа на интернету.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Наравно, већину њих нису поставили прави ствараоци садржаја.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Потичу са мноштва различитих, насумичних налога,
03:31
and it's impossible to know who's posting them
70
211945
2240
а немогуће је знати ко их поставља или који би им мотиви могли бити.
03:34
or what their motives might be.
71
214209
1822
03:36
Does that sound kind of familiar?
72
216428
1930
Да ли то звучи донекле познато?
03:38
Because it's exactly the same mechanism
73
218382
1980
Јер то је тачно исти механизам
03:40
that's happening across most of our digital services,
74
220386
2600
који се примењује широм већине наших дигиталних услуга,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
при чему је немогуће знати одакле ове информације долазе.
03:46
It's basically fake news for kids,
76
226241
1829
То су, у суштини, лажне вести за децу,
03:48
and we're training them from birth
77
228094
2161
а обучавамо их од рођења да кликну баш на први линк који се појави
03:50
to click on the very first link that comes along,
78
230279
2506
03:52
regardless of what the source is.
79
232809
1953
без обзира на то који је извор.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
То не делује као посебно добра идеја.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Ево још једне веома популарне ствари на дечијем Јутјубу.
04:01
This is called the "Finger Family Song."
82
241133
1928
Зове се „Породица прстићи“.
Управо сам чуо да је неко у публици уздахнуо.
04:03
I just heard someone groan in the audience.
83
243085
2018
Ово је „Породица прстићи“.
04:05
This is the "Finger Family Song."
84
245127
1624
04:06
This is the very first one I could find.
85
246775
1930
Ово је најранија коју сам успео да пронађем.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Из 2007. године је и има само двесто хиљада прегледа,
04:11
which is, like, nothing in this game.
87
251582
1976
што је ништа у овој игри.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Међутим, има ову невероватно заразну мелодију,
04:16
which I'm not going to play to you,
89
256458
1682
коју вам нећу пустити,
јер ће вам се урезати у мозак исто онако како се мени урезала у мозак,
04:18
because it will sear itself into your brain
90
258164
2008
04:20
in the same way that it seared itself into mine,
91
260196
2395
04:22
and I'm not going to do that to you.
92
262615
1770
а нећу то да вам урадим.
Али, као и киндер јаја,
04:24
But like the surprise eggs,
93
264409
1344
04:25
it's got inside kids' heads
94
265777
2164
увукла се у дечије мозгове и учинила их је зависним.
04:27
and addicted them to it.
95
267965
1607
04:29
So within a few years, these finger family videos
96
269596
2531
За неколико година, ови видео-снимци „Породице прстићи“ се свугде појављују,
04:32
start appearing everywhere,
97
272151
1303
04:33
and you get versions in different languages
98
273478
2029
а имате верзије на различитим језицима
04:35
with popular kids' cartoons using food
99
275531
2121
са популарним ликовима из цртаних филмова са храном
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
или, искрено говорећи,
било каквом анимацијом која је надохват руке.
04:40
you seem to have lying around.
101
280250
2252
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
Да поновим, милиони, милиони и милиони ових видео снимака
04:48
available online in all of these kind of insane combinations.
103
288223
3435
су доступни на интернету у свим овим донекле суманутим комбинацијама.
04:51
And the more time you start to spend with them,
104
291682
2228
А што више времена почнете да проводите уз њих,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
све луђе и луђе почињете да се осећате.
04:57
And that's where I kind of launched into this,
106
297652
3333
Ту сам се упустио у ово,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
у овај осећај велике необичности и великог недостатка разумевања
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
по питању тога како је направљена ова ствар
која делује да је представљена око мене.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Јер је немогуће знати одакле ове ствари потичу.
Као, ко их прави?
05:12
Like, who is making them?
110
312089
1241
Делује да неке праве групе професионалних аниматора.
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Неке је само насумично саставио софтвер.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Неки од њих су млади дечији забављачи који изгледају прилично нормално,
05:23
And some of them are from people
114
323704
1552
а неки су људи који сасвим сигурно уопште не би требало да буду у близини деце.
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
(Смех)
05:28
(Laughter)
116
328311
1615
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Поново, ова немогућност да се открије ко прави ове ствари -
05:35
like, this is a bot?
118
335651
1156
шта, ово је бот?
05:36
Is this a person? Is this a troll?
119
336831
2647
Да ли је то особа? Да ли је то трол?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Шта значи то што више не можемо да направимо разлику између ових ствари?
05:41
between these things anymore?
121
341908
1583
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Не изгледа ли та неизвесност помало познато управо сада?
05:50
So the main way people get views on their videos --
123
350145
2580
Главни начин на који се добијају прегледи ових видеа -
05:52
and remember, views mean money --
124
352749
1707
а прегледи значе новац -
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
је да натрпају популарне изразе у наслове ових видеа.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Тако узмете „киндер јаја“
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
и додате „Патролне шапе“, „Ускршње јаје“ или шта год су ове ствари,
06:03
or whatever these things are,
128
363047
1393
06:04
all of these words from other popular videos into your title,
129
364464
2893
све ове речи из осталих популарних видеа у ваш наслов
док не завршите са овом донекле бесмисленом мешавином речи
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
06:10
that doesn't make sense to humans at all.
131
370373
2498
која уопште нема никаквог смисла за људска бића.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Јер, наравно, само веома мала деца гледају ваш видео,
06:16
and what the hell do they know?
133
376465
1827
а шта они, до врага, знају?
06:18
Your real audience for this stuff is software.
134
378316
3007
Ваша права публика за ово је софтвер,
06:21
It's the algorithms.
135
381347
1156
алгоритми,
06:22
It's the software that YouTube uses
136
382527
1855
софтвер који Јутјуб користи
06:24
to select which videos are like other videos,
137
384406
2483
да изабере који видео-снимци су као остали,
06:26
to make them popular, to make them recommended.
138
386913
2243
да их учини популарним, да их препоручи.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
И зато завршите са овом донекле потпуно бесмисленом мешавином
06:32
both of title and of content.
140
392665
2071
у наслову и садржају.
06:35
But the thing is, you have to remember,
141
395792
1894
Али, морате да запамтите
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
да још увек постоје људи унутар овог система
који је оптимизован алгоритмима,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
људи који су све више приморани да одглуме ове све бизарније комбинације речи,
06:45
these increasingly bizarre combinations of words,
144
405026
3066
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
као очајни уметници-импровизатори
који реагују на удружену, истовремену вриску
06:53
of a million toddlers at once.
146
413313
2203
једног милиона мале деце.
06:57
There are real people trapped within these systems,
147
417168
2468
Постоје стварни људи који су заробљени у овим системима,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
и то је друга веома чудна ствар по питању ове културе којом управљају алгоритми,
07:03
because even if you're human,
149
423739
1381
јер, чак иако сте људско биће,
07:05
you have to end up behaving like a machine
150
425144
2145
на крају морате да се понашате као машина само да бисте преживели.
07:07
just to survive.
151
427313
1800
Такође, са друге стране екрана
07:09
And also, on the other side of the screen,
152
429137
2100
07:11
there still are these little kids watching this stuff,
153
431261
2947
су још увек ова мала деца која гледају те ствари,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
опчињена, а пуну пажњу су им преотели ови чудни механизми.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Већина ове деце су још увек превише мала да би користила сајт.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Они само лупају по екрану својим ручицама.
07:24
And so there's autoplay,
157
444890
1217
Зато постоји аутоплеј,
који једноставно пушта ове видео снимке изнова у круг,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
07:29
endlessly for hours and hours at a time.
159
449734
2059
бесконачно, сатима.
07:31
And there's so much weirdness in the system now
160
451817
2843
Много чудних ствари је сада у систему,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
па вас аутоплеј води на нека прилично чудна места.
07:37
This is how, within a dozen steps,
162
457717
2488
Ево како у дванаест корака
07:40
you can go from a cute video of a counting train
163
460229
3158
можете стићи од симпатичног видеа воза који броји
07:43
to masturbating Mickey Mouse.
164
463411
2442
до Микија Мауса који мастурбира.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Да. Извините због тога.
07:48
This does get worse.
166
468841
1700
Постаје горе.
07:50
This is what happens
167
470565
1282
Ово се дешава
07:51
when all of these different keywords,
168
471871
3086
када се све ове разне кључне речи,
07:54
all these different pieces of attention,
169
474981
2461
сви ови различити делићи пажње
07:57
this desperate generation of content,
170
477466
2807
и ово очајничко стварање садржаја
08:00
all comes together into a single place.
171
480297
2582
нађу на једном месту.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Овде све те веома чудне кључне речи праве дар-мар.
08:08
You cross-breed the finger family video
173
488367
2391
Укрстите видео о „Породици прстићи“ са стварима које суперхероји изводе уживо,
08:10
with some live-action superhero stuff,
174
490782
2088
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
додате неке чудне интерне шале о троловима или већ нешто
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
и изненада стижете на заиста веома чудно место.
08:19
The stuff that tends to upset parents
177
499564
2113
Родитеље углавном узнемиравају
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
ствари са насилним и сексуалним садржајем, зар не?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Цртани ликови су физички нападнути,
08:27
getting killed,
180
507902
2018
убијени,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
чудне неслане шале које, у ствари, заправо престраве децу.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Имате софтвер који користи све ове утицаје
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
како би аутоматски створио најгоре дечије кошмаре.
08:39
And this stuff really, really does affect small children.
184
519995
2701
Ове ствари заиста, заиста утичу на нашу малу децу.
08:42
Parents report their children being traumatized,
185
522720
2866
Родитељи потврђују да су им деца трауматизована,
08:45
becoming afraid of the dark,
186
525610
1392
да почињу да се боје мрака,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
да почињу да се боје својих омиљених цртаних јунака.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Ако ћете једну ствар урадити после овога, нека то буде, ако имате малу децу,
08:54
keep them the hell away from YouTube.
189
534159
1996
да их држите подаље од Јутјуба.
08:56
(Applause)
190
536743
3949
(Аплауз)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Али, друга ствар, она која ме заиста нервира у вези са овим
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
је то што нисам сигуран да уопште разумемо како смо дошли довде.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Узели смо све ове утицаје, све ове ствари
09:13
and munged them together in a way that no one really intended.
194
553906
2953
и изманипулисали их на начин на који нико заиста није намеравао.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
А ипак, ово је и начин на који градимо цео свет.
09:20
We're taking all of this data,
196
560063
1773
Користимо све ове податке, много лоших података,
09:21
a lot of it bad data,
197
561860
1447
09:23
a lot of historical data full of prejudice,
198
563331
3029
много старих података пуних предрасуда,
09:26
full of all of our worst impulses of history,
199
566384
2837
пуних свих наших најгорих побуда из историје,
09:29
and we're building that into huge data sets
200
569245
2049
и то уграђујемо у огромне скупове података,
09:31
and then we're automating it.
201
571318
1423
а онда их аутоматизујемо.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Све то изманипулишемо у ствари као што су извештаји о кредитној историји,
09:36
into insurance premiums,
203
576291
1634
рате за осигурање,
09:37
into things like predictive policing systems,
204
577949
2693
системе за предвиђене полицијске ације,
09:40
into sentencing guidelines.
205
580666
1762
директиве за одређивање казни.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Ово је начин на који ми сада, у ствари, стварамо свет користећи ове податке.
09:45
out of this data.
207
585297
1151
09:46
And I don't know what's worse,
208
586472
1698
Не знам шта је горе -
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
то што правимо систем који делује да је у потпуности оптимизован
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
за најгоре могуће видове људског понашања
09:54
or that we seem to have done it by accident,
211
594278
2425
или то што изгледа да смо то случајно урадили,
09:56
without even realizing that we were doing it,
212
596727
2207
а да уопште нисмо схватили да смо то радили
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
јер заиста нисмо разумели системе које смо правили
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
и заиста нисмо разумели како да урадимо нешто другачије са тим.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Мислим да постоје две ствари које изгледа да заиста покрећу ово
10:10
most fully on YouTube,
216
610158
1189
највише на Јутјубу,
10:11
and the first of those is advertising,
217
611371
1827
а прва је рекламирање,
10:13
which is the monetization of attention
218
613222
2837
што је начин да се заради од пажње
10:16
without any real other variables at work,
219
616083
3136
без било којих других стварних варијабли на делу,
10:19
any care for the people who are actually developing this content,
220
619243
3885
бриге о људима који заиста праве овај садржај,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
централизације моћи, разграничавања ових ствари.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Мислим да без обзира на то шта мислите
о коришћењу рекламирања да се ове ствари подржавају,
10:29
to kind of support stuff,
223
629980
1238
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
призор одраслих мушкараца у пеленама који се ваљају у песку
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
надајући се да ће им неки алгоритам који баш не разумеју дати новац за то
10:37
will give them money for it
226
637340
1315
10:38
suggests that this probably isn't the thing
227
638679
2037
ми говори да ово вероватно није ствар
10:40
that we should be basing our society and culture upon,
228
640740
2563
на којој би требало да заснивамо наше друштво и културу
нити начин на који би требало да га финансирамо.
10:43
and the way in which we should be funding it.
229
643327
2160
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Друга ствар која је, на неки начин, главни покретач ове аутоматизације
10:49
which is the deployment of all of this technology
231
649054
2329
је примена све ове технологије чим се појави без икакве врсте надзора,
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
10:53
and then once it's out there,
233
653952
1412
а када је ту,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
некако дижемо руке и кажемо: „Хеј, нисмо ми криви. Технологија је.“
10:59
Like, "We're not involved in it."
235
659255
1642
У фазону: „Немамо ништа са тим.“
11:00
That's not really good enough,
236
660921
1767
То није баш довољно добро
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
јер овим не само да управља алгоритам, већ га алгоритам и надгледа.
11:05
it's also algorithmically policed.
238
665446
2498
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Када је Јутјуб први пут почео да обраћа пажњу на ово,
11:10
the first thing they said they'd do about it
240
670840
2087
прво су рекли да ће применити боље алгоритме за машинско учење
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
како би уређивали садржај.
11:15
to moderate the content.
242
675670
1329
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Па, машинско учење, као што ће вам сваки стручњак из те области рећи,
11:20
is basically what we've started to call
244
680532
1896
је оно што смо почели да називамо софтвером чији начин рада не разумемо.
11:22
software that we don't really understand how it works.
245
682452
2588
11:25
And I think we have enough of that already.
246
685064
3983
Мислим да тога већ имамо довољно.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Не би требало да препуштамо вештачкој интелигенцији да одлучује
11:32
what's appropriate or not,
248
692261
1251
шта је прикладно или не, јер знамо шта ће се десити.
11:33
because we know what happens.
249
693536
1436
11:34
It'll start censoring other things.
250
694996
1688
Почеће да цензурише остале ствари.
11:36
It'll start censoring queer content.
251
696708
1783
Почеће да цензурише хомосексуални садржај.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
Почеће да цензурише легитимно јавно изражавање.
11:40
What's allowed in these discourses,
253
700776
1925
Оно што је дозвољено у овим разговорима
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
не би требало да се препусти системима који немају одговорност.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Ово је део разговора који бисмо сви морали да водимо.
11:48
But I'd leave a reminder
256
708817
1308
Међутим, подсетићу вас да ни алтернатива није веома пријатна.
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
11:52
YouTube also announced recently
258
712926
1535
Јутјуб је недавно објавио
11:54
that they're going to release a version of their kids' app
259
714485
2767
да ће пустити у рад верзију своје апликације за децу
којом ће у потпуности управљати људска бића.
11:57
that would be entirely moderated by humans.
260
717276
2407
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Фејсбук - Закерберг је рекао нешто веома слично у Конгресу
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
када су га притиснули по питању тога како ће уређивати свој садржај.
12:06
He said they'd have humans doing it.
263
726787
1747
Рекао је да ће људска бића то радити.
12:08
And what that really means is,
264
728558
1459
А то стварно значи да ће, уместо да мала деца прва виде ове ствари,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
слабо плаћени радници на уговор са нестабилним запослењем
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
и без одговарајуће заштите менталног здравља
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
такође бити тиме упропашћени.
12:19
(Laughter)
269
739250
1096
(Смех)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Мислим да сви можемо да урадимо прилично више од тога.
12:22
(Applause)
271
742995
2499
(Аплауз)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Мислим да је идеја која повезује ове две ствари
12:30
is agency.
273
750705
1420
залагање.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Колико ми то заиста разумемо?
Кад кажем залагање,
мислим на то како знамо да радимо у свом најбољем интересу.
12:35
how we know how to act in our own best interests.
275
755330
4390
12:39
Which -- it's almost impossible to do
276
759744
1787
То је скоро немогуће радити
12:41
in these systems that we don't really fully understand.
277
761555
3485
у овим системима које заиста не разумемо у потпуности.
12:45
Inequality of power always leads to violence.
278
765064
3071
Неједнакост моћи увек води ка насиљу.
12:48
And we can see inside these systems
279
768159
1685
А унутар ових система можемо видети да неједнакост разумевања чини исто.
12:49
that inequality of understanding does the same thing.
280
769868
2611
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Ако постоји једна ствар коју можемо да урадимо
да почнемо да побољшавамо ове системе,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
то је да их учинимо јаснијим за људе који их користе
12:59
so that all of us have a common understanding
283
779048
2196
како бисмо сви ми разумели шта се заиста овде дешава.
13:01
of what's actually going on here.
284
781268
1851
13:03
The thing, though, I think most about these systems
285
783970
2968
Ипак, мислим да је код већине ових система ствар у томе
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
да се овде заиста не ради о Јутјубу, што се надам да сам објаснио.
13:10
It's about everything.
287
790843
1312
У питању је све.
13:12
These issues of accountability and agency,
288
792179
2444
Ова питања одговорности, залагања,
13:14
of opacity and complexity,
289
794647
2225
нејасноће, сложености,
13:16
of the violence and exploitation that inherently results
290
796896
3177
насиља и експлоатације који су суштинска последица
13:20
from the concentration of power in a few hands --
291
800097
2794
концентрације моћи у рукама неколицине -
13:22
these are much, much larger issues.
292
802915
2579
ово су много, много већа питања.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Нису то питања која се тичу само Јутјуба и само технологије уопште,
13:30
and they're not even new.
294
810106
1265
а нису чак ни нова;
13:31
They've been with us for ages.
295
811395
1461
са нама су од давнина.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Међутим, коначно смо направили овај систем, глобални систем, интернет,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
који нам их приказује на невероватан начин и чини их неоспорним.
13:40
making them undeniable.
298
820337
1547
13:41
Technology has this extraordinary capacity
299
821908
2820
Технологија има неоспорну способност
13:44
to both instantiate and continue
300
824752
3973
да подржи и настави
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
већину наших невероватних, често скривених жеља и предрасуда
13:53
and encoding them into the world,
302
833021
1866
и да их преноси у свет,
13:54
but it also writes them down so that we can see them,
303
834911
3474
али их такође и записује како бисмо могли да их видимо,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
да више не можемо да се претварамо да не постоје.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Морамо да престанемо
да размишљамо о технологији као о решењу за све наше проблеме,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
и да размишљамо о њој као о водиљи ка ономе шта су ти проблеми у ствари
14:09
so we can start thinking about them properly
307
849887
2144
да бисмо почели да размишљамо о њима на прави начин
14:12
and start to address them.
308
852055
1766
и да почнемо да их решавамо.
14:13
Thank you very much.
309
853845
1335
Хвала пуно.
14:15
(Applause)
310
855204
5192
(Аплауз)
14:21
Thank you.
311
861733
1188
Хвала.
14:22
(Applause)
312
862945
2869
(Аплауз)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Хелен Волтерс: Џејмс, хвала ти што си дошао и одржао овај говор.
Занимљиво је да је,
14:32
So it's interesting:
314
872041
1189
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
када помислимо да филмове у којима роботизовани господари преузму контролу,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
све много привлачније од овога што ти описујеш.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Међутим, питам се - у тим филмовима је присутан отпор који се појачава.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Да ли се појачава отпор према овоме?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Да ли видиш позитивне знаке, обнову отпора?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
Џејмс Бридл: Нисам сигуран по питању директног отпора,
14:54
because I think this stuff is super long-term.
321
894947
2264
јер мислим да је ово веома дуготрајно.
Мислим да је дубоко усађено у културу.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Моја пријатељица Еленор Саита увек каже
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
да су било који технолошки проблеми великих размера и опсега
15:05
are political problems first of all.
325
905568
2267
првенствено политички проблеми.
15:07
So all of these things we're working to address within this
326
907859
2785
Тако да све ове ствари на чијем решењу радимо
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
неће се решити тако што ће се једноставно направити боља технологија,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
већ тако што ће се променити друштво које производи ове технологије.
Не. Управо сада, мислим да нам предстоји веома дугачак пут.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
15:20
But as I said, I think by unpacking them,
330
920505
1986
Опет, мислим да, ако их анализирамо, објаснимо и веома искрено причамо о њима,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
можемо, у ствари, макар започети тај процес.
15:25
we can actually start to at least begin that process.
332
925236
2505
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
ХВ: Када говориш о јасноћи и дигиталној писмености,
15:31
I find it difficult to imagine
334
931351
1591
тешко ми је да замислим
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
да морамо да ставимо терет дигиталне писмености на саме кориснике.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Чија је одговорност образовање у овом новом свету?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
ЏБ: Још једном, мислим да је ова одговорност на свима нама,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
да све што радимо, све што градимо, све што правимо
15:47
needs to be made in a consensual discussion
339
947900
3692
мора бити направљено уз пристанак у разговору
15:51
with everyone who's avoiding it;
340
951616
1940
са свима који га избегавају;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
да не правимо системе чија је сврха да преваре и изненаде људе
15:57
into doing the right thing,
342
957945
2300
да ураде праву ствар,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
већ да су они заиста укључени у сваки корак њиховог образовања,
16:03
because each of these systems is educational.
344
963529
2278
јер је сваки од ових система образовни.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Надам се, чак и по питању ових веома страшних ствари,
16:08
that if you can take it and look at it properly,
346
968957
2262
да је, ако их можете узети и прописно сагледати,
16:11
it's actually in itself a piece of education
347
971243
2089
то, само по себи, део образовања
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
које вам омогућава да почнете да видите како се сложени системи удружују и раде
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
и да ћете можда моћи да примените то знање негде другде у свету.
16:20
HW: James, it's such an important discussion,
350
980667
2115
ХВ: Џејмс, ово је толико важан разговор
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
и знам да су многи људи овде отворени и спремни за њега,
стога ти захваљујем што си започео јутро.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
ЏБ: Хвала пуно. Све најбоље.
(Аплауз)
16:29
(Applause)
354
989364
1651
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7