The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,884,141 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,884,141 views ・ 2018-07-13

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Christel Foncke
00:12
I'm James.
0
12777
1183
Ik ben James.
00:13
I'm a writer and artist,
1
13984
1686
Ik ben schrijver en kunstenaar
00:15
and I make work about technology.
2
15694
2341
en mijn werk gaat over over technologie,
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
zoals levensgrote contouren van militaire drones tekenen
00:22
in city streets around the world,
4
22389
1828
in straten van steden over de hele wereld,
00:24
so that people can start to think and get their heads around
5
24241
2950
zodat mensen kunnen gaan nadenken en iets snappen
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
van deze nogal wazige en moeilijk te begrijpen technologieën.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Ik maak dingen als neurale netwerken
die verkiezingsresultaten voorspellen
00:35
based on weather reports,
8
35354
1737
op basis van weerberichten,
00:37
because I'm intrigued about
9
37115
1314
want ik ben geïntrigeerd door de werkelijke mogelijkheden
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
van deze vreemde nieuwe technologieën.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Vorig jaar bouwde ik mijn eigen zelfrijdende auto.
00:45
But because I don't really trust technology,
12
45855
2526
Maar omdat ik de technologie niet echt vertrouwde,
00:48
I also designed a trap for it.
13
48405
1928
ontwierp ik er eveneens een val voor.
00:50
(Laughter)
14
50777
1086
(Gelach)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Ik doe dat vooral omdat ik ze helemaal fascinerend vind,
00:56
but also because I think when we talk about technology,
16
56209
2602
maar ook omdat ik denk dat als we het hebben over technologie,
00:58
we're largely talking about ourselves
17
58835
2619
we meestal over onszelf praten
01:01
and the way that we understand the world.
18
61478
2299
en de manier waarop we de wereld begrijpen.
01:03
So here's a story about technology.
19
63801
2442
Dus hier een verhaal over technologie.
01:07
This is a "surprise egg" video.
20
67520
2830
Dit is een surprise-ei-video.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Het is een video van iemand die wat chocolade-eieren opent
01:13
and showing the toys inside to the viewer.
22
73746
2126
en de kijker het speelgoed erin toont.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Dat is het.
Dat is alles wat hij zeven lange minuten doet.
01:19
And I want you to notice two things about this.
24
79428
3051
Twee dingen zijn hier belangrijk om weten.
01:22
First of all, this video has 30 million views.
25
82503
4074
Allereerst is deze video 30 miljoen keer bekeken.
01:26
(Laughter)
26
86601
1275
(Gelach)
01:28
And the other thing is,
27
88376
1166
En ten tweede komt hij van een kanaal
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
met 6,3 miljoen abonnees,
01:33
that has a total of eight billion views,
29
93459
2680
een totaal van acht miljard views,
01:36
and it's all just more videos like this --
30
96163
3106
en het is één van een hoop video's zoals deze --
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 miljoen mensen kijken naar iemand die deze eieren opendoet.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Het klinkt raar, maar als je naar surprise-eieren op YouTube zoekt,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
kan ik je vertellen dat er 10 miljoen van deze video's bestaan,
en ik denk dat dat een onderschatting is.
01:52
and I think that's an undercount.
34
112240
1657
01:53
I think there's way, way more of these.
35
113921
1897
Ik denk dat het er veel, veel meer zijn.
01:55
If you keep searching, they're endless.
36
115842
2242
Als je gaat zoeken, houdt het niet op.
01:58
There's millions and millions of these videos
37
118108
2159
Er zijn miljoenen en miljoenen van deze video's,
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
in toenemende barokke combinaties van merken en materialen,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
en er worden er elke dag meer en meer geüpload.
02:07
Like, this is a strange world. Right?
40
127639
3511
Toch een vreemde wereld, niet?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Maar het zijn geen volwassenen die naar deze video's kijken.
02:14
It's kids, small children.
42
134581
2921
Het zijn kinderen, kleine kinderen.
02:17
These videos are like crack for little kids.
43
137526
2154
Deze video's zijn als crack voor kleine kinderen.
02:19
There's something about the repetition,
44
139704
2075
Iets in de herhaling die steeds weer een kleine dopamine-opstoot geeft,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
02:24
that completely hooks them in.
46
144295
1866
maakt ze er helemaal aan verslaafd.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Kleine kinderen bekijken deze video’s opnieuw en opnieuw,
02:31
and they do it for hours and hours and hours.
48
151018
2327
uren aan een stuk.
02:33
And if you try and take the screen away from them,
49
153369
2356
Probeer ze niet weg te halen van het scherm,
02:35
they'll scream and scream and scream.
50
155749
1782
want ze gaan krijsen en gillen.
02:37
If you don't believe me --
51
157555
1262
Als jullie me niet geloven -- ik zag al mensen knikken --
02:38
and I've already seen people in the audience nodding --
52
158841
2607
als je het niet gelooft, vraag dan iemand met kleine kinderen,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
zij kennen die surprise-ei-video's.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
Daar beginnen we mee.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Het is 2018, en iemand, of veel mensen,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
gebruiken hetzelfde mechanisme om, net als Facebook en Instagram,
02:56
to get you to keep checking that app,
58
176976
1989
te zorgen dat je die app opzoekt,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
en ze gebruiken het op YouTube
om de hersenen van zeer kleine kinderen te hacken in ruil voor reclame-inkomsten.
03:02
in return for advertising revenue.
60
182998
1958
03:06
At least, I hope that's what they're doing.
61
186346
2001
Ik hoop tenminste dat het dat is wat ze doen.
03:08
I hope that's what they're doing it for,
62
188371
1955
Ik hoop dat ze het daarvoor doen,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
omdat er makkelijker manieren zijn
om advertentie-inkomsten te krijgen op YouTube.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Je kunt gewoon dingen uitvinden of dingen jatten.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Als je naar echt populaire kindercartoons
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
als ‘Pepper Pig’ of ‘Paw Patrol’ zoekt,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
zal je er ook miljoenen en miljoenen online vinden.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Natuurlijk komen de meeste niet van de makers van de originele strips.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Ze komen uit heel verschillende willekeurige accounts
03:31
and it's impossible to know who's posting them
70
211945
2240
en het is onmogelijk om te weten wie ze posten
03:34
or what their motives might be.
71
214209
1822
of wat hun mogelijke motieven zijn.
03:36
Does that sound kind of familiar?
72
216428
1930
Komt dat bekend voor?
03:38
Because it's exactly the same mechanism
73
218382
1980
Want precies hetzelfde mechanisme
03:40
that's happening across most of our digital services,
74
220386
2600
zie je in de meeste digitale dienstverlening,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
waar je de herkomst van de informatie niet kunt achterhalen.
03:46
It's basically fake news for kids,
76
226241
1829
Het is eigenlijk nepnieuws voor kinderen
03:48
and we're training them from birth
77
228094
2161
en we zorgen er vanaf de geboorte voor dat ze klikken
03:50
to click on the very first link that comes along,
78
230279
2506
op de eerste link die langs komt,
03:52
regardless of what the source is.
79
232809
1953
ongeacht wat de bron is.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Dat lijkt geen erg goed idee.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Dit is ook echt populair op YouTube voor kinderen.
04:01
This is called the "Finger Family Song."
82
241133
1928
Dit heet de ‘Finger Family Song’.
Ik hoorde net iemand in het publiek kreunen.
04:03
I just heard someone groan in the audience.
83
243085
2018
04:05
This is the "Finger Family Song."
84
245127
1624
Dit is de ‘Finger Family Song’.
04:06
This is the very first one I could find.
85
246775
1930
Dit is de eerste die ik kon vinden.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Hij is van 2007 en is slechts 200.000 keer bekeken,
04:11
which is, like, nothing in this game.
87
251582
1976
wat echt niets is in dit spel.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Maar het muziekje is een echte oorworm,
04:16
which I'm not going to play to you,
89
256458
1682
die ik jullie zal besparen,
04:18
because it will sear itself into your brain
90
258164
2008
omdat hij zich in je hersenen brandt
04:20
in the same way that it seared itself into mine,
91
260196
2395
net zoals hij zich in de mijne inbrandde.
04:22
and I'm not going to do that to you.
92
262615
1770
Ik wil het jullie niet aandoen.
04:24
But like the surprise eggs,
93
264409
1344
Maar net als de surprise-eieren
04:25
it's got inside kids' heads
94
265777
2164
kroop het in de kinderhoofdjes
04:27
and addicted them to it.
95
267965
1607
en maakte hen eraan verslaafd.
04:29
So within a few years, these finger family videos
96
269596
2531
Binnen enkele jaren verschenen deze ‘vingerfamilie’- video’s overal,
04:32
start appearing everywhere,
97
272151
1303
04:33
and you get versions in different languages
98
273478
2029
met versies in verschillende talen,
04:35
with popular kids' cartoons using food
99
275531
2121
met populaire kinderstrips met voedsel,
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
of met eender wat voor animatie-elementen
die je ter beschikking hebt.
04:40
you seem to have lying around.
101
280250
2252
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
En er zijn miljoenen en miljoenen van deze video's online beschikbaar
04:48
available online in all of these kind of insane combinations.
103
288223
3435
in allerlei soorten krankzinnige combinaties.
04:51
And the more time you start to spend with them,
104
291682
2228
Hoe meer tijd je eraan spendeert,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
des te gekker je je begint te voelen.
04:57
And that's where I kind of launched into this,
106
297652
3333
Daar ben ik dan mee begonnen,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
over hoe dat gevoel van diepe vreemdheid en diep gebrek aan inzicht
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
aan hoe dit ding, dat je overal ziet, in elkaar werd gestoken.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Omdat het onmogelijk is om de herkomst te weten
of wie ze maakt.
05:12
Like, who is making them?
110
312089
1241
Sommige lijken gemaakt door teams van professionele animators.
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Sommige lijken gewoon willekeurig samengesteld door software.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Sommige zien eruit als heel normaal kindervermaak.
05:23
And some of them are from people
114
323704
1552
En sommige lijken te komen van mensen
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
die je beter weghoudt van kinderen.
05:28
(Laughter)
116
328311
1615
(Gelach)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
En dan weer de onmogelijkheid om de bron te achterhalen --
05:35
like, this is a bot?
118
335651
1156
zoals, is dit een bot?
05:36
Is this a person? Is this a troll?
119
336831
2647
Of een persoon? Of een trol?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Wat betekent het dat we het verschil tussen deze dingen niet meer zien?
05:41
between these things anymore?
121
341908
1583
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
En komt dat gevoel van onzekerheid jullie ook niet een beetje bekend voor?
De belangrijkste manier om views te krijgen --
05:50
So the main way people get views on their videos --
123
350145
2580
05:52
and remember, views mean money --
124
352749
1707
en views krijgen brengt geld op --
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
is deze video’s te voorzien van populaire termen.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Bijvoorbeeld surprise-eieren
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
koppel je aan ‘Paw Patrol’ of ‘Easter Egg’
06:03
or whatever these things are,
128
363047
1393
of wat dan ook,
06:04
all of these words from other popular videos into your title,
129
364464
2893
en steek woorden uit andere populaire video’s in je titel
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
tot een nietszeggende taalpuree
06:10
that doesn't make sense to humans at all.
131
370373
2498
zonder enige betekenis voor mensen.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Want natuurlijk zijn het alleen erg kleine kinderen die je video bekijken
06:16
and what the hell do they know?
133
376465
1827
en die beseffen het niet.
06:18
Your real audience for this stuff is software.
134
378316
3007
Je echte publiek voor dit spul is software.
06:21
It's the algorithms.
135
381347
1156
Het zijn de algoritmen.
06:22
It's the software that YouTube uses
136
382527
1855
Het is de software van YouTube
06:24
to select which videos are like other videos,
137
384406
2483
die kiest welke video's net als andere video's zijn,
06:26
to make them popular, to make them recommended.
138
386913
2243
om ze populair te maken, om ze aan te bevelen.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
En dat is waarom je eindigt met dit soort volkomen zinloze puree,
06:32
both of title and of content.
140
392665
2071
zowel van titel als van inhoud.
06:35
But the thing is, you have to remember,
141
395792
1894
Maar je mag niet vergeten
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
dat er nog steeds mensen zitten achter dit algoritmisch geoptimaliseerd systeem,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
mensen die meer en meer
06:45
these increasingly bizarre combinations of words,
144
405026
3066
deze steeds meer bizarre woordcombinaties moeten naspelen
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
als een wanhopige improvisatiekunstenaar die reageert op het gecombineerde gekrijs
06:53
of a million toddlers at once.
146
413313
2203
van een miljoen peuters.
06:57
There are real people trapped within these systems,
147
417168
2468
Er zitten echte mensen gevangen in deze systemen
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
en dat is het andere zeer vreemde iets aan deze door algoritmen gedreven cultuur,
07:03
because even if you're human,
149
423739
1381
want zelfs als mens, moet je je uiteindelijk ​​
07:05
you have to end up behaving like a machine
150
425144
2145
als een machine gaan gedragen om te overleven.
07:07
just to survive.
151
427313
1800
07:09
And also, on the other side of the screen,
152
429137
2100
En ook aan de andere kant van het scherm
07:11
there still are these little kids watching this stuff,
153
431261
2947
zitten nog steeds die kleine kinderen te kijken naar dit spul,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
vastgeplakt, hun volledige aandacht gegrepen door die rare mechanismen.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
De meesten zijn zelfs te klein om een website gebruiken.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Ze tokkelen gewoon wat met hun kleine handjes op het scherm.
07:24
And so there's autoplay,
157
444890
1217
En dus is er autoplay,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
waardoor deze video’s in een lus blijven doorspelen,
07:29
endlessly for hours and hours at a time.
159
449734
2059
onophoudelijk, uren en uren aan een stuk.
07:31
And there's so much weirdness in the system now
160
451817
2843
Het systeem is nu zo raar
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
dat autoplay je op hele vreemde plaatsen brengt.
07:37
This is how, within a dozen steps,
162
457717
2488
Zo kan je in een tiental stappen
07:40
you can go from a cute video of a counting train
163
460229
3158
van een leuke video met een tellende trein
07:43
to masturbating Mickey Mouse.
164
463411
2442
bij een masturberende Mickey Mouse terechtkomen.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Ja. Sorry daarvoor.
07:48
This does get worse.
166
468841
1700
Het wordt nog erger.
07:50
This is what happens
167
470565
1282
Dit is wat er gebeurt
07:51
when all of these different keywords,
168
471871
3086
wanneer al deze verschillende zoekwoorden,
07:54
all these different pieces of attention,
169
474981
2461
al deze verschillende aandachtspunten,
07:57
this desperate generation of content,
170
477466
2807
deze wanhopige productie van inhoud,
08:00
all comes together into a single place.
171
480297
2582
allemaal op een enkele plaats samenkomt.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Daar vind je die zeer rare trefwoorden samen.
08:08
You cross-breed the finger family video
173
488367
2391
Je bestuift de vingerfamilie-video
08:10
with some live-action superhero stuff,
174
490782
2088
met wat superheldenactie,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
doe er nog wat rare, trolse grappen of zoiets bij,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
en plotseling kom je op een zeer rare plek terecht.
08:19
The stuff that tends to upset parents
177
499564
2113
Bij dingen die ouders nogal van streek maken,
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
dingen met een gewelddadige of seksuele inhoud.
08:25
Children's cartoons getting assaulted,
179
505056
2822
Kindercartoons met aangevallen worden,
08:27
getting killed,
180
507902
2018
gedood worden,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
met rare, echt angstaanjagende dingen voor kinderen.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Software die via al deze verschillende invloeden
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
automatisch de ergste nachtmerries voor kinderen genereert.
08:39
And this stuff really, really does affect small children.
184
519995
2701
En dit spul heeft echt, echt invloed op kleine kinderen.
08:42
Parents report their children being traumatized,
185
522720
2866
Ouders zeggen dat hun kinderen getraumatiseerd zijn,
08:45
becoming afraid of the dark,
186
525610
1392
altijd bang in het donker,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
altijd bang van hun striphelden.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Het belangrijkste om te onthouden is dat als je kleine kinderen hebt,
08:54
keep them the hell away from YouTube.
189
534159
1996
je ze absoluut moet weghouden van YouTube.
08:56
(Applause)
190
536743
3949
(Applaus)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Wat mij pas echt verontrust,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
is dat ik betwijfel of we begrijpen hoe we zover zijn geraakt.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
We hebben al deze beïnvloeding, al deze dingen dooreen gemixt
09:13
and munged them together in a way that no one really intended.
194
553906
2953
op een manier die niemand echt bedoelde.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
En toch is dit ook de manier waarop we de hele wereld opbouwen.
09:20
We're taking all of this data,
196
560063
1773
We nemen al deze gegevens,
09:21
a lot of it bad data,
197
561860
1447
een hoop slechte data,
09:23
a lot of historical data full of prejudice,
198
563331
3029
een hoop historische gegevens vol vooroordelen
09:26
full of all of our worst impulses of history,
199
566384
2837
en onze slechtste neigingen uit ons verleden,
09:29
and we're building that into huge data sets
200
569245
2049
en steken die in grote datasets
09:31
and then we're automating it.
201
571318
1423
die we dan automatiseren.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
We vermalen dat tot dingen als kredietrapporten,
09:36
into insurance premiums,
203
576291
1634
verzekeringspremies,
09:37
into things like predictive policing systems,
204
577949
2693
voorspellende controlesystemen,
09:40
into sentencing guidelines.
205
580666
1762
veroordelingsrichtlijnen.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Zo construeren we in feite de wereld van vandaag
09:45
out of this data.
207
585297
1151
uit deze gegevens.
09:46
And I don't know what's worse,
208
586472
1698
En ik weet niet wat erger is,
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
dat we een systeem bouwden dat volledig geoptimaliseerd lijkt
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
voor de allerslechtste aspecten van het menselijk gedrag,
09:54
or that we seem to have done it by accident,
211
594278
2425
of dat we het misschien per ongeluk deden,
09:56
without even realizing that we were doing it,
212
596727
2207
zonder zelfs maar te beseffen dat we het deden,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
omdat we de systemen die we bouwden niet echt begrepen
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
en we niet echt doorhadden hoe er iets anders mee te doen.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Er zijn een paar dingen waarvan ik denk dat ze dit lijken te sturen,
10:10
most fully on YouTube,
216
610158
1189
vooral op YouTube,
10:11
and the first of those is advertising,
217
611371
1827
en het eerste is de reclame,
10:13
which is the monetization of attention
218
613222
2837
dat is het te gelde maken van de aandacht
10:16
without any real other variables at work,
219
616083
3136
zonder enige echte andere variabelen aan het werk,
10:19
any care for the people who are actually developing this content,
220
619243
3885
geen zorg voor de mensen die deze inhoud ontwikkelen,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
de centralisatie van de macht, de scheiding van die dingen.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Ik denk dat wat je ook denkt
over het gebruik van de reclame om iets te ondersteunen,
10:29
to kind of support stuff,
223
629980
1238
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
dat de aanblik van volwassen mannen die in luiers ronddollen in het zand
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
in de hoop dat een algoritme dat ze niet echt begrijpen
10:37
will give them money for it
226
637340
1315
hen er geld voor zal geven,
10:38
suggests that this probably isn't the thing
227
638679
2037
suggereert dat dit niet de beste basis is voor onze samenleving en cultuur
10:40
that we should be basing our society and culture upon,
228
640740
2563
en van de manier waarop we ze financieren.
10:43
and the way in which we should be funding it.
229
643327
2160
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
En wat deze automatisering vooral ook aanstuurt,
10:49
which is the deployment of all of this technology
231
649054
2329
is de toepassing van al deze technologie zodra ze er is,
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
zonder enige vorm van toezicht,
10:53
and then once it's out there,
233
653952
1412
en eens ze er is,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
we onze handen in de lucht steken en roepen:
“Hè, wij niet, het is de technologie.
10:59
Like, "We're not involved in it."
235
659255
1642
Wij zijn er niet bij betrokken.”
11:00
That's not really good enough,
236
660921
1767
Dat is echt niet goed genoeg,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
omdat dit spul niet alleen algoritmisch wordt bestuurd,
11:05
it's also algorithmically policed.
238
665446
2498
maar ook algoritmisch gecontroleerd.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Toen YouTube hier aandacht aan begon te geven,
11:10
the first thing they said they'd do about it
240
670840
2087
zeiden ze dat ze betere algoritmen voor machinaal leren zouden inzetten
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
11:15
to moderate the content.
242
675670
1329
om de inhoud te matigen.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Machineleren ...
Elke deskundige kan je vertellen dat dit eigenlijk software is
11:20
is basically what we've started to call
244
680532
1896
11:22
software that we don't really understand how it works.
245
682452
2588
waarvan we niet echt begrijpen hoe hij werkt.
11:25
And I think we have enough of that already.
246
685064
3983
Daar hebben we al genoeg van, zou ik denken.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
We moeten niet aan KI overlaten
om te beslissen wat wel of niet geschikt is,
11:32
what's appropriate or not,
248
692261
1251
11:33
because we know what happens.
249
693536
1436
omdat we weten wat er dan gebeurt.
11:34
It'll start censoring other things.
250
694996
1688
Het zal andere dingen gaan censureren.
11:36
It'll start censoring queer content.
251
696708
1783
Bijvoorbeeld items over homo’s.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
Of het vrije woord.
11:40
What's allowed in these discourses,
253
700776
1925
Wat hier mag,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
moet je niet overlaten aan onverantwoordelijke systemen.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Aan deze discussie zouden we allemaal moeten deelnemen.
11:48
But I'd leave a reminder
256
708817
1308
Maar ik zou er op willen wijzen
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
dat het alternatief ook niet erg leuk is.
11:52
YouTube also announced recently
258
712926
1535
YouTube kondigde onlangs ook aan
11:54
that they're going to release a version of their kids' app
259
714485
2767
dat er een versie van hun kinderapp uitkomt
11:57
that would be entirely moderated by humans.
260
717276
2407
die volledig door mensen zou worden gemodereerd.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Facebook –- Zuckerberg zei ongeveer hetzelfde in het Congres
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
toen ze hem vroegen over hoe ze hun zaken zouden gaan matigen.
12:06
He said they'd have humans doing it.
263
726787
1747
Hij zei dat mensen het zouden gaan doen.
12:08
And what that really means is,
264
728558
1459
Dat betekent in feite
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
dat niet peuters dit als eersten zouden zien,
maar wel onderbetaalde, losse werknemers met een contract,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
zonder juiste mentale ondersteuning
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
en evengoed het slachtoffer ervan.
12:19
(Laughter)
269
739250
1096
(Gelach)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Ik denk dat we dat allemaal veel beter kunnen doen.
12:22
(Applause)
271
742995
2499
(Applaus)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Wat volgens mij die twee dingen echt samenbrengt,
12:30
is agency.
273
750705
1420
is ‘agency’.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Het gaat om hoeveel we echt begrijpen. Met agency bedoel ik:
12:35
how we know how to act in our own best interests.
275
755330
4390
hoe weten we hoe te handelen in ons eigen belang.
12:39
Which -- it's almost impossible to do
276
759744
1787
Wat bijna onmogelijk is om te doen
12:41
in these systems that we don't really fully understand.
277
761555
3485
met deze systemen die we niet ten volle begrijpen.
12:45
Inequality of power always leads to violence.
278
765064
3071
Machtsongelijkheid leidt altijd tot geweld.
En we kunnen zien dat in deze systemen
12:48
And we can see inside these systems
279
768159
1685
12:49
that inequality of understanding does the same thing.
280
769868
2611
ongelijkheid van begrip hetzelfde doet.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Dat kunnen we al doen om deze systemen te verbeteren:
12:56
it's to make them more legible to the people who use them,
282
776306
2718
ze begrijpelijker maken voor de gebruikers,
12:59
so that all of us have a common understanding
283
779048
2196
zodat we allemaal weten wat hier werkelijk gaande is.
13:01
of what's actually going on here.
284
781268
1851
13:03
The thing, though, I think most about these systems
285
783970
2968
Het probleem met de meeste van deze systemen is
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
dat dit niet alleen geldt, zoals ik hopelijk heb uitgelegd, voor YouTube.
13:10
It's about everything.
287
790843
1312
Het gaat over alles.
13:12
These issues of accountability and agency,
288
792179
2444
Deze kwesties van verantwoording en agency,
13:14
of opacity and complexity,
289
794647
2225
van ondoorzichtigheid en complexiteit,
13:16
of the violence and exploitation that inherently results
290
796896
3177
van het geweld en uitbuiting die inherent voortkomen
13:20
from the concentration of power in a few hands --
291
800097
2794
uit de concentratie van macht in weinig handen --
13:22
these are much, much larger issues.
292
802915
2579
dat zijn veel, veel grotere problemen.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Niet alleen problemen van YouTube of van technologie in het algemeen,
13:30
and they're not even new.
294
810106
1265
ze zijn zelfs niet nieuw.
13:31
They've been with us for ages.
295
811395
1461
We hebben ze al eeuwen.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Maar tenslotte bouwden wij dit systeem, dit mondiale systeem, het internet,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
dat ons de problemen laat zien op deze bijzondere manier,
waardoor we ze niet kunnen ontkennen.
13:40
making them undeniable.
298
820337
1547
13:41
Technology has this extraordinary capacity
299
821908
2820
Technologie heeft de buitengewone capaciteit
13:44
to both instantiate and continue
300
824752
3973
om al onze meest bijzondere, vaak verborgen verlangens en vooroordelen
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
te presenteren en te continueren
13:53
and encoding them into the world,
302
833021
1866
en ze in de wereld te coderen,
13:54
but it also writes them down so that we can see them,
303
834911
3474
maar ze ook op te schrijven, zodat we ze kunnen zien,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
zodat we niet meer kunnen doen alsof ​​ze niet bestaan.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
We moeten stoppen met denken over technologie
als een oplossing voor al onze problemen,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
maar ze zien als een gids voor wat die problemen werkelijk zijn,
14:09
so we can start thinking about them properly
307
849887
2144
zodat we er op de juiste manier aan gaan denken
14:12
and start to address them.
308
852055
1766
en ze beginnen aan te pakken.
14:13
Thank you very much.
309
853845
1335
Veel dank.
14:15
(Applause)
310
855204
5192
(Applaus)
14:21
Thank you.
311
861733
1188
Dank je.
14:22
(Applause)
312
862945
2869
(Applaus)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Helen Walters: James, ik dank je voor je komst en je talk.
14:32
So it's interesting:
314
872041
1189
Dit is interessant:
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
als je denkt aan de films waar robotheersers het overnemen,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
is het allemaal een beetje blitser dan wat jij beschrijft.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Maar ik vraag me af -- in die films zie je de weerstand toenemen.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Neemt de weerstand tegen dit spul ook toe?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Zie je geen positieve signalen, tekenen van verzet?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
James Bridle: Ik zie geen directe weerstand,
14:54
because I think this stuff is super long-term.
321
894947
2264
ik denk dat dit over superlange termijn werkt.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
Ik denk dat het diep ingebakken zit in de cultuur.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Een vriend van mij, Eleanor Saitta, zegt altijd
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
dat alle technologische problemen van voldoende omvang en reikwijdte
15:05
are political problems first of all.
325
905568
2267
in de eerste plaats politieke problemen zijn.
15:07
So all of these things we're working to address within this
326
907859
2785
Dus gaan al die dingen waaraan we willen werken
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
niet worden aangepakt door alleen maar betere technologie,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
maar door de samenleving te veranderen waarin deze technologieën ontstonden.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Nee, ik denk dat we nog een heel lange weg hebben te gaan.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Maar ik zei al dat door ze te ontleden,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
door ze uit te leggen, er heel eerlijk over te praten,
15:25
we can actually start to at least begin that process.
332
925236
2505
we tenminste met dat proces kunnen beginnen.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
HW: Wanneer je het hebt over begrip en digitale geletterdheid
15:31
I find it difficult to imagine
334
931351
1591
vind ik het moeilijk voor te stellen
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
dat we de last van digitale geletterdheid bij de gebruikers zelf moeten leggen.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Wie wordt verantwoordelijk voor opvoeding in deze nieuwe wereld?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
JB: Het gaat ieders verantwoordelijkheid worden,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
dat alles wat we doen, alles wat we bouwen, alles wat we maken,
15:47
needs to be made in a consensual discussion
339
947900
3692
moet worden gemaakt in samenspraak
15:51
with everyone who's avoiding it;
340
951616
1940
met iedereen die ze uit de weg gaat.
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
Dat we geen systemen bouwen bedoeld om mensen te verleiden
15:57
into doing the right thing,
342
957945
2300
om het juiste te doen,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
maar ze daadwerkelijk betrekken bij elke stap van hun opvoeding,
16:03
because each of these systems is educational.
344
963529
2278
omdat al deze systemen educatief zijn.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Hoe grimmig het ook is, ik hoop
16:08
that if you can take it and look at it properly,
346
968957
2262
dat als je het aanpakt en er vanuit de juiste hoek naar kijkt,
16:11
it's actually in itself a piece of education
347
971243
2089
het op zichzelf al een stuk opvoeding is
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
dat je toelaat om te zien hoe complexe systemen samenkomen en werken
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
en misschien deze kennis elders in de wereld kunnen toepassen.
16:20
HW: James, it's such an important discussion,
350
980667
2115
HW: James, dit is zo'n belangrijke discussie
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
en veel mensen hier staan ervoor open,
dus bedankt om onze voormiddag te beginnen.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
JB: Heel erg bedankt.
16:29
(Applause)
354
989364
1651
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7