The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,884,141 views ・ 2018-07-13

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Bianca Han Corector: Cristina Nicolae
00:12
I'm James.
0
12777
1183
Eu sunt James.
00:13
I'm a writer and artist,
1
13984
1686
Sunt scriitor și artist
00:15
and I make work about technology.
2
15694
2341
și domeniul meu este tehnologia.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Desenez schițe în mărime naturală pentru drone militare
00:22
in city streets around the world,
4
22389
1828
pe străzile orașelor de prin lume
00:24
so that people can start to think and get their heads around
5
24241
2950
pentru ca oamenii să se poată gândi și să poată înțelege
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
această tehnologie greu de văzut și greu de imaginat.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Eu concep lucruri precum rețele neurale care prezic rezultatele alegerilor,
00:35
based on weather reports,
8
35354
1737
având la bază prognozele vremii,
00:37
because I'm intrigued about
9
37115
1314
pentru că sunt intrigat
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
de posibilitățile propriu-zise pe care le au aceste tehnologii bizare.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Acum un an mi-am făcut o mașină care se conduce singură.
00:45
But because I don't really trust technology,
12
45855
2526
Însă, pentru că nu prea mă încred în tehnologie,
00:48
I also designed a trap for it.
13
48405
1928
i-am creat și o capcană.
00:50
(Laughter)
14
50777
1086
(Râsete)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Și fac toate acestea în special pentru că le consider absolut fascinante,
dar și pentru că eu cred că atunci când vorbim despre tehnologie,
00:56
but also because I think when we talk about technology,
16
56209
2602
00:58
we're largely talking about ourselves
17
58835
2619
vorbim, în mare măsură, despre noi înșine
01:01
and the way that we understand the world.
18
61478
2299
și despre modul în care înțelegem lumea.
01:03
So here's a story about technology.
19
63801
2442
Așa că, iată o poveste despre tehnologie.
01:07
This is a "surprise egg" video.
20
67520
2830
Acesta este un filmuleț despre „ouă cu surprize”.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Este un filmuleț cu cineva care desface o grămadă de ouă de ciocolată
01:13
and showing the toys inside to the viewer.
22
73746
2126
și arată jucăriile din interior.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Asta e tot. Numai asta face timp de șapte minute lungi.
01:19
And I want you to notice two things about this.
24
79428
3051
Și aș vrea să observați două aspecte despre acest lucru.
01:22
First of all, this video has 30 million views.
25
82503
4074
În primul rând, acest filmuleț are 30 milioane de vizualizări.
01:26
(Laughter)
26
86601
1275
(Râsete)
01:28
And the other thing is,
27
88376
1166
Și celălalt lucru:
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
el provine de pe un canal care are 6,3 milioane de abonați,
01:33
that has a total of eight billion views,
29
93459
2680
care are opt miliarde de vizualizări,
01:36
and it's all just more videos like this --
30
96163
3106
și sunt doar alte filmulețe ca acesta -
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 de milioane de oameni urmărind un om care desface aceste ouă.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Sună destul de ciudat, dar dacă am căuta „ouă cu surprize” pe YouTube,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
vom vedea că sunt 10 milioane de astfel de filmulețe,
01:52
and I think that's an undercount.
34
112240
1657
și cred că asta e o vagă estimare.
01:53
I think there's way, way more of these.
35
113921
1897
Cred că sunt mult, mult mai multe.
01:55
If you keep searching, they're endless.
36
115842
2242
Dacă vom continua să căutăm, sunt infinite.
01:58
There's millions and millions of these videos
37
118108
2159
Sunt milioane și milioane de astfel de filme
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
în nenumărate combinații sofisticate de firme și materiale,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
și tot mai multe sunt încărcate în fiecare zi.
02:07
Like, this is a strange world. Right?
40
127639
3511
Chiar că e o lume ciudată. Nu-i așa?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Dar chestia e că nu adulții vizionează aceste filmulețe.
02:14
It's kids, small children.
42
134581
2921
Ci puștii, copiii mici.
02:17
These videos are like crack for little kids.
43
137526
2154
Aceste filmulețe sunt ca un drog pentru copii.
02:19
There's something about the repetition,
44
139704
2075
S-ar părea că prezentarea repetată,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
mica doză de dopamină dată de descoperirea surprizei
02:24
that completely hooks them in.
46
144295
1866
e ceea ce îi atrage foarte tare.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Și copiii urmăresc aceste filmulețe iarăși și iarăși,
02:31
and they do it for hours and hours and hours.
48
151018
2327
și o fac ore întregi.
02:33
And if you try and take the screen away from them,
49
153369
2356
Și dacă încerci să le iei ecranul,
02:35
they'll scream and scream and scream.
50
155749
1782
vor începe să țipe mult și bine.
02:37
If you don't believe me --
51
157555
1262
Dacă nu mă credeți -
02:38
and I've already seen people in the audience nodding --
52
158841
2607
și deja am și văzut persoane din public dând din cap -
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
dacă nu mă credeți, căutați pe cineva care are copii, întrebați-i
02:44
and they'll know about the surprise egg videos.
54
164887
2340
și vă vor spune ei despre filmele cu ouă cu surpriză.
02:47
So this is where we start.
55
167251
2070
Așadar, de aici începem.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
E anul 2018 și cineva sau chiar mai mulți oameni
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
folosesc același mecanism care, la fel ca Facebook și Instagram,
02:56
to get you to keep checking that app,
58
176976
1989
ne fac să ne tot verificăm aplicația,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
și folosesc asta și pe YouTube pentru a „subjuga” creierul copiilor mici
03:02
in return for advertising revenue.
60
182998
1958
în schimbul veniturilor din publicitate.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Cel puțin, sper că asta fac.
03:08
I hope that's what they're doing it for,
62
188371
1955
Sper că pentru asta o fac,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
pentru că sunt căi mai simple de a obține vebituri din publicitate pe YouTube.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Poți să inventezi ceva sau să furi ceva.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Așa că, atunci când cauți desene animate foarte populare
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
ca „Peppa Pig” sau „Paw Patrol”,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
vei afla că sunt milioane și milioane din acestea online.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Desigur, cele mai multe nu sunt postate de creatorii originali.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Ele vin din încărcări peste încărcări din diferite conturi
03:31
and it's impossible to know who's posting them
70
211945
2240
și este imposibil să afli cine le postează
03:34
or what their motives might be.
71
214209
1822
sau care ar putea fi motivele lor.
03:36
Does that sound kind of familiar?
72
216428
1930
Toate astea vă sună cumva cunoscut?
03:38
Because it's exactly the same mechanism
73
218382
1980
Pentru că e exact același mecanism
03:40
that's happening across most of our digital services,
74
220386
2600
folosit de multe dintre serviciile noastre digitale
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
în care e imposibil să afli de unde vine informația.
03:46
It's basically fake news for kids,
76
226241
1829
De fapt, e știre falsă pentru copii,
03:48
and we're training them from birth
77
228094
2161
iar noi îi pregătim încă de la naștere
03:50
to click on the very first link that comes along,
78
230279
2506
să acceseze chiar primul link care apare,
03:52
regardless of what the source is.
79
232809
1953
indiferent de sursă.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Nu pare să fie o idee prea bună.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Iată altceva care are mare succes pe YouTube pentru copii.
04:01
This is called the "Finger Family Song."
82
241133
1928
Se numește „Cântecul Familiei Degețel.”
04:03
I just heard someone groan in the audience.
83
243085
2018
Am auzit pe cineva oftând în public.
04:05
This is the "Finger Family Song."
84
245127
1624
Iată „Cântecul Familiei Degețel.”
04:06
This is the very first one I could find.
85
246775
1930
E chiar primul pe care l-am putut găsi.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
E din 2007 și are doar 200.000 de vizualizări,
04:11
which is, like, nothing in this game.
87
251582
1976
ceea ce e foarte puțin în acest „joc”.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Dar are o melodie îngrozitor de pregnantă,
04:16
which I'm not going to play to you,
89
256458
1682
pe care n-am să v-o pun acum,
04:18
because it will sear itself into your brain
90
258164
2008
pentru că vi s-ar „lipi” de creier,
04:20
in the same way that it seared itself into mine,
91
260196
2395
așa cum s-a întâmplat în cazul meu,
04:22
and I'm not going to do that to you.
92
262615
1770
și n-am de gând să vă fac așa ceva.
04:24
But like the surprise eggs,
93
264409
1344
Dar, ca și ouăle cu surprize,
04:25
it's got inside kids' heads
94
265777
2164
melodia a intrat în capul copiilor
04:27
and addicted them to it.
95
267965
1607
și i-a făcut dependenți de ea.
04:29
So within a few years, these finger family videos
96
269596
2531
În doar câțiva ani, filmele cu familia Degețel
04:32
start appearing everywhere,
97
272151
1303
au tot apărut peste tot,
04:33
and you get versions in different languages
98
273478
2029
în variante în diverse limbi,
04:35
with popular kids' cartoons using food
99
275531
2121
cu desene animate care folosesc mâncare
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
sau, sincer, orice fel de elemente de animație
04:40
you seem to have lying around.
101
280250
2252
pe care le ai în preajma ta.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
Sunt milioane și milioane de astfel de filmulețe
04:48
available online in all of these kind of insane combinations.
103
288223
3435
accesibile pe internet, în tot felul de combinații ciudate.
04:51
And the more time you start to spend with them,
104
291682
2228
Cu cât începi să petreci mai mult timp cu ele,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
cu atât ai senzația că te înnebunesc.
04:57
And that's where I kind of launched into this,
106
297652
3333
Ăsta e momentul în care am început să mă ocup de asta,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
de acel sentiment bizar dat de lipsa de înțelegere
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
a felului în care era conceput acel ceva prezent mereu în jurul meu.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Căci e imposibil să știm de unde vin aceste lucruri.
05:12
Like, who is making them?
110
312089
1241
Cum ar fi, cine le face?
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
Unele par a fi concepute de echipe de animatori profesioniști.
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Altele sunt asamblate întâmplător de vreun program software,
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Unele sunt chiar niște superbi animatori pentru copii.
05:23
And some of them are from people
114
323704
1552
Unele vin din partea unor oameni
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
care nu ar trebui lăsați în preajma copiilor.
05:28
(Laughter)
116
328311
1615
(Râsete)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Repet, această imposibilitate de a ști cine creează aceste lucruri -
05:35
like, this is a bot?
118
335651
1156
o fi un program de calculator
05:36
Is this a person? Is this a troll?
119
336831
2647
sau e o persoană? E un trol?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Ce înseamnă să nu mai putem face diferența
05:41
between these things anymore?
121
341908
1583
dintre aceste lucruri?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Mai mult, nu vi se pare că această nesiguranța vă este familiară?
05:50
So the main way people get views on their videos --
123
350145
2580
În principal, oamenii își asigură vizualizările —
05:52
and remember, views mean money --
124
352749
1707
reținem, vizualizările înseamnă bani —
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
folosind în titlurile filmulețelor termeni foarte populari.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Luăm, de pildă, „ouăle cu surprize”
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
plus „Patrula Cățelușilor”, „Ouă de Paște”
06:03
or whatever these things are,
128
363047
1393
sau orice altceva,
06:04
all of these words from other popular videos into your title,
129
364464
2893
cuvinte din alte filmulețe populare, aduse în titlu,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
până obținem un soi de terci lingvistic fără înțeles,
06:10
that doesn't make sense to humans at all.
131
370373
2498
ce nu mai are niciun sens pentru oameni.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Căci doar copiii mici se uită la astfel de filmulețe
06:16
and what the hell do they know?
133
376465
1827
și ce naiba știu ei?
06:18
Your real audience for this stuff is software.
134
378316
3007
Publicul tău țintă e programul software.
06:21
It's the algorithms.
135
381347
1156
Sunt algoritmii.
06:22
It's the software that YouTube uses
136
382527
1855
Programul de soft folosit de YouTube
06:24
to select which videos are like other videos,
137
384406
2483
pentru a alege ce filmulețe se aseamănă,
06:26
to make them popular, to make them recommended.
138
386913
2243
pentru a le face populare, pentru a le recomanda.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
Așa ne alegem cu un amestec total lipsit de sens
06:32
both of title and of content.
140
392665
2071
în titlu și în conținut.
06:35
But the thing is, you have to remember,
141
395792
1894
Dar, să nu uităm,
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
încă există oameni în acest sistem optimizat algoritmic,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
care sunt forțați să răspundă
06:45
these increasingly bizarre combinations of words,
144
405026
3066
la aceste combinații bizare de cuvinte,
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
precum un artist de improvizație reacționând în fața țipetelor simultane
06:53
of a million toddlers at once.
146
413313
2203
ale milioane de copilași.
06:57
There are real people trapped within these systems,
147
417168
2468
Oameni adevărați sunt captivi în aceste sisteme,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
un alt aspect deosebit de straniu al culturii dirijate prin algoritmi,
07:03
because even if you're human,
149
423739
1381
căci, deși suntem oameni,
07:05
you have to end up behaving like a machine
150
425144
2145
ajungem să ne purtăm precum mașini
07:07
just to survive.
151
427313
1800
doar pentru a supraviețui.
07:09
And also, on the other side of the screen,
152
429137
2100
De cealaltă parte a ecranului,
07:11
there still are these little kids watching this stuff,
153
431261
2947
încă îi avem pe copilașii care vizionează captivați,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
total absorbiți de aceste mecanisme ciudate.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Majoritatea sunt prea mici să intre pe pagina web.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Doar lovesc ecranul cu mâinile lor mici.
07:24
And so there's autoplay,
157
444890
1217
Și filmulețul repornește
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
și o ia mereu de la început ca într-o buclă temporală,
07:29
endlessly for hours and hours at a time.
159
449734
2059
ore și ore, la nesfârșit.
07:31
And there's so much weirdness in the system now
160
451817
2843
Și e atâta ciudățenie în sistem acum,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
încât reluările ne duc în niște locuri bizare.
07:37
This is how, within a dozen steps,
162
457717
2488
Astfel încât, cu doar câțiva pași,
07:40
you can go from a cute video of a counting train
163
460229
3158
poți ajunge de la un filmuleț simpatic cu un trenuleț care numără
07:43
to masturbating Mickey Mouse.
164
463411
2442
la un Mickey Mouse care se masturbează.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Da. Îmi pare rău pentru asta.
07:48
This does get worse.
166
468841
1700
Și asta se înrăutățește.
07:50
This is what happens
167
470565
1282
Iată ce se întâmplă
07:51
when all of these different keywords,
168
471871
3086
când toate aceste cuvinte cheie diferite,
07:54
all these different pieces of attention,
169
474981
2461
toată atenția,
07:57
this desperate generation of content,
170
477466
2807
toată generarea disperată de conținut,
08:00
all comes together into a single place.
171
480297
2582
ajung să fie puse împreună în același loc.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Acolo unde aceste cuvinte cheie bizare dau rod.
08:08
You cross-breed the finger family video
173
488367
2391
Combinând filmulețul cu familia Degețel
08:10
with some live-action superhero stuff,
174
490782
2088
cu ceva acțiune cu super eroi,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
și adăugând ceva chestii ciudate, ---------- triviale,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
se ajunge într-o zonă cu adevărat stranie.
08:19
The stuff that tends to upset parents
177
499564
2113
Ceea ce îi deranjează pe părinți
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
este un material cu conținut violent sau sexual, nu-i așa?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Desene animate pentru copii, cu violență,
08:27
getting killed,
180
507902
2018
sau cu omoruri,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
farse bizare care, literalmente, îi sperie pe copii.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
E vorba de programe ce folosesc toate astea
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
pentru a le crea copiilor cele mai urâte coșmaruri.
08:39
And this stuff really, really does affect small children.
184
519995
2701
Și copiii mici sunt cu adevărat marcați.
08:42
Parents report their children being traumatized,
185
522720
2866
Părinții se plâng că le sunt traumatizați copiii,
08:45
becoming afraid of the dark,
186
525610
1392
că le e frică de întuneric,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
că se tem de personajele favorite din desenele animate.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Dacă ar fi să rețineți ceva de aici, în cazul în care aveți copii mici,
08:54
keep them the hell away from YouTube.
189
534159
1996
faceți bine și țineți-i departe de YouTube.
08:56
(Applause)
190
536743
3949
(Aplauze)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Un alt lucru care mă îngrijorează, referitor la această problemă,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
este că nu sunt sigur că noi înțelegem cum s-a ajuns în acest punct.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Am preluat toată această influență, toate lucrurile astea,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
și le-am combinat într-o manieră pe care n-a dorit-o nimeni.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
Totuși, acesta este felul în care ne construim întreaga lume.
09:20
We're taking all of this data,
196
560063
1773
Luăm toate informațiile,
09:21
a lot of it bad data,
197
561860
1447
multe dintre ele proaste,
09:23
a lot of historical data full of prejudice,
198
563331
3029
date istorice pline de prejudecăți
09:26
full of all of our worst impulses of history,
199
566384
2837
și de cele mai rele impulsuri ale istoriei
09:29
and we're building that into huge data sets
200
569245
2049
și concepem astfel seturi imense de date
09:31
and then we're automating it.
201
571318
1423
pe care le automatizăm.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Și le concentrăm în rapoarte de credit,
09:36
into insurance premiums,
203
576291
1634
asigurări premium,
09:37
into things like predictive policing systems,
204
577949
2693
sisteme de predicție în munca poliției,
09:40
into sentencing guidelines.
205
580666
1762
regulamente și directive.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Așa ne concepem lumea de azi,
09:45
out of this data.
207
585297
1151
din astfel de date.
09:46
And I don't know what's worse,
208
586472
1698
Și nu știu ce e mai rău:
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
că am construit un sistem care pare optimizat
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
pentru aspectele negative ale comportamentului uman
09:54
or that we seem to have done it by accident,
211
594278
2425
sau faptul că pare că am comis-o din greșeală,
09:56
without even realizing that we were doing it,
212
596727
2207
fără a ne da seama că am făcut-o
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
pentru că nu înțelegeam pe deplin sistemul pe care îl cream,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
pentru că nu înțelegeam pe deplin cum să schimbăm ceva prin el.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Ar fi o serie de lucruri care controlează totul
10:10
most fully on YouTube,
216
610158
1189
mai ales pe YouTube,
10:11
and the first of those is advertising,
217
611371
1827
iar primul ar fi publicitatea,
10:13
which is the monetization of attention
218
613222
2837
adică monetizarea atenției,
10:16
without any real other variables at work,
219
616083
3136
fără a ține cont de alte variabile reale,
10:19
any care for the people who are actually developing this content,
220
619243
3885
de oamenii care creează, de fapt, acest conținut,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
de centralizarea puterii sau de separarea acestor lucruri.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Și, orice am crede despre utilizarea publicității
10:29
to kind of support stuff,
223
629980
1238
ca fiind un fel de sprijin,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
imaginea unor adulți în scutece, tăvălindu-se prin nisip,
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
sperând că un algoritm pe care nu-l înțeleg pe deplin
10:37
will give them money for it
226
637340
1315
îi va îmbogăți,
10:38
suggests that this probably isn't the thing
227
638679
2037
sugerează că, probabil, nu pe așa ceva
10:40
that we should be basing our society and culture upon,
228
640740
2563
ar trebui să bazăm societatea și cultura,
10:43
and the way in which we should be funding it.
229
643327
2160
și că nu așa ar trebui s-o finanțăm.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Cealaltă cauză majoră a acestui proces e automatismul,
10:49
which is the deployment of all of this technology
231
649054
2329
adică utilizarea acestei tehnologii
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
de îndată ce apare, fără nicio omisiune,
10:53
and then once it's out there,
233
653952
1412
și, odată ce e lansată,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
ne aruncăm mâinile în aer zicând: „Nu noi suntem de vină, ci tehnologia.”
10:59
Like, "We're not involved in it."
235
659255
1642
Adică „Noi nu suntem implicați.”
11:00
That's not really good enough,
236
660921
1767
Asta nu e de ajuns,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
căci toate acestea nu sunt doar guvernate de algoritmi,
11:05
it's also algorithmically policed.
238
665446
2498
ci și controlate de algoritmi.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Când YouTube a început să acorde atenție acestui aspect,
11:10
the first thing they said they'd do about it
240
670840
2087
primul lucru pe care au zis că-l vor face
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
a fost să aplice algoritmi de învățare automată mai buni
11:15
to moderate the content.
242
675670
1329
ca să controleze conținutul.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Ei bine, așa cum v-ar spune orice expert, învățarea automată
11:20
is basically what we've started to call
244
680532
1896
este ceea ce generic numim
11:22
software that we don't really understand how it works.
245
682452
2588
program software pe care nu-l înțelegem pe deplin.
11:25
And I think we have enough of that already.
246
685064
3983
Și cred că avem deja destule.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
N-ar trebui să lăsăm IA să decidă
11:32
what's appropriate or not,
248
692261
1251
ce e potrivit și ce nu,
11:33
because we know what happens.
249
693536
1436
pentru că știm ce se întâmplă.
11:34
It'll start censoring other things.
250
694996
1688
Va cenzura alte lucruri.
11:36
It'll start censoring queer content.
251
696708
1783
Va cenzura conținut suspicios.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
Va cenzura discursuri publice bune.
11:40
What's allowed in these discourses,
253
700776
1925
Ceea ce e permis în aceste discursuri
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
n-ar trebui să fie decis de sisteme arbitrare.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Face parte dintr-o discuție pe care ar trebui să o avem cu toții.
11:48
But I'd leave a reminder
256
708817
1308
Dar aș lăsa drept memento
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
faptul că nici alternativa nu este mai plăcută.
11:52
YouTube also announced recently
258
712926
1535
YouTube a mai anunțat recent
11:54
that they're going to release a version of their kids' app
259
714485
2767
că va lansa o versiune a aplicației pentru copii
11:57
that would be entirely moderated by humans.
260
717276
2407
ce este moderată în întregime de oameni.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Facebook - Zuckerberg a spus cam același lucru la Congres,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
întrebat insistent cum își vor modera conținutul.
12:06
He said they'd have humans doing it.
263
726787
1747
A zis că oamenii vor rezolva asta.
12:08
And what that really means is,
264
728558
1459
Asta înseamnă, de fapt,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
nu copiii vor fi primii care vor vedea materialele,
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
ci niște angajați prost plătiți, cu un contract precar,
12:16
without proper mental health support
267
736100
1726
fără pregătire psihologică potrivită
12:17
being damaged by it as well.
268
737850
1376
care vor avea și ei de suferit.
12:19
(Laughter)
269
739250
1096
(Râsete)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Eu cred că putem mai mult.
12:22
(Applause)
271
742995
2499
(Aplauze)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Consider că ceea ce poate reuni aceste două lucruri
12:30
is agency.
273
750705
1420
este implicarea.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Anume, cât de mult înțelegem cu adevărat - prin implicare, mă refer
12:35
how we know how to act in our own best interests.
275
755330
4390
la cum știm ce să facem pentru a acționa în interesul nostru.
12:39
Which -- it's almost impossible to do
276
759744
1787
Ceea ce e aproape imposibil de făcut
12:41
in these systems that we don't really fully understand.
277
761555
3485
în aceste sisteme pe care nu le înțelegem pe deplin.
12:45
Inequality of power always leads to violence.
278
765064
3071
Disproporția de putere întotdeauna generează violență.
12:48
And we can see inside these systems
279
768159
1685
Și în interiorul acestor sisteme,
12:49
that inequality of understanding does the same thing.
280
769868
2611
înțelegerea inegală duce la același lucru.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Dacă e să putem face ceva pentru a îmbunătăți aceste sisteme,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
e să le facem mai accesibile celor care le utilizează,
12:59
so that all of us have a common understanding
283
779048
2196
astfel încât noi toți să putem înțelege
13:01
of what's actually going on here.
284
781268
1851
ce se întâmplă cu adevărat.
13:03
The thing, though, I think most about these systems
285
783970
2968
Problema cu aceste sisteme nu e, de fapt,
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
așa cum sper că am reușit să explic, legată doar de YouTube.
13:10
It's about everything.
287
790843
1312
E legată de totul din jur.
13:12
These issues of accountability and agency,
288
792179
2444
Chestiunile legate de responsabilitate și implicare,
13:14
of opacity and complexity,
289
794647
2225
de transparență și complexitate,
13:16
of the violence and exploitation that inherently results
290
796896
3177
de violență și exploatare, ce rezultă, în mod inevitabil,
13:20
from the concentration of power in a few hands --
291
800097
2794
din comasarea puterii în doar câteva mâini --
13:22
these are much, much larger issues.
292
802915
2579
sunt niște chestiuni mult, mult mai ample.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Nu sunt chestiuni legate doar de YouTube sau de tehnologie, în general,
13:30
and they're not even new.
294
810106
1265
și nici măcar nu sunt noi.
13:31
They've been with us for ages.
295
811395
1461
Ne preocupă de mult timp.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Doar că am construit acest sistem global, care este internetul,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
care acum ni le pune în fața ochilor într-un mod extraordinar,
13:40
making them undeniable.
298
820337
1547
făcându-le parte din realitate.
13:41
Technology has this extraordinary capacity
299
821908
2820
Tehnologia are această capacitate fabuloasă
13:44
to both instantiate and continue
300
824752
3973
de a scoate la lumină și a exploata
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
cele mai grozave, adesea ascunse, dorințe și prejudecăți ale noastre
13:53
and encoding them into the world,
302
833021
1866
și de a le „exprima” în lume,
13:54
but it also writes them down so that we can see them,
303
834911
3474
dar și de a le scrie, astfel încât să le vedem,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
să nu mai putem pretinde că ele nu mai există.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Trebuie să încetăm să mai credem că soluția la probleme este tehnologia
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
și să o considerăm, mai degrabă, un ghid pentru ceea ce reprezintă ele,
14:09
so we can start thinking about them properly
307
849887
2144
pentru a ne putea concentra asupra lor
14:12
and start to address them.
308
852055
1766
și pentru a începe să le rezolvăm.
14:13
Thank you very much.
309
853845
1335
Vă mulțumesc foarte mult.
14:15
(Applause)
310
855204
5192
(Aplauze)
14:21
Thank you.
311
861733
1188
Mulțumesc.
14:22
(Applause)
312
862945
2869
(Aplauze)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Helen Walters: James, îți mulțumesc că ai venit și ne-ai vorbit.
14:32
So it's interesting:
314
872041
1189
Așadar, e interesant:
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
dacă ne gândim la filmele în care roboții supremi preiau controlul,
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
pare mai fermecător decât ce ne descrii.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Dar, mă întreb: în acele filme, există o luptă pentru supremație.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Întâlnim așa ceva și în cazul materialelor în discuție?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Vezi vreun semn pozitiv, vreo tendință de rezistență?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
James Bridle: Nu știu ce să zic legat de rezistență,
14:54
because I think this stuff is super long-term.
321
894947
2264
consider că e o chestiune pe termen foarte lung.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
Cred că e foarte adânc imprimată în cultură.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
O prietenă, Eleanor Saitta, zice mereu
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
că orice probleme tehnologice cu destulă greutate și scop
15:05
are political problems first of all.
325
905568
2267
sunt, înainte de toate, probleme politice.
15:07
So all of these things we're working to address within this
326
907859
2785
Așa că, toate aceste chestiuni pe care vrem să le rezolvăm
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
nu se vor putea rezolva doar concepând o tehnologie mai bună,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
ci prin schimbarea societății care o produce.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Deci nu, acum cred că încă mai avem un drum al naibii de lung.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Dar, cred că dacă defalcăm problemele,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
dacă vorbim despre ele cu toată sinceritatea,
15:25
we can actually start to at least begin that process.
332
925236
2505
putem măcar să începem procesul de schimbare.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
HW: Când vorbești despre accesibilitate și cultură digitală,
15:31
I find it difficult to imagine
334
931351
1591
mi-e greu să-mi imaginez
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
că trebuie să punem povara culturalizării digitale în sarcina utilizatorului.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Dar a cui este responsabilitatea educației în această lume nouă?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
JB: O spun din nou, responsabilitatea ne cam aparține nouă, tuturor,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
căci tot ceea ce facem, tot ce construim, tot ceea ce creăm,
15:47
needs to be made in a consensual discussion
339
947900
3692
trebuie să fie făcut într-o discuție consensuală
15:51
with everyone who's avoiding it;
340
951616
1940
cu toți cei care o evită;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
că nu construim sisteme ce urmăresc să înșele, să păcălească oamenii
15:57
into doing the right thing,
342
957945
2300
să facă ce e bine.
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
ci să se implice în fiecare pas al educației lor,
16:03
because each of these systems is educational.
344
963529
2278
căci fiecare dintre aceste sisteme e educativ.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Asta e ceea ce sper, sper că și aceste aspecte sinistre,
16:08
that if you can take it and look at it properly,
346
968957
2262
dacă sunt privite corespunzător,
16:11
it's actually in itself a piece of education
347
971243
2089
pot constitui forme de educație
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
care să ne permită să vedem cât de complexe sunt sistemele în lucru
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
și să utilizăm cunoștințele dobândite oriunde altundeva în lume.
16:20
HW: James, it's such an important discussion,
350
980667
2115
HW: James, e o discuție foarte importantă
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
și știu că mulți din cei prezenți sunt deschiși și pregătiți,
îți mulțumim pentru că ai „deschis” ziua.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
JB: Mulțumesc mult. Noroc.
16:29
(Applause)
354
989364
1651
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7