The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Anthi Lakka Επιμέλεια: Chryssa R. Takahashi
00:12
I'm James.
0
12777
1183
Ονομάζομαι Τζέιμς.
00:13
I'm a writer and artist,
1
13984
1686
Είμαι συγγραφέας και καλλιτέχνης,
00:15
and I make work about technology.
2
15694
2341
και η δουλειά μου έχει να κάνει με την τεχνολογία.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Για παράδειγμα ζωγραφίζω στρατιωτικά μη επανδρωμένα αεροσκάφη
σε πραγματικό μέγεθος σε δρόμους πόλεων σε όλο τον κόσμο
00:22
in city streets around the world,
4
22389
1828
00:24
so that people can start to think and get their heads around
5
24241
2950
για να μπορέσουν οι άνθρωποι να σκεφτούν και να καταλάβουν
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
αυτές τις δυσδιάκριτες και δυσνόητες νέες τεχνολογίες.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Φτιάχνω νευρωνικά δίκτυα που προβλέπουν εκλογικά αποτελέσματα
00:35
based on weather reports,
8
35354
1737
και βασίζονται σε δελτία καιρού
00:37
because I'm intrigued about
9
37115
1314
γιατί με γοητεύει
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
το πόσες δυνατότητες δίνουν αυτές οι περίεργες νέες τεχνολογίες.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Πέρυσι έφτιαξα ένα αυτοκίνητο που κινείται μόνο του.
00:45
But because I don't really trust technology,
12
45855
2526
Δεν εμπιστεύομαι, όμως, την τεχνολογία
00:48
I also designed a trap for it.
13
48405
1928
και έτσι του έφτιαξα και μια φάκα.
00:50
(Laughter)
14
50777
1086
(Γέλια)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Ασχολούμαι μ' αυτά κυρίως γιατί τα βρίσκω συναρπαστικά
00:56
but also because I think when we talk about technology,
16
56209
2602
αλλά και γιατί νομίζω πως όταν μιλάμε για τεχνολογία
00:58
we're largely talking about ourselves
17
58835
2619
μιλάμε, κυρίως, για εμάς
01:01
and the way that we understand the world.
18
61478
2299
και τον τρόπο που αντιλαμβανόμαστε τον κόσμο.
01:03
So here's a story about technology.
19
63801
2442
Ακούστε μια ιστορία για την τεχνολογία.
01:07
This is a "surprise egg" video.
20
67520
2830
Αυτό είναι ένα βίντεο με «αυγά έκπληξη».
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Δείχνει κάποιον ν' ανοίγει δεκάδες σοκολατένια αυγά
01:13
and showing the toys inside to the viewer.
22
73746
2126
και να παρουσιάζει το παιχνίδι μέσα του.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Τελεία. Κάνει μόνο αυτό για επτά ολόκληρα λεπτά.
01:19
And I want you to notice two things about this.
24
79428
3051
Θέλω να προσέξτε δύο πράγματα.
01:22
First of all, this video has 30 million views.
25
82503
4074
Πρώτον, αυτό το βίντεο έχει 30 εκατομμύρια θεάσεις.
01:26
(Laughter)
26
86601
1275
(Γέλια)
01:28
And the other thing is,
27
88376
1166
Και δεύτερον,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
παίζεται σ' ένα κανάλι με 6,3 εκατομμύρια συνδρομητές
01:33
that has a total of eight billion views,
29
93459
2680
και συνολικά οκτώ δισεκατομμύρια θεάσεις
01:36
and it's all just more videos like this --
30
96163
3106
και υπάρχουν πολλά βίντεο σαν αυτό.
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 εκατομμύρια άτομα παρακολουθούν κάποιον να ανοίγει αυγά.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Μοιάζει αλλόκοτο αλλά αν ψάξετε για «αυγά έκπληξη» στο YouTube,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
θα σας βρει 10 εκατομμύρια τέτοια βιντεάκια
01:52
and I think that's an undercount.
34
112240
1657
αλλά νομίζω ότι είναι περισσότερα.
01:53
I think there's way, way more of these.
35
113921
1897
Πολύ περισσότερα.
01:55
If you keep searching, they're endless.
36
115842
2242
Αν συνεχίσετε την αναζήτηση, είναι αμέτρητα.
01:58
There's millions and millions of these videos
37
118108
2159
Υπάρχουν άπειρα τέτοια βίντεο
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
σε όλο και πιο μπαρόκ συνδυασμούς επώνυμων προϊόντων και υλικών.
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
Και ανεβαίνουν όλο και περισσότερα από αυτά κάθε μέρα.
02:07
Like, this is a strange world. Right?
40
127639
3511
Ένας αλλόκοτος κόσμος, σωστά;
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
'Ομως, δεν τα βλέπουν ενήλικες.
02:14
It's kids, small children.
42
134581
2921
Αλλά μικρά παιδιά.
02:17
These videos are like crack for little kids.
43
137526
2154
Είναι σαν ναρκωτικά για μικρά παιδιά.
02:19
There's something about the repetition,
44
139704
2075
Κάτι με το θέμα της επανάληψης
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
και τη συνεχή δόση ντοπαμίνης από την ανακάλυψη
02:24
that completely hooks them in.
46
144295
1866
τα εθίζει εντελώς.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Τα παιδιά παρακολουθούν αυτά τα βίντεο ξανά και ξανά,
02:31
and they do it for hours and hours and hours.
48
151018
2327
για ατελείωτες ώρες.
02:33
And if you try and take the screen away from them,
49
153369
2356
Αν προσπαθήσετε να τους πάρετε την οθόνη,
02:35
they'll scream and scream and scream.
50
155749
1782
ουρλιάζουν ασταμάτητα.
02:37
If you don't believe me --
51
157555
1262
Αν δεν με πιστεύετε, έχω δει άτομα στο κοινό να συμφωνούν,
02:38
and I've already seen people in the audience nodding --
52
158841
2607
αν δεν πιστεύετε, ρωτήστε κάποιον με μικρά παιδιά
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
και θα γνωρίζει για αυτά τα βίντεο.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
Θα αρχίσουμε, λοιπόν, από εδώ.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Είμαστε στο 2018 και κάποιοι ή πολλοί
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
χρησιμοποιούν τον ίδιο μηχανισμό με το Facebook και το Instagram
02:56
to get you to keep checking that app,
58
176976
1989
που σας κάνουν να ελέγχετε συνεχώς την εφαρμογή,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
και τον χρησιμοποιούν στο YouTube για να χακάρουν το μυαλό των παιδιών
03:02
in return for advertising revenue.
60
182998
1958
με αντάλλαγμα έσοδα από διαφημίσεις.
03:06
At least, I hope that's what they're doing.
61
186346
2001
Ελπίζω να το κάνουν μόνο γι' αυτό.
03:08
I hope that's what they're doing it for,
62
188371
1955
Ελπίζω να είναι μόνο γι' αυτό
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
γιατί υπάρχουν πιο εύκολοι τρόποι να βγάλεις τέτοια έσοδα στο YouTube.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Μπορείς να επινοήσεις ή να κλέψεις υλικό.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Αν αναζητήσετε πολύ δημοφιλή παιδικά,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
όπως «Πέπα το γουρουνάκι», ή «Κουταβοπερίπολος»
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
θα βρείτε, επίσης, εκατομμύρια τέτοια βίντεο στο διαδίκτυο.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Τα περισσότερα δεν ανεβαίνουν από τους δημιουργούς τους
03:28
They come from loads and loads of different random accounts,
69
208922
2999
αλλά από πολλούς λογαριασμούς,
03:31
and it's impossible to know who's posting them
70
211945
2240
και είναι αδύνατον να ξέρουμε ποιος τα ανεβάζει
03:34
or what their motives might be.
71
214209
1822
ή ποια είναι τα κίνητρά τους.
03:36
Does that sound kind of familiar?
72
216428
1930
Σας ακούγεται γνωστό όλο αυτό;
03:38
Because it's exactly the same mechanism
73
218382
1980
Είναι ακριβώς ο ίδιος μηχανισμός
03:40
that's happening across most of our digital services,
74
220386
2600
που βλέπουμε στις πιο πολλές ψηφιακές υπηρεσίες
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
όπου είναι αδύνατο να γνωρίζουμε την προέλευση των πληροφοριών.
03:46
It's basically fake news for kids,
76
226241
1829
Είναι ψευδείς ειδήσεις για παιδιά,
03:48
and we're training them from birth
77
228094
2161
και εμείς τα εκπαιδεύουμε από μωρά
03:50
to click on the very first link that comes along,
78
230279
2506
να κλικάρουν στον πρώτο σύνδεσμο που βλέπουν
03:52
regardless of what the source is.
79
232809
1953
άσχετα από το πού προέρχεται.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Δεν είναι πολύ καλή ιδέα.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
Δείτε κάτι ακόμα πολύ δημοφιλές για παιδιά, στο YouTube.
04:01
This is called the "Finger Family Song."
82
241133
1928
«Το Τραγούδι της Δακτυλοοικογένειας»
04:03
I just heard someone groan in the audience.
83
243085
2018
Άκουσα κάποιον στο κοινό να αναστενάζει.
04:05
This is the "Finger Family Song."
84
245127
1624
Δείτε το βίντεο του τραγουδιού.
04:06
This is the very first one I could find.
85
246775
1930
Είναι το πιο παλιό που βρήκα.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
Από το 2007 με μόνο 200.000 θεάσεις.
04:11
which is, like, nothing in this game.
87
251582
1976
Ψίχουλα δηλαδή.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Έχει μια μελωδία απίστευτα κολλητική.
04:16
which I'm not going to play to you,
89
256458
1682
Δεν θα βάλω ήχο
04:18
because it will sear itself into your brain
90
258164
2008
γιατί θα σας κάψει τον εγκέφαλο
04:20
in the same way that it seared itself into mine,
91
260196
2395
όπως έκανε και με τον δικό μου.
04:22
and I'm not going to do that to you.
92
262615
1770
Δεν θέλω να το πάθετε και εσείς.
04:24
But like the surprise eggs,
93
264409
1344
Όπως και τα «αυγά έκπληξη»,
04:25
it's got inside kids' heads
94
265777
2164
τρύπωσε στο μυαλό των παιδιών
04:27
and addicted them to it.
95
267965
1607
και προκάλεσε εθισμό.
04:29
So within a few years, these finger family videos
96
269596
2531
Λίγα χρόνια μετά, αυτά τα βίντεο
04:32
start appearing everywhere,
97
272151
1303
εμφανίζονται παντού, σε διαφορετικές γλώσσες
04:33
and you get versions in different languages
98
273478
2029
04:35
with popular kids' cartoons using food
99
275531
2121
με κινούμενα σχέδια που χρησιμοποιούν φαγητό
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
ή οτιδήποτε μπορείς να κουνήσεις
04:40
you seem to have lying around.
101
280250
2252
και σου βρίσκεται πρόχειρο.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
Και πάλι,
υπάρχουν εκατομμύρια τέτοια στο διαδίκτυο,
04:48
available online in all of these kind of insane combinations.
103
288223
3435
σε παλαβούς συνδυασμούς.
04:51
And the more time you start to spend with them,
104
291682
2228
Όσο περισσότερο τα παρακολουθείς
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
τόσο περισσότερο νιώθεις να τρελαίνεσαι.
04:57
And that's where I kind of launched into this,
106
297652
3333
Αυτό που με έκανε να ασχοληθώ με αυτά
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
είναι το αίσθημα του αλλόκοτου και του ανεξήγητου
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
του πώς δημιουργήθηκε όλο αυτό και βρίσκεται παντού γύρω μου.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Είναι αδύνατο να μάθουμε την πηγή τους.
Ποιος τα φτιάχνει;
05:12
Like, who is making them?
110
312089
1241
Κάποια μοιάζουν έργα επαγγελματιών.
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Άλλα φτιαγμένα στην τύχη από κάποιο πρόγραμμα.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Σε άλλα βλέπουμε νεαρούς παρουσιαστές παιδικών προγραμμάτων.
05:23
And some of them are from people
114
323704
1552
Όμως, κάποια είναι από ανθρώπους
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
που δεν θα έπρεπε να βρίσκονται κοντά σε παιδιά.
05:28
(Laughter)
116
328311
1615
(Γέλια)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Αυτή η αδυναμία να προσδιορίσουμε ποιος τα φτιάχνει --
05:35
like, this is a bot?
118
335651
1156
κάποιο μποτ;
05:36
Is this a person? Is this a troll?
119
336831
2647
Άνθρωποι; Τρολ;
05:39
What does it mean that we can't tell the difference
120
339502
2382
Και γιατί να μην μπορούμε να τα διαχωρίσουμε
05:41
between these things anymore?
121
341908
1583
όλα αυτά πια;
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Έχουμε πια εξοικειωθεί με αυτή την αβεβαιότητα;
05:50
So the main way people get views on their videos --
123
350145
2580
Ο κύριος τρόπος για να έχουν θεάσεις τα βίντεο --
05:52
and remember, views mean money --
124
352749
1707
θυμηθείτε, θεάσεις ίσον χρήμα --
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
είναι να γεμίσουν τους τίτλους τους με δημοφιλείς όρους.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Παίρνετε τον όρο «αυγό έκπληξη»
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
και προσθέτετε «Κουταβοπερίπολος», «Πασχαλινό αυγό»
06:03
or whatever these things are,
128
363047
1393
κάτι σαν αυτά εδώ, που είναι λέξεις από άλλα βίντεο
06:04
all of these words from other popular videos into your title,
129
364464
2893
και τα βάζεις στον τίτλο
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
και έχουμε, τελικά, μια σούπα από λέξεις χωρίς νόημα,
06:10
that doesn't make sense to humans at all.
131
370373
2498
εντελώς ακατανόητη από ανθρώπους.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Αφού τα βλέπουν μόνο μικρά παιδιά,
06:16
and what the hell do they know?
133
376465
1827
και τι στο καλό ξέρουν αυτά;
06:18
Your real audience for this stuff is software.
134
378316
3007
Το πραγματικό κοινό σου είναι τα προγράμματα.
06:21
It's the algorithms.
135
381347
1156
Οι αλγόριθμοι.
06:22
It's the software that YouTube uses
136
382527
1855
Τα προγράμματα που έχει το YouTube
06:24
to select which videos are like other videos,
137
384406
2483
για να βρίσκει παρόμοια βίντεο,
06:26
to make them popular, to make them recommended.
138
386913
2243
να τα κάνει δημοφιλή και προτεινόμενα.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
Έτσι καταλήγουμε σε αυτή την εντελώς ανούσια σούπα
06:32
both of title and of content.
140
392665
2071
ως προς τον τίτλο και το περιεχόμενο.
06:35
But the thing is, you have to remember,
141
395792
1894
Όμως θυμηθείτε
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
ότι πίσω από αυτό το σύστημα αλγόριθμων υπάρχουν άνθρωποι
06:42
people who are kind of increasingly forced to act out
143
402212
2790
που αναγκάζονται όλο και πιο πολύ να μιμηθούν
06:45
these increasingly bizarre combinations of words,
144
405026
3066
αυτούς τους όλο και πιο αλλόκοτους συνδιασμούς λέξεων.
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
Όπως ένας απελπισμένος καλλιτέχνης που ουρλιάζει ως απάντηση
06:53
of a million toddlers at once.
146
413313
2203
στα ταυτόχρονα ουρλιαχτά εκατομυρίων παιδιών.
06:57
There are real people trapped within these systems,
147
417168
2468
Πραγματικοί άνθρωποι παγιδευμένοι στα συστήματα.
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
Ένα άλλο παράξενο πράγμα σε αυτόν τον πολιτισμό των αλγορίθμων
07:03
because even if you're human,
149
423739
1381
είναι ότι ακόμη και αν είστε άνθρωποι τελικά φέρεστε σαν μηχανή
07:05
you have to end up behaving like a machine
150
425144
2145
07:07
just to survive.
151
427313
1800
μόνο και μόνο για να επιβιώσετε.
07:09
And also, on the other side of the screen,
152
429137
2100
Στην άλλη πλευρά της όψη της οθόνης
07:11
there still are these little kids watching this stuff,
153
431261
2947
έχουμε μικρά παιδιά να παρακολουθούν,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
κολλημένα, η προσοχή τους αιχμάλωτη αυτών των παράξενων μηχανισμών.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Τα πιο πολλά είναι πολύ μικρά για να χρησιμοποιούν ιστότοπους.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Απλώς πατάνε στην οθόνη με τα χεράκια τους.
07:24
And so there's autoplay,
157
444890
1217
Η αυτόματη αναπαραγωγή
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
παίζει αυτά τα βίντεο ξανά και ξανά
07:29
endlessly for hours and hours at a time.
159
449734
2059
για ώρες, χωρίς να σταματά.
07:31
And there's so much weirdness in the system now
160
451817
2843
Υπάρχουν τόσα αλλόκοτα πράγματα στο σύστημα
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
που ο αυτοματισμός σε κατευθύνει σε πολύ περίεργα μέρη.
07:37
This is how, within a dozen steps,
162
457717
2488
Και έτσι, μέσα σε λίγα βήματα,
07:40
you can go from a cute video of a counting train
163
460229
3158
βρίσκεσαι από ένα βίντεο με ένα τρενάκι που μετράει
07:43
to masturbating Mickey Mouse.
164
463411
2442
σε ένα με τον Μίκυ Μάους να αυνανίζεται.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Πράγματι. Και λυπάμαι γι' αυτό.
07:48
This does get worse.
166
468841
1700
Πραγματικά χειροτερεύει.
07:50
This is what happens
167
470565
1282
Αυτό συμβαίνει
07:51
when all of these different keywords,
168
471871
3086
όταν όλες αυτές οι λέξεις κλειδιά,
07:54
all these different pieces of attention,
169
474981
2461
όλα αυτά τα διάφορα τμήματα της προσοχής,
07:57
this desperate generation of content,
170
477466
2807
αυτή η απεγνωσμένη γενιά του περιεχομένου
08:00
all comes together into a single place.
171
480297
2582
συγκεντρώνονται σε ένα μέρος.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Έτσι όλες οι περίεργες αυτές λέξεις γυρίζουν μπούμερανγκ.
08:08
You cross-breed the finger family video
173
488367
2391
Διασταυρώνουμε το βίντεο της δακτυλοοικογένειας
08:10
with some live-action superhero stuff,
174
490782
2088
με μια δόση δράσης υπερήρωα
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
και προσθέτουμε κάτι σαν αστειάκι, σαν τρολλάρισμα
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
και ξαφνικά βρισκόμαστε σε μια πραγματικά περίεργη κατάσταση.
08:19
The stuff that tends to upset parents
177
499564
2113
Τα βίντεο που εξοργίζουν τους γονείς
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
είναι αυτά με βίαιο ή σεξουαλικό περιεχόμενο, σωστά;
08:25
Children's cartoons getting assaulted,
179
505056
2822
Παιδικοί ήρωες δέχονται επιθέσεις,
08:27
getting killed,
180
507902
2018
δολοφονούνται.
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
Παράξενες φάρσες που πραγματικά τρομοκρατούν τα παιδιά.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Πρόκειται για προγράμματα που συλλέγουν αυτά τα στοιχεία
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
και αυτοματοποιημένα δημιουργούν χείριστους παιδικούς εφιάλτες.
08:39
And this stuff really, really does affect small children.
184
519995
2701
Όλα αυτά πραγματικά επηρεάζουν τα μικρά παιδιά.
08:42
Parents report their children being traumatized,
185
522720
2866
Γονείς αναφέρονται σε ψυχολογικά τραύματα,
08:45
becoming afraid of the dark,
186
525610
1392
τα παιδιά φοβούνται το σκοτάδι, φοβούνται τον αγαπημένο τους ήρωα καρτούν.
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Κρατήστε αυτό από την ομιλία μου: αν έχετε μικρά παιδιά,
08:54
keep them the hell away from YouTube.
189
534159
1996
κρατήστε τα μακριά από το YouTube.
08:56
(Applause)
190
536743
3949
(Χειροκρότημα)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Αυτό, όμως, που πραγματικά με εκνευρίζει
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
είναι πως, μάλλον, ούτε καν καταλαβαίνουμε πώς φτάσαμε ως εδώ.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Πήραμε όλα αυτά τα στοιχεία
09:13
and munged them together in a way that no one really intended.
194
553906
2953
και τα επεξεργαστήκαμε με τρόπο πέρα από τις προθέσεις μας.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
Κι όμως, έτσι χτίζουμε τον κόσμο που μας περιβάλλει.
09:20
We're taking all of this data,
196
560063
1773
Συγκεντρώνουμε όλα αυτά τα δεδομένα,
09:21
a lot of it bad data,
197
561860
1447
πολλά απ' τα οποία αβάσιμα,
09:23
a lot of historical data full of prejudice,
198
563331
3029
πολλά με προκαταλήψεις γύρω από την ιστορία,
09:26
full of all of our worst impulses of history,
199
566384
2837
με τις χειρότερες απερισκεψίες της ιστορίας μας,
09:29
and we're building that into huge data sets
200
569245
2049
τα οργανώνουμε σε μεγάλες βάσεις δεδομένων
09:31
and then we're automating it.
201
571318
1423
και μετά, τα αυτοματοποιούμε.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Τα επεξεργαζόμαστε για να φτιάξουμε προφίλ πιστοληπτικής ικανότητας,
09:36
into insurance premiums,
203
576291
1634
το κόστος ασφάλιστρων,
09:37
into things like predictive policing systems,
204
577949
2693
για συστήματα που δίνουν προγνωστικά εγκληματικότητας,
09:40
into sentencing guidelines.
205
580666
1762
και οδηγίες για δικαστικές ποινές.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Με αυτόν τον τρόπο συγκροτούμε τον κόσμο μας σήμερα,
09:45
out of this data.
207
585297
1151
με βάση αυτά τα δεδομένα.
09:46
And I don't know what's worse,
208
586472
1698
Δεν ξέρω πιο είναι χειρότερο.
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
Η οικοδόμηση ενός συστήματος που μοιάζει το καλύτερο
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
για τις χειρότερες πτυχές της ανθρώπινης συμπεριφοράς
09:54
or that we seem to have done it by accident,
211
594278
2425
ή η υποψία ότι μάλλον φτιάχτηκε κατά λάθος
09:56
without even realizing that we were doing it,
212
596727
2207
χωρίς καν να το πάρουμε χαμπάρι
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
γιατί δεν κατανοούσαμε πραγματικά
τι σύστημα οικοδομούσαμε, ούτε πώς να το χρησιμοποιήσουμε διαφορετικά.
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Υπάρχουν κάποια πράγματα που φαίνονται να ωθούν όλα αυτά,
10:10
most fully on YouTube,
216
610158
1189
κυρίως στο YouTube
10:11
and the first of those is advertising,
217
611371
1827
και το πρώτο είναι οι διαφημίσεις,
10:13
which is the monetization of attention
218
613222
2837
η αναγωγή της προσοχής μας σε χρήμα
10:16
without any real other variables at work,
219
616083
3136
χωρίς κανέναν άλλον οδηγό,
10:19
any care for the people who are actually developing this content,
220
619243
3885
χωρίς να μας νοιάζουν οι άνθρωποι που δημιουργούν αυτό το περιεχόμενο,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
ο συγκεντρωτισμός της εξουσίας, ο διαχωρισμός των πραγμάτων.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Άσχετα από τη γνώμη σας για τη διαφήμιση σαν μέσο προώθησης,
10:29
to kind of support stuff,
223
629980
1238
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
η εικόνα ενήλικων ανδρών με πάνες να κυλιούνται στην άμμο, ελπίζοντας
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
ότι ένας ακαταλαβίστικος αλγόριθμος θα τους αποφέρει έτσι χρήματα,
10:37
will give them money for it
226
637340
1315
10:38
suggests that this probably isn't the thing
227
638679
2037
δείχνει ότι μάλλον δεν θα πρέπει να βασιστούμε στην διαφήμιση
10:40
that we should be basing our society and culture upon,
228
640740
2563
για να χρηματοδοτούμε την κοινωνία και τον πολιτισμό μας.
10:43
and the way in which we should be funding it.
229
643327
2160
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Το άλλο, που κυρίως δίνει ώθηση σε αυτά, είναι η αυτοματοποίηση.
10:49
which is the deployment of all of this technology
231
649054
2329
Δηλαδή η εφαρμογή όλης αυτής της τεχνολογίας
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
αμέσως μόλις εμφανιστεί, χωρίς κάποια εποπτεία.
10:53
and then once it's out there,
233
653952
1412
Και όταν γίνεται διαθέσιμη,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
σηκώνουμε τα χέρια και λέμε: «Η τεχνολογία φταίει, όχι εμείς.
10:59
Like, "We're not involved in it."
235
659255
1642
Εμείς δεν έχουμε καμία σχέση».
11:00
That's not really good enough,
236
660921
1767
Αυτό δεν βοηθάει,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
γιατί όλα αυτά όχι απλώς ρυθμίζονται από αλγόριθμους
11:05
it's also algorithmically policed.
238
665446
2498
αλλά και αστυνομεύονται από αυτούς.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
Όταν στο YouTube αντιλήφθηκαν το πρόβλημα,
11:10
the first thing they said they'd do about it
240
670840
2087
το πρώτο που είπαν ότι θα κάνουν
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
ήταν να φτιάξουν καλύτερους αλγόριθμους μηχανικής μάθησης
11:15
to moderate the content.
242
675670
1329
για έλεγχο περιεχομένου.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Αυτοί που γνωρίζουν θα σας πουν
11:20
is basically what we've started to call
244
680532
1896
ότι μηχανική μάθηση αποκαλούμε προγράμματα
11:22
software that we don't really understand how it works.
245
682452
2588
που δεν καταλαβαίνουμε πώς λειτουργούν.
11:25
And I think we have enough of that already.
246
685064
3983
Και υπάρχουν ήδη πολλά τέτοια.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Δεν πρέπει να αφήνουμε την τεχνητή νοημοσύνη να αποφασίζει
11:32
what's appropriate or not,
248
692261
1251
τι είναι κατάλληλο γιατί ξέρουμε τι θα συμβεί,
11:33
because we know what happens.
249
693536
1436
11:34
It'll start censoring other things.
250
694996
1688
θα λογοκρίνει κι άλλα, όπως ομοφυλοφιλικό περιεχόμενο,
11:36
It'll start censoring queer content.
251
696708
1783
ή αποδεκτό δημόσιο λόγο.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
11:40
What's allowed in these discourses,
253
700776
1925
Το τι επιτρέπεται σε έναν διάλογο
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
δεν πρέπει να το αποφασίζει ένα σύστημα που δεν λογοδοτεί
11:45
It's part of a discussion all of us should be having.
255
705846
2947
αλλά κάτι που εμείς όλοι πρέπει να αποφασίσουμε με διάλογο.
11:48
But I'd leave a reminder
256
708817
1308
Θέλω, όμως, να θυμίσω
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
ότι ούτε η εναλλακτική λύση είναι ευχάριστη.
11:52
YouTube also announced recently
258
712926
1535
Το YouTube ανακοίνωσε πρόσφατα
11:54
that they're going to release a version of their kids' app
259
714485
2767
ότι θα βγάλει μια έκδοση της εφαρμογής για παιδιά
που θα ελέγχεται εξ' ολοκλήρου από ανθρώπους.
11:57
that would be entirely moderated by humans.
260
717276
2407
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Το Facebook -- ο Ζούκερμπεργκ είπε κάτι παρόμοιο στο Κογκρέσο
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
όταν τον πίεσαν να πει πώς θα ασκούν έλεγχο.
12:06
He said they'd have humans doing it.
263
726787
1747
Είπε πως θα το κάνουν άνθρωποι.
Που, βασικά, σημαίνει ότι αντί για τα νήπια
12:08
And what that really means is,
264
728558
1459
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
που έβλεπαν πρώτα το περιεχόμενο,
θα το κάνουν κακοπληρωμένοι υπάλληλοι με επισφαλή συμβόλαια
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
και χωρίς ψυχολογική υποστήριξη για να διαλύονται κι αυτοί.
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
(Γέλια)
12:19
(Laughter)
269
739250
1096
Νομίζω πως μπορούμε και καλύτερα.
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
(Χειροκρότημα)
12:22
(Applause)
271
742995
2499
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Η ιδέα που ενώνει τη διαφήμιση και την αυτοματοποίηση είναι, νομίζω,
12:30
is agency.
273
750705
1420
η μεσολάβηση.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Κατά πόσο καταλαβαίνουμε πραγματικά -- εννοώ
12:35
how we know how to act in our own best interests.
275
755330
4390
πώς ξέρουμε τι να πράξουμε για το συμφέρον μας.
12:39
Which -- it's almost impossible to do
276
759744
1787
Πράγμα σχεδόν αδύνατο
12:41
in these systems that we don't really fully understand.
277
761555
3485
με αυτά τα συστήματα που πραγματικά δεν κατανοούμε σε βάθος.
12:45
Inequality of power always leads to violence.
278
765064
3071
Η ανισότητα ισχύος οδηγεί πάντα στη βία.
12:48
And we can see inside these systems
279
768159
1685
Και σε αυτά τα συστήματα βλέπουμε
12:49
that inequality of understanding does the same thing.
280
769868
2611
ότι η ανισότητα κατανόησης οδηγεί στο ίδιο πράγμα.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Αν υπάρχει κάτι που μπορεί να γίνει για τη βελτίωση των συστημάτων,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
θα πρέπει να γίνουν πιο κατανοητά για τους χρήστες
12:59
so that all of us have a common understanding
283
779048
2196
έτσι ώστε να υπάρχει μια από κοινού κατανόηση
13:01
of what's actually going on here.
284
781268
1851
του τι πραγματικά συμβαίνει.
13:03
The thing, though, I think most about these systems
285
783970
2968
Το σημαντικό με αυτά τα συστήματα
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
είναι ότι δεν πρόκειται απλώς για το YouTube,
13:10
It's about everything.
287
790843
1312
αλλά για τα πάντα.
13:12
These issues of accountability and agency,
288
792179
2444
Τα θέματα της ανάληψης ευθύνης και διαμεσολάβησης,
13:14
of opacity and complexity,
289
794647
2225
έλλειψης διαφάνειας και περιπλοκότητας
13:16
of the violence and exploitation that inherently results
290
796896
3177
της βίας και εκμετάλλευσης που προέρχονται εγγενώς
13:20
from the concentration of power in a few hands --
291
800097
2794
από τη συγκέντρωση της εξουσίας στα χέρια λίγων --
13:22
these are much, much larger issues.
292
802915
2579
αυτά είναι τα σημαντικά προβλήματα.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Δεν είναι απλώς το YouTube ή γενικά η τεχνολογία
13:30
and they're not even new.
294
810106
1265
και δεν είναι καν κάτι νέο.
13:31
They've been with us for ages.
295
811395
1461
Τα ζούμε εδώ και χρόνια.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Φτιάξαμε, όμως, το παγκόσμιο αυτό σύστημα, το Ίντερνετ,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
που μας τα αποκαλύπτει με αυτόν τον περίεργο τρόπο
13:40
making them undeniable.
298
820337
1547
καθιστώντας τα αυταπόδεικτα.
13:41
Technology has this extraordinary capacity
299
821908
2820
Η τεχνολογία έχει την εξαιρετική ικανότητα
13:44
to both instantiate and continue
300
824752
3973
να δίνει υπόσταση και να διαιωνίζει
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
τις πιο και συχνά κρυφές μας επιθυμίες και προκαταλήψεις
και να μας τις παρουσιάζει κωδικοποιημένες
13:53
and encoding them into the world,
302
833021
1866
13:54
but it also writes them down so that we can see them,
303
834911
3474
αλλά και να τις καταγράφει για να γίνονται ορατές
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
και να μην μπορούμε να κάνουμε πως δεν υπάρχουν πια.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Ας μην βλέπουμε την τεχνολογία ως λύση για όλα τα προβλήματά μας
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
αλλά ως οδηγό για το ποια είναι πραγματικά αυτά τα προβλήματα
14:09
so we can start thinking about them properly
307
849887
2144
για να μπορέσουμε να τα εξετάσουμε σωστά
14:12
and start to address them.
308
852055
1766
και να αρχίσουμε να τα διευθετούμε.
14:13
Thank you very much.
309
853845
1335
Σας ευχαριστώ πολύ.
14:15
(Applause)
310
855204
5192
(Χειροκρότημα)
14:21
Thank you.
311
861733
1188
Ευχαριστώ.
14:22
(Applause)
312
862945
2869
(Χειροκρότημα)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Έλεν Γουόλτερς: Τζέιμς, σ' ευχαριστώ που ήρθες και μας μίλησες.
14:32
So it's interesting:
314
872041
1189
Είναι ενδιαφέρον:
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
όταν σκεφτόμαστε ταινίες όπου κυριαρχεί το ρομποτικό στοιχείο
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
μοιάζει κάπως πιο λαμπερό από αυτό που εσύ περιγράφεις.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Αναρωτιέμαι -- σ' αυτές τις ταινίες βλέπεις την αντίδραση να αυξάνεται.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Υπάρχει αυξανόμενη αντίδραση προς όλα αυτά;
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Βλέπεις θετικά σημάδια, βλαστούς αντίστασης;
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
Τζέιμς Μπράιντλ: δεν θα έλεγα άμεση αντίσταση
14:54
because I think this stuff is super long-term.
321
894947
2264
γιατί αυτά υπάρχουν εδώ και πάρα πολύ καιρό.
Έχουν ενσωματωθεί βαθιά στην κουλτούρα μας.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Μια φίλη, η Έλεανορ Σαίτα,
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
λέει ότι προβλήματα τεχνολογίας σε μεγάλη κλίμακα και φάσμα
15:05
are political problems first of all.
325
905568
2267
είναι κατά βάση προβλήματα πολιτικής.
15:07
So all of these things we're working to address within this
326
907859
2785
Όλα αυτά που προσπαθούμε να διευθετήσουμε
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
δεν θα λυθούν βελτιώνοντας την τεχνολογία
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
αλλά αλλάζοντας την κοινωνία που τη δημιουργεί.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Μένουν να γίνουν πάρα πολλά.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Όμως, φέρνοντάς τα στο φως,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
εξηγώντας τα, μιλώντας απολύτως ειλικρινά για αυτά,
15:25
we can actually start to at least begin that process.
332
925236
2505
μπορούμε, τουλάχιστον, να κάνουμε μια αρχή.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
ΕΓ: Όταν μιλάς για αναγνωσιμότητα και ψηφιακή μάθηση,
15:31
I find it difficult to imagine
334
931351
1591
δυσκολεύομαι να φανταστώ
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
πως πρέπει να επωμιστούν αυτό το φορτίο οι ίδιοι οι χρήστες.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Τίνος ευθύνη είναι η εκπαίδευση σε αυτόν τον νέο κόσμο;
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
ΤΜ: Νομίζω πως είναι όλων μας.
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
Όσα κάνουμε, χτίζουμε ή φτιάχνουμε
15:47
needs to be made in a consensual discussion
339
947900
3692
πρέπει να γίνονται μετά από συναινετικό διάλογο
15:51
with everyone who's avoiding it;
340
951616
1940
με όλους όσοι τον αποφεύγουν.
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
Να μη φτιάχνουμε συστήματα που ξεγελούν και αιφνιδιάζουν ανθρώπους
15:57
into doing the right thing,
342
957945
2300
ώστε να πράττουν το αναμενόμενο,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
αλλά που θα εμπλέκονται σε κάθε φάση της εκπαίδευσής τους,
16:03
because each of these systems is educational.
344
963529
2278
καθώς κάθε τέτοιο σύστημα είναι επιμορφωτικό.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Ελπίζω να συμβεί ακόμη και για όλα αυτά τα φρικτά πράγματα
16:08
that if you can take it and look at it properly,
346
968957
2262
που αν τα δούμε από την κατάλληλη οπτική γωνία
16:11
it's actually in itself a piece of education
347
971243
2089
αποτελούν πραγματικά ένα μάθημα
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
για να δούμε πώς δημιουργούνται
και λειτουργούν τα περίπλοκα συστήματα
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
και ίσως μπορέσουμε να εφαρμόσουμε αυτή τη γνώση και σε άλλους τομείς.
16:20
HW: James, it's such an important discussion,
350
980667
2115
ΕΓ: Τζέιμς, θα ήταν μια σημαντική συζήτηση
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
και πολλοί από μας εδώ είμαστε ανοιχτοί και έτοιμοι γι αυτή.
Σε ευχαριστώ που έκανες την αρχή σήμερα.
16:26
so thanks for starting off our morning.
352
986057
1859
16:27
JB: Thanks very much. Cheers.
353
987940
1400
ΤΜ: Ευχαριστώ πολύ. Γεια σας.
16:29
(Applause)
354
989364
1651
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7