The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,884,141 views ・ 2018-07-13

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Shlomo Adam עריכה: Ido Dekkers
00:12
I'm James.
0
12777
1183
אני ג'יימס.
00:13
I'm a writer and artist,
1
13984
1686
אני סופר ואמן,
00:15
and I make work about technology.
2
15694
2341
והיצירות שלי עוסקות בטכנולוגיה.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
למשל, מתווה בגודל אמיתי של מזל"ט צבאי
00:22
in city streets around the world,
4
22389
1828
ברחובות ערים בעולם,
00:24
so that people can start to think and get their heads around
5
24241
2950
כדי לעורר אנשים לחשוב ולהבין
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
את הטכנולוגיות האלה, שרחוקות מהעין ומהלב.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
אני גם יוצר דברים כמו רשתות עצביות שחוזות תוצאות של בחירות
00:35
based on weather reports,
8
35354
1737
על יסוד דיווחי מזג אוויר,
כי מסקרנות אותי האפשרויות הממשיות שטמונות בטכנולגיות החדשות והמשונות האלה.
00:37
because I'm intrigued about
9
37115
1314
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
00:43
Last year, I built my own self-driving car.
11
43405
2426
בשנה שעברה בניתי מכונית אוטונומית,
00:45
But because I don't really trust technology,
12
45855
2526
אבל היות שאינני סומך על הטכנולוגיה,
00:48
I also designed a trap for it.
13
48405
1928
תכננתי גם מלכודת עבורה.
00:50
(Laughter)
14
50777
1086
(צחוק)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
ואני עושה דברים אלה בעיקר כי הם לגמרי מרתקים אותי,
00:56
but also because I think when we talk about technology,
16
56209
2602
אבל גם משום שכאשר אנו מדברים על טכנולוגיה,
00:58
we're largely talking about ourselves
17
58835
2619
זה בד"כ עוסק בעצמנו ובאופן הבנתנו את העולם.
01:01
and the way that we understand the world.
18
61478
2299
01:03
So here's a story about technology.
19
63801
2442
אז הרי לכם סיפור על טכנולוגיה.
01:07
This is a "surprise egg" video.
20
67520
2830
זהו סרטון "ביצת הפתעה" (surprise egg).
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
בעקרון, הוא מראה מישהו שפותח המון ביצי שוקולד
01:13
and showing the toys inside to the viewer.
22
73746
2126
ומראה לצופה את הצעצועים שבתוכן.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
זה הכל. זה כל מה שקורה במשך שבע דקות תמימות.
01:19
And I want you to notice two things about this.
24
79428
3051
ואני רוצה שתשימו לב לשני דברים בו.
01:22
First of all, this video has 30 million views.
25
82503
4074
קודם כל, לסרטון הזה יש 30 מיליון צפיות.
01:26
(Laughter)
26
86601
1275
(צחוק)
01:28
And the other thing is,
27
88376
1166
והדבר הנוסף הוא,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
הוא מוקרן בערוץ של 6.3 מיליון מנויים,
01:33
that has a total of eight billion views,
29
93459
2680
וצפיות בסך שמונה מיליארד,
01:36
and it's all just more videos like this --
30
96163
3106
והוא מכיל רק סרטונים כמו זה -
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
30 מיליון אנשים צופים במישהו שפותח את הביצים האלה.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
נשמע משונה, אבל אם תחפשו "ביצי הפתעה" ביו-טיוב,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
התוצאה תהיה 10 מיליון סרטונים כאלה,
01:52
and I think that's an undercount.
34
112240
1657
ולדעתי, אלה אינם כולם, ויש הרבה, הרבה יותר כאלה.
01:53
I think there's way, way more of these.
35
113921
1897
01:55
If you keep searching, they're endless.
36
115842
2242
אם תמשיכו לחפש, תגלו שהכמות היא אינסופית.
01:58
There's millions and millions of these videos
37
118108
2159
יש מיליונים רבים של סרטונים כאלה
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
עם עוד ועוד צירופים בארוקיים של מותגים וחומרים,
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
ועוד ועוד כאלה מועלים לרשת בכל יום ויום.
02:07
Like, this is a strange world. Right?
40
127639
3511
עולם מוזר, נכון?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
אבל העניין הוא, שלא מבוגרים צופים בסרטונים האלה,
02:14
It's kids, small children.
42
134581
2921
אלא ילדים, ילדים קטנים.
02:17
These videos are like crack for little kids.
43
137526
2154
הסרטונים האלה הם כמו קראק לילדים קטנים.
02:19
There's something about the repetition,
44
139704
2075
יש משהו בחזרתיות,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
במנת הדופמין הקבועה של רגע החשיפה,
02:24
that completely hooks them in.
46
144295
1866
שממכר אותם לגמרי.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
וילדים קטנים צופים בסרטונים האלה שוב ושוב ושוב,
02:31
and they do it for hours and hours and hours.
48
151018
2327
במשך שעות על גבי שעות.
02:33
And if you try and take the screen away from them,
49
153369
2356
ואם תנסו לנתק אותם מהמסך הם יצרחו ויצרחו ויצרחו.
02:35
they'll scream and scream and scream.
50
155749
1782
02:37
If you don't believe me --
51
157555
1262
אם אינכם מאמינים לי - וראיתי בקהל אנשים שמנידים בראשם -
02:38
and I've already seen people in the audience nodding --
52
158841
2607
אם אינכם מאמינים לי, מיצאו מישהו עם ילדים קטנים ושאלו אותו,
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
ויתברר שהוא מכיר את סרטוני ביצי ההפתעה.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
02:47
So this is where we start.
55
167251
2070
אז נתחיל מזה.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
השנה היא 2018 ומישהו, או הרבה אנשים,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
משתמשים באותו מנגנון שבו משתמשים "פייסבוק" ו"אינסטגרם"
02:56
to get you to keep checking that app,
58
176976
1989
שגורם לכם לבדוק כל הזמן את היישומון,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
והם משתמשים בזה ב"יו-טיוב" כדי להיכנס למוח של ילדים קטנים מאד
03:02
in return for advertising revenue.
60
182998
1958
בתמורה להכנסות מפרסומות.
03:06
At least, I hope that's what they're doing.
61
186346
2001
לפחות, זה מה שהם עושים, אני מקווה.
03:08
I hope that's what they're doing it for,
62
188371
1955
אני מקווה שזאת המטרה שלהם,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
כי יש דרך קלה יותר להרוויח ב"יו-טיוב" מפרסומות.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
אפשר פשוט להמציא או לגנוב דברים.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
אז אם תחפשו קומיקס לילדים פופולרי באמת
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
כמו "פפר פיג" או "פאו פטרול",
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
תמצאו ברשת גם מהם מיליונים רבים.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
ברור שאף לא אחד מהם הועלה בידי יוצרי התוכן המקוריים.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
הם מגיעים מהמוני חשבונות אקראיים,
03:31
and it's impossible to know who's posting them
70
211945
2240
ואי-אפשר לדעת מי מעלה אותם
או מהם המניעים שלהם.
03:34
or what their motives might be.
71
214209
1822
03:36
Does that sound kind of familiar?
72
216428
1930
נשמע לכם מוכר?
03:38
Because it's exactly the same mechanism
73
218382
1980
זהו הרי בדיוק אותו המנגנון של מרבית השירותים הדיגיטליים שלנו:
03:40
that's happening across most of our digital services,
74
220386
2600
אי-אפשר לדעת מניין מגיע המידע הזה.
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
03:46
It's basically fake news for kids,
76
226241
1829
מדובר בעקרון בחדשות כוזבות לילדים,
03:48
and we're training them from birth
77
228094
2161
ואנו מאמנים אותם מילדות
03:50
to click on the very first link that comes along,
78
230279
2506
להקליק על הקישור הראשון שמופיע,
03:52
regardless of what the source is.
79
232809
1953
ולא משנה מה מקורו.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
זה לא נראה רעיון טוב במיוחד.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
הנה עוד משהו ב"יו-טיוב" שעובד יפה על ילדים.
04:01
This is called the "Finger Family Song."
82
241133
1928
זה קרוי "שיר משפחת האצבעות".
04:03
I just heard someone groan in the audience.
83
243085
2018
שמעתי שוב מישהו גונח בקהל.
זהו "שיר משפחת האצבעות".
04:05
This is the "Finger Family Song."
84
245127
1624
04:06
This is the very first one I could find.
85
246775
1930
זה הכי מוקדם שמצאתי.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
הוא מ-2007, ויש לו רק 200,000 צפיות,
04:11
which is, like, nothing in this game.
87
251582
1976
שזה כלום,
04:13
But it has this insanely earwormy tune,
88
253582
2852
אבל יש לו מנגינה מטמטמת עד טירוף,
04:16
which I'm not going to play to you,
89
256458
1682
ואני לא אשמיע לכם אותה,
כי היא תיצרב לכם במוח
04:18
because it will sear itself into your brain
90
258164
2008
04:20
in the same way that it seared itself into mine,
91
260196
2395
כפי שנצרבה אצלי,
04:22
and I'm not going to do that to you.
92
262615
1770
ולא אעולל לכם את זה.
04:24
But like the surprise eggs,
93
264409
1344
אבל כמו ביצי ההפתעה,
04:25
it's got inside kids' heads
94
265777
2164
זה נכנס לראש של הילדים וגרם להם להתמכר.
04:27
and addicted them to it.
95
267965
1607
04:29
So within a few years, these finger family videos
96
269596
2531
אז בתוך כמה שנים סרטוני משפחת האצבעות
החלו להופיע בכל מקום,
04:32
start appearing everywhere,
97
272151
1303
04:33
and you get versions in different languages
98
273478
2029
עם גרסאות בשפות שונות
04:35
with popular kids' cartoons using food
99
275531
2121
עם דמויות מוכרות מקומיקס ילדים שמשתמשות באוכל
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
ובעצם, כל פריט אנימציה שיש בסביבה.
04:40
you seem to have lying around.
101
280250
2252
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
ושוב, יש מיליונים על מיליונים על מיליוני סרטונים כאלה
04:48
available online in all of these kind of insane combinations.
103
288223
3435
שאפשר למצוא ברשת בכל שילוב מטורף.
04:51
And the more time you start to spend with them,
104
291682
2228
וככל שמבזבזים עליהם יותר זמן,
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
כך מתחילים להרגיש יותר ויותר מטורפים.
04:57
And that's where I kind of launched into this,
106
297652
3333
וכאן בערך נכנסתי לזה אני,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
עם הרגשה של זרות עמוקה וחוסר-הבנה עמוק
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
איך הדבר הזה נבנה ומוגש לכולם מסביבי.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
כי אי-אפשר לדעת מניין הדברים האלה באים.
כאילו, מי יוצר אותם?
05:12
Like, who is making them?
110
312089
1241
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
חלקם נראים כאילו נוצרו ע"י צוותי אמני הנפשה מקצועיים,
05:16
Some of them are just randomly assembled by software.
112
316521
2882
חלקם - כאילו הורכבו באופן אקראי ע"י תוכנה,
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
חלקם נראים כמו בידור ילדים מועיל,
05:23
And some of them are from people
114
323704
1552
וחלקם מגיעים מאנשים שברור שאסור להרשות להם להתקרב לילדים.
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
(צחוק)
05:28
(Laughter)
116
328311
1615
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
ושוב, חוסר האפשרות לגלות מי עושה את זה --
05:35
like, this is a bot?
118
335651
1156
תוכנה רובוטית? אדם? טרול?
05:36
Is this a person? Is this a troll?
119
336831
2647
05:39
What does it mean that we can't tell the difference
120
339502
2382
מה המשמעות של חוסר יכולתנו להבדיל יותר בין הדברים האלה?
05:41
between these things anymore?
121
341908
1583
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
ושוב, האם חוסר הוודאות הזה מוכר?
05:50
So the main way people get views on their videos --
123
350145
2580
השיטה העיקרית שבה אנשים משיגים צפיות בסרטונים שלהם --
05:52
and remember, views mean money --
124
352749
1707
וזיכרו, צפיות שוות כסף --
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
היא לדחוס בכותרות הסרטונים מונחים פופולריים.
05:59
So you take, like, "surprise eggs"
126
359246
1687
אתם לוקחים למשל את "ביצי הפתעה"
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
ואז אתם מוסיפים "פאו פטרול", "ביצת פסחא," מה שזה לא יהיה,
06:03
or whatever these things are,
128
363047
1393
כל מיני מלים ממשחקי מחשב פופולריים,
06:04
all of these words from other popular videos into your title,
129
364464
2893
ובסוף מתקבלת תערובת לשונית חסרת-פשר
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
06:10
that doesn't make sense to humans at all.
131
370373
2498
שבכלל אינה מובנת לבני-אדם.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
כי כמובן, רק ילדים צופים בסרטון שלכם,
06:16
and what the hell do they know?
133
376465
1827
ומה הם מבינים בכלל מהחיים שלהם?
06:18
Your real audience for this stuff is software.
134
378316
3007
הקהל האמיתי של הדברים האלה הוא תוכנה,
06:21
It's the algorithms.
135
381347
1156
האלגוריתם,
06:22
It's the software that YouTube uses
136
382527
1855
התוכנה שבה משתמשת "יו-טיוב"
06:24
to select which videos are like other videos,
137
384406
2483
כדי לבחור אילו סרטונים דומים לאחרים,
06:26
to make them popular, to make them recommended.
138
386913
2243
כדי להפיץ אותם ולהמליץ עליהם.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
ולכן אתם מקבלים תערובת מלים בלתי-מובנת לחלוטין
06:32
both of title and of content.
140
392665
2071
גם בכותרת וגם בתוכן.
06:35
But the thing is, you have to remember,
141
395792
1894
אבל עליכם לזכור
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
שעדיין יש אנשים בתוך המערכת ממוטבת-האלגוריתם הזאת,
06:42
people who are kind of increasingly forced to act out
143
402212
2790
אנשים שנאלצים יותר ויותר לגלם
את הצירופים היותר ויותר מוזרים של מלים,
06:45
these increasingly bizarre combinations of words,
144
405026
3066
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
כמו אמן אלתור נואש שמגיב לצעקותיהם
של מיליון פעוטים בבת-אחת.
06:53
of a million toddlers at once.
146
413313
2203
06:57
There are real people trapped within these systems,
147
417168
2468
יש אנשים אמיתיים שלכודים בתוך המערכות האלה,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
וזה הדבר המוזר להפליא השני בתרבות מבוססת האלגוריתמים הזאת,
07:03
because even if you're human,
149
423739
1381
כי אפילו אם אתה אנושי,
מתישהו אתה נאלץ להתנהג כמו מכונה רק כדי לשרוד.
07:05
you have to end up behaving like a machine
150
425144
2145
07:07
just to survive.
151
427313
1800
וגם, בעברו השני של הצג,
07:09
And also, on the other side of the screen,
152
429137
2100
07:11
there still are these little kids watching this stuff,
153
431261
2947
עדיין ישנם ילדים קטנים שצופים בדברים האלה,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
הם תקועים שם
והמנגנונים המוזרים האלה לוכדים את מלוא תשומת ליבם.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
ורוב הילדים האלה קטנים מכדי לדעת אפילו להשתמש באתר אינטרנט.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
הם רק חובטים במסך בידיהם הקטנות.
07:24
And so there's autoplay,
157
444890
1217
לשם כך הומצא ה"אוטופליי", הניגון האוטומטי,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
שממשיך להקרין את הסרטונים האלה שוב ושוב ושוב,
ללא הרף, במשך שעות על גבי שעות.
07:29
endlessly for hours and hours at a time.
159
449734
2059
07:31
And there's so much weirdness in the system now
160
451817
2843
ויש היום כל-כך הרבה מוזרות במערכת,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
שה"אוטופליי" לוקח אתכם למקומות משונים למדי.
07:37
This is how, within a dozen steps,
162
457717
2488
וכך, בתוך שנים-עשר שלבים,
07:40
you can go from a cute video of a counting train
163
460229
3158
אתם יכולים להגיע מסרטון חמוד של רכבת מספרים
07:43
to masturbating Mickey Mouse.
164
463411
2442
למיקי מאוס מאונן.
07:46
Yeah. I'm sorry about that.
165
466529
2288
כן. סליחה על זה.
07:48
This does get worse.
166
468841
1700
וזה הולך ונעשה גרוע יותר.
07:50
This is what happens
167
470565
1282
זה מה שקורה
07:51
when all of these different keywords,
168
471871
3086
כשכל מילות המפתח השונות,
07:54
all these different pieces of attention,
169
474981
2461
כל פיסות תשומת הלב השונות,
07:57
this desperate generation of content,
170
477466
2807
הפקת התוכן הנואשת הזאת,
08:00
all comes together into a single place.
171
480297
2582
הכל מתחבר באותו המקום.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
לכאן מגיעות לקנן כל מילות המפתח המוזרות מאד.
08:08
You cross-breed the finger family video
173
488367
2391
מכליאים את סרטון משפחת האצבעות
08:10
with some live-action superhero stuff,
174
490782
2088
עם סרט מצולם של גיבור-על,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
מוסיפים כמה בדיחות טרוליות מוזרות או משהו כזה,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
ולפתע אתם מגיעים למקום משונה בהחלט.
08:19
The stuff that tends to upset parents
177
499564
2113
הדברים האלה, שמעצבנים את ההורים,
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
הם אלה שיש בהם תוכן מיני או אלים כלשהו, נכון?
08:25
Children's cartoons getting assaulted,
179
505056
2822
דמות מקומיקס ילדים שמותקפת,
08:27
getting killed,
180
507902
2018
שנרצחת,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
מעשי קונדס מוזרים שממש מפחידים ילדים.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
מדובר בעצם בתוכנה שמושכת אליה כל מיני השפעות
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
כדי ליצור באופן אוטומטי את הסיוט הכי נורא לילדים.
08:39
And this stuff really, really does affect small children.
184
519995
2701
והדברים האלה באמת ובתמים משפיעים על ילדים קטנים.
08:42
Parents report their children being traumatized,
185
522720
2866
הורים מדווחים על ילדים מוכי טראומה,
08:45
becoming afraid of the dark,
186
525610
1392
ילדים שפוחדים מהחושך,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
שפוחדים מדמויות הקומיקס האהובות שלהם.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
אם תלמדו היום לקח אחד בלבד, הרי זה שאם יש לכם ילדים קטנים,
08:54
keep them the hell away from YouTube.
189
534159
1996
הרחיקו אותם ככל האפשר מ"יו-טיוב".
08:56
(Applause)
190
536743
3949
(מחיאות כפיים)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
אבל הדבר הנוסף, מה שממש מרגיז אותי בקשר לזה,
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
הוא שאני לא בטוח שאנו בכלל יודעים איך הגענו למצב הזה.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
צירפנו ביחד את כל ההשפעה הזאת, את כל הדברים האלה,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
ועוללנו נזק שאיש לא התכוון לעולל.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
ועם זאת, ככה גם אנו בונים את העולם כולו.
אנו לוקחים את כל הנתונים האלה,
09:20
We're taking all of this data,
196
560063
1773
09:21
a lot of it bad data,
197
561860
1447
הרבה מהם נתונים רעים,
09:23
a lot of historical data full of prejudice,
198
563331
3029
המון נתונים היסטוריים מלאי דעות קדומות,
09:26
full of all of our worst impulses of history,
199
566384
2837
מלאים בכל הדחפים ההיסטוריים הכי גרועים שלנו,
09:29
and we're building that into huge data sets
200
569245
2049
ואנו הופכים את זה למערכי נתונים ענקיים
09:31
and then we're automating it.
201
571318
1423
ומכניסים לזה אוטומציה
09:32
And we're munging it together into things like credit reports,
202
572765
3502
ומשסים את הנזק הזה בדברים כמו דיווחי אשראי,
09:36
into insurance premiums,
203
576291
1634
פרמיות ביטוח,
09:37
into things like predictive policing systems,
204
577949
2693
דברים כמו מערכות חיזוי מדיניות,
09:40
into sentencing guidelines.
205
580666
1762
הנחיות שיפוט,
09:42
This is the way we're actually constructing the world today
206
582452
2821
כך בעצם אנו בונים היום את העולם על יסוד נתונים אלה.
09:45
out of this data.
207
585297
1151
09:46
And I don't know what's worse,
208
586472
1698
ואינני יודע מה גרוע יותר,
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
שאנו בונים מערכת שכנראה ממוטבת כולה
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
לפי ההיבטים הכי גרועים בהתנהגות האנושית,
09:54
or that we seem to have done it by accident,
211
594278
2425
או שככל הנראה, עשינו את זה בטעות,
09:56
without even realizing that we were doing it,
212
596727
2207
מבלי להבין אפילו שאנו עושים זאת,
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
בגלל שלא באמת הבנו את המערכות שאנו בונים,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
ולא באמת הבנו איך לעשות משהו שונה.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
לדעתי יש כמה דברים שכנראה מניעים את זה
הכי חזק ב"יו-טיוב",
10:10
most fully on YouTube,
216
610158
1189
והראשון הוא הפרסום,
10:11
and the first of those is advertising,
217
611371
1827
10:13
which is the monetization of attention
218
613222
2837
הפיכת תשומת-הלב למטבע
בלי שום משתנים נוספים,
10:16
without any real other variables at work,
219
616083
3136
10:19
any care for the people who are actually developing this content,
220
619243
3885
בלי שום התייחסות לאנשים שמפתחים את התוכן,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
ריכוז הכוח, ההפרדה של הדברים האלה.
10:26
And I think however you feel about the use of advertising
222
626812
3144
ולדעתי, תחשבו מה שתחשבו על השימוש בפרסום כדי לקדם דברים,
10:29
to kind of support stuff,
223
629980
1238
המראה של גברים מבוגרים בחיתולים שמתגלגלים בחול
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
בתקווה שאיזה אלגוריתם שהם לא ממש מבינים
ישלם להם על זה
10:37
will give them money for it
226
637340
1315
10:38
suggests that this probably isn't the thing
227
638679
2037
אומר שכנראה לא זה הדבר
10:40
that we should be basing our society and culture upon,
228
640740
2563
שעליו עלינו לבסס את החברה והתרבות שלנו,
ולא זו הדרך לממן אותן.
10:43
and the way in which we should be funding it.
229
643327
2160
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
והמניע החזק הנוסף מאחורי זה הוא האוטומציה:
להטמיע את כל הטכנולוגיה הזאת
10:49
which is the deployment of all of this technology
231
649054
2329
מיד כשהיא מגיעה, ללא שום פיקוח,
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
10:53
and then once it's out there,
233
653952
1412
וברגע שהבעיות מתגלות,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
להרים ידיים ולומר, "זה לא אנחנו. זאת הטכנולוגיה."
10:59
Like, "We're not involved in it."
235
659255
1642
כאילו, "אנו לא מעורבים בזה."
11:00
That's not really good enough,
236
660921
1767
זה לא מספיק טוב,
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
כי האלגוריתם לא רק מנהל את הדברים האלה;
11:05
it's also algorithmically policed.
238
665446
2498
האלגוריתם גם קובע את המדיניות.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
כש"יו-טיוב" החלה להבחין בזה,
11:10
the first thing they said they'd do about it
240
670840
2087
הדבר הראשון שהם עשו בעניין
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
היה להטמיע אלגוריתמים טובים יותר של למידת מכונה
11:15
to moderate the content.
242
675670
1329
כדי למתן את התוכן.
אז למידת מכונה, כפי שיאמר לכם כל מומחה,
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
11:20
is basically what we've started to call
244
680532
1896
מבוססת על מה שהתחלנו לכנות
"תוכנה שאיננו מבינים באמת איך היא עובדת."
11:22
software that we don't really understand how it works.
245
682452
2588
ואני חושב שכבר יש לנו מספיק מזה.
11:25
And I think we have enough of that already.
246
685064
3983
אסור שנשאיר דברים כאלה לבינה המלאכותית
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
שתקבע מה מתאים ומה לא.
11:32
what's appropriate or not,
248
692261
1251
11:33
because we know what happens.
249
693536
1436
כי ברור לנו מה יקרה: היא תתחיל לצנזר דברים אחרים.
11:34
It'll start censoring other things.
250
694996
1688
היא תתחיל לצנזר תוכן קווירי.
11:36
It'll start censoring queer content.
251
696708
1783
היא תתחיל לצנזר התבטאויות פומביות לגיטימיות.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
11:40
What's allowed in these discourses,
253
700776
1925
את מה שמותר בדיונים האלה
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
אסור להשאיר לכל מיני מערכות שאי-אפשר להאשים.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
זהו חלק מהדיון שכולנו צריכים לנהל.
11:48
But I'd leave a reminder
256
708817
1308
אבל אשאיר לכם תזכורת
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
לכך שגם החלופה אינה הכי נעימה.
11:52
YouTube also announced recently
258
712926
1535
"יו-טיוב" גם הכריזו לאחרונה
11:54
that they're going to release a version of their kids' app
259
714485
2767
על שחרור גירסה של היישומון שלהם לילדים
שבו ניטור התוכן ייעשה כולו בידי בני-אדם.
11:57
that would be entirely moderated by humans.
260
717276
2407
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
"פייסבוק" - צוקרברג אמר משהו דומה בקונגרס,
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
כשלחצו עליו עם השאלה איך בדעתו לנטר את התוכן.
12:06
He said they'd have humans doing it.
263
726787
1747
הוא אמר שיש להם אנשים שעושים את זה.
ובפועל, זה אומר
12:08
And what that really means is,
264
728558
1459
שבמקום שהפעוטים יהיו הראשונים שרואים את הדברים האלה,
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
יהיו אלה עובדי קבלן לא-אמינים בשכר-רעב
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
ללא סיוע נפשי נאות, שגם הם יינזקו מזה.
12:16
without proper mental health support
267
736100
1726
12:17
being damaged by it as well.
268
737850
1376
(צחוק)
12:19
(Laughter)
269
739250
1096
ולדעתי, כולנו מסוגלים להתעלות על זה.
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
12:22
(Applause)
271
742995
2499
(מחיאות כפיים)
הרעיון שמסכם באמת את שני הדברים האלה, בעיני,
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
12:30
is agency.
273
750705
1420
הוא אוטונומיות:
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
כמה באמת אנו מבינים-- ב"אוטונומיות" כוונתי היא:
12:35
how we know how to act in our own best interests.
275
755330
4390
איך אנו יודעים לנהוג לפי מיטב האינטרסים שלנו.
12:39
Which -- it's almost impossible to do
276
759744
1787
ואת זה כמעט ואי-אפשר לעשות
12:41
in these systems that we don't really fully understand.
277
761555
3485
במערכות האלה, שאותן איננו לגמרי מבינים.
חוסר-שוויון בכוח מוביל תמיד לאלימות.
12:45
Inequality of power always leads to violence.
278
765064
3071
12:48
And we can see inside these systems
279
768159
1685
ובמערכות האלה אנו יכולים לראות
12:49
that inequality of understanding does the same thing.
280
769868
2611
שחוסר-שוויון בהבנה עושה אותו דבר.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
אם יש דבר אחד שנוכל לעשות כדי לשפר את המערכות האלה,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
הוא להפוך אותן למובנות יותר לאנשים שמשתמשים בהן,
כדי שלכולנו תהיה הבנה משותפת לגבי מה שבאמת קורה כאן.
12:59
so that all of us have a common understanding
283
779048
2196
13:01
of what's actually going on here.
284
781268
1851
13:03
The thing, though, I think most about these systems
285
783970
2968
אבל העניין העיקרי, לדעתי, במערכות האלה,
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
הוא - ואני מקווה שהסברתי זאת בקשר ל"יו-טיוב" -
13:10
It's about everything.
287
790843
1312
שזה מתייחס להכל.
13:12
These issues of accountability and agency,
288
792179
2444
סוגיות הנשיאה באחריות והאוטונומיות האישית,
13:14
of opacity and complexity,
289
794647
2225
של העמימות והמורכבות,
13:16
of the violence and exploitation that inherently results
290
796896
3177
של האלימות והניצול שנובעים מעצם העובדה
שהכוח מרוכז בידיים מועטות --
13:20
from the concentration of power in a few hands --
291
800097
2794
13:22
these are much, much larger issues.
292
802915
2579
אלה סוגיות הרבה יותר נרחבות.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
הסוגיות האלה לא נוגעות רק ל"יו-טיוב" ולא רק לטכנולוגיה בכלל,
והן אפילו לא חדשות; הן מלוות אותנו כבר המון זמן.
13:30
and they're not even new.
294
810106
1265
13:31
They've been with us for ages.
295
811395
1461
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
אבל סוף-סוף בנינו את המערכת הזאת, המערכת הגלובלית הזאת, האינטרנט,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
שמציגה אותן בפנינו בצורה ברורה להפליא,
13:40
making them undeniable.
298
820337
1547
מבלי שנוכל להתכחש להן.
13:41
Technology has this extraordinary capacity
299
821908
2820
לטכנולוגיה יש היכולת הנפלאה
13:44
to both instantiate and continue
300
824752
3973
גם להמחיש וגם להמשיך
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
את כל רצונותינו והטיותינו הכי גדולים, והסמויים לעתים קרובות ,
ולקודד אותם אל העולם כולו,
13:53
and encoding them into the world,
302
833021
1866
13:54
but it also writes them down so that we can see them,
303
834911
3474
אבל היא גם מתעדת אותם כדי שנוכל לראותם,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
כדי שלא נוכל עוד להעמיד פנים כאילו אינם קיימים.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
עלינו להפסיק לראות בטכנולוגיה פתרון לכל בעיותינו,
אלא להיעזר בה כדי לראות אל הבעיות האלה,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
14:09
so we can start thinking about them properly
307
849887
2144
כדי שנוכל להתחיל לחשוב עליהן כמו שצריך
ולהתחיל לטפל בהן.
14:12
and start to address them.
308
852055
1766
14:13
Thank you very much.
309
853845
1335
תודה רבה לכם.
14:15
(Applause)
310
855204
5192
(מחיאות כפיים)
14:21
Thank you.
311
861733
1188
תודה.
14:22
(Applause)
312
862945
2869
(מחיאות כפיים)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
הלן וולטרס: ג'יימס, תודה שבאת ותודה על ההרצאה הזאת.
זה מעניין:
14:32
So it's interesting:
314
872041
1189
כשחושבים על סרטים שבהם הרובוטים משתלטים על העולם,
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
הכל קצת יותר זוהר ממה שאתה מתאר.
אבל אני תוהה - בסרטים האלה מתגבשת תנועת התקוממות.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
האם ישנה תנועת התקוממות נגד הדברים האלה?
האם אתה רואה סימנים חיוביים, ניצני התנגדות כלשהם?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
ג'יימס בריידל: אני לא יודע מה עם התקוממות ישירה,
14:54
because I think this stuff is super long-term.
321
894947
2264
כי לדעתי מדובר בדברים מאד ותיקים.
לדעתי זה אפוי בתרבות שלנו באופן עמוק מאד.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
ידידה שלי, אלינור סאיטה, אומרת תמיד
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
שכל בעיה טכנולוגית מעל לגודל והיקף מסוימים
15:05
are political problems first of all.
325
905568
2267
היא קודם כל בעיה פוליטית.
15:07
So all of these things we're working to address within this
326
907859
2785
אז כל הדברים האלה שאנו מנסים להתייחס אליהם
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
לא ייפתרו סתם בבניית טכנולוגיה טובה יותר,
אלא דרך שינוי התרבות שיוצרת את הטכנולוגיות האלה.
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
אז לא. כרגע יש לפנינו דרך ארוכה מאד.
15:20
But as I said, I think by unpacking them,
330
920505
1986
אבל כפי שאמרתי, אני חושב שאם נפרק אותן,
אם נסביר אותן ונדבר עליהן בכנות גמורה,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
נוכל לפחות להתחיל את התהליך.
15:25
we can actually start to at least begin that process.
332
925236
2505
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
ה"וו: אז כשאתה מדבר על מובנות ועל אוריינות דיגיטלית,
15:31
I find it difficult to imagine
334
931351
1591
אני מתקשה לדמיין
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
שנעביר את נטל האוריינות הדיגיטלית אל המשתמשים עצמם.
15:36
But whose responsibility is education in this new world?
336
936670
4562
אבל מיהם האחראים לחינוך בעולם החדש הזה?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
ג'"ב: שוב, לדעתי האחריות מוטלת על כולנו,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
במובן זה, שכל מה שאנו עושים, בונים ויוצרים
15:47
needs to be made in a consensual discussion
339
947900
3692
צריך להיעשות מתוך דיון והסכמה
15:51
with everyone who's avoiding it;
340
951616
1940
עם כל מי שנמנעים מכך;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
שלא נבנה מערכות שנועדו להכשיל ולהפתיע אנשים
15:57
into doing the right thing,
342
957945
2300
ולגרום להם לעשות את מה שנכון,
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
אלא שהם יהיו מעורבים בכל שלב של החינוך שלהם,
16:03
because each of these systems is educational.
344
963529
2278
כי כל אחת מהמערכות האלה היא חינוכית.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
לכן יש בי תקווה, גם אם המצב באמת עגום,
16:08
that if you can take it and look at it properly,
346
968957
2262
שאם נוכל לבחון את זה כמו שצריך,
זה כשלעצמו דבר חינוכי
16:11
it's actually in itself a piece of education
347
971243
2089
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
שמאפשר לנו להתחיל לראות איך מערכות מורכבות משתלבות ופועלות
ואולי להצליח ליישם ידע זה במקומות אחרים בעולם.
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
16:20
HW: James, it's such an important discussion,
350
980667
2115
ה"וו: ג'יימס, זהו נושא חשוב ביותר,
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
ואני יודעת שרבים כאן פתוחים ונכונים לדבר עליו,
אז תודה לך על שפתחת בשבילנו את הבוקר.
16:26
so thanks for starting off our morning.
352
986057
1859
ג'"ב: תודה רבה. להתראות!
16:27
JB: Thanks very much. Cheers.
353
987940
1400
(מחיאות כפיים)
16:29
(Applause)
354
989364
1651
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7