The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Dilan Bayındır Gözden geçirme: Cihan Ekmekçi
00:12
I'm James.
0
12777
1183
Benim adım James.
00:13
I'm a writer and artist,
1
13984
1686
Yazar ve sanatçıyım
00:15
and I make work about technology.
2
15694
2341
ve teknoloji alanında çalışıyorum.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
Dünyanın farklı şehirlerinde
askeri dronların tam boyutlu taslaklarını çizmek gibi işler yapıyorum;
00:22
in city streets around the world,
4
22389
1828
00:24
so that people can start to think and get their heads around
5
24241
2950
görmesi ve düşünmesi oldukça zor olan bu teknolojileri
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
insanlar düşünmeye ve anlamaya başlasın diye.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
Seçim sonuçlarını hava durumuna dayanarak tahmin eden
00:35
based on weather reports,
8
35354
1737
nöronal devreler gibi şeyler yapıyorum,
00:37
because I'm intrigued about
9
37115
1314
çünkü bu garip yeni teknolojilerin
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
asıl potansiyellerinin ne olduğu konusuna çok merak duyuyorum.
00:43
Last year, I built my own self-driving car.
11
43405
2426
Geçen yıl, kendi kendine giden arabamı yaptım.
00:45
But because I don't really trust technology,
12
45855
2526
Ama teknolojiye pek güvenmediğim için
00:48
I also designed a trap for it.
13
48405
1928
ona bir tuzak da hazırladım.
00:50
(Laughter)
14
50777
1086
(Kahkaha)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
Bu şeyleri yapmamın asıl nedeni onları fazlasıyla ilginç bulmam
00:56
but also because I think when we talk about technology,
16
56209
2602
ama öyle düşünüyorum ki teknolojiden bahsettiğimizde
00:58
we're largely talking about ourselves
17
58835
2619
büyük oranda kendimizden
01:01
and the way that we understand the world.
18
61478
2299
ve dünyayı anlayış şeklimizden bahsediyoruz.
01:03
So here's a story about technology.
19
63801
2442
İşte teknolojiyle ilgili bir hikaye.
01:07
This is a "surprise egg" video.
20
67520
2830
Bu bir "sürpriz yumurta" videosu.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
Birisinin bir sürü çikolotadan yumurtayı açıp
01:13
and showing the toys inside to the viewer.
22
73746
2126
içlerindeki oyuncakları izleyiciye gösterdiği bir video.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
Bu kadar. Yedi uzun dakika boyunca olan tek şey bu.
01:19
And I want you to notice two things about this.
24
79428
3051
Bununla ilgili iki şeyi fark etmenizi istiyorum.
01:22
First of all, this video has 30 million views.
25
82503
4074
İlk olarak, bu videonun 30 milyon görüntülenmesi var.
01:26
(Laughter)
26
86601
1275
(Kahkaha)
01:28
And the other thing is,
27
88376
1166
Diğer şey şu,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
6,3 milyon abonesi, toplamda sekiz milyar görüntülenmesi olan
01:33
that has a total of eight billion views,
29
93459
2680
bir kanaldan geliyor
01:36
and it's all just more videos like this --
30
96163
3106
ve kanaldaki bütün videolar böyle --
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
adamın birinin bu yumurtaları açmasını izleyen 30 milyon insan.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
Kulağa garip geliyor ama Youtube'da "sürpriz yumurta"yı aratırsanız
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
size bu videolardan 10 milyon tane olduğunu söyler
01:52
and I think that's an undercount.
34
112240
1657
ve bence bu sayı düşük.
01:53
I think there's way, way more of these.
35
113921
1897
Bence bu videolardan çok daha fazla var.
01:55
If you keep searching, they're endless.
36
115842
2242
Eğer aramaya devam ederseniz sonu gelmez.
01:58
There's millions and millions of these videos
37
118108
2159
Marka ve ürünlere ilişkin giderek artan abartı kombinasyonlarda
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
bu videolardan milyonlarca var
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
ve her geçen gün daha da fazlası yükleniyor.
02:07
Like, this is a strange world. Right?
40
127639
3511
Garip bir dünya.
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
Ama asıl önemli kısım şu, bu videoları izleyenler yetişkinler değil.
02:14
It's kids, small children.
42
134581
2921
Çocuklar, küçük çocuklar.
02:17
These videos are like crack for little kids.
43
137526
2154
Bu videolar sanki çocuklara özel uyuşturucu.
02:19
There's something about the repetition,
44
139704
2075
Tekrarlanma ile ilgili bir şey var,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
onları tamamen bağımlı yapan, yumurtadan çıkanın
02:24
that completely hooks them in.
46
144295
1866
sabit küçük dopamin vuruşlarıyla ilgili.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
Küçük çocuklar bu videoları tekrar tekrar izliyorlar
02:31
and they do it for hours and hours and hours.
48
151018
2327
ve bunu saatlerce yapıyorlar.
02:33
And if you try and take the screen away from them,
49
153369
2356
Ekranı onlardan uzaklaştırmaya çalışırsanız
02:35
they'll scream and scream and scream.
50
155749
1782
durmadan bağıracaklardır.
02:37
If you don't believe me --
51
157555
1262
Eğer bana inanmıyorsanız
02:38
and I've already seen people in the audience nodding --
52
158841
2607
-ki seyircilerden başıyla onaylayanları gördüm-
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
inanmıyorsanız küçük çocuğu olan birini bulup sorun,
02:44
and they'll know about the surprise egg videos.
54
164887
2340
sürpriz yumurta videolarını bileceklerdir.
02:47
So this is where we start.
55
167251
2070
İşte burada başlıyoruz.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
Yıl 2018, birisi veya birçok kişi, Facebook ve Instagram'ın kullandığı,
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
sizde bu uygulamaları sürekli kontrol etme ihtiyacı uyandıran
02:56
to get you to keep checking that app,
58
176976
1989
o mekanizmanın aynısını kullanıyor.
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
Bunu çok küçük çocukların beyinlerini ele geçirmek için
03:02
in return for advertising revenue.
60
182998
1958
Youtube'da reklam geliri karşılığında kullanıyorlar.
03:06
At least, I hope that's what they're doing.
61
186346
2001
En azından, umarım yaptıkları budur.
03:08
I hope that's what they're doing it for,
62
188371
1955
Umarım bunun için yapıyorlardır
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
çünkü Youtube'da reklamdan gelir elde etmenin daha kolay yolları var.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
Bir şeyler uydurabilir ya da çalabilirsiniz.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
Eğer "Pegga Pig" veya "Paw Petrol" gibi
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
popüler çizgi filmleri ararsanız
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
internet üzerinde bunlardan milyonlarcasını bulabilirsiniz.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
Tabii ki bunların çoğu orjinal içerik yaratıcıları tarafından konulmaz.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
Rastgele birçok farklı hesap tarafından konuluyorlar
03:31
and it's impossible to know who's posting them
70
211945
2240
ve bunları kimin koyduğunu
veya amaçlarının ne olduğunu bilmek imkânsız.
03:34
or what their motives might be.
71
214209
1822
03:36
Does that sound kind of familiar?
72
216428
1930
Tanıdık geldi mi?
03:38
Because it's exactly the same mechanism
73
218382
1980
Çünkü dijital hizmetlerin çoğunda var olan
03:40
that's happening across most of our digital services,
74
220386
2600
mekanizmanın tamamen aynısı bu,
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
bilginin nereden geldiğini bilmek imkânsız.
03:46
It's basically fake news for kids,
76
226241
1829
Bu resmen çocuklar için sahte haber
03:48
and we're training them from birth
77
228094
2161
ve onları doğduklarından itibaren
03:50
to click on the very first link that comes along,
78
230279
2506
önlerine gelen ilk linke tıklamaları için eğitiyoruz,
03:52
regardless of what the source is.
79
232809
1953
kaynağının ne olduğunu bile umursamadan.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
Bu çok da iyi bir fikir gibi durmuyor.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
YouTube'da gerçekten sevilen bir diğer şey daha var.
04:01
This is called the "Finger Family Song."
82
241133
1928
İsmi "Parmak Ailesi Şarkısı."
04:03
I just heard someone groan in the audience.
83
243085
2018
Seyircilerden birinin sızlandığını duydum.
04:05
This is the "Finger Family Song."
84
245127
1624
Bu "Parmak Ailesi Şarkısı."
04:06
This is the very first one I could find.
85
246775
1930
Bu bulabildiklerim arasında en eskisi.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
2007 yılında yüklenmiş ve sadece 200.000 kez izlenmiş,
04:11
which is, like, nothing in this game.
87
251582
1976
ki bu, nerdeyse bu platformda hiç demek.
04:13
But it has this insanely earwormy tune,
88
253582
2852
Ama insanı deli eden ve diline dolanan bir melodisi var,
04:16
which I'm not going to play to you,
89
256458
1682
bunu size dinletmeyeceğim
04:18
because it will sear itself into your brain
90
258164
2008
çünkü şarkı beyninize kazınacak,
04:20
in the same way that it seared itself into mine,
91
260196
2395
tıpkı benim beynime kazındığı gibi
04:22
and I'm not going to do that to you.
92
262615
1770
ve sizi buna maruz bırakmayacağım.
04:24
But like the surprise eggs,
93
264409
1344
Aynı sürpriz yumurtalar gibi
04:25
it's got inside kids' heads
94
265777
2164
çocukların aklına girerek
04:27
and addicted them to it.
95
267965
1607
onları buna bağımlı yaptılar.
04:29
So within a few years, these finger family videos
96
269596
2531
Böylece birkaç yıl içinde, bu parmak ailesi videoları
04:32
start appearing everywhere,
97
272151
1303
her yerde görünmeye başladı
04:33
and you get versions in different languages
98
273478
2029
ve farklı dillerde
04:35
with popular kids' cartoons using food
99
275531
2121
popüler çizgi filmlerin yiyecek
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
hatta her çeşit animasyon malzemesini kullandıkları
04:40
you seem to have lying around.
101
280250
2252
versiyonları etrafa yayıldı.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
Yine aynı şekilde, bu tür çılgınca kombinasyonlardan oluşan
04:48
available online in all of these kind of insane combinations.
103
288223
3435
milyonlarca video internette mevcut.
04:51
And the more time you start to spend with them,
104
291682
2228
Onlarla ne kadar vakit geçirirseniz
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
delirdiğinize dair inancınız o kadar artar.
04:57
And that's where I kind of launched into this,
106
297652
3333
Ben de bu noktada bu konuya yöneldim,
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
çevremde sunuluyor gibi görünen bu şeyin
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
nasıl inşa edildiğini asla anlayamama ve derin yabancılaşma hissi.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
Çünkü bu şeylerin nereden geldiğini bilmek imkânsız.
05:12
Like, who is making them?
110
312089
1241
Yani, kim yapıyor bunları?
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
Bazıları profesyonel animatör ekiplerle yapılmış gibi duruyor.
05:16
Some of them are just randomly assembled by software.
112
316521
2882
Bazıları sadece yazılım tarafından rastgele birleştirilmiş.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
Bazıları oldukça sağlıklı görünen küçük çocuk şovmenleri.
05:23
And some of them are from people
114
323704
1552
Ve bazıları da...
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
kesinlikle çocukların etrafında bulunmaması gereken insanlardan.
05:28
(Laughter)
116
328311
1615
(Gülme sesleri)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
Bir kez daha, bu şeyleri yapanın kim olduğunu çözmenin imkansızlığı--
05:35
like, this is a bot?
118
335651
1156
Bu bir robot mu?
05:36
Is this a person? Is this a troll?
119
336831
2647
Bu bir insan mı? Bir trol mü?
05:39
What does it mean that we can't tell the difference
120
339502
2382
Artık bu şeylerin farkını söyleyemiyor olmamız
05:41
between these things anymore?
121
341908
1583
ne anlama gelir?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
Peki bu belirsizlik tanıdık geliyor mu?
05:50
So the main way people get views on their videos --
123
350145
2580
Yani, insanların videolarını izletmelerinin tek yolu
05:52
and remember, views mean money --
124
352749
1707
-ki izlenme sayısı para demek-
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
bu tür popüler terimleri videolarının başlığına sıkıştırmak.
05:59
So you take, like, "surprise eggs"
126
359246
1687
Mesela "sürpriz yumurta"yı alır,
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
"Paw Patrol" veya "Easter egg"i eklersiniz,
06:03
or whatever these things are,
128
363047
1393
ya da bu şeyler her neyse,
06:04
all of these words from other popular videos into your title,
129
364464
2893
popüler videolardaki bu kelimeleri alır ve başlığına eklersiniz,
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
ta ki insanlara hiçbir anlam ifade etmeyen
06:10
that doesn't make sense to humans at all.
131
370373
2498
bu tür anlamsız bir karma dil elde edene dek.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
Çünkü tabii ki sizin videonuzu izleyenler sadece ufacık çocuklar,
06:16
and what the hell do they know?
133
376465
1827
onlar ne biliyorlar ki?
06:18
Your real audience for this stuff is software.
134
378316
3007
Sizin bu şey için asıl seyirciniz yazılım.
06:21
It's the algorithms.
135
381347
1156
Algoritmalar.
06:22
It's the software that YouTube uses
136
382527
1855
Youtube'un hangi videoların
06:24
to select which videos are like other videos,
137
384406
2483
diğerleri gibi olduğunu seçmek için
06:26
to make them popular, to make them recommended.
138
386913
2243
onları popüler ve önerilen video yapmak için kullandığı yazılım.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
Tamamıyla anlamsız olan bu karışımla sonuçlanmanızın nedeni de bu,
06:32
both of title and of content.
140
392665
2071
hem başlık hem içerik olarak.
06:35
But the thing is, you have to remember,
141
395792
1894
Ama önemli olan, hatırlamalısınız ki
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
algoritmik olarak en iyi hâle getirilen bu sistemin içinde gerçekten insanlar var.
06:42
people who are kind of increasingly forced to act out
143
402212
2790
Giderek garipleşen bu kelime kombinasyonlarını
06:45
these increasingly bizarre combinations of words,
144
405026
3066
canlandırmaya zorlanan insanlar,
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
tıpkı yürümeye yeni başlayan milyonlarca bebeğin çığlığına karşılık veren
06:53
of a million toddlers at once.
146
413313
2203
umutsuz bir doğaçlama sanatçısı gibi.
06:57
There are real people trapped within these systems,
147
417168
2468
Bu sistemlerde sıkışıp kalmış gerçek insanlar var
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
ve bu da algoritmik işleyen bu kültürdeki son derece garip bir diğer şey
07:03
because even if you're human,
149
423739
1381
çünkü insansan bile,
07:05
you have to end up behaving like a machine
150
425144
2145
bir makine gibi davranmak zorundasın,
07:07
just to survive.
151
427313
1800
hayatta kalabilmek için.
07:09
And also, on the other side of the screen,
152
429137
2100
Bir de ekranın diğer tarafında
07:11
there still are these little kids watching this stuff,
153
431261
2947
bu tür şeyleri hâlâ izleyen, sıkışmış,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
tüm dikkati bu garip mekanizmalar tarafından yakalanmış çocuklar var.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
Bu çocukların çoğu, internete girmek için bile çok küçük.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
Sadece küçük elleriyle ekrana çekiçle vurur gibi vuruyorlar.
07:24
And so there's autoplay,
157
444890
1217
Bir de otomatik oynatma var,
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
bu videoları bir döngü içinde sonsuz bir şekilde
07:29
endlessly for hours and hours at a time.
159
449734
2059
saatlerce tekrar tekrar oynatan.
07:31
And there's so much weirdness in the system now
160
451817
2843
Sistemde şu an çok fazla gariplik var,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
bu otomatik oynatma sizi çok garip yerlere götürüyor.
07:37
This is how, within a dozen steps,
162
457717
2488
İşte bu şekilde on iki adımda,
07:40
you can go from a cute video of a counting train
163
460229
3158
sayı sayan sevimli trenin videosundan
07:43
to masturbating Mickey Mouse.
164
463411
2442
mastürbasyon yapan Mickey Mouse'a gidebilirsiniz.
07:46
Yeah. I'm sorry about that.
165
466529
2288
Evet, bu konuda üzgünüm.
07:48
This does get worse.
166
468841
1700
Bu daha da kötüye gidiyor.
07:50
This is what happens
167
470565
1282
Tüm bu farklı anahtar kelimeler,
07:51
when all of these different keywords,
168
471871
3086
farklı dikkat parçaları,
07:54
all these different pieces of attention,
169
474981
2461
umutsuz içerik jenerasyonu,
07:57
this desperate generation of content,
170
477466
2807
tüm bunların hepsi
08:00
all comes together into a single place.
171
480297
2582
tek bir yerde bir araya gelince ortaya çıkan bu.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
Burası tüm bu son derece garip anahtar kelimelerin geri teptiği yer.
08:08
You cross-breed the finger family video
173
488367
2391
Parmak ailesi videosunu alıp
08:10
with some live-action superhero stuff,
174
490782
2088
süper kahramanlarla çiftleştirirsiniz,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
birkaç garip, trol şaka eklersiniz
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
ve birdenbire cidden de garip bir yere gelirsiniz.
08:19
The stuff that tends to upset parents
177
499564
2113
Ebeveynleri endişelendirebilecek şeyler
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
şiddet veya cinsellik içeren şeyler, değil mi?
08:25
Children's cartoons getting assaulted,
179
505056
2822
Çocuk çizgi kahramanlar saldırıya uğruyor,
08:27
getting killed,
180
507902
2018
öldürülüyor,
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
çocukları aslında gerçekten korkutan garip şakalar.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
Yazılımlar tüm bu farklı etkileri, çocukların en kötü kâbuslarını
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
otomatik olarak üretmek için kullanıyorlar.
08:39
And this stuff really, really does affect small children.
184
519995
2701
Bu tür şeyler gerçekten de küçük çocukları etkiliyor.
08:42
Parents report their children being traumatized,
185
522720
2866
Ebeveynler çocuklarının travma geçirdiğini,
08:45
becoming afraid of the dark,
186
525610
1392
karanlıktan korkar olduğunu,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
sevdikleri çizgi film karakterlerinden korktuğunu bildiriyor.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
Bundan bir çıkarım yaparsanız şu olsun: eğer küçük çocuklarınız varsa
08:54
keep them the hell away from YouTube.
189
534159
1996
onları YouTube'dan uzak tutun.
08:56
(Applause)
190
536743
3949
(Alkışlar)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
Fakat diğer bir şey ise, bu konuda beni gerçekten üzen şey şu ki
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
bu noktaya nasıl geldiğimizi cidden anladığımızdan emin değilim.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
Tüm bu etkileri, tüm bu şeyleri aldık
09:13
and munged them together in a way that no one really intended.
194
553906
2953
ve kimsenin pek niyetlenmediği bir şekilde birleştirdik.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
Ancak dünyayı inşa etme şeklimiz günümüzde bu.
09:20
We're taking all of this data,
196
560063
1773
Bütün bu verileri alıyoruz,
09:21
a lot of it bad data,
197
561860
1447
ki çoğu kötü veriler,
09:23
a lot of historical data full of prejudice,
198
563331
3029
önyargılarla dolu bir sürü tarihi veri,
09:26
full of all of our worst impulses of history,
199
566384
2837
tarihin en kötü dürtüleriyle dolu,
09:29
and we're building that into huge data sets
200
569245
2049
bunlardan devasa veri setleri yaratıyoruz,
09:31
and then we're automating it.
201
571318
1423
sonra da otomatikleştiriyoruz.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
Bunların hepsini birlikte kredi raporlarına,
09:36
into insurance premiums,
203
576291
1634
sigorta primlerine,
09:37
into things like predictive policing systems,
204
577949
2693
tahmini polislik sistemi gibi şeylere,
09:40
into sentencing guidelines.
205
580666
1762
hüküm rehberlerine dönüştürüyoruz.
09:42
This is the way we're actually constructing the world today
206
582452
2821
Bu aslında, bugün bu dünyayı bu verileri kullanarak
09:45
out of this data.
207
585297
1151
inşa etme şeklimizdir.
09:46
And I don't know what's worse,
208
586472
1698
Hangisi daha kötü bilmiyorum,
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
İnsan davranışlarının en kötü yanları için
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
en uygun hâle getirilmiş gibi görünen bir sistem kurmamız mı
09:54
or that we seem to have done it by accident,
211
594278
2425
yoksa bunu yapıyor olduğumuzun bile farkına varmadan
09:56
without even realizing that we were doing it,
212
596727
2207
kazara yapmış gibi görünüyor olmamız mı?
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
Çünkü yapmakta olduğumuz bu sistemleri gerçekten anlayamadık,
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
onlarla nasıl daha farklı bir şey yapılacağını da gerçekten anlamadık.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
Birkaç şeyin buna yön verdiğini düşünüyorum,
10:10
most fully on YouTube,
216
610158
1189
çoğu Youtube üzerinde
10:11
and the first of those is advertising,
217
611371
1827
ve bunlardan ilki reklamcılık,
10:13
which is the monetization of attention
218
613222
2837
ki bu da, ilginin paraya dönüştürülmesi demek,
10:16
without any real other variables at work,
219
616083
3136
işin içinde başka gerçek değişken olmadan,
10:19
any care for the people who are actually developing this content,
220
619243
3885
bu içeriği gerçekten geliştiren insanları umursamadan,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
gücün merkezileştirilmesi, bu şeylerin birbirinden ayrılması.
10:26
And I think however you feel about the use of advertising
222
626812
3144
Bence bazı şeyleri desteklemek için
reklam kullanımı konusunda her ne düşünüyorsanız
10:29
to kind of support stuff,
223
629980
1238
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
hiç anlamadıkları bir algoritmanın onlara para vereceği umuduyla
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
bebek beziyle kumda yuvarlanan
10:37
will give them money for it
226
637340
1315
olgun adamların görüntüsü,
10:38
suggests that this probably isn't the thing
227
638679
2037
toplum ve kültürümüzü dayandırmamız gereken şeyin
10:40
that we should be basing our society and culture upon,
228
640740
2563
muhtemelen bu şey olmadığını
10:43
and the way in which we should be funding it.
229
643327
2160
ve buna para yatırmamamız gerektiğini gösteriyor.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
Buna yön veren diğer büyük şey de otomatikleşme,
10:49
which is the deployment of all of this technology
231
649054
2329
ulaşır ulaşmaz hiç gözden kaçmaksızın
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
tüm bu teknolojinin kulanılmaya başlanması
10:53
and then once it's out there,
233
653952
1412
ve teknoloji kendini gösterdiğinde
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
ellerimizi kaldırıp "Ama biz yapmadık, teknoloji yaptı" demek.
10:59
Like, "We're not involved in it."
235
659255
1642
"Bizim bir suçumuz yok."
11:00
That's not really good enough,
236
660921
1767
Bu gerçekten yeterli değil.
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
Çünkü bu şey sadece algoritmik olarak yönetilmiyor,
11:05
it's also algorithmically policed.
238
665446
2498
aynı zamanda algoritmik olarak denetleniyor.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
YouTube buna ilk kulak verdiği zamanlarda
11:10
the first thing they said they'd do about it
240
670840
2087
bununla ilgili söyledikleri ilk şey
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
daha iyi makine öğrenimli algoritmalar kullanacaklarıydı,
11:15
to moderate the content.
242
675670
1329
içeriği ılımlı yapmak için.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
Bu alandaki her uzmanın size söyleyeceği gibi, "makine öğrenmesi"
11:20
is basically what we've started to call
244
680532
1896
nasıl çalıştığını aslında anlamadığımız yazılımlara
11:22
software that we don't really understand how it works.
245
682452
2588
vermiş olduğumuz isim.
11:25
And I think we have enough of that already.
246
685064
3983
Bence bunlardan elimizde yeterince var.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
Neyin uygun olduğunu belirlemeyi
yapay zekâya bırakmamalıyız
11:32
what's appropriate or not,
248
692261
1251
çünkü ne olacağını biliyoruz.
11:33
because we know what happens.
249
693536
1436
11:34
It'll start censoring other things.
250
694996
1688
Başka şeyleri sansürleyecek.
Eşcinsel içerikleri sansürleyecek.
11:36
It'll start censoring queer content.
251
696708
1783
Yasal kamu konuşmalarını sansürlemeye başlayacak.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
11:40
What's allowed in these discourses,
253
700776
1925
Bu söylemlerde izin verilen,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
sorumsuz sistemlere bırakılan bir şey olmamalı.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
Bu hepimizin yapması gereken bir tartışmanın parçası.
11:48
But I'd leave a reminder
256
708817
1308
Ama bir hatırlatma yapayım,
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
alternatif de pek hoş değil.
11:52
YouTube also announced recently
258
712926
1535
Buna ek olarak YouTube yakın zamanda
11:54
that they're going to release a version of their kids' app
259
714485
2767
çocuk uygulamalarının tamamen insanlar tarafından yönetildiği
11:57
that would be entirely moderated by humans.
260
717276
2407
bir versiyon çıkaracaklarını duyurdu.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
Facebook-- Zuckerberg de uygulamasını nasıl yöneteceği sorulduğunda
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
kongrede neredeyse aynı şeyi söylemişti.
12:06
He said they'd have humans doing it.
263
726787
1747
Bunu insanlara yaptıracağız demişti.
12:08
And what that really means is,
264
728558
1459
Bunun asıl anlamı şu;
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
bu şeyleri ilk görenler, çocuklar yerine
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
düşük maaşlı, güvencesiz sözleşmeli işçileriniz olacak,
12:16
without proper mental health support
267
736100
1726
düzgün akıl sağlığı sigortası olmayan
12:17
being damaged by it as well.
268
737850
1376
ve bundan hasar gören insanlar.
12:19
(Laughter)
269
739250
1096
(Kahkahalar)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
Bence hepimiz bundan çok daha iyisini yapabiliriz.
12:22
(Applause)
271
742995
2499
(Alkışlar)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
Bu iki şeyi bir araya getiren düşünce de
bana göre gerçekten aracı kurum.
12:30
is agency.
273
750705
1420
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
Aracı kurumdan aslında ne anladığımızı kastediyorum:
12:35
how we know how to act in our own best interests.
275
755330
4390
Nasıl en iyi menfaatlerimize göre hareket etmeyi bilmemiz,
12:39
Which -- it's almost impossible to do
276
759744
1787
ki bunu yapmak neredeyse imkânsız,
12:41
in these systems that we don't really fully understand.
277
761555
3485
gerçekten tam anlamıyla anlamadığımız bu sistemlerin içinde.
12:45
Inequality of power always leads to violence.
278
765064
3071
Güç eşitsizliği her zaman şiddete yol açar.
12:48
And we can see inside these systems
279
768159
1685
Bu sistemlerin içerisinde
12:49
that inequality of understanding does the same thing.
280
769868
2611
kavrayış eşitsizliğinin de aynını yaptığını görüyoruz.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
Bu sistemleri geliştirmek için yapabileceğimiz bir şey varsa
12:56
it's to make them more legible to the people who use them,
282
776306
2718
o da bunları kullanan insanlar için daha okunaklı yapmak,
12:59
so that all of us have a common understanding
283
779048
2196
böylece burada neler döndüğü ile ilgili
13:01
of what's actually going on here.
284
781268
1851
hepimizin ortak bir kanısı olur.
13:03
The thing, though, I think most about these systems
285
783970
2968
Gerçi bu sistemlerle ilgili en çok düşündüğüm şey de şu ki
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
umarım anlatabilmişimdir, bu olay YouTube ile ilgili değil.
13:10
It's about everything.
287
790843
1312
Her şeyle ilgili.
13:12
These issues of accountability and agency,
288
792179
2444
Bu sorumluluk ve aracılık,
13:14
of opacity and complexity,
289
794647
2225
anlaşılmazlık ve karmaşa,
13:16
of the violence and exploitation that inherently results
290
796896
3177
gücün birkaç kişinin elinde toplanmış olmasından kaynaklanan
13:20
from the concentration of power in a few hands --
291
800097
2794
şiddet ve istismar konuları--
13:22
these are much, much larger issues.
292
802915
2579
bunlar çok, çok daha geniş konular.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
Üstelik bunlar sadece Youtube'un veya teknolojinin genel sorunları değil,
13:30
and they're not even new.
294
810106
1265
bunlar yeni bile değil.
13:31
They've been with us for ages.
295
811395
1461
Bunlar senelerdir bizimleydi.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
Ama biz en sonunda, bize bunları sıradışı bir şekilde gösteren,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
bunları inkâr edilemez yapan global sistemi,
13:40
making them undeniable.
298
820337
1547
interneti yarattık.
13:41
Technology has this extraordinary capacity
299
821908
2820
Teknolojinin öyle sıradışı bir kapasitesi var ki
13:44
to both instantiate and continue
300
824752
3973
en sıradışı ve gizli kalmış tutku ve önyargılarımızı
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
örneklemek ve sürdürmekle kalmıyor,
13:53
and encoding them into the world,
302
833021
1866
onları gerçek dünyaya çözümlüyor
13:54
but it also writes them down so that we can see them,
303
834911
3474
ama aynı zamanda bunları görmemiz için not ediyor,
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
böylece yokmuş gibi davranamıyoruz.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
Teknolojiyi tüm problemlerimizin çözümü olarak görmek yerine,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
bu problemlerin aslında ne olduğunu gösteren bir rehber olarak görmeliyiz ki
14:09
so we can start thinking about them properly
307
849887
2144
böylece onlar hakkında düzgünce düşünüp
14:12
and start to address them.
308
852055
1766
çözüm bulabilelim.
14:13
Thank you very much.
309
853845
1335
Çok teşekkür ederim.
14:15
(Applause)
310
855204
5192
(Alkışlar)
14:21
Thank you.
311
861733
1188
Teşekkür ederim.
14:22
(Applause)
312
862945
2869
(Alkışlar)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
Helen Walters: James, bize bu konuşmayı yaptığın için teşekkürler.
14:32
So it's interesting:
314
872041
1189
Öylesine ilginç ki
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
robotik otoritelerin yönetimi ele geçirdiği filmleri düşününce
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
her şey senin tanımladığından biraz daha göz alıcı.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
Ama merak ettiğim şu-- bu fimlerde bir direniş var.
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
Bu şeylere karşı da bir direniş var mı?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
Hiç pozitif bir işaret, yeşeren bir direniş görüyor musun?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
James Bridle: Direkt bir direnişi bilemem
14:54
because I think this stuff is super long-term.
321
894947
2264
çünkü bu şey çok uzun vadeli.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
Bence çok derin şekilde kültürün içine işledi.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
Bir arkadaşım, Eleanor Saitta, her zaman der ki
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
yeterli ölçüde ve kapsamda her teknolojik problem
15:05
are political problems first of all.
325
905568
2267
öncellikle politik bir problemdir.
15:07
So all of these things we're working to address within this
326
907859
2785
Yani bunun içinde çözmeye çalıştığımız her şey
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
sadece teknolojiyi daha iyi inşa etmekle değil,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
bu teknolojileri üreten toplumu değiştirmekle çözülecek.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
Yani hayır, şu an, bence gidecek daha çok yolumuz var.
15:20
But as I said, I think by unpacking them,
330
920505
1986
Ama dediğim gibi, bunları açığa çıkartıp açıklayarak,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
bunlar hakkında dürüstçe konuşarak
15:25
we can actually start to at least begin that process.
332
925236
2505
bence en azından bu süreci başlatabiliriz.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
HW: Sen okunabilirlik ve dijital okuryazarlık hakkında konuşunca
15:31
I find it difficult to imagine
334
931351
1591
dijital okuryazarlık yükünü
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
kullanıcılara yüklememizin gerekliliğini hayal etmesi zor buluyorum.
15:36
But whose responsibility is education in this new world?
336
936670
4562
Ama bu yeni dünyada eğitimden kim sorumlu?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
JB: Bence, bu sorumluluk biraz da hepimizde,
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
yaptığımız, inşa ettiğimiz her şey
15:47
needs to be made in a consensual discussion
339
947900
3692
karşılıklı tartışma ile yapılmalı,
15:51
with everyone who's avoiding it;
340
951616
1940
bundan kaçınan insanlarla birlikte;
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
insanların doğru şeyi yapması için aklını çelme amacı taşıyan
15:57
into doing the right thing,
342
957945
2300
sistemler tasarlamıyoruz
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
ama bunlar onları eğitmenin her adımına dâhiller
16:03
because each of these systems is educational.
344
963529
2278
çünkü bu sistemlerin her biri eğitici.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
Umutlu olduğum şey de bu, bu son derece acımasızca şeylerde bile,
16:08
that if you can take it and look at it properly,
346
968957
2262
eğer onu alıp düzgünce incelerseniz
16:11
it's actually in itself a piece of education
347
971243
2089
aslında o, kendi içinde eğitim parçası,
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
karmaşık sistemlerin nasıl bir araya gelip işlediğini görmeye başlamamızı
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
ve belki de bu bilgiyi dünyanın başka bir yerinde kullanmamızı sağlayacak.
16:20
HW: James, it's such an important discussion,
350
980667
2115
HW: James, bu çok önemli bir tartışmaydı
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
ve biliyorum ki buradaki çoğu insan bu tartışmaya açık ve hazırlar,
16:26
so thanks for starting off our morning.
352
986057
1859
güne seninle başlamak çok güzeldi.
16:27
JB: Thanks very much. Cheers.
353
987940
1400
JB: Çok teşekkürler.
16:29
(Applause)
354
989364
1651
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7