What tech companies know about your kids | Veronica Barassi

84,909 views ・ 2020-07-03

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Çeviri: bulent yavuz Gözden geçirme: Ezgisu Karakaya
00:12
Every day, every week,
1
12792
2267
Her gün, her hafta
00:15
we agree to terms and conditions.
2
15083
2185
farklı şart ve koşulları kabul ediyoruz.
00:17
And when we do this,
3
17292
1476
Bunu yaparken de
00:18
we provide companies with the lawful right
4
18792
2476
şirketlere hem bizim verilerimizle
00:21
to do whatever they want with our data
5
21292
3684
hem de çocuklarımızın verileriyle
00:25
and with the data of our children.
6
25000
2375
istediklerini yapma hakkını veriyoruz.
00:28
Which makes us wonder:
7
28792
2976
Bu da bizi düşündürüyor:
00:31
how much data are we giving away of children,
8
31792
2892
Çocuklarımızın verilerinin ne kadarını açık ediyoruz
00:34
and what are its implications?
9
34708
2000
ve bunun sonuçları ne olabilir?
00:38
I'm an anthropologist,
10
38500
1393
Ben bir antropoloğum.
00:39
and I'm also the mother of two little girls.
11
39917
2601
Aynı zamanda iki küçük kız annesiyim.
00:42
And I started to become interested in this question in 2015
12
42542
4476
Bu soruyla ilgilenmeye 2015'te başladım.
00:47
when I suddenly realized that there were vast --
13
47042
2726
Çocuklarla ilgili çok fazla
00:49
almost unimaginable amounts of data traces
14
49792
3017
hatta inanılmaz sayıda veri izinin
00:52
that are being produced and collected about children.
15
52833
3167
üretilip toplandığını fark ettiğimde.
00:56
So I launched a research project,
16
56792
1976
Çocuk Verisi Vatandaşı isminde
00:58
which is called Child Data Citizen,
17
58792
2476
bir araştırma projesi başlattım.
01:01
and I aimed at filling in the blank.
18
61292
2125
Hedefim bu boşluğu doldurmaktı.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Çocuklarınızın fotoğraflarını sosyal medyada paylaştığınız için
01:07
for posting photos of your children on social media,
20
67625
2768
sizi kınamaya geldiğimi düşünebilirsiniz
01:10
but that's not really the point.
21
70417
2142
fakat demek istediğim şey bu değil.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Sorun sosyal medya ebeveynliğinden çok daha büyük.
01:16
This is about systems, not individuals.
23
76792
4101
Bu bireylerle değil sistemlerle ilgili.
01:20
You and your habits are not to blame.
24
80917
2291
Suçlu olan siz ve alışkanlıklarınız değil.
01:24
For the very first time in history,
25
84833
2851
Tarihte ilk kez
01:27
we are tracking the individual data of children
26
87708
2560
çocukların bireysel verilerini takip ediyoruz,
01:30
from long before they're born --
27
90292
1767
doğumlarından çok daha öncesinden --
01:32
sometimes from the moment of conception,
28
92083
2685
bazen gebeliğin başladığı andan itibaren
01:34
and then throughout their lives.
29
94792
2351
ve tüm hayatları boyunca.
01:37
You see, when parents decide to conceive,
30
97167
3101
Ebeveynler çocuk yapmaya karar verdiğinde
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
internetten "hamile kalma yöntemleri" arar
01:43
or they download ovulation-tracking apps.
32
103292
2750
ya da ovülasyon takip uygulamaları indirirler.
01:47
When they do get pregnant,
33
107250
2601
Hamile kaldıklarında
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
ultrason resimlerini sosyal medyada paylaşır,
01:53
they download pregnancy apps
35
113042
2017
hamilelik uygulamaları indirir
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
ya da her türlü konuda Dr. Google'a danışırlar.
01:58
like, you know --
37
118833
1518
Şunun gibi konular:
02:00
for "miscarriage risk when flying"
38
120375
2559
"Uçak yolculuğunda düşük riski"
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
ya da "erken hamilelik döneminde mide krampları"
02:05
I know because I've done it --
40
125750
1809
Biliyorum çünkü ben de yaşadım,
02:07
and many times.
41
127583
1625
defalarca.
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Sonrasında, bebek doğduğunda farklı teknolojiler kullanarak
02:13
every feed,
43
133292
1267
her uykuyu, her beslenmeyi
02:14
every life event on different technologies.
44
134583
2584
hayattaki her anı takip ederler.
02:18
And all of these technologies
45
138083
1476
Bu teknolojilerin tümü
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
bebeğin en mahrem davranışlarını ve sağlık verilerini
02:25
by sharing it with others.
47
145750
1792
başkalarıyla paylaşarak paraya dönüştürür.
02:28
So to give you an idea of how this works,
48
148583
2143
Nasıl çalıştığını size anlatayım.
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
2019'dan bir British Medical Journal araştırması gösteriyor ki
02:35
that out of 24 mobile health apps,
50
155958
3643
her 24 mobil sağlık uygulamasından 19'u
02:39
19 shared information with third parties.
51
159625
3458
bilgilerinizi üçüncü şahıslarla paylaşıyor.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Bu üçüncü şahıslar da bilgileri 216 başka kurumla paylaşıyor.
02:50
Of these 216 other fourth parties,
53
170875
3434
Bu 216 dördüncü şahıstan
02:54
only three belonged to the health sector.
54
174333
3143
sadece 3'ü sağlık sektöründe bulunuyor.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Bu verilere erişimi olan diğer şirketler
03:02
like Google, Facebook or Oracle,
56
182042
3517
Google, Facebook, Oracle gibi büyük teknoloji şirketleri,
03:05
they were digital advertising companies
57
185583
2601
dijital reklam şirketleri
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
ve aralarında bir tüketici kredisi rapor ajansı da vardı.
03:13
So you get it right:
59
193125
1434
Doğru anladınız.
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
Reklam ve kredi ajansları küçük bebeğiniz hakkında verilere sahip olabilir.
03:21
But mobile apps, web searches and social media
61
201125
2768
Mobil uyulamalar, internet aramaları ve sosyal medya
03:23
are really just the tip of the iceberg,
62
203917
3101
buzdağının sadece görünen kısmıdır.
03:27
because children are being tracked by multiple technologies
63
207042
2851
Çocuklar günlük hayatlarında da
03:29
in their everyday lives.
64
209917
1726
pek çok teknoloji tarafından takip ediliyor.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Evlerindeki sanal asistan ve ev teknolojilerinden takip ediliyorlar.
03:35
They're tracked by educational platforms
66
215833
1976
Okullarındaki eğitim platformları
03:37
and educational technologies in their schools.
67
217833
2185
ve eğitim teknolojilerinden takip ediliyorlar.
03:40
They're tracked by online records
68
220042
1601
Doktorlarının ofislerindeki
03:41
and online portals at their doctor's office.
69
221667
3017
çevrimiçi kayıt ve portallardan takip ediliyorlar.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
İnternete bağlı oyuncaklarından,
03:47
their online games
71
227083
1310
çevrim içi oyunlardan
03:48
and many, many, many, many other technologies.
72
228417
2666
ve başka pek çok teknoloji tarafından takip ediliyorlar.
03:52
So during my research,
73
232250
1643
Araştırmam sırasında
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
pek çok ebeveyn bana gelip "Ee, yani?" diye sordu.
03:58
Why does it matter if my children are being tracked?
75
238083
2917
"Çocuğumun takip edilmesi neden bu kadar önemli?
04:02
We've got nothing to hide."
76
242042
1333
Sakladığımız bir şey yok."
04:04
Well, it matters.
77
244958
1500
Aslında önemli.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Çünkü günümüzde bireyler sadece takip edilmiyor.
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
Ayrıca veri izlerine göre profilleri çıkartılıyor.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Yapay zeka ve kestirimsel analizler
04:21
to harness as much data as possible of an individual life
81
261083
3643
farklı kaynaklar üzerinden
bireyin hayatından maksimum veriyi elde etmek için kullanılır:
04:24
from different sources:
82
264750
1851
04:26
family history, purchasing habits, social media comments.
83
266625
4518
Aile geçmişi, satın alma alışkanlıkları, sosyal medya yorumları.
04:31
And then they bring this data together
84
271167
1851
Bu veriler bir araya getirilip
birey hakkında veri güdümlü kararlar vermek için kullanılır.
04:33
to make data-driven decisions about the individual.
85
273042
2750
04:36
And these technologies are used everywhere.
86
276792
3434
Bu teknolojiler her yerde kullanılıyor.
04:40
Banks use them to decide loans.
87
280250
2393
Bankalar kredilere karar vermek,
04:42
Insurance uses them to decide premiums.
88
282667
2375
sigorta şirketleri oranlara karar vermek,
04:46
Recruiters and employers use them
89
286208
2476
İşe alım uzmanları ve işverenler
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
bireyin işe uygun olup olmadığına karar vermek için kullanır.
04:52
Also the police and courts use them
91
292750
3101
Polis ve mahkemeler ise
04:55
to determine whether one is a potential criminal
92
295875
3518
bireyin potansiyel bir suçlu olup olmadığına
04:59
or is likely to recommit a crime.
93
299417
2625
ya da tekrar suç işleyip işlemeyeceğini saptamak için kullanır.
05:04
We have no knowledge or control
94
304458
4060
Verilerimizi satın alarak, satarak ve işleyerek
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
bizim ve çocuklarımızın profilini çıkaran yollar üzerinde
05:12
are profiling us and our children.
96
312208
2709
herhangi bir bilgimiz ve kontrolümüz yok.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Ama bu profiller haklarımızı ciddi şekilde etkileyebilir.
05:20
To give you an example,
98
320917
2208
Örnek vermek gerekirse,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
2018 yılında ''New York Times''
05:29
that the data that had been gathered
100
329875
1976
Amerika'da üniversite programı
05:31
through online college-planning services --
101
331875
3059
veya burs arayan milyonlarca lise öğrencisi tarafından tamamlanan
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
çevrim içi üniversite planlama hizmetleri yoluyla
05:39
who are looking for a college program or a scholarship --
103
339708
3643
toplanan verilerin
05:43
had been sold to educational data brokers.
104
343375
3042
eğitim veri aracılarına satıldığı haberini yayınladı.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Fordham Üniversitesinde eğitim veri aracıları üzerinde çalışan araştırmacılar
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
bu şirketlerin iki yaşından itibaren çocukların profillerini
05:58
on the basis of different categories:
107
358500
3059
şu farklı kategorileri baz alarak çıkardıkları bilgisine ulaştı:
06:01
ethnicity, religion, affluence,
108
361583
4185
Etnik köken, din, varlık,
06:05
social awkwardness
109
365792
2059
sosyal uygunsuzluk
06:07
and many other random categories.
110
367875
2934
ve diğer birçok rastgele kategori.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Daha sonra çıkarılan bu profilleri,
06:15
their home address and the contact details
112
375875
2809
çocuğun ismiyle birlikte ev adresi ve iletişim detaylarını,
06:18
to different companies,
113
378708
1851
farklı firmalara satıyorlar
06:20
including trade and career institutions,
114
380583
2459
ki bunlara ticaret ve kariyer kurumları,
06:24
student loans
115
384083
1268
öğrenci kredisi
06:25
and student credit card companies.
116
385375
1750
ve öğrenci kredi kartı şirketleri de dahil.
06:28
To push the boundaries,
117
388542
1351
Sınırları zorlarsak,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
Fordham'daki araştırmacılar, eğitim veri aracılarından
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
aile planlama hizmetleriyle ilgilenen
06:39
who were interested in family planning services.
120
399583
3375
14 ile 15 yaşındaki kızların listesini sunmalarını istedi.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Veri aracısı listeyi sunmayı kabul etti.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Yani bunun çocuklarımız için ne kadar mahrem ve müdahaleci olduğunu siz düşünün.
06:52
But educational data brokers are really just an example.
123
412833
3976
Fakat eğitim veri aracıları sadece bir örnek.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
İşin aslı çocuklarımızın profillerinin bizim denetleyemeyeceğimiz ölçüde
07:01
but that can significantly impact their chances in life.
125
421542
3416
çıkarılıyor olması ki bu onların hayatını önemli derecede etkileyebilir.
07:06
So we need to ask ourselves:
126
426167
3476
O yüzden kendimize şu soruyu sormalıyız:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
Çocuklarımızın profilinin çıkarılmasında bu teknolojilere güvenebilir miyiz?
07:14
Can we?
128
434375
1250
Güvenebilir miyiz?
07:17
My answer is no.
129
437708
1250
Benim cevabım hayır.
07:19
As an anthropologist,
130
439792
1267
Bir antropolog olarak,
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
yapay zekanın ve kestirimsel analizlerin felaketlerin gidişatını tahmin etmek
07:24
to predict the course of a disease
132
444875
2018
ve iklim değişikliği ile savaşmak için
07:26
or to fight climate change.
133
446917
1833
harika olabileceğine inanıyorum.
07:30
But we need to abandon the belief
134
450000
1643
Ama bu teknolojilerin,
07:31
that these technologies can objectively profile humans
135
451667
3684
insan profillerini objektif olarak çıkardığına
ve bireylerin hayatlarıyla ilgili veri güdümlü kararlar vermek için
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
onlara güvenebileceğimize olan inancı terk etmemiz gerekiyor.
07:38
about individual lives.
137
458583
1893
07:40
Because they can't profile humans.
138
460500
2559
Çünkü insan profillerini çıkaramazlar.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Veri izleri bizim kim olduğumuzun aynası değildir.
07:46
Humans think one thing and say the opposite,
140
466458
2101
İnsanlar bir şey düşünür ve tersini söyler,
07:48
feel one way and act differently.
141
468583
2435
bir yönde hisseder ve farklı hareket eder.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Algoritmik tahminler veya dijital alışkanlıklarımız,
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
insan deneyiminin tahmin edilememezlik ve karmaşıklığını açıklayamaz.
08:00
But on top of that,
144
480417
1559
Üstüne üstlük
08:02
these technologies are always --
145
482000
2684
bu teknolojiler daima --
08:04
always --
146
484708
1268
daima --
08:06
in one way or another, biased.
147
486000
1917
öyle ya da böyle, peşin hükümlüdür.
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Gördüğünüz gibi, algoritmalar tanım gereği spesifik bir sonuca
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
ulaşmak için tasarlanmış kurallar ve adımlar bütünüdür. Tamam mı?
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Ama bu kurallar ve adımlar bütünü objektif olamaz,
08:21
because they've been designed by human beings
151
501583
2143
çünkü insanlar tarafından tasarlanmışlardır,
08:23
within a specific cultural context
152
503750
1726
spesifik bir kültürel içeriği vardır
08:25
and are shaped by specific cultural values.
153
505500
2500
ve spesifik kültürel değerler tarafından şekillendirilir.
08:28
So when machines learn,
154
508667
1726
Yani makineler öğrenirken,
08:30
they learn from biased algorithms,
155
510417
2250
peşin hükümlü algoritmalardan
08:33
and they often learn from biased databases as well.
156
513625
3208
ve sıklıkla da peşin hükümlü veri tabanlarından öğrenirler.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Şimdi, algoritmik peşin hükmün ilk örneklerini görüyoruz.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Bu örneklerden bazıları açıkçası dehşet verici.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Bu sene, New York'taki Al Now Enstitüsü
kestirimsel güvenlik işlemleri için kullanılan yapay zeka teknolojilerinin
08:50
that revealed that the AI technologies
160
530583
2393
08:53
that are being used for predictive policing
161
533000
3476
"kirli" veriler üzerinde eğitildiğini
08:56
have been trained on "dirty" data.
162
536500
3125
ortaya çıkaran bir rapor yayınladı.
09:00
This is basically data that had been gathered
163
540333
2893
Kirli veriler; ırksal peşin hükmün
09:03
during historical periods of known racial bias
164
543250
4184
ve şeffaf olmayan polis uygulamalarının olduğu
09:07
and nontransparent police practices.
165
547458
2250
tarihsel dönemler boyunca toplanan veriler demek.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Çünkü bu teknolojiler kirli veri ile eğitiliyor,
09:14
they're not objective,
167
554625
1434
objektif değiller
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
ve bunun sonuçları sadece polis peşin hükmünü
09:20
police bias and error.
169
560625
1625
ve hatalarını arttırıp devam ettiriyor.
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Bundan dolayı, bence
toplumumuzda temel bir problem ile karşı karşıyayız.
09:28
in our society.
171
568333
1643
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
İnsan profili çıkarmaya gelince bu teknolojilere güvenmeye başlıyoruz.
09:35
We know that in profiling humans,
173
575750
2518
Biliyoruz ki insan profili çıkarırken,
09:38
these technologies are always going to be biased
174
578292
2809
bu teknolojiler her zaman peşin hükümlü olacaklar
09:41
and are never really going to be accurate.
175
581125
2726
ve asla gerçekten doğru olmayacaklar.
09:43
So what we need now is actually political solution.
176
583875
2934
Bu yüzden asıl ihtiyacımız olan siyasal bir çözüm.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Bize veri haklarımızın insan haklarımız olduğunu tanıyan hükümetler lazım.
09:52
(Applause and cheers)
178
592292
4083
(Alkış)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Bu olana kadar, daha adil bir gelecek umut edemeyiz.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Kızlarım her tür algoritmik ayrımcılık ve yanlışa
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
maruz kalacağı için endişeleniyorum.
10:11
You see the difference between me and my daughters
182
611250
2393
Ben ve kızlarım arasındaki farkı görüyorsunuz:
10:13
is that there's no public record out there of my childhood.
183
613667
3184
Benim çocukluğumun halka açık kaydı yok.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Gençken yaptığım ve düşündüğüm tüm o aptal şeylerin
10:20
and thought when I was a teenager.
185
620917
2142
bulunduğu bir veritabanı yok.
10:23
(Laughter)
186
623083
1500
(Kahkaha)
10:25
But for my daughters this may be different.
187
625833
2750
Ama kızlarım için daha farklı olabilir.
10:29
The data that is being collected from them today
188
629292
3184
Bugün onlardan toplanan veriler
10:32
may be used to judge them in the future
189
632500
3809
gelecekte onları yargılamak için kullanılabilir,
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
onları umut ve rüyalarından alıkoyabilir.
10:40
I think that's it's time.
191
640583
1518
Bence zamanı geldi.
Artık hepimizin öne çıkma zamanı geldi.
10:42
It's time that we all step up.
192
642125
1434
10:43
It's time that we start working together
193
643583
2476
Bireyler olarak,
organizasyon ve kurumlar olarak,
10:46
as individuals,
194
646083
1435
10:47
as organizations and as institutions,
195
647542
2517
çok geç olmadan
10:50
and that we demand greater data justice for us
196
650083
3101
beraber çalışmaya başlamamızın,
kendimiz ve çocuklarımız için
10:53
and for our children
197
653208
1393
daha fazla veri adaleti talep etmenin zamanı geldi.
10:54
before it's too late.
198
654625
1518
10:56
Thank you.
199
656167
1267
Teşekkürler.
10:57
(Applause)
200
657458
1417
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7