What tech companies know about your kids | Veronica Barassi

84,456 views ・ 2020-07-03

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

00:00
Transcriber: Leslie Gauthier Reviewer: Joanna Pietrulewicz
0
0
7000
Μετάφραση: Chryssa R. Takahashi Επιμέλεια: Thanasis Zantrimas
00:12
Every day, every week,
1
12792
2267
Κάθε μέρα, κάθε εβδομάδα,
00:15
we agree to terms and conditions.
2
15083
2185
αποδεχόμαστε όρους και προϋποθέσεις.
00:17
And when we do this,
3
17292
1476
Και όταν το κάνουμε αυτό,
00:18
we provide companies with the lawful right
4
18792
2476
παρέχουμε σε εταιρίες το νόμιμο δικαίωμά τους
00:21
to do whatever they want with our data
5
21292
3684
να κάνουν ό,τι θέλουν με τα δεδομένα μας
00:25
and with the data of our children.
6
25000
2375
και τα δεδομένα των παιδιών μας.
00:28
Which makes us wonder:
7
28792
2976
Κάτι που μας κάνει να αναρωτηθούμε:
00:31
how much data are we giving away of children,
8
31792
2892
πόσα δεδομένα των παιδιών δίνουμε
00:34
and what are its implications?
9
34708
2000
και ποιο είναι το αντίκτυπό τους;
00:38
I'm an anthropologist,
10
38500
1393
Είμαι ανθρωπολόγος και μητέρα δύο μικρών κοριτσιών.
00:39
and I'm also the mother of two little girls.
11
39917
2601
00:42
And I started to become interested in this question in 2015
12
42542
4476
Άρχισα να ενδιαφέρομαι γι' αυτό το ερώτημα το 2015
όταν συνειδητοποίησα ξαφνικά ότι υπήρχε ένας αχανής,
00:47
when I suddenly realized that there were vast --
13
47042
2726
00:49
almost unimaginable amounts of data traces
14
49792
3017
σχεδόν αδιανόητος όγκος από ίχνη δεδομένων
00:52
that are being produced and collected about children.
15
52833
3167
που δημιουργείται και συλλέγεται σχετικά με τα παιδιά.
00:56
So I launched a research project,
16
56792
1976
Έτσι, ξεκίνησα ένα ερευνητικό έργο
00:58
which is called Child Data Citizen,
17
58792
2476
που ονομάζεται Child Data Citizen,
01:01
and I aimed at filling in the blank.
18
61292
2125
κι ο στόχος του είναι να καλύψει τα κενά.
01:04
Now you may think that I'm here to blame you
19
64583
3018
Τώρα ίσως νομίζετε ότι είμαι εδώ για να σας ρίξω το φταίξιμο
01:07
for posting photos of your children on social media,
20
67625
2768
που ανεβάζετε φωτογραφίες των παιδιών σας στα κοινωνικά μέσα,
01:10
but that's not really the point.
21
70417
2142
αλλά δεν είναι αυτό το θέμα.
01:12
The problem is way bigger than so-called "sharenting."
22
72583
3417
Το θέμα είναι πολύ μεγαλύτερο από τους γονείς που μοιράζονται τα πάντα.
01:16
This is about systems, not individuals.
23
76792
4101
Έχει να κάνει με τα συστήματα, όχι με μεμονωμένα άτομα.
01:20
You and your habits are not to blame.
24
80917
2291
Δεν φταίτε εσείς και οι συνήθειές σας.
01:24
For the very first time in history,
25
84833
2851
Για πρώτη φορά στην ιστορία
01:27
we are tracking the individual data of children
26
87708
2560
παρακολουθούμε τα μεμονωμένα δεδομένα των παιδιών πολύ πριν τη γέννησή τους.
01:30
from long before they're born --
27
90292
1767
01:32
sometimes from the moment of conception,
28
92083
2685
Μερικές φορές από τη στιγμή της σύλληψης
01:34
and then throughout their lives.
29
94792
2351
και μετά σε όλη τους τη ζωή.
01:37
You see, when parents decide to conceive,
30
97167
3101
Όταν οι γονείς αποφασίζουν να κάνουν παιδιά,
01:40
they go online to look for "ways to get pregnant,"
31
100292
2976
μπαίνουν στο ίντερνετ ψάχνοντας τρόπους για την εγκυμοσύνη
01:43
or they download ovulation-tracking apps.
32
103292
2750
ή κατεβάζουν εφαρμογές παρακολούθησης ωορρηξίας.
01:47
When they do get pregnant,
33
107250
2601
Όταν μείνουν έγκυες,
01:49
they post ultrasounds of their babies on social media,
34
109875
3143
ανεβάζουν τους υπερήχους από το μωρό τους στα κοινωνικά μέσα,
01:53
they download pregnancy apps
35
113042
2017
κατεβάζουν εφαρμογές εγκυμοσύνης
01:55
or they consult Dr. Google for all sorts of things,
36
115083
3726
ή παίρνουν συμβουλές από τον Δρ Google για διάφορα,
01:58
like, you know --
37
118833
1518
όπως για «κινδύνους αποβολής σε αεροπλάνο»
02:00
for "miscarriage risk when flying"
38
120375
2559
02:02
or "abdominal cramps in early pregnancy."
39
122958
2768
ή «κοιλιακές κράμπες στην αρχή της εγκυμοσύνης».
02:05
I know because I've done it --
40
125750
1809
Το ξέρω επειδή το έχω κάνει πολλές φορές.
02:07
and many times.
41
127583
1625
02:10
And then, when the baby is born, they track every nap,
42
130458
2810
Και μετά, όταν γεννιέται το μωρό, καταγράφουν κάθε υπνάκο, κάθε τάισμα,
02:13
every feed,
43
133292
1267
02:14
every life event on different technologies.
44
134583
2584
κάθε γεγονός σε διάφορες τεχνολογίες.
02:18
And all of these technologies
45
138083
1476
Κι όλες αυτές οι τεχνολογίες μεταμορφώνουν
02:19
transform the baby's most intimate behavioral and health data into profit
46
139583
6143
τα πιο ενδόμυχα δεδομένα συμπεριφοράς και υγείας του μωρού σε κέρδος,
02:25
by sharing it with others.
47
145750
1792
μοιράζοντάς τα με άλλους.
02:28
So to give you an idea of how this works,
48
148583
2143
Για να σας δώσω μια ιδέα πώς λειτουργεί αυτό,
02:30
in 2019, the British Medical Journal published research that showed
49
150750
5184
το 2019 το Βρετανικό Ιατρικό Περιοδικό δημοσίευσε μια έρευνα που έδειξε
02:35
that out of 24 mobile health apps,
50
155958
3643
ότι από τις 24 εφαρμογές υγείας για κινητό,
02:39
19 shared information with third parties.
51
159625
3458
οι 19 μοιράζονταν πληροφορίες με τρίτους.
02:44
And these third parties shared information with 216 other organizations.
52
164083
5834
Και αυτοί οι τρίτοι μοιράζονταν πληροφορίες με άλλους 216 οργανισμούς.
02:50
Of these 216 other fourth parties,
53
170875
3434
Από αυτούς τους 216 τέταρτους,
02:54
only three belonged to the health sector.
54
174333
3143
μόνο οι τρεις ανήκαν στον τομέα της υγείας.
02:57
The other companies that had access to that data were big tech companies
55
177500
4518
Οι άλλες εταιρίες που είχαν πρόσβαση σ' αυτά τα δεδομένα
ήταν μεγάλες τεχνολογικές εταιρίες όπως η Google, το Facebook ή η Oracle,
03:02
like Google, Facebook or Oracle,
56
182042
3517
03:05
they were digital advertising companies
57
185583
2601
ήταν ψηφιακές διαφημιστικές εταιρίες
03:08
and there was also a consumer credit reporting agency.
58
188208
4125
και επίσης υπήρχε μια εταιρία αναφοράς πίστωσης καταναλωτών.
03:13
So you get it right:
59
193125
1434
Πολύ σωστά καταλάβατε.
03:14
ad companies and credit agencies may already have data points on little babies.
60
194583
5125
Διαφημιστικές και πιστωτικές εταιρίες ίσως έχουν ήδη σημεία δεδομένων από μικρά μωρά.
03:21
But mobile apps, web searches and social media
61
201125
2768
Αλλά οι εφαρμογές, οι αναζητήσεις και τα κοινωνικά μέσα
03:23
are really just the tip of the iceberg,
62
203917
3101
είναι μόνο η κορυφή του παγόβουνου,
03:27
because children are being tracked by multiple technologies
63
207042
2851
επειδή τα παιδιά παρακολουθούνται από πολλαπλές τεχνολογίες
03:29
in their everyday lives.
64
209917
1726
στην καθημερινότητά τους.
03:31
They're tracked by home technologies and virtual assistants in their homes.
65
211667
4142
Παρακολουθούνται από οικιακές τεχνολογίες και ψηφιακούς βοηθούς στα σπίτια τους,
03:35
They're tracked by educational platforms
66
215833
1976
παρακολουθούνται από εκπαιδευτικές πλατφόρμες
03:37
and educational technologies in their schools.
67
217833
2185
και εκπαιδευτικές τεχνολογίες στα σχολεία τους.
03:40
They're tracked by online records
68
220042
1601
Παρακολουθούνται από διαδικτυακά αρχεία
03:41
and online portals at their doctor's office.
69
221667
3017
και διαδικτυακά πόρταλ στο γραφείο του γιατρού τους.
03:44
They're tracked by their internet-connected toys,
70
224708
2351
Από τα παιχνίδια τους που συνδέονται στο διαδίκτυο,
03:47
their online games
71
227083
1310
τα διαδικτυακά τους παιχνίδια και πάρα πολλές άλλες τεχνολογίες.
03:48
and many, many, many, many other technologies.
72
228417
2666
03:52
So during my research,
73
232250
1643
Κατά τη διάρκεια της έρευνάς μου, πολλοί γονείς ήρθαν και μου είπαν,
03:53
a lot of parents came up to me and they were like, "So what?
74
233917
4142
«Και τι έγινε;
03:58
Why does it matter if my children are being tracked?
75
238083
2917
Τι σημασία έχει αν παρακολουθούνται τα παιδιά μου;
Δεν έχουμε κάτι να κρύψουμε».
04:02
We've got nothing to hide."
76
242042
1333
04:04
Well, it matters.
77
244958
1500
Έχει σημασία όμως.
04:07
It matters because today individuals are not only being tracked,
78
247083
6018
Έχει σημασία επειδή τα άτομα σήμερα δεν παρακολουθούνται μόνο,
04:13
they're also being profiled on the basis of their data traces.
79
253125
4101
σκιαγραφείται και το προφίλ τους βάσει του ίχνους των δεδομένων τους.
04:17
Artificial intelligence and predictive analytics are being used
80
257250
3809
Η τεχνητή νοημοσύνη και τα προγνωστικά αναλυτικά στοιχεία χρησιμοποιούνται
04:21
to harness as much data as possible of an individual life
81
261083
3643
για να συλλέξουν όσο περισσότερα δεδομένα γίνεται για τη ζωή ενός ατόμου
04:24
from different sources:
82
264750
1851
από διάφορες πηγές:
04:26
family history, purchasing habits, social media comments.
83
266625
4518
οικογενειακό ιστορικό,
καταναλωτικές συνήθειες, σχόλια στα κοινωνικά μέσα.
04:31
And then they bring this data together
84
271167
1851
Και μετά ενώνουν αυτά τα δεδομένα
04:33
to make data-driven decisions about the individual.
85
273042
2750
για να πάρουν αποφάσεις σύμφωνα μ' αυτά για το άτομο.
04:36
And these technologies are used everywhere.
86
276792
3434
Και αυτές οι τεχνολογίες χρησιμοποιούνται παντού.
04:40
Banks use them to decide loans.
87
280250
2393
Από τράπεζες για την έγκριση δανείων,
04:42
Insurance uses them to decide premiums.
88
282667
2375
από ασφαλιστικές για τον υπολογισμό των ασφαλίστρων.
04:46
Recruiters and employers use them
89
286208
2476
Από γραφεία ευρέσεως εργασίας κι εργοδότες
04:48
to decide whether one is a good fit for a job or not.
90
288708
2917
για να αποφασίσουν αν κάποιος είναι κατάλληλος για μια θέση.
04:52
Also the police and courts use them
91
292750
3101
Τα χρησιμοποιούν επίσης η αστυνομία και τα δικαστήρια
04:55
to determine whether one is a potential criminal
92
295875
3518
για να αποφασίζουν αν κάποιος είναι ένας δυνητικός εγκληματίας
04:59
or is likely to recommit a crime.
93
299417
2625
ή είναι πιθανόν να διαπράξει πάλι ένα έγκλημα.
05:04
We have no knowledge or control
94
304458
4060
Δεν γνωρίζουμε ούτε ελέγχουμε
05:08
over the ways in which those who buy, sell and process our data
95
308542
3642
τους τρόπους που αυτοί που αγοράζουν, πωλούν και επεξεργάζονται τα δεδομένα μας
05:12
are profiling us and our children.
96
312208
2709
σκιαγραφούν τα δικά μας προφίλ και των παιδιών μας.
05:15
But these profiles can come to impact our rights in significant ways.
97
315625
4042
Αλλά αυτά τα προφίλ μπορούν να επηρεάσουν τα δικαιώματά μας με σημαντικούς τρόπους.
05:20
To give you an example,
98
320917
2208
Για να σας δώσω ένα παράδειγμα,
05:25
in 2018 the "New York Times" published the news
99
325792
4059
το 2018 οι New York Times δημοσίευσαν ένα άρθρο
05:29
that the data that had been gathered
100
329875
1976
ότι τα δεδομένα που συλλέχθηκαν
05:31
through online college-planning services --
101
331875
3059
μέσω διαδικτυακών υπηρεσιών σχεδιασμού κολεγίου,
05:34
that are actually completed by millions of high school kids across the US
102
334958
4726
τα οποία συμπληρώθηκαν από εκατομμύρια μαθητές λυκείου στις ΗΠΑ
05:39
who are looking for a college program or a scholarship --
103
339708
3643
που ψάχνουν για ένα πρόγραμμα κολεγίου ή μια υποτροφία,
05:43
had been sold to educational data brokers.
104
343375
3042
πωλήθηκαν σε μεσίτες εκπαιδευτικών δεδομένων.
05:47
Now, researchers at Fordham who studied educational data brokers
105
347792
5434
Τώρα, ερευνητές στο Φόρνταμ που μελέτησαν μεσίτες εκπαιδευτικών δεδομένων,
05:53
revealed that these companies profiled kids as young as two
106
353250
5226
αποκάλυψαν ότι αυτές οι εταιρίες
σκιαγραφούσαν προφίλ παιδιών έως και δύο ετών
05:58
on the basis of different categories:
107
358500
3059
σύμφωνα με διάφορες κατηγορίες:
06:01
ethnicity, religion, affluence,
108
361583
4185
εθνικότητα, θρησκεία, ευημερία,
06:05
social awkwardness
109
365792
2059
κοινωνική αδεξιότητα,
06:07
and many other random categories.
110
367875
2934
και πολλές άλλες τυχαίες κατηγορίες.
06:10
And then they sell these profiles together with the name of the kid,
111
370833
5018
Μετά πωλούν αυτά τα προφίλ μαζί με το όνομα του παιδιού,
06:15
their home address and the contact details
112
375875
2809
τη διεύθυνσή τους και τα στοιχεία επικοινωνίας
06:18
to different companies,
113
378708
1851
σε διάφορες εταιρίες,
06:20
including trade and career institutions,
114
380583
2459
συμπεριλαμβανομένων οργανισμών εμπορίου και καριέρας,
εταιρίες για φοιτητικά δάνεια και φοιτητικές πιστωτικές κάρτες.
06:24
student loans
115
384083
1268
06:25
and student credit card companies.
116
385375
1750
06:28
To push the boundaries,
117
388542
1351
Για να ξεπεράσουν τα όρια,
06:29
the researchers at Fordham asked an educational data broker
118
389917
3809
οι ερευνητές στo Φόρνταμ ζήτησαν από έναν μεσίτη εκπαιδευτικών δεδομένων
06:33
to provide them with a list of 14-to-15-year-old girls
119
393750
5809
να τους δώσει μια λίστα από κορίτσια 14 με 15 ετών
06:39
who were interested in family planning services.
120
399583
3375
που ενδιαφέρθηκαν για υπηρεσίες οικογενειακού προγραμματισμού.
06:44
The data broker agreed to provide them the list.
121
404208
2476
Ο μεσίτης δεδομένων συμφώνησε να τους παρέχει τη λίστα.
06:46
So imagine how intimate and how intrusive that is for our kids.
122
406708
4875
Φανταστείτε πόσο ενδόμυχο και παρεμβατικό είναι αυτό για τα παιδιά μας.
06:52
But educational data brokers are really just an example.
123
412833
3976
Αλλά οι μεσίτες εκπαιδευτικών δεδομένων είναι μόνο ένα παράδειγμα.
06:56
The truth is that our children are being profiled in ways that we cannot control
124
416833
4685
Η αλήθεια είναι ότι σκιαγραφούν το προφίλ των παιδιών μας
με τρόπους που δεν ελέγχουμε,
07:01
but that can significantly impact their chances in life.
125
421542
3416
αλλά που μπορούν να επηρεάσουν σημαντικά τις ευκαιρίες τους στη ζωή.
07:06
So we need to ask ourselves:
126
426167
3476
Έτσι, πρέπει να αναρωτηθούμε:
07:09
can we trust these technologies when it comes to profiling our children?
127
429667
4684
μπορούμε να εμπιστευτούμε αυτές τις τεχνολογίες
με τη σκιαγράφηση του προφίλ των παιδιών μας;
07:14
Can we?
128
434375
1250
Μπορούμε;
07:17
My answer is no.
129
437708
1250
Η απάντησή μου είναι όχι.
07:19
As an anthropologist,
130
439792
1267
Ως ανθρωπολόγος,
πιστεύω ότι η τεχνητή νοημοσύνη και τα προγνωστικά αναλυτικά στοιχεία
07:21
I believe that artificial intelligence and predictive analytics can be great
131
441083
3768
07:24
to predict the course of a disease
132
444875
2018
είναι σπουδαία στην πρόβλεψη της πορείας μιας ασθένειας
07:26
or to fight climate change.
133
446917
1833
ή στην καταπολέμηση της κλιματικής αλλαγής.
Αλλά πρέπει να εγκαταλείψουμε την πεποίθηση
07:30
But we need to abandon the belief
134
450000
1643
07:31
that these technologies can objectively profile humans
135
451667
3684
ότι αυτές οι τεχνολογίες μπορούν να δημιουργήσουν αντικειμενικά προφίλ
07:35
and that we can rely on them to make data-driven decisions
136
455375
3184
και ότι μπορούμε να βασιστούμε πάνω τους για να πάρουμε αποφάσεις βάσει δεδομένων
07:38
about individual lives.
137
458583
1893
για μεμονωμένες ζωές.
07:40
Because they can't profile humans.
138
460500
2559
Επειδή δεν μπορούν να σκιαγραφήσουν προφίλ ανθρώπων.
07:43
Data traces are not the mirror of who we are.
139
463083
3351
Τα ίχνη των δεδομένων δεν είναι ο καθρέφτης αυτού που είμαστε.
07:46
Humans think one thing and say the opposite,
140
466458
2101
Οι άνθρωποι σκέφτονται ένα πράγμα και λένε κάτι άλλο,
07:48
feel one way and act differently.
141
468583
2435
νιώθουν κάπως αλλά πράττουν διαφορετικά.
07:51
Algorithmic predictions or our digital practices
142
471042
2476
Οι αλγοριθμικές προβλέψεις ή οι ψηφιακές μας πρακτικές
07:53
cannot account for the unpredictability and complexity of human experience.
143
473542
5166
δεν μπορούν να εξηγήσουν τη μη προβλεψιμότητα
και την πολυπλοκότητα της ανθρώπινης εμπειρίας.
08:00
But on top of that,
144
480417
1559
Αλλά πάνω απ' όλα,
08:02
these technologies are always --
145
482000
2684
αυτές οι τεχνολογίες είναι πάντα,
08:04
always --
146
484708
1268
μα πάντα,
με τον έναν ή τον άλλο τρόπο, προκατειλημμένες.
08:06
in one way or another, biased.
147
486000
1917
08:09
You see, algorithms are by definition sets of rules or steps
148
489125
5059
Βλέπετε, οι αλγόριθμοι είναι εξ ορισμού ένα σύνολο κανόνων ή βημάτων
08:14
that have been designed to achieve a specific result, OK?
149
494208
3709
που έχουν σχεδιαστεί για να επιτύχουν ένα συγκεκριμένο αποτέλεσμα, εντάξει;
08:18
But these sets of rules or steps cannot be objective,
150
498833
2726
Αλλά αυτό το σύνολο κανόνων ή βημάτων δεν είναι αντικειμενικό,
08:21
because they've been designed by human beings
151
501583
2143
επειδή έχουν σχεδιαστεί από ανθρώπους
08:23
within a specific cultural context
152
503750
1726
σε ένα συγκεκριμένο πολιτισμικό πλαίσιο
08:25
and are shaped by specific cultural values.
153
505500
2500
και διαμορφώνονται από συγκεκριμένες πολιτισμικές αξίες.
08:28
So when machines learn,
154
508667
1726
Έτσι, όταν μαθαίνουν οι μηχανές,
08:30
they learn from biased algorithms,
155
510417
2250
μαθαίνουν από αλγόριθμους που είναι προκατειλημμένοι,
08:33
and they often learn from biased databases as well.
156
513625
3208
και συχνά μαθαίνουν και από προκατειλημμένες βάσεις δεδομένων.
08:37
At the moment, we're seeing the first examples of algorithmic bias.
157
517833
3726
Αυτήν τη στιγμή βλέπουμε τα πρώτα παραδείγματα αλγοριθμικής προκατάληψης.
08:41
And some of these examples are frankly terrifying.
158
521583
3500
Και μερικά από αυτά τα παραδείγματα είναι πραγματικά τρομακτικά.
08:46
This year, the AI Now Institute in New York published a report
159
526500
4059
Φέτος, το Ινστιτούτο AI Now στη Νέα Υόρκη δημοσίευσε μια αναφορά
08:50
that revealed that the AI technologies
160
530583
2393
που αποκάλυψε ότι οι τεχνολογίες ΤΝ
08:53
that are being used for predictive policing
161
533000
3476
που χρησιμοποιούνται για προγνωστική αστυνόμευση
08:56
have been trained on "dirty" data.
162
536500
3125
εκπαιδεύτηκαν με «βρόμικα» δεδομένα.
09:00
This is basically data that had been gathered
163
540333
2893
Βασικά, αυτά είναι δεδομένα που συλλέχθηκαν
09:03
during historical periods of known racial bias
164
543250
4184
κατά τη διάρκεια ιστορικών περιόδων με γνωστές ρατσιστικές προκαταλήψεις
09:07
and nontransparent police practices.
165
547458
2250
και μη διαφανείς πρακτικές αστυνόμευσης.
09:10
Because these technologies are being trained with dirty data,
166
550542
4059
Επειδή αυτές οι τεχνολογίες έχουν εκπαιδευτεί με βρόμικα δεδομένα,
09:14
they're not objective,
167
554625
1434
δεν είναι αντικειμενικές,
09:16
and their outcomes are only amplifying and perpetrating
168
556083
4518
και τα αποτελέσματά τους οδηγούν μόνο
στην ενίσχυση της αστυνομικής προκατάληψης και τη διάπραξη λαθών.
09:20
police bias and error.
169
560625
1625
09:25
So I think we are faced with a fundamental problem
170
565167
3142
Νομίζω λοιπόν ότι αντιμετωπίζουμε ένα ουσιαστικό πρόβλημα
09:28
in our society.
171
568333
1643
στην κοινωνία μας.
09:30
We are starting to trust technologies when it comes to profiling human beings.
172
570000
4792
Αρχίζουμε να εμπιστευόμαστε τεχνολογίες για τη σκιαγράφηση προφίλ ανθρώπων.
09:35
We know that in profiling humans,
173
575750
2518
Γνωρίζουμε ότι στη σκιαγράφηση προφίλ ανθρώπων
09:38
these technologies are always going to be biased
174
578292
2809
αυτές οι τεχνολογίες πάντα θα είναι προκατειλημμένες
09:41
and are never really going to be accurate.
175
581125
2726
και ποτέ δεν θα είναι πραγματικά ακριβείς.
09:43
So what we need now is actually political solution.
176
583875
2934
Αυτό που χρειαζόμαστε τώρα είναι μια πολιτική λύση.
09:46
We need governments to recognize that our data rights are our human rights.
177
586833
4709
Πρέπει οι κυβερνήσεις να αναγνωρίσουν
ότι τα δικαιώματα στα δεδομένα μας είναι ανθρώπινα δικαιώματα.
09:52
(Applause and cheers)
178
592292
4083
(Χειροκρότημα και επευφημίες)
09:59
Until this happens, we cannot hope for a more just future.
179
599833
4084
Μέχρι να γίνει αυτό, δεν μπορούμε να ελπίζουμε για ένα πιο δίκαιο μέλλον.
10:04
I worry that my daughters are going to be exposed
180
604750
2726
Ανησυχώ ότι οι κόρες μου θα εκτεθούν
10:07
to all sorts of algorithmic discrimination and error.
181
607500
3726
σε διάφορες αλγοριθμικές προκαταλήψεις και λάθη.
10:11
You see the difference between me and my daughters
182
611250
2393
Η διαφορά ανάμεσα σε μένα και τις κόρες μου
10:13
is that there's no public record out there of my childhood.
183
613667
3184
είναι ότι δεν υπάρχει δημόσιο αρχείο εκεί έξω για την παιδική μου ηλικία.
10:16
There's certainly no database of all the stupid things that I've done
184
616875
4018
Σίγουρα δεν υπάρχει βάση δεδομένων
με όλες τις χαζομάρες που έκανα και σκέφτηκα όταν ήμουν έφηβη.
10:20
and thought when I was a teenager.
185
620917
2142
10:23
(Laughter)
186
623083
1500
(Γέλια)
10:25
But for my daughters this may be different.
187
625833
2750
Αλλά για τις κόρες μου ίσως είναι διαφορετικά.
10:29
The data that is being collected from them today
188
629292
3184
Τα δεδομένα που συλλέγονται σήμερα από αυτές
10:32
may be used to judge them in the future
189
632500
3809
μπορεί να χρησιμοποιηθούν για να τις κρίνει στο μέλλον
10:36
and can come to prevent their hopes and dreams.
190
636333
2959
και μπορεί να τις αποτρέψει από τις ελπίδες και τα όνειρά τους.
10:40
I think that's it's time.
191
640583
1518
Νομίζω ότι είναι καιρός.
10:42
It's time that we all step up.
192
642125
1434
Είναι καιρός να επιταχύνουμε.
10:43
It's time that we start working together
193
643583
2476
Είναι καιρός να αρχίσουμε να συνεργαζόμαστε
10:46
as individuals,
194
646083
1435
ως μεμονωμένα άτομα,
10:47
as organizations and as institutions,
195
647542
2517
ως οργανισμοί και θεσμοί,
10:50
and that we demand greater data justice for us
196
650083
3101
και να απαιτήσουμε μεγαλύτερη δικαιοσύνη δεδομένων για εμάς
10:53
and for our children
197
653208
1393
και για τα παιδιά μας
10:54
before it's too late.
198
654625
1518
πριν είναι πολύ αργά.
10:56
Thank you.
199
656167
1267
Σας ευχαριστώ.
10:57
(Applause)
200
657458
1417
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7