We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Thanasis Zadrimas Επιμέλεια: Vasiliki Soultani
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
Όταν οι άνθρωποι εκφράζουν φόβους για την τεχνητή νοημοσύνη,
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
πολύ συχνά, ανασύρουν εικόνες ανεξέλεγκτων ανθρωποειδών ρομπότ.
00:20
You know? Terminator?
2
20320
1240
Ξέρετε; Τον Εξολοθρευτή;
00:22
You know, that might be something to consider,
3
22400
2336
Αυτό είναι κάτι που πρέπει να σκεφτούμε,
00:24
but that's a distant threat.
4
24760
1856
αλλά είναι μια μακρινή απειλή.
00:26
Or, we fret about digital surveillance
5
26640
3456
Ή ανησυχούμε για την ψηφιακή παρακολούθηση
00:30
with metaphors from the past.
6
30120
1776
με παρελθοντικές μεταφορές.
00:31
"1984," George Orwell's "1984,"
7
31920
2656
Το «1984» του Τζορτζ Όργουελ
00:34
it's hitting the bestseller lists again.
8
34600
2280
χτυπάει ξανά τις λίστες των μπεστ σέλερ.
00:37
It's a great book,
9
37960
1416
Είναι ένα σπουδαίο βιβλίο,
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
αλλά δεν είναι η σωστή δυστοπία για τον 21ο αιώνα.
00:44
What we need to fear most
11
44080
1416
Αυτό που πρέπει να φοβόμαστε
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
δεν είναι αυτό που μπορεί να μας κάνει από μόνη της η τεχνητή νοημοσύνη,
00:50
but how the people in power will use artificial intelligence
13
50320
4736
αλλά πώς τα άτομα στην εξουσία θα χρησιμοποιήσουν την τεχνητή νοημοσύνη
00:55
to control us and to manipulate us
14
55080
2816
για να μας ελέγχουν και να μας χειραγωγούν
00:57
in novel, sometimes hidden,
15
57920
3136
με νέους, ενίοτε κρυφούς,
01:01
subtle and unexpected ways.
16
61080
3016
επιδέξιους και απροσδόκητους τρόπους.
01:04
Much of the technology
17
64120
1856
Μεγάλο μέρος της τεχνολογίας
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
που απειλεί την ελευθερία μας και την αξιοπρέπειά μας στο εγγύς μέλλον
01:10
is being developed by companies
19
70360
1856
αναπτύσσεται από εταιρείες
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
στην υπηρεσία της αποθήκευσης και πώλησης των δεδομένων και της προσοχής μας
01:17
to advertisers and others:
21
77200
2256
προς διαφημιστές κι άλλους:
01:19
Facebook, Google, Amazon,
22
79480
3416
η Facebook, η Google, η Amazon,
01:22
Alibaba, Tencent.
23
82920
1880
η Alibaba, η Tencent.
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
Τώρα, η τεχνητή νοημοσύνη έχει αρχίσει να ενισχύει και τις επιχειρήσεις τους.
01:31
And it may seem like artificial intelligence
25
91560
2096
Και μπορεί να φαίνεται ότι η τεχνητή νοημοσύνη
01:33
is just the next thing after online ads.
26
93680
2856
είναι απλά το επόμενο πράγμα μετά τις διαφημίσεις.
01:36
It's not.
27
96560
1216
Δεν είναι.
01:37
It's a jump in category.
28
97800
2456
Είναι ένα άλμα σε μια κατηγορία.
01:40
It's a whole different world,
29
100280
2576
Είναι ένας εντελώς διαφορετικός κόσμος,
01:42
and it has great potential.
30
102880
2616
κι έχει φοβερές δυνατότητες.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
Μπορεί να επιταχύνει την κατανόησή μας σε πολλά πεδία μελέτης και έρευνας.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
Αλλά για να παραφράσω έναν διάσημο φιλόσοφο του Χόλιγουντ,
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
«Με τεράστιες δυνατότητες έρχεται κι ένας τεράστιος κίνδυνος».
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
Ας δούμε ένα βασικό γεγονός της ψηφιακή μας ζωής:
τις διαδικτυακές διαφημίσεις.
02:05
Right? We kind of dismiss them.
35
125080
2896
Σωστά; Τις αγνοούμε κατά κάποιο τρόπο.
02:08
They seem crude, ineffective.
36
128000
1976
Φαίνονται πρόχειρες, αναποτελεσματικές.
02:10
We've all had the experience of being followed on the web
37
130000
4256
Όλοι μας βιώσαμε την παρακολούθησή μας στο διαδίκτυο
02:14
by an ad based on something we searched or read.
38
134280
2776
από μια διαφήμιση βασισμένη σε κάτι που ψάξαμε ή διαβάσαμε.
02:17
You know, you look up a pair of boots
39
137080
1856
Βλέπετε ένα ζευγάρι μπότες
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
και για μια εβδομάδα, αυτές οι μπότες σας ακολουθούν όπου πάτε.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
Ακόμα κι όταν υποκύψετε και τις αγοράσετε, και πάλι σας ακολουθούν.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
Είμαστε κάπως εξοικειωμένοι σε αυτή τη βασική, φτηνή χειραγώγηση.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
Αδιαφορούμε και σκεφτόμαστε, «Ξέρεις κάτι; Αυτά δεν πιάνουν».
02:33
Except, online,
44
153720
2096
Μόνο που διαδικτυακά,
02:35
the digital technologies are not just ads.
45
155840
3600
οι ψηφιακές τεχνολογίες δεν είναι απλώς διαφημίσεις.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
Για να το καταλάβουμε, ας σκεφτούμε ένα παράδειγμα του φυσικού κόσμου.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
Γνωρίζετε πως στα ταμεία των σουπερμάρκετ, κοντά στα ταμεία,
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
υπάρχουν ζαχαρωτά και τσίχλες στο ύψος των ματιών των παιδιών;
02:52
That's designed to make them whine at their parents
49
172800
3496
Αυτό είναι σχεδιασμένο να τα κάνουν να κλαίνε στους γονείς τους
02:56
just as the parents are about to sort of check out.
50
176320
3080
μόλις οι γονείς είναι έτοιμοι να φύγουν.
03:00
Now, that's a persuasion architecture.
51
180040
2640
Αυτή τώρα είναι μια αρχιτεκτονική πειθούς.
03:03
It's not nice, but it kind of works.
52
183160
3096
Δεν είναι σωστή, αλλά κάπως δουλεύει.
03:06
That's why you see it in every supermarket.
53
186280
2040
Γι' αυτό το βλέπετε σε κάθε σουπερμάρκετ.
03:08
Now, in the physical world,
54
188720
1696
Τώρα, στον φυσικό κόσμο,
03:10
such persuasion architectures are kind of limited,
55
190440
2496
τέτοιες αρχιτεκτονικές πειθούς είναι περιορισμένες,
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
επειδή μπορείς να βάλεις ένα σωρό πράγματα δίπλα στο ταμείο, έτσι;
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
Και οι τσίχλες και τα ζαχαρωτά είναι τα ίδια για όλους,
03:22
even though it mostly works
58
202120
1456
παρόλο που αυτό δουλεύει κυρίως
03:23
only for people who have whiny little humans beside them.
59
203600
4040
μόνο για τον κόσμο που έχει κλαψιάρικα ανθρωπάκια δίπλα του.
03:29
In the physical world, we live with those limitations.
60
209160
3920
Στον φυσικό κόσμο, ζούμε με αυτούς τους περιορισμούς.
03:34
In the digital world, though,
61
214280
1936
Στον ψηφιακό κόσμο, όμως,
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
οι αρχιτεκτονικές πειθούς δημιουργούνται στην κλίμακα των δισεκατομμυρίων
03:41
and they can target, infer, understand
63
221840
3856
και μπορούν να στοχεύσουν, να συνάγουν, να καταλάβουν
03:45
and be deployed at individuals
64
225720
2896
και να αξιοποιηθούν από άτομα
03:48
one by one
65
228640
1216
μία προς μία
03:49
by figuring out your weaknesses,
66
229880
2136
ανακαλύπτοντας τις αδυναμίες σας,
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
και να μπορούν να αποστέλλονται στην οθόνη του κινητού του καθενός,
03:57
so it's not visible to us.
68
237680
2256
γι' αυτό δεν είναι ορατές σε εμάς.
03:59
And that's different.
69
239960
1256
Κι αυτό είναι διαφορετικό.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
Και είναι μόνο ένα από τα βασικά που μπορεί να κάνει η τεχνητή νοημοσύνη.
04:04
Now, let's take an example.
71
244840
1336
Ας πάρουμε ένα παράδειγμα.
Πείτε ότι θέλετε να πουλήσετε αεροπορικά εισιτήρια για Λας Βέγκας.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
Παλιά θα σκεφτόσασταν να στοχεύσετε κάποια πληθυσμιακή ομάδα
04:12
based on experience and what you can guess.
74
252440
2520
βάσει της εμπειρίας και αυτά που μπορείτε να υποθέσετε.
04:15
You might try to advertise to, oh,
75
255560
2816
Μπορεί να δοκιμάσετε να διαφημίσετε σε άντρες ηλικιών μεταξύ 25 και 35
04:18
men between the ages of 25 and 35,
76
258400
2496
04:20
or people who have a high limit on their credit card,
77
260920
3936
ή σε ανθρώπους που έχουν ένα υψηλό όριο στην πιστωτική τους κάρτα,
04:24
or retired couples. Right?
78
264880
1376
ή σε συνταξιοδοτημένα ζευγάρια. Σωστά;
04:26
That's what you would do in the past.
79
266280
1816
Αυτό θα κάνατε στο παρελθόν.
04:28
With big data and machine learning,
80
268120
2896
Με τα μαζικά δεδομένα και τη μηχανική μάθηση,
04:31
that's not how it works anymore.
81
271040
1524
δεν δουλεύει έτσι πια.
04:33
So to imagine that,
82
273320
2176
Για να το φανταστείτε αυτό,
04:35
think of all the data that Facebook has on you:
83
275520
3856
σκεφτείτε όλα τα δεδομένα που έχει το Facebook για εσάς:
04:39
every status update you ever typed,
84
279400
2536
κάθε κατάσταση ενημέρωσης που πληκτρολογήσατε ποτέ,
04:41
every Messenger conversation,
85
281960
2016
κάθε συζήτηση στο Messenger,
04:44
every place you logged in from,
86
284000
1880
κάθε μέρος στο οποίο συνδεθήκατε,
04:48
all your photographs that you uploaded there.
87
288400
3176
όλες τις φωτογραφίες σας που έχετε ανεβάσει εκεί.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
Αν αρχίσετε να πληκτρολογείτε κάτι και αλλάξετε γνώμη και το διαγράψετε,
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
το Facebook τα διατηρεί και τα αναλύει.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
Όλο και πιο συχνά, προσπαθεί να ταιριάξει εσάς με τα δεδομένα εκτός γραμμής.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
Αγοράζει επίσης πολλά δεδομένα από μεσίτες δεδομένων.
05:06
It could be everything from your financial records
92
306320
3416
Μπορεί να είναι οτιδήποτε από τα χρηματοπιστωτικά σας αρχεία
05:09
to a good chunk of your browsing history.
93
309760
2120
μέχρι έναν καλό όγκο του ιστορικού της πλοήγησης σας, σωστά;
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
Στις Ηνωμένες Πολιτείες, τέτοια δεδομένα συλλέγονται συστηματικά,
05:17
collated and sold.
95
317800
1960
διαταξινομούνται και πωλούνται.
05:20
In Europe, they have tougher rules.
96
320320
2440
Στην Ευρώπη, έχουν πιο σκληρούς κανόνες.
05:23
So what happens then is,
97
323680
2200
Αυτό λοιπόν που συμβαίνει μετά
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
μέσω της επεξεργασίας όλων των δεδομένων, αυτοί οι αλγόριθμοι μηχανικής μάθησης --
05:30
that's why they're called learning algorithms --
99
330960
2896
γι' αυτό αποκαλούνται αλγόριθμοι μάθησης --
05:33
they learn to understand the characteristics of people
100
333880
4096
μαθαίνουν να κατανοούν τα χαρακτηριστικά των ανθρώπων
05:38
who purchased tickets to Vegas before.
101
338000
2520
που αγόρασαν εισιτήρια για το Λας Βέγκας προηγουμένως.
05:41
When they learn this from existing data,
102
341760
3536
Όταν το μαθαίνουν αυτό από τα υπάρχοντα δεδομένα,
05:45
they also learn how to apply this to new people.
103
345320
3816
μαθαίνουν επίσης πώς να το εφαρμόζουν αυτό σε νέους ανθρώπους.
05:49
So if they're presented with a new person,
104
349160
3056
Αν παρουσιάζονται με έναν νέο άνθρωπο,
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
ταξινομούν εάν αυτό το άτομο μπορεί να αγοράσει
ένα εισιτήριο για το Λας Βέγκας ή όχι.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
Εντάξει. Σκέφτεσαι μια προσφορά να αγοράσω εισιτήρια για το Λας Βέγκας.
06:03
I can ignore that.
107
363200
1456
Μπορώ να το αγνοήσω αυτό.
06:04
But the problem isn't that.
108
364680
2216
Αλλά το πρόβλημα δεν είναι αυτό.
06:06
The problem is,
109
366920
1576
Το πρόβλημα είναι
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
πως δεν κατανοούμε πλέον τη λειτουργία αυτών των περίπλοκων αλγορίθμων.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
Δεν καταλαβαίνουμε πώς κάνουν αυτή την κατηγοριοποίηση.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
Τους γιγάντιες πίνακές του, τις χιλιάδες γραμμές και στήλες,
06:20
maybe millions of rows and columns,
113
380600
1960
ίσως εκατομμύρια από γραμμές και στήλες,
06:23
and not the programmers
114
383320
2640
και ούτε οι προγραμματιστές
06:26
and not anybody who looks at it,
115
386760
1680
ούτε ο κάθε ένας που τα κοιτάει,
06:29
even if you have all the data,
116
389440
1496
ακόμα κι αν έχετε όλα τα δεδομένα,
06:30
understands anymore how exactly it's operating
117
390960
4616
κατανοεί πώς ακριβώς λειτουργεί πια
06:35
any more than you'd know what I was thinking right now
118
395600
3776
πολύ περισσότερο από ότι θα γνωρίζατε τι σκέφτομαι αυτή τη στιγμή
06:39
if you were shown a cross section of my brain.
119
399400
3960
αν βλέπατε μια εγκάρσια τομή του εγκεφάλου μου.
06:44
It's like we're not programming anymore,
120
404360
2576
Είναι σαν να μην προγραμματίζουμε πλέον,
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
αναπτύσσουμε νοημοσύνη την οποία δεν κατανοούμε πλήρως.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
Κι αυτά τα πράγματα λειτουργούν μόνο αν υπάρχει ένας μεγάλος όγκος δεδομένων,
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
έτσι προτρέπουν επιπλέον μια βαθιά παρακολούθηση όλων μας,
07:01
so that the machine learning algorithms can work.
124
421640
2336
ώστε να δουλεύουν οι αλγόριθμοι μηχανικής μάθησης.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
Γι' αυτό το Facebook θέλει να συλλέγει όλα τα δεδομένα για εσάς.
07:07
The algorithms work better.
126
427200
1576
Οι αλγόριθμοι δουλεύουν καλύτερα.
07:08
So let's push that Vegas example a bit.
127
428800
2696
Ας επιμείνουμε για λίγο στο παράδειγμα του Λας Βέγκας.
07:11
What if the system that we do not understand
128
431520
3680
Τι κι αν το σύστημα που δεν καταλαβαίνουμε
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
ανίχνευε ότι είναι πιο εύκολο να πουλήσει εισιτήρια του Λας Βέγκας
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
σε ανθρώπους που είναι διπολικοί και μπαίνουν σε μανιακό επειδόδιο.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
Τέτοιοι άνθρωποι τείνουν να ξοδεύουν πολύ, να είναι εθισμένοι στον τζόγο.
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
Μπορούν να το κάνουν, και δεν θα είχατε καμιά ένδειξη ότι συνέλεξαν κάτι τέτοιο.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
Έδωσα αυτό το παράδειγμα κάποτε σε μια ομάδα επιστημόνων της πληροφορικής
07:39
and afterwards, one of them came up to me.
134
459400
2056
και μετά, ένας από αυτούς με πλησίασε.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
Ήταν προβληματισμένος και είπε, «Γι' αυτό δεν μπόρεσα να το δημοσιεύσω».
07:45
I was like, "Couldn't publish what?"
136
465600
1715
«Τι δεν μπόρεσες να δημοσιεύσεις;» είπα.
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
Προσπαθούσε να δει εάν μπορείς πράγματι να καταλάβεις την έναρξη της μανίας
07:53
from social media posts before clinical symptoms,
138
473680
3216
από τις αναρτήσεις στα κοινωνικά δίκτυα πριν τα κλινικά συμπτώματα,
07:56
and it had worked,
139
476920
1776
και πέτυχε,
07:58
and it had worked very well,
140
478720
2056
και πάρα πολύ καλά,
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
και δεν είχε ιδέα πώς λειτούργησε ή τι συνέλεγε.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
Τώρα, το πρόβλημα δεν λύνεται αν δεν το εκδώσει,
08:11
because there are already companies
143
491280
1896
επειδή υπάρχουν ήδη εταιρείες
08:13
that are developing this kind of technology,
144
493200
2536
που αναπτύσσουν αυτού του είδους την τεχνολογία,
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
και πολλά από τα πράγματα είναι απλά ετοιμοπαράδοτα.
08:19
This is not very difficult anymore.
146
499240
2576
Αυτό δεν είναι δύσκολο πια.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
Έχετε μπει ποτέ στο YouTube να δείτε ένα βίντεο
08:25
and an hour later you've watched 27?
148
505320
2360
και μία ώρα αργότερα να έχετε δει άλλα 27;
08:28
You know how YouTube has this column on the right
149
508760
2496
Ξέρετε ότι το YouTube έχει αυτή την στήλη στα δεξιά
08:31
that says, "Up next"
150
511280
2216
που λέει, «Επόμενο»
08:33
and it autoplays something?
151
513520
1816
και παίζει αυτόματα κάτι;
08:35
It's an algorithm
152
515360
1216
Είναι ένας αλγόριθμος
08:36
picking what it thinks that you might be interested in
153
516600
3616
που συλλέγει αυτά που νομίζει ότι πιθανόν να ενδιαφέρεστε
08:40
and maybe not find on your own.
154
520240
1536
και μπορεί να μην βρείτε μόνοι σας.
08:41
It's not a human editor.
155
521800
1256
Δεν είναι ανθρώπινος παραγωγός. Αυτό κάνουν οι αλγόριθμοι.
08:43
It's what algorithms do.
156
523080
1416
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
Συλλέγει αυτά που έχετε παρακολουθήσει άνθρωποι όπως εσείς,
08:49
and infers that that must be what you're interested in,
158
529280
4216
και συμπεραίνει ότι αυτό είναι που πρέπει να σας ενδιαφέρει,
08:53
what you want more of,
159
533520
1255
ότι θέλετε κι άλλο από αυτό, και σας δείχνει κι άλλο.
08:54
and just shows you more.
160
534799
1336
08:56
It sounds like a benign and useful feature,
161
536159
2201
Ακούγεται σαν μια άκακη και χρήσιμη λειτουργία,
08:59
except when it isn't.
162
539280
1200
μόνο που δεν είναι.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
Το 2016 παραρεύθηκα σε συγκεντρώσεις του τότε υποψηφίου Ντόναλντ Τραμπ
09:09
to study as a scholar the movement supporting him.
164
549840
3336
για να μελετήσω ως ακαδημαϊκός το κίνημα που τον υποστήριζε.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
Μελετώ τα κοινωνικά κινήματα, έτσι μελετούσα κι αυτό.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
Και τότε ήθελα να γράψω κάτι σχετικά με μία από τις συγκεντρώσεις του,
09:20
so I watched it a few times on YouTube.
167
560040
1960
γι' αυτό το είδα κάμποσες φορές στο YouTube.
09:23
YouTube started recommending to me
168
563240
3096
Το YouTube άρχισε να μου προτείνει
09:26
and autoplaying to me white supremacist videos
169
566360
4256
και να παίζει αυτόματα ακραία ρατσιστικά βίντεο
09:30
in increasing order of extremism.
170
570640
2656
κατά αύξουσα σειρά του εξτρεμισμού.
09:33
If I watched one,
171
573320
1816
Αν έβλεπα ένα,
09:35
it served up one even more extreme
172
575160
2976
παρέθετε ένα ακόμα πιο ακραίο
09:38
and autoplayed that one, too.
173
578160
1424
κι έπαιζε αυτόματα και αυτό.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
Αν δείτε περιεχόμενο της Χίλαρι Κλίντον ή του Μπέρνι Σάντερς,
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
το YouTube προτείνει και παίζει αυτόματα της αριστερής συνομωσίας,
09:49
and it goes downhill from there.
176
589600
1760
και παίρνει την κατιούσα από εκεί.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
Μπορεί να σκέφτεστε ότι αυτή είναι η πολιτική, αλλά δεν είναι.
09:55
This isn't about politics.
178
595560
1256
Δεν έχει να κάνει με πολιτική.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
Είναι ο αλγόριθμος που αποκρυπτογραφεί την ανθρώπινη συμπεριφορά.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
Κάποτε είδα ένα βίντεο για τη χορτοφαγία στο YouTube
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
και το YouTube πρότεινε κι έπαιξε αυτόματα ένα βίντεο για το πώς να γίνω βίγκαν.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
Είναι λες και δεν είσαι αρκετά σκληροπυρηνικός για το YouTube.
10:12
(Laughter)
183
612760
1576
(Γέλια)
10:14
So what's going on?
184
614360
1560
Τι συμβαίνει λοιπόν;
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
Τώρα, ο αλγόριθμος του YouTube είναι ιδιοταγής,
10:20
but here's what I think is going on.
186
620080
2360
αλλά αυτό είναι που νομίζω ότι συμβαίνει.
10:23
The algorithm has figured out
187
623360
2096
Ο αλγόριθμος έχει ανακαλύψει
10:25
that if you can entice people
188
625480
3696
ότι αν μπορείς να δελεάζεις τους ανθρώπους
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
με το να πιστεύουν ότι μπορείς να τους δείχνεις κάτι πιο σκληροπυρηνικό,
10:32
they're more likely to stay on the site
190
632960
2416
είναι πιο πιθανό να παραμείνουν στην ιστοσελίδα
10:35
watching video after video going down that rabbit hole
191
635400
4416
βλέποντας το ένα βίντεο μετά το άλλο μπαίνοντας σε βαθιά νερά
10:39
while Google serves them ads.
192
639840
1680
ενώ η Google τους διανέμει διαφημίσεις.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
Τώρα, χωρίς να τον πειράζει κανέναν η δεοντολογία του καταστήματος,
10:47
these sites can profile people
194
647720
4240
αυτές οι ιστοσελίδες μπορούν να σκιαγραφήσουν ανθρώπους
10:53
who are Jew haters,
195
653680
1920
οι οποίοι μισούν τους Εβραίους,
10:56
who think that Jews are parasites
196
656360
2480
που νομίζουν ότι οι Εβραίοι είναι παράσιτα
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
και που έχουν τόσο χυδαίο αντισημιτικό περιεχόμενο,
και σε αφήνουν να τους στοχεύεις με διαφημίσεις.
11:06
and let you target them with ads.
198
666080
2000
11:09
They can also mobilize algorithms
199
669200
3536
Μπορούν επίσης να ενεργοποιήσουν αλγόριθμους
11:12
to find for you look-alike audiences,
200
672760
3136
για να σου βρουν πανομοιότυπα ακροατήρια,
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
άτομα τα οποία δεν έχουν τόσο χυδαίο αντισημιτικό περιεχόμενο στο προφίλ τους,
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
αλλά όσους ανιχνεύει ο αλγόριθμος μπορεί να είναι επιρρεπείς σε τέτοια μηνύματα,
11:27
and lets you target them with ads, too.
203
687720
1920
και σε αφήνουν να τους στοχεύεις και αυτούς με διαφημίσεις.
11:30
Now, this may sound like an implausible example,
204
690680
2736
Τώρα, αυτό μπορεί να ακουστεί σαν ένα απίθανο παράδειγμα,
11:33
but this is real.
205
693440
1320
αλλά είναι αληθινό.
11:35
ProPublica investigated this
206
695480
2136
Η ProPublica το ερεύνησε αυτό
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
και βρήκε ότι μπορείς πράγματι να το κάνεις αυτό στο Facebook,
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
και το Facebook πρόθυμα προσέφερε προτάσεις
11:43
on how to broaden that audience.
209
703720
1600
ή στο πώς να διευρύνεις αυτό το κοινό.
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
Το BuzzFeed το δοκίμασε για την Google, και πολύ γρήγορα έμαθαν,
11:49
yep, you can do it on Google, too.
211
709760
1736
ότι μπορείς και στο Google.
11:51
And it wasn't even expensive.
212
711520
1696
Και δεν ήταν καν ακριβό.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
ο δημοσιογράφος της ProPublica ξόδεψε γύρω στα 30 δολάρια
11:57
to target this category.
214
717680
2240
για να στοχεύσει αυτή την κατηγορία.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
Πέρυσι, ο διαχειριστής των κοινωνικών μέσων του Ντόναλντ Τραμπ αποκάλυψε
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
ότι χρησιμοποιούσαν αόρατες αναρτήσεις στο Facebook
για να μην κινητοποιήσουν ανθρώπους,
12:13
not to persuade them,
217
733280
1376
όχι να τους επηρεάσουν,
12:14
but to convince them not to vote at all.
218
734680
2800
αλλά να τους μεταπείσουν να μην ψηφίσουν καθόλου.
12:18
And to do that, they targeted specifically,
219
738520
3576
Και για να το κάνουν αυτό, στόχευσαν συγκεκριμένα, για παράδειγμα,
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
αφροαμερικανούς άντρες σε κομβικές πόλεις, όπως τη Φιλαδέλφεια,
12:26
and I'm going to read exactly what he said.
221
746040
2456
και θα σας διαβάσω ακριβώς ό,τι είπε.
12:28
I'm quoting.
222
748520
1216
Παραθέτω.
12:29
They were using "nonpublic posts
223
749760
3016
Χρησιμοποιούσαν «μη δημόσιες αναρτήσεις
12:32
whose viewership the campaign controls
224
752800
2176
των οποίων η εκστρατεία ελέγχει τη θεαματικότητα,
12:35
so that only the people we want to see it see it.
225
755000
3776
για να το δουν μόνο οι άνθρωποι που θέλουμε εμείς.
12:38
We modeled this.
226
758800
1216
Εμείς το σχεδιάσαμε αυτό.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
Θα επηρεάσει δραματικά την ικανότητά της να μεταστρέψει αυτούς τους ανθρώπους».
12:45
What's in those dark posts?
228
765720
2280
Τι περιέχουν αυτές οι αόρατες αναρτήσεις;
12:48
We have no idea.
229
768480
1656
Δεν έχουμε ιδέα.
12:50
Facebook won't tell us.
230
770160
1200
Το Facebook δεν θα μας πει.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
Το Facebook λοιπόν ρυθμίζει αλγοριθμικά τις αναρτήσεις
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
που ανεβάζουν οι φίλοι σας στο Facebook στις σελίδες που ακολουθείτε.
13:00
It doesn't show you everything chronologically.
233
780640
2216
Δεν σας δείχνει τα πάντα χρονολογικά.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
Βάζει τη σειρά με έναν τρόπο όπου ο αλγόριθμος
πιστεύει ότι θα σας δελεάσει για να μείνετε κι άλλο στην ιστοσελίδα.
13:07
to stay on the site longer.
235
787720
1840
13:11
Now, so this has a lot of consequences.
236
791040
3376
Τώρα, αυτό έχει πολλές συνέπειες.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
Μπορεί να σκέφτεστε ότι κάποιος σας σνομπάρει στο Facebook.
13:18
The algorithm may never be showing your post to them.
238
798800
3256
Ο αλγόριθμος μπορεί να μην δείχνει καν την ανάρτησή σας σε αυτούς.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
Ο αλγόριθμος θέτει σε προτεραιότητα κάποιες από αυτές και θάβει τι άλλες.
13:29
Experiments show
240
809320
1296
Πειράματα δείχνουν πως ό,τι επιλέγει να σας δείξει ο αλγόριθμος
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
επηρεάζει τα συναισθήματά σας.
13:36
But that's not all.
242
816600
1200
Δεν είναι μόνο αυτό.
13:38
It also affects political behavior.
243
818280
2360
Επηρεάζει επίσης την πολιτική στάση.
13:41
So in 2010, in the midterm elections,
244
821360
4656
Το 2010 λοιπόν, στις ενδιάμεσες εκλογές,
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
το Facebook έκανε ένα πείραμα σε 61 εκατομμύρια ανθρώπους στις ΗΠΑ
13:51
that was disclosed after the fact.
246
831960
1896
το οποίο αποκαλύφθηκε μετά το γεγονός.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
Σε κάποιους ανθρώπους έδειξε το «Σήμερα είναι η μέρα των εκλογών»,
13:57
the simpler one,
248
837320
1376
το πιο απλό,
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
και σε κάποιους ανθρώπους έδειξε αυτό με τη μικροδιόρθωση
14:02
with those little thumbnails
250
842640
2096
με εκείνες τις μικρογραφίες
14:04
of your friends who clicked on "I voted."
251
844760
2840
των φίλων σου που κλίκαραν «Ψήφισα».
14:09
This simple tweak.
252
849000
1400
Αυτή η απλή μικροδιόρθωση.
14:11
OK? So the pictures were the only change,
253
851520
4296
Οι φωτογραφίες ήταν η μόνη αλλαγή,
14:15
and that post shown just once
254
855840
3256
κι αυτή η ανάρτηση που προβλήθηκε μόνο μια φορά
14:19
turned out an additional 340,000 voters
255
859120
6056
προσέλκυσε επιπλέον 340.000 ψηφοφόρους
14:25
in that election,
256
865200
1696
σε εκείνες τις εκλογές,
14:26
according to this research
257
866920
1696
σύμφωνα με αυτή την έρευνα
14:28
as confirmed by the voter rolls.
258
868640
2520
όπως επιβεβαιώθηκε από τους εκλογικούς καταλόγους.
14:32
A fluke? No.
259
872920
1656
Σύμπτωση; Όχι.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
Επειδή το 2012, επανέλαβαν το ίδιο πείραμα.
14:40
And that time,
261
880840
1736
Και εκείνη την περίοδο,
14:42
that civic message shown just once
262
882600
3296
αυτό το πολιτικό μήνυμα προβλήθηκε μόνο μία φορά
14:45
turned out an additional 270,000 voters.
263
885920
4440
προσελκύοντας επιπλέον 270.000 ψηφοφόρους.
14:51
For reference, the 2016 US presidential election
264
891160
5216
Προς πληροφόρησή σας, οι αμερικανικές προεδρικές εκλογές το 2016
14:56
was decided by about 100,000 votes.
265
896400
3520
κρίθηκαν από 100.000 ψήφους περίπου.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
Τώρα, το Facebook μπορεί επίσης να εξάγει πολύ εύκολα ποιες είναι οι πολιτικές σας,
15:06
even if you've never disclosed them on the site.
267
906120
2256
ακόμα κι αν δεν τις αποκαλύψατε ποτέ στην ιστοσελίδα.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
Αυτοί οι αλγόριθμοι μπορούν να το κάνουν πανεύκολα.
15:11
What if a platform with that kind of power
269
911960
3896
Tι κι αν μια πλατφόρμα με αυτού του είδους τη δύναμη
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
αποφασίσει να μεταστρέψει υποστηρικτές του ενός υποψηφίου στον άλλο;
15:21
How would we even know about it?
271
921680
2440
Πώς θα το ξέραμε αυτό;
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
Τώρα, ξεκινήσαμε από ένα μέρος, φαινομενικά, αβλαβές --
15:29
online adds following us around --
273
929720
2216
διαφημίσεις στο διαδίκτυο που μας ακολουθούν --
15:31
and we've landed someplace else.
274
931960
1840
και βρεθήκαμε κάπου αλλού.
15:35
As a public and as citizens,
275
935480
2456
Ως κοινό και ως πολίτες,
15:37
we no longer know if we're seeing the same information
276
937960
3416
δεν γνωρίζουμε πλέον αν βλέπουμε τις ίδιες πληροφορίες
15:41
or what anybody else is seeing,
277
941400
1480
ή οτιδήποτε βλέπει ο καθένας,
15:43
and without a common basis of information,
278
943680
2576
και χωρίς μια κοινή βάση πληροφορίας,
15:46
little by little,
279
946280
1616
σιγά σιγά,
15:47
public debate is becoming impossible,
280
947920
3216
ο δημόσιος διάλογος γίνεται ανέφικτος,
15:51
and we're just at the beginning stages of this.
281
951160
2976
και βρισκόμαστε στο αρχικό στάδιο αυτού.
15:54
These algorithms can quite easily infer
282
954160
3456
Αυτοί οι αλγόριθμοι μπορούν να εξάγουν πανεύκολα
15:57
things like your people's ethnicity,
283
957640
3256
πράγματα όπως την εθνικότητά σας, θρησκευτικές και πολιτικές απόψεις,
16:00
religious and political views, personality traits,
284
960920
2336
στοιχεία του χαρακτήρα,
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
ευφυΐα, ευτυχία, χρήση εθιστικών ουσιών,
16:06
parental separation, age and genders,
286
966680
3136
χωρισμός των γονέων, ηλικία και φύλο,
16:09
just from Facebook likes.
287
969840
1960
απλώς από τα like του Facebook.
16:13
These algorithms can identify protesters
288
973440
4056
Αυτοί οι αλγόριθμοι μπορούν να ταυτοποιήσουν διαδηλωτές
16:17
even if their faces are partially concealed.
289
977520
2760
ακόμα κι αν τα πρόσωπά τους είναι μερικώς κρυμμένα.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
Αυτοί οι αλγόριθμοι μπορούν να ανιχνεύσουν τον σεξουαλικό προσανατολισμό των ανθρώπων
16:28
just from their dating profile pictures.
291
988360
3200
μόνο από φωτογραφίες σε πλατφόρμες γνωριμιών.
16:33
Now, these are probabilistic guesses,
292
993560
2616
Τώρα, αυτές είναι πιθανολογικές εικασίες,
16:36
so they're not going to be 100 percent right,
293
996200
2896
οπότε δεν θα είναι εκατό τοις εκατό σωστές,
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
αλλά δεν βλέπω οι ισχυροί να ενδίδουν στον πειρασμό να χρησιμοποιήσουν
αυτές τις τεχνολογίες
16:44
just because there are some false positives,
295
1004040
2176
απλά επειδή υπάρχουν κάποια ψευδή προτερήματα,
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
τα οποία θα δημιουργήσουν φυσικά ένα άλλο σωρό προβλήματα.
16:49
Imagine what a state can do
297
1009520
2936
Φανταστείτε τι μπορεί να κάνει ένα κράτος
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
με τον αχανή όγκο δεδομένων που έχει στους πολίτες του.
16:56
China is already using face detection technology
299
1016680
4776
Η Κίνα ήδη χρησιμοποιεί τεχνολογία ανίχνευσης προσώπου
17:01
to identify and arrest people.
300
1021480
2880
για να ταυτοποιήσει και να συλλάβει ανθρώπους.
17:05
And here's the tragedy:
301
1025280
2136
Και να η τραγωδία:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
φτιάχνουμε αυτή την υποδομή της απολυταρχικής παρακολούθησης
17:13
merely to get people to click on ads.
303
1033000
2960
απλά για να βάζουμε τους ανθρώπους να κλικάρουν σε διαφημίσεις.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
Κι αυτός δεν θα είναι ο απολυταρχισμός του Όργουελ.
17:19
This isn't "1984."
305
1039839
1897
Αυτό δεν είναι το «1984».
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
Τώρα, αν ο απολυταρχισμός χρησιμοποιεί φανερό φόβο για να μας τρομοκρατήσει,
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
όλοι μας θα φοβόμασταν, αλλά θα το ξέρουμε,
17:29
we'll hate it and we'll resist it.
308
1049280
2200
θα το μισήσουμε και θα του αντισταθούμε.
17:32
But if the people in power are using these algorithms
309
1052880
4416
Αλλά αν οι άνθρωποι της εξουσίας χρησιμοποιούν αυτούς τους αλγόριθμους
17:37
to quietly watch us,
310
1057319
3377
για να μας παρακολουθούν σιωπηρά,
17:40
to judge us and to nudge us,
311
1060720
2080
για να μας κρίνουν και να μας τσιγκλούν,
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
για να προβλέπουν και να ταυτοποιούν τους ταραξίες και τους επαναστάτες,
17:47
to deploy persuasion architectures at scale
313
1067920
3896
για να αξιοποιήσουν σε μεγάλο βαθμό αρχιτεκτονικές πειθούς
17:51
and to manipulate individuals one by one
314
1071840
4136
και να χειραγωγούν άτομα μεμονωμένα,
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
χρησιμοποιώντας τις προσωπικές, ατομικές αδυναμίες και ευαισθησίες μας,
18:02
and if they're doing it at scale
316
1082720
2200
κι αν το κάνουν σε μεγάλο βαθμό
18:06
through our private screens
317
1086080
1736
μέσω της ιδιωτικής μας οθόνης
18:07
so that we don't even know
318
1087840
1656
για να μην ξέρουμε καν
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
τι βλέπουν οι γείτονές μας και οι συμπολίτες μας,
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
αυτός ο απολυταρχισμός θα μας τυλίξει σαν τον ιστό μιας αράχνης
18:18
and we may not even know we're in it.
321
1098400
2480
και πιθανόν να μην ξέρουμε καν πως είμαστε μέσα του.
18:22
So Facebook's market capitalization
322
1102440
2936
Η χρηματιστηριακή αξία του Facebook
18:25
is approaching half a trillion dollars.
323
1105400
3296
πλησιάζει τα μισό τρισεκατομμύριο δολάρια.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
Οφείλεται στο ότι λειτουργεί υπέροχα ως μια αρχιτεκτοντική πειθούς.
18:33
But the structure of that architecture
325
1113760
2816
Αλλά η δομή αυτής της αρχιτεκτονικής
18:36
is the same whether you're selling shoes
326
1116600
3216
είναι η ίδια είτε πουλάτε παπούτσια
18:39
or whether you're selling politics.
327
1119840
2496
είτε πουλάτε πολιτική.
18:42
The algorithms do not know the difference.
328
1122360
3120
Οι αλγόριθμοι δεν ξέρουν τη διαφορά.
18:46
The same algorithms set loose upon us
329
1126240
3296
Οι ίδιοι αλγόριθμοι που εξαπολύθηκαν πάνω μας
18:49
to make us more pliable for ads
330
1129560
3176
για να μας κάνουν πιο προσαρμόσιμους στις διαφημίσεις
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
οργανώνουν επίσης τις πολιτικές, προσωπικές
και τις κοινωνικές ρόες των πληροφοριών μας.
18:59
and that's what's got to change.
332
1139520
1840
και αυτό είναι που πρέπει να αλλάξει.
19:02
Now, don't get me wrong,
333
1142240
2296
Τώρα, μην με παρεξηγήσετε,
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
χρησιμοποιούμε ψηφιακές πλατφόρμες επειδή μας παρέχουν μεγάλη αξία.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
Χρησιμοποιώ το Facebook για να κρατώ επαφή με οικογένεια και φίλους σε όλο τον κόσμο.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
Έχω γράψει για τη σημασία των κοινωνικών δικτύων στα κοινωνικά κινήματα.
19:19
I have studied how these technologies can be used
337
1159800
3016
Μελέτησα πώς μπορούν να χρησιμοποιηθούν αυτές οι τεχνολογίες
19:22
to circumvent censorship around the world.
338
1162840
2480
για να ξεπερνούν τη λογοκρισία σε όλο τον κόσμο.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
Αλλά δεν είναι τα άτομα που διαχειρίζονται το Facebook ή την Google
19:33
are maliciously and deliberately trying
340
1173720
2696
που προσπαθούν μοχθηρά και σκόπιμα
19:36
to make the country or the world more polarized
341
1176440
4456
να πολώσουν πιο πολύ τη χώρα ή τον κόσμο
19:40
and encourage extremism.
342
1180920
1680
και να ενθαρρύνουν τον εξτρεμισμό.
19:43
I read the many well-intentioned statements
343
1183440
3976
Διαβάζω πολλές δηλώσεις καλής πρόθεσης
19:47
that these people put out.
344
1187440
3320
στις οποίες προβαίνουν αυτοί οι άνθρωποι.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
Δεν είναι, όμως, ο σκοπός ή οι δηλώσεις
που καθιστούν σαφείς οι άνθρωποι της τεχνολογίας,
19:57
it's the structures and business models they're building.
346
1197680
3560
είναι οι δομές και τα επιχειρηματικά μοντέλα που οικοδομούν.
20:02
And that's the core of the problem.
347
1202360
2096
Κι αυτή είναι η ουσία του προβλήματος.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
Είτε το Facebook είναι ένας μεγάλος απατεώνας 500 δισεκατομμυρίων δολαρίων
20:10
and ads don't work on the site,
349
1210200
1896
και οι διαφημίσεις δεν πιάνουν στη σελίδα,
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
δεν δουλεύει ως μια αρχιτεκτονική πειθούς,
20:14
or its power of influence is of great concern.
351
1214840
4120
ή η δυνατότητα της επιρροής του είναι αρκετά ανησυχητική.
20:20
It's either one or the other.
352
1220560
1776
Είτε το ένα είναι, είτε το άλλο.
20:22
It's similar for Google, too.
353
1222360
1600
Το ίδιο είναι και για την Google.
20:24
So what can we do?
354
1224880
2456
Τι μπορούμε να κάνουμε λοιπόν;
20:27
This needs to change.
355
1227360
1936
Αυτό πρέπει να αλλάξει.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
Τώρα, δεν μπορώ να προσφέρω μια απλή συνταγή,
20:31
because we need to restructure
357
1231920
2256
διότι χρειάζεται να αναδομήσουμε
20:34
the whole way our digital technology operates.
358
1234200
3016
όλο τον τρόπο λειτουργίας της ψηφιακής μας τεχνολογίας.
20:37
Everything from the way technology is developed
359
1237240
4096
Τα πάντα από τον τρόπο ανάπτυξης της τεχνολογίας
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
μέχρι τον τρόπο όπου τα κίνητρα, οικονομικά ή μη,
20:45
are built into the system.
361
1245240
2280
οικοδομούνται στο σύστημα.
20:48
We have to face and try to deal with
362
1248480
3456
Πρέπει να προσπαθήσουμε να αντιμετωπίσουμε
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
την έλλειψη διαφάνειας που δημιουργείται από ιδιοταγείς αλγόριθμους,
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
τη δομική πρόκληση για την αδιαφάνεια της μηχανικής μάθησης,
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
όλα αυτά τα αδιάκριτα δεδομένα που συλλέγονται για εμάς.
21:05
We have a big task in front of us.
366
1265000
2520
Έχουμε ένα μεγάλο καθήκον μπροστά μας.
21:08
We have to mobilize our technology,
367
1268160
2680
Πρέπει να κινητοποιήσουμε την τεχνολογία μας,
21:11
our creativity
368
1271760
1576
τη δημιουργικότητά μας
21:13
and yes, our politics
369
1273360
1880
και ναι, την πολιτική μας
21:16
so that we can build artificial intelligence
370
1276240
2656
για να να δημιουργήσουμε τεχνητή νοημοσύνη
21:18
that supports us in our human goals
371
1278920
3120
που να μας στηρίζει στους ανθρώπινους στόχους μας
21:22
but that is also constrained by our human values.
372
1282800
3920
αλλά η οποία να δεσμεύεται από τις ανθρώπινες αξίες μας.
21:27
And I understand this won't be easy.
373
1287600
2160
Και καταλαβαίνω πως αυτό δεν θα είναι εύκολο.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
Ενδεχομένως να μην συμφωνούμε εύκολα ούτε στην έννοια αυτών των όρων.
21:34
But if we take seriously
375
1294920
2400
Αλλά αν λάβουμε σοβαρά υπόψη
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
πώς λειτουργούν τα συστήματα από τα οποία είμαστε τόσο εξαρτημένοι,
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
δεν βλέπω πώς μπορούμε να αναβάλλουμε άλλο αυτή τη συζήτηση.
21:49
These structures
378
1309200
2536
Αυτές οι δομές
21:51
are organizing how we function
379
1311760
4096
οργανώνουν τον τρόπο λειτουργίας μας
21:55
and they're controlling
380
1315880
2296
και ελέγχουν τι μπορούμε να κάνουμε και τι όχι.
21:58
what we can and we cannot do.
381
1318200
2616
22:00
And many of these ad-financed platforms,
382
1320840
2456
Και πολλές τέτοιες διαφημιστικά χρηματοδοτούμενες πλατφόρμες,
22:03
they boast that they're free.
383
1323320
1576
υπερηφανεύονται ότι είναι δωρεάν.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
Σε αυτό το πλαίσιο, αυτό σημαίνει ότι εμείς είμαστε το προϊόν προς πώληση.
22:10
We need a digital economy
385
1330840
2736
Χρειαζόμαστε μια ψηφιακή οικονομία
22:13
where our data and our attention
386
1333600
3496
όπου τα δεδομένα μας και η προσοχή μας
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
δεν πωλούνται με την υψηλότερη προσφορά σε έναν δικτάτορα ή δημαγωγό.
22:23
(Applause)
388
1343160
3800
(Χειροκρότημα)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
Ας επιστρέψουμε λοιπόν σε αυτή την παράφραση του Χόλιγουντ,
22:33
we do want the prodigious potential
390
1353760
3736
θέλουμε πράγματι τις τεράστιες δυνατότητες
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
της τεχνητής νοημοσύνης και της ψηφιακής τεχνολογίας να ανθίσουν,
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
αλλά για αυτό πρέπει να αντιμετωπίσουμε αυτή την τεράστια απειλή,
22:46
open-eyed and now.
393
1366360
1936
με καθαρό βλέμμα και τώρα.
22:48
Thank you.
394
1368320
1216
Σας ευχαριστώ.
22:49
(Applause)
395
1369560
4640
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7