How technology can fight extremism and online harassment | Yasmin Green

75,290 views ・ 2018-06-27

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Eleni Tziafa Επιμέλεια: Thanassis Zadrimas
00:13
My relationship with the internet reminds me of the setup
0
13131
4411
Η σχέση μου με το διαδίκτυο μου θυμίζει
την πλοκή ενός κλασικού θρίλερ.
00:17
to a clichéd horror movie.
1
17566
1833
00:19
You know, the blissfully happy family moves in to their perfect new home,
2
19867
4386
Μια ευτυχισμένη οικογένεια μετακομίζει στο τέλειο νέο της σπίτι,
00:24
excited about their perfect future,
3
24277
2281
ενθουσιασμένη για το τέλειο μέλλον τους,
00:26
and it's sunny outside and the birds are chirping ...
4
26582
3521
έξω έχει λιακάδα, τα πουλάκια κελαηδούν...
00:30
And then it gets dark.
5
30857
1839
και μετά σκοτάδι.
00:32
And there are noises from the attic.
6
32720
2348
Ακούγονται θόρυβοι από τη σοφίτα.
00:35
And we realize that that perfect new house isn't so perfect.
7
35092
4345
Καταλαβαίνουμε ότι το νέο, τέλειο σπίτι, δεν είναι και τόσο τέλειο.
00:40
When I started working at Google in 2006,
8
40485
3131
Όταν ξεκίνησα να εργάζομαι στην Google το 2006,
00:43
Facebook was just a two-year-old,
9
43640
1767
το Facebook ήταν μόλις δύο χρονών, και το Twitter δεν είχε γεννηθεί ακόμη.
00:45
and Twitter hadn't yet been born.
10
45431
2012
00:47
And I was in absolute awe of the internet and all of its promise
11
47848
4410
Αισθανόμουν απόλυτο δέος για το διαδίκτυο και τις προοπτικές του
00:52
to make us closer
12
52282
1437
να μας φέρει πιο κοντά
00:53
and smarter
13
53743
1296
να μας κάνει πιο έξυπνους και πιο ελεύθερους.
00:55
and more free.
14
55063
1214
00:57
But as we were doing the inspiring work of building search engines
15
57265
3714
Καθώς όμως γεμάτοι έμπνευση φτιάχναμε μηχανές αναζήτησης,
01:01
and video-sharing sites and social networks,
16
61003
2886
ιστοσελίδες για να μοιραζόμαστε βίντεο και μέσα κοινωνικής δικτύωσης,
01:04
criminals, dictators and terrorists were figuring out
17
64907
4304
εγκληματίες, δικτάτορες και τρομοκράτες έβρισκαν τρόπους
01:09
how to use those same platforms against us.
18
69235
3202
να χρησιμοποιούν εναντίον μας αυτές τις ίδιες πλατφόρμες.
01:13
And we didn't have the foresight to stop them.
19
73417
2455
Και δεν προνοήσαμε να τους σταματήσουμε.
01:16
Over the last few years, geopolitical forces have come online to wreak havoc.
20
76746
5099
Τα τελευταία χρόνια, γεωπολιτικές δυνάμεις σπέρνουν τον όλεθρο στο διαδίκτυο.
01:21
And in response,
21
81869
1169
Απαντώντας σε αυτό,
01:23
Google supported a few colleagues and me to set up a new group called Jigsaw,
22
83062
4778
η Google στήριξε μερικούς συναδέλφους κι εμένα να κάνουμε μια ομάδα, την jigsaw,
01:27
with a mandate to make people safer from threats like violent extremism,
23
87864
4596
με αποστολή την προστασία όλων από απειλές όπως ο βίαιος εξτρεμισμός,
01:32
censorship, persecution --
24
92484
2078
η λογοκρισία, οι διώξεις,
01:35
threats that feel very personal to me because I was born in Iran,
25
95186
4117
απειλές που μου με αφορούν προσωπικά γιατί γεννήθηκα στο Ιράν
01:39
and I left in the aftermath of a violent revolution.
26
99327
2929
κι έφυγα αμέσως μετά από μια βίαιη επανάσταση.
01:43
But I've come to realize that even if we had all of the resources
27
103525
4346
Έμαθα όμως ότι ακόμη κι αν έχουμε όλους τους πόρους
01:47
of all of the technology companies in the world,
28
107895
2858
από όλες τις εταιρείες τεχνολογίας του κόσμου,
01:51
we'd still fail
29
111595
1230
και πάλι αποτυγχάνουμε
01:53
if we overlooked one critical ingredient:
30
113586
2948
αν παραβλέψουμε ένα στοιχείο ζωτικής σημασίας:
01:57
the human experiences of the victims and perpetrators of those threats.
31
117653
5789
τις ανθρώπινες εμπειρίες των θυμάτων και των αυτουργών αυτών των απειλών.
02:04
There are many challenges I could talk to you about today.
32
124935
2736
Θα μπορούσα για πολλές προκλήσεις να σας μιλήσω σήμερα.
02:07
I'm going to focus on just two.
33
127695
1504
Θα εστιάσω σε δύο μόνο.
02:09
The first is terrorism.
34
129623
2079
Η πρώτη είναι η τρομοκρατία.
02:13
So in order to understand the radicalization process,
35
133563
2557
Για να καταλάβουμε τη διαδικασία της ριζοσπαστικοποίησης
02:16
we met with dozens of former members of violent extremist groups.
36
136144
4287
συναντηθήκαμε με πολλά πρώην μέλη βίαιων εξτρεμιστικών ομάδων.
02:21
One was a British schoolgirl,
37
141590
2483
Ανάμεσά τους ήταν μια Βρετανή μαθήτρια σχολείου
02:25
who had been taken off of a plane at London Heathrow
38
145049
3699
που συνελήφθη σε ένα αεροπλάνο στο Χίθροου του Λονδίνου
02:28
as she was trying to make her way to Syria to join ISIS.
39
148772
4692
καθώς προσπαθούσε να φτάσει στη Συρία για να ενταχθεί στον ISIS.
02:34
And she was 13 years old.
40
154281
1931
Ήταν 13 χρονών.
02:37
So I sat down with her and her father, and I said, "Why?"
41
157792
4625
Κάθισα λοιπόν με την ίδια και τον πατέρα της και ρώτησα «Γιατί;»
02:42
And she said,
42
162441
1717
Μου απάντησε:
02:44
"I was looking at pictures of what life is like in Syria,
43
164182
3639
«Έβλεπα φωτογραφίες για το πώς είναι η ζωή στη Συρία
02:47
and I thought I was going to go and live in the Islamic Disney World."
44
167845
3510
και σκέφτηκα ότι θα πήγαινα και θα ζούσα σε μια Ισλαμική Ντίσνεϋλαντ».
02:52
That's what she saw in ISIS.
45
172527
2084
Αυτό έβλεπε εκείνη στον ISIS.
02:54
She thought she'd meet and marry a jihadi Brad Pitt
46
174635
3492
Νόμιζε ότι θα συναντούσε και θα παντρευόταν έναν τζιχαντιστή Μπραντ Πιτ
02:58
and go shopping in the mall all day and live happily ever after.
47
178151
3058
και θα πήγαινε κάθε μέρα για ψώνια και θα ζούσαν όπως στα παραμύθια.
03:02
ISIS understands what drives people,
48
182977
2824
Ο ISIS καταλαβαίνει τα κίνητρα των ανθρώπων
03:05
and they carefully craft a message for each audience.
49
185825
3544
και κατασκευάζουν προσεκτικά μηνύματα για κάθε ακροατήριο.
Δείτε απλώς σε πόσο πολλές γλώσσες μεταφράζουν το διαφημιστικό τους υλικό.
03:11
Just look at how many languages
50
191122
1511
03:12
they translate their marketing material into.
51
192657
2273
03:15
They make pamphlets, radio shows and videos
52
195677
2661
Κάνουν φυλλάδια, ραδιοφωνικές εκπομπές και βίντεο
03:18
in not just English and Arabic,
53
198362
1973
όχι μόνο στα Αγγλικά και τα Αραβικά,
03:20
but German, Russian, French, Turkish, Kurdish,
54
200359
4767
αλλά στα Γερμανικά, τα Ρωσικά, τα Γαλλικά, τα Τουρκικά, τα Κουρδικά,
03:25
Hebrew,
55
205150
1672
τα Εβραϊκά, τα Μανδαρίνικα Κινεζικά.
03:26
Mandarin Chinese.
56
206846
1741
03:29
I've even seen an ISIS-produced video in sign language.
57
209309
4192
Έχω δει βίντεο του ISIS ακόμη και στη νοηματική.
03:34
Just think about that for a second:
58
214605
1884
Σκεφτείτε το λίγο:
03:36
ISIS took the time and made the effort
59
216513
2308
O ISIS κάθισε και έκανε προσπάθειες
03:38
to ensure their message is reaching the deaf and hard of hearing.
60
218845
3804
να βεβαιωθεί ότι το μήνυμά του φτάνει ως τα κωφά και βαρήκοα άτομα.
Δεν είναι ότι γνωρίζουν καλά την τεχνολογία,
03:45
It's actually not tech-savviness
61
225143
2144
03:47
that is the reason why ISIS wins hearts and minds.
62
227311
2595
δεν είναι έτσι που ο ISIS κατακτά τον νου και την καρδιά.
03:49
It's their insight into the prejudices, the vulnerabilities, the desires
63
229930
4163
Είναι η γνώση που έχουν των προκαταλήψεων, των ευαίσθητων σημείων, των επιθυμιών
των ανθρώπων που προσπαθούν να φτάσουν, αυτός είναι ο τρόπος τους.
03:54
of the people they're trying to reach
64
234117
1774
03:55
that does that.
65
235915
1161
03:57
That's why it's not enough
66
237718
1429
Γι' αυτό δεν είναι αρκετό
03:59
for the online platforms to focus on removing recruiting material.
67
239171
4239
για τις διαδικτυακές πλατφόρμες να αφαιρούν προσηλυτιστικό περιεχόμενο.
04:04
If we want to have a shot at building meaningful technology
68
244518
3581
Αν θέλουμε να έχουμε την ευκαιρία να φτιάξουμε μια τεχνολογία με ουσία
04:08
that's going to counter radicalization,
69
248123
1874
που θα αντιμετωπίσει τη ριζοσπαστικοποίηση
04:10
we have to start with the human journey at its core.
70
250021
2979
πρέπει να ξεκινήσουμε με την ανθρώπινη πορεία στον πυρήνα του.
04:13
So we went to Iraq
71
253884
2187
Πήγαμε λοιπόν στο Ιράκ
04:16
to speak to young men who'd bought into ISIS's promise
72
256095
2831
να μιλήσουμε σε νεαρούς που πίστεψαν τις υποσχέσεις του ISIS
04:18
of heroism and righteousness,
73
258950
3191
για ηρωισμούς και δικαιοσύνη,
04:22
who'd taken up arms to fight for them
74
262165
1847
που πήραν τα όπλα να πολεμήσουν γι' αυτούς και μετά αποστάτησαν,
04:24
and then who'd defected
75
264036
1338
04:25
after they witnessed the brutality of ISIS's rule.
76
265398
3021
αφού διαπίστωσαν τη σκληρότητα της εξουσίας του ISIS.
04:28
And I'm sitting there in this makeshift prison in the north of Iraq
77
268880
3192
Καθόμουν εκεί, σ' αυτή την αυτοσχέδια φυλακή στα βόρεια του Ιράκ
04:32
with this 23-year-old who had actually trained as a suicide bomber
78
272096
4550
μ' έναν 23χρονο που είχε εκπαιδευτεί ως βομβιστής αυτοκτονίας
04:36
before defecting.
79
276670
1552
πριν αποστατήσει.
04:39
And he says,
80
279080
1158
Και μου λέει:
04:41
"I arrived in Syria full of hope,
81
281119
3220
«Έφτασα στη Συρία γεμάτος ελπίδες
04:44
and immediately, I had two of my prized possessions confiscated:
82
284363
4365
και αμέσως μου κατέσχεσαν τα πιο πολύτιμα πράγματά μου:
04:48
my passport and my mobile phone."
83
288752
2933
το διαβατήριο και το κινητό μου».
Τα σύμβολα αυτής της σωματικής και ψηφιακής ελευθερίας
04:52
The symbols of his physical and digital liberty
84
292140
2406
04:54
were taken away from him on arrival.
85
294570
1760
του τα πήραν με το που έφτασε.
04:57
And then this is the way he described that moment of loss to me.
86
297248
3510
Με αυτό τον τρόπο μού περιέγραψε τη στιγμή της απώλειας.
05:01
He said,
87
301356
1586
Μου είπε:
05:02
"You know in 'Tom and Jerry,'
88
302966
2329
«Ξέρεις, στο καρτούν Τομ και Τζέρι,
05:06
when Jerry wants to escape, and then Tom locks the door
89
306192
3103
όταν ο Τζέρι θέλει να ξεφύγει και ο Τομ κλειδώνει την πόρτα
05:09
and swallows the key
90
309319
1156
και μετά καταπίνει το κλειδί
05:10
and you see it bulging out of his throat as it travels down?"
91
310499
3551
κι εσύ το βλέπεις να κατεβαίνει στον λαιμό του;»
05:14
And of course, I really could see the image that he was describing,
92
314446
3153
Φυσικά, μπορούσα να δω την εικόνα όπως την περιέγραφε
05:17
and I really did connect with the feeling that he was trying to convey,
93
317623
3661
και στ' αλήθεια ένιωσα αυτό που προσπαθούσε να μεταδώσει,
05:21
which was one of doom,
94
321308
2021
την αίσθηση ότι είσαι καταδικασμένος, όταν ξέρεις ότι δεν υπάρχει διέξοδος.
05:23
when you know there's no way out.
95
323353
1789
05:26
And I was wondering:
96
326551
1289
Και αναρωτιόμουν:
05:28
What, if anything, could have changed his mind
97
328644
2682
Τι θα υπήρχε, αν υπήρχε, που θα μπορούσε να του αλλάξει γνώμη
05:31
the day that he left home?
98
331350
1240
την ημέρα που έφευγε από το σπίτι του;
05:32
So I asked,
99
332614
1250
Έτσι τον ρώτησα:
05:33
"If you knew everything that you know now
100
333888
3178
«Αν ήξερες αυτά που ξέρεις τώρα,
05:37
about the suffering and the corruption, the brutality --
101
337090
3051
για τον πόνο, τη διαφθορά, τη σκληρότητα,
05:40
that day you left home,
102
340165
1415
την ημέρα που έφευγες από το σπίτι,
05:41
would you still have gone?"
103
341604
1679
θα πήγαινες και πάλι εκεί;»
05:43
And he said, "Yes."
104
343786
1711
Μου απάντησε: «Ναι».
05:45
And I thought, "Holy crap, he said 'Yes.'"
105
345846
2282
Σκέφτηκα: «Θεέ μου, είπε ναι».
05:48
And then he said,
106
348694
1219
Και μετά είπε:
05:49
"At that point, I was so brainwashed,
107
349937
3001
«Σ' εκείνο το σημείο, μου είχαν κάνει τέτοια πλύση εγκεφάλου
05:52
I wasn't taking in any contradictory information.
108
352962
3244
που δεν προσλάμβανα καμία αντίθετης άποψης πληροφορία.
05:56
I couldn't have been swayed."
109
356744
1555
Κανείς δεν θα μπορούσε να με μεταπείσει».
05:59
"Well, what if you knew everything that you know now
110
359235
2527
«Καλά, κι αν ήξερες αυτά που ξέρεις τώρα έξι μήνες πριν από την ημέρα που έφυγες;»
06:01
six months before the day that you left?"
111
361786
2098
06:05
"At that point, I think it probably would have changed my mind."
112
365345
3131
«Εκείνη τη στιγμή, νομίζω ότι πιθανόν να άλλαζα γνώμη».
06:10
Radicalization isn't this yes-or-no choice.
113
370138
3397
Η ριζοσπαστικοποίηση δεν είναι μια επιλογή «ναι ή όχι».
Είναι μια διαδικασία, κατά την οποία οι άνθρωποι έχουν ερωτήματα
06:14
It's a process, during which people have questions --
114
374007
2977
06:17
about ideology, religion, the living conditions.
115
377008
3776
για την ιδεολογία, τη θρησκεία, τις συνθήκες διαβίωσης.
06:20
And they're coming online for answers,
116
380808
2766
Και ψάχνουν στο διαδίκτυο για απαντήσεις,
06:23
which is an opportunity to reach them.
117
383598
1917
κι αυτή είναι μια ευκαιρία να επικοινωνήσει κανείς μαζί τους.
06:25
And there are videos online from people who have answers --
118
385905
3014
Υπάρχουν βίντεο στο διαδίκτυο από ανθρώπους που έχουν απαντήσεις,
06:28
defectors, for example, telling the story of their journey
119
388943
2876
αυτούς που αποστάτησαν, για παράδειγμα,
που λένε την ιστορία τους εντός και εκτός της βίας.
06:31
into and out of violence;
120
391843
1583
06:33
stories like the one from that man I met in the Iraqi prison.
121
393450
3487
Ιστορίες σαν αυτή εκείνου του άντρα που συνάντησα στη φυλακή του Ιράκ.
06:37
There are locals who've uploaded cell phone footage
122
397914
2590
Υπάρχουν ντόπιοι που ανέβασαν βίντεο από κινητά που δείχνουν
06:40
of what life is really like in the caliphate under ISIS's rule.
123
400528
3503
πώς είναι στ' αλήθεια η ζωή στο χαλιφάτο του ISIS.
06:44
There are clerics who are sharing peaceful interpretations of Islam.
124
404055
3735
Είναι κληρικοί που μοιράζονται ειρηνικές ερμηνείες για το Ισλάμ.
06:48
But you know what?
125
408830
1150
Αλλά ξέρετε τι;
06:50
These people don't generally have the marketing prowess of ISIS.
126
410004
3020
Αυτοί οι άνθρωποι δεν έχουν το μάρκετινγκ που έχει ο ISIS.
Ρισκάρουν τις ζωές τους για να μιλήσουν
06:54
They risk their lives to speak up and confront terrorist propaganda,
127
414049
4532
και να αντιμετωπίσουν την τρομοκρατική προπαγάνδα
06:58
and then they tragically don't reach the people
128
418605
2211
και μετά δυστυχώς δεν μπορούν να φτάσουν στους ανθρώπους
07:00
who most need to hear from them.
129
420840
1682
με τη μεγαλύτερη ανάγκη να τους ακούσουν.
07:03
And we wanted to see if technology could change that.
130
423173
2612
Θέλαμε να δούμε αν η τεχνολογία μπορούσε να το αλλάξει αυτό.
07:06
So in 2016, we partnered with Moonshot CVE
131
426205
4183
Έτσι το 2016, συνεργαστήκαμε με τη Moonshot CVE
07:10
to pilot a new approach to countering radicalization
132
430412
3180
για μια νέα πιλοτική προσέγγιση αντιμετώπισης της ριζοσπαστικοποίησης
07:13
called the "Redirect Method."
133
433616
1780
που λέγεται «Μέθοδος Ανακατεύθυνσης».
07:16
It uses the power of online advertising
134
436453
3012
Χρησιμοποιεί τη μέθοδο της διαδικτυακής διαφήμισης
07:19
to bridge the gap between those susceptible to ISIS's messaging
135
439489
4514
για να γεφυρώσει το χάσμα μεταξύ αυτών που δέχονται τα μηνύματα του ISIS
07:24
and those credible voices that are debunking that messaging.
136
444027
3760
κι εκείνες τις αξιόπιστες φωνές που αποδομούν αυτά τα μηνύματα.
07:28
And it works like this:
137
448633
1150
Λειτουργεί ως εξής:
07:29
someone looking for extremist material --
138
449807
1961
κάποιος αναζητά εξτρεμιστικό υλικό,
07:31
say they search for "How do I join ISIS?" --
139
451792
2990
ας πούμε ότι ψάχνουν «Πώς στρατολογούμαι στον ISIS;»,
07:34
will see an ad appear
140
454806
2476
θα δουν να εμφανίζεται μια διαφήμιση
07:37
that invites them to watch a YouTube video of a cleric, of a defector --
141
457306
4882
για να δουν ένα βίντεο στο YouTube ενός κληρικού, ενός που αποστάτησε,
07:42
someone who has an authentic answer.
142
462212
2310
κάποιου που έχει μια πραγματική απάντηση.
07:44
And that targeting is based not on a profile of who they are,
143
464546
3623
Και αυτή η στόχευση δεν βασίζεται στο προφίλ τους,
07:48
but of determining something that's directly relevant
144
468193
3053
αλλά οδηγεί σε κάτι απόλυτα σχετικό
07:51
to their query or question.
145
471270
1708
με την αναζήτηση ή την ερώτησή τους.
Κατά τη διάρκεια του πιλοτικού σχεδίου των οκτώ εβδομάδων στα Αγγλικά και Αραβικά
07:54
During our eight-week pilot in English and Arabic,
146
474122
2842
07:56
we reached over 300,000 people
147
476988
3279
φτάσαμε ως 300.000 ανθρώπους
08:00
who had expressed an interest in or sympathy towards a jihadi group.
148
480291
5545
που έδειξαν ενδιαφέρον ή συμπάθεια προς μια τζιχαντιστική ομάδα.
08:06
These people were now watching videos
149
486626
2264
Αυτοί οι άνθρωποι βλέπουν τώρα βίντεο
08:08
that could prevent them from making devastating choices.
150
488914
3340
που θα μπορούσαν να τους εμποδίζουν να κάνουν ολέθριες επιλογές.
08:13
And because violent extremism isn't confined to any one language,
151
493405
3727
Κι επειδή ο βίαιος εξτρεμισμός δεν περιορίζεται σε μια μόνο γλώσσα,
08:17
religion or ideology,
152
497156
1804
μια θρησκεία ή μια ιδεολογία,
08:18
the Redirect Method is now being deployed globally
153
498984
3501
η Μέθοδος Ανακατεύθυνσης τώρα εφαρμόζεται παγκοσμίως
08:22
to protect people being courted online by violent ideologues,
154
502509
3804
για να προστατεύσει ανθρώπους που τους πλησίασαν
υποστηρικτές μιας βίαιης ιδεολογίας,
08:26
whether they're Islamists, white supremacists
155
506337
2596
είτε αυτοί είναι ισλαμιστές, είτε φασίστες ρατσιστές,
08:28
or other violent extremists,
156
508957
2103
ή άλλοι βίαιοι εξτρεμιστές,
08:31
with the goal of giving them the chance to hear from someone
157
511084
2873
με στόχο να τους δώσουμε την ευκαιρία να ακούσουν και κάποιον
08:33
on the other side of that journey;
158
513981
2091
από την άλλη πλευρά αυτού του νομίσματος.
08:36
to give them the chance to choose a different path.
159
516096
2839
Να τους δώσουμε την ευκαιρία να διαλέξουν ένα άλλο μονοπάτι.
08:40
It turns out that often the bad guys are good at exploiting the internet,
160
520749
5980
Φαίνεται ότι συχνά οι κακοί είναι καλοί στην εκμετάλλευση του διαδικτύου,
08:46
not because they're some kind of technological geniuses,
161
526753
3744
όχι επειδή είναι τίποτα ιδιοφυΐες στην τεχνολογία,
08:50
but because they understand what makes people tick.
162
530521
2985
αλλά επειδή καταλαβαίνουν αυτό που κινητοποιεί τους ανθρώπους.
08:54
I want to give you a second example:
163
534855
2369
Θέλω να σας δώσω ένα δεύτερο παράδειγμα:
08:58
online harassment.
164
538019
1391
διαδικτυακή παρενόχληση.
09:00
Online harassers also work to figure out what will resonate
165
540629
3363
Αυτοί που παρενοχλούν στο διαδίκτυο επίσης προσπαθούν να βρουν
τι έχει απήχηση σε έναν άλλον άνθρωπο.
09:04
with another human being.
166
544016
1615
09:05
But not to recruit them like ISIS does,
167
545655
3110
Όχι όμως όπως ο ISIS, για να τους στρατολογήσουν,
09:08
but to cause them pain.
168
548789
1275
αλλά για να τους προκαλέσουν πόνο.
09:11
Imagine this:
169
551259
1342
Φανταστείτε το εξής:
09:13
you're a woman,
170
553347
1659
είστε μια γυναίκα, παντρεμένη, με ένα παιδί.
09:15
you're married,
171
555030
1413
09:16
you have a kid.
172
556467
1154
09:18
You post something on social media,
173
558834
1784
Κάνετε μια ανάρτηση στα μέσα κοινωνικής δικτύωσης,
09:20
and in a reply, you're told that you'll be raped,
174
560642
2886
και σας απαντούν ότι θα σας βιάσουν
09:24
that your son will be watching,
175
564577
1560
και ότι θα βάλουν τον γιο σας να βλέπει,
09:26
details of when and where.
176
566825
1856
με λεπτομέρειες για το πότε και πού.
09:29
In fact, your home address is put online for everyone to see.
177
569148
3143
Βάζουν τη διεύθυνση του σπιτιού σας στο διαδίκτυο να τη δουν όλοι.
09:33
That feels like a pretty real threat.
178
573580
2007
Το νιώθουμε σαν μια πραγματική απειλή.
09:37
Do you think you'd go home?
179
577113
1656
Νομίζετε ότι θα πηγαίνατε σπίτι σας;
09:39
Do you think you'd continue doing the thing that you were doing?
180
579999
3048
Νομίζετε ότι θα συνεχίζατε να κάνετε αυτό που κάνατε;
09:43
Would you continue doing that thing that's irritating your attacker?
181
583071
3220
Θα συνεχίζατε γνωρίζοντας ότι αυτό εξοργίζει αυτόν που επιτίθεται;
09:48
Online abuse has been this perverse art
182
588016
3096
Η διαδικτυακή παρενόχληση είναι αυτή η διεστραμμένη τέχνη
09:51
of figuring out what makes people angry,
183
591136
3468
να βρίσκει κανείς αυτό που κάνει τους ανθρώπους να θυμώνουν,
09:54
what makes people afraid,
184
594628
2132
αυτό που τους κάνει να φοβούνται,
09:56
what makes people insecure,
185
596784
1641
αυτό που τους κάνει ανασφαλείς,
09:58
and then pushing those pressure points until they're silenced.
186
598449
3067
και μετά να πιέζει εκεί ακριβώς μέχρι να τους κάνει να σωπάσουν.
10:02
When online harassment goes unchecked,
187
602333
2304
Όταν είναι ανεξέλεγκτη η διαδικτυακή παρενόχληση,
10:04
free speech is stifled.
188
604661
1667
η ελευθερία του λόγου καταπνίγεται.
Ακόμη και οι άνθρωποι που φιλοξενούν τη συζήτηση
10:07
And even the people hosting the conversation
189
607196
2127
10:09
throw up their arms and call it quits,
190
609347
1834
σηκώνουν τα χέρια και παραιτούνται,
10:11
closing their comment sections and their forums altogether.
191
611205
2957
κλειδώνοντας τα σχόλια και τα φόρουμ μαζί.
10:14
That means we're actually losing spaces online
192
614186
2849
Αυτό σημαίνει ότι ουσιαστικά χάνουμε διαδικτυακούς χώρους
10:17
to meet and exchange ideas.
193
617059
1987
όπου συναντιόμαστε και ανταλλάζουμε ιδέες.
10:19
And where online spaces remain,
194
619939
2163
Όπου παραμένουν οι διαδικτυακοί χώροι,
10:22
we descend into echo chambers with people who think just like us.
195
622126
4470
καταλήγουμε σε δωμάτια με ηχώ με ανθρώπους που σκέφτονται όπως εμείς.
10:27
But that enables the spread of disinformation;
196
627688
2499
Αυτό όμως δίνει τη δυνατότητα διάδοσης της παραπληροφόρησης.
10:30
that facilitates polarization.
197
630211
2184
Διευκολύνει την πόλωση.
10:34
What if technology instead could enable empathy at scale?
198
634508
5269
Κι αν, αντίθετα, η τεχνολογία μπορούσε να διευκολύνει την ενσυναίσθηση;
Αυτό ήταν το ερώτημα που κινητοποίησε τη συνεργασία μας
10:40
This was the question that motivated our partnership
199
640451
2486
10:42
with Google's Counter Abuse team,
200
642961
1819
με την ομάδα της Google Ενάντια στην Παρενόχληση,
10:44
Wikipedia
201
644804
1178
με τη Wikipedia,
10:46
and newspapers like the New York Times.
202
646006
1934
και με εφημερίδες όπως οι New York Times.
10:47
We wanted to see if we could build machine-learning models
203
647964
2876
Θέλαμε να δούμε αν μπορούσαμε να φτιάξουμε μοντέλα μηχανικής μάθησης
10:50
that could understand the emotional impact of language.
204
650864
3606
που θα μπορούσαν να καταλάβουν τη συναισθηματική απήχηση της γλώσσας.
10:55
Could we predict which comments were likely to make someone else leave
205
655062
3610
Θα μπορούσαμε να προβλέψουμε ποια σχόλια θα έκαναν κάποιον να εγκαταλείψει
10:58
the online conversation?
206
658696
1374
τη διαδικτυακή συζήτηση;
11:00
And that's no mean feat.
207
660515
3887
Αυτό είναι μεγάλη υπόθεση.
Δεν είναι μικρό κατόρθωμα για την Τεχνητή Νοημοσύνη
11:04
That's no trivial accomplishment
208
664426
1566
11:06
for AI to be able to do something like that.
209
666016
2563
να μπορεί να καταλάβει κάτι τέτοιο.
11:08
I mean, just consider these two examples of messages
210
668603
3729
Ακούστε αυτά τα δύο παραδείγματα μηνυμάτων
11:12
that could have been sent to me last week.
211
672356
2224
που θα μπορούσα να είχα λάβει την περασμένη εβδομάδα.
11:15
"Break a leg at TED!"
212
675517
1879
«Φτου σου, καλή επιτυχία στο TED!»
11:17
... and
213
677420
1164
και
11:18
"I'll break your legs at TED."
214
678608
2126
«Φτου σου, είσαι για φτύσιμο στο TED.»
11:20
(Laughter)
215
680758
1246
(Γέλια)
11:22
You are human,
216
682028
1513
Είστε άνθρωποι,
11:23
that's why that's an obvious difference to you,
217
683565
2210
γι' αυτό η διαφορά είναι προφανής για σας,
11:25
even though the words are pretty much the same.
218
685799
2224
παρόλο που οι λέξεις μοιάζουν λίγο.
11:28
But for AI, it takes some training to teach the models
219
688047
3079
Η Τεχνητή Νοημοσύνη χρειάζεται εκπαίδευση για να μάθει τα μοντέλα
11:31
to recognize that difference.
220
691150
1571
και να αναγνωρίζει τη διαφορά.
11:32
The beauty of building AI that can tell the difference
221
692745
3245
Το ωραίο στην κατασκευή Τεχνητής Νοημοσύνης που καταλαβαίνει τη διαφορά
11:36
is that AI can then scale to the size of the online toxicity phenomenon,
222
696014
5050
είναι ότι η Τεχνητή Νοημοσύνη μπορεί να επεκταθεί
σε όλη την κλίμακα του φαινομένου της διαδικτυακής τοξικότητας
11:41
and that was our goal in building our technology called Perspective.
223
701088
3287
κι αυτός ήταν ο στόχος μας όταν φτιάξαμε την τεχνολογία Perspective.
Με τη βοήθεια του Perspective,
11:45
With the help of Perspective,
224
705056
1427
11:46
the New York Times, for example,
225
706507
1583
οι New York Times, για παράδειγμα,
11:48
has increased spaces online for conversation.
226
708114
2487
κατάφεραν να αυξήσουν τους διαδικτυακούς χώρους προς συζήτηση.
11:51
Before our collaboration,
227
711005
1310
Πριν από τη συνεργασία μας
11:52
they only had comments enabled on just 10 percent of their articles.
228
712339
4305
είχαν ανοιχτά τα σχόλια μόνο στο 10% των άρθρων τους.
11:57
With the help of machine learning,
229
717495
1644
Με τη βοήθεια της μηχανικής μάθησης,
11:59
they have that number up to 30 percent.
230
719163
1897
το ποσοστό αυξήθηκε σε 30%.
12:01
So they've tripled it,
231
721084
1156
Το τριπλασίασαν, και είμαστε ακόμη στην αρχή.
12:02
and we're still just getting started.
232
722264
1917
12:04
But this is about way more than just making moderators more efficient.
233
724872
3461
Είναι κάτι πολύ περισσότερο από το να κάνουμε πιο αποτελεσματικό έλεγχο.
12:10
Right now I can see you,
234
730076
1850
Μπορώ να σας δω τώρα,
12:11
and I can gauge how what I'm saying is landing with you.
235
731950
3294
και μπορώ να καταλάβω πώς αντιλαμβάνεστε αυτό που λέω.
12:16
You don't have that opportunity online.
236
736370
1879
Δεν υπάρχει αυτή η δυνατότητα στο διαδίκτυο.
12:18
Imagine if machine learning could give commenters,
237
738558
3635
Φανταστείτε η μηχανική μάθηση να μπορούσε να δίνει στους σχολιαστές,
καθώς αυτοί πληκτρολογούν,
12:22
as they're typing,
238
742217
1162
12:23
real-time feedback about how their words might land,
239
743403
3347
ανατροφοδότηση σε πραγματικό χρόνο για το πώς εκλαμβάνονται τα λόγια τους,
12:27
just like facial expressions do in a face-to-face conversation.
240
747609
3024
όπως γίνεται με τις εκφράσεις του προσώπου σε μια συζήτηση πρόσωπο με πρόσωπο.
12:32
Machine learning isn't perfect,
241
752926
1842
Η μηχανική μάθηση δεν είναι τέλεια, και κάνει ακόμη πολλά λάθη.
12:34
and it still makes plenty of mistakes.
242
754792
2394
Αλλά αν μπορούμε να φτιάξουμε μια τεχνολογία
12:37
But if we can build technology
243
757210
1557
12:38
that understands the emotional impact of language,
244
758791
3293
που καταλαβαίνει τη συναισθηματική επίδραση της γλώσσας,
μπορούμε να δημιουργήσουμε ενσυναίσθηση.
12:42
we can build empathy.
245
762108
1460
12:43
That means that we can have dialogue between people
246
763592
2425
Κι έτσι να μπορεί να υπάρχει διάλογος μεταξύ ανθρώπων
12:46
with different politics,
247
766041
1816
με διαφορετικές πολιτικές απόψεις,
12:47
different worldviews,
248
767881
1216
διαφορετικές νοοτροπίες, διαφορετικές αξίες.
12:49
different values.
249
769121
1246
12:51
And we can reinvigorate the spaces online that most of us have given up on.
250
771359
4775
Μπορούμε επίσης να ζωντανέψουμε ξανά τους διαδικτυακούς χώρους που παρατήσαμε.
12:57
When people use technology to exploit and harm others,
251
777857
3785
Όταν οι άνθρωποι εκμεταλλεύονται την τεχνολογία για να βλάψουν τους άλλους,
13:01
they're preying on our human fears and vulnerabilities.
252
781666
3642
εκμεταλλεύονται τους ανθρώπινους φόβους και τα ευάλωτα σημεία μας.
13:06
If we ever thought that we could build an internet
253
786461
3508
Αν σκεφτήκαμε ποτέ ότι θα μπορούσαμε να χτίσουμε ένα διαδίκτυο
13:09
insulated from the dark side of humanity,
254
789993
2578
απομονωμένο από τη σκοτεινή πλευρά της ανθρωπότητας, κάναμε λάθος.
13:12
we were wrong.
255
792595
1184
13:14
If we want today to build technology
256
794361
2270
Αν θέλουμε σήμερα να φτιάξουμε μια τεχνολογία
13:16
that can overcome the challenges that we face,
257
796655
3127
που μπορεί να ξεπεράσει τις προκλήσεις που αντιμετωπίζουμε
13:19
we have to throw our entire selves into understanding the issues
258
799806
4043
πρέπει να βάλουμε όλες μας τις δυνάμεις για να καταλάβουμε τα θέματα
13:23
and into building solutions
259
803873
1893
και να βρούμε λύσεις που είναι τόσο ανθρώπινες
13:25
that are as human as the problems they aim to solve.
260
805790
3782
όσο και τα προβλήματα που σκοπεύουν να λύσουν.
13:30
Let's make that happen.
261
810071
1513
Ας το κάνουμε να συμβεί.
13:31
Thank you.
262
811924
1150
Ευχαριστώ.
13:33
(Applause)
263
813098
3277
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7