How racial bias works -- and how to disrupt it | Jennifer L. Eberhardt

167,361 views ・ 2020-06-22

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Επιμέλεια: Chryssa Rapessi
Μερικά χρόνια πριν,
ήμουν σ′ ένα αεροπλάνο με τον πεντάχρονο τότε γιο μου.
Ο γιος μου ήταν τόσο ενθουσιασμένος που ήταν στο αεροπλάνο με τη μαμά του.
00:12
Some years ago,
0
12910
1273
00:14
I was on an airplane with my son who was just five years old at the time.
1
14207
4912
Κοιτούσε και περιεργαζόταν τον χώρο γύρω του
και τους ανθρώπους.
00:20
My son was so excited about being on this airplane with Mommy.
2
20245
5095
Και βλέπει έναν άνδρα και λέει:
«Αυτός ο άνθρωπος μοιάζει με τον μπαμπά!»
00:25
He's looking all around and he's checking things out
3
25364
2940
Και κοιτάζω τον άνδρα
00:28
and he's checking people out.
4
28328
1836
και δεν έμοιαζε καθόλου με τον σύζυγό μου,
00:30
And he sees this man, and he says,
5
30188
1630
00:31
"Hey! That guy looks like Daddy!"
6
31842
2861
ούτε στο ελάχιστο.
Και έτσι άρχισα μετά να κοιτάω τριγύρω στο αεροπλάνο
00:35
And I look at the man,
7
35882
1920
00:37
and he didn't look anything at all like my husband,
8
37826
3730
και παρατήρησα ότι αυτός ο άνδρας ήταν ο μόνος μαύρος άνθρωπος στο αεροπλάνο.
00:41
nothing at all.
9
41580
1369
00:43
And so then I start looking around on the plane,
10
43461
2336
Και σκέφτηκα,
00:45
and I notice this man was the only black guy on the plane.
11
45821
5885
«Εντάξει.
Θα πρέπει μιλήσω στον γιο μου
για το γεγονός ότι όλοι οι μαύροι δεν είναι ίδιοι».
00:52
And I thought,
12
52874
1412
Ο γιος μου, σήκωσε το κεφάλι του και μου λέει:
00:54
"Alright.
13
54310
1194
00:56
I'm going to have to have a little talk with my son
14
56369
2525
00:58
about how not all black people look alike."
15
58918
2929
«Μακάρι να μη ληστέψει το αεροπλάνο».
01:01
My son, he lifts his head up, and he says to me,
16
61871
4377
Και του απαντώ: «Τι; Τι είπες;»
Και μου λέει: «Ελπίζω αυτός ο άνδρας να μη ληστέψει το αεροπλάνο».
01:08
"I hope he doesn't rob the plane."
17
68246
2371
Και του απαντώ: «Γιατί το λες αυτό;
01:11
And I said, "What? What did you say?"
18
71359
2515
01:13
And he says, "Well, I hope that man doesn't rob the plane."
19
73898
3428
Ξέρεις ότι ο μπαμπάς δεν θα λήστευε αεροπλάνο».
Και μου λέει: «Ναι, ναι, ναι, το ξέρω».
01:19
And I said, "Well, why would you say that?
20
79200
2752
Και του λέω: «Γιατί το λες αυτό λοιπόν;»
01:22
You know Daddy wouldn't rob a plane."
21
82486
2663
Και με κοιτάει με ένα αληθινά λυπημένο πρόσωπο
01:25
And he says, "Yeah, yeah, yeah, well, I know."
22
85173
2312
και λέει:
01:28
And I said, "Well, why would you say that?"
23
88179
2127
«Δεν ξέρω γιατί το είπα αυτό.
01:32
And he looked at me with this really sad face,
24
92346
2957
Δεν ξέρω γιατί το σκέφτηκα».
01:36
and he says,
25
96168
1254
Ζούμε μέσα σε μια τόσο έντονη φυλετική διαστρωμάτωση
01:38
"I don't know why I said that.
26
98890
2106
που ακόμη και ένα πεντάχρονο μπορεί να μας πει τι υποτίθεται ότι θα γίνει,
01:42
I don't know why I was thinking that."
27
102600
2358
01:45
We are living with such severe racial stratification
28
105724
3518
ακόμη και χωρίς καμία κακή πρόθεση,
01:49
that even a five-year-old can tell us what's supposed to happen next,
29
109266
5060
χωρίς κανένα εκφρασμένο μίσος.
Αυτή η συσχέτιση των μαύρων με την εγκληματικότητα
01:55
even with no evildoer,
30
115990
2107
πέρασε και στο μυαλό του πεντάχρονού μου.
01:58
even with no explicit hatred.
31
118121
2579
02:02
This association between blackness and crime
32
122184
3913
Περνάει στο μυαλό όλων των παιδιών μας,
02:06
made its way into the mind of my five-year-old.
33
126121
4334
όλων μας.
Τα μυαλά μας πλάθονται από τις φυλετικές διαφορές
02:11
It makes its way into all of our children,
34
131787
3263
που παρατηρούμε στον κόσμο
02:16
into all of us.
35
136201
1391
και τις διηγήσεις που μας βοηθούν να νοηματοδοτήσουμε αυτές τις διαφορές:
02:18
Our minds are shaped by the racial disparities
36
138793
3524
02:22
we see out in the world
37
142341
1592
«Εκείνοι οι άνθρωποι είναι εγκληματίες».
02:24
and the narratives that help us to make sense of the disparities we see:
38
144752
5341
«Εκείνοι οι άνθρωποι είναι βίαιοι».
«Εκείνους τους ανθρώπους πρέπει να τους φοβόμαστε».
02:31
"Those people are criminal."
39
151637
2526
Όταν η ερευνητική μου ομάδα έφερε ανθρώπους στο εργαστήριο
02:34
"Those people are violent."
40
154187
1925
και τους έδειξε πρόσωπα,
02:36
"Those people are to be feared."
41
156136
2965
βρήκαμε ότι η έκθεση σε μαύρα πρόσωπα
02:39
When my research team brought people into our lab
42
159814
3191
τους έκανε να βλέπουν θολές εικόνες από όπλα
02:43
and exposed them to faces,
43
163029
2283
με μεγαλύτερη διαύγεια και ταχύτητα.
02:45
we found that exposure to black faces led them to see blurry images of guns
44
165336
7000
Οι προκαταλήψεις δεν ελέγχουν μόνο το τι βλέπουμε
αλλά και το πού κοιτάμε.
02:52
with greater clarity and speed.
45
172360
3256
Βρήκαμε ότι προτρέποντας τους ανθρώπους να σκεφτούν κάποιο βίαιο έγκλημα
02:55
Bias cannot only control what we see,
46
175640
3354
μπορεί να τους οδηγήσει να κοιτάξουν την εικόνα ενός μαύρου προσώπου
02:59
but where we look.
47
179018
1648
και μακριά από την εικόνα ενός λευκού.
03:00
We found that prompting people to think of violent crime
48
180690
3444
Προτρέποντας αστυνομικούς να σκεφτούν την αιχμαλώτιση και τους πυροβολισμούς
03:04
can lead them to direct their eyes onto a black face
49
184158
4296
και τη σύλληψη
τους οδηγεί επίσης, στην εικόνα μαύρου προσώπου.
03:08
and away from a white face.
50
188478
2130
03:10
Prompting police officers to think of capturing and shooting
51
190632
3842
Οι προκαταλήψεις μολύνουν κάθε πτυχή του συστήματος ποινικής δικαιοσύνης.
03:14
and arresting
52
194498
1229
03:15
leads their eyes to settle on black faces, too.
53
195751
3859
Σε μια πληθώρα κατηγορουμένων που καταδικάστηκαν σε θάνατο,
03:19
Bias can infect every aspect of our criminal justice system.
54
199634
5066
βρήκαμε ότι το να φαίνεσαι μαύρος υπερδιπλασίαζε τις πιθανότητες
να καταδικαστείς σε θανατική ποινή --
03:25
In a large data set of death-eligible defendants,
55
205100
2931
τουλάχιστον όταν τα θύματα ήταν λευκοί.
03:28
we found that looking more black more than doubled their chances
56
208055
4357
Αυτό το αποτέλεσμα είναι σημαντικό
παρόλο που συνυπολογίσαμε τη σοβαρότητα του εγκλήματος
03:32
of receiving a death sentence --
57
212436
2057
και την ελκυστικότητα του κατηγορουμένου.
03:35
at least when their victims were white.
58
215494
2427
Και ανεξαρτήτως του τι λάβαμε υπόψη
03:37
This effect is significant,
59
217945
1438
03:39
even though we controlled for the severity of the crime
60
219407
3301
βρήκαμε ότι οι μαύροι άνθρωποι τιμωρούνται
03:42
and the defendant's attractiveness.
61
222732
2281
αναλογικά με το πόσο προσομοιάζουν τα χαρακτηριστικά τους σε μαύρο:
03:45
And no matter what we controlled for,
62
225037
2649
όσο περισσότερο μαύρος φαίνεται,
03:47
we found that black people were punished
63
227710
3345
τόσο πιο πολύ αξίζει το θάνατο.
Οι προκαταλήψεις επηρεάζουν επίσης το πώς τιμωρούν οι δασκάλες τους μαθητές.
03:51
in proportion to the blackness of their physical features:
64
231079
4325
03:55
the more black,
65
235428
1881
Οι συνάδελφοί μου κι εγώ βρήκαμε ότι οι δασκάλες εκφράζουν την επιθυμία
03:57
the more death-worthy.
66
237333
1753
03:59
Bias can also influence how teachers discipline students.
67
239110
4209
να τιμωρήσουν ένα μαύρο γυμνασιόπαιδο πιο αυστηρά
04:03
My colleagues and I have found that teachers express a desire
68
243781
4407
από ό,τι ένα λευκό
για τις ίδιες επανειλημμένες παραβάσεις.
Σε μια πρόσφατη έρευνα,
04:08
to discipline a black middle school student more harshly
69
248212
3566
βρίσκουμε ότι οι δασκάλες αντιμετωπίζουν τα μαύρα παιδιά σαν ομάδα
04:11
than a white student
70
251802
1168
04:12
for the same repeated infractions.
71
252994
2576
ενώ τα λευκά σαν ξεχωριστά άτομα.
04:15
In a recent study,
72
255594
1294
Αν, για παράδειγμα, ένας μαύρος μαθητής παρεκτραπεί
04:16
we're finding that teachers treat black students as a group
73
256912
4358
και μετά ένας άλλος μαύρος μαθητής παρεκτραπεί μετά από μερικές μέρες
04:21
but white students as individuals.
74
261294
2431
η δασκάλα αντιδρά στον δεύτερο μαύρο μαθητή
04:24
If, for example, one black student misbehaves
75
264126
3599
04:27
and then a different black student misbehaves a few days later,
76
267749
4785
σαν να είχε παρεκτραπεί και τις δύο φορές.
Είναι σαν οι αμαρτίες από ένα παιδί
04:32
the teacher responds to that second black student
77
272558
3228
συσσωρεύονται στο άλλο.
04:35
as if he had misbehaved twice.
78
275810
2625
Δημιουργούμε κατηγορίες για να κατανοήσουμε τον κόσμο
04:38
It's as though the sins of one child
79
278952
2811
για να επιβάλλουμε κάποιο έλεγχο και συνοχή
04:41
get piled onto the other.
80
281787
2176
04:43
We create categories to make sense of the world,
81
283987
3294
στα ερεθίσματα που συνεχώς μας βομβαρδίζουν.
04:47
to assert some control and coherence
82
287305
4483
Η κατηγοριοποίηση και οι προκαταλήψεις που αυτή συνεπάγεται
04:51
to the stimuli that we're constantly being bombarded with.
83
291812
4090
επιτρέπουν στον εγκέφαλό μας να κρίνει πιο γρήγορα και αποτελεσματικά
04:55
Categorization and the bias that it seeds
84
295926
3968
και το κάνουμε αυτό με το να βασιζόμαστε ενστικτωδώς σε μοτίβα
04:59
allow our brains to make judgments more quickly and efficiently,
85
299918
5022
που φαίνονται προβλέψιμα.
Όμως, καθώς οι κατηγορίες που δημιουργούμε μας επιτρέπουν να αποφασίζουμε γρήγορα,
05:04
and we do this by instinctively relying on patterns
86
304964
3402
ενισχύουν επίσης τις προκαταλήψεις.
05:08
that seem predictable.
87
308390
1669
05:10
Yet, just as the categories we create allow us to make quick decisions,
88
310083
5943
Έτσι αυτά ακριβώς τα πράγματα που μας βοηθούν να δούμε τον κόσμο
μπορούν συχνά και να μας τυφλώσουν.
05:16
they also reinforce bias.
89
316050
2502
Καθιστούν τις επιλογές μας αβίαστες,
05:18
So the very things that help us to see the world
90
318576
3392
χωρίς κάποια τριβή.
Ωστόσο, στοιχίζουν πολύ ακριβά.
05:23
also can blind us to it.
91
323104
1980
05:25
They render our choices effortless,
92
325509
2778
Τι μπορούμε να κάνουμε λοιπόν;
Είμαστε όλοι ευάλωτοι σε προκαταλήψεις,
05:28
friction-free.
93
328311
1369
05:30
Yet they exact a heavy toll.
94
330956
2445
αλλά δεν ενεργούμε σύμφωνα με αυτές όλη την ώρα.
Είναι συγκεκριμένες καταστάσεις που τις ενεργοποιούν
05:34
So what can we do?
95
334158
1411
05:36
We are all vulnerable to bias,
96
336507
2491
και άλλες που τις περιορίζουν.
05:39
but we don't act on bias all the time.
97
339022
2680
Ας σας δώσω ένα παράδειγμα.
05:41
There are certain conditions that can bring bias alive
98
341726
3644
Πολλοί άνθρωποι είναι εξοικειωμένοι με την τεχνολογική εταιρία Nextdoor.
05:45
and other conditions that can muffle it.
99
345394
2533
05:47
Let me give you an example.
100
347951
1847
Ο απώτερος σκοπός τους είναι να δημιουργήσουν
05:50
Many people are familiar with the tech company Nextdoor.
101
350663
4560
πιο δυνατές, υγιείς και ασφαλείς γειτονιές.
Και έτσι προσφέρουν ένα διαδικτυακό χώρο
05:56
So, their whole purpose is to create stronger, healthier, safer neighborhoods.
102
356073
6453
όπου οι γείτονες μπορούν να συγκεντρώσουν και να μοιραστούν πληροφορίες.
Ωστόσο, η Nextdoor σύντομα διαπίστωσε ότι είχε ένα πρόβλημα
06:03
And so they offer this online space
103
363468
2921
με τη φυλετική σκιαγράφηση.
06:06
where neighbors can gather and share information.
104
366413
3149
Στη συνηθισμένη περίπτωση,
06:09
Yet, Nextdoor soon found that they had a problem
105
369586
4126
οι άνθρωποι θα κοιτούσαν έξω από το παράθυρό τους
και θα έβλεπαν ένα μαύρο άνδρα στην κατά τ′ άλλα λευκή γειτονιά τους
06:13
with racial profiling.
106
373736
1668
και έκριναν αμέσως ότι δεν είχε καλές προθέσεις,
06:16
In the typical case,
107
376012
1967
06:18
people would look outside their window
108
378003
2396
06:20
and see a black man in their otherwise white neighborhood
109
380423
4049
ακόμη και όταν δεν υπήρχαν αποδείξεις για εγκληματική ενέργεια.
06:24
and make the snap judgment that he was up to no good,
110
384496
4715
Εν πολλοίς, το πώς συμπεριφερόμαστε διαδικτυακά
αντικατοπτρίζει το πώς συμπεριφερόμαστε στον πραγματικό κόσμο.
06:29
even when there was no evidence of criminal wrongdoing.
111
389235
3351
Αλλά δεν θέλουμε να δημιουργήσουμε ένα εύχρηστο σύστημα
06:32
In many ways, how we behave online
112
392610
2934
που θα ενισχύει τις προκαταλήψεις και θα βαθαίνει τις φυλετικές διαφορές,
06:35
is a reflection of how we behave in the world.
113
395568
3114
06:39
But what we don't want to do is create an easy-to-use system
114
399117
3945
αντί να τις αποδομεί.
Έτσι, ο συνιδρυτής της Nextdoor επικοινώνησε μαζί μου και με άλλους
06:43
that can amplify bias and deepen racial disparities,
115
403086
4163
για να προσπαθήσει να καταλάβει τι να κάνει.
Και κατάλαβαν ότι για να περιορίσουν τη φυλετική σκιαγράφηση στην πλατφόρμα
06:48
rather than dismantling them.
116
408129
2266
06:50
So the cofounder of Nextdoor reached out to me and to others
117
410863
3429
θα έπρεπε να εφαρμόσουν ένα συντελεστή τριβής,
06:54
to try to figure out what to do.
118
414316
2131
να καθυστερήσουν δηλαδή τους ανθρώπους.
06:56
And they realized that to curb racial profiling on the platform,
119
416471
3946
Έτσι η Nextdoor είχε να πάρει μια απόφαση,
και ενάντια σε κάθε παρόρμηση,
07:00
they were going to have to add friction;
120
420441
1922
αποφάσισαν να εφαρμόσουν τριβή.
07:02
that is, they were going to have to slow people down.
121
422387
2658
Και το έκαναν με το να προσθέσουν μια απλή λίστα ελέγχου.
07:05
So Nextdoor had a choice to make,
122
425069
2195
07:07
and against every impulse,
123
427288
2478
Υπήρχαν τρία πράγματα σε αυτή.
07:09
they decided to add friction.
124
429790
2116
Πρώτον, ζητούσαν από τους χρήστες να σταματήσουν
07:12
And they did this by adding a simple checklist.
125
432397
3440
και να σκεφτούν «Τι καθιστά αυτόν τον άνθρωπο ύποπτο;»
07:15
There were three items on it.
126
435861
1670
07:18
First, they asked users to pause
127
438111
2941
Η κατηγορία «μαύρος άνθρωπος» δεν είναι βάση για υποψία.
07:21
and think, "What was this person doing that made him suspicious?"
128
441076
5117
Δεύτερον, ζητούσαν από τους χρήστες να περιγράψουν τα χαρακτηριστικά του,
07:26
The category "black man" is not grounds for suspicion.
129
446876
4533
όχι μόνο την εθνικότητα και το φύλο.
07:31
Second, they asked users to describe the person's physical features,
130
451433
5139
Τρίτον, συνειδητοποίησαν ότι πολλοί από τους ανθρώπους
δεν φαίνεται να ήξεραν τι είναι η φυλετική σκιαγράφηση,
07:36
not simply their race and gender.
131
456596
2435
ούτε ότι την επεδείκνυαν με τη συμπεριφορά τους.
07:39
Third, they realized that a lot of people
132
459642
3383
Έτσι η Nextdoor τους παρείχε έναν ορισμό
07:43
didn't seem to know what racial profiling was,
133
463049
2928
και τους είπε ότι απαγορευόταν αυστηρά.
07:46
nor that they were engaging in it.
134
466001
1959
Οι περισσότεροι από εσάς έχετε δει τις ταμπέλες στα αεροδρόμια
07:48
So Nextdoor provided them with a definition
135
468462
3194
και στους σταθμούς του μετρό «Αν δεις κάτι, πες το».
07:51
and told them that it was strictly prohibited.
136
471680
2902
Η Nextdoor προσπάθησε να το τροποποιήσει αυτό.
07:55
Most of you have seen those signs in airports
137
475071
2612
07:57
and in metro stations, "If you see something, say something."
138
477707
3702
«Αν δεις κάτι ύποπτο,
πες το με ακρίβεια».
08:01
Nextdoor tried modifying this.
139
481928
2814
Και με αυτήν τη στρατηγική, καθυστερώντας απλά τους ανθρώπους,
08:05
"If you see something suspicious,
140
485584
2572
η Nextdoor μπόρεσε να μειώσει τη φυλετική σκιαγράφηση κατά 75%.
08:08
say something specific."
141
488180
2073
08:11
And using this strategy, by simply slowing people down,
142
491491
4446
Τώρα, οι άνθρωποι συχνά μου λένε,
08:15
Nextdoor was able to curb racial profiling by 75 percent.
143
495961
5691
«Δεν μπορείς να βάλεις τριβή σε κάθε περίσταση, σε όλες τις συνθήκες
και ειδικά σε ανθρώπους που αποφασίζουν σε κλάσμα δευτερολέπτου όλη την ώρα».
08:22
Now, people often will say to me,
144
502496
2090
08:24
"You can't add friction in every situation, in every context,
145
504610
4713
Αλλά τελικά μπορούμε να εφαρμόσουμε τριβή
σε περισσότερες καταστάσεις από ό,τι νομίζουμε.
08:29
and especially for people who make split-second decisions all the time."
146
509347
4646
Σε συνεργασία με το αστυνομικό τμήμα του Όουκλαντ στην Καλιφόρνια,
08:34
But it turns out we can add friction
147
514730
2563
εγώ και μερικοί συνάδελφοί μου καταφέραμε να βοηθήσουμε το τμήμα
08:37
to more situations than we think.
148
517317
2276
να μειώσει τον αριθμό των ελέγχων στο δρόμο σε ανθρώπους
08:40
Working with the Oakland Police Department
149
520031
2074
οι οποίοι δεν διέπρατταν σοβαρά εγκλήματα.
08:42
in California,
150
522129
1417
08:43
I and a number of my colleagues were able to help the department
151
523570
3856
Και το κάναμε αυτό, προτρέποντας τους αστυνομικούς
08:47
to reduce the number of stops they made
152
527450
2671
να αναρωτηθούν κάθε φορά πριν ελέγξουν κάποιον στο δρόμο:
08:50
of people who were not committing any serious crimes.
153
530145
3600
«Είναι αυτός ο έλεγχος βασισμένος σε πληροφορίες,
08:53
And we did this by pushing officers
154
533769
2365
08:56
to ask themselves a question before each and every stop they made:
155
536158
4443
ναι ή όχι;»
Με άλλα λόγια,
09:01
"Is this stop intelligence-led,
156
541451
3015
έχω προηγούμενες πληροφορίες που συνδέουν το άτομο αυτό
09:04
yes or no?"
157
544490
1451
με συγκεκριμένο έγκλημα;
09:07
In other words,
158
547353
1396
Προσθέτοντας την ερώτηση αυτή
09:09
do I have prior information to tie this particular person
159
549621
4484
στο έντυπο που συμπληρώνουν οι αστυνομικοί σε κάθε έλεγχο στο δρόμο,
αργούν περισσότερο, κάνουν μια παύση,
09:14
to a specific crime?
160
554129
1601
αναλογίζονται: «Γιατί σκέφτομαι να σταματήσω αυτόν τον άνθρωπο;»
09:16
By adding that question
161
556587
1458
09:18
to the form officers complete during a stop,
162
558069
3079
Το 2017, πριν προσθέσουμε αυτή την ερώτηση στο έντυπο,
09:21
they slow down, they pause,
163
561172
1809
09:23
they think, "Why am I considering pulling this person over?"
164
563005
4220
οι αστυνομικοί έκαναν 32.000 ελέγχους σε όλη την πόλη.
09:28
In 2017, before we added that intelligence-led question to the form,
165
568721
5561
Τον επόμενο χρόνο, με την προσθήκη της ερώτησης
09:35
officers made about 32,000 stops across the city.
166
575655
3946
αυτό έπεσε στις 19.000 ελέγχους.
Οι έλεγχοι σε Αφρο-Αμερικανούς μόνο μειώθηκαν κατά 43%.
09:39
In that next year, with the addition of this question,
167
579625
4115
09:43
that fell to 19,000 stops.
168
583764
2444
Και με το να ελέγχουν λιγότερους μαύρους
δεν κατέστησε την πόλη περισσότερο επικίνδυνη.
09:46
African-American stops alone fell by 43 percent.
169
586232
4961
Στην πραγματικότητα, η εγκληματικότητα συνέχισε να πέφτει
και η πόλη έγινε ασφαλέστερη για όλους.
09:51
And stopping fewer black people did not make the city any more dangerous.
170
591905
4438
Οπότε μία λύση προέρχεται από τη μείωση των περιττών ελέγχων.
09:56
In fact, the crime rate continued to fall,
171
596367
2734
09:59
and the city became safer for everybody.
172
599125
3337
Άλλη από τη βελτίωση της ποιότητας των ελέγχων
10:02
So one solution can come from reducing the number of unnecessary stops.
173
602486
5355
που κάνουν οι αστυνομικοί.
Και η τεχνολογία μπορεί να μας βοηθήσει εδώ.
10:08
Another can come from improving the quality of the stops
174
608285
4270
Όλοι γνωρίζουμε για το θάνατο του Τζορτ Φλόιντ,
10:12
officers do make.
175
612579
1305
επειδή όσοι πήγαν να τον βοηθήσουν κρατούσαν τις κάμερες των κινητών
10:14
And technology can help us here.
176
614512
2596
για να καταγράψουν αυτό το φρικιαστικό, μοιραίο συμβάν με την αστυνομία.
10:17
We all know about George Floyd's death,
177
617132
2415
10:20
because those who tried to come to his aid held cell phone cameras
178
620499
4772
Αλλά έχουμε όλα τα είδη τεχνολογίας που δεν τα χρησιμοποιούμε σωστά.
10:25
to record that horrific, fatal encounter with the police.
179
625295
5431
Αστυνομικά τμήματα σε όλη τη χώρα
υποχρεούνται να φοράνε κάμερες σώματος
10:30
But we have all sorts of technology that we're not putting to good use.
180
630750
5031
έτσι ώστε να έχουμε καταγραφές όχι μόνο ακραίων και φρικιαστικών συμβάντων
10:35
Police departments across the country
181
635805
2503
10:38
are now required to wear body-worn cameras
182
638332
3553
αλλά και καθημερινών αλληλεπιδράσεων.
10:41
so we have recordings of not only the most extreme and horrific encounters
183
641909
5930
Με μία διεπιστημονική ομάδα στο Στάνφορντ,
έχουμε αρχίσει να χρησιμοποιούμε τεχνικές μηχανιστικής εκμάθησης
10:47
but of everyday interactions.
184
647863
2754
για να αναλύσουμε μεγάλο αριθμό συμβάντων.
10:50
With an interdisciplinary team at Stanford,
185
650641
2777
Αυτό συμβαίνει για να καταλάβουμε καλύτερα
10:53
we've begun to use machine learning techniques
186
653442
2687
τι γίνεται σε συνήθεις ελέγχους κυκλοφορίας.
Βρήκαμε ότι
10:56
to analyze large numbers of encounters.
187
656153
3367
ακόμη και όταν οι αστυνομικοί συμπεριφέρονται επαγγελματικά,
10:59
This is to better understand what happens in routine traffic stops.
188
659544
4611
μιλάνε στους μαύρους οδηγούς με λιγότερο σεβασμό από ό,τι στους λευκούς.
11:04
What we found was that
189
664179
2155
11:06
even when police officers are behaving professionally,
190
666358
3662
Στην πραγματικότητα, από τα λόγια που χρησιμοποιούν μόνο οι αστυνομικοί,
11:10
they speak to black drivers less respectfully than white drivers.
191
670860
4462
μπορούσαμε να προβλέψουμε αν μιλάνε σε μαύρο ή λευκό οδηγό.
11:16
In fact, from the words officers use alone,
192
676052
4075
Το πρόβλημα είναι ότι η συντριπτική πλειοψηφία
των πλάνων από αυτές τις κάμερες
11:20
we could predict whether they were talking to a black driver or a white driver.
193
680151
5162
δε χρησιμοποιείται από τα αστυνομικά τμήματα
για να καταλάβουν τι συμβαίνει στους δρόμους
11:25
The problem is that the vast majority of the footage from these cameras
194
685337
5762
ή για να εκπαιδεύσει αστυνομικούς.
Και αυτό είναι ντροπή.
11:31
is not used by police departments
195
691123
2087
Πώς γίνεται ένας συνηθισμένος έλεγχος να καταλήγει σε θανατηφόρο συμβάν;
11:33
to understand what's going on on the street
196
693234
2276
11:35
or to train officers.
197
695534
2243
Πώς συνέβη αυτό στην περίπτωση του Τζόρτζ Φλόιντ;
11:38
And that's a shame.
198
698554
1458
11:40
How does a routine stop turn into a deadly encounter?
199
700796
4789
Πώς συνέβη σε άλλους;
Όταν ο μεγαλύτερος γιος μου ήταν 16 χρονών,
11:45
How did this happen in George Floyd's case?
200
705609
2670
ανακάλυψε ότι όταν οι λευκοί τον κοιτούν,
11:49
How did it happen in others?
201
709588
2082
αισθάνονται φόβο.
11:51
When my eldest son was 16 years old,
202
711694
3396
Οι ανελκυστήρες είναι οι χειρότεροι, είπε.
11:55
he discovered that when white people look at him,
203
715114
3139
Όταν εκείνες οι πόρτες κλείνουν,
11:58
they feel fear.
204
718277
1561
οι άνθρωποι είναι παγιδευμένοι σε αυτό το μικροσκοπικό χώρο
12:01
Elevators are the worst, he said.
205
721123
2661
με κάποιον που έμαθαν να συνδέουν με τον κίνδυνο.
12:04
When those doors close,
206
724313
2331
12:06
people are trapped in this tiny space
207
726668
3083
Ο γιος μου αισθάνεται τη δυσφορία τους
12:09
with someone they have been taught to associate with danger.
208
729775
4467
και χαμογελά για να τους καθησυχάσει,
να κατευνάσει τους φόβους τους.
12:14
My son senses their discomfort,
209
734744
3220
Όταν μιλάει,
τα σώματά τους χαλαρώνουν.
12:17
and he smiles to put them at ease,
210
737988
3157
Αναπνέουν ευκολότερα.
Νιώθουν όμορφα με τον κυματισμό της φωνής του,
12:21
to calm their fears.
211
741169
1769
12:23
When he speaks,
212
743351
1945
την προφορά του, την επιλογή των λέξεων.
12:25
their bodies relax.
213
745320
1683
Ακούγεται σαν ένας από αυτούς.
12:27
They breathe easier.
214
747442
1903
Συνήθιζα να πιστεύω ότι ο γιος μου ήταν φύσει εξωστρεφής σαν τον πατέρα του.
12:29
They take pleasure in his cadence,
215
749369
2531
12:31
his diction, his word choice.
216
751924
2317
Αλλά κατάλαβα εκείνη τη στιγμή, σε εκείνη τη συζήτηση,
12:34
He sounds like one of them.
217
754986
1843
12:36
I used to think that my son was a natural extrovert like his father.
218
756853
4730
ότι το χαμόγελό του δεν ήταν σημάδι ότι ήθελε να έρθει σε επαφή
12:41
But I realized at that moment, in that conversation,
219
761607
3550
με εν δυνάμει ξένους.
Ήταν ένα φυλαχτό που χρησιμοποιούσε για να προστατευθεί,
12:46
that his smile was not a sign that he wanted to connect
220
766143
5078
μία δεξιότητα επιβίωσης που τελειοποίησε σε χιλιάδες διαδρομές με ανελκυστήρα.
12:51
with would-be strangers.
221
771245
1964
12:53
It was a talisman he used to protect himself,
222
773920
3652
Μάθαινε να δέχεται την ένταση που επέφερε το χρώμα του δέρματός του
12:57
a survival skill he had honed over thousands of elevator rides.
223
777596
6219
και που έβαζε σε κίνδυνο την ίδια τη ζωή του.
13:04
He was learning to accommodate the tension that his skin color generated
224
784387
5171
Ξέρουμε ότι ο εγκέφαλος είναι αρθρωμένος με προκαταλήψεις
και ένας τρόπος να τις διακόψουμε είναι να κάνουμε μια παύση και να αναλογιστούμε
13:11
and that put his own life at risk.
225
791026
2667
13:14
We know that the brain is wired for bias,
226
794619
3783
τις ενδείξεις των εικασιών μας.
Έτσι θα πρέπει να ρωτήσουμε τους εαυτούς μας
13:18
and one way to interrupt that bias is to pause and to reflect
227
798426
4465
Τι εικασίες κάνουμε όταν μπαίνουμε σε έναν ανελκυστήρα;
13:22
on the evidence of our assumptions.
228
802915
2305
13:25
So we need to ask ourselves:
229
805244
1755
Σε ένα αεροπλάνο;
13:27
What assumptions do we bring when we step onto an elevator?
230
807023
4665
Πώς μπορούμε να έχουμε επίγνωση των υποσυνείδητων προκαταλήψεών μας;
Ποιους προστατεύουν αυτές οι εικασίες;
13:33
Or an airplane?
231
813776
1311
13:35
How do we make ourselves aware of our own unconscious bias?
232
815532
4599
Ποιους βάζουν σε κίνδυνο;
Μέχρι να ρωτήσουμε αυτές τις ερωτήσεις
13:40
Who do those assumptions keep safe?
233
820155
2351
και να επιμείνουμε ότι τα σχολεία, τα δικαστήρια και τα αστυνομικά τμήματα
13:44
Who do they put at risk?
234
824615
1932
13:47
Until we ask these questions
235
827649
2354
και κάθε θεσμός να κάνουν το ίδιο,
13:50
and insist that our schools and our courts and our police departments
236
830978
4624
θα συνεχίσουμε να επιτρέπουμε στις προκαταλήψεις
13:55
and every institution do the same,
237
835626
2542
να μας τυφλώνουν.
Και αν το επιτρέψουμε αυτό,
13:59
we will continue to allow bias
238
839835
3829
τότε κανείς μας δεν θα είναι απολύτως ασφαλής.
14:03
to blind us.
239
843688
1278
14:05
And if we do,
240
845348
1409
Σας ευχαριστώ.
14:08
none of us are truly safe.
241
848066
3208
14:14
Thank you.
242
854103
1308
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7