5 Ethical Principles for Digitizing Humanitarian Aid | Aarathi Krishnan | TED

35,631 views ・ 2022-07-12

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Laura Bifulco Revisore: Gabriella Patricola
00:04
Sociologist Zeynep Tufekci once said
0
4334
3795
La sociologa Zeynep Tufekci una volta disse
00:08
that history is full of massive examples
1
8171
4296
che la storia è piena di grandi esempi
00:12
of harm caused by people with great power
2
12509
4254
di danni causati da persone con grandi poteri
00:16
who felt that just because they felt themselves to have good intentions,
3
16805
4755
che, solo perché sentivano di avere buone intenzioni,
00:21
that they could not cause harm.
4
21601
1710
pensavano di non poter causare danni.
00:24
In 2017,
5
24688
1626
Nel 2017,
00:26
Rohingya refugees started to flee Myanmar into Bangladesh
6
26314
5047
i rifugiati Rohingya hanno iniziato a fuggire dalla Birmania in Bangladesh
00:31
due to a crackdown by the Myanmar military,
7
31361
2502
a causa della repressione dell’esercito birmano,
00:33
an act that the UN subsequently called of genocidal intent.
8
33863
5089
un atto che l’ONU ha poi definito genocida.
00:39
As they started to arrive into camps,
9
39619
2544
All’arrivo nei campi profughi,
00:42
they had to register for a range of services.
10
42163
2711
dovevano registrarsi per una serie di servizi.
00:45
One of this was to register
11
45500
1877
Uno di essi prevedeva la creazione
00:47
for a government-backed digital biometric identification card.
12
47419
4462
di una carta d’identità biometrica digitale voluta dal governo
00:51
They weren't actually given the option to opt out.
13
51923
3629
Non è stata loro concessa la possibilità di rifiutarsi.
00:56
In 2021, Human Rights Watch accused international humanitarian agencies
14
56595
5672
Nel 2021, Human Rights Watch ha accusato alcune agenzie umanitarie internazionali
01:02
of sharing improperly collected information about Rohingya refugees
15
62309
5422
di aver diffuso dati raccolti indebitamente sui rifugiati Rohingya
01:07
with the Myanmar government without appropriate consent.
16
67731
3503
al governo birmano, senza adeguato consenso.
01:11
The information shared didn't just contain biometrics.
17
71860
4087
I dati diffusi non erano soltanto biometrici:
01:15
It contained information about family makeup, relatives overseas,
18
75947
5005
contenevano informazioni riguardanti composizione familiare,
parenti oltreconfine e luogo di origine.
01:20
where they were originally from.
19
80952
1752
01:23
Sparking fears of retaliation by the Myanmar government,
20
83580
3754
Temendo ritorsioni da parte del governo birmano,
01:27
some went into hiding.
21
87375
2127
alcuni sono entrati in clandestinità.
01:29
Targeted identification of persecuted peoples
22
89544
3921
L’identificazione mirata dei popoli perseguitati
01:33
has long been a tactic of genocidal regimes.
23
93506
3504
è sempre stata una tattica dei regimi genocidi,
ma adesso i dati sono digitalizzati, e quindi l’accesso ad essi è più veloce,
01:37
But now that data is digitized, meaning it is faster to access,
24
97052
4546
01:41
quicker to scale and more readily accessible.
25
101640
3420
la loro espansione più rapida e la loro consultazione più immediata.
Si tratta di un fallimento su più fronti:
01:45
This was a failure on a multitude of fronts:
26
105101
2795
01:47
institutional, governance, moral.
27
107937
3587
istituzionale, governativo e morale.
01:52
I have spent 15 years of my career working in humanitarian aid.
28
112567
4254
Ho passato 15 anni della mia carriera lavorando nell’assistenza umanitaria,
01:56
From Rwanda to Afghanistan.
29
116821
2253
dal Rwanda all’Afghanistan.
Vi chiedete cosa sia l’assistenza umanitaria?
01:59
What is humanitarian aid, you might ask?
30
119074
2127
02:01
In its simplest terms, it's the provision of emergency care
31
121201
4045
In parole povere, si occupa di fornire assistenza emergenziale
02:05
to those that need it the most at desperate times.
32
125246
3295
a coloro che ne necessitano di più in momenti disperati:
02:08
Post-disaster, during a crisis. Food, water, shelter.
33
128583
4713
dopo una calamità, durante una crisi; cibo, acqua, riparo.
02:14
I have worked within very large humanitarian organizations,
34
134631
3545
Ho lavorato in organizzazioni umanitarie molto grandi,
02:18
whether that's leading multicountry global programs
35
138218
3712
guidando programmi globali sostenuti da molti Paesi
02:21
to designing drone innovations for disaster management
36
141971
3921
o progettando innovazioni per utlizzare i droni
nella gestione delle calamità in piccoli stati insulari.
02:25
across small island states.
37
145934
2294
02:29
I have sat with communities in the most fragile of contexts,
38
149312
6006
Sono stata accanto alle comunità nei contesti più fragili,
02:35
where conversations about the future are the first ones they've ever had.
39
155318
4129
in cui i discorsi sul futuro sono i primi che loro abbiano mai avuto.
Ho progettato strategie globali per preparare le organizzazioni umanitarie
02:40
And I have designed global strategies to prepare humanitarian organizations
40
160073
4713
02:44
for these same futures.
41
164786
1877
a quegli stessi scenari futuri.
02:47
And the one thing I can say
42
167163
1460
E ciò che posso dire
02:48
is that humanitarians, we have embraced digitalization
43
168665
3920
è che le organizzazioni hanno adottato la digitalizzazione
02:52
at an incredible speed over the last decade,
44
172627
3462
a una velocità incredibile durante l’ultimo decennio,
02:56
moving from tents and water cans,
45
176131
3211
passando dalle tende e dalle taniche d’acqua,
02:59
which we still use, by the way,
46
179384
1668
che utilizziamo ancora, comunque,
03:01
to AI, big data, drones, biometrics.
47
181094
4671
alla IA, ai big data, ai droni, alla biometria.
03:06
These might seem relevant, logical, needed,
48
186516
3879
Questi potrebbero sembrare rilevanti, logici, necessari,
03:10
even sexy to technology enthusiasts.
49
190437
3003
anche seducenti per gli appassionati di tecnologia;
03:13
But what it actually is, is the deployment of untested technologies
50
193440
6131
ma in realtà si tratta dell’utilizzo di tecnologie non testate
03:19
on vulnerable populations without appropriate consent.
51
199571
3962
su popolazioni vulnerabili senza il loro consenso.
03:23
And this gives me pause.
52
203533
2502
E questo mi fa riflettere.
Riflettere, perché le agonie che affrontiamo oggi
03:26
I pause because the agonies we are facing today
53
206035
3587
03:29
as a global humanity
54
209664
1668
come umanità globale
03:31
didn't just happen overnight.
55
211374
2419
non sono avvenute da un giorno all’altro.
03:33
They happened as a result of our shared history of colonialism
56
213835
5047
Sono il risultato del passato colonialista che condividiamo,
03:38
and humanitarian technology innovations are inherently colonial,
57
218923
4839
e le innovazioni tecnologiche umanitarie sono intrinsecamente colonialiste,
03:43
often designed for and in the good of groups of people
58
223803
5255
spesso progettate a beneficio di gruppi di persone
viste di per sé come estranee alla tecnologia,
03:49
seen as outside of technology themselves,
59
229100
3587
03:52
and often not legitimately recognized
60
232687
2878
e spesso non riconosciute legittimamente
03:55
as being able to provide for their own solutions.
61
235565
2502
come capaci di provvedere alle proprie soluzioni.
03:58
And so, as a humanitarian myself, I ask this question:
62
238067
4588
Quindi, essendo io stessa un’operatrice umanitaria, chiedo:
04:02
in our quest to do good in the world,
63
242655
3671
nella nostra missione per fare del bene nel mondo,
04:06
how can we ensure that we do not lock people into future harm,
64
246326
5589
come possiamo essere sicuri di non provocare alle persone altro male,
04:11
future indebtedness and future inequity as a result of these actions?
65
251956
5214
altri debiti, altre ingiustizie in futuro come risultato di queste azioni?
04:17
It is why I now study the ethics of humanitarian tech innovation.
66
257796
4087
Per questo, attualmente studio l’etica delle innovazioni tecnologiche umanitarie,
04:21
And this isn't just an intellectually curious pursuit.
67
261925
4629
e non solo per curiosità intellettuale:
04:26
It's a deeply personal one.
68
266596
1710
è una ricerca fortemente personale,
04:29
Driven by the belief that it is often people that look like me,
69
269307
4338
motivata dalla convinzione che, spesso, sono le persone che mi somigliano,
04:33
that come from the communities I come from,
70
273686
2211
delle stesse comunità da cui io provengo,
04:35
historically excluded and marginalized,
71
275897
3670
storicamente escluse e marginalizzate,
04:39
that are often spoken on behalf of
72
279567
3545
ad avere qualcuno che parli per loro e a vedere negata la propria voce
04:43
and denied voice in terms of the choices
73
283112
2503
riguardo alle possibili scelte per il loro futuro.
04:45
available to us for our future.
74
285615
2294
04:47
As I stand here on the shoulders of all those that have come before me
75
287909
4671
Io sono qui sulle spalle di tutti coloro che mi hanno preceduta,
04:52
and in obligation for all of those that will come after me
76
292622
3587
e per tutti coloro che verranno dopo di me
04:56
to say to you that good intentions alone do not prevent harm,
77
296251
6256
per dirvi che le buone intenzioni da sole non bastano a evitare il male,
05:02
and good intentions alone can cause harm.
78
302549
3336
e che le buone intenzioni, da sole, possono causarlo.
05:06
I'm often asked, what do I see ahead of us in this next 21st century?
79
306845
4337
Spesso mi chiedono cosa ci attende, secondo me, nel 21esimo secolo.
05:11
And if I had to sum it up:
80
311975
2043
La mia risposta in breve:
profonda incertezza, un pianeta che muore, sfiducia, dolore.
05:14
of deep uncertainty, a dying planet, distrust, pain.
81
314060
5547
05:20
And in times of great volatility, we as human beings, we yearn for a balm.
82
320692
5922
In tempi di grande instabilità, in quanto esseri umani, bramiamo sollievo,
05:26
And digital futures are exactly that, a balm.
83
326614
3045
e il futuro digitale è esattamente quello, un sollievo:
05:30
We look at it in all of its possibility
84
330535
2252
lo vediamo con tutte le sue possibilità,
05:32
as if it could soothe all that ails us, like a logical inevitability.
85
332787
4838
in grado di lenire tutti i nostri mali, come se fosse un’inevitabilità logica.
05:39
In recent years, reports have started to flag
86
339210
4046
In anni recenti, molte inchieste hanno iniziato a segnalare
05:43
the new types of risks that are emerging about technology innovations.
87
343298
5589
i nuovi rischi che stanno emergendo nel campo dell’innovazione tecnologica.
05:48
One of this is around how data collected on vulnerable individuals
88
348928
5297
uno di essi riguarda come i dati raccolti su individui vulnerabili
05:54
can actually be used against them as retaliation,
89
354267
4129
possano in realtà essere usati contro di loro come rappresaglia,
05:58
posing greater risk not just against them, but against their families,
90
358396
4129
esponendo a rischi maggiori non solo loro, ma anche le loro famiglie,
06:02
against their community.
91
362525
1502
le loro comunità.
06:05
We saw these risks become a truth with the Rohingya.
92
365486
3045
Abbiamo visto questi rischi realizzarsi nel caso dei Rohingya.
06:09
And very, very recently, in August 2021, as Afghanistan fell to the Taliban,
93
369991
5297
Pochissimo tempo fa, nell’agosto 2021, quando l’Afghanistan è caduto ai talebani,
06:15
it also came to light that biometric data collected on Afghans
94
375288
5130
si è anche scoperto che i dati biometrici raccolti sugli afghani
06:20
by the US military and the Afghan government
95
380460
2461
dall’esercito americano e dal governo afghano,
06:22
and used by a variety of actors
96
382962
2670
utilizzati da vari agenti,
06:25
were now in the hands of the Taliban.
97
385673
2211
erano entrati in possesso dei talebani.
06:29
Journalists' houses were searched.
98
389135
2085
Le case dei giornalisti sono state perquisite.
06:32
Afghans desperately raced against time to erase their digital history online.
99
392388
5089
Gli afghani, in una disperata lotta contro il tempo,
hanno tentato di cancellare la loro storia digitale online.
06:38
Technologies of empowerment then become technologies of disempowerment.
100
398603
5881
Tecnologie di emancipazione divengono tecnologie di sottomissione.
Questo perché queste tecnologie
06:45
It is because these technologies
101
405026
1793
06:46
are designed on a certain set of societal assumptions,
102
406819
5005
sono progettate su determinati presupposti sociali,
06:51
embedded in market and then filtered through capitalist considerations.
103
411824
5047
integrate nel mercato e poi filtrate attraverso schemi capitalisti.
06:56
But technologies created in one context and then parachuted into another
104
416871
5339
Ma tecnologie create in un contesto e paracadutate in un contesto diverso
07:02
will always fail
105
422251
1335
falliranno sempre,
07:03
because it is based on assumptions of how people lead their lives.
106
423628
4880
perché basate su supposizioni su come le persone vivono.
07:08
And whilst here, you and I may be relatively comfortable
107
428549
3921
E se io e voi, qui, potremmo essere relativamente tranquilli
07:12
providing a fingertip scan to perhaps go to the movies,
108
432512
4546
fornendo le nostre impronte digitali, magari, per poter andare al cinema,
non possiamo traslare ciò al livello di sicurezza che può provare
07:17
we cannot extrapolate that out to the level of safety one would feel
109
437100
5630
07:22
while standing in line,
110
442730
1585
una persona che sta in fila,
07:24
having to give up that little bit of data about themselves
111
444315
3295
costretta a cedere quei pochi dati personali
07:27
in order to access food rations.
112
447610
2586
per poter ricevere razioni di cibo.
07:31
Humanitarians assume that technology will liberate humanity,
113
451739
5256
Gli operatori umanitari ritengono che la tecnologia libererà l’umanità,
07:37
but without any due consideration of issues of power, exploitation and harm
114
457954
6882
ma se non si dà la dovuta considerazione alle possibili questioni di potere,
sfruttamento e danneggiamento, ciò non può avvenire.
07:44
that can occur for this to happen.
115
464877
2002
07:46
Instead, we rush to solutionizing,
116
466921
3128
E invece
cerchiamo freneticamente soluzioni, attuando una forma di pensiero magico
07:50
a form of magical thinking
117
470091
1668
07:51
that assumes that just by deploying shiny solutions,
118
471801
4546
secondo cui basta sviluppare soluzioni scintillanti
07:56
we can solve the problem in front of us
119
476389
2002
per risolvere il problema in questione
07:58
without any real analysis of underlying realities.
120
478433
3795
senza alcuna vera analisi delle sue realtà di fondo.
08:03
These are tools at the end of the day,
121
483312
2795
Si tratta di strumenti, alla fine.
08:06
and tools, like a chef's knife,
122
486107
2502
Strumenti, come il coltello di uno chef:
08:08
in the hands of some, the creator of a beautiful meal,
123
488609
4880
nelle mani di alcuni crea ottimi piatti,
08:13
and in the hands of others, devastation.
124
493489
3003
mentre nelle mani di altri causa devastazione.
08:17
So how do we ensure that we do not design
125
497243
3712
Come facciamo ad essere sicuri di non includere
08:20
the inequities of our past into our digital futures?
126
500997
5047
le disuguaglianze del nostro passato nel futuro digitale?
E su una cosa voglio essere chiara:
08:26
And I want to be clear about one thing.
127
506085
1877
io non sono contro la tecnologia. Sono contro la tecnologia scema.
08:28
I'm not anti-tech. I am anti-dumb tech.
128
508004
3587
08:31
(Laughter)
129
511966
1543
(Risate)
08:33
(Applause)
130
513551
1627
(Applausi)
Il pensiero limitato di pochi
08:38
The limited imaginings of the few
131
518097
2336
08:40
should not colonize the radical re-imaginings of the many.
132
520475
4462
non dovrebbe colonizzare la rielaborazione radicale di molti.
08:45
So how then do we ensure that we design an ethical baseline,
133
525813
4588
Allora, come ci accertiamo di stabilire una linea di base etica,
08:50
so that the liberation that this promises is not just for a privileged few,
134
530401
6131
che faccia in modo che la liberazione che essa promette non esista soltanto
per pochi privilegiati, ma per tutti noi?
08:56
but for all of us?
135
536532
1544
08:59
There are a few examples that can point to a way forward.
136
539202
3837
Alcuni esempi possono indicarci la via da seguire:
amo il lavoro svolto da Indigenous AI,
09:03
I love the work of Indigenous AI
137
543081
3878
che invece di ispirarsi a valori e filosofie occidentali,
09:07
that instead of drawing from Western values and philosophies,
138
547001
3003
09:10
it draws from Indigenous protocols and values
139
550046
2544
si ispira ai protocolli e ai valori indigeni
09:12
to embed into AI code.
140
552632
1960
integrandoli nei codici dell’IA.
Un’altra realtà che adoro è Nia Tero,
09:15
I also really love the work of Nia Tero,
141
555093
2961
09:18
an Indigenous co-led organization that works with Indigenous communities
142
558096
4004
un’organizzazione indigena co-diretta che collabora con le comunità indigene,
09:22
to map their own well-being and territories
143
562141
2878
che possono mappare il proprio benessere e i propri territori,
09:25
as opposed to other people coming in to do it on their behalf.
144
565061
3628
invece di avere altre persone che lo fanno al posto loro.
09:29
I've learned a lot from the Satellite Sentinel Project back in 2010,
145
569482
4671
Ho imparato molto dal Satellite Sentinel Project del 2010,
che è un esempio leggermente diverso.
09:34
which is a slightly different example.
146
574153
2127
09:36
The project started essentially to map atrocities
147
576280
5840
Essenzialmente, il progetto è stato avviato per mappare le atrocità
09:42
through remote sensing technologies, satellites,
148
582120
3044
servendosi delle tecnologie di telerilevamento, di satelliti,
09:45
in order to be able to predict and potentially prevent them.
149
585206
3587
per riuscire a prevederle e, potenzialmente, a prevenirle.
09:48
Now the project wound down after a few years
150
588835
3295
Il progetto si è interrotto dopo alcuni anni
09:52
for a variety of reasons,
151
592171
1919
per una serie di ragioni,
09:54
one of which being that it couldn’t actually generate action.
152
594132
3461
tra cui il fatto di non essere realmente in grado di entrare in azione.
09:57
But the second, and probably the most important,
153
597635
3837
Ma la seconda ragione, probabilmente la più importante,
10:01
was that the team realized they were operating without an ethical net.
154
601514
5797
fu che il team capì di non operare secondo una rete etica.
10:07
And without ethical guidelines in place,
155
607353
3086
E con la mancanza di linee guida etiche
10:10
it was a very wide open line of questioning
156
610439
3754
si aprì un’ampia serie di interrogativi
10:14
about whether what they were doing was helpful or harmful.
157
614193
4088
circa l’utilità o la dannosità di ciò che stavano facendo.
10:19
And so they decided to wind down before creating harm.
158
619282
3753
Così decisero di interromperlo prima di causare danni.
10:24
In the absence of legally binding ethical frameworks
159
624620
5172
In assenza di riferimenti etici legalmente vincolanti
10:29
to guide our work,
160
629834
2502
a guidare il nostro operato,
10:32
I have been working on a range of ethical principles
161
632378
2878
ho lavorato su una serie di principi etici
10:35
to help inform humanitarian tech innovation,
162
635298
2544
per un’innovazione tecnologica umanitaria informata,
10:37
and I'd like to put forward a few of these here for you today.
163
637884
2919
e oggi vorrei presentarvene alcuni.
10:41
One: Ask.
164
641345
1752
Uno: Chiedere.
10:43
Which groups of humans will be harmed by this and when?
165
643890
4212
Quale gruppo umano sarà danneggiato da ciò, e quando?
10:48
Assess: Who does this solution actually benefit?
166
648978
3420
Valutare: chi trae realmente beneficio da questa soluzione?
10:53
Interrogate: Was appropriate consent obtained from the end users?
167
653733
5881
Domandare: i destinatari finali hanno fornito un appropriato consenso?
11:00
Consider: What must we gracefully exit out of
168
660907
4504
Considerare: da cosa dobbiamo discostarci per realizzare adeguatamente
11:05
to be fit for these futures?
169
665411
1627
quegli scenari futuri?
E immaginare: quali miglioramenti potrebbero restare preclusi
11:07
And imagine: What future good might we foreclose
170
667038
5797
11:12
if we implemented this action today?
171
672877
2961
se oggi attuassimo questa azione?
11:16
We are accountable for the futures that we create.
172
676756
3670
Siamo noi i responsabili del futuro che creiamo.
11:20
We cannot absolve ourselves of the responsibilities
173
680468
3587
Non possiamo autoassolverci dalle responsabilità
11:24
and accountabilities of our actions
174
684096
2670
e dalle conseguenze delle nostre azioni
11:26
if our actions actually cause harm
175
686807
2920
quando esse danneggiano coloro che aspiravamo a proteggere e aiutare.
11:29
to those that we purport to protect and serve.
176
689769
2878
11:32
Another world is absolutely, radically possible.
177
692647
4421
Un altro mondo è assolutamente, radicalmente, possibile.
11:37
Thank you.
178
697777
1293
Grazie.
(Applausi)
11:39
(Applause)
179
699070
2294
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7