5 Ethical Principles for Digitizing Humanitarian Aid | Aarathi Krishnan | TED

35,320 views ・ 2022-07-12

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Eliana Santos Revisora: Nadia Tira
00:04
Sociologist Zeynep Tufekci once said
0
4334
3795
A socióloga Zeynep Tufekci uma vez disse
00:08
that history is full of massive examples
1
8171
4296
que a História está repleta de imensos exemplos
00:12
of harm caused by people with great power
2
12509
4254
de danos causados por pessoas com muito poder
00:16
who felt that just because they felt themselves to have good intentions,
3
16805
4755
que achavam que por terem boas intenções,
00:21
that they could not cause harm.
4
21601
1710
não causariam danos.
00:24
In 2017,
5
24688
1626
Em 2017,
00:26
Rohingya refugees started to flee Myanmar into Bangladesh
6
26314
5047
refugiados Roinga começaram a fugir do Mianmar para o Bangladesh
00:31
due to a crackdown by the Myanmar military,
7
31361
2502
devido a uma repressão do exército do Mianmar,
00:33
an act that the UN subsequently called of genocidal intent.
8
33863
5089
um ato que as Nações Unidas depois chamaram de intenção genocida.
00:39
As they started to arrive into camps,
9
39619
2544
À medida que começaram a chegar aos acampamentos,
00:42
they had to register for a range of services.
10
42163
2711
tiveram de se registar numa variedade de serviços.
00:45
One of this was to register
11
45500
1877
Um deles era registarem-se
00:47
for a government-backed digital biometric identification card.
12
47419
4462
para um cartão de identificação biométrico digital apoiado pelo governo.
00:51
They weren't actually given the option to opt out.
13
51923
3629
Não lhes era dada a opção de recusar.
00:56
In 2021, Human Rights Watch accused international humanitarian agencies
14
56595
5672
Em 2021, a Human Rights Watch acusou agências humanitárias internacionais
01:02
of sharing improperly collected information about Rohingya refugees
15
62309
5422
de partilharem informações recolhidas de modo impróprio sobre refugiados Roinga
01:07
with the Myanmar government without appropriate consent.
16
67731
3503
com o governo de Mianmar sem consentimento apropriado.
01:11
The information shared didn't just contain biometrics.
17
71860
4087
As informações partilhadas não continham apenas dados biométricos.
01:15
It contained information about family makeup, relatives overseas,
18
75947
5005
Continham informações sobre a composição das famílias, parentes no estrangeiro,
01:20
where they were originally from.
19
80952
1752
de onde eram originalmente.
01:23
Sparking fears of retaliation by the Myanmar government,
20
83580
3754
Com medo de retaliações por parte do governo de Mianmar,
01:27
some went into hiding.
21
87375
2127
alguns esconderam-se.
01:29
Targeted identification of persecuted peoples
22
89544
3921
A identificação específica de pessoas perseguidas
01:33
has long been a tactic of genocidal regimes.
23
93506
3504
há muito tempo que é uma tática de regimes genocidas.
01:37
But now that data is digitized, meaning it is faster to access,
24
97052
4546
Agora que os dados estão digitalizados, significa que são mais fáceis de aceder,
01:41
quicker to scale and more readily accessible.
25
101640
3420
mais rápidos de escalar e mais prontamente acessíveis.
01:45
This was a failure on a multitude of fronts:
26
105101
2795
Isto foi uma falha numa imensidão de frentes:
01:47
institutional, governance, moral.
27
107937
3587
institucional, de governação, moral.
01:52
I have spent 15 years of my career working in humanitarian aid.
28
112567
4254
Passei 15 anos da minha carreira a trabalhar em ajuda humanitária.
01:56
From Rwanda to Afghanistan.
29
116821
2253
Desde o Ruanda até ao Afeganistão.
01:59
What is humanitarian aid, you might ask?
30
119074
2127
O que é a ajuda humanitária, perguntam vocês?
02:01
In its simplest terms, it's the provision of emergency care
31
121201
4045
Nos termos mais simples, é o fornecimento de cuidados de emergência
02:05
to those that need it the most at desperate times.
32
125246
3295
àqueles que precisam mais deles em momentos desesperados.
02:08
Post-disaster, during a crisis. Food, water, shelter.
33
128583
4713
Após um desastre, durante uma crise. Comida, água, abrigo.
02:14
I have worked within very large humanitarian organizations,
34
134631
3545
Já trabalhei em organizações humanitárias muito grandes,
02:18
whether that's leading multicountry global programs
35
138218
3712
quer seja a liderar programas globais de vários países
02:21
to designing drone innovations for disaster management
36
141971
3921
ou a projetar inovações de drones para gestão de desastres
02:25
across small island states.
37
145934
2294
em pequenos Estados insulares.
02:29
I have sat with communities in the most fragile of contexts,
38
149312
6006
Já me sentei com comunidades nos contextos mais frágeis,
02:35
where conversations about the future are the first ones they've ever had.
39
155318
4129
onde conversas sobre o futuro foram as primeiras que eles já tiveram.
02:40
And I have designed global strategies to prepare humanitarian organizations
40
160073
4713
E já elaborei estratégias globais para preparar organizações humanitárias
02:44
for these same futures.
41
164786
1877
para estes mesmos futuros.
02:47
And the one thing I can say
42
167163
1460
E algo que posso dizer
02:48
is that humanitarians, we have embraced digitalization
43
168665
3920
é que nós, os humanitários, aceitamos a digitalização
02:52
at an incredible speed over the last decade,
44
172627
3462
a uma velocidade incrível na última década,
02:56
moving from tents and water cans,
45
176131
3211
passando de tendas e latas de água,
02:59
which we still use, by the way,
46
179384
1668
que ainda usamos, já agora,
03:01
to AI, big data, drones, biometrics.
47
181094
4671
para IA, grandes volumes de dados, drones, dados biométricos.
03:06
These might seem relevant, logical, needed,
48
186516
3879
Estes podem parecer relevantes, lógicos, necessários,
03:10
even sexy to technology enthusiasts.
49
190437
3003
até atraentes para os entusiastas da tecnologia.
03:13
But what it actually is, is the deployment of untested technologies
50
193440
6131
Mas o que significa na verdade é a implementação de tecnologias não testadas
03:19
on vulnerable populations without appropriate consent.
51
199571
3962
em populações vulneráveis sem consentimento adequado.
03:23
And this gives me pause.
52
203533
2502
E isto leva-me a refletir.
03:26
I pause because the agonies we are facing today
53
206035
3587
Reflito porque as agonias que enfrentamos hoje em dia
03:29
as a global humanity
54
209664
1668
como Humanidade global
03:31
didn't just happen overnight.
55
211374
2419
não aconteceram de um dia para o outro.
03:33
They happened as a result of our shared history of colonialism
56
213835
5047
Aconteceram como resultado da nossa história partilhada de colonialismo
03:38
and humanitarian technology innovations are inherently colonial,
57
218923
4839
e as inovações tecnológicas humanitárias são inerentemente coloniais,
03:43
often designed for and in the good of groups of people
58
223803
5255
muitas vezes projetadas para e em benefício de grupos de pessoas
03:49
seen as outside of technology themselves,
59
229100
3587
vistas como estando por fora da tecnologia,
03:52
and often not legitimately recognized
60
232687
2878
e que muitas vezes não são legitimamente reconhecidas
03:55
as being able to provide for their own solutions.
61
235565
2502
como conseguindo conceber as suas próprias soluções.
03:58
And so, as a humanitarian myself, I ask this question:
62
238067
4588
Por isso, como humanitária eu própria, faço esta pergunta:
04:02
in our quest to do good in the world,
63
242655
3671
na nossa missão de fazermos o bem no mundo,
04:06
how can we ensure that we do not lock people into future harm,
64
246326
5589
como podemos garantir que não prendemos as pessoas em danos futuros,
04:11
future indebtedness and future inequity as a result of these actions?
65
251956
5214
endividamentos futuros e iniquidade futura como resultado destas ações?
04:17
It is why I now study the ethics of humanitarian tech innovation.
66
257796
4087
É por isso que agora estudo a ética da inovação tecnológica humanitária.
04:21
And this isn't just an intellectually curious pursuit.
67
261925
4629
E não é apenas por curiosidade intelectual.
04:26
It's a deeply personal one.
68
266596
1710
É algo profundamente pessoal.
04:29
Driven by the belief that it is often people that look like me,
69
269307
4338
Guiada pela crença que, muitas vezes, são pessoas parecidas comigo,
04:33
that come from the communities I come from,
70
273686
2211
que vêm das comunidades de onde eu vim,
04:35
historically excluded and marginalized,
71
275897
3670
historicamente excluídas e marginalizadas,
04:39
that are often spoken on behalf of
72
279567
3545
onde outros falam em nome delas
04:43
and denied voice in terms of the choices
73
283112
2503
e lhes negam ter uma opinião em termos das escolhas
04:45
available to us for our future.
74
285615
2294
disponíveis para elas para o seu futuro.
04:47
As I stand here on the shoulders of all those that have come before me
75
287909
4671
Estou aqui “nos ombros” daqueles que vieram antes de mim
04:52
and in obligation for all of those that will come after me
76
292622
3587
e na obrigação por todos aqueles que virão depois de mim
04:56
to say to you that good intentions alone do not prevent harm,
77
296251
6256
para vos dizer que apenas boas intenções não previnem danos,
05:02
and good intentions alone can cause harm.
78
302549
3336
e apenas boas intenções podem causar danos.
05:06
I'm often asked, what do I see ahead of us in this next 21st century?
79
306845
4337
Muitas vezes perguntam-me o que vejo no futuro neste século XXI?
05:11
And if I had to sum it up:
80
311975
2043
E se tivesse de resumir:
05:14
of deep uncertainty, a dying planet, distrust, pain.
81
314060
5547
incertezas profundas, um planeta a morrer, desconfiança, dor.
05:20
And in times of great volatility, we as human beings, we yearn for a balm.
82
320692
5922
E em tempos de grande volatilidade, nós como humanos, ansiamos por consolação.
05:26
And digital futures are exactly that, a balm.
83
326614
3045
E os futuros digitais são exatamente isso, uma consolação.
05:30
We look at it in all of its possibility
84
330535
2252
Olhamos para isso com toda a sua possibilidade
05:32
as if it could soothe all that ails us, like a logical inevitability.
85
332787
4838
como se pudesse acalmar tudo o que nos aflige, como uma inevitabilidade lógica.
05:39
In recent years, reports have started to flag
86
339210
4046
Nos últimos anos, alguns relatórios começaram a sinalizar
05:43
the new types of risks that are emerging about technology innovations.
87
343298
5589
os novos tipos de riscos que estão a surgir com as inovações tecnológicas.
05:48
One of this is around how data collected on vulnerable individuals
88
348928
5297
Um destes riscos é como os dados recolhidos sobre indivíduos vulneráveis
05:54
can actually be used against them as retaliation,
89
354267
4129
podem ser utilizados contra eles como retaliação,
05:58
posing greater risk not just against them, but against their families,
90
358396
4129
representando um risco maior não só para eles como para as suas famílias,
06:02
against their community.
91
362525
1502
para as suas comunidades.
06:05
We saw these risks become a truth with the Rohingya.
92
365486
3045
Vimos estes riscos tornarem-se verdadeiros com os Roinga.
06:09
And very, very recently, in August 2021, as Afghanistan fell to the Taliban,
93
369991
5297
Recentemente, em agosto de 2021, quando o Afeganistão foi tomado pelos Talibãs,
06:15
it also came to light that biometric data collected on Afghans
94
375288
5130
também foi revelado que dados biométricos recolhidos sobre afegãos
06:20
by the US military and the Afghan government
95
380460
2461
pelo exército dos EUA e pelo governo afegão
06:22
and used by a variety of actors
96
382962
2670
e utilizados por uma variedade de agentes
06:25
were now in the hands of the Taliban.
97
385673
2211
estavam agora nas mãos dos Talibãs.
06:29
Journalists' houses were searched.
98
389135
2085
Foram revistadas casas de jornalistas.
06:32
Afghans desperately raced against time to erase their digital history online.
99
392388
5089
Os afegãos corriam contra o tempo para apagar o seu histórico digital online.
06:38
Technologies of empowerment then become technologies of disempowerment.
100
398603
5881
As tecnologias de capacitação tornavam-se em tecnologias de exclusão.
Isto acontece porque estas tecnologias
06:45
It is because these technologies
101
405026
1793
06:46
are designed on a certain set of societal assumptions,
102
406819
5005
são criadas com base num certo conjunto de premissas sociais,
06:51
embedded in market and then filtered through capitalist considerations.
103
411824
5047
integradas no mercado e depois filtradas através de considerações capitalistas.
06:56
But technologies created in one context and then parachuted into another
104
416871
5339
Mas as tecnologias criadas num contexto e depois testadas noutro
07:02
will always fail
105
422251
1335
vão sempre falhar
07:03
because it is based on assumptions of how people lead their lives.
106
423628
4880
porque estão baseadas em premissas de como as pessoas vivem as suas vidas.
07:08
And whilst here, you and I may be relatively comfortable
107
428549
3921
E aqui, eu e vocês podemos estar relativamente confortáveis
07:12
providing a fingertip scan to perhaps go to the movies,
108
432512
4546
em fazer uma leitura dos dedos para talvez ir ao cinema,
07:17
we cannot extrapolate that out to the level of safety one would feel
109
437100
5630
mas isso não se pode extrapolar aos níveis de segurança que sentiríamos
07:22
while standing in line,
110
442730
1585
ao estar numa fila,
07:24
having to give up that little bit of data about themselves
111
444315
3295
e ter de dar esse pedaço de dados sobre nós
07:27
in order to access food rations.
112
447610
2586
para termos acesso a rações alimentares.
07:31
Humanitarians assume that technology will liberate humanity,
113
451739
5256
Os humanitários assumem que a tecnologia vai libertar a Humanidade,
07:37
but without any due consideration of issues of power, exploitation and harm
114
457954
6882
sem qualquer devida consideração sobre questões de poder, exploração, danos
07:44
that can occur for this to happen.
115
464877
2002
que podem ocorrer para que isto aconteça.
07:46
Instead, we rush to solutionizing,
116
466921
3128
Ao invés, apressamo-nos em arranjar soluções,
07:50
a form of magical thinking
117
470091
1668
uma forma de pensamento mágico,
07:51
that assumes that just by deploying shiny solutions,
118
471801
4546
que assume que apenas por implementarmos soluções cintilantes,
07:56
we can solve the problem in front of us
119
476389
2002
podemos resolver o problema à nossa frente
07:58
without any real analysis of underlying realities.
120
478433
3795
sem qualquer análise verdadeira das realidades subjacentes.
08:03
These are tools at the end of the day,
121
483312
2795
No fim do dia, estas são ferramentas,
08:06
and tools, like a chef's knife,
122
486107
2502
e as ferramentas, como a faca de um chef,
08:08
in the hands of some, the creator of a beautiful meal,
123
488609
4880
nas mãos de alguns, criam belas refeições,
08:13
and in the hands of others, devastation.
124
493489
3003
e nas mãos de outros, criam devastação.
08:17
So how do we ensure that we do not design
125
497243
3712
Então como garantimos que não projetamos
08:20
the inequities of our past into our digital futures?
126
500997
5047
as iniquidades do nosso passado nos nossos futuros digitais?
08:26
And I want to be clear about one thing.
127
506085
1877
E quero ser clara em relação a algo.
Não sou anti-tecnologias. Sou anti-tecnologias parvas.
08:28
I'm not anti-tech. I am anti-dumb tech.
128
508004
3587
08:31
(Laughter)
129
511966
1543
(Risos)
08:33
(Applause)
130
513551
1627
(Aplausos)
08:38
The limited imaginings of the few
131
518097
2336
As imaginações limitadas de alguns
08:40
should not colonize the radical re-imaginings of the many.
132
520475
4462
não devem colonizar as reimaginações radicais de muitos.
08:45
So how then do we ensure that we design an ethical baseline,
133
525813
4588
Então, como é que garantimos que criamos uma base ética,
08:50
so that the liberation that this promises is not just for a privileged few,
134
530401
6131
para que a libertação que isto promete não seja apenas para alguns privilegiados,
08:56
but for all of us?
135
536532
1544
mas para todos nós?
08:59
There are a few examples that can point to a way forward.
136
539202
3837
Existem alguns exemplos que podem apontar para o caminho certo.
09:03
I love the work of Indigenous AI
137
543081
3878
Adoro o trabalho de IA indígena
09:07
that instead of drawing from Western values and philosophies,
138
547001
3003
que em vez de se basear em valores e filosofias ocidentais,
09:10
it draws from Indigenous protocols and values
139
550046
2544
baseia-se em protocolos e valores indígenas
09:12
to embed into AI code.
140
552632
1960
e implementa-os no código da IA.
09:15
I also really love the work of Nia Tero,
141
555093
2961
Também adoro o trabalho de Nia Tero,
09:18
an Indigenous co-led organization that works with Indigenous communities
142
558096
4004
uma organização co-liderada por indígenas que trabalha com comunidades indígenas
09:22
to map their own well-being and territories
143
562141
2878
para traçar o seu próprio bem-estar e territórios
09:25
as opposed to other people coming in to do it on their behalf.
144
565061
3628
ao contrário de outras pessoas virem fazê-lo em seu nome.
09:29
I've learned a lot from the Satellite Sentinel Project back in 2010,
145
569482
4671
Aprendi muito com o Satellite Sentinel Project em 2010,
09:34
which is a slightly different example.
146
574153
2127
que é um exemplo ligeiramente diferente.
09:36
The project started essentially to map atrocities
147
576280
5840
Essencialmente, o projeto começou para traçar atrocidades
09:42
through remote sensing technologies, satellites,
148
582120
3044
através de tecnologias e satélites com teledeteção,
09:45
in order to be able to predict and potentially prevent them.
149
585206
3587
de modo a poder prever e potencialmente evitá-las.
09:48
Now the project wound down after a few years
150
588835
3295
O projeto terminou depois de alguns anos
09:52
for a variety of reasons,
151
592171
1919
por uma variedade de razões,
09:54
one of which being that it couldn’t actually generate action.
152
594132
3461
uma delas sendo o facto de não conseguir gerar ação de verdade.
09:57
But the second, and probably the most important,
153
597635
3837
Mas a segunda, e talvez a mais importante,
10:01
was that the team realized they were operating without an ethical net.
154
601514
5797
foi que a equipa percebeu que estava a funcionar sem uma rede ética.
10:07
And without ethical guidelines in place,
155
607353
3086
E sem diretrizes éticas existentes,
10:10
it was a very wide open line of questioning
156
610439
3754
era uma linha aberta muito ampla para se questionarem
10:14
about whether what they were doing was helpful or harmful.
157
614193
4088
sobre se o que estavam a fazer era útil ou prejudicial.
10:19
And so they decided to wind down before creating harm.
158
619282
3753
Por isso, decidiram terminar antes de causarem danos.
10:24
In the absence of legally binding ethical frameworks
159
624620
5172
Na ausência de princípios éticos juridicamente vinculativos
10:29
to guide our work,
160
629834
2502
para guiar o nosso trabalho,
10:32
I have been working on a range of ethical principles
161
632378
2878
tenho estado a trabalhar numa série de princípios éticos
10:35
to help inform humanitarian tech innovation,
162
635298
2544
para informar a inovação tecnológica humanitária,
10:37
and I'd like to put forward a few of these here for you today.
163
637884
2919
e gostaria de apresentar alguns deles hoje aqui para vocês.
10:41
One: Ask.
164
641345
1752
Um: Perguntar.
10:43
Which groups of humans will be harmed by this and when?
165
643890
4212
Que grupos de humanos serão prejudicados por isto e quando?
10:48
Assess: Who does this solution actually benefit?
166
648978
3420
Avaliar: Quem é que esta solução beneficia?
10:53
Interrogate: Was appropriate consent obtained from the end users?
167
653733
5881
Interrogar: Foi obtido consentimento adequado dos utilizadores finais?
11:00
Consider: What must we gracefully exit out of
168
660907
4504
Considerar: A que devemos renunciar para estarmos aptos
11:05
to be fit for these futures?
169
665411
1627
para estes futuros?
11:07
And imagine: What future good might we foreclose
170
667038
5797
E imaginar: Que bem futuro podemos impedir
11:12
if we implemented this action today?
171
672877
2961
se implementássemos esta ação hoje?
11:16
We are accountable for the futures that we create.
172
676756
3670
Somos responsáveis pelos futuros que criamos.
11:20
We cannot absolve ourselves of the responsibilities
173
680468
3587
Não nos podemos absolver das responsabilidades
11:24
and accountabilities of our actions
174
684096
2670
e prestações de contas das nossas ações
11:26
if our actions actually cause harm
175
686807
2920
se as nossas ações causarem danos
11:29
to those that we purport to protect and serve.
176
689769
2878
àqueles que alegamos proteger e servir.
11:32
Another world is absolutely, radically possible.
177
692647
4421
É absoluta e radicalmente possível existir outro mundo.
11:37
Thank you.
178
697777
1293
Obrigada.
11:39
(Applause)
179
699070
2294
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7