5 Ethical Principles for Digitizing Humanitarian Aid | Aarathi Krishnan | TED

35,320 views ・ 2022-07-12

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Almudena Torrecilla Revisor: Sebastian Betti
00:04
Sociologist Zeynep Tufekci once said
0
4334
3795
El sociólogo Zeynep Tufekci dijo en una ocasión
00:08
that history is full of massive examples
1
8171
4296
que la historia estaba llena de grandes ejemplos
00:12
of harm caused by people with great power
2
12509
4254
de daños causados por gente poderosa
00:16
who felt that just because they felt themselves to have good intentions,
3
16805
4755
que pensaba que solo porque creían tener buenas intenciones,
00:21
that they could not cause harm.
4
21601
1710
no podían causar daño alguno.
00:24
In 2017,
5
24688
1626
En 2017,
00:26
Rohingya refugees started to flee Myanmar into Bangladesh
6
26314
5047
los refugiados rohingya comenzaron a huir de Myanmar hacia Bangladesh
00:31
due to a crackdown by the Myanmar military,
7
31361
2502
debido a la represión por parte del ejército de Myanmar,
00:33
an act that the UN subsequently called of genocidal intent.
8
33863
5089
un acto que la ONU calificó posteriormente de intención genocida.
00:39
As they started to arrive into camps,
9
39619
2544
Según llegaban a los campos de refugiados,
00:42
they had to register for a range of services.
10
42163
2711
tenían que registrarse para una serie de servicios,
00:45
One of this was to register
11
45500
1877
entre ellos la inscripción
00:47
for a government-backed digital biometric identification card.
12
47419
4462
a una tarjeta de identificación biométrica avalada por el gobierno.
00:51
They weren't actually given the option to opt out.
13
51923
3629
En realidad no tenían opción de negarse.
00:56
In 2021, Human Rights Watch accused international humanitarian agencies
14
56595
5672
En 2021, Human Rights Watch acusó a las agencias humanitarias internacionales
01:02
of sharing improperly collected information about Rohingya refugees
15
62309
5422
de compartir información recogida de forma ilícita sobre los refugiados rohingya
01:07
with the Myanmar government without appropriate consent.
16
67731
3503
con el gobierno de Myanmar y sin el debido consentimiento.
01:11
The information shared didn't just contain biometrics.
17
71860
4087
La información compartida no solo contenía datos biométricos,
01:15
It contained information about family makeup, relatives overseas,
18
75947
5005
también acerca de la composición familiar, los parientes en el extranjero
01:20
where they were originally from.
19
80952
1752
y su lugar de origen.
01:23
Sparking fears of retaliation by the Myanmar government,
20
83580
3754
Ante el temor de represalias por parte del gobierno de Myanmar,
01:27
some went into hiding.
21
87375
2127
algunos se escondieron.
01:29
Targeted identification of persecuted peoples
22
89544
3921
La identificación selectiva de los pueblos perseguidos
01:33
has long been a tactic of genocidal regimes.
23
93506
3504
ha sido durante mucho tiempo una táctica de los regímenes genocidas.
01:37
But now that data is digitized, meaning it is faster to access,
24
97052
4546
Pero ahora los datos están digitalizados, por lo que son de fácil acceso,
01:41
quicker to scale and more readily accessible.
25
101640
3420
se escalan más rápidamente, y su disponibilidad es mayor.
01:45
This was a failure on a multitude of fronts:
26
105101
2795
Así que todo esto fue un fracaso en multitud de frentes:
01:47
institutional, governance, moral.
27
107937
3587
institucional, gubernamental y moral.
01:52
I have spent 15 years of my career working in humanitarian aid.
28
112567
4254
Llevo 15 años trabajando en el sector de la ayuda humanitaria.
01:56
From Rwanda to Afghanistan.
29
116821
2253
De Ruanda a Afganistán.
01:59
What is humanitarian aid, you might ask?
30
119074
2127
¿Qué es la ayuda humanitaria?, quizás se pregunten.
02:01
In its simplest terms, it's the provision of emergency care
31
121201
4045
Dicho simplemente, consiste en proporcionar cuidados de emergencia
02:05
to those that need it the most at desperate times.
32
125246
3295
a quienes más lo necesitan en momentos críticos,
02:08
Post-disaster, during a crisis. Food, water, shelter.
33
128583
4713
tras una catástrofe o durante una crisis, donde faltará comida, agua y refugio.
02:14
I have worked within very large humanitarian organizations,
34
134631
3545
He trabajado en organizaciones humanitarias muy grandes,
02:18
whether that's leading multicountry global programs
35
138218
3712
ya sea liderando programas multinacionales a nivel mundial
02:21
to designing drone innovations for disaster management
36
141971
3921
o diseñando mejoras en los drones
para la gestión de desastres en pequeños estados insulares.
02:25
across small island states.
37
145934
2294
02:29
I have sat with communities in the most fragile of contexts,
38
149312
6006
Me he sentado con comunidades en los contextos más frágiles,
02:35
where conversations about the future are the first ones they've ever had.
39
155318
4129
donde nunca antes habían hablado sobre su futuro.
02:40
And I have designed global strategies to prepare humanitarian organizations
40
160073
4713
Y he diseñado estrategias mundiales para que las organizaciones humanitarias
02:44
for these same futures.
41
164786
1877
se preparen para tales escenarios futuros.
02:47
And the one thing I can say
42
167163
1460
Y lo único que puedo decir
02:48
is that humanitarians, we have embraced digitalization
43
168665
3920
es que el personal humanitario ha ido adoptando la digitalización
02:52
at an incredible speed over the last decade,
44
172627
3462
a una velocidad increíble durante la última década,
02:56
moving from tents and water cans,
45
176131
3211
pasando de las tiendas de campaña y las cantimploras,
02:59
which we still use, by the way,
46
179384
1668
que todavía usamos, por cierto,
03:01
to AI, big data, drones, biometrics.
47
181094
4671
a la AI, los macrodatos, los drones y la biometría.
03:06
These might seem relevant, logical, needed,
48
186516
3879
Todo esto puede parecer relevante, lógico, necesario
03:10
even sexy to technology enthusiasts.
49
190437
3003
e incluso atractivo para los entusiastas de la tecnología.
03:13
But what it actually is, is the deployment of untested technologies
50
193440
6131
Pero en el fondo es un despliegue de tecnologías no testadas
03:19
on vulnerable populations without appropriate consent.
51
199571
3962
en poblaciones vulnerables y sin el consentimiento apropiado.
03:23
And this gives me pause.
52
203533
2502
Y esto me hace detenerme.
03:26
I pause because the agonies we are facing today
53
206035
3587
Detenerme porque las penurias que sufrimos hoy en día
03:29
as a global humanity
54
209664
1668
a nivel de toda la humanidad
03:31
didn't just happen overnight.
55
211374
2419
no han aparecido de la noche a la mañana.
03:33
They happened as a result of our shared history of colonialism
56
213835
5047
Son el resultado de una historia compartida de colonialismo,
03:38
and humanitarian technology innovations are inherently colonial,
57
218923
4839
donde las novedades tecnológicas son inherentemente coloniales,
03:43
often designed for and in the good of groups of people
58
223803
5255
pues a menudo están diseñadas para y por el bien de pueblos
03:49
seen as outside of technology themselves,
59
229100
3587
que se encuentran fuera del entorno tecnológico,
03:52
and often not legitimately recognized
60
232687
2878
o que no están legítimamente considerados
03:55
as being able to provide for their own solutions.
61
235565
2502
como capaces de proveer sus propias soluciones.
03:58
And so, as a humanitarian myself, I ask this question:
62
238067
4588
Y como parte del personal humanitario, planteo esta pregunta:
04:02
in our quest to do good in the world,
63
242655
3671
En nuestra misión de hacer el bien en el mundo,
04:06
how can we ensure that we do not lock people into future harm,
64
246326
5589
¿cómo podemos asegurarnos de no abocar a las personas a daños futuros,
04:11
future indebtedness and future inequity as a result of these actions?
65
251956
5214
al endeudamiento y la inequidad como resultado de nuestras acciones?
04:17
It is why I now study the ethics of humanitarian tech innovation.
66
257796
4087
Es por eso que ahora estudio la ética de la innovación tecnológica humanitaria.
04:21
And this isn't just an intellectually curious pursuit.
67
261925
4629
Y no solo por curiosidad intelectual, tengo motivos profundamente personales.
04:26
It's a deeply personal one.
68
266596
1710
04:29
Driven by the belief that it is often people that look like me,
69
269307
4338
Me muevo impulsada por la creencia de que a menudo es gente como yo,
04:33
that come from the communities I come from,
70
273686
2211
proveniente de las mismas comunidades que yo,
04:35
historically excluded and marginalized,
71
275897
3670
que ha sido históricamente excluida y marginada,
04:39
that are often spoken on behalf of
72
279567
3545
donde otros hablan por ellos
04:43
and denied voice in terms of the choices
73
283112
2503
y que no tienen voz ni voto
en cuanto a las opciones disponibles para su futuro.
04:45
available to us for our future.
74
285615
2294
04:47
As I stand here on the shoulders of all those that have come before me
75
287909
4671
Mientras cabalgo a hombros de aquellos que me han precedido
04:52
and in obligation for all of those that will come after me
76
292622
3587
y tengo una responsabilidad ante aquellos que vendrán después de mí
04:56
to say to you that good intentions alone do not prevent harm,
77
296251
6256
afirmo que las buenas intenciones por sí solas no previenen el daño,
05:02
and good intentions alone can cause harm.
78
302549
3336
y además pueden causarlo.
05:06
I'm often asked, what do I see ahead of us in this next 21st century?
79
306845
4337
A menudo me preguntan qué anticipo que ocurrirá durante el actual siglo XXI.
05:11
And if I had to sum it up:
80
311975
2043
Y en resumen lo que digo es:
05:14
of deep uncertainty, a dying planet, distrust, pain.
81
314060
5547
una gran incertidumbre, un planeta agonizante, desconfianza y dolor.
05:20
And in times of great volatility, we as human beings, we yearn for a balm.
82
320692
5922
En tiempos de gran volatilidad, los seres humanos anhelamos un bálsamo.
05:26
And digital futures are exactly that, a balm.
83
326614
3045
Y el futuro digital es exactamente eso, un bálsamo.
05:30
We look at it in all of its possibility
84
330535
2252
Consideramos su oferta de posibilidades
05:32
as if it could soothe all that ails us, like a logical inevitability.
85
332787
4838
como si pudiera calmar todos los males, con una inevitabilidad lógica.
05:39
In recent years, reports have started to flag
86
339210
4046
En los últimos años, los informes han comenzado a señalar
05:43
the new types of risks that are emerging about technology innovations.
87
343298
5589
los nuevos tipos de riesgo, fruto de las innovaciones tecnológicas.
05:48
One of this is around how data collected on vulnerable individuals
88
348928
5297
Uno de ellos es que los datos recopilados acerca de las personas vulnerables
05:54
can actually be used against them as retaliation,
89
354267
4129
pueden usarse en su contra como represalia,
05:58
posing greater risk not just against them, but against their families,
90
358396
4129
representando un riesgo mayor no solo contra ellos,
también contra sus familias y su comunidad.
06:02
against their community.
91
362525
1502
06:05
We saw these risks become a truth with the Rohingya.
92
365486
3045
Esta realidad ya la constatamos con los rohingya.
06:09
And very, very recently, in August 2021, as Afghanistan fell to the Taliban,
93
369991
5297
Y muy recientemente, en agosto de 2021, cuando Afganistán cayó bajo los talibanes,
06:15
it also came to light that biometric data collected on Afghans
94
375288
5130
salió a la luz que los datos biométricos recopilados sobre los afganos
06:20
by the US military and the Afghan government
95
380460
2461
por el ejército estadounidense y el gobierno afgano,
06:22
and used by a variety of actors
96
382962
2670
y utilizados por una serie de actores,
06:25
were now in the hands of the Taliban.
97
385673
2211
habían caído en manos de los talibanes.
06:29
Journalists' houses were searched.
98
389135
2085
Registraron las casas de los periodistas.
06:32
Afghans desperately raced against time to erase their digital history online.
99
392388
5089
Los afganos lucharon contrarreloj para hacer desaparecer su historial digital.
06:38
Technologies of empowerment then become technologies of disempowerment.
100
398603
5881
Y las tecnologías de empoderamiento pasan a ser de desempoderamiento.
06:45
It is because these technologies
101
405026
1793
Es porque estas tecnologías
06:46
are designed on a certain set of societal assumptions,
102
406819
5005
están diseñadas en base a un cierto conjunto de supuestos sociales,
06:51
embedded in market and then filtered through capitalist considerations.
103
411824
5047
se integran en el mercado y se filtran según parámetros capitalistas.
06:56
But technologies created in one context and then parachuted into another
104
416871
5339
Pero las tecnologías creadas en un contexto y testadas en otro,
07:02
will always fail
105
422251
1335
siempre fallarán,
07:03
because it is based on assumptions of how people lead their lives.
106
423628
4880
porque se basan en suposiciones sobre los modos de vida.
07:08
And whilst here, you and I may be relatively comfortable
107
428549
3921
Y mientras a Uds. y a mí no nos incomoda
07:12
providing a fingertip scan to perhaps go to the movies,
108
432512
4546
pasar la huella por un escáner por ejemplo a la entrada de un cine,
07:17
we cannot extrapolate that out to the level of safety one would feel
109
437100
5630
eso no es extrapolable
al nivel de seguridad que alguien puede sentir mientras espera en una fila,
07:22
while standing in line,
110
442730
1585
07:24
having to give up that little bit of data about themselves
111
444315
3295
debiendo desvelar una pequeña parte de sí mismo
07:27
in order to access food rations.
112
447610
2586
para poder acceder a las raciones de alimentos.
07:31
Humanitarians assume that technology will liberate humanity,
113
451739
5256
El personal humanitario asume que la tecnología liberará a la humanidad,
07:37
but without any due consideration of issues of power, exploitation and harm
114
457954
6882
pero se olvidan de la debida consideración de las cuestiones de poder,
la explotación y el daño que pueden sobrevenir para este fin.
07:44
that can occur for this to happen.
115
464877
2002
07:46
Instead, we rush to solutionizing,
116
466921
3128
En cambio, nos lanzamos a buscar soluciones,
07:50
a form of magical thinking
117
470091
1668
en forma de pensamiento milagroso
07:51
that assumes that just by deploying shiny solutions,
118
471801
4546
el cual asume que simplemente implementando soluciones brillantes,
07:56
we can solve the problem in front of us
119
476389
2002
resolveremos el problema que tenemos enfrente,
07:58
without any real analysis of underlying realities.
120
478433
3795
obviando cualquier análisis formal de las realidades subyacentes.
08:03
These are tools at the end of the day,
121
483312
2795
Son herramientas al fin y al cabo,
08:06
and tools, like a chef's knife,
122
486107
2502
herramientas, como un cuchillo de chef,
08:08
in the hands of some, the creator of a beautiful meal,
123
488609
4880
que en manos de unos, elabora una deliciosa comida,
08:13
and in the hands of others, devastation.
124
493489
3003
y en manos de otros, genera devastación.
08:17
So how do we ensure that we do not design
125
497243
3712
Entonces, ¿cómo asegurarnos de que no estamos trasladando
08:20
the inequities of our past into our digital futures?
126
500997
5047
las desigualdades del pasado a nuestro futuro digital?
08:26
And I want to be clear about one thing.
127
506085
1877
Y quiero dejar clara una cosa.
No estoy en contra de la tecnología, solo en contra de la que es para tontos.
08:28
I'm not anti-tech. I am anti-dumb tech.
128
508004
3587
08:31
(Laughter)
129
511966
1543
(Risas)
08:33
(Applause)
130
513551
1627
(Aplausos)
08:38
The limited imaginings of the few
131
518097
2336
La limitada imaginación de unos pocos
08:40
should not colonize the radical re-imaginings of the many.
132
520475
4462
no debería colonizar la rica imaginación innovadora de la mayoría.
08:45
So how then do we ensure that we design an ethical baseline,
133
525813
4588
Entonces, ¿cómo nos aseguramos de diseñar una base ética,
08:50
so that the liberation that this promises is not just for a privileged few,
134
530401
6131
para que la liberación prometida no sea solo para unos pocos privilegiados,
08:56
but for all of us?
135
536532
1544
sino para todos nosotros?
08:59
There are a few examples that can point to a way forward.
136
539202
3837
Hay algunos ejemplos que pueden señalar el camino a seguir.
09:03
I love the work of Indigenous AI
137
543081
3878
Me encanta el trabajo de la IA indígena que,
09:07
that instead of drawing from Western values and philosophies,
138
547001
3003
en lugar de basarse en valores y filosofías occidentales,
09:10
it draws from Indigenous protocols and values
139
550046
2544
se basa en protocolos y valores indígenas y los implementa en el código de la IA.
09:12
to embed into AI code.
140
552632
1960
09:15
I also really love the work of Nia Tero,
141
555093
2961
También me encanta el trabajo de Nia Tero,
09:18
an Indigenous co-led organization that works with Indigenous communities
142
558096
4004
una organización indígena codirigida que trabaja con comunidades indígenas
09:22
to map their own well-being and territories
143
562141
2878
para que ellos mismos tracen su propio bienestar y su territorio,
09:25
as opposed to other people coming in to do it on their behalf.
144
565061
3628
a diferencia de otras organizaciones que lo hacen directamente en su nombre.
09:29
I've learned a lot from the Satellite Sentinel Project back in 2010,
145
569482
4671
Aprendí mucho del proyecto Satellite Sentinel en 2010,
09:34
which is a slightly different example.
146
574153
2127
que es un ejemplo ligeramente diferente.
09:36
The project started essentially to map atrocities
147
576280
5840
El proyecto comenzó esencialmente para registrar las atrocidades
09:42
through remote sensing technologies, satellites,
148
582120
3044
a través de tecnologías de teledetección y satélites,
09:45
in order to be able to predict and potentially prevent them.
149
585206
3587
para así poder predecirlas y posiblemente prevenirlas.
09:48
Now the project wound down after a few years
150
588835
3295
Pero el proyecto terminó tras varios años por una variedad de razones,
09:52
for a variety of reasons,
151
592171
1919
09:54
one of which being that it couldn’t actually generate action.
152
594132
3461
una de los cuales era que en realidad no llevaba a la acción.
09:57
But the second, and probably the most important,
153
597635
3837
Pero la segunda, y probablemente la más importante,
10:01
was that the team realized they were operating without an ethical net.
154
601514
5797
era que el equipo se dio cuenta de que estaban operando sin una red ética.
10:07
And without ethical guidelines in place,
155
607353
3086
Y sin pautas éticas establecidas,
10:10
it was a very wide open line of questioning
156
610439
3754
se abría el cuestionamiento
10:14
about whether what they were doing was helpful or harmful.
157
614193
4088
sobre si lo que estaban haciendo era útil o dañino.
10:19
And so they decided to wind down before creating harm.
158
619282
3753
Y entonces decidieron ponerle fin para no arriesgarse a causar daño.
10:24
In the absence of legally binding ethical frameworks
159
624620
5172
En ausencia de marcos éticos legalmente vinculantes
10:29
to guide our work,
160
629834
2502
que guíen nuestro trabajo,
10:32
I have been working on a range of ethical principles
161
632378
2878
me he estado centrando en una serie de principios éticos
10:35
to help inform humanitarian tech innovation,
162
635298
2544
para ayudar al desarrollo de la innovación humanitaria,
10:37
and I'd like to put forward a few of these here for you today.
163
637884
2919
y hoy me gustaría presentarles algunos de ellos.
10:41
One: Ask.
164
641345
1752
Uno: Preguntar.
10:43
Which groups of humans will be harmed by this and when?
165
643890
4212
¿Qué grupos humanos se verán perjudicados por esto y cuándo?
10:48
Assess: Who does this solution actually benefit?
166
648978
3420
Evaluar: ¿A quién beneficia realmente esta solución?
10:53
Interrogate: Was appropriate consent obtained from the end users?
167
653733
5881
Averiguar: ¿Se obtuvo el consentimiento apropiado de los usuarios finales?
11:00
Consider: What must we gracefully exit out of
168
660907
4504
Considerar: ¿A qué debemos renunciar para adaptarnos a un determinado futuro?
11:05
to be fit for these futures?
169
665411
1627
11:07
And imagine: What future good might we foreclose
170
667038
5797
E imaginar:
¿Qué bien futuro podríamos recuperar si implementáramos tal acción hoy?
11:12
if we implemented this action today?
171
672877
2961
11:16
We are accountable for the futures that we create.
172
676756
3670
Somos responsables de los futuros que creamos.
11:20
We cannot absolve ourselves of the responsibilities
173
680468
3587
No podemos desentendernos de la responsabilidad
11:24
and accountabilities of our actions
174
684096
2670
y de la autoría de nuestras acciones,
11:26
if our actions actually cause harm
175
686807
2920
si nuestras acciones están causando daño
11:29
to those that we purport to protect and serve.
176
689769
2878
a aquellos a quienes pretendemos proteger y servir.
11:32
Another world is absolutely, radically possible.
177
692647
4421
Otro mundo es absoluta y radicalmente posible.
11:37
Thank you.
178
697777
1293
Gracias.
11:39
(Applause)
179
699070
2294
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7