Art that reveals how technology frames reality | Jiabao Li

80,367 views ・ 2020-04-06

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sonia Escudero Sánchez Revisor: María Julia Galles de Rois
00:12
I'm an artist and an engineer.
0
12887
2396
Soy artista e ingeniera.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Y últimamente he estado pensando mucho en cómo la tecnología
interviene en la manera en que percibimos la realidad.
00:21
the way we perceive reality.
2
21105
2041
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
Y lo está haciendo de una manera muy invisible y sutil.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
La tecnología está diseñada para dar forma a nuestro sentido de la realidad
00:32
by masking itself as the actual experience of the world.
5
32930
3811
enmascarándose como la experiencia real del mundo.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Como resultado, nos estamos volviendo inconscientes e ignorantes
00:42
that it is happening at all.
7
42140
2185
de este fenómeno.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
Por ejemplo, tomemos las gafas que llevo normalmente.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Se han convertido en parte de la forma en que experimento mi entorno.
00:52
I barely notice them,
10
52352
1490
Raramente las noto,
00:53
even though they are constantly framing reality for me.
11
53866
4085
a pesar de que constantemente enmarcan la realidad que veo.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
La tecnología de la que hablo está diseñada para hacer lo mismo:
01:02
change what we see and think
13
62487
2438
cambiar lo que vemos y pensamos,
01:04
but go unnoticed.
14
64949
1760
pero pasa desapercibido.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Ahora bien, la única vez que noto mis gafas
01:11
is when something happens to draw my attention to it,
16
71073
3258
es cuando sucede algo que me hace consciente de ellas,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
como cuando se ensucian o cambia mi graduación óptica.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
Así que me pregunté:
"Como artista, ¿qué puedo crear para llamar el mismo tipo de atención
01:23
to draw the same kind of attention
19
83113
2447
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
en la forma en que los medios digitales
--noticias, organizaciones, redes sociales, publicidad y motores de búsqueda--
01:31
advertising and search engines --
21
91779
2261
01:34
are shaping our reality?"
22
94064
2014
están moldeando nuestra realidad?".
01:36
So I created a series of perceptual machines
23
96798
4772
Así que creé una serie de máquinas perceptivas
01:41
to help us defamiliarize and question
24
101594
3566
para ayudarnos a desacostumbrarnos
y a cuestionar la forma en que vemos el mundo.
01:45
the ways we see the world.
25
105184
2120
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Por ejemplo, hoy en día, muchos tenemos una especie de reacción alérgica
01:54
to ideas that are different from ours.
27
114916
2493
a las ideas que son diferentes de las nuestras.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Puede que ni siquiera sepamos que desarrollamos una "alergia mental".
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
Ideé un casco que crea alergia artificial al color rojo.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Simula esta hipersensibilidad haciendo que las cosas rojas parezcan más grandes
02:14
when you are wearing it.
31
134740
1280
al llevarlo puesto.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Tiene dos modos: nocebo y placebo.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
En el modo nocebo, crea una experiencia sensorial de hiperalergia.
02:26
Whenever I see red, the red expands.
34
146653
2707
Cada vez que veo rojo, el rojo se expande.
02:30
It's similar to social media's amplification effect,
35
150062
3531
Es similar al efecto amplificador de las redes sociales,
02:33
like when you look at something that bothers you,
36
153617
2597
como cuando uno mira algo que nos molesta,
02:36
you tend to stick with like-minded people
37
156238
2928
tiende a quedarse con las personas afines, a intercambiar mensajes y memes,
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
y se enfada aún más.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
A veces, una conversación trivial se amplifica
02:47
and blown way out of proportion.
40
167960
2401
y estalla de forma desproporcionada.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Quizás es por eso que vivimos en la política de la ira.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
En el modo placebo, es una cura artificial para esta alergia.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
Cada vez que uno ve rojo, el rojo se encoge.
03:03
It's a palliative, like in digital media.
44
183617
2875
Es un paliativo, igual que los medios digitales.
03:06
When you encounter people with different opinions,
45
186516
2899
Cuando encontramos gente con opiniones diferentes,
03:09
we will unfollow them,
46
189439
1477
la dejamos de seguir,
03:10
remove them completely out of our feeds.
47
190940
2748
y la eliminamos para siempre de nuestros 'feeds'.
03:14
It cures this allergy by avoiding it.
48
194343
3203
Cura esta alergia evitándola.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Pero esta manera de ignorar intencionalmente ideas opuestas
03:22
makes human community hyperfragmented and separated.
50
202141
4056
hace que la comunidad humana se hiperfragmente y separe.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Este dispositivo dentro del casco remodela la realidad
03:30
and projects into our eyes through a set of lenses
52
210426
2950
y la proyecta dentro de nuestros ojos a través de lentes
03:33
to create an augmented reality.
53
213400
1915
para crear una realidad aumentada.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Escogí el color rojo porque es intenso y emocional,
03:40
it has high visibility
55
220741
1958
tiene alta visibilidad
03:42
and it's political.
56
222723
1278
y es político.
03:44
So what if we take a look
57
224390
1263
¿Y si echamos un vistazo
03:45
at the last American presidential election map
58
225677
3049
al último mapa de las elecciones presidenciales en EE. UU. usando el casco?
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
(Risas)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Pueden ver que no importa si son demócratas o republicanos,
03:54
because the mediation alters our perceptions.
62
234568
3989
porque nuestra percepción está intervenida.
03:58
The allergy exists on both sides.
63
238581
3133
La alergia existe en ambos bandos.
04:03
In digital media,
64
243134
1320
En los medios digitales,
04:04
what we see every day is often mediated,
65
244478
3133
lo que vemos cada día está a menudo intervenido,
04:07
but it's also very nuanced.
66
247635
1733
pero también está hecho de manera sutil.
04:09
If we are not aware of this,
67
249758
1995
Si no somos conscientes de esto,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
continuaremos siendo vulnerables a muchos tipos de alergias mentales.
04:18
Our perception is not only part of our identities,
69
258900
3510
Nuestra percepción no es solo parte de nuestras identidades,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
sino que en los medios digitales, es también parte de la cadena de valor.
04:27
Our visual field is packed with so much information
71
267992
3575
Nuestro campo visual está lleno de tanta información
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
que nuestra percepción se ha vuelto una mercancía con valor de mercado.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
Los diseños se usan para explotar nuestros prejuicios existentes,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
los algoritmos favorecen el contenido que reafirma nuestras opiniones,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
de modo que cada rinconcito de nuestro campo visual está colonizado
04:49
to sell ads.
76
289307
1342
para vender anuncios.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Como cuando este puntito rojo aparece en nuestras notificaciones,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
que crece y se expande, y nos parece enorme.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Así que empecé a pensar formas de poner un poco de suciedad
05:03
or change the lenses of my glasses,
80
303956
2698
o cambiar las lentes de mis gafas,
05:06
and came up with another project.
81
306678
2098
y elaboré otro proyecto.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Tengan en mente que esto es conceptual y no un producto real.
05:13
It's a web browser plug-in
83
313676
2073
Es el complemento de un navegador web
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
que podría ayudarnos a notar las cosas que normalmente ignoramos.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Como el casco, el complemento remodela la realidad,
05:24
but this time, directly into the digital media itself.
86
324503
3397
pero esta vez, directamente en los medios digitales en sí.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
Deja al descubierto las voces ocultas que fueron filtradas.
05:32
What you should be noticing now
88
332246
1573
Lo que deberían notar ahora es que son más grandes y llamativas,
05:33
will be bigger and vibrant,
89
333843
2509
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
como esta historia sobre sesgo de género que emerge de un mar de gatos.
05:40
(Laughter)
91
340695
2021
(Risas)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
El complemento podría diluir las cosas que son amplificadas por un algoritmo,
05:48
Like, here in this comment section,
93
348831
1696
como en esta sección de comentarios,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
donde hay montones de personas vociferando las mismas opiniones.
05:54
The plug-in makes their comments super small.
95
354111
2870
El complemento achica los comentarios a un tamaño mínimo.
05:57
(Laughter)
96
357005
1008
(Risas)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
Ahora la cantidad de píxeles que tienen en la pantalla
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
es proporcional al valor real que contribuyen a la conversación.
06:07
(Laughter)
99
367890
1942
(Risas)
06:11
(Applause)
100
371345
3631
(Aplausos)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
El complemento también muestra el valor de mercado de nuestro campo visual
06:21
and how much of our perception is being commoditized.
102
381004
3456
y cuánto de nuestra percepción está siendo mercantilizado.
06:24
Different from ad blockers,
103
384912
1589
A diferencia de los bloqueadores de anuncios,
06:26
for every ad you see on the web page,
104
386525
2472
por cada anuncio que ven en la página web,
06:29
it shows the amount of money you should be earning.
105
389021
3407
aparece la cantidad de dinero que deberían estar ganando.
06:32
(Laughter)
106
392452
1245
(Risas)
06:34
We are living in a battlefield between reality
107
394356
2292
Vivimos en un campo de batalla entre el mundo real
06:36
and commercial distributed reality,
108
396672
2253
y la realidad comercial distribuida;
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
la próxima versión del complemento podría eliminar esta realidad comercial
06:44
and show you things as they really are.
110
404439
2799
y mostrarles las cosas como realmente son.
06:47
(Laughter)
111
407262
1791
(Risas)
06:50
(Applause)
112
410335
3629
(Aplausos)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Imaginen en cuántas direcciones podría ir esto.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
Créanme, sé que los riesgos son altos si fuera un producto real.
07:04
And I created this with good intentions
115
424006
2939
Y lo he creado con buenas intenciones
07:06
to train our perception and eliminate biases.
116
426969
3837
para entrenar nuestra percepción y eliminar los sesgos.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Pero el mismo enfoque podría ser usado con malas intenciones,
como obligar a los ciudadanos a instalar un complemento como ese
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
07:17
to control the public narrative.
119
437811
2126
para controlar la narrativa oficial.
07:20
It's challenging to make it fair and personal
120
440768
2737
Es difícil crear un complemento justo y personalizado
07:23
without it just becoming another layer of mediation.
121
443529
3155
sin que se convierta en otra instancia de intervención.
07:27
So what does all this mean for us?
122
447933
2662
¿Qué significa todo esto para nosotros?
07:31
Even though technology is creating this isolation,
123
451230
3733
A pesar de que la tecnología está creando este aislamiento,
07:34
we could use it to make the world connected again
124
454987
3602
podríamos usarla para hacer que el mundo se conecte de nuevo
07:38
by breaking the existing model and going beyond it.
125
458613
3247
rompiendo el modelo existente y yendo más allá.
07:42
By exploring how we interface with these technologies,
126
462508
3338
Al explorar cómo interactuamos con estas tecnologías
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
podríamos salir de nuestro comportamiento habitual, casi automático,
07:51
and finally find common ground between each other.
128
471079
2670
y encontrar finalmente un terreno común entre ellos.
07:54
Technology is never neutral.
129
474915
1789
La tecnología nunca es neutral.
07:57
It provides a context and frames reality.
130
477191
3019
Proporciona un contexto y enmarca la realidad.
08:00
It's part of the problem and part of the solution.
131
480234
2888
Es parte del problema y parte de la solución.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Podríamos usarla para descubrir puntos ciegos y reentrenar nuestra percepción
08:09
and consequently, choose how we see each other.
133
489949
3506
y consecuentemente, elegir cómo nos vemos los unos a los otros.
08:13
Thank you.
134
493892
1191
Gracias.
(Aplausos)
08:15
(Applause)
135
495107
2685
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7