Art that reveals how technology frames reality | Jiabao Li

80,367 views ・ 2020-04-06

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Revisore: Anna Cristiana Minoli
Sono un'artista e sono un'ingegnera.
Ultimamente, mi è capitato di pensare a come la tecnologia modifichi
00:12
I'm an artist and an engineer.
0
12887
2396
il modo in cui percepiamo la realtà.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
E questo è avvenuto in maniera invisibile e delicata.
La tecnologia è progettata per plasmare il nostro senso della realtà
00:21
the way we perceive reality.
2
21105
2041
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
mascherandosi come reale esperienza del mondo.
Il risultato è che siamo diventati incoscienti e inconsapevoli
00:29
Technology is designed to shape our sense of reality
4
29260
3646
00:32
by masking itself as the actual experience of the world.
5
32930
3811
che tutto questo sta accadendo.
Pensate per esempio agli occhiali che uso di solito.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Questi sono diventati parte integrante di come percepisco ciò che mi circonda.
00:42
that it is happening at all.
7
42140
2185
Raramente ci faccio caso,
00:45
Take the glasses I usually wear, for example.
8
45360
2488
anche se filtrano costantemente la mia realtà.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
La tecnologia di cui parlo è progettata per fare la stessa cosa:
00:52
I barely notice them,
10
52352
1490
00:53
even though they are constantly framing reality for me.
11
53866
4085
cambiare ciò che vediamo e pensiamo,
ma passare inosservata.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
L’unico momento in cui faccio caso ai miei occhiali
01:02
change what we see and think
13
62487
2438
è quando qualcosa me li fa notare,
01:04
but go unnoticed.
14
64949
1760
come quando si sporcano o quando la mia prescrizione varia.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Quindi mi chiedo: “In quanto artista, cosa posso creare
01:11
is when something happens to draw my attention to it,
16
71073
3258
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
per attirare lo stesso tipo di attenzione
ai modi in cui il mondo digitale, redazioni digitali, piattaforme social,
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
01:23
to draw the same kind of attention
19
83113
2447
pubblicità e motori di ricerca,
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
dà forma alla nostra realtà?
Quindi, ho creato una serie di macchine percettive
01:31
advertising and search engines --
21
91779
2261
per aiutare ad estraniarci e interrogarci
01:34
are shaping our reality?"
22
94064
2014
01:36
So I created a series of perceptual machines
23
96798
4772
sul modo in cui vediamo il mondo.
Per esempio, oggigiorno molti di noi hanno una sorta di reazione allergica
01:41
to help us defamiliarize and question
24
101594
3566
01:45
the ways we see the world.
25
105184
2120
alle idee che sono diverse dalle loro.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Probabilmente neanche ci rendiamo conto di aver sviluppato certe allergie mentali.
01:54
to ideas that are different from ours.
27
114916
2493
Quindi, ho costruito un elmetto che crea un’allergia artificiale al colore rosso.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Stimola l’ipersensibilità rendendo ciò che è rosso più grande
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
quando viene indossato.
Ha due modalità: nocebo e placebo.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
In modalità nocebo, crea un’esperienza sensoriale di iperallergia.
02:14
when you are wearing it.
31
134740
1280
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Quando si guarda il rosso, questo si espande.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
È simile all’effetto di amplificazione dei social,
come quando vediamo qualcosa che ci dà fastidio
02:26
Whenever I see red, the red expands.
34
146653
2707
e tendiamo a restare con chi la pensa come noi
02:30
It's similar to social media's amplification effect,
35
150062
3531
per scambiarci messaggi e meme e arrabbiarsi ancora di più.
02:33
like when you look at something that bothers you,
36
153617
2597
A volte, una banale discussione si espande
02:36
you tend to stick with like-minded people
37
156238
2928
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
e assume dimensioni smisurate.
Forse è anche per questo che viviamo nella politica della rabbia.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
02:47
and blown way out of proportion.
40
167960
2401
La modalità placebo invece è una cura artificiale all’allergia.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Guardando il rosso, questo rimpicciolisce.
È un palliativo, come nel mondo digitale.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
Quando incontriamo persone con opinioni diverse dalle nostre,
03:00
Whenever you see red, the red shrinks.
43
180575
2292
smettiamo di seguirle
e le rimuoviamo completamente dalle nostre bacheche.
03:03
It's a palliative, like in digital media.
44
183617
2875
Cura questa allergia, evitandola.
03:06
When you encounter people with different opinions,
45
186516
2899
03:09
we will unfollow them,
46
189439
1477
Ma questo ignorare intenzionalmente le idee opposte alle nostre
03:10
remove them completely out of our feeds.
47
190940
2748
ci rende una comunità estremamente frammentata e separata.
03:14
It cures this allergy by avoiding it.
48
194343
3203
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Il dispositivo all’interno dell’elmetto ridefinisce la realtà
e la proietta ai nostri occhi tramite una serie di lenti
03:22
makes human community hyperfragmented and separated.
50
202141
4056
per creare una realtà aumentata.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Ho scelto il colore rosso perché è intenso ed emozionale,
03:30
and projects into our eyes through a set of lenses
52
210426
2950
ha un'alta visibilità
03:33
to create an augmented reality.
53
213400
1915
ed è politico.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
E se dessimo un'occhiata
alla mappa dei voti delle ultime elezioni americane
03:40
it has high visibility
55
220741
1958
tramite l'elmetto?
(Risate)
03:42
and it's political.
56
222723
1278
Si può notare che non è importante essere democratico o repubblicano,
03:44
So what if we take a look
57
224390
1263
03:45
at the last American presidential election map
58
225677
3049
perché questa mediazione altera la nostra percezione.
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
L'allergia esiste su entrambi i lati.
03:54
because the mediation alters our perceptions.
62
234568
3989
Nel mondo digitale,
ciò che vediamo ogni giorno è spesso mediato,
03:58
The allergy exists on both sides.
63
238581
3133
ma è anche molto sfumato.
Se non ne siamo consapevoli,
04:03
In digital media,
64
243134
1320
continueremo a essere esposti a vari tipi di allergie mentali.
04:04
what we see every day is often mediated,
65
244478
3133
04:07
but it's also very nuanced.
66
247635
1733
04:09
If we are not aware of this,
67
249758
1995
La nostra percezione non è solo parte della nostra identità,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
ma nel mondo digitale è anche parte della catena del valore.
04:18
Our perception is not only part of our identities,
69
258900
3510
Il nostro campo visivo è pieno di talmente tante informazioni
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
che lo spazio nella nostra percezione è diventato un bene di valore.
04:27
Our visual field is packed with so much information
71
267992
3575
I modelli vengono usati per sfruttare i nostri pregiudizi inconsci,
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
gli algoritmi favoriscono i contenuti in linea con le nostre opinioni,
così che ogni piccolo angolo del nostro campo visivo venga sfruttato
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
per vendere pubblicità.
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
Come quando questo piccolo puntino rosso spunta nelle nostre notifiche,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
cresce, si espande e nella nostra mente sembra enorme.
04:49
to sell ads.
76
289307
1342
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Quindi ho iniziato a pensare a modi per sporcare un po’
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
o per cambiare le lenti dei miei occhiali,
e mi è venuto in mente un altro progetto.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Ricordatevi che è solo concettuale, non è un prodotto vero.
05:03
or change the lenses of my glasses,
80
303956
2698
È un plug-in per i motori di ricerca
05:06
and came up with another project.
81
306678
2098
che potrebbe aiutarci a notare le cose che normalmente ignoriamo.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Come l’elmetto, il plug-in ridefinisce la realtà,
05:13
It's a web browser plug-in
83
313676
2073
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
ma questa volta agisce direttamente nel mondo digitale.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Evidenzia le voci filtrate nascoste.
Quello che dovremmo notare
05:24
but this time, directly into the digital media itself.
86
324503
3397
diventerebbe più grande e vivace,
come qui, dove la storia sui pregiudizi di genere emerge in questo mare di gatti.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
05:32
What you should be noticing now
88
332246
1573
(Risate)
05:33
will be bigger and vibrant,
89
333843
2509
Il plug-in potrebbe diluire tutto quello che viene amplificato dall’algoritmo.
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
05:40
(Laughter)
91
340695
2021
Come in questa sezione di commenti,
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
tante persone urlano con le stesse convinzioni.
Il plug-in rende i loro commenti estremamente piccoli.
05:48
Like, here in this comment section,
93
348831
1696
(Risate)
Così ora, l’ammontare di pixel loro riservato sullo schermo
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
05:54
The plug-in makes their comments super small.
95
354111
2870
è proporzionale all’effettivo contributo alla conversazione.
05:57
(Laughter)
96
357005
1008
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
(Risate)
(Applausi)
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
06:07
(Laughter)
99
367890
1942
Il plug-in mostra anche il valore dello spazio del nostro campo visivo
06:11
(Applause)
100
371345
3631
e quanto la nostra percezione sia valutata economicamente.
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
A differenza degli ad-blocker,
per ogni inserzione presente nella pagina,
mostra quanti soldi dovresti guadagnare.
06:21
and how much of our perception is being commoditized.
102
381004
3456
(Risate)
06:24
Different from ad blockers,
103
384912
1589
Viviamo in un campo di battaglia tra realtà
06:26
for every ad you see on the web page,
104
386525
2472
e realtà distribuita commercialmente,
06:29
it shows the amount of money you should be earning.
105
389021
3407
quindi la prossima versione del plug-in potrebbe eliminare la realtà commerciale
06:32
(Laughter)
106
392452
1245
06:34
We are living in a battlefield between reality
107
394356
2292
e mostrare le cose come sono per davvero.
06:36
and commercial distributed reality,
108
396672
2253
(Risate)
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
(Applausi)
06:44
and show you things as they really are.
110
404439
2799
Potete immaginarvi quante applicazioni avrebbe il plug-in.
06:47
(Laughter)
111
407262
1791
06:50
(Applause)
112
410335
3629
Credetemi, so che il rischio sarebbe alto se questo diventasse un vero prodotto.
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
L'ho creato con le migliori intenzioni
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
per allenare la nostra percezione ad eliminare i pregiudizi.
Ma lo stesso approccio potrebbe essere usato con cattive intenzioni,
07:04
And I created this with good intentions
115
424006
2939
07:06
to train our perception and eliminate biases.
116
426969
3837
come obbligare i cittadini a installare un plug-in del genere
per controllare la narrativa pubblica.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
È difficile renderlo equo e personale
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
senza che diventi l’ennesimo strumento di mediazione.
07:17
to control the public narrative.
119
437811
2126
Cosa significa tutto questo per noi?
07:20
It's challenging to make it fair and personal
120
440768
2737
Anche se la tecnologia crea isolamento,
07:23
without it just becoming another layer of mediation.
121
443529
3155
potremmo usarlo per rendere il mondo più connesso
07:27
So what does all this mean for us?
122
447933
2662
distruggendo i modelli esistenti e andando oltre.
07:31
Even though technology is creating this isolation,
123
451230
3733
07:34
we could use it to make the world connected again
124
454987
3602
Esplorando come ci rapportiamo con queste tecnologie,
potremmo uscire dal nostro abituale comportamento quasi meccanico
07:38
by breaking the existing model and going beyond it.
125
458613
3247
07:42
By exploring how we interface with these technologies,
126
462508
3338
e trovare un terreno comune da condividere.
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
La tecnologia non è mai neutra.
Fornisce un contesto e inquadra la realtà.
07:51
and finally find common ground between each other.
128
471079
2670
È sia parte del problema che della soluzione.
07:54
Technology is never neutral.
129
474915
1789
Potremmo usarla per scoprire i nostri punti deboli
07:57
It provides a context and frames reality.
130
477191
3019
e per migliorare la nostra percezione
08:00
It's part of the problem and part of the solution.
131
480234
2888
e, di conseguenza, scegliere come vederci l’un l’altro.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Grazie.
(Applausi)
08:09
and consequently, choose how we see each other.
133
489949
3506
08:13
Thank you.
134
493892
1191
08:15
(Applause)
135
495107
2685
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7