Art that reveals how technology frames reality | Jiabao Li

80,436 views ・ 2020-04-06

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Dominika Kiraly Lektor: Zsuzsa Viola
00:12
I'm an artist and an engineer.
0
12887
2396
Művész és mérnök vagyok.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Az utóbbi időben sokat gondolkodtam azon,
ahogy a technológia a valóság érzékelését formálja.
00:21
the way we perceive reality.
2
21105
2041
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
Ez teljesen láthatatlan és kifinomult módon történik.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
A technológiát úgy tervezték, hogy befolyásolja valóságérzetünket
00:32
by masking itself as the actual experience of the world.
5
32930
3811
a világ valós érzékelésének álcázva magát.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Ennek köszönhetően nem is érzékeljük, nem is vagyunk tudatában,
00:42
that it is happening at all.
7
42140
2185
hogy egyáltalán megtörténik.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
Vegyük példának a szemüvegem, amit általában hordok.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Már része annak, ahogyan általában megtapasztalom a környezetem.
00:52
I barely notice them,
10
52352
1490
Szinte észre sem veszem,
00:53
even though they are constantly framing reality for me.
11
53866
4085
annak ellenére, hogy folyamatosan azon keresztül látom a valóságot.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
A technológiát, amiről beszélek, úgy tervezték, hogy ugyanezt tegye.
01:02
change what we see and think
13
62487
2438
Változtassa meg, amit látunk és gondolunk,
01:04
but go unnoticed.
14
64949
1760
de észrevétlenül.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Csak akkor veszem észre a szemüvegem,
01:11
is when something happens to draw my attention to it,
16
71073
3258
amikor olyasmi történik, ami felhívja rá a figyelmem.
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
Például amikor koszos lesz, vagy amikor lencsét kell váltanom.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
Ezért feltettem magamnak a kérdést:
01:23
to draw the same kind of attention
19
83113
2447
„Művészként mit alkothatnék,
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
ami a digitális médiához hasonlóan hívná fel a figyelmet arra,
hogy a hírszolgáltatók, közösségi oldalak, reklámok és keresőmotorok
01:31
advertising and search engines --
21
91779
2261
01:34
are shaping our reality?"
22
94064
2014
hogyan formálják a valóságunkat?”
01:36
So I created a series of perceptual machines
23
96798
4772
Így hát létrehoztam egy érzékelőgépekből álló sorozatot,
01:41
to help us defamiliarize and question
24
101594
3566
ami kizökkent és segít megkérdőjelezni azt,
01:45
the ways we see the world.
25
105184
2120
ahogyan a világot látjuk.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Például manapság sokunkból szinte allergiás reakciót vált ki,
01:54
to ideas that are different from ours.
27
114916
2493
ha sajátunktól eltérő elképzelésekkel találkozunk.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Talán észre sem vesszük, hogy kialakult nálunk ez a mentális allergia.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
Ezért létrehoztam egy sisakot, ami mesterséges piros-allergiát hoz létre.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Hiperérzékenységet szimulál úgy, hogy a piros dolgok nagyobbnak látszanak,
02:14
when you are wearing it.
31
134740
1280
amikor viseljük.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Két üzemmódja van: nocebo és placebo.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
A nocebo mód a hiperallergia érzéki tapasztalatát idézi elő.
02:26
Whenever I see red, the red expands.
34
146653
2707
Bármikor pirosat észlelek, az megnő.
02:30
It's similar to social media's amplification effect,
35
150062
3531
Ez hasonlít a közösségi oldalak erősítő hatásához,
02:33
like when you look at something that bothers you,
36
153617
2597
mint amikor olyat látunk, ami zavar bennünket.
02:36
you tend to stick with like-minded people
37
156238
2928
Igyekszünk hasonló gondolkodású emberekkel körülvenni magunkat,
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
üzeneteket és mémeket váltunk, és még dühösebbé válunk.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
Néha egy jelentéktelen vita felerősödik,
02:47
and blown way out of proportion.
40
167960
2401
és a bolhából elefánt lesz.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Talán pontosan ezért jellemző mostanában a düh politikája.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
A placebo mód ennek az allergiának a mesterséges ellenszere.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
Bármikor pirosat látsz, az összemegy.
03:03
It's a palliative, like in digital media.
44
183617
2875
Ez az enyhítés, mint a digitális médiában.
03:06
When you encounter people with different opinions,
45
186516
2899
Amikor más véleményen lévő emberekkel találkozunk,
03:09
we will unfollow them,
46
189439
1477
a követésüket leállítjuk,
03:10
remove them completely out of our feeds.
47
190940
2748
és teljesen eltűnnek a hírcsatornánkról.
03:14
It cures this allergy by avoiding it.
48
194343
3203
Elkerüléssel orvosoljuk az allergiát.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
De így az ellentétes gondolatok szándékos mellőzésével
03:22
makes human community hyperfragmented and separated.
50
202141
4056
az emberi közösség teljesen töredezetté és elkülönültté válik.
03:27
The device inside the helmet reshapes reality
51
207343
3059
A sisakban található készülék átformálja a valóságot,
03:30
and projects into our eyes through a set of lenses
52
210426
2950
és lencséken keresztül a szemünkbe vetít
03:33
to create an augmented reality.
53
213400
1915
egy kiterjesztett valóságot.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
A piros színt választottam, mert intenzív és érzelmeket vált ki,
03:40
it has high visibility
55
220741
1958
jól látható,
03:42
and it's political.
56
222723
1278
és a politikához köthető.
03:44
So what if we take a look
57
224390
1263
Vessünk egy pillantást
03:45
at the last American presidential election map
58
225677
3049
a legutóbbi amerikai elnökválasztási térképre
03:48
through the helmet?
59
228750
1165
a sisakon keresztül.
03:49
(Laughter)
60
229939
1008
(Nevetés)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Ahogy láthatják, mindegy, hogy demokraták vagy republikánusok,
03:54
because the mediation alters our perceptions.
62
234568
3989
mert a közvetítés megváltoztatja a látásmódunkat.
03:58
The allergy exists on both sides.
63
238581
3133
Az allergia mindkét oldalon létezik.
04:03
In digital media,
64
243134
1320
A digitális médiában,
04:04
what we see every day is often mediated,
65
244478
3133
amit minden nap látunk, sokszor közvetve jut el hozzánk,
04:07
but it's also very nuanced.
66
247635
1733
de rendkívül kifinomult módon.
04:09
If we are not aware of this,
67
249758
1995
Ha nem vagyunk tudatában,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
továbbra is sokféle mentális allergiának leszünk kitéve.
04:18
Our perception is not only part of our identities,
69
258900
3510
Látásmódunk nemcsak identitásunk része,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
de a digitális médiában az értékrend része is.
04:27
Our visual field is packed with so much information
71
267992
3575
A látóterünk annyi információval van telezsúfolva,
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
hogy érzékelésünk vagyoni értékkel rendelkező árucikké vált.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
Mindent tudatalatti elfogultságaink kihasználására terveznek,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
az algoritmusok a véleményünket megerősítő tartalmakat támogatják,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
hogy a látóterünk minden kis zugát meghódítsák
04:49
to sell ads.
76
289307
1342
reklámok eladására.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Mint amikor ez a piros kis pötty felvillan az értesítéseknél,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
egyre csak növekszik, és az elménk óriásinak érzékeli.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Ezért elkezdtem gondolkodni, hogyan piszkoljam be,
05:03
or change the lenses of my glasses,
80
303956
2698
vagy változtassam meg a szemüvegem lencséit,
05:06
and came up with another project.
81
306678
2098
és kitaláltam egy újabb projektet.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Fontos megjegyeznünk, hogy a projekt elméleti, és nem valódi termék.
05:13
It's a web browser plug-in
83
313676
2073
Ez egy böngészőhöz csatlakozó program,
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
ami segíthet észrevenni azokat a dolgokat, amik általában elkerülik a figyelmünket.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Mint a sisak, az illesztőprogram is átformálja a valóságot,
05:24
but this time, directly into the digital media itself.
86
324503
3397
de ezúttal közvetlenül a digitális médiát.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
Lerántja a leplet a rejtett és megszűrt hangokról.
05:32
What you should be noticing now
88
332246
1573
Így, amit észre kellene vennünk,
05:33
will be bigger and vibrant,
89
333843
2509
nagyobb és élénkebb lesz,
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
mint ez a történet a nemi előítéletről, ami tengernyi macska közül bukkan elő.
05:40
(Laughter)
91
340695
2021
(Nevetés)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
Az illesztőprogram hígítaná mindazt, amit az algoritmusok felerősítenek.
05:48
Like, here in this comment section,
93
348831
1696
Például itt, a komment szekcióban,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
rengetegen ugyanazt a véleményt kántálják.
05:54
The plug-in makes their comments super small.
95
354111
2870
Az illesztőprogram összezsugorítja a kommentjeiket.
05:57
(Laughter)
96
357005
1008
(Nevetés)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
Így az általuk elfoglalt pixelek mennyisége a képernyőn
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
arányos a tényleges értékkel, amit hozzátesznek a beszélgetéshez.
06:07
(Laughter)
99
367890
1942
(Nevetés)
06:11
(Applause)
100
371345
3631
(Taps)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
Az illesztőprogram a látómezőnk vagyoni értékét is megmutatja,
06:21
and how much of our perception is being commoditized.
102
381004
3456
valamint azt, hogy érzékelésünk mekkora része válik árucikké.
06:24
Different from ad blockers,
103
384912
1589
A hirdetésblokkolóktól eltérően
06:26
for every ad you see on the web page,
104
386525
2472
a weboldalon minden megtekintett hirdetés után
06:29
it shows the amount of money you should be earning.
105
389021
3407
megmutatja, mennyi pénzt kellene ezért kapniuk.
06:32
(Laughter)
106
392452
1245
(Nevetés)
06:34
We are living in a battlefield between reality
107
394356
2292
Egy harcmezőn élünk, ahol a valóság
06:36
and commercial distributed reality,
108
396672
2253
és a kereskedelmileg forgalmazott valóság küzd egymással.
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
De az illesztőprogram következő verziója csapást mérhet a kereskedelmi valóságra,
06:44
and show you things as they really are.
110
404439
2799
és úgy láthatjuk a dolgokat, amilyenek valójában.
06:47
(Laughter)
111
407262
1791
(Nevetés)
06:50
(Applause)
112
410335
3629
(Taps)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Képzelhetik, hogy hányféle irányt vehetne.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
Higgyék el, tudom, hogy nagy lenne a kockázat, ha valódi termékké válna.
07:04
And I created this with good intentions
115
424006
2939
Én jó szándékkal hoztam ezt létre,
07:06
to train our perception and eliminate biases.
116
426969
3837
hogy edzzük látásmódunkat és kiküszöböljük a torzításokat.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
De ugyanez a megközelítés rossz szándékkal is használható.
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
Például polgárokra erőltetni az ilyen illesztőprogramok használatát,
07:17
to control the public narrative.
119
437811
2126
hogy a közvéleményt irányítsák.
07:20
It's challenging to make it fair and personal
120
440768
2737
Kihívást jelent igazságossá és személyessé tenni,
07:23
without it just becoming another layer of mediation.
121
443529
3155
anélkül, hogy csak egy újabb közvetítő réteggé válna.
07:27
So what does all this mean for us?
122
447933
2662
Tehát mit is jelent mindez számunkra?
07:31
Even though technology is creating this isolation,
123
451230
3733
Még ha a technológia elszigeteltséget is teremt,
07:34
we could use it to make the world connected again
124
454987
3602
használhatnánk arra is, hogy a világot újra összehozzuk
07:38
by breaking the existing model and going beyond it.
125
458613
3247
a jelenlegi minta megtörésével, és annak túlszárnyalásával.
07:42
By exploring how we interface with these technologies,
126
462508
3338
Azt feltárva, milyen kölcsönhatásban vagyunk ezekkel a technológiákkal,
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
kiléphetnénk szokványos, szinte gépies viselkedésünkből,
07:51
and finally find common ground between each other.
128
471079
2670
és végre megtalálhatnánk a közös hangot egymással.
07:54
Technology is never neutral.
129
474915
1789
A technológia sohasem pártatlan.
07:57
It provides a context and frames reality.
130
477191
3019
Kontextusban létezik, és keretet szab a valóságnak.
08:00
It's part of the problem and part of the solution.
131
480234
2888
Része a problémának és a megoldásnak is.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Használhatnánk a vakfoltjaink felfedésére és a látásmódunk átképzésére,
08:09
and consequently, choose how we see each other.
133
489949
3506
valamint ezáltal megválaszthatnánk, hogyan látjuk egymást.
08:13
Thank you.
134
493892
1191
Köszönöm.
08:15
(Applause)
135
495107
2685
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7