Art that reveals how technology frames reality | Jiabao Li

80,367 views ・ 2020-04-06

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Марина Гуменюк Утверджено: Мирослава Кругляк
00:12
I'm an artist and an engineer.
0
12887
2396
Я художниця та інженерка.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Останнім часом я багато думаю, як технології опосередковують
00:21
the way we perceive reality.
2
21105
2041
наше сприйняття реальності.
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
Це відбувається надзвичайно непомітно та тонко.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
Технологія покликана формувати наше відчуття реальності,
00:32
by masking itself as the actual experience of the world.
5
32930
3811
приховуючи свій вплив на наш досвід сприйняття світу.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
В результаті, ми не усвідомлюємо та не маємо уявлення,
00:42
that it is happening at all.
7
42140
2185
що це взагалі відбувається.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
Візьмемо, наприклад, окуляри, які я зазвичай ношу.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Вони стали частиною способу, яким я сприймаю те, що навколо мене.
00:52
I barely notice them,
10
52352
1490
Я ледве їх помічаю,
00:53
even though they are constantly framing reality for me.
11
53866
4085
попри те, що вони постійно обрамляють реальність для мене.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
Технології, про які я буду говорити, мають на меті це ж саме:
01:02
change what we see and think
13
62487
2438
змінювати те, що ми бачимо і думаємо,
01:04
but go unnoticed.
14
64949
1760
залишаючись непоміченими.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Так, я помічаю свої окуляри лише тоді,
01:11
is when something happens to draw my attention to it,
16
71073
3258
коли трапляється щось, що привертає до них мою увагу,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
наприклад, вони забруднюються або мій рецепт на них змінюється.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
Я запитала себе: «Як художниця, що я можу створити,
01:23
to draw the same kind of attention
19
83113
2447
щоб привернути таку ж увагу
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
до того, як цифрові медіа – новини, соціальні медіа-платформи,
01:31
advertising and search engines --
21
91779
2261
реклама та пошукові системи –
01:34
are shaping our reality?"
22
94064
2014
формують нашу реальність?»
01:36
So I created a series of perceptual machines
23
96798
4772
І я створила декілька перцептивних механізмів,
01:41
to help us defamiliarize and question
24
101594
3566
що допомагають зробити незвичним та поставити під питання
01:45
the ways we see the world.
25
105184
2120
спосіб, яким ми бачимо світ.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Наприклад, у наш час у багатьох є щось на зразок алергії
01:54
to ideas that are different from ours.
27
114916
2493
на ідеї, які відрізняються від наших.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Ми можемо навіть не усвідомлювати, що в нас є цей вид ментальної алергії.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
Тому я розробила шолом, який створює штучну алергію на червоний колір.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Він симулює гіперчутливість, змушуючи червоні речі виглядати більшими,
02:14
when you are wearing it.
31
134740
1280
коли ви носите шолом.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Він має два режими: ноцебо та плацебо.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
В режимі ноцебо він створює цей сенсорний досвід гіпералергії.
02:26
Whenever I see red, the red expands.
34
146653
2707
Коли я бачу червоне, воно збільшується.
02:30
It's similar to social media's amplification effect,
35
150062
3531
Це схоже на те, як соціальні медіа створюють ефект посилення:
02:33
like when you look at something that bothers you,
36
153617
2597
коли ви бачите щось, що виводить вас із себе,
02:36
you tend to stick with like-minded people
37
156238
2928
ви зазвичай об'єднуєтеся з однодумцями,
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
обмінюєтеся повідомленнями та мемами і починаєте гніватися ще більше.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
Інколи, звичайна дискусія набирає обертів
02:47
and blown way out of proportion.
40
167960
2401
і виходить за будь-які межі.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Мабуть, саме тому ми живемо в агресивному середовищі.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
В режимі плацебо створюється штучне подолання алергії.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
Коли ви бачите червоне, воно зменшується.
03:03
It's a palliative, like in digital media.
44
183617
2875
Це паліатив, на зразок цифрових медіа.
03:06
When you encounter people with different opinions,
45
186516
2899
Коли ви зустрічаєте людей, що мають іншу думку,
03:09
we will unfollow them,
46
189439
1477
ви можете відписатися від них,
03:10
remove them completely out of our feeds.
47
190940
2748
повністю викинути з підписок.
03:14
It cures this allergy by avoiding it.
48
194343
3203
Так лікується алергія, шляхом уникання.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Проте цей спосіб свідомого ігнорування ідей опонентів
03:22
makes human community hyperfragmented and separated.
50
202141
4056
робить людську спільноту дефрагментованою та розділеною.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Пристрій всередині шолома переоформлює реальність
03:30
and projects into our eyes through a set of lenses
52
210426
2950
і направляє в очі проекцію через набір лінз,
03:33
to create an augmented reality.
53
213400
1915
створюючи доповнену реальність.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Я обрала червоний колір, оскільки він інтенсивний та емоційний,
03:40
it has high visibility
55
220741
1958
його добре видно,
03:42
and it's political.
56
222723
1278
і він політичний.
03:44
So what if we take a look
57
224390
1263
Що буде, якщо ми подивимося
03:45
at the last American presidential election map
58
225677
3049
на карту минулих президентських виборів в Америці
03:48
through the helmet?
59
228750
1165
через шолом?
03:49
(Laughter)
60
229939
1008
(Сміх)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Ви побачите, що не має значення, демократ ви чи республіканець,
03:54
because the mediation alters our perceptions.
62
234568
3989
оскільки посередництво змінило ваше уявлення.
03:58
The allergy exists on both sides.
63
238581
3133
Алергія існує з обох сторін.
04:03
In digital media,
64
243134
1320
В цифрових медіа
04:04
what we see every day is often mediated,
65
244478
3133
те, що ми бачимо кожного дня, часто опосередковується,
04:07
but it's also very nuanced.
66
247635
1733
але при цьому дуже тонко.
04:09
If we are not aware of this,
67
249758
1995
Якщо ви не знаєте про це,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
ви залишатиметеся вразливим до багатьох різновидів ментальної алергії.
04:18
Our perception is not only part of our identities,
69
258900
3510
Наше сприйняття є не лише частиною нашої особистості,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
в цифрових медіа воно стає частиною ланцюга створення вартості.
04:27
Our visual field is packed with so much information
71
267992
3575
Наше поле зору наповнене такою кількістю інформації,
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
що наше сприйняття стає ресурсом з реальною вартістю.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
Дизайни експлуатують наші підсвідомі упередження,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
алгоритми відбирають контент, що підтверджує наші думки,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
при цьому кожен куточок нашого поля зору колонізується
04:49
to sell ads.
76
289307
1342
для продажу реклами.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Тобто, коли ця маленька червона крапочка зявляється у ваших повідомленнях,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
вона росте і поширюється, і для вашого розуму вона стає великою.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Тому я почала думати, як мені нанести трохи бруду
05:03
or change the lenses of my glasses,
80
303956
2698
або змінити лінзи в моїх окулярах,
05:06
and came up with another project.
81
306678
2098
та придумала інший проект.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Майте на увазі, що це концепція, це не реальний продукт.
05:13
It's a web browser plug-in
83
313676
2073
Це плагін для веб-браузера,
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
який допомагає нам помічати речі, які ми зазвичай би проігнорували.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Як і той шолом, плагін переоформлює реальність,
05:24
but this time, directly into the digital media itself.
86
324503
3397
але цього разу безпосередньо у самому цифровому медіа.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
Показує приховані відфільтровані голоси.
05:32
What you should be noticing now
88
332246
1573
Те, що вам треба помітити зараз,
05:33
will be bigger and vibrant,
89
333843
2509
стає більшим і яскравішим,
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
як тут, історія про гендерні упередження випливає серед цілої купи котів.
05:40
(Laughter)
91
340695
2021
(Сміх)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
Плагін послаблює ті речі, які посилював алгоритм.
05:48
Like, here in this comment section,
93
348831
1696
Як тут, у розділі коментарів,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
де багато людей голосно висловлюють ту саму думку.
05:54
The plug-in makes their comments super small.
95
354111
2870
Плагін робить їх коментарі дуже, дуже маленькими.
05:57
(Laughter)
96
357005
1008
(Сміх)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
Тобто, кількість пікселів, яку вони займають на екрані,
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
стає пропорційною реальній цінності, яку вони вносять у діалог.
06:07
(Laughter)
99
367890
1942
(Сміх)
06:11
(Applause)
100
371345
3631
(Оплески)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
Плагін також показує реальну вартість нашого поля зору,
06:21
and how much of our perception is being commoditized.
102
381004
3456
і те, якою мірою наше сприйняття використовується як ресурс.
06:24
Different from ad blockers,
103
384912
1589
На відміну від блокаторів,
06:26
for every ad you see on the web page,
104
386525
2472
що блокують всю рекламу на веб-сторінці,
06:29
it shows the amount of money you should be earning.
105
389021
3407
він показує кількість грошей, яку ви б мали заробити.
06:32
(Laughter)
106
392452
1245
(Сміх)
06:34
We are living in a battlefield between reality
107
394356
2292
Ми живемо на полі бою між реальністю
06:36
and commercial distributed reality,
108
396672
2253
і комерціалізованою розділеною реальністю,
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
і тому наступна версія плагіну зможе прибрати цю комерційну реальність
06:44
and show you things as they really are.
110
404439
2799
і показати вам речі, як вони є.
06:47
(Laughter)
111
407262
1791
(Сміх)
06:50
(Applause)
112
410335
3629
(Оплески)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Тобто, ви можете уявити, скільки варіантів нам доступні.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
Повірте мені, я знаю, як це ризиковано, якщо це стане реальним продуктом.
07:04
And I created this with good intentions
115
424006
2939
Проте я створила це з добрими намірами,
07:06
to train our perception and eliminate biases.
116
426969
3837
для тренування нашого сприйняття і уникнення упереджень.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Але той же самий підхід можна використати з поганими намірами,
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
наприклад, примушувати громадян встановлювати подібний плагін
07:17
to control the public narrative.
119
437811
2126
для контролю над громадською думкою.
07:20
It's challenging to make it fair and personal
120
440768
2737
Потрібна мужність, щоб робити це чесно та особисто,
07:23
without it just becoming another layer of mediation.
121
443529
3155
щоб це не стало просто ще одним способом опосередкування.
07:27
So what does all this mean for us?
122
447933
2662
Таким чином, що це все для нас означає?
07:31
Even though technology is creating this isolation,
123
451230
3733
Навіть якщо технології призводять до ізоляції,
07:34
we could use it to make the world connected again
124
454987
3602
ми можемо з їхньою допомогою об'єднати світ знову,
07:38
by breaking the existing model and going beyond it.
125
458613
3247
шляхом руйнування існуючої моделі і виходу за її межі.
07:42
By exploring how we interface with these technologies,
126
462508
3338
Досліджуючи нашу взаємодію з цими технологіями,
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
ми можемо вийти за межі звичної машиноподібної поведінки
07:51
and finally find common ground between each other.
128
471079
2670
та нарешті знайти спільну мову між собою.
07:54
Technology is never neutral.
129
474915
1789
Технологія ніколи не нейтральна.
07:57
It provides a context and frames reality.
130
477191
3019
Вона створює контекст та формує реальність.
08:00
It's part of the problem and part of the solution.
131
480234
2888
Частково це проблема, а частково рішення.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Ми можемо з її допомогою уникати білих плям і тренувати сприйняття,
08:09
and consequently, choose how we see each other.
133
489949
3506
і, як наслідок, обирати те, як ми бачимо один одного.
08:13
Thank you.
134
493892
1191
Дякую.
08:15
(Applause)
135
495107
2685
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7