Art that reveals how technology frames reality | Jiabao Li

79,380 views ・ 2020-04-06

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Редактор: Olga Mansurova
Я художник и инженер.
В последнее время я много размышляла
о влиянии технологий на наше восприятие.
00:12
I'm an artist and an engineer.
0
12887
2396
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
И это происходит незаметно для нас.
Технологии разработаны для формирования нашего восприятия реальности,
00:21
the way we perceive reality.
2
21105
2041
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
маскируясь под текущий мировой опыт.
А в результате мы не осознаём и не замечаем,
00:29
Technology is designed to shape our sense of reality
4
29260
3646
00:32
by masking itself as the actual experience of the world.
5
32930
3811
что это вообще происходит.
Для примера возьмём очки, которые я обычно ношу.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Они стали частью того, как я познаю окружающий мир.
00:42
that it is happening at all.
7
42140
2185
Я практически их не замечаю,
00:45
Take the glasses I usually wear, for example.
8
45360
2488
хотя они постоянно подстраивают реальность под меня.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Предназначение технологии, о которой я говорю, то же самое:
00:52
I barely notice them,
10
52352
1490
00:53
even though they are constantly framing reality for me.
11
53866
4085
менять то, что мы видим и о чём думаем,
но незаметно для нас.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
Например, я замечаю свои очки лишь тогда,
01:02
change what we see and think
13
62487
2438
когда что-то привлекает к ним моё внимание,
01:04
but go unnoticed.
14
64949
1760
будь то пятна грязи на них либо пора замены моего рецепта.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Поэтому я спросила себя, что я могу создать как художник,
01:11
is when something happens to draw my attention to it,
16
71073
3258
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
чтобы привлечь такое же внимание
к тем способам, какими цифровые медиа, вроде каналов новостей,
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
социиальных сетей, рекламы и поисковиков,
01:23
to draw the same kind of attention
19
83113
2447
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
формируют нашу реальность?
И я придумала серию воображаемых устройств,
01:31
advertising and search engines --
21
91779
2261
помогающих задуматься о том,
01:34
are shaping our reality?"
22
94064
2014
01:36
So I created a series of perceptual machines
23
96798
4772
каким образом мы видим наш мир.
Например, сегодня у многих из нас есть аллергическая реакция
01:41
to help us defamiliarize and question
24
101594
3566
01:45
the ways we see the world.
25
105184
2120
на идеи, которые отличаются от наших.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Мы можем даже не замечать у себя этот вид психической аллергии.
01:54
to ideas that are different from ours.
27
114916
2493
И я изобрела шлем, создающий искусственную аллергию на красный цвет.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Он симулирует гиперчувствительность, делая красные вещи визуально больше,
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
когда его надеваешь.
У него два режима: ноцебо и плацебо.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
В режиме ноцебо он создаёт сенсорное восприятие гипераллергии.
02:14
when you are wearing it.
31
134740
1280
02:16
It has two modes: nocebo and placebo.
32
136730
3558
И когда я вижу красный цвет, он расширяется.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
Это похоже на эффект усиления в социальных сетях:
когда ты смотришь на то, что тебя раздражает,
02:26
Whenever I see red, the red expands.
34
146653
2707
ты стремишься к единомышленникам
02:30
It's similar to social media's amplification effect,
35
150062
3531
и, обмениваясь сообщениями и мемами, ты раздражаешься ещё сильнее.
02:33
like when you look at something that bothers you,
36
153617
2597
Иногда банальная дискуссия переходит в спор
02:36
you tend to stick with like-minded people
37
156238
2928
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
и невероятно раздувается.
Возможно, именно поэтому мы живём в политике гнева.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
02:47
and blown way out of proportion.
40
167960
2401
А режим плацебо действует, как таблетка от аллергии.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Когда ты видишь красный цвет, он сокращается.
Это смягчающая полумера, как и в цифровых медиа.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
Когда мы встречаем там людей с другим мнением,
03:00
Whenever you see red, the red shrinks.
43
180575
2292
мы отписываемся от них,
убираем их совсем из поля зрения.
03:03
It's a palliative, like in digital media.
44
183617
2875
То есть, лечим эту аллергию путём её избегания.
03:06
When you encounter people with different opinions,
45
186516
2899
03:09
we will unfollow them,
46
189439
1477
Но намеренное игнорирование противоположных идей
03:10
remove them completely out of our feeds.
47
190940
2748
разобщает человеческое сообщество.
03:14
It cures this allergy by avoiding it.
48
194343
3203
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
А устройство внутри шлема меняет форму реальности
и проектирует её в наши глаза через линзы
03:22
makes human community hyperfragmented and separated.
50
202141
4056
для создания усиленной реальности.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Я выбрала красный цвет, так как он интенсивный и эмоциональный,
03:30
and projects into our eyes through a set of lenses
52
210426
2950
поэтому у него высокая видимость
03:33
to create an augmented reality.
53
213400
1915
и он политичен.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Что, если мы посмотрим
на карту последних американских президентских выборов
03:40
it has high visibility
55
220741
1958
через этот шлем?
(Смех)
03:42
and it's political.
56
222723
1278
Вы увидите, что неважно, демократ вы или республиканец,
03:44
So what if we take a look
57
224390
1263
03:45
at the last American presidential election map
58
225677
3049
так как посредничество меняет наше восприятие.
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
Эта аллергия существует у обеих сторон.
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
03:54
because the mediation alters our perceptions.
62
234568
3989
В цифровых медиа то,
что мы смотрим ежедневно, часто опосредовано,
03:58
The allergy exists on both sides.
63
238581
3133
но оно также очень индивидуально.
Если мы не осознаём этого,
04:03
In digital media,
64
243134
1320
мы будем оставаться уязвимыми ко многим видам психической аллергии.
04:04
what we see every day is often mediated,
65
244478
3133
04:07
but it's also very nuanced.
66
247635
1733
04:09
If we are not aware of this,
67
249758
1995
Наше восприятие — не только часть нашей идентичности,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
но в цифровых медиа оно также часть цепочки создания ценностей.
04:18
Our perception is not only part of our identities,
69
258900
3510
Наше поле зрения настолько перенасыщено информацией,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
что наше восприятие стало товаром на рынке с реальной ценой.
04:27
Our visual field is packed with so much information
71
267992
3575
Дизайн используют для эксплуатации наших бессознательных пристрастий,
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
алгоритмы потакают контенту, подтверждающему наше мнение,
так что каждый уголок нашего поля зрения захвачен
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
продажей нам рекламы.
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
Вроде той маленькой красной точки на приходящих к вам уведомлениях,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
которая растёт и расширяется, и для вас она огромна.
04:49
to sell ads.
76
289307
1342
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Поэтому я начала думать о способах очистки от грязи
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
или о замене линзы на моих очках
и создала ещё один проект.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Помните, что это концепция, а не реальный продукт.
05:03
or change the lenses of my glasses,
80
303956
2698
Это плагин браузера, который может помочь
05:06
and came up with another project.
81
306678
2098
заметить вещи, которые мы обычно игнорируем.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Как тот шлем, плагин выявляет реальность,
05:13
It's a web browser plug-in
83
313676
2073
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
но в этот раз прямо в цифровых медиа.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Он проявляет скрытые фильтры.
То, что нам нужно заметить сейчас,
05:24
but this time, directly into the digital media itself.
86
324503
3397
будет гораздо больше и динамичнее,
как эта история о гендерных пристрастиях, всплывающая из моря кошек.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
05:32
What you should be noticing now
88
332246
1573
(Смех)
05:33
will be bigger and vibrant,
89
333843
2509
Плагин мог бы ослаблять идеи, усиленные алгоритмом,
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
05:40
(Laughter)
91
340695
2021
как в этой секции комментариев,
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
где множество людей высказывают одни и те же мнения.
Плагин делает их комментарии супер мелкими.
05:48
Like, here in this comment section,
93
348831
1696
(Смех)
Теперь количество пикселей у них на экране
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
05:54
The plug-in makes their comments super small.
95
354111
2870
пропорционально актуальной ценности, которую они вносят в разговор.
05:57
(Laughter)
96
357005
1008
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
(Смех)
(Аплодисменты)
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
06:07
(Laughter)
99
367890
1942
Плагин также показывает реальную стоимость поля нашего обзора
06:11
(Applause)
100
371345
3631
и какая часть нашего восприятия становится товаром.
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
В отличие от блокировщика реклам
для каждой рекламы на странице
плагин показывает те деньги, которые можно было бы заработать.
06:21
and how much of our perception is being commoditized.
102
381004
3456
(Смех)
06:24
Different from ad blockers,
103
384912
1589
Мы живём на поле битвы между реальностью
06:26
for every ad you see on the web page,
104
386525
2472
и коммерчески распределённой реальностью.
06:29
it shows the amount of money you should be earning.
105
389021
3407
И следующая версия плагина может убрать коммерческую реальность
06:32
(Laughter)
106
392452
1245
06:34
We are living in a battlefield between reality
107
394356
2292
и показать вещи такими, как они есть.
06:36
and commercial distributed reality,
108
396672
2253
(Смех)
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
(Аплодисменты)
06:44
and show you things as they really are.
110
404439
2799
Представьте, во что это может вылиться.
06:47
(Laughter)
111
407262
1791
06:50
(Applause)
112
410335
3629
Поверьте, я знаю, что риски высоки, если бы это стало реальным продуктом.
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
И я создала это с хорошими намерениями,
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
чтобы тренировать наше восприятие и избавиться от пристрастий.
Но тот же подход могут использовать с плохими намерениями,
07:04
And I created this with good intentions
115
424006
2939
07:06
to train our perception and eliminate biases.
116
426969
3837
вроде принуждения граждан установить подобный плагин,
чтобы контролировать поведение общества.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Это сложно сделать честно и индивидуально,
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
чтобы это не стало ещё одним слоем медийных продуктов.
07:17
to control the public narrative.
119
437811
2126
Так что это всё значит для нас?
07:20
It's challenging to make it fair and personal
120
440768
2737
Даже хотя технология создаёт изоляцию,
07:23
without it just becoming another layer of mediation.
121
443529
3155
мы могли бы её использовать, чтобы объединить мир снова,
07:27
So what does all this mean for us?
122
447933
2662
ломая существующую модель и выходя за её пределы.
07:31
Even though technology is creating this isolation,
123
451230
3733
07:34
we could use it to make the world connected again
124
454987
3602
Исследуя, как мы взаимодействуем с этими технологиями,
мы могли бы отступить от привычного, почти роботизированного поведения
07:38
by breaking the existing model and going beyond it.
125
458613
3247
07:42
By exploring how we interface with these technologies,
126
462508
3338
и наконец найти что-то общее друг с другом.
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
Технология не бывает нейтральной.
Она обеспечивает содержание и подстраивает реальность.
07:51
and finally find common ground between each other.
128
471079
2670
Это часть проблемы и часть её решения.
07:54
Technology is never neutral.
129
474915
1789
Мы можем её использовать для тренировки нашего восприятия
07:57
It provides a context and frames reality.
130
477191
3019
08:00
It's part of the problem and part of the solution.
131
480234
2888
и, следовательно, выбирать, как мы видим друг друга.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Спасибо!
(Аплодисменты)
08:09
and consequently, choose how we see each other.
133
489949
3506
08:13
Thank you.
134
493892
1191
08:15
(Applause)
135
495107
2685
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7