Art that reveals how technology frames reality | Jiabao Li

80,367 views ・ 2020-04-06

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: 소연 김 검토: Jihyeon J. Kim
00:12
I'm an artist and an engineer.
0
12887
2396
저는 예술가인 동시에 개발자입니다.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
또 최근에 어떻게 기술이 우리가 세상을 인지하는 방식을
00:21
the way we perceive reality.
2
21105
2041
조작하는 지에 관해 고민해 왔습니다.
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
조작은 눈치채지 못하게 하는 미세한 방법으로 진행이 되고 있습니다.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
기술은 진짜 세계인 것처럼 만들어
00:32
by masking itself as the actual experience of the world.
5
32930
3811
우리의 현실감을 조작합니다.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
그 결과, 기술이 세상을 조작하고 있다는 것을
00:42
that it is happening at all.
7
42140
2185
우리는 의식하지 못하고, 눈치 채지도 못하고 있습니다.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
예를 들어, 제가 평소 끼는 안경이 있는데요.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
이 안경은 제가 보통 주변을 인지하는 것 중 하나가 됩니다.
00:52
I barely notice them,
10
52352
1490
저는 제가 안경을 썼다는 것을 잘 알아채지 못해요.
00:53
even though they are constantly framing reality for me.
11
53866
4085
실제 안경 테두리가 존재하는데도요.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
제가 얘기하고 있는 기술도 같은 방식으로 구현됩니다.
01:02
change what we see and think
13
62487
2438
우리가 보고 생각하는 방식을
01:04
but go unnoticed.
14
64949
1760
눈치 채지 못하도록 바꿉니다.
01:07
Now, the only time I do notice my glasses
15
67780
3269
지금, 제가 안경을 쓰고 있다는 것을 유일하게 알아차릴 때는
01:11
is when something happens to draw my attention to it,
16
71073
3258
안경에 주의를 빼앗기는 무언가가 있을 때인데요,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
안경이 더럽거나 도수를 바꿔야 할 때 같은 경우입니다.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
그래서 저 자신에게 물어 봅니다. "예술가로서, 사람들이 눈치채지 못하게
01:23
to draw the same kind of attention
19
83113
2447
우리의 현실을 조작하고 있는 디지털 미디어인
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
뉴스, 소셜 미디어 플랫폼,
01:31
advertising and search engines --
21
91779
2261
광고와 검색 엔진에
01:34
are shaping our reality?"
22
94064
2014
주의를 집중시키기 위해 어떤 걸 만들 수 있을까?"
01:36
So I created a series of perceptual machines
23
96798
4772
그래서 저는 지각 머신의 시리즈 물을 만들었습니다.
01:41
to help us defamiliarize and question
24
101594
3566
우리가 보는 세계에 대해
01:45
the ways we see the world.
25
105184
2120
낯설게 느끼게 하고 의문을 갖도록 하기 위해서 말입니다.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
예를 들어, 요즘 많은 사람들은
01:54
to ideas that are different from ours.
27
114916
2493
자신과 다른 생각에 대해 알러지 같은 반응을 보입니다.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
아마도 우리가 정신적 알러지가 있다는 것 조차 알아 차리지 못할 겁니다.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
그래서 저는 빨간색에 반응하는 인공 알러지를 만드는 헬멧을 만들어 봤습니다.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
헬멧을 쓰고 빨간색을 보면 점점 크게 보이면서
02:14
when you are wearing it.
31
134740
1280
매우 민감하게 반응합니다.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
이 헬멧에는 노시보와 플라시보 모드가 있습니다.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
노시보 모드는 지각적인 경험을 초알러지 반응을 보이도록 합니다.
02:26
Whenever I see red, the red expands.
34
146653
2707
빨간 색을 볼 때마다, 색깔이 팽창되어 보입니다.
02:30
It's similar to social media's amplification effect,
35
150062
3531
소셜 미디어의 증폭 효과와 비슷한데요.
02:33
like when you look at something that bothers you,
36
153617
2597
여러분을 기분 나쁘게 하는 것을 보면
02:36
you tend to stick with like-minded people
37
156238
2928
비슷한 생각을 가진 사람들과 시간을 보내면서
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
메세지와 밈을 주고 받으며 더 화를 돋우게 됩니다.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
가끔, 사소한 얘기가 부풀어지고
02:47
and blown way out of proportion.
40
167960
2401
과장이 됩니다.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
아마도 그래서 정치에 대한 분노를 안고 사는 건지도 모릅니다.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
플라시보 모드는 알러지에 대한 인공적인 치료방법 입니다.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
빨간 색을 볼 때마다 빨간 색의 크기가 줄어듭니다.
03:03
It's a palliative, like in digital media.
44
183617
2875
디지털 미디어 처럼 임시 방편인 방식입니다.
03:06
When you encounter people with different opinions,
45
186516
2899
SNS 상에서 의견이 다른 사람을 마주하면
03:09
we will unfollow them,
46
189439
1477
언팔로우를 하고,
03:10
remove them completely out of our feeds.
47
190940
2748
완전하게 피드를 차단할 것입니다.
03:14
It cures this allergy by avoiding it.
48
194343
3203
회피함으로 인해 알러지를 치료하게 됩니다.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
하지만 의도적으로 반대 생각을 무시하는 이 방법은
03:22
makes human community hyperfragmented and separated.
50
202141
4056
우리의 공동체를 과도하게 해체시키고 분열 시킵니다.
03:27
The device inside the helmet reshapes reality
51
207343
3059
헬멧 안에 장치는 현실을 재조작하고
03:30
and projects into our eyes through a set of lenses
52
210426
2950
렌즈를 통해 우리 눈에 투사 시키면
03:33
to create an augmented reality.
53
213400
1915
가상 현실이 만들어집니다.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
제가 빨간 색을 고른 이유는 강렬하고 감성적이고,
03:40
it has high visibility
55
220741
1958
가장 눈이 잘 띄고,
03:42
and it's political.
56
222723
1278
정치적인 색깔이기 때문입니다.
03:44
So what if we take a look
57
224390
1263
만약 우리가
03:45
at the last American presidential election map
58
225677
3049
작년 미국 대통령 선거지도를
03:48
through the helmet?
59
228750
1165
헬멧을 통해 본다면 어땠을까요?
03:49
(Laughter)
60
229939
1008
(웃음)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
여러분이 민주당 혹은 공화당 지지자임이 상관 없게 됩니다.
03:54
because the mediation alters our perceptions.
62
234568
3989
왜냐하면 보이는 이미지가 지각을 변화시키기 때문입니다.
03:58
The allergy exists on both sides.
63
238581
3133
이 알러지는 양쪽 모두에서 발생합니다.
04:03
In digital media,
64
243134
1320
디지털 미디어에서는
04:04
what we see every day is often mediated,
65
244478
3133
우리가 매일 보는 것이 가끔 조작 되지만
04:07
but it's also very nuanced.
66
247635
1733
매우 미세합니다.
04:09
If we are not aware of this,
67
249758
1995
우리가 이 차이를 눈치채지 않는다면
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
정신적 알러지와 같은 많은 것들에 취약해 질 것입니다.
04:18
Our perception is not only part of our identities,
69
258900
3510
우리의 지각은 우리를 이루는 한 부분이기도 하고
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
디지털 미디어에서 가치 사슬의 한 부분이기도 합니다.
04:27
Our visual field is packed with so much information
71
267992
3575
시각 영역은 수 많은 정보들로 가득차 있는데요.
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
이 정보들은 자산 가치가 매겨진 것들이죠.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
디자인은 우리의 무의식적인 편견과
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
좋아하는 컨텐츠를 불러오는 알고리즘을 이용합니다.
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
이는 광고를 팔기 위해서
04:49
to sell ads.
76
289307
1342
우리의 눈이 가는 곳곳을 점령하기 위함입니다.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
마치 작은 빨간 색 점이 여러분의 알림 창에서 보일 때,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
이 점은 여러분의 머릿속에서 점점 커지는데, 굉장히 크죠.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
그래서 저는 안경을 더럽히거나
05:03
or change the lenses of my glasses,
80
303956
2698
안경의 렌즈를 바꾸는 방법 같은 것을 생각하게 되었고,
05:06
and came up with another project.
81
306678
2098
또 다른 프로젝트를 만들었습니다.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
진짜 제품이 아니라, 개념적인 프로젝트라는 것을 염두해 두세요.
05:13
It's a web browser plug-in
83
313676
2073
제가 만든 건 웹브라우저 프로그램 인데요.
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
우리가 평소에 무시하는 것들을 알려주는 것입니다.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
헬멧처럼, 이 프로그램은 현실을 재창조 하지만
05:24
but this time, directly into the digital media itself.
86
324503
3397
이번에는 디지털 미디어 자체를 직접적으로 표현했습니다.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
숨겨져있고, 필터로 걸러진 의견들을 보여 줍니다.
05:32
What you should be noticing now
88
332246
1573
지금 여러 분들에게 알려져야 할 것들은
05:33
will be bigger and vibrant,
89
333843
2509
더 크고 선명해질 겁니다.
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
여기, 고양이 사진들 틈에서 보이는 성 편견과 관련된 이야기 처럼요.
05:40
(Laughter)
91
340695
2021
(웃음)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
이 플러그-인은 알고리즘으로 증폭된 것을 누그러뜨릴 수 있어요.
05:48
Like, here in this comment section,
93
348831
1696
여기에 있는 댓글들 처럼 말이에요.
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
같은 의견들을 이야기 하는 사람들이 정말 많죠.
05:54
The plug-in makes their comments super small.
95
354111
2870
이 프로그램은 이런 댓글들을 정말 작게 만듭니다.
05:57
(Laughter)
96
357005
1008
(웃음)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
그래서 화면에 보이는 픽셀의 양은
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
이 대화에 기여한 실제 가치에 비례해서 보이는 겁니다.
06:07
(Laughter)
99
367890
1942
(웃음)
06:11
(Applause)
100
371345
3631
(박수)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
또한 이 플러그-인은 시각 영역에서의 자산 가치를 보여 줍니다.
06:21
and how much of our perception is being commoditized.
102
381004
3456
그리고 얼마나 우리의 지각을 상품화 시켰는지 보여 줍니다.
06:24
Different from ad blockers,
103
384912
1589
광고를 막는 프로그램과는 다르게
06:26
for every ad you see on the web page,
104
386525
2472
우리가 웹 페이지에서 매일 보는 광고에 대해
06:29
it shows the amount of money you should be earning.
105
389021
3407
그 제품을 사려면 여러분이 얼마나 많은 돈을 벌어야 하는지 보여 줍니다.
06:32
(Laughter)
106
392452
1245
(웃음)
06:34
We are living in a battlefield between reality
107
394356
2292
우리는 현실과
06:36
and commercial distributed reality,
108
396672
2253
현실에 분포되어 있는 광고들 사이에 존재하는 전쟁터에서 살고 있습니다.
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
그래서 다음 버전은 광고들을 없애고
06:44
and show you things as they really are.
110
404439
2799
광고가 없는 현실 자체를 보여줄 겁니다.
06:47
(Laughter)
111
407262
1791
(웃음)
06:50
(Applause)
112
410335
3629
(박수)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
여러분은 정말 갈 수 있는 방향들이 얼마나 많은지 상상할 수 있습니다.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
저를 믿어보세요, 세상이 상품화가 된다면 정말 위험할 거라고 생각해요.
07:04
And I created this with good intentions
115
424006
2939
저는 좋은 의도를 갖고 작품을 만들었습니다.
07:06
to train our perception and eliminate biases.
116
426969
3837
우리의 지각을 훈련하고 편견을 제거하기 위해서 말입니다.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
하지만 같은 접근이더라도 나쁜 의도로 사용될 수 있습니다.
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
대중의 목소리를 통제하기 위해
07:17
to control the public narrative.
119
437811
2126
시민들에게 프로그램을 설치하게 강요하는 경우 처럼요.
07:20
It's challenging to make it fair and personal
120
440768
2737
또 다른 편견을 만들지 않고
07:23
without it just becoming another layer of mediation.
121
443529
3155
프로그램을 공정하고 개인적으로 만드는 것은 어려운 일입니다.
07:27
So what does all this mean for us?
122
447933
2662
이 모든 것은 우리에게 어떤 의미를 줄까요?
07:31
Even though technology is creating this isolation,
123
451230
3733
비록 기술이 고립을 창조했지만,
07:34
we could use it to make the world connected again
124
454987
3602
우리는 세계를 다시 연결시키는데 기술을 활용할 수 있습니다.
07:38
by breaking the existing model and going beyond it.
125
458613
3247
이를 위해서는 기존의 알고리즘을 깨고 더 나은 것을 만들어야 합니다.
07:42
By exploring how we interface with these technologies,
126
462508
3338
우리가 어떻게 기술들을 활용할 것인가를 탐색함으로써
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
기계처럼 받아들였던 행동들에서 벗어날 수 있고,
07:51
and finally find common ground between each other.
128
471079
2670
우리에게 존재하는 공통점을 발견할 수 있을 것입니다.
07:54
Technology is never neutral.
129
474915
1789
기술은 중립적인 것이 절대 아닙니다.
07:57
It provides a context and frames reality.
130
477191
3019
기술은 현실에 맥락과 프레임을 씌웁니다.
08:00
It's part of the problem and part of the solution.
131
480234
2888
이점은 문제이기도 하고, 해결책이기도 합니다.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
왜냐하면 우리는 사각지대를 발견할 수 있고 지각을 재훈련 시킬 수 있고,
08:09
and consequently, choose how we see each other.
133
489949
3506
결과적으로 서로를 어떻게 바라 보는지 선택하게 할 수 있기 때문입니다.
08:13
Thank you.
134
493892
1191
감사합니다.
08:15
(Applause)
135
495107
2685
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7