아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: 소연 김
검토: Jihyeon J. Kim
00:12
I'm an artist and an engineer.
0
12887
2396
저는 예술가인 동시에 개발자입니다.
00:15
And lately, I've been thinking a lot
about how technology mediates
1
15307
5774
또 최근에 어떻게 기술이
우리가 세상을 인지하는 방식을
00:21
the way we perceive reality.
2
21105
2041
조작하는 지에 관해 고민해 왔습니다.
00:23
And it's being done
in a superinvisible and nuanced way.
3
23653
4640
조작은 눈치채지 못하게 하는
미세한 방법으로 진행이 되고 있습니다.
00:29
Technology is designed
to shape our sense of reality
4
29260
3646
기술은 진짜 세계인 것처럼 만들어
00:32
by masking itself as
the actual experience of the world.
5
32930
3811
우리의 현실감을 조작합니다.
00:37
As a result, we are becoming
unconscious and unaware
6
37430
4686
그 결과, 기술이 세상을
조작하고 있다는 것을
00:42
that it is happening at all.
7
42140
2185
우리는 의식하지 못하고,
눈치 채지도 못하고 있습니다.
00:45
Take the glasses
I usually wear, for example.
8
45360
2488
예를 들어, 제가 평소 끼는
안경이 있는데요.
00:47
These have become part of the way
I ordinarily experience my surroundings.
9
47872
4024
이 안경은 제가 보통 주변을
인지하는 것 중 하나가 됩니다.
00:52
I barely notice them,
10
52352
1490
저는 제가 안경을 썼다는 것을
잘 알아채지 못해요.
00:53
even though they are constantly
framing reality for me.
11
53866
4085
실제 안경 테두리가 존재하는데도요.
00:58
The technology I am talking about
is designed to do the same thing:
12
58447
4016
제가 얘기하고 있는 기술도
같은 방식으로 구현됩니다.
01:02
change what we see and think
13
62487
2438
우리가 보고 생각하는 방식을
01:04
but go unnoticed.
14
64949
1760
눈치 채지 못하도록 바꿉니다.
01:07
Now, the only time I do notice my glasses
15
67780
3269
지금, 제가 안경을 쓰고 있다는 것을
유일하게 알아차릴 때는
01:11
is when something happens
to draw my attention to it,
16
71073
3258
안경에 주의를 빼앗기는
무언가가 있을 때인데요,
01:14
like when it gets dirty
or my prescription changes.
17
74355
3514
안경이 더럽거나 도수를
바꿔야 할 때 같은 경우입니다.
01:18
So I asked myself,
"As an artist, what can I create
18
78481
4608
그래서 저 자신에게 물어 봅니다.
"예술가로서, 사람들이 눈치채지 못하게
01:23
to draw the same kind of attention
19
83113
2447
우리의 현실을 조작하고 있는
디지털 미디어인
01:25
to the ways digital media -- like news
organizations, social media platforms,
20
85584
6171
뉴스, 소셜 미디어 플랫폼,
01:31
advertising and search engines --
21
91779
2261
광고와 검색 엔진에
01:34
are shaping our reality?"
22
94064
2014
주의를 집중시키기 위해
어떤 걸 만들 수 있을까?"
01:36
So I created a series
of perceptual machines
23
96798
4772
그래서 저는 지각 머신의
시리즈 물을 만들었습니다.
01:41
to help us defamiliarize and question
24
101594
3566
우리가 보는 세계에 대해
01:45
the ways we see the world.
25
105184
2120
낯설게 느끼게 하고 의문을 갖도록
하기 위해서 말입니다.
01:48
For example, nowadays, many of us
have this kind of allergic reaction
26
108859
6033
예를 들어, 요즘 많은 사람들은
01:54
to ideas that are different from ours.
27
114916
2493
자신과 다른 생각에 대해
알러지 같은 반응을 보입니다.
01:57
We may not even realize that we've
developed this kind of mental allergy.
28
117945
5656
아마도 우리가 정신적 알러지가
있다는 것 조차 알아 차리지 못할 겁니다.
02:04
So I created a helmet that creates
this artificial allergy to the color red.
29
124596
5643
그래서 저는 빨간색에 반응하는 인공 알러지를
만드는 헬멧을 만들어 봤습니다.
02:10
It simulates this hypersensitivity
by making red things look bigger
30
130263
4453
헬멧을 쓰고 빨간색을 보면
점점 크게 보이면서
02:14
when you are wearing it.
31
134740
1280
매우 민감하게 반응합니다.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
이 헬멧에는 노시보와
플라시보 모드가 있습니다.
02:21
In nocebo mode, it creates this
sensorial experience of hyperallergy.
33
141272
5357
노시보 모드는 지각적인 경험을
초알러지 반응을 보이도록 합니다.
02:26
Whenever I see red, the red expands.
34
146653
2707
빨간 색을 볼 때마다,
색깔이 팽창되어 보입니다.
02:30
It's similar to social media's
amplification effect,
35
150062
3531
소셜 미디어의 증폭 효과와 비슷한데요.
02:33
like when you look at something
that bothers you,
36
153617
2597
여러분을 기분 나쁘게 하는 것을 보면
02:36
you tend to stick with like-minded people
37
156238
2928
비슷한 생각을 가진 사람들과
시간을 보내면서
02:39
and exchange messages and memes,
and you become even more angry.
38
159190
4595
메세지와 밈을 주고 받으며
더 화를 돋우게 됩니다.
02:44
Sometimes, a trivial
discussion gets amplified
39
164274
3662
가끔, 사소한 얘기가 부풀어지고
02:47
and blown way out of proportion.
40
167960
2401
과장이 됩니다.
02:51
Maybe that's even why
we are living in the politics of anger.
41
171038
4520
아마도 그래서 정치에 대한 분노를
안고 사는 건지도 모릅니다.
02:56
In placebo mode, it's
an artificial cure for this allergy.
42
176756
3415
플라시보 모드는 알러지에 대한
인공적인 치료방법 입니다.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
빨간 색을 볼 때마다
빨간 색의 크기가 줄어듭니다.
03:03
It's a palliative, like in digital media.
44
183617
2875
디지털 미디어 처럼
임시 방편인 방식입니다.
03:06
When you encounter people
with different opinions,
45
186516
2899
SNS 상에서 의견이
다른 사람을 마주하면
03:09
we will unfollow them,
46
189439
1477
언팔로우를 하고,
03:10
remove them completely out of our feeds.
47
190940
2748
완전하게 피드를 차단할 것입니다.
03:14
It cures this allergy by avoiding it.
48
194343
3203
회피함으로 인해
알러지를 치료하게 됩니다.
03:17
But this way of intentionally
ignoring opposing ideas
49
197570
4547
하지만 의도적으로 반대 생각을
무시하는 이 방법은
03:22
makes human community
hyperfragmented and separated.
50
202141
4056
우리의 공동체를 과도하게
해체시키고 분열 시킵니다.
03:27
The device inside the helmet
reshapes reality
51
207343
3059
헬멧 안에 장치는 현실을 재조작하고
03:30
and projects into our eyes
through a set of lenses
52
210426
2950
렌즈를 통해 우리 눈에 투사 시키면
03:33
to create an augmented reality.
53
213400
1915
가상 현실이 만들어집니다.
03:35
I picked the color red,
because it's intense and emotional,
54
215935
4782
제가 빨간 색을 고른 이유는
강렬하고 감성적이고,
03:40
it has high visibility
55
220741
1958
가장 눈이 잘 띄고,
03:42
and it's political.
56
222723
1278
정치적인 색깔이기 때문입니다.
03:44
So what if we take a look
57
224390
1263
만약 우리가
03:45
at the last American
presidential election map
58
225677
3049
작년 미국 대통령 선거지도를
03:48
through the helmet?
59
228750
1165
헬멧을 통해 본다면 어땠을까요?
03:49
(Laughter)
60
229939
1008
(웃음)
03:50
You can see that it doesn't matter
if you're a Democrat or a Republican,
61
230971
3573
여러분이 민주당 혹은 공화당 지지자임이
상관 없게 됩니다.
03:54
because the mediation
alters our perceptions.
62
234568
3989
왜냐하면 보이는 이미지가
지각을 변화시키기 때문입니다.
03:58
The allergy exists on both sides.
63
238581
3133
이 알러지는 양쪽 모두에서 발생합니다.
04:03
In digital media,
64
243134
1320
디지털 미디어에서는
04:04
what we see every day
is often mediated,
65
244478
3133
우리가 매일 보는 것이
가끔 조작 되지만
04:07
but it's also very nuanced.
66
247635
1733
매우 미세합니다.
04:09
If we are not aware of this,
67
249758
1995
우리가 이 차이를 눈치채지 않는다면
04:11
we will keep being vulnerable
to many kinds of mental allergies.
68
251777
5405
정신적 알러지와 같은 많은 것들에
취약해 질 것입니다.
04:18
Our perception is not only
part of our identities,
69
258900
3510
우리의 지각은
우리를 이루는 한 부분이기도 하고
04:22
but in digital media, it's also
a part of the value chain.
70
262434
4294
디지털 미디어에서
가치 사슬의 한 부분이기도 합니다.
04:27
Our visual field is packed
with so much information
71
267992
3575
시각 영역은 수 많은 정보들로
가득차 있는데요.
04:31
that our perception has become
a commodity with real estate value.
72
271591
5512
이 정보들은 자산 가치가
매겨진 것들이죠.
04:38
Designs are used to exploit
our unconscious biases,
73
278035
3529
디자인은 우리의 무의식적인 편견과
04:41
algorithms favor content
that reaffirms our opinions,
74
281588
3480
좋아하는 컨텐츠를 불러오는
알고리즘을 이용합니다.
04:45
so that every little corner
of our field of view is being colonized
75
285092
4191
이는 광고를 팔기 위해서
04:49
to sell ads.
76
289307
1342
우리의 눈이 가는 곳곳을
점령하기 위함입니다.
04:51
Like, when this little red dot
comes out in your notifications,
77
291402
4017
마치 작은 빨간 색 점이
여러분의 알림 창에서 보일 때,
04:55
it grows and expands,
and to your mind, it's huge.
78
295443
4244
이 점은 여러분의 머릿속에서
점점 커지는데, 굉장히 크죠.
05:00
So I started to think of ways
to put a little dirt,
79
300571
3361
그래서 저는 안경을 더럽히거나
05:03
or change the lenses of my glasses,
80
303956
2698
안경의 렌즈를 바꾸는 방법 같은 것을
생각하게 되었고,
05:06
and came up with another project.
81
306678
2098
또 다른 프로젝트를 만들었습니다.
05:09
Now, keep in mind this is conceptual.
It's not a real product.
82
309423
3801
진짜 제품이 아니라, 개념적인
프로젝트라는 것을 염두해 두세요.
05:13
It's a web browser plug-in
83
313676
2073
제가 만든 건 웹브라우저
프로그램 인데요.
05:15
that could help us to notice
the things that we would usually ignore.
84
315773
4342
우리가 평소에 무시하는 것들을
알려주는 것입니다.
05:20
Like the helmet,
the plug-in reshapes reality,
85
320709
3770
헬멧처럼, 이 프로그램은
현실을 재창조 하지만
05:24
but this time, directly
into the digital media itself.
86
324503
3397
이번에는 디지털 미디어 자체를
직접적으로 표현했습니다.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
숨겨져있고, 필터로 걸러진
의견들을 보여 줍니다.
05:32
What you should be noticing now
88
332246
1573
지금 여러 분들에게 알려져야 할 것들은
05:33
will be bigger and vibrant,
89
333843
2509
더 크고 선명해질 겁니다.
05:36
like here, this story about gender bias
emerging from the sea of cats.
90
336376
4295
여기, 고양이 사진들 틈에서 보이는
성 편견과 관련된 이야기 처럼요.
05:40
(Laughter)
91
340695
2021
(웃음)
05:42
The plug-in could dilute the things
that are being amplified by an algorithm.
92
342740
5417
이 플러그-인은 알고리즘으로 증폭된 것을
누그러뜨릴 수 있어요.
05:48
Like, here in this comment section,
93
348831
1696
여기에 있는 댓글들 처럼 말이에요.
05:50
there are lots of people shouting
about the same opinions.
94
350551
3069
같은 의견들을 이야기 하는
사람들이 정말 많죠.
05:54
The plug-in makes
their comments super small.
95
354111
2870
이 프로그램은 이런 댓글들을
정말 작게 만듭니다.
05:57
(Laughter)
96
357005
1008
(웃음)
05:58
So now the amount of pixel presence
they have on the screen
97
358037
5251
그래서 화면에 보이는 픽셀의 양은
06:03
is proportional to the actual value
they are contributing to the conversation.
98
363312
4554
이 대화에 기여한 실제 가치에
비례해서 보이는 겁니다.
06:07
(Laughter)
99
367890
1942
(웃음)
06:11
(Applause)
100
371345
3631
(박수)
06:16
The plug-in also shows the real estate
value of our visual field
101
376919
4061
또한 이 플러그-인은 시각 영역에서의
자산 가치를 보여 줍니다.
06:21
and how much of our perception
is being commoditized.
102
381004
3456
그리고 얼마나 우리의 지각을
상품화 시켰는지 보여 줍니다.
06:24
Different from ad blockers,
103
384912
1589
광고를 막는 프로그램과는 다르게
06:26
for every ad you see on the web page,
104
386525
2472
우리가 웹 페이지에서
매일 보는 광고에 대해
06:29
it shows the amount of money
you should be earning.
105
389021
3407
그 제품을 사려면 여러분이 얼마나
많은 돈을 벌어야 하는지 보여 줍니다.
06:32
(Laughter)
106
392452
1245
(웃음)
06:34
We are living in a battlefield
between reality
107
394356
2292
우리는 현실과
06:36
and commercial distributed reality,
108
396672
2253
현실에 분포되어 있는 광고들 사이에
존재하는 전쟁터에서 살고 있습니다.
06:39
so the next version of the plug-in
could strike away that commercial reality
109
399329
5086
그래서 다음 버전은 광고들을 없애고
06:44
and show you things as they really are.
110
404439
2799
광고가 없는 현실 자체를
보여줄 겁니다.
06:47
(Laughter)
111
407262
1791
(웃음)
06:50
(Applause)
112
410335
3629
(박수)
06:55
Well, you can imagine how many directions
this could really go.
113
415179
3612
여러분은 정말 갈 수 있는 방향들이
얼마나 많은지 상상할 수 있습니다.
06:58
Believe me, I know the risks are high
if this were to become a real product.
114
418815
4414
저를 믿어보세요, 세상이 상품화가 된다면
정말 위험할 거라고 생각해요.
07:04
And I created this with good intentions
115
424006
2939
저는 좋은 의도를 갖고
작품을 만들었습니다.
07:06
to train our perception
and eliminate biases.
116
426969
3837
우리의 지각을 훈련하고
편견을 제거하기 위해서 말입니다.
07:10
But the same approach
could be used with bad intentions,
117
430830
3728
하지만 같은 접근이더라도
나쁜 의도로 사용될 수 있습니다.
07:14
like forcing citizens
to install a plug-in like that
118
434582
3205
대중의 목소리를 통제하기 위해
07:17
to control the public narrative.
119
437811
2126
시민들에게 프로그램을
설치하게 강요하는 경우 처럼요.
07:20
It's challenging to make it
fair and personal
120
440768
2737
또 다른 편견을 만들지 않고
07:23
without it just becoming
another layer of mediation.
121
443529
3155
프로그램을 공정하고 개인적으로 만드는 것은
어려운 일입니다.
07:27
So what does all this mean for us?
122
447933
2662
이 모든 것은 우리에게
어떤 의미를 줄까요?
07:31
Even though technology
is creating this isolation,
123
451230
3733
비록 기술이 고립을 창조했지만,
07:34
we could use it to make
the world connected again
124
454987
3602
우리는 세계를 다시 연결시키는데
기술을 활용할 수 있습니다.
07:38
by breaking the existing model
and going beyond it.
125
458613
3247
이를 위해서는 기존의 알고리즘을 깨고
더 나은 것을 만들어야 합니다.
07:42
By exploring how we interface
with these technologies,
126
462508
3338
우리가 어떻게 기술들을
활용할 것인가를 탐색함으로써
07:45
we could step out of our habitual,
almost machine-like behavior
127
465870
5185
기계처럼 받아들였던
행동들에서 벗어날 수 있고,
07:51
and finally find common ground
between each other.
128
471079
2670
우리에게 존재하는 공통점을
발견할 수 있을 것입니다.
07:54
Technology is never neutral.
129
474915
1789
기술은 중립적인 것이 절대 아닙니다.
07:57
It provides a context and frames reality.
130
477191
3019
기술은 현실에 맥락과
프레임을 씌웁니다.
08:00
It's part of the problem
and part of the solution.
131
480234
2888
이점은 문제이기도 하고,
해결책이기도 합니다.
08:03
We could use it to uncover our blind spots
and retrain our perception
132
483624
5640
왜냐하면 우리는 사각지대를 발견할 수 있고
지각을 재훈련 시킬 수 있고,
08:09
and consequently, choose
how we see each other.
133
489949
3506
결과적으로 서로를 어떻게 바라 보는지
선택하게 할 수 있기 때문입니다.
08:13
Thank you.
134
493892
1191
감사합니다.
08:15
(Applause)
135
495107
2685
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.