The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views

2018-07-13 ・ TED


New videos

The nightmare videos of childrens' YouTube — and what's wrong with the internet today | James Bridle

5,908,126 views ・ 2018-07-13

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: dasol park 검토: TJ Kim
00:12
I'm James.
0
12777
1183
저는 제임스라고 합니다.
00:13
I'm a writer and artist,
1
13984
1686
작가 겸 예술가이고,
00:15
and I make work about technology.
2
15694
2341
과학기술을 소재로 한 작품을 만듭니다.
00:18
I do things like draw life-size outlines of military drones
3
18454
3911
실제 크기의 군사용 드론의 윤곽을 전 세계 여러 도시의 거리에
00:22
in city streets around the world,
4
22389
1828
그리는 등의 작업을 하죠.
00:24
so that people can start to think and get their heads around
5
24241
2950
사람들이 접하기도 상상하기도 어려운 과학기술에 대해
00:27
these really quite hard-to-see and hard-to-think-about technologies.
6
27215
3440
생각해 보고 알아 보는 기회를 제공하는 셈이죠.
00:31
I make things like neural networks that predict the results of elections
7
31494
3836
또, 선거결과를 예측하는 컴퓨터 신경망을 만들기도 하는데,
00:35
based on weather reports,
8
35354
1737
일기예보에 기반을 둔 것입니다.
00:37
because I'm intrigued about
9
37115
1314
이런 별난 신 기술들이 가지고 있는
00:38
what the actual possibilities of these weird new technologies are.
10
38453
3924
실제 가능성에 대해 관심이 많기 때문에 가능한 일이죠.
00:43
Last year, I built my own self-driving car.
11
43405
2426
작년엔 무인 자동차도 직접 만들어 봤어요.
00:45
But because I don't really trust technology,
12
45855
2526
제가 기술을 신봉하진 않기 때문에,
00:48
I also designed a trap for it.
13
48405
1928
그 차를 잡아 둘 올가미까지 디자인 했습니다.
00:50
(Laughter)
14
50777
1086
(웃음)
00:51
And I do these things mostly because I find them completely fascinating,
15
51887
4298
아주 큰 매력을 느끼기 때문에 이런 작업을 하기도 하지만,
00:56
but also because I think when we talk about technology,
16
56209
2602
과학기술을 논할 때,
00:58
we're largely talking about ourselves
17
58835
2619
대부분 우리 자신에 대한 것이고,
01:01
and the way that we understand the world.
18
61478
2299
우리가 세상을 이해하는 방식에 국한되기 때문입니다.
01:03
So here's a story about technology.
19
63801
2442
과학기술에 관련된 이야기를 하나 해 드릴게요.
01:07
This is a "surprise egg" video.
20
67520
2830
"서프라이즈 에그" 영상입니다.
01:10
It's basically a video of someone opening up loads of chocolate eggs
21
70374
3348
누군가 수많은 알 모양의 초콜릿을 열어,
01:13
and showing the toys inside to the viewer.
22
73746
2126
안에 들어 있는 장난감을 시청자들에게 보여주는 거죠.
01:16
That's it. That's all it does for seven long minutes.
23
76461
2649
그게 다에요. 7분 동안이나 계속 됩니다.
01:19
And I want you to notice two things about this.
24
79428
3051
여기서 주목할 것이 두 가지 있습니다.
01:22
First of all, this video has 30 million views.
25
82503
4074
우선, 이 영상의 조회수가 3천만 회라는 것입니다.
01:26
(Laughter)
26
86601
1275
(웃음)
01:28
And the other thing is,
27
88376
1166
그리고 또 하나,
01:29
it comes from a channel that has 6.3 million subscribers,
28
89566
3869
630만명이 이 채널에 등록되어 있고,
01:33
that has a total of eight billion views,
29
93459
2680
전체 조회수가 80억회에 달하는데,
01:36
and it's all just more videos like this --
30
96163
3106
모두 이런 종류의 영상들이란 거죠.
01:40
30 million people watching a guy opening up these eggs.
31
100256
3908
한 사람이 알을 까는 장면을 3천만명이 보고 있다는 것입니다.
01:44
It sounds pretty weird, but if you search for "surprise eggs" on YouTube,
32
104188
4481
별나게 들리지만, 유튜브에서 "서프라이즈 에그"를 검색해 보면,
01:48
it'll tell you there's 10 million of these videos,
33
108693
3523
천만개 정도의 결과가 나옵니다.
01:52
and I think that's an undercount.
34
112240
1657
제가 조금 덜 센 것 같네요.
01:53
I think there's way, way more of these.
35
113921
1897
아마 훨씬 더 많겠죠.
01:55
If you keep searching, they're endless.
36
115842
2242
계속 찾아 보면, 끝도 없이 나올 거예요.
01:58
There's millions and millions of these videos
37
118108
2159
이런 종류의 영상들은 수 백만 개가 넘습니다.
02:00
in increasingly baroque combinations of brands and materials,
38
120291
3454
브랜드와 소재가 어지럽게 뒤엉킨 이런 영상들은
02:03
and there's more and more of them being uploaded every single day.
39
123769
3846
매일 점점 더 많이 올라옵니다.
02:07
Like, this is a strange world. Right?
40
127639
3511
신기한 세상이죠. 맞나요?
02:11
But the thing is, it's not adults who are watching these videos.
41
131174
3383
하지만, 이런 영상을 보는 이들은 어른들이 아니라,
02:14
It's kids, small children.
42
134581
2921
아이들이죠, 어린 아이들이요.
02:17
These videos are like crack for little kids.
43
137526
2154
아이들에게 이런 영상들은 마약과도 같습니다.
02:19
There's something about the repetition,
44
139704
2075
계속해서 반복되는 장면들,
02:21
the constant little dopamine hit of the reveal,
45
141803
2468
알 속의 내용물을 확인할 때마다 조금씩 발생하는 '도파민'은
02:24
that completely hooks them in.
46
144295
1866
아이들을 중독시키죠.
02:26
And little kids watch these videos over and over and over again,
47
146185
4809
어린 아이들은 이런 영상을 계속해서 보면서,
02:31
and they do it for hours and hours and hours.
48
151018
2327
몇 시간을 보내기도 합니다.
02:33
And if you try and take the screen away from them,
49
153369
2356
여러분들이 더 이상 못 보게 하면
02:35
they'll scream and scream and scream.
50
155749
1782
울고 불고 난리가 날 거예요.
02:37
If you don't believe me --
51
157555
1262
저를 못 믿겠으면
02:38
and I've already seen people in the audience nodding --
52
158841
2607
이미 몇분은 고개를 끄덕이는데요.
02:41
if you don't believe me, find someone with small children and ask them,
53
161472
3391
그럼, 어린 애를 키우는 분에게 한번 물어보세요.
02:44
and they'll know about the surprise egg videos.
54
164887
2340
분명히 이 '서프라이즈 에그' 영상에 대해 알고 있을 겁니다.
02:47
So this is where we start.
55
167251
2070
여기가 오늘 강연의 시작입니다.
02:49
It's 2018, and someone, or lots of people,
56
169345
3642
2018년이 된 지금, 누군가, 아니면 많은 사람들이
02:53
are using the same mechanism that, like, Facebook and Instagram are using
57
173011
3941
'페이스북'이나 '인스타그램'에서 사용하는 방식들을 이용해
02:56
to get you to keep checking that app,
58
176976
1989
사람들로 하여금 계속 어플을 확인하게 하고,
02:58
and they're using it on YouTube to hack the brains of very small children
59
178989
3985
어린 아이들까지 유튜브에 중독되게 만들고 있습니다.
03:02
in return for advertising revenue.
60
182998
1958
모두 광고 수익을 위한 일이죠.
03:06
At least, I hope that's what they're doing.
61
186346
2001
적어도, 그게 전부였으면 합니다.
03:08
I hope that's what they're doing it for,
62
188371
1955
그게 전부였으면 하는데,
03:10
because there's easier ways of making ad revenue on YouTube.
63
190350
5308
더 쉽게 유튜브에서 광고로 돈 벌 수 있는 방법들이 있기 때문이죠.
03:15
You can just make stuff up or steal stuff.
64
195682
2332
무작정 꾸며내거나 도용하면 되니까요.
03:18
So if you search for really popular kids' cartoons
65
198038
2635
아주 인기 많은 어린이 만화를 검색해 보면,
03:20
like "Peppa Pig" or "Paw Patrol,"
66
200697
1654
"페파 피그" 또는 "파우 패트롤" 같은 것들이죠,
03:22
you'll find there's millions and millions of these online as well.
67
202375
3147
수 백만개가 넘는 영상들이 뜹니다.
03:25
Of course, most of them aren't posted by the original content creators.
68
205546
3352
물론, 대부분은 원작자가 아닌 이들에 의해 올라온 것들이죠.
03:28
They come from loads and loads of different random accounts,
69
208922
2999
무작위로 만들어진 수많은 계정으로부터 올려졌고,
03:31
and it's impossible to know who's posting them
70
211945
2240
누가, 왜 그런 영상들을 올리는지
03:34
or what their motives might be.
71
214209
1822
알 수도 없습니다.
03:36
Does that sound kind of familiar?
72
216428
1930
어디서 들어본 얘기 같지 않나요?
03:38
Because it's exactly the same mechanism
73
218382
1980
우리가 디지털 서비스를 이용할 때와
03:40
that's happening across most of our digital services,
74
220386
2600
같은 방식이기 때문입니다.
03:43
where it's impossible to know where this information is coming from.
75
223010
3207
정보들의 출처를 알 수 없는 그 방식 말이죠.
03:46
It's basically fake news for kids,
76
226241
1829
말하자면 아동용 가짜 뉴스들이고,
03:48
and we're training them from birth
77
228094
2161
그 아이들이 태어나면서부터
03:50
to click on the very first link that comes along,
78
230279
2506
검색 결과 중 맨 위에 있는 링크를 누르도록 훈련시키는 것과 같습니다.
03:52
regardless of what the source is.
79
232809
1953
그 출처와는 상관없이 말이죠.
03:54
That's doesn't seem like a terribly good idea.
80
234786
2603
결코 바람직한 일이 아닙니다.
03:58
Here's another thing that's really big on kids' YouTube.
81
238399
2710
아동용 유튜브에서 인기가 많은 것이 하나 더 있죠.
04:01
This is called the "Finger Family Song."
82
241133
1928
"핑거 패밀리 송"입니다.
04:03
I just heard someone groan in the audience.
83
243085
2018
방금 누군가 한숨을 쉬시네요.
04:05
This is the "Finger Family Song."
84
245127
1624
이것이 "핑거 패밀리 송"입니다.
04:06
This is the very first one I could find.
85
246775
1930
제가 가장 먼저 찾은 영상이죠.
04:08
It's from 2007, and it only has 200,000 views,
86
248729
2829
2007년에 올라온 이 영상은 조회수가 20만회 정도였어요.
04:11
which is, like, nothing in this game.
87
251582
1976
다른 것들에 비하면 대단한 것도 아니죠.
04:13
But it has this insanely earwormy tune,
88
253582
2852
여기 정말 따라 부르기 쉬운 노래가 하나 있는데,
04:16
which I'm not going to play to you,
89
256458
1682
여러분께 들려 드리진 않으려구요.
04:18
because it will sear itself into your brain
90
258164
2008
한 번 들으면 머리 속에서 떠나질 않거든요.
04:20
in the same way that it seared itself into mine,
91
260196
2395
지금도 제 머리 속에 남아 있는데,
04:22
and I'm not going to do that to you.
92
262615
1770
여러분들까지 그렇게 만들 순 없죠.
04:24
But like the surprise eggs,
93
264409
1344
'서프라이즈 에그' 처럼,
04:25
it's got inside kids' heads
94
265777
2164
이 영상도 아이들의 머리 속에 들어가
04:27
and addicted them to it.
95
267965
1607
그들을 중독시켰습니다.
04:29
So within a few years, these finger family videos
96
269596
2531
그리고 몇 년 안돼, 이 '핑거 패밀리' 영상도
04:32
start appearing everywhere,
97
272151
1303
어디를 가나 볼 수 있게 됐죠.
04:33
and you get versions in different languages
98
273478
2029
음식이나 만화의 소재가 되는 것이라면 뭐든 이용해 만든
04:35
with popular kids' cartoons using food
99
275531
2121
인기 많은 어린이 만화들을
04:37
or, frankly, using whatever kind of animation elements
100
277676
2550
이제 다양한 종류와 언어로
04:40
you seem to have lying around.
101
280250
2252
접할 수 있게 된 것이죠.
04:43
And once again, there are millions and millions and millions of these videos
102
283002
5197
다시 말해, 이런 말도 안되는 영상들이
04:48
available online in all of these kind of insane combinations.
103
288223
3435
온라인 상에 몇 백만 개나 돌아 다니는 겁니다.
04:51
And the more time you start to spend with them,
104
291682
2228
이런 것들을 보는데, 시간을 쓰면 쓸수록
04:53
the crazier and crazier you start to feel that you might be.
105
293934
3694
점점 미쳐가는 기분을 느낄 수도 있습니다.
04:57
And that's where I kind of launched into this,
106
297652
3333
바로 제가 이런 기분에 빠지게 된 이유죠.
05:01
that feeling of deep strangeness and deep lack of understanding
107
301009
3666
제 주변에서 이런 일들이 어떻게 가능하게 됐는지,
05:04
of how this thing was constructed that seems to be presented around me.
108
304699
4175
도저히 알 수 없는 아주 묘한 그런 기분이요.
05:08
Because it's impossible to know where these things are coming from.
109
308898
3167
어디서 시작됐는지 알 수가 없기 때문입니다.
05:12
Like, who is making them?
110
312089
1241
도대체 누가 이런 것들을 만드는 걸까요?
05:13
Some of them appear to be made of teams of professional animators.
111
313354
3143
어떤 것들은 만화 제작자들에 의해 전문적으로 만들어 지기도 하고,
05:16
Some of them are just randomly assembled by software.
112
316521
2882
어떤 것들은 대충 짜집기한 티가 납니다.
05:19
Some of them are quite wholesome-looking young kids' entertainers.
113
319427
4253
어떤 것들은 아이들이 즐기기에 괜찮아 보이는 것도 있습니다.
05:23
And some of them are from people
114
323704
1552
어떤 것들은 아이들 곁에 있어선
05:25
who really clearly shouldn't be around children at all.
115
325280
3007
절대 안 되는 사람들이 만든 것도 있습니다.
05:28
(Laughter)
116
328311
1615
(웃음)
05:30
And once again, this impossibility of figuring out who's making this stuff --
117
330987
4640
다시 말해, 누가 이런 것들을 만드는지 알 수가 없다는 것
05:35
like, this is a bot?
118
335651
1156
자동처리 프로그램?
05:36
Is this a person? Is this a troll?
119
336831
2647
사람인가? 아니면 트롤인가?
05:39
What does it mean that we can't tell the difference
120
339502
2382
우리가 이제 이런 것들을 구별할 수 없다는 것이
05:41
between these things anymore?
121
341908
1583
무엇을 의미할까요?
05:43
And again, doesn't that uncertainty feel kind of familiar right now?
122
343515
4848
다시 말해, 이런 불확실함에 익숙하지 않으세요?
05:50
So the main way people get views on their videos --
123
350145
2580
사람들이 조회수를 올리기 위해 쓰는 주된 방법은
05:52
and remember, views mean money --
124
352749
1707
조회수는 곧 돈이란 걸 기억하세요.
05:54
is that they stuff the titles of these videos with these popular terms.
125
354480
4742
사람들이 많이 찾는 말을 제목에 붙여 쓰는 것입니다.
05:59
So you take, like, "surprise eggs"
126
359246
1687
예를 들어, "서프라이즈 에그"를 제목에 붙이고,
06:00
and then you add "Paw Patrol," "Easter egg,"
127
360957
2066
"파우 패트롤", "부활절 달걀" 같은
06:03
or whatever these things are,
128
363047
1393
말들을 마구잡이로
06:04
all of these words from other popular videos into your title,
129
364464
2893
가져다가 곁들이는 거죠.
06:07
until you end up with this kind of meaningless mash of language
130
367381
2968
인간으로서 이해할 수 없는 의미없는 말들을 줄줄이 엮어
06:10
that doesn't make sense to humans at all.
131
370373
2498
사람들로 하여금 그 영상들을 보게 하는 것입니다.
06:12
Because of course it's only really tiny kids who are watching your video,
132
372895
3546
어차피 그런 영상을 보는건 어린 아이들인데,
06:16
and what the hell do they know?
133
376465
1827
그 아이들이 무슨 죄죠?
06:18
Your real audience for this stuff is software.
134
378316
3007
사실 이런 영상들의 실질적인 시청자는 소프트웨어입니다.
06:21
It's the algorithms.
135
381347
1156
알고리즘이죠.
06:22
It's the software that YouTube uses
136
382527
1855
유튜브에서 사용하는 이 소프트웨어는
06:24
to select which videos are like other videos,
137
384406
2483
영상들을 선별하고,
06:26
to make them popular, to make them recommended.
138
386913
2243
인기나 추천을 많이 받게 만듭니다.
06:29
And that's why you end up with this kind of completely meaningless mash,
139
389180
3461
그래서 이 황당한 말들이 제목과 내용 설명에
06:32
both of title and of content.
140
392665
2071
마구 쓰여지는 거죠.
06:35
But the thing is, you have to remember,
141
395792
1894
하지만, 꼭 명심할 것은
06:37
there really are still people within this algorithmically optimized system,
142
397710
4478
알고리즘으로 최적화된 이런 시스템 상에서
06:42
people who are kind of increasingly forced to act out
143
402212
2790
점점 더 괴상한 말의 조합들을 쏟아 내야하는
06:45
these increasingly bizarre combinations of words,
144
405026
3066
환경이 조장된다는 것입니다.
06:48
like a desperate improvisation artist responding to the combined screams
145
408116
5173
마치 수 많은 아이들의 함성에 굶주린
06:53
of a million toddlers at once.
146
413313
2203
절박한 즉흥연기자처럼 말이죠.
06:57
There are real people trapped within these systems,
147
417168
2468
실제로 사람들은 이런 시스템 안에 갇히게 되고,
06:59
and that's the other deeply strange thing about this algorithmically driven culture,
148
419660
4055
알고리즘에 의해 지배되는 사회라는 아주 기이한 현상을 초래했습니다.
07:03
because even if you're human,
149
423739
1381
인간임에도 불구하고,
07:05
you have to end up behaving like a machine
150
425144
2145
살아남기 위해,
07:07
just to survive.
151
427313
1800
기계처럼 행동하게 된 것이죠.
07:09
And also, on the other side of the screen,
152
429137
2100
그리고, 화면 반대편에는
07:11
there still are these little kids watching this stuff,
153
431261
2947
어린 아이들이 여전히 이런 영상들을 보고 있고,
07:14
stuck, their full attention grabbed by these weird mechanisms.
154
434232
4206
이 기이한 구조에 푹 빠져 버립니다.
07:18
And most of these kids are too small to even use a website.
155
438768
2798
이런 웹사이트를 이용하는 아이들은 대부분 아주 어리죠.
07:21
They're just kind of hammering on the screen with their little hands.
156
441590
3276
작은 손으로 화면을 두들기는 것 뿐입니다.
07:24
And so there's autoplay,
157
444890
1217
그래서 자동재생 기능이 있는 거죠.
07:26
where it just keeps playing these videos over and over and over in a loop,
158
446131
3579
이런 영상들이 계속 반복해서 보여지도록 말입니다.
07:29
endlessly for hours and hours at a time.
159
449734
2059
한 번에 몇 시간씩 끝도 없습니다.
07:31
And there's so much weirdness in the system now
160
451817
2843
현재 이런 시스템에는 정말 이상한 것들이 많은데,
07:34
that autoplay takes you to some pretty strange places.
161
454684
3009
자동재생이 되면서 뜻밖의 영상이 보여 지기도 하죠.
07:37
This is how, within a dozen steps,
162
457717
2488
열 몇 번 정도를 거치면,
07:40
you can go from a cute video of a counting train
163
460229
3158
기차의 수를 세는 이 깜찍한 영상에서 시작해,
07:43
to masturbating Mickey Mouse.
164
463411
2442
미키마우스가 자위하는 영상까지 보게 됩니다.
07:46
Yeah. I'm sorry about that.
165
466529
2288
맞습니다. 안타까운 일이죠.
07:48
This does get worse.
166
468841
1700
이제 더 심각해집니다.
07:50
This is what happens
167
470565
1282
이런 것들은,
07:51
when all of these different keywords,
168
471871
3086
이 다양한 키워드들,
07:54
all these different pieces of attention,
169
474981
2461
이 다양한 관심들,
07:57
this desperate generation of content,
170
477466
2807
이 필사적인 콘텐츠의 양산 등이
08:00
all comes together into a single place.
171
480297
2582
한 데 모이면서 발생합니다.
08:03
This is where all those deeply weird keywords come home to roost.
172
483871
4472
이상한 검색어들이 모여 부메랑 효과를 가져오는 거죠.
08:08
You cross-breed the finger family video
173
488367
2391
'핑거 패밀리' 영상과
08:10
with some live-action superhero stuff,
174
490782
2088
슈퍼영웅이 나오는 영화들을 함께 검색해 보면,
08:12
you add in some weird, trollish in-jokes or something,
175
492894
3256
그냥 장난으로 별난 검색어를 쳤을 뿐인데,
08:16
and suddenly, you come to a very weird place indeed.
176
496174
3366
뜻밖에 아주 이상한 결과에 접하게 됩니다.
08:19
The stuff that tends to upset parents
177
499564
2113
부모님들을 주로 화나게 하는
08:21
is the stuff that has kind of violent or sexual content, right?
178
501701
3331
폭력적이거나 성적인 것들이죠. 맞나요?
08:25
Children's cartoons getting assaulted,
179
505056
2822
폭행이나 살인,
08:27
getting killed,
180
507902
2018
짖궂은 장난 등을 보여주는
08:29
weird pranks that actually genuinely terrify children.
181
509944
3343
어린이 만화들은 아이들을 겁에 질리게 합니다.
08:33
What you have is software pulling in all of these different influences
182
513311
3675
다양하게 영향을 미치는 영상물들을 긁어 모으는 소프트웨어가
08:37
to automatically generate kids' worst nightmares.
183
517010
2961
아이들에게 아주 끔찍한 악몽들을 기계적으로 제공하는 것이죠.
08:39
And this stuff really, really does affect small children.
184
519995
2701
어린 아이들은 아주 큰 영향을 받게 됩니다.
08:42
Parents report their children being traumatized,
185
522720
2866
부모님들은 아이들이 정신적인 충격을 받고,
08:45
becoming afraid of the dark,
186
525610
1392
어둠을 무서워하게 되고,
08:47
becoming afraid of their favorite cartoon characters.
187
527026
3050
좋아하던 만화 주인공들까지 기피하게 됐다고 말합니다.
08:50
If you take one thing away from this, it's that if you have small children,
188
530524
3611
오늘 꼭 기억해야 할 것 하나는, 혹시 어린 자녀분들이 계시다면,
08:54
keep them the hell away from YouTube.
189
534159
1996
유튜브는 절대 쓰지 못하게 하란 것입니다.
08:56
(Applause)
190
536743
3949
(박수)
09:02
But the other thing, the thing that really gets to me about this,
191
542504
3096
그런데, 또 하나 저를 괴롭히는 건
09:05
is that I'm not sure we even really understand how we got to this point.
192
545624
4629
어쩌다 상황이 이렇게까지 됐는지 알 수가 없다는 것입니다.
09:10
We've taken all of this influence, all of these things,
193
550951
2931
이런 영향력을 가진 모든 것들을 가져다 뒤섞어,
09:13
and munged them together in a way that no one really intended.
194
553906
2953
누구도 예상치 못한 기이한 현상을 만들어 낸 것입니다.
09:16
And yet, this is also the way that we're building the entire world.
195
556883
3156
그런데, 이것이 오늘날 우리가 세상을 만들어 가는 방식이죠.
09:20
We're taking all of this data,
196
560063
1773
이런 모든 데이터를 가지고,
09:21
a lot of it bad data,
197
561860
1447
좋지 않은 것들이 많은데요.
09:23
a lot of historical data full of prejudice,
198
563331
3029
편견으로 가득한 과거의 기록들,
09:26
full of all of our worst impulses of history,
199
566384
2837
역사상 최악의 충동적인 사건 사고들을 모아
09:29
and we're building that into huge data sets
200
569245
2049
거대한 데이터 집합을 만들어
09:31
and then we're automating it.
201
571318
1423
자동화시키고 있습니다.
09:32
And we're munging it together into things like credit reports,
202
572765
3502
우리는 그 데이터들을 함께 섞어, 신용평가 보고서,
09:36
into insurance premiums,
203
576291
1634
보험료 산정,
09:37
into things like predictive policing systems,
204
577949
2693
치안 예측 시스템,
09:40
into sentencing guidelines.
205
580666
1762
양형기준 등을 정하는 데 쓰고 있습니다.
09:42
This is the way we're actually constructing the world today
206
582452
2821
오늘날 우리가 세상을 만들어 가는 방식이
09:45
out of this data.
207
585297
1151
이런 데이터들에 의해 결정되는 것이죠.
09:46
And I don't know what's worse,
208
586472
1698
뭐가 더 나쁜 건지 모르겠어요.
09:48
that we built a system that seems to be entirely optimized
209
588194
3228
인간이 할 수 있는 최악의 행위에 최적화된 시스템을
09:51
for the absolute worst aspects of human behavior,
210
591446
2808
일부러 만들어 내는 것과,
09:54
or that we seem to have done it by accident,
211
594278
2425
부지불식간에 어쩌다가
09:56
without even realizing that we were doing it,
212
596727
2207
그렇게 되버리는 것 중 말이죠.
09:58
because we didn't really understand the systems that we were building,
213
598958
3382
우리가 만들고 있는 이 시스템들의
10:02
and we didn't really understand how to do anything differently with it.
214
602364
3683
활용 방법 또한 전혀 알지 못하기 때문입니다.
10:06
There's a couple of things I think that really seem to be driving this
215
606769
3365
이런 현상을 이끄는 두 가지 요인이 있습니다.
10:10
most fully on YouTube,
216
610158
1189
거의 유튜브에서 말이죠.
10:11
and the first of those is advertising,
217
611371
1827
첫번째, 광고입니다.
10:13
which is the monetization of attention
218
613222
2837
사람들의 관심을 끌어 수익을 창출하는 것 말이죠.
10:16
without any real other variables at work,
219
616083
3136
사실 다른 이유는 찾아보기 힘듭니다.
10:19
any care for the people who are actually developing this content,
220
619243
3885
실제 이런 콘텐츠를 만드는 사람들,
10:23
the centralization of the power, the separation of those things.
221
623152
3636
권력의 중앙 집권화와 분산 등은 신경도 쓰지 않습니다.
10:26
And I think however you feel about the use of advertising
222
626812
3144
결국 이런 현상을 부추기는 광고의 사용에 대해
10:29
to kind of support stuff,
223
629980
1238
어떻게 생각하실지 모르지만,
10:31
the sight of grown men in diapers rolling around in the sand
224
631242
3067
사실 제대로 알지도 못하는 알고리즘을 통해
10:34
in the hope that an algorithm that they don't really understand
225
634333
2983
혹시 돈이 될까 하고 만든, 다 큰 어른이 기저귀를 차고
10:37
will give them money for it
226
637340
1315
모래사장에서 뒹구는 이 영상이
10:38
suggests that this probably isn't the thing
227
638679
2037
시사하는 것은,
10:40
that we should be basing our society and culture upon,
228
640740
2563
이런 것들이 우리 사회와 문화의 기반이 되어서도,
10:43
and the way in which we should be funding it.
229
643327
2160
투자의 대상이 되어서도 안된다는 것입니다.
10:45
And the other thing that's kind of the major driver of this is automation,
230
645511
3519
이런 현상을 이끄는 또 다른 요인은 자동화입니다.
10:49
which is the deployment of all of this technology
231
649054
2329
소개되자마자 아무런 검증도 없이
10:51
as soon as it arrives, without any kind of oversight,
232
651407
2521
상용화되는 과학기술의 단면이죠.
10:53
and then once it's out there,
233
653952
1412
일단 그렇게 된 후에는,
10:55
kind of throwing up our hands and going, "Hey, it's not us, it's the technology."
234
655388
3843
그저 포기 한 것처럼, "봐, 우리가 아니라, 그 기술이 문제야."
10:59
Like, "We're not involved in it."
235
659255
1642
"우리하곤 상관 없어" 하는 것 처럼 말이죠.
11:00
That's not really good enough,
236
660921
1767
이건 변명에 불과합니다.
11:02
because this stuff isn't just algorithmically governed,
237
662712
2710
단순히 알고리즘에 의해 지배되고 있을 뿐 아니라,
11:05
it's also algorithmically policed.
238
665446
2498
규제까지 받고 있기 때문이죠.
11:07
When YouTube first started to pay attention to this,
239
667968
2848
유튜브가 이 문제에 처음 관심을 가지면서
11:10
the first thing they said they'd do about it
240
670840
2087
제일 먼저 약속했던 건,
11:12
was that they'd deploy better machine learning algorithms
241
672951
2695
콘텐츠의 관리를 위해 보다 나은 기계 학습 알고리즘을
11:15
to moderate the content.
242
675670
1329
활용하겠다는 것이었습니다.
11:17
Well, machine learning, as any expert in it will tell you,
243
677023
3485
글쎄요, 전문가라면 말하겠지만, 기계 학습은,
11:20
is basically what we've started to call
244
680532
1896
우리가 흔히
11:22
software that we don't really understand how it works.
245
682452
2588
예측 불가능한 소프트웨어에 쓰는 말이죠.
11:25
And I think we have enough of that already.
246
685064
3983
이미 주변에서 이런 것들은 충분히 볼 수 있습니다.
11:29
We shouldn't be leaving this stuff up to AI to decide
247
689071
3166
올바르거나, 그렇지 않은 것의 판단을
11:32
what's appropriate or not,
248
692261
1251
인공지능에 맡겨서는 안되겠죠.
11:33
because we know what happens.
249
693536
1436
어떤 일이 벌어질지 우리는 잘 알고 있습니다.
11:34
It'll start censoring other things.
250
694996
1688
엉뚱한 것들을 검열하기 시작하겠죠.
11:36
It'll start censoring queer content.
251
696708
1783
동성애 관련 콘텐츠를 검열하기 시작할 겁니다.
11:38
It'll start censoring legitimate public speech.
252
698515
2237
합법적인 대중을 향한 연설도 검열하기 시작할 겁니다.
11:40
What's allowed in these discourses,
253
700776
1925
이런 강연을 통해 전달할 수 있는 것들이,
11:42
it shouldn't be something that's left up to unaccountable systems.
254
702725
3097
책임의 소재가 없는 시스템에 의해 결정되어서는 안되겠죠.
11:45
It's part of a discussion all of us should be having.
255
705846
2947
우리 모두 토론해 봐야 할 문제 중 하나입니다.
11:48
But I'd leave a reminder
256
708817
1308
그런데 그에 대한 대안 조차도
11:50
that the alternative isn't very pleasant, either.
257
710149
2753
그다지 유쾌하지만은 않습니다.
11:52
YouTube also announced recently
258
712926
1535
유튜브에서 최근 발표한
11:54
that they're going to release a version of their kids' app
259
714485
2767
전적으로 사람에 의해 관리되는
11:57
that would be entirely moderated by humans.
260
717276
2407
새로운 아동용 어플입니다.
12:00
Facebook -- Zuckerberg said much the same thing at Congress,
261
720134
3618
페이스북의 '저커버그'도 국회 청문회에서 같은 말을 했죠.
12:03
when pressed about how they were going to moderate their stuff.
262
723776
2987
콘텐츠 관리에 대해 다그침을 받았을 때 말입니다.
12:06
He said they'd have humans doing it.
263
726787
1747
기계가 아닌 사람들이 그 일을 할 것이라고 했습니다.
12:08
And what that really means is,
264
728558
1459
그 말인 즉슨
12:10
instead of having toddlers being the first person to see this stuff,
265
730041
3223
이런 영상들을 먼저 접하던 아이들을 대신해
12:13
you're going to have underpaid, precarious contract workers
266
733288
2788
박봉에 불안정한 생활을 하고, 정신 건강을 위한 지원도 받지 못하며
12:16
without proper mental health support
267
736100
1726
이미 그런 영상들에 의해 피폐해진
12:17
being damaged by it as well.
268
737850
1376
계약직원들을 내세우는 것이죠.
12:19
(Laughter)
269
739250
1096
(웃음)
12:20
And I think we can all do quite a lot better than that.
270
740370
2601
우리 모두 이보단 훨씬 더 잘 할 수 있을 거라고 믿습니다.
12:22
(Applause)
271
742995
2499
(박수)
12:26
The thought, I think, that brings those two things together, really, for me,
272
746068
4613
제 생각에, 그 두가지 문제를 모두 해결하기 위해 필요한건
12:30
is agency.
273
750705
1420
바로 중재입니다.
12:32
It's like, how much do we really understand -- by agency, I mean:
274
752149
3157
제가 말하는 중재는 얼마나 우리가 이해하고 있고,
12:35
how we know how to act in our own best interests.
275
755330
4390
우리 스스로의 이익을 위해 행동하는 방식을 말합니다.
12:39
Which -- it's almost impossible to do
276
759744
1787
우리가 그 시스템을 제대로 이해하지 못한다면
12:41
in these systems that we don't really fully understand.
277
761555
3485
거의 불가능한 일이겠죠.
12:45
Inequality of power always leads to violence.
278
765064
3071
힘의 불균형은 언제나 폭력을 야기합니다.
12:48
And we can see inside these systems
279
768159
1685
이런 시스템 상에서도 마찬가지죠.
12:49
that inequality of understanding does the same thing.
280
769868
2611
이해의 불균형 역시 같은 결과를 초래합니다.
12:52
If there's one thing that we can do to start to improve these systems,
281
772503
3779
이런 시스템의 개선을 위한 한가지 방법이 있다면,
12:56
it's to make them more legible to the people who use them,
282
776306
2718
사용자들에게 더 쉽게 만들어,
12:59
so that all of us have a common understanding
283
779048
2196
어떤 일들이 벌어지는지
13:01
of what's actually going on here.
284
781268
1851
다 함께 이해하는 것입니다.
13:03
The thing, though, I think most about these systems
285
783970
2968
이 시스템들에 관련된 문제들이
13:06
is that this isn't, as I hope I've explained, really about YouTube.
286
786962
3857
제가 잘 설명을 했으면 하는데, 단지 유튜브에 국한된 것은 아니죠.
13:10
It's about everything.
287
790843
1312
세상 모든 일들에 연관되어 있습니다.
13:12
These issues of accountability and agency,
288
792179
2444
책임과 중재,
13:14
of opacity and complexity,
289
794647
2225
불투명함과 복잡함,
13:16
of the violence and exploitation that inherently results
290
796896
3177
폭력과, 소수에 집중된
13:20
from the concentration of power in a few hands --
291
800097
2794
권력으로부터의 착취 등이
13:22
these are much, much larger issues.
292
802915
2579
더욱 더 심각한 문제들입니다.
13:26
And they're issues not just of YouTube and not just of technology in general,
293
806395
3687
단지 유튜브와 과학기술 전반의 문제만이 아니죠.
13:30
and they're not even new.
294
810106
1265
사실 새로운 일도 아니고,
13:31
They've been with us for ages.
295
811395
1461
우리는 오랜동안 이런 문제들과 함께 했습니다.
13:32
But we finally built this system, this global system, the internet,
296
812880
4390
그런데, 결국 인터넷이라는 글로벌 시스템이 소개되면서,
13:37
that's actually showing them to us in this extraordinary way,
297
817294
3019
이런 현상들이 우리들에게 노출된 것입니다.
13:40
making them undeniable.
298
820337
1547
더이상 부정할 수 없게 말이죠.
13:41
Technology has this extraordinary capacity
299
821908
2820
과학기술의 힘은 정말 놀랍습니다.
13:44
to both instantiate and continue
300
824752
3973
때론 숨겨진 엄청난 욕망과 편견들을
13:48
all of our most extraordinary, often hidden desires and biases
301
828749
4248
예시하고 지속되게 하며,
13:53
and encoding them into the world,
302
833021
1866
그것들을 암호화해 세상에 뿌리기도 하죠.
13:54
but it also writes them down so that we can see them,
303
834911
3474
우리가 직접 볼 수 있도록, 글로 옮기기도 합니다.
13:58
so that we can't pretend they don't exist anymore.
304
838409
3330
우리가 그것들의 존재를 부인할 수 없도록 말이죠.
14:01
We need to stop thinking about technology as a solution to all of our problems,
305
841763
4319
과학기술이 모든 문제들을 해결해 줄 거라 생각하는 대신,
14:06
but think of it as a guide to what those problems actually are,
306
846106
3757
그 문제들을 파악하는 데 참고로 사용해야만,
14:09
so we can start thinking about them properly
307
849887
2144
정확한 판단을 하고,
14:12
and start to address them.
308
852055
1766
해결까지 할 수 있겠죠.
14:13
Thank you very much.
309
853845
1335
대단히 감사합니다.
14:15
(Applause)
310
855204
5192
(박수)
14:21
Thank you.
311
861733
1188
감사합니다.
14:22
(Applause)
312
862945
2869
(박수)
14:28
Helen Walters: James, thank you for coming and giving us that talk.
313
868839
3178
헬렌 월터스(Helen Walters): 제임스, 오늘 좋은 강연 감사드려요.
14:32
So it's interesting:
314
872041
1189
그러니까 흥미로운 건,
14:33
when you think about the films where the robotic overlords take over,
315
873254
3495
영화에 등장하는 로봇들이 지배하는 세상은
14:36
it's all a bit more glamorous than what you're describing.
316
876773
3279
지금 말씀하신 것보다 훨씬 더 매력적으로 느껴지기도 하는데요.
14:40
But I wonder -- in those films, you have the resistance mounting.
317
880076
3749
제가 궁금한건, 그런 영화에는 항상 저항세력이 등장하는데,
14:43
Is there a resistance mounting towards this stuff?
318
883849
3216
지금도 이런 추세에 저항하는 사람들이 있을까요?
14:47
Do you see any positive signs, green shoots of resistance?
319
887089
3796
어떤 긍정적인 움직임이나, 발전의 조짐 등이 보이나요?
14:52
James Bridle: I don't know about direct resistance,
320
892507
2416
제임스: 전면적인 저항이 있는지는 잘 모르겠어요.
14:54
because I think this stuff is super long-term.
321
894947
2264
장기적인 문제라고 생각해요.
14:57
I think it's baked into culture in really deep ways.
322
897235
2510
문화 속 깊이 뿌리내리고 있기 때문이죠.
14:59
A friend of mine, Eleanor Saitta, always says
323
899769
2132
엘레노어 사이터(Eleanor Saitta)란 제 친구는 항상 말합니다,
15:01
that any technological problems of sufficient scale and scope
324
901935
3609
어느 정도 영향력을 가진 과학기술에 관련된 문제들은
15:05
are political problems first of all.
325
905568
2267
우선 정치에 관련돼 있다는 거죠.
15:07
So all of these things we're working to address within this
326
907859
2785
그래서 우리가 해결하려는 이 모든 문제들은
15:10
are not going to be addressed just by building the technology better,
327
910668
3274
단순한 과학기술의 발전이 아니라,
15:13
but actually by changing the society that's producing these technologies.
328
913966
3464
이런 기술을 만들어 내는 사회를 변화시켜야 가능하단 거죠.
15:17
So no, right now, I think we've got a hell of a long way to go.
329
917454
3027
그래서 지금 당장은, 아직 갈 길이 멀다고 생각합니다.
15:20
But as I said, I think by unpacking them,
330
920505
1986
하지만 제가 말했듯이, 이 문제를 풀어 헤치고,
15:22
by explaining them, by talking about them super honestly,
331
922515
2697
밝혀내고, 솔직하게 토론하면서,
15:25
we can actually start to at least begin that process.
332
925236
2505
적어도 그 시작은 할 수 있다고 생각합니다.
15:27
HW: And so when you talk about legibility and digital literacy,
333
927765
3562
헬렌 : 그리고, 가독성과 디지털 문해력에 대한 얘기를 들으면서
15:31
I find it difficult to imagine
334
931351
1591
제가 상상하기 어려웠던 건,
15:32
that we need to place the burden of digital literacy on users themselves.
335
932966
3680
그 책임을 사용자들에게 지우는 것인데요.
15:36
But whose responsibility is education in this new world?
336
936670
4562
그럼 교육에 관한 책임은 새로운 이 세상 속 누구의 몫일까요?
15:41
JB: Again, I think this responsibility is kind of up to all of us,
337
941256
3612
제임스: 다시 말하지만, 우리 모두에게 있다고 생각해요.
15:44
that everything we do, everything we build, everything we make,
338
944892
2984
우리가 행하고, 구축하고, 만드는 모든 것들이
15:47
needs to be made in a consensual discussion
339
947900
3692
그것들을 회피하는 모든 이들도 대체로 동의하게 끔
15:51
with everyone who's avoiding it;
340
951616
1940
논의를 거쳐야 한다고 생각해요.
15:53
that we're not building systems intended to trick and surprise people
341
953580
4341
올바른 일을 하기 위해, 사람들을 속이고 경악케 하는
15:57
into doing the right thing,
342
957945
2300
시스템을 구축하진 않겠죠.
16:00
but that they're actually involved in every step in educating them,
343
960269
3236
그 교육의 모든 단계에 연관되어 있습니다.
16:03
because each of these systems is educational.
344
963529
2278
왜냐면 각각의 시스템으로부터 배울 것들이 있기 때문이죠.
16:05
That's what I'm hopeful about, about even this really grim stuff,
345
965831
3102
아주 우울한 문제지만, 바로 거기에 희망이 있습니다.
16:08
that if you can take it and look at it properly,
346
968957
2262
우리가 그것을 가져다 잘 살펴보면,
16:11
it's actually in itself a piece of education
347
971243
2089
그 자체가 일종의 교육이겠죠.
16:13
that allows you to start seeing how complex systems come together and work
348
973356
3762
복잡한 시스템들이 하나로 움직이는 방식을 보고,
16:17
and maybe be able to apply that knowledge elsewhere in the world.
349
977142
3501
아마도 그 지식을 세상 여러 곳에 활용할 수 있겠죠.
16:20
HW: James, it's such an important discussion,
350
980667
2115
헬렌 : 아주 중요한 문제이고,
16:22
and I know many people here are really open and prepared to have it,
351
982806
3227
많은 분들이 실제로 마음을 열고, 받아들일 준비가 되어 있는 것 같아요.
16:26
so thanks for starting off our morning.
352
986057
1859
아침부터 아주 좋은 시간 감사드립니다.
16:27
JB: Thanks very much. Cheers.
353
987940
1400
제임스 : 감사합니다.
16:29
(Applause)
354
989364
1651
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7