A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,158 views ・ 2020-04-14

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Ji Seon Lee 검토: Jihyeon J. Kim
제가 여기 있는 이유는 결국 누가 이기는지
많은 시간 동안 걱정하고 궁금했기 때문입니다.
인간과 로봇 중 누가 이길까요?
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
기술 전략가로서
제 직업은 행동 변화와 관련 있습니다.
00:17
worrying and wondering who wins in the end.
1
17397
2486
사람들이 신기술을 쓰는 이유와 방법을 이해해야 합니다.
00:19
Is it humans or is it robots?
2
19907
2450
이 모든 것이 어떻게 끝날지를 보며
00:22
You see, as a technology strategist,
3
22918
1723
00:24
my job involves behavior change:
4
24665
1904
살길 원하지 않는다는 사실이 정말 절망스럽습니다.
00:26
understanding why and how people adopt new technologies.
5
26593
3096
사실, 이걸 보고 있는 최연소자가 14세
00:30
And that means I'm really frustrated
6
30101
2373
최고령자가 팔팔한 99세라면
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
우리의 집단의식은 단 185년에 걸쳐 이어집니다.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
00:39
and the oldest, a robust 99,
9
39874
2813
이 세상에서의 진화와
00:42
then together,
10
42711
1152
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
상황에 대해 생각하면
근시안적이고 성가신 시간입니다.
우리 모두의 견해로 봤을 때
00:48
That is a myopic pinprick of time
12
48593
3366
상황이 어떻게 진행 되는지 지켜보며 사는 사람은 없을 것입니다.
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
저희 회사에서는 이 문제를 바로잡고 싶습니다.
우리는 고정된 일시적인 시점을 넘어
00:55
Turns out we're all in the cheap seats
14
55912
1825
00:57
and none of us will live to see how it all pans out.
15
57761
2992
캔틸레버가 어떻게 해결하는지
01:00
So at my company, we wanted a way around this.
16
60777
2348
확인하고 싶었습니다.
그리고 우리는 1,200명의 미국인들 중에서
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
01:05
beyond our fixed temporal vantage point,
18
65911
3008
미국 인구조사를 대표하는
01:08
to get a sense of how it all shakes up.
19
68943
2270
수많은 사고방식 질문을
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
로봇공학과 AI로 물어봤고
기술 채택과 관련된 행동이 잡혔습니다.
01:15
representative of the US census,
21
75238
2150
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
대대적인 연구 진행을 통해
성별과 세대 차이
01:19
around robotics and AI
23
79960
1801
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
그리고 종교와 정치적 믿음
심지어 업무 기능과 성격 특성의 차이도 분석했습니다.
01:26
We had a big study
25
86011
1285
로봇 공학 시대가 열리기 전
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
01:30
between religious and political beliefs,
27
90321
1968
인간의 나약함을 보여주는
시간제한이 있는 매력적인 타임캡슐입니다.
01:32
even job function and personality trait.
28
92313
2769
그리고 5분간 여러분께 드릴 말씀이 있습니다.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
먼저 알아야 할 것은 현재 및 잠재적인 AI 로봇 공학
01:38
of our human frailty
30
98633
1666
01:40
in this predawn of the robotic era.
31
100323
2586
시나리오 목록을 브레인스토밍했다는 것입니다.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
평범한 사람들의 스펙트럼을 살펴봤는데
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
로봇 청소기 있으신가요?
조금 짖궂은 것들을 살펴볼까요
로봇 펫시터, 혹은 로봇 변호사
01:55
They ran the spectrum from the mundane,
35
115693
2542
섹스 파트너는 어떠신가요?
01:58
so, a robot house cleaner, anyone?
36
118259
1976
섬뜩한 사이보그가 되어
02:00
Through to the mischievous,
37
120259
1302
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
인간과 로봇을 뒤섞고
뇌를 업로드해 사후에도 산다는 생각은 어떤가요?
02:04
or maybe a sex partner.
39
124704
1533
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
저희는 이러한 다양한 시나리오로
사람들의 편안함 수준을 도표화 했습니다.
02:09
blending human and robot,
41
129498
1293
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
사실상 31개의 연구가 있었지만
편의를 위해 몇 개만 보여드리겠습니다
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
물론 가장 먼저 눈에 띄는 것은 붉은 부분이죠.
02:18
There were actually 31 in the study,
44
138966
1730
미국은 이것을 굉장히 불편해 합니다.
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
쾌적지수가 아닌 불쾌지수라고 부르는 이유 중 하나죠.
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
미국인 대다수가 찬성하는 것은 단 두가지였습니다.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
02:30
That's why we call it the discomfort index,
48
150901
2835
로봇 AI 가정 청소기와
02:33
not the comfort index.
49
153760
1420
로봇 AI 택배 배달원입니다.
02:35
There were only two things the majority of America is OK with.
50
155204
3691
다이슨과 아마존은 참고해야겠군요.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
두 기업은 기회가 되겠네요.
우리는 로봇 친구들에게 우리의 잡일을 맡길 준비가 된 것 같습니다.
02:41
and a robot AI package deliverer,
52
161817
1992
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
로봇 AI 변호사 혹은 투자 자문역과 같은
02:46
There's an opportunity there.
54
166848
1548
용역이 생긴다면 우리는 분명 애매한 태도를 취할 것입니다.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
그러나 간호사, 의사, 보육원과 관련된
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
로봇 돌봄의 개념은 확실히 폐쇄적입니다.
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
이러한 상황을 보고 사람들은 말합니다.
“괜찮아, 루시, 그거 알아?
걱정 그만하고 잠이나 자, 결국 인간이 이길 거니까.”
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
하지만 머지않았습니다.
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
제 자료를 자세히 보시면
03:04
So from this, you'd go,
60
184509
1353
인간은 생각보다 취약하다는 걸 알 수 있습니다.
03:05
"It's OK, Lucy, you know what?
61
185886
1453
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
AI는 브랜딩 문제가 있습니다.
개인 비서의 생각을
03:10
But actually not so fast.
63
190442
1222
절대적으로 거부하겠다고 말한 사람들 중
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
45%는 사실 주머니 속에
03:15
AI has a branding problem.
66
195704
1285
알렉사, 구글, 시리와 같은 기기를 가지고 있었습니다.
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
AI 중매를 반대하는 다섯 명 중 한 명은
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
온라인 데이트를 한 적이 있을 겁니다.
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
또한, 저희 중 80%는 파일럿의 지원으로
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
자율 비행기에 탑승하는 아이디어를 거절했습니다.
실제로, 제가 직접 경험했습니다. 밴쿠버에 오기 위해
03:31
had of course, you guessed it, done online dating.
72
211994
2655
상업 비행을 했습니다.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
모두가 무서워할까 봐 걱정되시겠지만
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
가운데에 있는 멋진 사람들도 있습니다.
이들은 중립입니다.
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
여러분의 말에 이런 반응을 할 사람들입니다.
“로봇 친구래.”
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
그러면 이들은 “로봇 친구라, 그럴지도 모르지.”
03:45
here are the marvelous folk in the middle.
78
225315
2135
혹은, “AI 반려동물이래.”
03:47
These are the neutrals.
79
227474
1247
“절대 안 된다고 하지마.”
03:48
These are people for whom you say,
80
228745
1642
03:50
"OK, robot friend,"
81
230411
1269
제대로 된 정치 정보원이라면 알겠지만
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
양면적인 의견을 뒤집는 것은 판도를 바꿀 수 있습니다.
03:54
Or, "AI pet,"
83
234663
1621
03:56
and they go, "Never say never."
84
236308
2062
또 다른 이유로 남성은 취약한 부분이 있죠.
03:58
And as any decent political operative knows,
85
238843
2666
죄송하지만, 남성은 무인자동차 탑승과
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
후세를 위해 뇌를 업로딩하는 것이 재밌다고
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
믿을 가능성이 여성보다 두 배 높습니다.
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
또한, 사이보그가 되는 것이 멋지다 믿는 비율은 2.5배 더 높았고
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
저는 이 상황에 대해 할리우드를 비난합니다.
(웃음)
04:13
that uploading your brain for posterity is fun,
90
253022
2817
극장을 둘러 보면
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
남성 네 명 중에 한 명 꼴로 로봇과 성관계 맺는 것에 호의적입니다.
04:19
and for this, I blame Hollywood.
92
259609
1679
이는 여성 열 명 중 한 명에 불과했던
04:21
(Laughter)
93
261312
1296
04:22
And this is where I want you to look around the theater
94
262632
2596
밀레니얼 남성들의 44%에 달하는 수치입니다.
저는 이것이 기계적인 성관계 불평에 반전을 가져온다 생각합니다.
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
(웃음)
심지어 더 놀라운 점은
04:31
compared to just one in 10 women,
97
271794
1594
이 행동 차이입니다
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
이 표는 스마트 스피커 홈 허브 혹은 스마트폰 같은
04:36
(Laughter)
99
276825
1968
04:38
Even more astounding than that though, to be honest,
100
278817
2429
음성 지원 장치를 사용하는 사람과
04:41
is this behavioral difference.
101
281270
1570
그렇지 않은 사람들을 나타냅니다.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
그래프에서 볼 수 있듯이
트로이 목마는 이미 우리 거실에 있습니다.
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
이러한 장치들이 확산하고
04:49
versus those who don't.
104
289871
1722
집단 방어가 약해지면
04:51
And you can see from this graph
105
291617
1500
04:53
that the Trojan horse is already in our living room.
106
293141
3723
우리는 어떻게 끝날 수 있는지 알 수 있습니다.
사실, 저는 휴가 때 알렉사 닷을 가져갔습니다.
04:56
And as these devices proliferate
107
296888
2087
04:58
and our collective defenses soften,
108
298999
3217
마지막으로 제가 찾을 수 있는 것은 세대적인 것입니다.
05:02
we all see how it can end.
109
302240
1997
3세대의 차이를 보세요
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
무표인 사람들에서 베이비부머와
밀레니어 세대로의 도약입니다.
보다 흥미로운 점은 여러분이 이 같은 변화 속도를 추정한다면,
05:10
Final finding I have time for is generational.
112
310192
2151
05:12
So look at the difference just three generations make.
113
312367
2555
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
제가 실제로 믿는 가속도가 아닌 같은 속도입니다.
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
그러면 모든 미국인들이 여기 있는 다수의 것들이
05:21
the same rate of change,
116
321394
1215
정상이라고 생각할 때 8세대나 걸릴 것입니다.
05:22
just the same pace,
117
322633
1190
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
05:26
the same pace,
119
326706
1175
2222년에는 이곳의 모든 것이
05:27
then it is eight generations away
120
327905
1697
05:29
when we hear every single American
121
329626
2340
주류가 되는 경악스러운 곳입니다.
05:31
thinking the majority of these things here are normal.
122
331990
3381
더이상 설득이 필요하지 않도록
세대별 “AI에 대한 흥미도”를 보여드리겠습니다.
05:35
So the year 2222 is an astounding place
123
335395
3039
당연하게도, 우리 막내가 제일 좋아하네요.
05:38
where everything here is mainstream.
124
338458
2294
05:40
And lest you needed any more convincing,
125
340776
1945
하지만 아마도 제 경력 중에서 가장 역설적인 발견은
05:42
here is the generation's "excitement level with AI."
126
342745
2808
이 사람들에게 3am 질문을 했을 때일 겁니다.
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
" 결국에 누가 이길까요?”
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
맞춰보세요.
AI와 로봇공학에 더 많은 흥미를 느낄수록
05:53
when I asked these people my 3am question,
129
353331
3000
로봇이 이길 거라 답변합니다.
05:56
"Who wins in the end?"
130
356355
1467
신경망을 작동시키는 패턴 인식 소프트웨어가
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
모든 것을 알 필요는 없습니다.
06:01
the more likely you are to say it's the robots.
133
361998
2685
‘끓는 물에 빠진 개구리’라는 속담이 있죠.
2222년 테드에서 로봇이 후세를 위해 보고 있다면
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
06:08
to see where this is all headed.
135
368903
1705
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
사이보그를 보내서, 저를 파헤친 후에
제가 맞았다고 말해 줄래요?
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
(웃음)
감사합니다.
(박수)
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
06:21
(Laughter)
139
381538
1165
06:22
Thank you.
140
382727
1177
06:23
(Applause)
141
383928
1619
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7