아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
00:00
Translator: Leslie Gauthier
Reviewer: Camille Martínez
0
0
7000
번역: SeoBin Yoon
검토: keun_young Lee
00:14
I'm going to talk a little bit
about where technology's going.
1
14966
3817
오늘 저는 기술이 어떤 방향으로
가고 있는지에 대해 얘기해볼까 합니다.
00:19
And often technology comes to us,
2
19509
2671
흔히, 기술을 처음 접할 때
00:22
we're surprised by what it brings.
3
22566
1865
우리는 기술이 가져다 주는
것에 대해 놀라곤 합니다.
00:24
But there's actually
a large aspect of technology
4
24455
3683
하지만 사실 기술의 대부분은
예측이 가능합니다.
00:28
that's much more predictable,
5
28162
1802
00:29
and that's because technological systems
of all sorts have leanings,
6
29988
4088
이는 모든 종류의 기술 시스템이
각각의 성향을 가지기 때문입니다.
기술마다 긴급한 부분이 있고
00:34
they have urgencies,
7
34100
1175
00:35
they have tendencies.
8
35299
1561
일정한 경향성을 띄기 마련입니다.
00:36
And those tendencies are derived
from the very nature of the physics,
9
36884
4932
그리고 그런 경향들은 물리학의 본질이나
00:41
chemistry of wires
and switches and electrons,
10
41840
3150
선과 스위치 간의 화학 ,그리고
전자등으로부터 유래되고
00:45
and they will make reoccurring
patterns again and again.
11
45659
3602
이는 반복되는 패턴을
끊임없이 만들어냅니다.
00:49
And so those patterns produce
these tendencies, these leanings.
12
49745
4874
그래서 그 패턴들은
경향성과 성향을 만듭니다.
00:54
You can almost think of it
as sort of like gravity.
13
54643
2831
여러분은 이를 중력과 비슷하다고
생각할 수 있습니다.
00:57
Imagine raindrops falling into a valley.
14
57498
2319
계곡에 빗방울 떨어지는
모습을 상상해보세요.
00:59
The actual path of a raindrop
as it goes down the valley
15
59841
3088
계곡을 내려가는 빗방울의 실제 경로는
01:02
is unpredictable.
16
62953
1169
예측할 수 없습니다.
01:04
We cannot see where it's going,
17
64651
1518
우리는 그들이 어디로
가는지 알 수 없지만
01:06
but the general direction
is very inevitable:
18
66193
2277
대략적인 방향은 필연적입니다.
01:08
it's downward.
19
68494
1234
바로 아래 쪽이지요.
01:10
And so these baked-in
tendencies and urgencies
20
70377
4572
이처럼 기술 시스템에 내장된
01:14
in technological systems
21
74973
1476
경향성과 촉발성은
우리에게 사건이 대략적으로
어떻게 진행되는지에 대해 알려줍니다.
01:17
give us a sense of where things
are going at the large form.
22
77051
3609
그래서 크게 봤을 때
01:21
So in a large sense,
23
81149
1401
01:22
I would say that telephones
were inevitable,
24
82574
3361
전화기의 발명은 필연적이었다고 봅니다.
그러나 아이폰은 아니었죠.
01:27
but the iPhone was not.
25
87005
1342
인터넷의 발명도 필연적이었지만
01:29
The Internet was inevitable,
26
89094
1478
01:31
but Twitter was not.
27
91274
1286
트위터는 아니었습니다.
그래서 현재 여러 흐름이 존재하는데
01:33
So we have many ongoing
tendencies right now,
28
93036
3928
01:36
and I think one of the chief among them
29
96988
2720
저는 그 중에 가장 중요한 것이
01:39
is this tendency to make things
smarter and smarter.
30
99732
3722
끊임없이 더욱 더 지능적
으로 고도화되는 경향성입니다.
그것을 'cognification'
이라 합니다. 제가 붙인 겁니다.
01:44
I call it cognifying -- cognification --
31
104041
2212
01:46
also known as artificial
intelligence, or AI.
32
106783
2782
이 것은 인공지능
혹은 AI라고도 불립니다.
그리고 저는 이것이 앞으로
20년 동안 우리 사회 가장 영향력있는
01:50
And I think that's going to be one
of the most influential developments
33
110025
3746
01:53
and trends and directions and drives
in our society in the next 20 years.
34
113795
5575
발전이자 유행, 그리고
방향과 추동력이라고 생각합니다.
물론, 이미 큰 영향을
미치고 있습니다.
02:00
So, of course, it's already here.
35
120021
1985
우리는 이미 인공지능을 갖고 있어요.
02:02
We already have AI,
36
122030
2204
02:04
and often it works in the background,
37
124258
2398
이들은 주로
보이지 않는 곳에서 일하지요.
02:06
in the back offices of hospitals,
38
126680
1586
병원 사무실 뒷편에서
02:08
where it's used to diagnose X-rays
better than a human doctor.
39
128290
4686
X선을 의사보다 더 잘 진단합니다.
또한 법률사무소에서
02:13
It's in legal offices,
40
133000
1726
02:14
where it's used to go
through legal evidence
41
134750
2368
법적 증거 검토를
인간 준법률가보다 훨씬 잘 수행하죠.
02:17
better than a human paralawyer.
42
137142
1855
02:19
It's used to fly the plane
that you came here with.
43
139506
3656
AI는 여러분이 타고 온 비행기
를 띄우기 위해서도 사용됩니다.
실제 조종사는 사실 7분에서
8분 정도 밖에 운전하지 않고
02:24
Human pilots only flew it
seven to eight minutes,
44
144165
2381
02:26
the rest of the time the AI was driving.
45
146570
1953
그 외는 모두 AI가 운행합니다.
02:28
And of course, in Netflix and Amazon,
46
148547
2173
그리고 주지하듯 넷플릭스나 아마존에선
02:30
it's in the background,
making those recommendations.
47
150744
2530
뒤에서 활동하며 추천을 많이 합니다.
02:33
That's what we have today.
48
153298
1261
그게 바로 오늘날의 AI입니다.
02:34
And we have an example, of course,
in a more front-facing aspect of it,
49
154583
4801
너무나 대표적이고 당연한 예시로는
02:39
with the win of the AlphaGo, who beat
the world's greatest Go champion.
50
159408
6629
세계 최고의 바둑 선수를
이긴 알파고가 있습니다.
02:46
But it's more than that.
51
166478
4053
하지만 그것이 다가 아닙니다.
02:50
If you play a video game,
you're playing against an AI.
52
170555
2642
만약 비디오 게임을 한다면, 여러분은
인공지능을 상대로 게임 하는 겁니다.
02:53
But recently, Google taught their AI
53
173221
4538
하지만 최근에 구글에서 인공지능에게
02:57
to actually learn how to play video games.
54
177783
2412
비디오 게임 하는 법을
배우도록 가르쳤습니다.
03:00
Again, teaching video games
was already done,
55
180686
2709
다시 말하자면 비디오 게임 자체
를 가르치는 건 기성취되었지만
03:03
but learning how to play
a video game is another step.
56
183419
3897
비디오 게임 하는 법을 배우는
것은 한걸음 더 나아간 것 입니다.
03:07
That's artificial smartness.
57
187340
1678
그것이 바로 인공적인 총명입니다.
03:10
What we're doing is taking
this artificial smartness
58
190571
4522
우리가 지금 하고있는것은
이 인공적인 총명을 가지고
더 똑똑하게 만드는 것 입니다.
03:15
and we're making it smarter and smarter.
59
195117
2423
03:18
There are three aspects
to this general trend
60
198710
3895
저는 요즘의 트렌드에서 세 가지 부분이
03:22
that I think are underappreciated;
61
202629
1689
과소평과 되고있다고 생각합니다.
03:24
I think we would understand
AI a lot better
62
204342
2277
우리가 이 세가지를 이해한다면
03:26
if we understood these three things.
63
206643
2301
인공지능에 대하여 더
잘 이해하게 될것입니다.
03:28
I think these things also would
help us embrace AI,
64
208968
3283
또한, 이것들은 우리가 인공지능
을 수용하는데 도움을 줄것입니다.
03:32
because it's only by embracing it
that we actually can steer it.
65
212275
3008
왜냐하면 인공지능을 받아들여야만
그를 진정으로 조종할 수 있으니까요.
03:35
We can actually steer the specifics
by embracing the larger trend.
66
215887
3157
더 큰 추세를 받아들임으로써 세부적인
측면까지 조종할 수 있을 것입니다.
03:39
So let me talk about
those three different aspects.
67
219467
2979
그 때문에 이 세가지 측면에
대해 설명을 해보겠습니다.
03:42
The first one is: our own intelligence
has a very poor understanding
68
222470
3673
첫 번째, 우리의 지능은
지능이 무엇인지에 대해
제대로 이해하고
있지 못하다는 점입니다.
03:46
of what intelligence is.
69
226167
1490
우리는 지능이라는 것을
1차원으로 생각하기 쉽상이어서
03:48
We tend to think of intelligence
as a single dimension,
70
228110
3653
03:51
that it's kind of like a note
that gets louder and louder.
71
231787
2750
마치 음표소리가 점점 커져
가는 것과 비슷하게 생각합니다.
03:54
It starts like with IQ measurement.
72
234561
2607
대표적인 예시로 IQ 검사가 있습니다.
03:57
It starts with maybe a simple
low IQ in a rat or mouse,
73
237192
4092
쥐의 아마 간단하고 낮은
아이큐부터 시작해서
04:01
and maybe there's more in a chimpanzee,
74
241308
2134
침팬지는 더 높을것이고
04:03
and then maybe there's more
in a stupid person,
75
243887
2191
그리고 바보는 아마 그것
보다 높을 것으로 추측합니다.
저와 같은 평균적인 사람이 그 다음
04:06
and then maybe an average
person like myself,
76
246102
2096
04:08
and then maybe a genius.
77
248222
1290
그리고 다음은 천재일 겁니다.
04:09
And this single IQ intelligence
is getting greater and greater.
78
249536
4433
단수의 지능이 점점
복수의 IQ로 증가한다는 것은
04:14
That's completely wrong.
79
254516
1151
사실 완전히 틀린 관념입니다.
04:15
That's not what intelligence is --
not what human intelligence is, anyway.
80
255691
3608
그건 지능이 아닙니다.
물론 인간이 지닌 지능은 아니죠.
04:19
It's much more like a symphony
of different notes,
81
259673
4506
지능은 단일음계가 아니라
다양한 인지의 악기가 연주하는
04:24
and each of these notes is played
on a different instrument of cognition.
82
264203
3609
많은 음표의 교향곡과 더 유사합니다.
04:27
There are many types
of intelligences in our own minds.
83
267836
3701
우리 안에는 다양한
유형의 지능이 존재합니다.
04:31
We have deductive reasoning,
84
271561
3048
연역 추리능력
04:34
we have emotional intelligence,
85
274633
2221
정서 지능
04:36
we have spatial intelligence;
86
276878
1393
공간 감각 등이 있죠.
04:38
we have maybe 100 different types
that are all grouped together,
87
278295
4021
우리 안에는 대략 100가지도
넘는 유형의 지능이 함께 묶여 있고
04:42
and they vary in different strengths
with different people.
88
282340
3905
이는 다양하게 나타나
사람마다 다른 장점을 가집니다.
04:46
And of course, if we go to animals,
they also have another basket --
89
286269
4526
동물들의 경우도 마찬가지로
그 그릇의 지능내용이 다르고
04:50
another symphony of different
kinds of intelligences,
90
290819
2541
다른 종류의 지능을 가진
다른 교향곡을 갖고 있을 것이고
04:53
and sometimes those same instruments
are the same that we have.
91
293384
3566
몇몇 악기는 우리와 같은 것이겠죠.
04:56
They can think in the same way,
but they may have a different arrangement,
92
296974
3561
같은 방식으로 생각을 하지만
다른 방식으로 배열할 수도 있고
05:00
and maybe they're higher
in some cases than humans,
93
300559
2467
어쩌면 특정 부분에서는
사람보다 더 똑똑할 수도 있습니다.
예를들어 마치 다람쥐의
장기기억력은 천재에 가까워서
05:03
like long-term memory in a squirrel
is actually phenomenal,
94
303050
2837
05:05
so it can remember
where it buried its nuts.
95
305911
2287
어디 먹이를 파묻었나
기억하는데 쓰입니다.
05:08
But in other cases they may be lower.
96
308222
1987
그러나 다른 부분에서는
사람보다 낮을 수도 있습니다.
05:10
When we go to make machines,
97
310233
2730
우리는 기계를 만들 때
05:12
we're going to engineer
them in the same way,
98
312987
2196
기계를 이런 방법으로 제작하려 합니다.
05:15
where we'll make some of those types
of smartness much greater than ours,
99
315207
5010
우리보다 훨씬 더 높은
차원의 지능을 가지도록 하지만
05:20
and many of them won't be
anywhere near ours,
100
320241
2571
그 지능의 수준은 대부분
인간보다 훨씬 못합니다.
05:22
because they're not needed.
101
322836
1544
이는 그것들이 필요하지 않기 때문이죠.
05:24
So we're going to take these things,
102
324404
2203
따라서 우리는 이런 것을 염두에 두고
05:26
these artificial clusters,
103
326631
2081
즉, 이 인공적 클러스터를 고려해서
05:28
and we'll be adding more varieties
of artificial cognition to our AIs.
104
328736
5362
인공지능에 더 다양한
종류의 인지력을 추가해야합니다.
05:34
We're going to make them
very, very specific.
105
334507
4071
우리는 이를 아주
구체적으로 만들어야 합니다.
05:38
So your calculator is smarter
than you are in arithmetic already;
106
338602
6542
그래서 여러분의 계산기는
여러분의 산수능력보다 이미 더 똑똑하죠.
GPS는 우리보다 훨씬 길을 잘 찾고
05:45
your GPS is smarter
than you are in spatial navigation;
107
345168
3697
05:49
Google, Bing, are smarter
than you are in long-term memory.
108
349337
4258
구글과 빙은 우리보다
훨씬 긴 장기기억을 가집니다.
05:54
And we're going to take, again,
these kinds of different types of thinking
109
354339
4530
우리는 이런 생각을 또 다시
다른 유형에도 적용할수 있습니다.
05:58
and we'll put them into, like, a car.
110
358893
1933
예를 들어 자동차가 있습니다.
06:00
The reason why we want to put them
in a car so the car drives,
111
360850
3057
우리가 인공지능을 차 안에 넣어 차가
스스로 운전하게 하고자 하는 이유는
06:03
is because it's not driving like a human.
112
363931
2302
차가 인간처럼 운전하지
않는다는 점 때문입니다.
06:06
It's not thinking like us.
113
366257
1396
차는 우리처럼 생각을 하지 않습니다.
06:07
That's the whole feature of it.
114
367677
1920
이게 차의 특징입니다.
06:09
It's not being distracted,
115
369621
1535
즉, 다른 것에 정신이 분산
되지 않는다는 것입니다.
06:11
it's not worrying about whether
it left the stove on,
116
371180
2754
가스레인지를 켜고 나왔는지
06:13
or whether it should have
majored in finance.
117
373958
2138
혹은 금융 전공을 할지
말지 등에 고민하지 않고
그냥 운전만 합니다.
06:16
It's just driving.
118
376120
1153
06:17
(Laughter)
119
377297
1142
(웃음)
06:18
Just driving, OK?
120
378463
1841
그냥 운전만이요! 알겠나요?
06:20
And we actually might even
come to advertise these
121
380328
2937
그리고 우리는 이런
특징을 광고할수도 있습니다!
06:23
as "consciousness-free."
122
383289
1545
"생각이 없다"는 식으로요.
06:24
They're without consciousness,
123
384858
1774
그들은 자각이 없고
06:26
they're not concerned about those things,
124
386656
2104
그런 종류의 걱정을 하지 않으며
06:28
they're not distracted.
125
388784
1156
다른 것에 정신이 팔리지 않습니다.
06:29
So in general, what we're trying to do
126
389964
2966
이처럼 대부분의
경우에서 우리가 하려는 것은
06:32
is make as many different
types of thinking as we can.
127
392954
4500
우리가 할 수 있는 생각의
다양한 형태를 모두 만드는 겁니다.
06:37
We're going to populate the space
128
397804
2083
우리는 가능한 모든 형태,
종류의 다양한 생각들의
06:39
of all the different possible types,
or species, of thinking.
129
399911
4159
영역을 모두 데이터화 해야 합니다.
사실 몇몇 문제들은
06:44
And there actually may be some problems
130
404094
2068
06:46
that are so difficult
in business and science
131
406186
2800
과학적으로 힘들거나
혹은 시장현실에 맞지 않아
인간의 사고력만으로는
풀 수 없을 수도 있습니다.
06:49
that our own type of human thinking
may not be able to solve them alone.
132
409010
4042
그래서 2단계의
프로그램이 필요할 것입니다.
06:53
We may need a two-step program,
133
413076
1992
먼저 새로운 종류의 생각을 창조해내
06:55
which is to invent new kinds of thinking
134
415092
4203
06:59
that we can work alongside of to solve
these really large problems,
135
419692
3734
우리가 함께 이 큰 문제를
풀어가는 것입니다.
07:03
say, like dark energy or quantum gravity.
136
423450
2918
예를들어, 암흑물질과 양자중력처럼요.
07:08
What we're doing
is making alien intelligences.
137
428496
2646
이런 작업은 외계지성체를
만드는 것과 다를바가 없습니다.
아마 여러분께 이 일을 외계인처럼
07:11
You might even think of this
as, sort of, artificial aliens
138
431166
4069
07:15
in some senses.
139
435259
1207
낯설게 느낄수도 있어요.
07:16
And they're going to help
us think different,
140
436490
2300
그리고 이는 우리가 다르게
사고할 수 있도록 도와줄것입니다.
07:18
because thinking different
is the engine of creation
141
438814
3632
색다른 생각은 창조의 엔진이자
07:22
and wealth and new economy.
142
442470
1867
부와 경제의 새로운
시작을 열게 하니까요.
07:25
The second aspect of this
is that we are going to use AI
143
445835
4923
이어서 두 번째 측면은
우리가 2차 산업혁명을 발생시키기 위해
07:30
to basically make a second
Industrial Revolution.
144
450782
2950
인공지능을 사용하는 것입니다.
제1차 산업혁명은
우리가 소위 인공적인 힘이라는걸
07:34
The first Industrial Revolution
was based on the fact
145
454135
2773
07:36
that we invented something
I would call artificial power.
146
456932
3462
만들었다는 사실에 기반을 뒀습니다.
07:40
Previous to that,
147
460879
1150
이전에는
즉, 농업 혁명동안은
07:42
during the Agricultural Revolution,
148
462053
2034
모든 것이 사람의
노동력으로 만들어졌야 했습니다.
07:44
everything that was made
had to be made with human muscle
149
464111
3702
07:47
or animal power.
150
467837
1307
아니면 동물의 힘으로요.
07:49
That was the only way
to get anything done.
151
469565
2063
어떠한 목적이든지 인간과
동물의 육체적 노동은 불가피했습니다.
07:51
The great innovation during
the Industrial Revolution was,
152
471652
2945
산업혁명 동안 일어난 혁신적인 변화는
07:54
we harnessed steam power, fossil fuels,
153
474621
3109
우리가 증기기관과 화석연료를 사용해
07:57
to make this artificial power
that we could use
154
477754
3856
인간이 원했던 모든 것에 쓸 수 있는
08:01
to do anything we wanted to do.
155
481634
1669
인공적인 힘을 만들었다는 겁니다.
08:03
So today when you drive down the highway,
156
483327
2772
그래서 오늘날 여러분이 고속도로 주행시
08:06
you are, with a flick of the switch,
commanding 250 horses --
157
486571
4525
단순히 스위치를 만지는 것으로
250마리의 말의 지휘효과를 가집니다.
250 마력은
08:11
250 horsepower --
158
491120
1572
08:12
which we can use to build skyscrapers,
to build cities, to build roads,
159
492716
4692
고층 건물을 짓고 도시를
세우며 도로를 닦는데 쓸 수 있고
08:17
to make factories that would churn out
lines of chairs or refrigerators
160
497432
5789
의자나 냉장고를 만드는
공장들이 돌아가게 만드는,
08:23
way beyond our own power.
161
503245
1654
인간을 한참 넘어서는 힘입니다.
08:24
And that artificial power can also
be distributed on wires on a grid
162
504923
6111
그리고 이런 인공적인 힘은
모든 집과, 공장, 농가 등으로
그리드상에서 분배됩니다.
08:31
to every home, factory, farmstead,
163
511058
3199
08:34
and anybody could buy
that artificial power,
164
514281
4191
누구나 인공적인 힘을
플러그를 꼽기만 하면 살 수 있습니다.
08:38
just by plugging something in.
165
518496
1472
08:39
So this was a source
of innovation as well,
166
519992
2439
그래서 이는 혁신의 근원이었습니다.
08:42
because a farmer could take
a manual hand pump,
167
522455
3418
왜냐하면 농부가 수동식 펌프에
08:45
and they could add this artificial
power, this electricity,
168
525897
2916
이 인공적인 힘, 바로 전기를 적용하여
08:48
and he'd have an electric pump.
169
528837
1497
자동식 펌프를 가질 수 있으니까요.
08:50
And you multiply that by thousands
or tens of thousands of times,
170
530358
3318
이런 경우가 몇 천, 몇 만번 반복되고
08:53
and that formula was what brought us
the Industrial Revolution.
171
533700
3159
그렇게 생기는 공식이
우리를 산업혁명으로 이끌었습니다.
08:56
All the things that we see,
all this progress that we now enjoy,
172
536883
3585
우리가 보는 모든것과
우리가 즐기는 모든 과정은
09:00
has come from the fact
that we've done that.
173
540492
2063
우리가 그를 해냈다는
사실로부터 비롯됩니다.
09:02
We're going to do
the same thing now with AI.
174
542579
2348
우리는 인공지능의 경우
에도 이를 적용해볼수 있습니다.
09:04
We're going to distribute that on a grid,
175
544951
2075
배전망을 통해 인공지능을 분배하여
여러분은 인공적인
힘이 더해진 자동펌프에
09:07
and now you can take that electric pump.
176
547050
2374
09:09
You can add some artificial intelligence,
177
549448
2968
인공적인 지능을 더할 수 있습니다.
09:12
and now you have a smart pump.
178
552440
1481
그렇다면 여러분은
스마트 펌프를 가질수 있죠.
09:13
And that, multiplied by a million times,
179
553945
1928
그리고 다시 이를 수 없이 반복하여
09:15
is going to be this second
Industrial Revolution.
180
555897
2363
제 2차 산업혁명으로 나아갈 것입니다.
09:18
So now the car is going down the highway,
181
558284
2382
그에 따라서, 이제
고속도로를 달리는 차는
09:20
it's 250 horsepower,
but in addition, it's 250 minds.
182
560690
4294
250 마력에다가
250개의 생각까지 갖춘
바로 자동주행 자동차가 되겠지요.
09:25
That's the auto-driven car.
183
565008
1769
09:26
It's like a new commodity;
184
566801
1389
이건 거의 새로운 상품입니다.
09:28
it's a new utility.
185
568214
1303
새로운 용도이니까요.
09:29
The AI is going to flow
across the grid -- the cloud --
186
569541
3041
인공지능은 이제
상공이라는 새로운 길을 따라
09:32
in the same way electricity did.
187
572606
1567
전기가 그랬듯 퍼져나갈 것입니다.
09:34
So everything that we had electrified,
188
574197
2380
그럼으로써 전기로 작동하던 모든 것을
09:36
we're now going to cognify.
189
576601
1723
인공지능화(cognify)할 것입니다.
09:38
And I would suggest, then,
190
578693
1385
그리고 예언하건데,
미래에 많은 스타트업
사업의 시작을 열 공식은
09:40
that the formula
for the next 10,000 start-ups
191
580102
3732
09:43
is very, very simple,
192
583858
1162
매우 간결합니다.
변수 x에 인공지능을 더하는 것이죠.
09:45
which is to take x and add AI.
193
585044
3167
이게 공식이고
바로 우리가 할 일입니다.
09:49
That is the formula,
that's what we're going to be doing.
194
589100
2812
09:51
And that is the way
in which we're going to make
195
591936
3306
이를 통해 우리는
09:55
this second Industrial Revolution.
196
595266
1858
2차 산업혁명을 일으킬 수 있습니다.
그나저나, 여러분은
지금 당장, 바로 여기서
09:57
And by the way -- right now, this minute,
197
597148
2154
09:59
you can log on to Google
198
599326
1169
구글에 로그인 해서
10:00
and you can purchase
AI for six cents, 100 hits.
199
600519
3882
인공지능을 6센트에
100번 쓸 수 있습니다.
10:04
That's available right now.
200
604758
1604
이게 지금 당장 가능 한 거란 말이죠.
10:06
So the third aspect of this
201
606386
2286
이에 대한 세 번째 측면은
10:09
is that when we take this AI
and embody it,
202
609315
2678
우리가 인공지능을 구체화시키고
로봇을 만들었을 때입니다.
10:12
we get robots.
203
612017
1173
10:13
And robots are going to be bots,
204
613214
1703
로봇은 수족이 될 것이고
10:14
they're going to be doing many
of the tasks that we have already done.
205
614941
3328
그들은 우리가 했던 일들을 하게 되죠.
10:20
A job is just a bunch of tasks,
206
620357
1528
직업은 일의 뭉텅이이기 때문에
10:21
so they're going to redefine our jobs
207
621909
1762
로봇은 우리의 직업에
대한 개념을 재정립할겁니다.
10:23
because they're going to do
some of those tasks.
208
623695
2259
그들이 바로 그 일을
맡게 될 것이기 때문이죠.
10:25
But they're also going to create
whole new categories,
209
625978
3197
한편, 로봇은 우리가
전에는 원했는지조차 몰랐던
10:29
a whole new slew of tasks
210
629199
2247
일의 완전히 새로운 종류,
또 완전히 새로운 업무를
10:31
that we didn't know
we wanted to do before.
211
631470
2457
만들어 낼 것입니다.
10:33
They're going to actually
engender new kinds of jobs,
212
633951
3637
즉, 로봇의 탄생은 새로운 직업군과
10:37
new kinds of tasks that we want done,
213
637612
2271
인간이 달성하고 싶어할 과제를
새롭게 만들어낼 것입니다.
마치 자동화된 기기가 과거에는
10:39
just as automation made up
a whole bunch of new things
214
639907
3405
10:43
that we didn't know we needed before,
215
643336
1834
필요했는지 조차도
몰랐던 것들을 만들어 냈고
10:45
and now we can't live without them.
216
645194
1956
이제는 우리가 그들
없이는 살 수 없는 것처럼요.
그래서 로봇들은 그들이 차지한 직업보다
더 많은 직업을 양상해 낼 것입니다.
10:47
So they're going to produce
even more jobs than they take away,
217
647174
3956
그러나 중요한 점은 우리가
그들에게 할당하는 업무들의 대부분이
10:51
but it's important that a lot of the tasks
that we're going to give them
218
651154
3434
10:54
are tasks that can be defined
in terms of efficiency or productivity.
219
654612
4572
효율성과 생산성이라는
가치로 정의될수 있다는 것입니다.
10:59
If you can specify a task,
220
659676
1828
만약 당신이 일을
구체적으로 설명할수 있다면
11:01
either manual or conceptual,
221
661528
2235
육체적 노동이든 정신적 노동이든
11:03
that can be specified in terms
of efficiency or productivity,
222
663787
4780
그 일은 효율성과 생산성의 관점에서
11:08
that goes to the bots.
223
668591
1777
로봇이 대신 할 수 있는
것으로 분류 될 수 있습니다.
11:10
Productivity is for robots.
224
670758
2178
생산성은 로봇의 몫이라는 겁니다.
11:12
What we're really good at
is basically wasting time.
225
672960
3070
우리가 로봇보다 훨씬 잘하는 건
소위 시간을 낭비하는 것일테니까요.
(웃음)
11:16
(Laughter)
226
676054
1028
실제로 우리는 비효율적인 걸 잘합니다.
11:17
We're really good at things
that are inefficient.
227
677106
2316
11:19
Science is inherently inefficient.
228
679446
3025
과학은 본질적으로 비효율적이죠.
11:22
It runs on that fact that you have
one failure after another.
229
682816
2906
과학은 여러 번
실패했다는 점에 기반합니다.
11:25
It runs on the fact that you make tests
and experiments that don't work,
230
685746
3424
여러분이 성공하지 못한 실험과
시험을 했다는 사실에 근거합니다.
11:29
otherwise you're not learning.
231
689194
1442
그렇지 않다면,
새로운 걸 배울 수 없습니다.
11:30
It runs on the fact
232
690660
1162
과학은 이처럼 효율성이 많이 부족하다는
11:31
that there is not
a lot of efficiency in it.
233
691846
2083
점에 기반을 둡니다.
11:33
Innovation by definition is inefficient,
234
693953
2779
혁신을 정의하자면
바로 비효율일 겁니다.
11:36
because you make prototypes,
235
696756
1391
왜냐하면 여러분은 시제품을 만들 것이고
실패하거나 작동하지
않을 무언가를 시도해보겠죠.
11:38
because you try stuff that fails,
that doesn't work.
236
698171
2707
11:40
Exploration is inherently inefficiency.
237
700902
3112
모험도 근본적 비효율성을 가집니다.
예술도 효율적이지 않아요.
11:44
Art is not efficient.
238
704038
1531
11:45
Human relationships are not efficient.
239
705593
2127
인간관계 또한 효율적이지 못합니다.
11:47
These are all the kinds of things
we're going to gravitate to,
240
707744
2940
이런 것들은 우리가
자연스럽게 끌리는 일들입니다.
11:50
because they're not efficient.
241
710708
1475
바로 그들이 비효율적이기 때문입니다.
11:52
Efficiency is for robots.
242
712207
2315
효율성은 인간이 아니라
로봇들에게 중요한 것이죠.
11:55
We're also going to learn
that we're going to work with these AIs
243
715338
4123
우리는 앞으로 이 인공지능들과 함께
일해야 하는 것에 대해 배워야합니다.
11:59
because they think differently than us.
244
719485
1997
그들은 우리보다 다르게 생각하니까요.
딥 블루가 세계 제일의
체스 챔피언에게 이겼을 때
12:02
When Deep Blue beat
the world's best chess champion,
245
722005
4314
12:06
people thought it was the end of chess.
246
726343
1929
사람들은 그것이
체스의 끝이라고 생각했습니다.
12:08
But actually, it turns out that today,
the best chess champion in the world
247
728296
4402
하지만 실제로는,
요즘 세계제일의 체스 챔피언은
12:12
is not an AI.
248
732722
1557
인공지능이 아닙니다.
12:14
And it's not a human.
249
734906
1181
인간도 아닙니다.
바로 인공지능과 인간의 팀이죠.
12:16
It's the team of a human and an AI.
250
736111
2715
12:18
The best medical diagnostician
is not a doctor, it's not an AI,
251
738850
4000
제일의 의료분석가는 의사도
아니고 인공지능도 아닌
12:22
it's the team.
252
742874
1176
바로 의사와 인공지능의 팀입니다.
우리는 앞으로 이런
인공지능들과 일하게 될 겁니다.
12:24
We're going to be working with these AIs,
253
744074
2149
12:26
and I think you'll be paid in the future
254
746247
1995
그리고 여러분이 미래에 얼마나
로봇과 일을 잘 할수 있는지에 따라
12:28
by how well you work with these bots.
255
748266
2391
연봉이 결정될거라고 생각합니다.
저의 세번째 포인트는
바로 이겁니다. 그들이 다르다는 것.
12:31
So that's the third thing,
is that they're different,
256
751026
4257
12:35
they're utility
257
755307
1165
그들은 도구예요.
12:36
and they are going to be something
we work with rather than against.
258
756496
3816
그래서 그들은 우리가 적대심을
가지는 게 아니라 함께 할 존재입니다.
12:40
We're working with these
rather than against them.
259
760336
2639
우리는 그들을 거부하지 않고
함께 일하려고 해야합니다.
12:42
So, the future:
260
762999
1477
그래서 미래에는
12:44
Where does that take us?
261
764500
1420
이 미래에 우리는 어떻게 될까요?
12:45
I think that 25 years from now,
they'll look back
262
765944
3567
저는 25년 후에 지금을 돌아봤을 때
12:49
and look at our understanding
of AI and say,
263
769535
3125
인공지능에 대한 우리의 이해를
보곤 이런 말을 할 거라고 생각합니다.
12:52
"You didn't have AI. In fact,
you didn't even have the Internet yet,
264
772684
3300
"너희는 AI를 가지고 있지 않아.
솔직히 말하자면 너희가 가진 건
앞으로 25년 간 있을 것에
비하면 인터넷 정도도 안돼."
12:56
compared to what we're going
to have 25 years from now."
265
776008
2741
12:59
There are no AI experts right now.
266
779849
3047
지금 당장은 인공지능
전문가가 단 하나도 없습니다.
13:02
There's a lot of money going to it,
267
782920
1699
현재 많은 돈이
인공지능에 쓰이고 있어요.
13:04
there are billions of dollars
being spent on it;
268
784643
2268
수십억 달러쯤은 투자되고 있는
13:06
it's a huge business,
269
786935
2164
매우 큰 사업이죠.
하지만, 20년 후와 비교하면
전문가라고 할만한게 없죠.
13:09
but there are no experts, compared
to what we'll know 20 years from now.
270
789123
4272
그래서 우리는 지금 정말
아주 초기 단계에 있습니다.
13:14
So we are just at the beginning
of the beginning,
271
794064
2885
13:16
we're in the first hour of all this.
272
796973
2163
이 모든것의 시작점에 있는 것이죠.
우리는 인터넷의 시작점에 있고.
13:19
We're in the first hour of the Internet.
273
799160
1935
앞으로 닥쳐올 것의
시작점에 있습니다.
13:21
We're in the first hour of what's coming.
274
801119
2040
13:23
The most popular AI product
in 20 years from now,
275
803183
4153
20년 후 모두가 사용하고 있을
13:27
that everybody uses,
276
807360
1444
가장 영향력있는 인공지능은
13:29
has not been invented yet.
277
809499
1544
아직은 발명되지 않았습니다.
13:32
That means that you're not late.
278
812464
2467
그건 여러분이
늦지 않았단 걸 뜻합니다.
13:35
Thank you.
279
815684
1151
감사합니다.
13:36
(Laughter)
280
816859
1026
(웃음)
13:37
(Applause)
281
817909
2757
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.