아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Yu Beom Jeon
검토: 성준 안
00:03
Five years ago,
0
3833
2461
5년 전
00:06
I stood on the TED stage
1
6294
1752
TED 강연에 나와
00:08
and warned about the dangers
of superintelligence.
2
8046
4379
초지능의 위험성을
경고했었습니다.
00:13
I was wrong.
3
13051
1710
제가 틀렸어요.
00:16
It went even worse than I thought.
4
16513
1752
생각보다 더 나빠졌습니다.
00:18
(Laughter)
5
18306
1752
(웃음)
00:20
I never thought governments
would let AI companies get this far
6
20058
4379
정부에서 의미 있는 규제를 세우지 않고
현 상황까지 AI 회사를
방치할지 생각지도 못했고
00:24
without any meaningful regulation.
7
24479
2294
00:27
And the progress of AI
went even faster than I predicted.
8
27732
4880
인공지능은 예상보다
훨씬 빠르게 발전했습니다.
00:32
Look, I showed this abstract
landscape of tasks
9
32654
3587
제 가슴에는 작업을 진행하는
개략적인 지형도가 있는데
00:36
where the elevation represented
how hard it was for AI
10
36241
3128
고도가 높을수록
인공지능이 인간과 같은 수준으로는
00:39
to do each task at human level.
11
39369
1919
처리하기 어렵다는 뜻입니다.
00:41
And the sea level represented
what AI could be back then.
12
41288
3753
해수면은 당시 인공지능이
얼마나 발전했는지를 나타냅니다.
00:45
And boy or boy, has the sea
been rising fast ever since.
13
45875
2962
놀랍게도 해수면은
역대 최고로 빠르게 상승 중이며
00:48
But a lot of these tasks have already
gone blub blub blub blub blub blub.
14
48878
3587
이 작업 중 상당수는
이미 해수면 아래로 가라앉았습니다.
00:52
And the water is on track
to submerge all land,
15
52882
3921
땅은 전부 바닷물에
잠길 것으로 예상되며
00:56
matching human intelligence
at all cognitive tasks.
16
56803
3420
인공지능은 모든 인지 과제에서
비슷한 수준을 보입니다.
01:00
This is a definition of artificial
general intelligence, AGI,
17
60849
5756
이것이 범용 인공지능인 AGI의 정의로
01:06
which is the stated goal
of companies like OpenAI,
18
66605
3837
OpenAI, Google DeepMind,
Anthropic 등
기업에서는 범용 인공지능을
목표로 내세우고 있습니다.
01:10
Google DeepMind and Anthropic.
19
70442
2002
01:12
And these companies are also trying
to build superintelligence,
20
72819
3587
해당 기업들은 초지능을
구축하기 위해 노력하고 있으며
01:16
leaving human intelligence far behind.
21
76448
2919
초지능에 비하면
인간의 지능은 한참 뒤쳐져 있죠.
01:19
And many think it'll only be a few years,
maybe, from AGI to superintelligence.
22
79826
4379
많은 사람들이 AGI가 초지능으로
금방 발전할 것이라고 생각합니다.
01:24
So when are we going to get AGI?
23
84539
2795
그렇다면 언제쯤
AGI를 이용할 수 있을까요?
01:27
Well, until recently, most AI researchers
thought it was at least decades away.
24
87375
5464
최근까지만 해도 AI 연구자 대부분이
적어도 수십 년 후라고 생각했습니다.
01:33
And now Microsoft is saying,
"Oh, it's almost here."
25
93214
3504
Microsoft는 AGI의 시대가
다가왔다고 이야기합니다.
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
우리는 ChatGPT-4에 AGI를
적극 활용하는 현실을 목격하고 있으며
01:40
and the Metaculus betting site
is showing the time left to AGI
27
100555
3796
앞으로를 예측하는 사이트인
Metaculus에 따르면
AGI가 도래하는 데 걸리는 시간이
01:44
plummeting from 20 years away
to three years away
28
104351
4129
지난 18개월만에
20년에서 3년으로 급감했습니다.
01:48
in the last 18 months.
29
108521
1544
01:50
And leading industry people
are now predicting
30
110106
4922
업계를 선도하는 관계자들은
인공지능이 인간을 앞지를 때까지
01:55
that we have maybe two or three years left
until we get outsmarted.
31
115028
5047
약 2~3년 남았다고 예측하고 있습니다.
02:00
So you better stop talking
about AGI as a long-term risk,
32
120116
4421
따라서 AGI를 장기적 위험으로
여기지 않는 것이 좋으며
02:04
or someone might call you a dinosaur
stuck in the past.
33
124579
3170
그러지 않으면 과거에 갇힌
공룡이라는 말을 듣겠죠.
02:08
It's really remarkable
how AI has progressed recently.
34
128416
3837
최근 AI가 얼마나 발전했는지
생각하면 정말 놀랍습니다.
02:12
Not long ago, robots moved like this.
35
132921
2419
얼마 전까지
로봇은 이렇게 움직였습니다.
02:15
(Music)
36
135382
2085
(음악)
02:18
Now they can dance.
37
138551
1418
이제는 춤을 춥니다.
02:20
(Music)
38
140804
2711
(음악)
02:29
Just last year, Midjourney
produced this image.
39
149979
3295
바로 작년에 Midjourney에서
이 이미지를 만들었어요.
02:34
This year, the exact
same prompt produces this.
40
154401
3253
올해에는 똑같은 프롬프트로
이 이미지를 만들었죠.
02:39
Deepfakes are getting really convincing.
41
159656
2544
딥페이크는
점점 진짜 같아지고있습니다.
02:43
(Video) Deepfake Tom Cruise:
I’m going to show you some magic.
42
163201
2920
(비디오) 톰 크루즈 딥페이크:
마법을 보여드릴게요.
02:46
It's the real thing.
43
166913
1335
진짜 동전입니다.
02:48
(Laughs)
44
168289
2086
(웃음)
02:50
I mean ...
45
170375
1293
그러니까...
02:53
It's all ...
46
173920
1835
모든 것이...
02:55
the real ...
47
175797
1710
진짜...
02:57
thing.
48
177549
1168
- 현실입니다.
- 막스 테그마크: 그럴까요?
02:58
Max Tegmark: Or is it?
49
178717
1251
03:02
And Yoshua Bengio now argues
50
182387
2669
요슈아 벤지오의 주장에 따르면
03:05
that large language models
have mastered language
51
185056
3837
이제 대규모 언어 모델은
언어와 지식을 숙달했으며
03:08
and knowledge to the point
that they pass the Turing test.
52
188893
2795
튜링 테스트를 통과할 정도라고 합니다.
03:12
I know some skeptics are saying,
53
192355
1585
일부 회의론자는
03:13
"Nah, they're just overhyped
stochastic parrots
54
193940
2711
확률을 과장해서 말하는
앵무새로 치부하며
03:16
that lack a model of the world,"
55
196693
1877
현실의 모델이 부족하다고 말하지만
03:18
but they clearly have
a representation of the world.
56
198611
2878
현실을 명확히 투영한 모델이
갖춰져 있습니다.
03:21
In fact, we recently found that Llama-2
even has a literal map of the world in it.
57
201531
5839
최근 Llama-2는
말 그대로 세계 지도를
갖췄다는 것을 알게 되었죠.
03:28
And AI also builds
58
208121
3045
또한 AI는
03:31
geometric representations
of more abstract concepts
59
211207
3796
참과 거짓의 정의에 대해 사고하는 등
03:35
like what it thinks is true and false.
60
215003
3754
더욱 추상적인 개념을
기하학적 구조로 구축할 수 있습니다.
03:40
So what's going to happen
if we get AGI and superintelligence?
61
220467
5046
그럼 AGI와 초지능을
이용하면 어떻게 될까요?
03:46
If you only remember one thing
from my talk, let it be this.
62
226514
3879
제 강연에서 딱 한 가지만
기억해야 한다면 이걸 기억하세요.
03:51
AI godfather, Alan Turing predicted
63
231311
3462
인공지능의 대부인 앨런 튜링은
03:54
that the default outcome
is the machines take control.
64
234814
4797
기본 결과는 기계가
통제할 것이라고 예측했습니다.
04:00
The machines take control.
65
240528
2211
기계가 주도권을 잡는 것이죠.
04:04
I know this sounds like science fiction,
66
244240
2336
SF 같은 이야기지만
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
GPT-4처럼 똑똑한 AI도
04:10
also sounded like science
fiction not long ago.
68
250163
2919
얼마 전 까지는
SF 같은 이야기였습니다.
04:13
And if you think of AI,
69
253124
2378
인공지능에 대해서
04:15
if you think of superintelligence
in particular, as just another technology,
70
255502
6047
초지능에 대해서,
특히 초지능을 전기와 같은
04:21
like electricity,
71
261591
2419
또 다른 기술이라고 생각한다면
04:24
you're probably not very worried.
72
264052
2002
크게 걱정하지 않으실 겁니다.
04:26
But you see,
73
266095
1168
하지만 튜링은 초지능을
새로운 종과 비슷하게 생각했습니다.
04:27
Turing thinks of superintelligence
more like a new species.
74
267263
3837
04:31
Think of it,
75
271142
1168
생각해 보면 인간은
04:32
we are building creepy, super capable,
76
272310
3879
소름 끼치게 능력이 뛰어나며
도덕성 없는 사이코패스를 만들고 있으며
04:36
amoral psychopaths
77
276231
1585
04:37
that don't sleep and think
much faster than us,
78
277857
2711
잠도 자지 않고
인간보다 사고력도 좋은데
04:40
can make copies of themselves
79
280610
1418
스스로를 복제할 수 있고
04:42
and have nothing human about them at all.
80
282070
2002
인간성이 전혀 없는 것들입니다.
04:44
So what could possibly go wrong?
81
284072
1835
그럼 뭐가 잘못될 수 있을까요?
04:45
(Laughter)
82
285949
1543
(웃음)
04:47
And it's not just Turing.
83
287951
1585
튜링뿐만이 아닙니다.
04:49
OpenAI CEO Sam Altman,
who gave us ChatGPT,
84
289536
2919
ChatGPT를 만든
OpenAI의 CEO 샘 알트만은
04:52
recently warned that it could
be "lights out for all of us."
85
292497
3837
최근 ChatGPT가 인간에게
위협이 될 수 있다고 경고했습니다.
04:57
Anthropic CEO, Dario Amodei,
even put a number on this risk:
86
297126
3754
Anthropic의 CEO인
다리오 아모데이는 수치까지 제시하면서
05:02
10-25 percent.
87
302090
2210
10~25%라고 이야기했죠.
05:04
And it's not just them.
88
304300
1335
그들뿐만이 아닙니다.
05:05
Human extinction from AI
went mainstream in May
89
305677
3086
5월에는 AGI CEO와
AI 연구원이 모두 나서서
05:08
when all the AGI CEOs
and who's who of AI researchers
90
308763
4922
AI로 인한 인간 멸종에 대해 경고하면서
05:13
came on and warned about it.
91
313685
1376
주류 의견으로 떠올랐습니다.
05:15
And last month, even the number one
of the European Union
92
315061
2920
지난달에는 유럽 연합 집행위원장도
05:18
warned about human extinction by AI.
93
318022
3295
인공지능에 의한
인간 멸종에 대해 경고했습니다.
05:21
So let me summarize
everything I've said so far
94
321359
2211
지금까지 말씀드린 모든 내용을
05:23
in just one slide of cat memes.
95
323611
2544
고양이 밈을 활용한 슬라이드로
요약하겠습니다.
05:27
Three years ago,
96
327282
1793
3년 전
05:29
people were saying it's inevitable,
superintelligence,
97
329117
4129
사람들은 초지능을
피할 수 없는 일이라고 말했습니다.
05:33
it'll be fine,
98
333288
1501
별 문제 없을 것이며
05:34
it's decades away.
99
334789
1210
수십 년은 남았다고 했죠.
05:35
Last year it was more like,
100
335999
1835
작년에는 이랬습니다.
05:37
It's inevitable, it'll be fine.
101
337876
2043
어쩔 수 없어요, 괜찮을 거예요.
05:40
Now it's more like,
102
340295
2460
지금은 이렇게 말합니다.
05:42
It's inevitable.
103
342797
1251
필연적인 일이예요.
05:44
(Laughter)
104
344090
1126
(웃음)
05:47
But let's take a deep breath
and try to raise our spirits
105
347260
3962
하지만 숨을 깊이 들이쉬고
기운을 북돋워 보죠.
05:51
and cheer ourselves up,
106
351264
1168
05:52
because the rest of my talk
is going to be about the good news,
107
352473
3045
이제 희소식을 이야기해 드릴 텐데요.
05:55
that it's not inevitable,
and we can absolutely do better,
108
355560
2919
피할 수 없는 일은 아니며
더 잘 헤쳐나갈 수 있습니다, 알았죠?
05:58
alright?
109
358521
1168
06:00
(Applause)
110
360315
2002
(박수)
06:02
So ...
111
362317
1209
그러니까...
06:04
The real problem is that we lack
a convincing plan for AI safety.
112
364903
5296
진짜 문제는 AI 안전에 대한
확실한 계획이 없다는 것입니다.
06:10
People are working hard on evals
113
370700
3337
사람들은 위험한 AI 행동을
식별하는 평가에
06:14
looking for risky AI behavior,
and that's good,
114
374037
4087
노력을 기울기이고 있으며,
긍정적인 자세입니다.
06:18
but clearly not good enough.
115
378124
2044
하지만 충분치 못한 것은 분명하죠.
06:20
They're basically training AI
to not say bad things
116
380209
4797
AI를 학습시킬 때는
나쁜 일을 하지 않는 것 보다는
06:25
rather than not do bad things.
117
385006
2502
나쁜 말을 하지 않도록 학습시킵니다.
06:28
Moreover, evals and debugging
are really just necessary,
118
388176
4212
게다가 평가와 디버깅은
안전을 위한 필요 조건일 뿐
06:32
not sufficient, conditions for safety.
119
392430
2002
안전의 충분 조건은 아닙니다.
06:34
In other words,
120
394474
1751
다시 말하자면
06:36
they can prove the presence of risk,
121
396225
3671
위험의 부재가 아니라 위험의 존재를
06:39
not the absence of risk.
122
399938
2168
증명할 수 있습니다.
06:42
So let's up our game, alright?
123
402148
2544
더 깊게 들어가볼까요?
06:44
Try to see how we can make
provably safe AI that we can control.
124
404692
5631
제어할 수 있어 안전성이 입증된 AI를
만드는 방법을 확인해 보겠습니다.
06:50
Guardrails try to physically limit harm.
125
410323
5047
가드레일로는 물리적 피해를
막으려는 시도를 합니다.
06:55
But if your adversary is superintelligence
126
415828
2211
하지만 상대방이 초지능이거나
06:58
or a human using superintelligence
against you, right,
127
418081
2544
초지능을 이용해
공격하는 인간의 경우에는
07:00
trying is just not enough.
128
420625
1960
시도만으로는 충분하지 않습니다.
07:02
You need to succeed.
129
422585
1877
성공해야 합니다.
07:04
Harm needs to be impossible.
130
424504
2169
피해를 줄 수 없어야 합니다.
07:06
So we need provably safe systems.
131
426714
2544
입증할 수 있는
안전한 시스템이 필요하죠.
07:09
Provable, not in the weak sense
of convincing some judge,
132
429258
3838
입증이란 판사를 설득하는 등
약한 의미가 아닌
07:13
but in the strong sense of there being
something that's impossible
133
433137
3128
물리 법칙에 따라 불가능하다는
07:16
according to the laws of physics.
134
436265
1585
강력한 의미를 가리킵니다.
07:17
Because no matter how smart an AI is,
135
437892
2002
인공지능이 아무리 똑똑해도
07:19
it can't violate the laws of physics
and do what's provably impossible.
136
439936
4046
물리 법칙을 거슬러
불가능이 증명된 일을 해낼 수는 없죠.
07:24
Steve Omohundro and I
wrote a paper about this,
137
444440
2836
스티브 오모헌드로와 저는
이에 대한 논문을 썼고
07:27
and we're optimistic
that this vision can really work.
138
447318
5005
비전이 실제로
효과 있을 것이라고 낙관하고 있습니다.
07:32
So let me tell you a little bit about how.
139
452323
2169
방법에 대해 조금 말씀드리죠.
07:34
There's a venerable field
called formal verification,
140
454993
4421
정형 검증이라는 권위 있는 분야에서는
07:39
which proves stuff about code.
141
459455
2127
코드에 대한 정보를 증명합니다.
07:41
And I'm optimistic that AI will
revolutionize automatic proving business
142
461624
6548
저는 AI를 통해
자동 검증 비즈니스에서 혁명을 일으키고
07:48
and also revolutionize program synthesis,
143
468214
3337
매우 양질의 코드를 자동 작성하는
프로그램 합성 능력에서도
07:51
the ability to automatically
write really good code.
144
471592
3254
혁명을 일으킬 것이라고 낙관합니다.
07:54
So here is how our vision works.
145
474887
1585
비전의 원리는 이렇습니다.
07:56
You, the human, write a specification
146
476472
4213
우리 인간은
사양을 작성해
08:00
that your AI tool must obey,
147
480685
2711
AI가 반드시 따르도록 합니다.
08:03
that it's impossible to log in
to your laptop
148
483438
2127
올바른 암호 없이는
노트북에 로그인할 수 없는 사양이나
08:05
without the correct password,
149
485565
1793
08:07
or that a DNA printer
cannot synthesize dangerous viruses.
150
487400
5714
DNA 프린터로 위험한 바이러스를
합성할 수 없다는 사양을 작성합니다.
08:13
Then a very powerful AI
creates both your AI tool
151
493156
5213
그러면 매우 강력한 AI가
AI 도구를 만들고
08:18
and a proof that your tool
meets your spec.
152
498369
3837
도구가 사양을 충족한다는 증거를
모두 만들어냅니다.
08:22
Machine learning is uniquely good
at learning algorithms,
153
502540
4254
머신러닝은
알고리즘 학습에 매우 적합하며
08:26
but once the algorithm has been learned,
154
506836
2169
알고리즘을 학습한 후에는
08:29
you can re-implement it in a different
computational architecture
155
509047
3169
검증하기 쉬운 다른 계산 아키텍처에
08:32
that's easier to verify.
156
512216
1627
다시 구현할 수 있습니다.
08:35
Now you might worry,
157
515344
1210
‘내가 어떻게 이해할 수 있을까’라는
걱정을 할 수 있습니다.
08:36
how on earth am I going
to understand this powerful AI
158
516554
3921
강력한 AI와
AI가 만든 강력한 AI 도구, 증거가
08:40
and the powerful AI tool it built
159
520475
1626
08:42
and the proof,
160
522143
1126
이해하기에 너무 복잡하다면
어떻게 이해할 수 있을까요 ?
08:43
if they're all too complicated
for any human to grasp?
161
523311
2794
08:46
Here is the really great news.
162
526147
2127
정말 좋은 소식이 있습니다.
08:48
You don't have to understand
any of that stuff,
163
528316
2461
어떤 것도 이해할 필요가 없습니다.
08:50
because it's much easier to verify
a proof than to discover it.
164
530818
5297
증거를 발견하는 것보다
증명하는 것이 훨씬 쉽기 때문이죠.
08:56
So you only have to understand
or trust your proof-checking code,
165
536115
5089
수백 줄에 불과한 증명 검사 코드를
09:01
which could be just
a few hundred lines long.
166
541245
2211
이해하거나 믿기만 하면 됩니다.
09:03
And Steve and I envision
167
543498
2252
스티브와 저는
09:05
that such proof checkers get built
into all our compute hardware,
168
545750
4463
이러한 증명 검사기가
모든 컴퓨팅 하드웨어에 내장되어
09:10
so it just becomes impossible
to run very unsafe code.
169
550254
4213
매우 위험한 코드를
실행할 수 없게 된다고 생각합니다.
09:14
What if the AI, though,
isn't able to write that AI tool for you?
170
554509
5505
하지만 AI가 그 AI 도구를 대신
작성해 줄 수 없다면 어떨까요?
09:20
Then there's another possibility.
171
560056
3795
그렇다면 또 다른 가능성도 있습니다.
09:23
You train an AI to first just learn
to do what you want
172
563851
3587
AI에 원하는 것을 먼저 학습시킨 다음
09:27
and then you use a different AI
173
567480
3337
다른 AI를 사용하여
09:30
to extract out the learned algorithm
and knowledge for you,
174
570858
3963
사용할 학습된 알고리즘과
지식을 추출합니다.
09:34
like an AI neuroscientist.
175
574862
2086
AI 신경과학자같죠.
09:37
This is in the spirit of the field
of mechanistic interpretability,
176
577281
3879
정말 놀라울 정도로
빠른 발전을 이루고 있는
09:41
which is making really
impressive rapid progress.
177
581160
3253
기계론적 해석가능성 분야의
핵심 개념이 바로 이것입니다.
09:44
Provably safe systems
are clearly not impossible.
178
584455
3170
입증된 안전한 시스템은
불가능하지 않습니다.
09:47
Let's look at a simple example
179
587625
1502
간단한 예시로
09:49
of where we first machine-learn
an algorithm from data
180
589168
4630
데이터에서 알고리즘을
먼저 머신러닝한 다음
09:53
and then distill it out
in the form of code
181
593840
4254
사양을 충족하는 것으로
입증된 코드 형태로
추출하는 간단한 예를 살펴보겠습니다.
09:58
that provably meets spec, OK?
182
598136
2252
10:00
Let’s do it with an algorithm
that you probably learned in first grade,
183
600888
4922
1학년 때 배웠을 법한
알고리즘으로 해봅시다.
10:05
addition,
184
605810
1168
덧셈은 숫자를 오른쪽에서
왼쪽으로 반복해서 이동하면서
10:07
where you loop over the digits
from right to left,
185
607019
2503
10:09
and sometimes you do a carry.
186
609564
1793
받아올림도 하죠.
10:11
We'll do it in binary,
187
611357
1752
2진수의 경우
10:13
as if you were counting
on two fingers instead of ten.
188
613151
2752
열 손가락이 아닌
두 손가락으로만 계산합니다.
10:16
And we first train a recurrent
neural network,
189
616279
3378
먼저 순환 신경망을 학습시켜
10:19
never mind the details,
190
619657
2211
세부 사항은 신경 쓰지 않고
10:21
to nail the task.
191
621909
1418
작업을 제대로 해내도록 합니다.
10:23
So now you have this algorithm
that you don't understand how it works
192
623828
3253
이제 작동 원리를
알 수 없는 알고리즘이
10:27
in a black box
193
627123
2753
블랙박스에 생겼으며
10:29
defined by a bunch of tables
of numbers that we, in nerd speak,
194
629917
4463
블랙박스는
수많은 숫자 테이블로 정의됩니다.
숫자는 전문 용어로 파라미터라고 하죠.
10:34
call parameters.
195
634380
1502
10:35
Then we use an AI tool we built
to automatically distill out from this
196
635882
5297
그 다음으로 Python 프로그램 형식으로
학습된 알고리즘을
10:41
the learned algorithm
in the form of a Python program.
197
641179
3420
직접 만든 AI 도구를 사용해
블랙박스에서 자동 추출합니다.
10:44
And then we use the formal
verification tool known as Daphne
198
644640
4838
그런 다음 Daphne라는
정형 검증 도구를 사용하여
10:49
to prove that this program
correctly adds up any numbers,
199
649520
5422
이 프로그램이 학습 데이터에
있었던 숫자뿐만 아니라
10:54
not just the numbers
that were in your training data.
200
654942
2503
모든 숫자를
똑바로 더하고 있다는 것을 증명합니다.
10:57
So in summary,
201
657778
1377
요약하자면
10:59
provably safe AI,
I'm convinced is possible,
202
659155
3962
입증된 안전한 인공지능은
실현 가능하다고 확신합니다.
하지만 시간과 노력이 필요할 것입니다.
11:03
but it's going to take time and work.
203
663117
3003
11:06
And in the meantime,
204
666162
1209
한편으로는 기억해야 하는 점으로
11:07
let's remember that all the AI benefits
205
667413
4254
대다수가 열광하는 AI의 이점은 전부
11:11
that most people are excited about
206
671709
3795
11:15
actually don't require superintelligence.
207
675504
2628
실제로는 초지능이
불필요하다는 점입니다.
11:18
We can have a long
and amazing future with AI.
208
678758
5005
AI와 함께라면 길고 놀라운
미래를 만들 수 있습니다.
11:25
So let's not pause AI.
209
685014
2169
AI에 제동을 걸지 않아야 합니다.
11:28
Let's just pause the reckless
race to superintelligence.
210
688476
4129
초지능을 향한
무모한 경쟁을 멈춰야 합니다.
11:32
Let's stop obsessively training
ever-larger models
211
692980
4255
인간이 이해하지 못하는
더 큰 모델을 학습시키려는
집착을 버려야 합니다.
11:37
that we don't understand.
212
697276
1669
11:39
Let's heed the warning from ancient Greece
213
699737
3212
고대 그리스 때 말했던
경고에 귀를 기울여
11:42
and not get hubris,
like in the story of Icarus.
214
702949
3712
이카루스 이야기처럼
오만함에 빠지지 맙시다.
11:46
Because artificial intelligence
215
706702
2711
왜냐하면 인공지능은
11:49
is giving us incredible intellectual wings
216
709455
4463
인간에게 놀라운 지식의 날개를 달아주고
11:53
with which we can do things
beyond our wildest dreams
217
713960
4045
태양을 향해 날아가려는 집착을 버린다면
11:58
if we stop obsessively
trying to fly to the sun.
218
718047
4379
꿈도 꾸지 못한
일을 해낼 수 있게 해주니까요.
12:02
Thank you.
219
722802
1168
고맙습니다.
12:03
(Applause)
220
723970
5880
(박수)
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.