The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED
1,805,277 views ・ 2023-04-20
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Junyoung Lee
검토: Ju-young Moon
00:03
We started OpenAI seven years ago
0
3875
2503
저희가 오픈AI를 설립한 건
7년 전입니다.
00:06
because we felt like something
really interesting was happening in AI
1
6378
3712
AI에서 흥미로운 일이
벌어지고 있다고 느껴서
00:10
and we wanted to help steer it
in a positive direction.
2
10131
3170
긍정적인 방향으로
이끌어 보고 싶었죠.
00:15
It's honestly just really amazing to see
3
15220
2085
그 후로 이 분야가 얼마나
발전했는지 보면 정말 놀라운데요.
00:17
how far this whole field
has come since then.
4
17347
3086
00:20
And it's really gratifying to hear
from people like Raymond
5
20433
3629
우리가 만드는 기술을 잘 활용하고 계신
00:24
who are using the technology
we are building, and others,
6
24104
2836
레이먼드 같은 분의 말씀을 들으면
기쁘고 다른 좋은 이야기도 듣게 되죠.
00:26
for so many wonderful things.
7
26982
2127
00:29
We hear from people who are excited,
8
29150
2503
그리고 저희가 하는 일을
기대하는 분이나
00:31
we hear from people who are concerned,
9
31653
1835
걱정하는 분들도 있으며
00:33
we hear from people who feel
both those emotions at once.
10
33530
2961
두 감정을 복합적으로
느끼는 분들도 있습니다.
00:36
And honestly, that's how we feel.
11
36533
2252
솔직히 저희도 같은 마음 이고요.
00:40
Above all, it feels like we're entering
an historic period right now
12
40245
4087
우리는 지금 역사적인 시기에
들어서고 있습니다.
00:44
where we as a world
are going to define a technology
13
44374
4421
이제 우리는 세계적 차원에서
미래 사회 발전에
00:48
that will be so important
for our society going forward.
14
48795
3086
중요한 역할을 할 기술을
정의하게 될 거예요.
00:52
And I believe that we can
manage this for good.
15
52924
2628
그리고 저는 인류가 이 기술을
선하게 활용할 수 있다고 생각해요.
00:56
So today, I want to show you
the current state of that technology
16
56845
4171
오늘 강연에서 저희가 보유한
이 기술의 현재 상태와
01:01
and some of the underlying
design principles that we hold dear.
17
61016
3086
중요하게 여기는 기본 설계 원칙을
소개하려고 합니다.
01:09
So the first thing I'm going to show you
18
69983
1918
가장 먼저 보여드릴 건 인공지능이
사용할 도구를 만드는 과정이며
01:11
is what it's like to build
a tool for an AI
19
71943
2086
인간이 사용하는 도구는 아니에요.
01:14
rather than building it for a human.
20
74029
1876
01:17
So we have a new DALL-E model,
which generates images,
21
77574
3545
저희가 새로 출시한
이미지 생성 ‘DALL-E’ 모델은
곧 공개할 앱이며 여러분이 아니라
01:21
and we are exposing it as an app
for ChatGPT to use on your behalf.
22
81161
4045
챗GPT를 위한 것이죠.
01:25
And you can do things like ask, you know,
23
85248
2461
이렇게 활용할 수 있는데요.
01:27
suggest a nice post-TED meal
and draw a picture of it.
24
87751
6631
‘TED 뒤풀이 식사 메뉴 추천과
그림도 그려 줘’
01:35
(Laughter)
25
95216
1419
(웃음)
01:38
Now you get all of the, sort of,
ideation and creative back-and-forth
26
98303
4671
이제 아이데이션과 창작 과정까지
챗GPT의 도움뿐 아니라
01:43
and taking care of the details for you
that you get out of ChatGPT.
27
103016
4004
세부 사항마저도
챗GPT가 처리해 줍니다.
01:47
And here we go, it's not just
the idea for the meal,
28
107062
2669
보시죠, 메뉴만 정하는 게 아니라
01:49
but a very, very detailed spread.
29
109773
3587
아주 상세하게
진수성찬을 차려 줄 겁니다.
01:54
So let's see what we're going to get.
30
114110
2044
뭐가 나오는지 볼까요.
01:56
But ChatGPT doesn't just generate
images in this case --
31
116154
3795
하지만 이 경우에 챗GPT는
텍스트를 생성하는 게 아니라
01:59
sorry, it doesn't generate text,
it also generates an image.
32
119991
2836
이미지도 생성하죠.
02:02
And that is something
that really expands the power
33
122827
2419
챗GPT의 능력이 확장되는 것으로
02:05
of what it can do on your behalf
in terms of carrying out your intent.
34
125246
3504
일을 대신할 뿐만 아니라
사용자의 의도까지 파악할 수 있습니다.
02:08
And I'll point out,
this is all a live demo.
35
128750
2085
이건 현장에서 보여드리는
라이브 데모인데요.
02:10
This is all generated
by the AI as we speak.
36
130835
2169
지금 말하는 이 순간에
AI가 답변을 생성하고 있어요.
02:13
So I actually don't even know
what we're going to see.
37
133046
2544
어떤 답을 할지 궁금하군요.
02:16
This looks wonderful.
38
136216
2294
이거 정말 멋진데요!
02:18
(Applause)
39
138510
3712
(박수)
02:22
I'm getting hungry just looking at it.
40
142514
1877
보기만 해도 군침이 도네요.
02:24
Now we've extended ChatGPT
with other tools too,
41
144724
2753
저희는 챗GPT에
다른 도구들도 추가했죠.
02:27
for example, memory.
42
147519
1168
그중 하나는 메모리입니다.
02:28
You can say "save this for later."
43
148728
2795
‘이건 나중을 위해 저장해 줘’라고
말하면 됩니다.
02:33
And the interesting thing
about these tools
44
153233
2043
흥미로운 점은 이런 도구들은
검증하기가 쉽다는 거예요.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here
that says "use the DALL-E app."
46
156695
3128
팝업창이 떴네요.
DALL-E 앱을 사용할게요.
이 앱은 몇 달 안에 모든 챗GPT
사용자에게 배포될 겁니다.
02:39
And by the way, this is coming to you, all
ChatGPT users, over upcoming months.
47
159823
3712
화면을 자세히 들여다보면 AI가
프롬프트를 썼다는 걸 알 수 있습니다.
02:43
And you can look under the hood
and see that what it actually did
48
163535
3086
02:46
was write a prompt
just like a human could.
49
166621
2169
마치 인간처럼 말이죠.
02:48
And so you sort of have
this ability to inspect
50
168790
2628
사용자가 검증할 수도 있어서
02:51
how the machine is using these tools,
51
171459
2086
AI가 이런 도구들을
사용한 방법을 알 수 있죠.
02:53
which allows us to provide
feedback to them.
52
173586
2086
그래서 AI에 피드백을
제공할 수 있어요.
02:55
Now it's saved for later,
53
175714
1209
이제 나중에 보기로 저장했으니
얻은 그 정보를 이용하고 다른 앱과
02:56
and let me show you
what it's like to use that information
54
176965
2878
02:59
and to integrate
with other applications too.
55
179884
2503
통합하는 방법을 보여드릴 겁니다.
03:02
You can say,
56
182387
2210
이렇게 말해볼까요?
03:04
“Now make a shopping list
for the tasty thing
57
184639
5506
’내가 좀 전에 제안한 맛있는 음식을′
‘쇼핑 목록으로 만들어 줘’
03:10
I was suggesting earlier.”
58
190186
1835
03:12
And make it a little tricky for the AI.
59
192021
2128
AI에 다음과 같은 명령을
추가해서 난이도를 높일게요.
03:16
"And tweet it out for all
the TED viewers out there."
60
196276
4337
‘그리고 TED 청중들을 위해
트위터에 글로 남겨 줘’
03:20
(Laughter)
61
200655
2252
(웃음)
03:22
So if you do make this wonderful,
wonderful meal,
62
202949
2461
정말 훌륭한 요리를 만든다면
어떤 맛인지 꼭 알고 싶잖아요.
03:25
I definitely want to know how it tastes.
63
205410
2044
03:28
But you can see that ChatGPT
is selecting all these different tools
64
208496
3504
챗GPT가 이 모든 다양한 도구를
직접 선택하는 모습 보이시나요?
03:32
without me having to tell it explicitly
which ones to use in any situation.
65
212000
4379
특정한 도구를 사용하라고
구체적으로 지시하지 않았는데도요.
03:37
And this, I think, shows a new way
of thinking about the user interface.
66
217088
3879
이로써 ‘사용자 인터페이스’의
새로운 시각을 보여 줍니다.
03:40
Like, we are so used to thinking of,
well, we have these apps,
67
220967
3796
우리에게 보통 익숙한 건
여러 앱을 사용하면서
03:44
we click between them,
we copy/paste between them,
68
224763
2335
앱 사이를 왔다 갔다 하고 앱에서
앱으로 복사 붙여넣기도 하는 거죠.
왔다 갔다 하는 게
그렇게 나쁜 경험은 아닙니다.
03:47
and usually it's a great
experience within an app
69
227098
2294
03:49
as long as you kind of know
the menus and know all the options.
70
229434
2961
모든 메뉴와 옵션을 알고 있다면요.
‘네, 그렇게 하셔도 좋습니다.’
‘네, 그렇게 하세요.’
03:52
Yes, I would like you to.
71
232395
1293
03:53
Yes, please.
72
233730
1126
03:54
Always good to be polite.
73
234898
1251
예의상 좋다고 해줄게요.
03:56
(Laughter)
74
236149
2628
(웃음)
04:00
And by having this unified
language interface on top of tools,
75
240361
5464
새로운 도구뿐만 아니라
통합된 언어 인터페이스까지 갖추어서
04:05
the AI is able to sort of take away
all those details from you.
76
245867
4630
AI가 세부 절차들을 혼자서
다 처리할 수 있게 됐습니다.
04:10
So you don't have to be the one
77
250538
1543
그래서 모든 걸 일일이 하나씩
명령할 필요가 없어졌지만
04:12
who spells out every single
sort of little piece
78
252123
2294
04:14
of what's supposed to happen.
79
254459
1543
04:16
And as I said, this is a live demo,
80
256419
1710
지금은 라이브 데모라서
가끔 이렇게 예상치 못한 일이
일어날 수 있어요.
04:18
so sometimes the unexpected
will happen to us.
81
258129
3379
04:21
But let's take a look at the Instacart
shopping list while we're at it.
82
261549
3420
처리되는 동안 아까 요청한
인스타카트 쇼핑 목록도 살펴보죠.
04:25
And you can see we sent a list
of ingredients to Instacart.
83
265386
3254
보시다시피 인스타카트에
필요한 재료 목록을 보관해 뒀어요.
04:29
Here's everything you need.
84
269349
1543
다 보관했는데 정말 흥미로운 건
04:30
And the thing that's really interesting
85
270892
1877
04:32
is that the traditional UI
is still very valuable, right?
86
272811
2919
전통적인 UI도 여전히
가치가 있다는 거예요.
04:35
If you look at this,
87
275772
1877
보시면 사용자가 클릭해서 구입량을
수정할 수 있습니다.
04:37
you still can click through it
and sort of modify the actual quantities.
88
277690
4296
04:41
And that's something that I think shows
89
281986
1877
제 생각에는 이런 걸 보면
04:43
that they're not going away,
traditional UIs.
90
283863
3253
전통적인 UI가
사라지지는 않을 것 같아요.
04:47
It's just we have a new,
augmented way to build them.
91
287158
2795
UI를 구축하는 새로운 방법이
생겼을 뿐이니까요.
04:49
And now we have a tweet
that's been drafted for our review,
92
289994
2920
이제 트윗 초안이 완성되어
검토를 기다리고 있네요.
04:52
which is also a very important thing.
93
292956
1793
이것도 아주 중요한 절차이며
‘실행’을 클릭하면 됩니다.
04:54
We can click “run,” and there we are,
we’re the manager, we’re able to inspect,
94
294749
3712
우리가 관리자이며 검증할 수 있으므로
04:58
we're able to change the work
of the AI if we want to.
95
298461
2836
인공 지능이 완료한 작업도 원한다면
얼마든지 수정할 수 있습니다.
05:02
And so after this talk,
you will be able to access this yourself.
96
302924
5964
이 강연이 끝나면 여러분도
이 트윗을 확인하실 수 있을 겁니다.
05:17
And there we go.
97
317647
1710
다 됐네요.
05:19
Cool.
98
319816
1126
좋습니다
05:22
Thank you, everyone.
99
322485
1168
고맙습니다.
05:23
(Applause)
100
323653
3003
(박수)
05:29
So we’ll cut back to the slides.
101
329367
1627
슬라이드로 돌아가죠.
05:32
Now, the important thing
about how we build this,
102
332954
3587
이 도구들을 제작할 때 중요한 점은
05:36
it's not just about building these tools.
103
336583
2210
단지 도구만 만들면 끝이
아니라는 겁니다.
05:38
It's about teaching
the AI how to use them.
104
338793
2252
AI에게 도구 사용 방법을
가르치는 게 중요해요.
05:41
Like, what do we even want it to do
105
341087
1710
이런 수준 높은 질문을 해서
도대체 어떤 작업을 시키려는 걸까요?
05:42
when we ask these very
high-level questions?
106
342839
2419
05:45
And to do this, we use an old idea.
107
345258
2669
도구 사용법을 가르칠 때
저희는 오래된 기법을 활용합니다.
05:48
If you go back to Alan Turing's 1950 paper
on the Turing test, he says,
108
348261
3337
앨런 튜링이 1950년 발표한
튜링 테스트 관련 논문을 찾아보면
05:51
you'll never program an answer to this.
109
351598
2043
정답을 프로그래밍할 수는 없다고
이야기했지만 배우게 할 순 있죠.
05:53
Instead, you can learn it.
110
353683
1627
05:55
You could build a machine,
like a human child,
111
355351
2169
인간 아이 같은 기계를 만들어서
피드백을 주면서 가르치는 거예요.
05:57
and then teach it through feedback.
112
357520
2127
05:59
Have a human teacher who provides
rewards and punishments
113
359689
2711
인간 교사가 기계에
보상이나 벌을 주는데 기계의 시도가
06:02
as it tries things out and does things
that are either good or bad.
114
362400
3212
좋은지 나쁜지 인간이 판단해요.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
이런 방식으로 챗GPT를 훈련하는데
2단계 과정이죠.
06:08
It's a two-step process.
116
368239
1168
06:09
First, we produce what Turing
would have called a child machine
117
369449
3086
튜링이 ‘어린이 기계’라고
불렀을 법한 것을 제작합니다.
비지도형 기계 학습 과정을 통해
06:12
through an unsupervised learning process.
118
372535
1960
기계에 전 세계와 전 인터넷을 보여주고
이렇게 말합니다.
06:14
We just show it the whole world,
the whole internet
119
374495
2461
06:16
and say, “Predict what comes next
in text you’ve never seen before.”
120
376956
3212
‘네가 처음 보는 텍스트지만
다음에 뭐가 나올지 예측해 봐’
이 과정에서 기계는
온갖 멋진 기술을 획득하게 됩니다.
06:20
And this process imbues it
with all sorts of wonderful skills.
121
380168
3044
예를 들어 수학 문제를 보여줄 때
06:23
For example, if you're shown
a math problem,
122
383212
2086
그 수학 문제를 실제로 풀게 하려면
반드시 이렇게 질문해야 해요.
06:25
the only way to actually
complete that math problem,
123
385298
2544
06:27
to say what comes next,
124
387884
1334
‘다음에 나오는 값이 뭐야?’
06:29
that green nine up there,
125
389218
1293
저기 있는 녹색 9가
실제로 수학 문제를 푼 답이죠.
06:30
is to actually solve the math problem.
126
390511
2294
06:34
But we actually have to do
a second step, too,
127
394432
2169
하지만 두 번째 단계도 거쳐야 합니다.
06:36
which is to teach the AI
what to do with those skills.
128
396601
2544
그 기술을 어떻게 활용할지
인공지능에게 알려 주는 겁니다.
그러려면 저희는 인공지능에
피드백을 제공해야 하고요.
06:39
And for this, we provide feedback.
129
399187
1668
06:40
We have the AI try out multiple things,
give us multiple suggestions,
130
400855
3253
AI가 여러 가지를 시도해 보고
더 많은 제안을 하면
인간은 그걸 평가합니다
‘이게 저것보다 낫네’
06:44
and then a human rates them, says
“This one’s better than that one.”
131
404150
3212
그러면 AI가 자신이 내놓은
특정 대답만을 강화하는 게 아니라
06:47
And this reinforces not just the specific
thing that the AI said,
132
407362
3086
그 대답을 만들어 내기 위해 사용된
전체 과정을 강화하게 되고
06:50
but very importantly, the whole process
that the AI used to produce that answer.
133
410448
3795
일반화도 할 수 있죠.
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach,
to sort of infer your intent
135
415828
2419
이렇게 하면 AI는
여러분의 의도를 배우고 추론해서
06:58
and apply it in scenarios
that it hasn't seen before,
136
418247
2503
난생처음 보고 피드백도
못 받은 시나리오에 적용합니다.
07:00
that it hasn't received feedback.
137
420750
1585
07:02
Now, sometimes the things
we have to teach the AI
138
422669
2460
인공지능에게 가르칠 것들이
생각과는 다를 때가 있어요.
07:05
are not what you'd expect.
139
425171
1543
07:06
For example, when we first showed
GPT-4 to Khan Academy,
140
426756
3086
예를 들어 ‘칸 아카데미’에
처음으로 챗GPT-4를 선보였을 때
07:09
they said, "Wow, this is so great,
141
429884
1627
이렇게 말했어요
‘와, 대단해요!’
07:11
We're going to be able to teach
students wonderful things.
142
431552
2753
‘학생들에게 멋진 것들을
가르칠 수 있겠네요’ 라고요.
그렇지만 학생들의 계산을
검토하지 않는 게 문제였죠.
07:14
Only one problem, it doesn't
double-check students' math.
143
434347
3462
07:17
If there's some bad math in there,
144
437809
1626
잘못된 계산이 있어도
07:19
it will happily pretend that one plus one
equals three and run with it."
145
439477
3462
AI는 인간이 잘못 말한 대로
1+1=3을 정답으로 받아들여요
07:23
So we had to collect some feedback data.
146
443523
2294
그래서 저희는
피드백 데이터를 수집해야 했습니다.
07:25
Sal Khan himself was very kind
147
445858
1544
친절하게도 살 칸 씨가
07:27
and offered 20 hours of his own time
to provide feedback to the machine
148
447443
3337
무려 20시간을 들여서 우리 팀과 함께
기계에 피드백을 제공했습니다.
07:30
alongside our team.
149
450780
1501
07:32
And over the course of a couple of months
we were able to teach the AI that,
150
452323
3587
몇 달에 걸쳐
AI를 다음과 같이 가르쳤어요.
07:35
"Hey, you really should
push back on humans
151
455910
2044
‘이런 특정한 시나리오에서는
인간이 틀렸다면 반박해야 해’라고요.
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots
of improvements to the models this way.
153
461416
4921
이런 방식으로 모델을
정말 많이 개선했죠.
07:46
And when you push
that thumbs down in ChatGPT,
154
466379
2544
만약 여러분이 챗GPT에서
엄지 내림 버튼을 클릭하시면
07:48
that actually is kind of like sending up
a bat signal to our team to say,
155
468965
3462
저희 팀에게 ‘배트 시그널’로
소환 신호를 보내는 셈이죠.
‘여기가 약점 분야이니
피드백을 수집하세요’라고
07:52
“Here’s an area of weakness
where you should gather feedback.”
156
472427
2919
사용자가 그렇게 해주면 저희는
사용자의 말을 반영해서
07:55
And so when you do that,
157
475388
1168
07:56
that's one way that we really
listen to our users
158
476597
2294
07:58
and make sure we're building something
that's more useful for everyone.
159
478933
3378
모두에게 더 유용한 기술을
만들 수 있어요.
08:02
Now, providing high-quality
feedback is a hard thing.
160
482895
3754
유익한 피드백을 주는 건 어렵습니다.
08:07
If you think about asking a kid
to clean their room,
161
487025
2460
애들한테 방을 청소하라고 해 놓고
바닥 검사만 한다면
08:09
if all you're doing
is inspecting the floor,
162
489485
2711
08:12
you don't know if you're just teaching
them to stuff all the toys in the closet.
163
492196
3796
애들이 장난감을 옷장에 넣어도
할 말이 없잖아요.
08:15
This is a nice DALL-E-generated
image, by the way.
164
495992
2627
참고로 이 사진은 ‘DALL-E’가
생성한 멋진 이미지입니다.
08:19
And the same sort
of reasoning applies to AI.
165
499912
4713
AI에도 같은 추론이 적용됩니다.
08:24
As we move to harder tasks,
166
504667
1794
더 어려운 과제로 넘어가면
08:26
we will have to scale our ability
to provide high-quality feedback.
167
506502
3796
양질의 피드백을 제공하는 능력을
우리가 확장해야 할 겁니다.
08:30
But for this, the AI itself
is happy to help.
168
510882
3879
이 경우에는 인공지능도 기꺼이 돕고
갈수록 더 나은 피드백을 제공하며
08:34
It's happy to help us provide
even better feedback
169
514761
2335
08:37
and to scale our ability to supervise
the machine as time goes on.
170
517138
3587
기계를 감독하는 능력을 강화하도록
인공지능이 도움을 주죠.
08:40
And let me show you what I mean.
171
520767
1543
무슨 뜻인지 보여드릴게요.
08:42
For example, you can ask GPT-4
a question like this,
172
522810
4546
예를 들면 챗GPT-4에
이런 질문을 할 수 있습니다.
08:47
of how much time passed
between these two foundational blogs
173
527356
3295
’비지도형 기계학습과
인간 피드백으로부터의 학습에 관한′
08:50
on unsupervised learning
174
530693
1668
‘다음 두 블로그 포스팅 사이의
시간 간격’을 묻는 거예요
08:52
and learning from human feedback.
175
532403
1794
08:54
And the model says two months passed.
176
534197
2460
모델은 두 달이라고 말하는데요.
08:57
But is it true?
177
537075
1167
이 모델들은 100% 신뢰할 수
없는데 과연 사실일까요?
08:58
Like, these models
are not 100-percent reliable,
178
538284
2252
09:00
although they’re getting better
every time we provide some feedback.
179
540536
3921
피드백을 줄 때마다
개선되기는 하더라도요.
09:04
But we can actually use
the AI to fact-check.
180
544457
3086
하지만 인공지능에게
사실 확인까지도 명령할 수 있어요.
09:07
And it can actually check its own work.
181
547543
1877
자신의 작업을 스스로 검증하는 거죠.
09:09
You can say, fact-check this for me.
182
549462
1877
‘사실인지 검증해 줘’라고
말하면 됩니다.
09:12
Now, in this case, I've actually
given the AI a new tool.
183
552757
3670
이 사례에서는
AI에 새 도구를 줬습니다.
09:16
This one is a browsing tool
184
556427
1710
이 도구는 브라우징 툴로
09:18
where the model can issue search queries
and click into web pages.
185
558137
3879
모델이 직접 검색 쿼리를 발행하고
웹페이지를 클릭해 확인할 수 있습니다.
09:22
And it actually writes out
its whole chain of thought as it does it.
186
562016
3253
그리고 전체 생각의 연결고리를
쭉 적어 내려가죠.
‘이걸 검색해 볼게요’라고 말하고는
진짜 검색을 합니다.
09:25
It says, I’m just going to search for this
and it actually does the search.
187
565269
3587
09:28
It then it finds the publication date
and the search results.
188
568856
3128
그러면 블로그 발행일과
검색 결과를 찾습니다.
이제 또 다른 검색 쿼리를 발행하고
블로그 포스팅을 클릭할 거예요.
09:32
It then is issuing another search query.
189
572026
1919
09:33
It's going to click into the blog post.
190
573945
1877
09:35
And all of this you could do,
but it’s a very tedious task.
191
575822
2877
여러분이 전부 다 직접 할 수 있지만
지루한 작업이죠.
09:38
It's not a thing
that humans really want to do.
192
578741
2211
인간이 정말로 하고 싶은 건
조종석에 앉는 거니까요.
09:40
It's much more fun
to be in the driver's seat,
193
580952
2169
관리자가 되어서 완료된 작업을
원하는 만큼 얼마든지 확인할 수 있고
09:43
to be in this manager's position
where you can, if you want,
194
583162
2836
09:45
triple-check the work.
195
585998
1210
출처도 나타납니다.
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
이 전체 추론의 연결고리 중
어느 부분이든 손쉽게 검증할 수 있죠.
09:49
and very easily verify any piece
of this whole chain of reasoning.
198
589919
3754
09:53
And it actually turns out
two months was wrong.
199
593673
2210
두 달은 틀렸고 두 달하고 일주일이
정답이었습니다.
09:55
Two months and one week,
200
595883
2169
09:58
that was correct.
201
598094
1251
10:00
(Applause)
202
600888
3837
(박수)
10:07
And we'll cut back to the side.
203
607645
1502
슬라이드로 다시 돌아가서...
10:09
And so thing that's so interesting to me
about this whole process
204
609147
3920
이 모든 과정에서 가장 흥미로운 점은
10:13
is that it’s this many-step collaboration
between a human and an AI.
205
613067
3962
이것이 인간과 인공지능 사이에 일어나는
복합 단계의 협업이라는 겁니다.
10:17
Because a human, using
this fact-checking tool
206
617029
2461
인간이 이런 사실 확인 도구를 사용해서
데이터를 생산하면
10:19
is doing it in order to produce data
207
619532
2210
10:21
for another AI to become
more useful to a human.
208
621742
3170
그렇게 또 다른 AI가 인간에게
더 유용해질 수 있습니다.
10:25
And I think this really shows
the shape of something
209
625454
2545
제 생각엔 아무래도 이런 패턴을
앞으로 더 흔하게 볼 수 있을 겁니다.
10:28
that we should expect to be
much more common in the future,
210
628040
3087
10:31
where we have humans
and machines kind of very carefully
211
631127
2711
아주 신중하고 섬세하게 설계된 기계와
인간이 힘을 모아
10:33
and delicately designed
in how they fit into a problem
212
633880
3503
어떻게 문제에 접근하고
어떻게 그 문제를 해결할 건지
10:37
and how we want
to solve that problem.
213
637425
1918
알아내는 거죠.
10:39
We make sure that the humans are providing
the management, the oversight,
214
639385
3462
저희가 하는 일은 이런 건데
사람은 관리, 감독, 피드백을 제공하고
10:42
the feedback,
215
642847
1168
기계는 검증하고 신뢰할 수
있도록 운영하게 하는 거예요.
10:44
and the machines are operating
in a way that's inspectable
216
644015
2752
10:46
and trustworthy.
217
646809
1126
10:47
And together we're able to actually create
even more trustworthy machines.
218
647977
3503
서로 힘을 합쳐
더 믿음직한 기계를 만들 수
있는 과정을 제대로 해낸다면
10:51
And I think that over time,
if we get this process right,
219
651522
2711
시간이 흐르면서 아무리 불가능한 문제도
해결할 수 있을 거예요.
10:54
we will be able to solve
impossible problems.
220
654233
2127
10:56
And to give you a sense
of just how impossible I'm talking,
221
656360
3963
얼마나 불가능한 것들을 의미하냐면...
11:00
I think we're going to be able
to rethink almost every aspect
222
660323
2878
컴퓨터와의 상호 작용에 관한
모든 측면을 재검토할 수 있습니다.
11:03
of how we interact with computers.
223
663242
2378
11:05
For example, think about spreadsheets.
224
665620
2502
예를 들어 스프레드시트를 생각해보세요.
11:08
They've been around in some form since,
we'll say, 40 years ago with VisiCalc.
225
668122
4379
40년 전 ‘비지칼크’ 때부터
특정 형식의 스프레드시트를 사용했죠.
11:12
I don't think they've really
changed that much in that time.
226
672543
2878
그 긴 시간 동안 크게
달라진 건 없는 것 같아요...
11:16
And here is a specific spreadsheet
of all the AI papers on the arXiv
227
676214
5922
이건 지난 30년간 아카이브에 올라온
약 16만 7천 편이 있네요.
11:22
for the past 30 years.
228
682178
1168
11:23
There's about 167,000 of them.
229
683346
1960
11:25
And you can see there the data right here.
230
685348
2878
여기 보시면 데이터가 있습니다.
11:28
But let me show you the ChatGPT take
on how to analyze a data set like this.
231
688267
3837
이제 챗GPT가 이런 데이터 셋을
분석하는 방법을 보여드리겠습니다.
11:37
So we can give ChatGPT
access to yet another tool,
232
697318
3837
챗GPT가 다른 도구에 액세스하게
권한을 줄 수 있어요.
11:41
this one a Python interpreter,
233
701197
1460
파이썬 인터프리터라는 이 도구는
11:42
so it’s able to run code,
just like a data scientist would.
234
702657
4004
마치 데이터 과학자처럼
코드를 실행할 수 있습니다.
11:46
And so you can just
literally upload a file
235
706661
2335
그럼 말 그대로 파일을 업로드하고
질문만 하면 됩니다.
11:48
and ask questions about it.
236
708996
1335
11:50
And very helpfully, you know, it knows
the name of the file and it's like,
237
710373
3545
아주 유용하게도
AI가 파일 형식을 인식합니다.
11:53
"Oh, this is CSV,"
comma-separated value file,
238
713960
2419
‘이건 CSV,
쉼표로 구분된 데이터 파일이군요’
11:56
"I'll parse it for you."
239
716420
1335
’분석해 드릴게요”
11:57
The only information here
is the name of the file,
240
717755
2794
여기서 유일한 정보는 파일명과
12:00
the column names like you saw
and then the actual data.
241
720591
3671
아까 보셨던 열 이름인 실제 데이터예요
12:04
And from that it's able to infer
what these columns actually mean.
242
724262
4504
그 정보만 가지고
AI가 이 열의 의미를 추론할 수 있죠.
12:08
Like, that semantic information
wasn't in there.
243
728766
2294
그렇게 쓸만한 정보는 없었는데도
12:11
It has to sort of, put together
its world knowledge of knowing that,
244
731102
3211
AI는 온 지식을 한데 모아서
다음의 사실을 알아내요.
12:14
“Oh yeah, arXiv is a site
that people submit papers
245
734355
2502
‘네, 아카이브는
사람들이 논문을 제출하는 곳이며’
12:16
and therefore that's what these things are
and that these are integer values
246
736857
3587
‘그래서 이것들이 그 논문이고
그러므로 이게 정숫값이며’
12:20
and so therefore it's a number
of authors in the paper,"
247
740486
2628
‘그래서 결국 이건
논문 저자의 수입니다’
12:23
like all of that, that’s work
for a human to do,
248
743114
2252
이런 분석은 보통 인간의 영역이죠.
12:25
and the AI is happy to help with it.
249
745408
1751
이렇게 AI가 기꺼이 도와줬고
이제는 뭘 물어볼지 생각이 안 나요.
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
다행히 AI에
이렇게 질문할 수도 있습니다.
12:32
"Can you make some exploratory graphs?"
252
752248
1877
‘탐색 그래프를 만들어 줄래?’라고요.
12:37
And once again, this is a super high-level
instruction with lots of intent behind it.
253
757461
4004
또 한 번 아주 높은 수준의 명령인데
많은 의도를 담고 있습니다.
12:41
But I don't even know what I want.
254
761507
1668
사용자는 뭘 원하는지 모르죠.
AI는 제가 흥미를 느낄 만한 걸
알아내야 하고
12:43
And the AI kind of has to infer
what I might be interested in.
255
763175
2920
좋은 아이디어로써
12:46
And so it comes up
with some good ideas, I think.
256
766137
2294
논문 당 저자 수를
나타내는 히스토그램과
12:48
So a histogram of the number
of authors per paper,
257
768472
2336
12:50
time series of papers per year,
word cloud of the paper titles.
258
770850
2961
연간 논문의 시계열과
논문 제목의 워드클라우드
12:53
All of that, I think,
will be pretty interesting to see.
259
773853
2627
전부 다 꽤 흥미로워 보입니다.
AI가 이 작업을 실제로도 할 수
있으니 더 좋죠.
12:56
And the great thing is,
it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
멋진 종 모양 그래프이며
발행 논문 수는 세 편이 가장 흔하죠.
13:00
You see that three
is kind of the most common.
262
780151
2169
이제 연간 논문 수 그래프를
AI가 그릴 겁니다.
13:02
It's going to then make this nice plot
of the papers per year.
263
782320
5797
2023년에 엄청난 일이 있었나 보네요.
13:08
Something crazy
is happening in 2023, though.
264
788117
2294
13:10
Looks like we were on an exponential
and it dropped off the cliff.
265
790411
3128
논문 수가 기하급수적으로 올라가다가
벼랑 끝으로 떨어졌어요.
이유가 뭘까요?
13:13
What could be going on there?
266
793539
1460
참고로 이 도구는 파이썬 코드로
검증에 사용하실 수 있죠.
13:14
By the way, all this
is Python code, you can inspect.
267
794999
2753
13:17
And then we'll see word cloud.
268
797752
1459
그리고 워드 클라우드도 보이고
이렇게 멋진 그래픽도 보이죠.
13:19
So you can see all these wonderful things
that appear in these titles.
269
799253
3378
13:23
But I'm pretty unhappy
about this 2023 thing.
270
803090
2127
하지만 2023년이 마음에 안 드네요.
13:25
It makes this year look really bad.
271
805634
1711
올해 수치가 정말 안 좋아 보이는데
물론 올해가 아직 안 끝나서 그렇죠.
13:27
Of course, the problem is
that the year is not over.
272
807345
2877
13:30
So I'm going to push back on the machine.
273
810222
2878
그래서 AI에게 한마디 좀 할게요.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[이건 타당하지 않아]
13:34
2023 isn't over.
275
814727
1293
[2023년은 안 끝났잖아.]
13:38
What percentage of papers in 2022
were even posted by April 13?]
276
818481
5088
[2022년 4월 13일 기준으로
논문 수가 그해 전체의 몇 퍼센트야?]
13:44
So April 13 was the cut-off
date I believe.
277
824695
2294
[올해 4월 13일이 기준일 겁니다.]
13:47
Can you use that to make
a fair projection?
278
827656
4922
[그 수치를 이용해서
값을 타당하게 예측할 수 있을까?]
13:54
So we'll see, this is
the kind of ambitious one.
279
834747
2294
이건 좀 무리한 요구일 수도 있겠어요.
13:57
(Laughter)
280
837083
1126
(웃음)
13:59
So you know,
281
839877
1251
그래도 제 생각엔 이 기계에서 뭔가 더
얻을 수 있을 것 같습니다.
14:01
again, I feel like there was more I wanted
out of the machine here.
282
841128
3921
14:05
I really wanted it to notice this thing,
283
845049
2502
기계가 스스로 2023년의 오류를
파악하기를 원했죠.
14:07
maybe it's a little bit
of an overreach for it
284
847593
3128
좀 과한 기대 같기도 하지만요.
14:10
to have sort of, inferred magically
that this is what I wanted.
285
850763
3378
‘당신이 원하는 게 이거예요’라고
AI가 마법처럼 추론할 수는 없잖아요.
14:14
But I inject my intent,
286
854183
1627
하지만 저는 제 의도를 전달하고
거기에다 추가로 지침까지 제공합니다.
14:15
I provide this additional piece
of, you know, guidance.
287
855810
4754
14:20
And under the hood,
288
860564
1168
화면을 보시면
14:21
the AI is just writing code again,
so if you want to inspect what it's doing,
289
861774
3629
AI가 다시 코드를 작성하고 있어요
어떻게 작업하는지 확인하고 싶다면
14:25
it's very possible.
290
865403
1251
당연히 가능합니다.
14:26
And now, it does the correct projection.
291
866654
3628
이제... 올바른 예측을 실행하네요.
14:30
(Applause)
292
870282
5005
(박수)
14:35
If you noticed, it even updates the title.
293
875287
2169
눈치채셨는지 모르겠는데
제목까지도 업데이트합니다.
14:37
I didn't ask for that,
but it know what I want.
294
877498
2336
제가 요청한 건 아니지만
AI는 제가 원하는 걸 알아요.
14:41
Now we'll cut back to the slide again.
295
881794
2544
슬라이드로 다시 돌아가겠습니다.
14:45
This slide shows a parable
of how I think we ...
296
885714
4880
이 슬라이드에서
한 이야기를 들려드릴게요.
14:51
A vision of how we may end up
using this technology in the future.
297
891220
3212
이 일화는 우리가 미래에 이 기술을
어떻게 사용할 수 있을지 보여 줍니다.
14:54
A person brought
his very sick dog to the vet,
298
894849
3712
한 사람이 아픈 개를 병원에 데려왔는데
14:58
and the veterinarian made a bad call
to say, “Let’s just wait and see.”
299
898561
3336
수의사가 ‘일단 두고 보자’라고
잘못된 판단을 내렸죠.
15:01
And the dog would not
be here today had he listened.
300
901897
2795
그 말을 들었다면
이 개는 죽었을 거예요.
15:05
In the meanwhile,
he provided the blood test,
301
905401
2252
보호자는 챗GPT-4에 혈액 검사
결과와 전체 의료 기록을 제공했어요.
15:07
like, the full medical records, to GPT-4,
302
907653
2586
이렇게 쓰여 있었죠.
15:10
which said, "I am not a vet,
you need to talk to a professional,
303
910281
3170
‘저는 수의사가 아닙니다
전문가와 상담하세요.’
15:13
here are some hypotheses."
304
913492
1710
’여기 몇 가지 추측입니다.′
15:15
He brought that information
to a second vet
305
915786
2127
보호자는 그 정보를
다른 수의사에게 전달했고
15:17
who used it to save the dog's life.
306
917913
1835
그 정보를 이용해서
해당 수의사가 개를 살렸죠.
15:21
Now, these systems, they're not perfect.
307
921292
2252
이 시스템은 완벽하지 않기 때문에
너무 의지하면 안 돼요.
15:23
You cannot overly rely on them.
308
923544
2336
15:25
But this story, I think, shows
309
925880
3712
하지만 이 사례는
15:29
that a human with a medical professional
310
929592
3044
한 인간이 의료 전문가의 도움과
챗GPT의 브레인스토밍으로
15:32
and with ChatGPT
as a brainstorming partner
311
932678
2461
15:35
was able to achieve an outcome
that would not have happened otherwise.
312
935181
3295
엄청난 결과를 얻어냈으며
이 시스템이 없었다면 불가능했겠죠.
15:38
I think this is something
we should all reflect on,
313
938476
2419
이건 모두 한번
생각해 볼 만한 부분이에요.
15:40
think about as we consider
how to integrate these systems
314
940895
2711
시스템을 활용하기 좋은
방법은 뭘까요?
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
저의 확고한 생각은
AI를 제대로 만들려면
모두 동참할 필요가 있다는 겁니다.
15:46
is that getting AI right is going
to require participation from everyone.
317
946650
4338
15:50
And that's for deciding
how we want it to slot in,
318
950988
2377
우리가 이걸 어떻게 사용할지
직접 결정하는 거죠.
15:53
that's for setting the rules of the road,
319
953365
1961
AI가 해도 되고 해서는
안 되는 것 등 규칙을 정하는 겁니다.
15:55
for what an AI will and won't do.
320
955367
2044
15:57
And if there's one thing
to take away from this talk,
321
957453
2502
이 강연에서
한 가지 얻어 가실 게 있다면
15:59
it's that this technology
just looks different.
322
959997
2211
달라 보이는 기술일 뿐인 것입니다.
16:02
Just different from anything
people had anticipated.
323
962208
2502
그저 사람들이 예상했던 것과
다를 뿐이며
16:04
And so we all have to become literate.
324
964710
1835
우리는 익숙해져야 하죠.
16:06
And that's, honestly, one
of the reasons we released ChatGPT.
325
966587
2961
그래서 챗GPT를
세상에 선보인 이유이기도 해요.
16:09
Together, I believe that we can
achieve the OpenAI mission
326
969548
3128
우리가 함께 힘을 모으면
오픈AI의 사명은
16:12
of ensuring that artificial
general intelligence
327
972718
2252
인류에게 도움이 되는 인공지능을
실현할 수 있다고 믿습니다.
16:14
benefits all of humanity.
328
974970
1877
16:16
Thank you.
329
976847
1168
감사합니다.
16:18
(Applause)
330
978057
6965
(박수)
16:33
(Applause ends)
331
993322
1168
(박수가 끝난다)
16:34
Chris Anderson: Greg.
332
994532
1334
크리스 앤더슨:
그렉 씨...
16:36
Wow.
333
996242
1167
대단하네요!
16:37
I mean ...
334
997868
1126
제 말은...
16:39
I suspect that within every mind out here
335
999662
3753
제 생각엔 여기 계신 분들은
16:43
there's a feeling of reeling.
336
1003457
2503
혼란스러울 거예요.
16:46
Like, I suspect that a very large
number of people viewing this,
337
1006001
3379
이걸 보고 계신 많은 분중에 보면서
‘맙소사!’
16:49
you look at that and you think,
“Oh my goodness,
338
1009421
2419
16:51
pretty much every single thing
about the way I work, I need to rethink."
339
1011882
3462
’내가 하는 일에 대한 모든 것을
다시 생각해야 해.′
16:55
Like, there's just
new possibilities there.
340
1015386
2002
여기서 수많은 가능성이
생기는 거예요.
16:57
Am I right?
341
1017388
1168
맞죠?
16:58
Who thinks that they're having to rethink
the way that we do things?
342
1018597
3337
세상에서 우리가 하는 일을
다시 생각하는 사람이 얼마나 있을까요?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
당연히 대단하죠.
17:03
but it's also really scary.
344
1023561
2002
하지만 한편으론 엄청나게 두려울걸요.
그래서 몇 가지 질문을 할게요.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
17:08
I mean, I guess
my first question actually is just
346
1028524
2377
제가 물어볼 첫 번째 질문은
이걸 도대체 어떻게 한 건가요?
17:10
how the hell have you done this?
347
1030901
1585
17:12
(Laughter)
348
1032486
1251
(웃음)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
오픈AI에는 몇백 명의 직원이 있으며
17:16
Google has thousands of employees
working on artificial intelligence.
350
1036740
4755
구글에는 인공지능을 연구하는
수천 명의 직원들이 있죠.
17:21
Why is it you who's come up
with this technology
351
1041996
3503
그런데 세계를 놀라게 만든 이 기술을
만든 사람이 왜 당신인가요?
17:25
that shocked the world?
352
1045541
1168
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
그렉 브록만:
제 말은, 진실은...
17:28
we're all building on shoulders
of giants, right, there's no question.
354
1048502
3295
우리는 거인들의 어깨 위에서
개발하고 있어요.
17:31
If you look at the compute progress,
355
1051797
1752
계산 진행을 보시면
알고리즘 진행, 데이터 진행 등
17:33
the algorithmic progress,
the data progress,
356
1053549
2085
이런 것들은 다 업계 전반에
비슷하게 퍼져있지만
17:35
all of those are really industry-wide.
357
1055634
1835
17:37
But I think within OpenAI,
358
1057469
1252
오픈AI 내부에선 초창기 때부터
신중한 선택을 많이 했어요.
17:38
we made a lot of very deliberate
choices from the early days.
359
1058762
2878
17:41
And the first one was just
to confront reality as it lays.
360
1061640
2711
그리고 이 선택들 중에서 첫 번째는
현실을 있는 그대로 직면하는 것이었죠.
17:44
And that we just thought
really hard about like:
361
1064393
2294
‘이 산업에서 어떻게 하면
성과를 낼까?’와 같은 질문을 생각했고
17:46
What is it going to take
to make progress here?
362
1066687
2210
17:48
We tried a lot of things that didn't work,
so you only see the things that did.
363
1068939
3754
다수의 실패에 직면했지만
여러분은 성공한 것만 보는 거고
제가 제일 중요하게 생각하는 일은
17:52
And I think that the most important thing
has been to get teams of people
364
1072693
3462
17:56
who are very different from each other
to work together harmoniously.
365
1076196
3254
매우 다른 사람들이 모여서 같이
조화롭게 일하게 만드는 일이에요.
17:59
CA: Can we have the water,
by the way, just brought here?
366
1079450
2711
크리스 앤더슨:
물 한 잔만 줄 수 있을까요?
18:02
I think we're going to need it,
it's a dry-mouth topic.
367
1082202
3170
말을 많이 했더니 목이 마르네요.
18:06
But isn't there something also
just about the fact
368
1086665
2795
하지만 이 언어모델을...
18:09
that you saw something
in these language models
369
1089501
4755
계속 투자하고 발전시키면
18:14
that meant that if you continue
to invest in them and grow them,
370
1094256
3921
무언가가 나타날 수도
있다는 것에 대해서
18:18
that something
at some point might emerge?
371
1098218
3129
아이디어가 나오지 않나요?
18:21
GB: Yes.
372
1101847
1126
그렉 브록만: 네.
18:23
And I think that, I mean, honestly,
373
1103015
2836
그리고 제 생각엔...
18:25
I think the story there
is pretty illustrative, right?
374
1105893
2544
솔직히, 이 얘기는 상당히
명확하게 보여주는데요.
18:28
I think that high level, deep learning,
375
1108437
2002
저는 우리가 인간들이 항상 원했던
18:30
like we always knew that was
what we wanted to be,
376
1110481
2335
깊은 수준의 학습을
초창기엔 어떻게 만들어야 할지
18:32
was a deep learning lab,
and exactly how to do it?
377
1112858
2419
몰랐다고 생각하는데
우리는 많은 것을 시도했고
18:35
I think that in the early days,
we didn't know.
378
1115277
2211
18:37
We tried a lot of things,
379
1117529
1210
그리고 우리의 직원 중 한 명이
하나의 언어모델로
18:38
and one person was working
on training a model
380
1118739
2336
18:41
to predict the next character
in Amazon reviews,
381
1121075
2877
아마존 리뷰에서 다음 글자를 예측하는
훈련시키고 있었는데
18:43
and he got a result where --
this is a syntactic process,
382
1123994
4755
그가 받았던 결과가
언어모델에서 다음 쉼표가 어디 있을지
18:48
you expect, you know, the model
will predict where the commas go,
383
1128749
3086
명사와 동사들의 자리를 예측하니까
구문론적인 방법이죠.
18:51
where the nouns and verbs are.
384
1131835
1627
18:53
But he actually got a state-of-the-art
sentiment analysis classifier out of it.
385
1133504
4337
하지만 그는 최첨단
감정 분석 분류기를 얻었어요.
18:57
This model could tell you
if a review was positive or negative.
386
1137883
2961
이 언어모델은 리뷰가 긍정적 아니면
부정적인지 알려줄 수 있었거든요.
19:00
I mean, today we are just like,
come on, anyone can do that.
387
1140886
3378
오늘날 우리는 이 일이
누구나 할 수 있는 일처럼 보이겠지만
19:04
But this was the first time
that you saw this emergence,
388
1144306
3087
저희는 그때 AI가 문맥을...
19:07
this sort of semantics that emerged
from this underlying syntactic process.
389
1147434
5005
파악할 수 있게 된 것을 처음 봤어요.
19:12
And there we knew,
you've got to scale this thing,
390
1152481
2336
그때부터 우린 이 일을 더 크게 만들고
얼마나 발전할지 알아야겠다고 생각했죠.
19:14
you've got to see where it goes.
391
1154858
1544
크리스 앤더슨:
방금 말씀으로 헷갈리는...
19:16
CA: So I think this helps explain
392
1156402
1626
모든 분에게 다 설명이 된 것 같군요.
19:18
the riddle that baffles
everyone looking at this,
393
1158028
2544
19:20
because these things are described
as prediction machines.
394
1160572
2753
왜냐하면 이 언어모델들이
예측 기계라고 설명되었으니까요.
19:23
And yet, what we're seeing
out of them feels ...
395
1163367
2669
그렇지만 언어모델들이 하는 일을 보면
19:26
it just feels impossible that that
could come from a prediction machine.
396
1166036
3420
예측하는 기계에서
나오는 건 불가능해 보여요.
19:29
Just the stuff you showed us just now.
397
1169456
2378
강연에서 보여주셨던 것 말이죠.
19:31
And the key idea of emergence
is that when you get more of a thing,
398
1171875
3838
그리고 출현이라는 중요한
아이디어는 갑작스러운 거잖아요.
19:35
suddenly different things emerge.
399
1175754
1585
19:37
It happens all the time, ant colonies,
single ants run around,
400
1177339
3045
매일 일어나죠:
개미들은 혼자서도 돌아다니지만
개미들을 충분히 모으면
19:40
when you bring enough of them together,
401
1180384
1877
개미 군체가 되고 완전히
다른 행동이 드러나죠.
19:42
you get these ant colonies that show
completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together,
it's just houses together.
403
1185973
3086
하지만 집이 몇 채밖에 없는
도시에 집의 수를 늘리면
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs
and cultural centers and traffic jams.
405
1190894
4588
지역이랑 문화센터나
교통체증 같은 일이 출현하죠.
19:57
Give me one moment for you
when you saw just something pop
406
1197276
3211
예상 못 했던 충격적인 일이 있었다면
얘기해주세요.
20:00
that just blew your mind
407
1200529
1668
20:02
that you just did not see coming.
408
1202197
1627
20:03
GB: Yeah, well,
409
1203824
1209
그렉 브록만:
네
20:05
so you can try this in ChatGPT,
if you add 40-digit numbers --
410
1205075
3462
챗GPT에서도 해볼 수 있는데
40자리 수들을 더하면
20:08
CA: 40-digit?
411
1208537
1168
크리스 앤더슨:
40자리요?
20:09
GB: 40-digit numbers,
the model will do it,
412
1209705
2169
그렉 브록만:
네, 이를 수행하는 방법에 대한
20:11
which means it's really learned
an internal circuit for how to do it.
413
1211915
3254
내부 회로를 완전히 배웠다는 뜻이죠.
20:15
And the really interesting
thing is actually,
414
1215210
2127
그리고 여기에서 정말 흥미로운 점은
20:17
if you have it add like a 40-digit number
plus a 35-digit number,
415
1217337
3212
40자리 수랑 35자리 수를 더하면
언어모델은 사실 자주 틀리지만
20:20
it'll often get it wrong.
416
1220591
1710
20:22
And so you can see that it's really
learning the process,
417
1222676
2795
여기서 언어모델은 이런 방법을 배우죠.
20:25
but it hasn't fully generalized, right?
418
1225471
1876
하지만 완전하게 배우진 못했잖아요?
20:27
It's like you can't memorize
the 40-digit addition table,
419
1227389
2711
여러분들이 40자리 숫자들을
못 더하는 것과 비슷한 건데요.
20:30
that's more atoms
than there are in the universe.
420
1230100
2294
우주 전체에 있는 원자들의 수보다
40자리 숫자들이 더 크거든요.
20:32
So it had to have learned
something general,
421
1232394
2086
그래서 조금 더 일반적이지만
완전히 학습 못 한 것을 배워야 했죠.
20:34
but that it hasn't really
fully yet learned that,
422
1234480
2377
20:36
Oh, I can sort of generalize this
to adding arbitrary numbers
423
1236899
2961
언어모델은 이 일을 임의의 숫자와
임의의 길이를 더해서 일반화해요.
20:39
of arbitrary lengths.
424
1239902
1167
크리스 앤더슨:
그래서 여기서 일어난 건
20:41
CA: So what's happened here
425
1241111
1335
20:42
is that you've allowed it to scale up
426
1242488
1793
믿을 수 없는 길이의 글을
읽을 수 있도록 확대한 것이며
20:44
and look at an incredible
number of pieces of text.
427
1244281
2419
20:46
And it is learning things
428
1246742
1209
학습 못 할 거라고 예상한 것들을
이 언어모델이 학습하고 있죠.
20:47
that you didn't know that it was
going to be capable of learning.
429
1247951
3379
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
그렉 브록만:
네, 뉘앙스도 파악해요.
20:53
So one science that we’re starting
to really get good at
431
1253415
2878
그래서 더 향상된 기술은
발전하는 기술을 예측하는 거죠.
20:56
is predicting some of these
emergent capabilities.
432
1256335
2586
20:58
And to do that actually,
433
1258962
1335
그리고 그걸 해내기 위해선 이 분야에서
21:00
one of the things I think
is very undersung in this field
434
1260339
2711
과소평가 된 일을 해야 하는데
그게 공학 품질입니다.
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
저희의 언어모델을
완전히 다시 개발해야 하는 건데요.
21:06
When you think about building a rocket,
437
1266637
1877
로켓을 조립한다고 생각하면
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
모든 공차는 믿을 수 없을 정도로
작아야 하는데 인공지능 학습도 같아요.
21:10
Same is true in machine learning.
439
1270766
1626
21:12
You have to get every single piece
of the stack engineered properly,
440
1272434
3212
인공지능의 모든 부분을
제대로 설계해야 하고
21:15
and then you can start
doing these predictions.
441
1275646
2210
그래야 예측이 가능합니다.
21:17
There are all these incredibly
smooth scaling curves.
442
1277856
2503
이 수치들은 지능에 대한
아주 중요한 것을 알려주죠.
21:20
They tell you something deeply
fundamental about intelligence.
443
1280359
2919
저희의 GPT-4 블로그 포스트를 보면
곡선들이 다 보이는데
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
21:25
you can see all of these curves in there.
445
1285030
1960
우리는 예측하는 기술을 할 수
있거든요.
21:26
And now we're starting
to be able to predict.
446
1286990
2127
21:29
So we were able to predict, for example,
the performance on coding problems.
447
1289117
3713
그리고 코딩 문제의 성능 같은
문제들도 예측할 수 있죠.
21:32
We basically look at some models
448
1292871
1585
그래서 우리는 간단히 말해서
21:34
that are 10,000 times
or 1,000 times smaller.
449
1294456
2461
만 배나 천 배
더 작은 모델들을 봅니다.
21:36
And so there's something about this
that is actually smooth scaling,
450
1296959
3211
그리고 이 일을 잘 해냈어요.
아직도 초창기이지만 말이에요.
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
크리스 앤더슨:
여러분이 느끼는 큰 두려움 중 하나가
21:45
that arises from this.
453
1305300
1252
여기서 나오네요.
21:46
If it’s fundamental
to what’s happening here,
454
1306593
2127
이 일이 인공지능 개발에서 중요하면
일을 확대할수록 무언가가 나타나는데
21:48
that as you scale up,
455
1308720
1210
21:49
things emerge that
456
1309930
2419
21:52
you can maybe predict
in some level of confidence,
457
1312349
4171
여기에서 자신감을 느낄 수 있고
21:56
but it's capable of surprising you.
458
1316562
2544
언어모델이 당신을
놀랍게 만들 수도 있을 텐데요.
22:00
Why isn't there just a huge risk
of something truly terrible emerging?
459
1320816
4463
정말 끔찍한 일이
일어날 위험이 크지 않은 이유는요?
22:05
GB: Well, I think all of these
are questions of degree
460
1325320
2545
그렉 브록만:
제가 보기엔 이 문제들은
정도, 규모, 타이밍이며
미처 생각하지 못하는 것 중의 하나가
22:07
and scale and timing.
461
1327865
1209
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world
is also this incredibly emergent,
463
1330993
3587
이 언어모델을 세계와 연결하는 일은
아주 강력한 힘을 불러올 수 있어요.
22:14
sort of, very powerful thing too.
464
1334621
1585
그래서 저희는 점진적으로 전개하는 것이
중요하다고 생각해요.
22:16
And so that's one of the reasons
that we think it's so important
465
1336248
3045
22:19
to deploy incrementally.
466
1339293
1167
22:20
And so I think that what we kind of see
right now, if you look at this talk,
467
1340502
3629
그래서 이 강연을 통해서
우리가 중요하게 바라보는 게 있다면
22:24
a lot of what I focus on is providing
really high-quality feedback.
468
1344131
3170
매우 우수한 피드백을 주는 것에
집중해요.
오늘날, 우린 우리가 하는 일을
점검할 수 있죠?
22:27
Today, the tasks that we do,
you can inspect them, right?
469
1347301
2711
예를 들어, 수학 문제를 보고
’아니야, 아니라고, 이건 틀렸어′
22:30
It's very easy to look at that math
problem and be like, no, no, no,
470
1350012
3211
‘AI야, 7이 정답이었잖아.’
22:33
machine, seven was the correct answer.
471
1353265
1835
하지만 책을 요약하는 일 같은
일들은 점검하기가 어렵죠.
22:35
But even summarizing a book,
like, that's a hard thing to supervise.
472
1355100
3212
책의 요약이 좋은지
책을 다 읽어야 하잖아요.
22:38
Like, how do you know
if this book summary is any good?
473
1358312
2586
22:40
You have to read the whole book.
474
1360939
1543
하지만 읽기는 싫죠.
22:42
No one wants to do that.
475
1362482
1168
(웃음)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing
will be that we take this step by step.
477
1364985
4296
그래서 중요한 것은
단계별로 발전하는 것이에요.
22:49
And that we say, OK,
as we move on to book summaries,
478
1369323
2544
독후감으로 넘어갈 때
더 제대로 점검할 수 있도록요.
22:51
we have to supervise this task properly.
479
1371867
1960
22:53
We have to build up
a track record with these machines
480
1373827
2586
그리고 사용자의 요구를 실행할 수
있다는 것을 계속 기록해야 하고
22:56
that they're able to actually
carry out our intent.
481
1376413
2586
22:59
And I think we're going to have to produce
even better, more efficient,
482
1379041
3336
기록하는 방법 또한 더 우수하며
효율적으로 개발해야겠죠.
23:02
more reliable ways of scaling this,
483
1382419
1710
23:04
sort of like making the machine
be aligned with you.
484
1384129
2878
언어모델이 사용자의 요구를
더 정확히 들어줄 수 있도록요.
23:07
CA: So we're going to hear
later in this session,
485
1387049
2294
크리스 앤더슨:
그래서 이 인터뷰 이후
23:09
there are critics who say that,
486
1389343
1543
다음과 같이 비평하는 사람들은
진정한 이해가 없는 거군요.
23:10
you know, there's no real
understanding inside,
487
1390928
4587
23:15
the system is going to always --
488
1395557
1627
’시스템에 항상 오류가 없다는 건
절대 모를 것이다’라고요.
23:17
we're never going to know
that it's not generating errors,
489
1397225
3212
23:20
that it doesn't have
common sense and so forth.
490
1400479
2210
상식 등등이 없는 거죠.
23:22
Is it your belief, Greg,
that it is true at any one moment,
491
1402689
4088
그렉, 믿음이 있나요?
인간의 피드백 스케일이
더 커지는 어느 순간에
23:26
but that the expansion of the scale
and the human feedback
492
1406818
3629
23:30
that you talked about is basically
going to take it on that journey
493
1410489
4963
당신이 말한 것이 기본적으로...
인공지능한테 진실과 지혜 같은 것에
실제로 도달하는 여정을 떠날 텐데요.
23:35
of actually getting to things
like truth and wisdom and so forth,
494
1415494
3837
23:39
with a high degree of confidence.
495
1419331
1627
확고한 자신감을 가지고
그것을 실행할 수 있나요?
23:40
Can you be sure of that?
496
1420999
1335
23:42
GB: Yeah, well, I think that the OpenAI,
I mean, the short answer is yes,
497
1422334
3462
그렉 : 그런 기술은 오픈AI한테
부여할 수 있다고 생각해요.
23:45
I believe that is where we're headed.
498
1425796
1793
우리 기술의 지향점이고요.
23:47
And I think that the OpenAI approach
here has always been just like,
499
1427631
3211
그리고 오픈AI에서 늘 보여준 접근법은
현실을 있는 그대로 직면하는 것이죠.
23:50
let reality hit you in the face, right?
500
1430842
1877
23:52
It's like this field is the field
of broken promises,
501
1432719
2503
이 분야는 지켜지 못한
약속 같은 분야예요.
X는 일어날 것이고 Y는 방법이라고
말하는 모든 전문가의 말처럼요.
23:55
of all these experts saying
X is going to happen, Y is how it works.
502
1435263
3212
사람들은 근 70년간 신경망 기술은
불가능할 거라고 말했죠.
23:58
People have been saying neural nets
aren't going to work for 70 years.
503
1438475
3337
아직은 아니지만 맞을 수도 있고
70년 이상 걸릴 수도 있어요.
24:01
They haven't been right yet.
504
1441812
1376
24:03
They might be right
maybe 70 years plus one
505
1443188
2044
24:05
or something like that is what you need.
506
1445232
1918
하지만 우리의 접근법은
항상 이 기술을 제대로 보기 위해
24:07
But I think that our approach
has always been,
507
1447192
2169
24:09
you've got to push to the limits
of this technology
508
1449361
2419
기술의 한계를 최대한 줄여야
새로운 패러다임으로 넘어간다고 하지만
24:11
to really see it in action,
509
1451822
1293
24:13
because that tells you then, oh, here's
how we can move on to a new paradigm.
510
1453115
3670
이 노력의 결실을 아직 못 봤어요.
24:16
And we just haven't exhausted
the fruit here.
511
1456785
2127
크리스 앤더슨:
아주 논란이 많을 입장을 취하셨는데요.
24:18
CA: I mean, it's quite
a controversial stance you've taken,
512
1458954
2794
24:21
that the right way to do this
is to put it out there in public
513
1461748
2920
언어모델을 공적으로 만들어서
24:24
and then harness all this, you know,
514
1464710
1751
당신의 팀이 피드백을 주는 것이 아닌
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
전 세계가 피드백을 주고 있죠.
24:30
But ...
517
1470924
1168
그렇지만... 나쁜 일들이 일어나면
24:33
If, you know, bad things
are going to emerge,
518
1473135
3753
24:36
it is out there.
519
1476930
1168
전 세계가 알 거예요.
24:38
So, you know, the original story
that I heard on OpenAI
520
1478140
2919
그래서 제가 오픈AI에서 들은 이야기는
비영리로 시작했을 때
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great
sort of check on the big companies
522
1482894
4463
대기업들이 AI로 무슨 일을 벌이는지
24:47
doing their unknown,
possibly evil thing with AI.
523
1487399
3837
확인하기 시작했다고 들었으며
24:51
And you were going to build models
that sort of, you know,
524
1491278
4755
그들을 책임지게 할 필요에 따라
산업 전체를 늦출 수 있는 기술과
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing
the field down, if need be.
526
1497492
4380
언어모델을 개발한다고 들었어요.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
그게 제가 들은 이야기지만
사실 일어난 일들은 완전히 반대죠.
25:03
And yet, what's happened,
arguably, is the opposite.
528
1503832
2461
25:06
That your release of GPT,
especially ChatGPT,
529
1506334
5673
당신들의 GPT의 출시
특히, 챗GPT의 출시는
25:12
sent such shockwaves
through the tech world
530
1512049
2002
전자기계 분야에서 큰 파동을 일으켜서
구글과 메타가 따라잡으려고 했어요.
25:14
that now Google and Meta and so forth
are all scrambling to catch up.
531
1514051
3795
25:17
And some of their criticisms have been,
532
1517888
2085
그리고 그들의 비난 중 몇 개는
25:20
you are forcing us to put this out here
without proper guardrails or we die.
533
1520015
4963
아무런 준비도 없이 AI 세상과
밥벌이를 하기 위해 싸워야 합니다.
25:25
You know, how do you, like,
534
1525020
2794
여러분들이 만든 것이 문제가 아니라
25:27
make the case that what you have done
is responsible here and not reckless.
535
1527814
3754
좋은 일이라는 것을 어떻게 확신하죠?
25:31
GB: Yeah, we think about these
questions all the time.
536
1531568
3128
그렉 브록만:
우리는 그런 문제들을 늘 고민하죠.
25:34
Like, seriously all the time.
537
1534738
1418
언제나 그랬어요.
25:36
And I don't think we're always
going to get it right.
538
1536198
2711
그리고 우리가 항상 맞을 거라는
생각은 하지 않아요.
25:38
But one thing I think
has been incredibly important,
539
1538909
2460
하지만 제가 매우 중요하게 생각하는 건
초창기 때부터 우리는
25:41
from the very beginning,
when we were thinking
540
1541411
2169
‘인공 일반 지능을
어떻게 개발할 것인가?’ 그리고
25:43
about how to build
artificial general intelligence,
541
1543580
2419
‘그것을 전 인류를 위해
어떻게 쓸 것인가?’ 를 생각했죠.
25:45
actually have it benefit all of humanity,
542
1545999
2002
어떻게 할 수 있을까요?
25:48
like, how are you
supposed to do that, right?
543
1548001
2127
비밀리에 진행해야 하잖아요...
25:50
And that default plan of being,
well, you build in secret,
544
1550170
2711
25:52
you get this super powerful thing,
545
1552923
1626
아주 강력한 기술을 만들었고 이것의
안전함과 시작 시점을 결정하는 주체는
25:54
and then you figure out the safety of it
and then you push “go,”
546
1554549
3003
우리였으며 그 결정이 맞았길
기도하는 것밖에 없었죠.
25:57
and you hope you got it right.
547
1557552
1460
저는 그 계획을 실행시키는 방법을
모르지만 다른 사람은 알 수도 있어서
25:59
I don't know how to execute that plan.
548
1559012
1835
26:00
Maybe someone else does.
549
1560889
1168
전 그 일이 항상 두려웠고
정답이 아닌 것처럼 보였어요.
26:02
But for me, that was always terrifying,
it didn't feel right.
550
1562099
2877
그래서 우리가 지금 하는 다른 방법은
26:04
And so I think that this
alternative approach
551
1564976
2128
저한테 보이는 단 하나뿐인 방법이며
그것은 현실 그대로 직면하는 것이고
26:07
is the only other path that I see,
552
1567104
2043
26:09
which is that you do let
reality hit you in the face.
553
1569147
2503
26:11
And I think you do give people
time to give input.
554
1571691
2336
대중에게 피드백 받을 시간도 필요해요.
이 기술이 완벽해지기 전에
26:14
You do have, before these
machines are perfect,
555
1574027
2211
26:16
before they are super powerful,
that you actually have the ability
556
1576279
3128
그리고 엄청나게 강력해지기 전에
기술의 효능감을 보게 될 거예요.
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
그리고 GPT-3에서 벌써 봤죠?
GPT-3에서는 우리는 사람들이
26:22
GPT-3, we really were afraid
559
1582369
1376
26:23
that the number one thing
people were going to do with it
560
1583745
2711
잘못된 정보를 생성하고
선거에 정보를 제공하는 점이 우려됐으며
26:26
was generate misinformation,
try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing
was generating Viagra spam.
562
1588834
2711
제일 중요한 건
19금 스팸을 생성하는 거였죠.
26:31
(Laughter)
563
1591545
3169
(웃음)
26:36
CA: So Viagra spam is bad,
but there are things that are much worse.
564
1596007
3212
크리스 앤더슨: 19금 스팸은 나쁘지만
더 나쁜 것들이 있다는 것이네요.
26:39
Here's a thought experiment for you.
565
1599219
1752
생각할 수 있는 것을 드릴게요.
26:40
Suppose you're sitting in a room,
566
1600971
1710
방 안에 앉아 있다고 가정했을 때
책상 위엔 박스가 있고
26:42
there's a box on the table.
567
1602681
1668
26:44
You believe that in that box
is something that,
568
1604349
3003
당신은 그 박스에...
26:47
there's a very strong chance
it's something absolutely glorious
569
1607394
2961
모든 사람한테 줄 선물이
26:50
that's going to give beautiful gifts
to your family and to everyone.
570
1610397
3920
엄청나게 행복하게 만들어 줄
물건이 있다고 칩시다.
26:54
But there's actually also a one percent
thing in the small print there
571
1614359
3629
그리고 1%의 확률로
작은 글씨로 쓰여 있는
‘판도라’ 상자처럼
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
상상도 못 할 악을 만들 수 있습니다.
27:01
that this actually could unleash
unimaginable evils on the world.
574
1621616
4088
27:06
Do you open that box?
575
1626538
1543
당신은 그 박스를 열 건가요?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
그렉 브록만: 아니요, 절대 안 열죠.
27:09
I think you don't do it that way.
577
1629624
1919
그렇게 하는 게 아니라
27:12
And honestly, like, I'll tell you a story
that I haven't actually told before,
578
1632210
3796
전에 하지 않은 이야기를 들려드릴게요.
27:16
which is that shortly
after we started OpenAI,
579
1636006
2586
오픈AI를 시작한 지 얼마 안 됐을 때
27:18
I remember I was in Puerto Rico
for an AI conference.
580
1638592
2711
저는 인공지능 콘퍼런스에 다녀오기 위해
푸에르토리코에 있었어요.
27:21
I'm sitting in the hotel room just
looking out over this wonderful water,
581
1641344
3462
저는 아름다운 물가가 보이는
호텔 방에서
27:24
all these people having a good time.
582
1644806
1752
즐겁게 지내는 사람들을 보면서
잠깐 생각했는데
27:26
And you think about it for a moment,
583
1646558
1752
판도라의 상자를...
선택할 수 있었다면
27:28
if you could choose for basically
that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
5년 뒤에 아니면
500년 뒤에 말이죠.
27:35
or 500 years away,
586
1655567
1585
27:37
which would you pick, right?
587
1657194
1501
당신은 어느 쪽을 선택했을까요?
27:38
On the one hand you're like,
well, maybe for you personally,
588
1658737
2836
한편으로 여러분들을 위해서라면
27:41
it's better to have it be five years away.
589
1661573
2002
5년 뒤가 나을 수도 있겠죠.
27:43
But if it gets to be 500 years away
and people get more time to get it right,
590
1663617
3628
하지만 500년 뒤에 열리고
더 많은 사람이 알게 되고 준비한다면
27:47
which do you pick?
591
1667287
1168
어떤 것을 선택할까요?
27:48
And you know, I just
really felt it in the moment.
592
1668496
2336
그리고 저는 생각했죠.
27:50
I was like, of course
you do the 500 years.
593
1670874
2002
당연히 500년 뒤라고요.
제 형이 군대에 있었을 때
27:53
My brother was in the military at the time
594
1673293
2002
그는 훨씬 더 실제적인 방식으로
자신의 생명을 걸고 있었어요.
27:55
and like, he puts his life on the line
in a much more real way
595
1675295
2961
27:58
than any of us typing things in computers
596
1678256
2628
우리가 컴퓨터로 타이핑하고
이 기술을 개발하는 것보다 말이죠.
28:00
and developing this
technology at the time.
597
1680926
2585
28:03
And so, yeah, I'm really sold
on the you've got to approach this right.
598
1683511
4547
전 여러분이 동참해야 하는
사실에 정말 마음이 끌렸어요.
28:08
But I don't think that's quite
playing the field as it truly lies.
599
1688058
3628
하지만 있는 그대로의 상황을
받아들이는 건 아니라고 생각해요.
28:11
Like, if you look at the whole
history of computing,
600
1691686
2670
정보처리의 역사를 보면
28:14
I really mean it when I say
that this is an industry-wide
601
1694397
4463
이 분야 전체에서...
28:18
or even just almost like
602
1698902
1543
발전은
28:20
a human-development-
of-technology-wide shift.
603
1700487
3336
인류 전체의 발전이었죠.
28:23
And the more that you sort of,
don't put together the pieces
604
1703865
4088
그리고 이 분야에서 가진 기술들로
28:27
that are there, right,
605
1707994
1293
발전하지 않으려고 해도
컴퓨터들은 빨라지고
28:29
we're still making faster computers,
606
1709329
1752
28:31
we're still improving the algorithms,
all of these things, they are happening.
607
1711081
3670
알고리즘은 더 나아지고
이런 일들이 일어나고 있습니다.
28:34
And if you don't put them together,
you get an overhang,
608
1714793
2627
그리고 기술을 안 쓰면
28:37
which means that if someone does,
609
1717420
1627
다른 사람이 쓸 텐데
28:39
or the moment that someone does manage
to connect to the circuit,
610
1719089
3086
그들이 회로를 연결한다든지 하면
28:42
then you suddenly have
this very powerful thing,
611
1722175
2252
아주 강력한 것이 개발되겠죠.
28:44
no one's had any time to adjust,
612
1724427
1544
아무도 이 신기술에
준비할 시간이 없었고
28:46
who knows what kind
of safety precautions you get.
613
1726012
2336
그 강력한 신기술을 준비할 기술은
아무도 있는지 몰랐어요.
28:48
And so I think
that one thing I take away
614
1728390
1918
그래서 제가 여기서 눈여겨볼 만한
기술의 발전에 대해 생각해 보면
28:50
is like, even you think about development
of other sort of technologies,
615
1730308
3837
28:54
think about nuclear weapons,
616
1734187
1376
예를 들어 핵무기는
사람들이 인간의 한계를
28:55
people talk about being
like a zero to one,
617
1735563
2002
28:57
sort of, change in what humans could do.
618
1737565
2628
무에서 유로 만들어준다고 하죠.
29:00
But I actually think
that if you look at capability,
619
1740235
2461
그렇지만 기술의 능력을 보면
꽤 안정적이었어요.
29:02
it's been quite smooth over time.
620
1742696
1585
29:04
And so the history, I think,
of every technology we've developed
621
1744281
3670
그리고 인류가 개발한 모든 기술은
점진적으로 발전해서
29:07
has been, you've got
to do it incrementally
622
1747993
2002
29:10
and you've got to figure out
how to manage it
623
1750036
2127
발전할 때마다 어떻게 관리할 것인지
생각해야 했습니다.
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
크리스 앤더슨:
지금 제가 듣고 있는 것은...
29:16
the model you want us to have
626
1756918
1668
당신이 우리가 갖고 있길 원하는
언어모델은
29:18
is that we have birthed
this extraordinary child
627
1758628
2795
우리가 초능력이 있을 수도 있는
29:21
that may have superpowers
628
1761423
2544
인류를 한 차원 더 끌어올릴 수 있는
29:24
that take humanity to a whole new place.
629
1764009
2544
비상한 아이를 탄생시켰다는 건데요.
29:26
It is our collective responsibility
to provide the guardrails
630
1766594
5005
그리고 이 아이를 안전하게
29:31
for this child
631
1771641
1210
우리들을 다 공격하지 않고
지혜롭게 키우기 위한 책임은
29:32
to collectively teach it to be wise
and not to tear us all down.
632
1772892
5047
우리 모두에게 있고요.
29:37
Is that basically the model?
633
1777939
1377
그게 이 언어모델이 맞나요?
29:39
GB: I think it's true.
634
1779357
1168
그렉 브록만:
저는 그렇게 생각합니다.
29:40
And I think it's also important
to say this may shift, right?
635
1780567
2878
그리고 이게 바뀔 수도 있겠죠?
29:43
We've got to take each step
as we encounter it.
636
1783445
3253
우리는 직접 대면하는 것처럼
단계별로 접근해야 합니다.
29:46
And I think it's incredibly
important today
637
1786740
2002
그리고 저는 오늘날
우리가 이 기술에 대해서
29:48
that we all do get literate
in this technology,
638
1788783
2878
실질적인 문맹이 되지 않도록
배워야 하고
29:51
figure out how to provide the feedback,
639
1791661
1919
피드백을 어떻게 줄지 생각하고
이 기술에서 얻으려는 것을 정해야 해요.
29:53
decide what we want from it.
640
1793621
1377
29:54
And my hope is that that will
continue to be the best path,
641
1794998
3128
그리고 제 바람은
최선의 길로 계속 이어지는 것이며
29:58
but it's so good we're honestly
having this debate
642
1798168
2377
우리가 솔직하게 토론하는 것은
매우 유익한 것이죠.
30:00
because we wouldn't otherwise
if it weren't out there.
643
1800545
2628
그렇지 않았다면 못 했을 테니까요.
30:03
CA: Greg Brockman, thank you so much
for coming to TED and blowing our minds.
644
1803631
3629
크리스 앤더슨: 브록만 씨!
귀한 강연 감사합니다.
30:07
(Applause)
645
1807302
1626
(박수)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.