What Is an AI Anyway? | Mustafa Suleyman | TED

1,681,587 views ・ 2024-04-22

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Hyerin Kim 검토: JY Kang
00:04
I want to tell you what I see coming.
0
4292
2586
제가 보는 미래에 대해 이야기 해보고자 합니다.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
저는 운이 좋게도 15년 동안 AI를 연구해왔습니다.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
처음 시작할 때는 비주류라고 하는 건 말할 것도 없고,
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
연구자들조차 “아니요, 우리가 하는 건 그냥 기계 학습이에요.” 라고 말했죠.
00:21
Because working on AI was seen as way too out there.
4
21893
3087
왜냐하면 AI에 대한 연구는 비현실적이라 여겨졌거든요.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
2010년에는 인공일반지능을 뜻하는 “AGI”라는 표현을 언급하기만 해도
00:29
artificial general intelligence,
6
29401
2169
00:31
would get you some seriously strange looks
7
31570
2877
못마땅한 시선을 보냈고
00:34
and even a cold shoulder.
8
34489
1585
심지어 따돌리기까지 했습니다.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
사람들은 이렇게 말했죠. “실제로 AGI를 만든다고요?”
00:40
"Isn't that something out of science fiction?"
10
40203
2294
“공상 과학 소설에서나 나오는 거 아닌가요?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
사람들은 50년, 100년이 지나야 인공지능이 가능할 거라 생각했습니다.
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
제 생각에 AI에 대한 이야기조차 부끄러운 일이었던 거 같아요.
00:51
People generally thought we were weird.
14
51631
2211
사람들은 우리를 이상한 사람 취급했습니다.
00:54
And I guess in some ways we kind of were.
15
54217
2503
어쩌면 정말 그랬을지도 모르고요.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
그런데 얼마 지나지 않아
00:59
at a whole range of tasks
17
59681
1793
AI가 모든 작업에서 인간을 능가하기 시작했습니다.
01:01
that people previously thought were way out of reach.
18
61516
2795
전에는 절대 불가능하다고 생각했던 것들에서요.
01:05
Understanding images,
19
65020
2127
이미지를 이해하는 것,
01:07
translating languages,
20
67147
1918
언어를 번역하는 것,
01:09
transcribing speech,
21
69065
1585
말을 글자로 옮기는 것,
01:10
playing Go and chess
22
70692
2127
바둑이나 체스를 두는 것,
01:12
and even diagnosing diseases.
23
72861
1918
심지어 질병을 진단하는 것까지 말이죠.
01:15
People started waking up to the fact
24
75905
1752
사람들은 AI가 엄청난 영향을 미칠 것이라는 사실을 깨닫기 시작했고,
01:17
that AI was going to have an enormous impact,
25
77657
3462
저와 같은 기술자들에게 꽤 어려운 질문들을 던졌습니다.
01:21
and they were rightly asking technologists like me
26
81119
2836
01:23
some pretty tough questions.
27
83955
1752
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
AI가 기후 위기를 해결할 수 있다는 것이 사실인가요?
01:29
Will it make personalized education available to everyone?
29
89127
3337
모든 사람이 개인 맞춤형 교육을 받을 수 있게 될까요?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
그러면 우리 모두가 보편적 기본 소득을 받게 되고
01:35
and we won't have to work anymore?
31
95216
2002
더 이상 일을 하지 않아도 된다는 뜻인가요?
01:37
Should I be afraid?
32
97218
1544
AI를 두려워해야 할까요?
01:38
What does it mean for weapons and war?
33
98762
2335
무기와 전쟁에 대해서는 어떤 영향이 있을까요?
01:41
And of course, will China win?
34
101598
1460
중국이 경쟁에서 이길까요? 우리가 앞서고 있나요?
01:43
Are we in a race?
35
103058
1543
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
허위 정보가 넘치는 대재앙을 맞게 될까요?
01:49
All good questions.
37
109147
1668
모두 좋은 질문입니다.
01:51
But it was actually a simpler
38
111608
1418
하지만 그보다 더 단순하고 더 본질적인 질문에
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
저는 당혹감을 느꼈습니다.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
사실 제가 매일 하는 일의 핵심을 찌르는 질문이죠.
02:03
One morning over breakfast,
41
123620
2044
어느 날 아침,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
저의 여섯 살짜리 조카 카스피안이 ‘파이(Pi)’와 놀고 있었습니다.
02:09
the AI I created at my last company, Inflection.
43
129084
3378
파이는 제가 다니던 회사 ‘인플렉션’에서 만든 인공지능 기기죠.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
조카는 계란 스크램블을 입 한가득 먹고는
02:14
he looked at me plain in the face and said,
45
134381
3503
제 얼굴을 평온하게 쳐다보면서 물었습니다.
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“무스타파 삼촌, 근데 AI가 뭐예요?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
제 조카는 정말 진실되고 호기심이 많고 낙천적인 꼬마예요.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
그 아이는 파이에게 언젠가 동물원에서 공룡을 볼 수 있다면
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
얼마나 좋을지 이야기하기도 하고,
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
집에서 엄청난 양의 초콜릿을 만드는 방법을 묻기도 합니다.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
그리고 왜 파이가 아직 게임은 못 하는지 묻기도 하고요.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
저는 이렇게 답했어요.
“음, 인공지능은 똑똑한 소프트웨어라서 인터넷에 있는 대부분의 글을 읽고
02:42
that's read most of the text on the open internet,
53
162075
2461
02:44
and it can talk to you about anything you want."
54
164577
2419
네가 원하는 건 뭐든지 이야기해줄 수 있어.”
02:48
"Right.
55
168540
1168
“아하!
02:49
So like a person then?"
56
169749
2127
사람처럼요?”
02:54
I was stumped.
57
174254
1334
저는 난감했습니다.
02:56
Genuinely left scratching my head.
58
176798
2502
머리를 긁적이며 자리를 피했어요.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
상투적이고 따분한 대답이 제 머릿속을 스쳐 지나갔습니다.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“아니, AI는 일종의 범용 기술이야. 인쇄술이나 증기기관처럼 말이지.
03:07
like printing or steam."
61
187308
1710
03:09
It will be a tool that will augment us
62
189394
2502
인공지능은 우리 능력을 더 강화하고
03:11
and make us smarter and more productive.
63
191938
2377
더 똑똑하고 생산적으로 만들어줄 거야.
03:14
And when it gets better over time,
64
194649
1960
그리고 시간이 지날수록 더 발전해서
03:16
it'll be like an all-knowing oracle
65
196651
1919
전지전능한 예언자처럼
03:18
that will help us solve grand scientific challenges."
66
198611
3087
중대한 과학적 난제들을 해결하는 데 도움을 줄 거야.”
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
제 생각에 이런 식의 대답은 약간 자기 방어적으로 느껴졌어요.
03:25
a little bit defensive.
68
205869
1418
03:28
And actually better suited to a policy seminar
69
208246
2211
사실 정책 세미나에 더 어울리는 이야기죠.
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
진지한 여섯 살짜리 아이와의 아침 식사 자리가 아니고요.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
“내가 왜 망설이는 거지?” 속으로 생각했습니다.
03:37
You know, let's be honest.
72
217839
1960
자, 솔직해져 봅시다.
03:39
My nephew was asking me a simple question
73
219799
3253
제 조카가 던진 간단한 질문은
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
AI에 종사하는 우리들이 자주 접하지 못하는 질문이었어요.
03:48
What is it that we are actually creating?
75
228099
2920
우리가 창조하는 것은 정말 도대체 무엇일까요?
03:51
What does it mean to make something totally new,
76
231895
3753
이전에 알던 다른 어떤 발명품과도 근본적으로 다른,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
전혀 새로운 걸 만드는 것은 무엇을 의미할까요?
04:00
It is clear that we are at an inflection point
78
240695
2795
우리는 분명 인류 역사의 변곡점에 서 있습니다.
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
현재 우리의 궤도에서,
04:08
we're headed towards the emergence of something
81
248411
2211
새로 등장한 무언가를 설명하려고 고군분투하고 있습니다.
04:10
that we are all struggling to describe,
82
250663
3170
04:13
and yet we cannot control what we don't understand.
83
253875
4630
하지만 우리가 이해하지도 못한 것을 통제한다는 것은 불가능하겠죠.
04:19
And so the metaphors,
84
259631
1585
그렇기에 비유라든지,
04:21
the mental models,
85
261216
1251
심리 모형이라든지,
04:22
the names, these all matter
86
262509
2585
이름 같은 것들이 중요합니다.
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
AI의 잠재적 단점을 제한하면서 AI를 최대한 활용하려면요.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
이 기술의 가능성을 받아들이면서도
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
이것의 윤리성에 대해 늘 깊이 고민하는 사람이라면
04:37
we should, I think,
90
277524
1293
우리가 만드는 것이 무엇인지는 쉽게 설명할 수 있어야 할 겁니다.
04:38
be able to easily describe what it is we are building.
91
278817
3044
04:41
And that includes the six-year-olds.
92
281861
2002
여섯 살 아이들도 이해할 수 있도록 말이죠.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
그런 관점에서 저는 오늘 다음과 같은 비유를 통해서
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
지금 우리가 어떤 순간에 있는지 가늠할 수 있도록 해드리려 합니다.
04:52
I think AI should best be understood
95
292539
2627
저는 AI를 이해하는 가장 좋은 방법은
04:55
as something like a new digital species.
96
295166
4254
AI를 새로운 디지털 종으로 보는 거라고 생각합니다.
05:00
Now, don't take this too literally,
97
300296
2253
글자 그대로 받아들이지는 마세요.
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
제 생각에 앞으로 우리는 AI를 디지털 친구로 보게 될 겁니다.
05:07
new partners in the journeys of all our lives.
99
307220
3295
우리 삶의 여정에서 새로운 동반자로 말이죠.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
앞으로 10년, 20년 혹은 30년이 걸릴지 모르지만
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
제 생각에는 이 관점이 다가오는 현실을 설명하는
05:19
of describing what's actually coming.
102
319732
2378
가장 정확하고 근본적인 방법입니다.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
그리고 무엇보다도 모든 사람이
앞으로 다가오는 것이 무엇인지 알고 대비하도록 해줍니다.
05:26
and shape what comes next.
104
326614
2711
05:29
Now I totally get, this is a strong claim,
105
329868
2002
이 강력한 주장에 대해,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
여러분께 최선을 다해 설명해 드리겠습니다.
05:36
But first, let me just try to set the context.
107
336291
2961
먼저 전체적인 맥락을 짚어보죠.
05:39
From the very first microscopic organisms,
108
339252
2753
지구상 최초의 생명체인 미생물의 탄생은
05:42
life on Earth stretches back billions of years.
109
342046
3462
수십억 년 전으로 거슬러 올라갑니다.
05:45
Over that time, life evolved and diversified.
110
345508
4213
그 후에 생명은 진화하고 다양화되었죠.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
그런데 몇 백만 년 전, 무언가 바뀌기 시작했습니다.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
셀 수 없이 많은 성장과 적응을 반복한 끝에
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
한 계통에서 도구를 사용하기 시작했고, 그 계통이 성장해 우리가 되었습니다.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
우리는 넋이 나갈 정도로 다양한 도구들을 만들어 냈습니다.
06:08
at first slowly and then with astonishing speed,
115
368907
3670
처음에는 느렸지만, 곧 놀라운 속도로
06:12
we went from stone axes and fire
116
372577
3670
돌도끼와 불에서부터
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
언어와 문자, 그리고 산업 기술까지 발전시켰습니다.
06:21
One invention unleashed a thousand more.
118
381878
2919
하나의 발명은 천 개의 기술들을 더 만들어 냈습니다.
06:25
And in time, we became homo technologicus.
119
385173
3712
시간이 흐르면서 우리는 호모 테크놀로지쿠스가 되었습니다.
06:29
Around 80 years ago,
120
389594
1209
약 80년 전, 또 다른 새로운 기술 계통이 시작되었습니다.
06:30
another new branch of technology began.
121
390803
2545
06:33
With the invention of computers,
122
393973
1710
컴퓨터의 발명과 함께,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
우리는 최초의 중앙 처리장치와 트랜지스터 기술에서
현재의 스마트폰과 가상 현실 장치로 빠르게 도약했습니다.
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
06:42
Information, knowledge, communication, computation.
125
402565
4421
정보, 지식, 통신, 계산.
06:47
In this revolution,
126
407570
1418
이 혁명 속에서,
06:49
creation has exploded like never before.
127
409030
3295
기술 창조는 그 어느 때보다 폭발적으로 증가했습니다.
06:53
And now a new wave is upon us.
128
413242
2503
그리고 이제 우리에게는 새로운 물결이 찾아왔습니다.
06:55
Artificial intelligence.
129
415787
1668
인공 지능이죠.
06:57
These waves of history are clearly speeding up,
130
417872
2544
역사의 물결은 확실히 빨라지고 있어요.
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
각 물결이 증폭되고 가속화되기 때문이죠.
07:05
And if you look back,
132
425088
1167
돌이켜보면,
07:06
it's clear that we are in the fastest
133
426297
2002
우리는 역사상 가장 빠르고
07:08
and most consequential wave ever.
134
428299
2586
가장 중요한 물결을 마주한 것이 분명합니다.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
인류와 기술의 여정은 깊이 얽혀 있습니다.
07:16
In just 18 months,
136
436516
1543
불과 18개월 만에,
07:18
over a billion people have used large language models.
137
438059
3170
10억 명이 넘는 사람들이 대규모 언어 모델을 사용했습니다.
07:21
We've witnessed one landmark event after another.
138
441729
3545
우리는 획기적인 사건들을 연달아 목격했습니다.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
불과 몇 년 전만 해도,
사람들은 AI가 결코 창의적일 수 없다고 말했습니다.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
하지만 인공지능은 이제 무한한 창의성의 강처럼 느껴집니다.
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
상상력을 키워주는 시와 그림, 음악과 영상을 만들죠.
07:39
People said it would never be empathetic.
142
459664
2252
사람들은 AI가 절대 공감할 수 없을 것이라 말했습니다.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
하지만 오늘날, 수백만 명의 사람들이 AI와 의미 있는 대화를 나누고,
07:47
talking about their hopes and dreams
144
467755
2002
자신의 희망과 꿈에 대해 이야기하고,
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
감정적인 어려움과 문제를 헤쳐나갈 수 있도록 돕고 있습니다.
07:53
AIs can now drive cars,
146
473177
2294
AI는 이제 자동차를 운전할 수 있고,
07:55
manage energy grids
147
475513
1543
전력망을 관리하고,
07:57
and even invent new molecules.
148
477056
2252
심지어 새로운 분자구조를 발견할 수도 있습니다.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
불과 몇 년 전만 해도, 이 모든 것이 불가능했죠.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
이 모든 것은 데이터와 계산이 기하급수적으로 증가하면서
08:09
and computation.
151
489277
1626
급격히 가속화되었습니다.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
작년에 저희 최신 모델인 인플렉션 2.5는
08:16
used five billion times more computation
153
496242
4129
딥마인드 AI보다 계산 능력이 50억 배나 증가했습니다.
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
10년 전의 구식 아타리 게임기를 이겼던 수준에 비해서 말이죠.
08:24
just over 10 years ago.
155
504042
1668
08:26
That's nine orders of magnitude more computation.
156
506085
3420
그때보다 계산 능력이 9자리 배수로 늘어난 셈입니다.
08:30
10x per year,
157
510089
1627
거의 10년 동안 매년 10배씩 증가한 셈이죠.
08:31
every year for almost a decade.
158
511716
3253
08:34
Over the same time, the size of these models has grown
159
514969
2544
같은 기간에 이러한 모델의 크기는 처음에는 수천만 개의 매개변수였다가
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
그 다음에는 수십억 개의 매개변수로,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
그리고 곧 수십조 개의 매개변수로 규모가 커졌습니다.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
만약 사람이 평생 동안 하루 24시간 내내 책만 읽는다면
08:50
they'd consume eight billion words.
163
530109
3337
80억개의 단어를 소비할 것입니다.
08:53
And of course, that's a lot of words.
164
533488
1835
물론 그것도 엄청난 숫자죠.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
하지만 오늘날의 최첨단 AI는
한 달 동안의 훈련 한 번에 8조 개 이상의 단어를 소비합니다.
09:01
in a single month of training.
166
541120
2336
09:03
And all of this is set to continue.
167
543873
1960
그리고 그 과정을 계속 반복하죠.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
기나긴 기술의 역사가 이제 전혀 새로운 시대를 맞이합니다.
09:12
So what does this mean in practice?
169
552256
2503
그렇다면 이것이 실제로 의미하는 바는 무엇일까요?
09:15
Well, just as the internet gave us the browser
170
555426
2920
인터넷이 브라우저를, 스마트폰이 앱을 등장시킨 것처럼
09:18
and the smartphone gave us apps,
171
558346
2502
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
클라우드 기반 슈퍼컴퓨터는
유비쿼터스 AI의 새로운 시대로 우리를 안내하고 있습니다.
09:24
of ubiquitous AIs.
173
564936
2502
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
머지않아 모든 조작이 대화형으로 이루어질 것입니다.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
또 다른 방향으로는, 개인용 AI가 제공될 것입니다.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
그리고 이러한 AI는 무한한 지식을 습득할 것이고,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
사실을 기반으로 정확하면서, 신뢰할 수 있게 될 것입니다.
09:42
They'll have near-perfect IQ.
178
582036
1794
AI는 완벽에 가까운 IQ를 갖게 될 것입니다.
09:44
They’ll also have exceptional EQ.
179
584914
2377
뛰어난 EQ도 갖게 되겠죠.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
친절하고, 도움을 주고, 공감해 줄 것입니다.
09:53
These elements on their own would be transformational.
181
593089
2836
이러한 요소는 그 자체로도 혁신입니다.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
모든 사람이 각자의 주머니 속에 맞춤형 개인교사를 가지고 있고
09:59
and access to low-cost medical advice.
183
599720
3003
저렴한 가격으로 진찰을 받을 수 있다고 상상해 보세요.
10:02
A lawyer and a doctor,
184
602723
1544
변호사와 의사, 사업 전략가, 코치 등
10:04
a business strategist and coach --
185
604267
1960
10:06
all in your pocket 24 hours a day.
186
606269
2252
모든 걸 하루 24시간 주머니에 넣고 다닐 수 있습니다.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
그런데 제가 AQ라고 부르는 “행동 지수”를 개발하면서
10:13
their “actions quotient.”
188
613693
1668
상황이 정말 바뀌기 시작합니다.
10:15
This is their ability to actually get stuff done
189
615695
2794
AQ는 바로 디지털 세계와 물리적 세계에서
10:18
in the digital and physical world.
190
618531
2294
실제로 AI가 해낼 수 있는 일의 능력치입니다.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
머지않아 AI를 가진 존재는 사람뿐만이 아닐 것입니다.
10:24
Strange as it may sound, every organization,
192
624328
2962
이상하게 들릴지 모르지만
중소기업부터 비영리 단체, 중앙 정부에 이르기까지 모든 조직은
10:27
from small business to nonprofit to national government,
193
627290
3253
10:30
each will have their own.
194
630585
1710
저마다의 AI를 가지게 될 것입니다.
10:32
Every town, building and object
195
632795
2711
모든 마을, 건물, 사물들은
10:35
will be represented by a unique interactive persona.
196
635506
3754
각각의 대화형 인격체로 표현될 것입니다.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
AI는 단순히 기계적 조력자가 아니라,
10:42
They'll be companions, confidants,
198
642221
3754
동반자, 절친한 친구,
동료가 될 것입니다.
10:46
colleagues, friends and partners,
199
646017
2669
우리처럼 다양하고 특별한 친구이자 동반자로서 말이죠.
10:48
as varied and unique as we all are.
200
648728
2627
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
그때는 AI가 거의 모든 일에서 인간을 모방하게 될 것입니다.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
그리고 우리의 일상에서 이 사실을 느낄 수 있을 거예요.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
AI가 이웃 노인들을 위해 주민모임을 기획합니다.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
친절한 전문가가 어려운 진단을 이해할 수 있도록 도와줍니다.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
그리고 보다 큰 규모에서도 그 사실을 느낄 수 있을 겁니다.
11:12
Accelerating scientific discovery,
206
672043
2586
과학적 발견이 가속화됨에 따라,
11:14
autonomous cars on the roads,
207
674629
2168
도로 위의 자율 주행 자동차,
11:16
drones in the skies.
208
676797
1627
하늘의 드론.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
모두 테이크아웃 주문을 하고 발전소를 운영할 겁니다.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
AI는 인간과 상호작용하고 그들끼리도 상호작용할 겁니다.
11:26
They'll speak every language,
211
686349
1918
그들은 모든 언어를 구사하고,
11:28
take in every pattern of sensor data,
212
688267
2836
다양한 감각 정보를 활용할 것입니다.
11:31
sights, sounds,
213
691145
2336
시각, 소리, 정보의 흐름 등 모든 패턴을 이해하고
11:33
streams and streams of information,
214
693481
2377
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
우리가 평생 동안 소화하는 정보량을 훨씬 능가할 겁니다.
11:40
So what is this?
216
700780
1293
그렇다면 이게 뭘까요?
11:42
What are these AIs?
217
702990
2086
이 AI는 무엇일까요?
11:46
If we are to prioritize safety above all else,
218
706410
4588
다른 어떤 것보다 안전을 우선시하고
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
이 새로운 물결이 항상 인류에게 도움이 되고 발전할 수 있도록 하려면
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
AI가 어떻게 될 것인지에 대한 적절한 비유를 찾아야 합니다.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
수년 동안 AI 관련자들, 특히 저 같은 경우는
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
AI를 그저 도구로 여기고 있었습니다.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
하지만 그렇게 해서는 실제로 어떤 일이 벌어지는지 알 수 없죠.
12:14
AIs are clearly more dynamic,
224
734730
2503
AI는 분명히 훨씬 역동적이고
12:17
more ambiguous, more integrated
225
737233
2753
훨씬 모호하고
단순한 도구와는 달리 훨씬 복합적이고 새롭습니다.
12:19
and more emergent than mere tools,
226
739986
2627
12:22
which are entirely subject to human control.
227
742613
2878
기존 도구는 전적으로 인간의 통제를 받으니까요.
12:25
So to contain this wave,
228
745533
2544
따라서 이러한 물결 속에서,
12:28
to put human agency at its center
229
748119
3044
인간의 선택의지를 중심에 두고,
의도치 않게 발생할 수 있는 결과를 완화하기 위해서는
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
12:33
that are likely to arise,
231
753916
1835
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
AI를 새로운 종류의 디지털 종처럼 생각하기 시작해야 합니다.
12:41
Now it's just an analogy,
233
761132
1793
이는 단지 비유일 뿐이고,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
문자 그대로의 뜻이 아니며, 완벽하지도 않습니다.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
우선 이 종은 전통적인 의미에서 생물학적으로 정의되지 않습니다.
12:50
but just pause for a moment
236
770141
2377
하지만 잠깐 생각을 멈추고
12:52
and really think about what they already do.
237
772560
2836
AI가 하고 있는 일에 대해 진지하게 생각해 보세요.
12:55
They communicate in our languages.
238
775438
2627
우리 언어로 의사소통을 하죠.
12:58
They see what we see.
239
778107
2127
우리가 보는 것들을 봅니다.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
상상할 수 없을 만큼 많은 양의 정보를 소비합니다.
13:04
They have memory.
241
784739
1376
기억력이 있습니다.
13:06
They have personality.
242
786991
1752
그들에겐 개성이 있고,
13:09
They have creativity.
243
789493
1710
창의성이 있습니다.
심지어 어느 정도 추리를 할 수도 있고 기본적인 계획을 세울 수도 있습니다.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
13:16
They can act autonomously if we allow them.
245
796709
3128
우리가 허락한다면 그들은 자율적으로 행동할 수 있습니다.
13:20
And they do all this at levels of sophistication
246
800546
2294
그리고 이 모든 일들을 매우 정교하게 수행하며
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
기존에 알던 단순한 도구로 할 수 있는 수준을 훨씬 뛰어넘죠.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
AI가 수학과 프로그램 코드로 이루어졌다고 말하는 것은
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
인간이 탄소와 물로 이루어졌다고 말하는 것과 같습니다.
13:37
It's true, but it completely misses the point.
250
817897
3795
맞는 말이지만, 요점을 완전히 놓쳤습니다.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
네, 그래요, 이건 정말 흥미로운 생각이지만
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
솔직히 이 틀을 통해 우리는 중요한 문제들에 집중할 수 있습니다..
13:52
What are the risks?
253
832745
1585
어떤 위험이 있을까요?
13:55
What are the boundaries that we need to impose?
254
835790
2752
우리가 둬야 할 경계는 무엇일까요?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
어떤 종류의 AI를 원하고 그걸 얼마나 허용해야 할까요?
14:04
This is a story that's still unfolding.
256
844465
2377
이에 대한 논의는 아직 진행 중입니다.
14:06
Nothing should be accepted as a given.
257
846884
2544
아무것도 당연시해서는 안 됩니다.
14:09
We all must choose what we create.
258
849428
2544
무엇을 창조할지는 우리가 선택해야 합니다.
14:12
What AIs we bring into the world, or not.
259
852681
3921
어떤 AI를 세상에 내놓을지 말지에 대해서요.
14:18
These are the questions for all of us here today,
260
858604
2836
이 질문들은 오늘 여기 이 자리에 있는 우리 모두와
14:21
and all of us alive at this moment.
261
861440
2586
현재 살고 있는 우리 모두에게 던지는 질문입니다.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
저에게 이 기술의 이점은 놀라울 정도로 명백하고
14:28
and they inspire my life's work every single day.
263
868989
3546
제 일상에 매일 영감을 줍니다.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
하지만 솔직히 말해서, 그들은 스스로 말할 것입니다.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
수 년 동안 저는 위험성과 단점에 대해 이야기하기를 주저하지 않았습니다.
14:40
and talking about downsides.
266
880668
1710
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
그래야 앞으로 직면하게 될 엄청난 문제에 주목하게 되죠.
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
하지만 분명한 사실은
14:50
There is no path to progress
270
890719
2128
기술을 뒤로한 채로 발전할 수 있는 길은 없습니다.
14:52
where we leave technology behind.
271
892888
2169
14:55
The prize for all of civilization is immense.
272
895683
3795
모든 문명이 받는 보상이 어마어마합니다.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
의료, 교육, 기후 위기에 대한 해결책이 필요한 상황에서
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
AI가 잠재력의 일부만 발휘한다면
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
향후 10년은 인류 역사상 가장 생산적인 시기가 될 것입니다.
15:13
Here's another way to think about it.
276
913701
2002
이에 대해 생각해 볼 수 있는 또 다른 방법이 있습니다.
15:15
In the past,
277
915744
1293
과거에는,
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
경제 성장의 실현에는 큰 단점이 따랐습니다.
15:21
The economy expanded as people discovered new continents
279
921500
3712
사람들이 새로운 대륙을 발견하고
새롭게 국경을 열면서 경제는 확장되었습니다.
15:25
and opened up new frontiers.
280
925254
2002
15:28
But they colonized populations at the same time.
281
928632
3045
하지만 그와 동시에 주민들을 식민지화했습니다.
15:32
We built factories,
282
932595
1710
우리는 공장을 지었지만,
15:34
but they were grim and dangerous places to work.
283
934305
3044
그곳은 일하기에 암울하고 위험한 곳이었습니다.
15:38
We struck oil,
284
938017
1918
우리는 석유를 찾아냈지만,
15:39
but we polluted the planet.
285
939977
1627
지구를 오염시켰습니다.
15:42
Now because we are still designing and building AI,
286
942146
3170
지금 우리는 여전히 AI를 설계하고 구축하는 단계이기 때문에,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
아직 더 철저히 잘 할 수 있는 기회와 잠재력을 가지고 있습니다.
15:49
radically better.
288
949153
1335
15:51
And today, we're not discovering a new continent
289
951071
2628
그리고 지금은 신대륙을 발견하고 자원을 약탈하지 않습니다.
15:53
and plundering its resources.
290
953741
1918
15:56
We're building one from scratch.
291
956285
1919
아예 처음부터 새로 만들고 있죠.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
가끔 사람들은 정보나 반도체가 21세기의 새로운 석유라고 말하지만,
16:03
but that's totally the wrong image.
293
963959
2002
그건 완전히 잘못된 생각입니다.
16:06
AI is to the mind
294
966587
1919
AI의 사고 범위는 핵융합 발전과도 같습니다.
16:08
what nuclear fusion is to energy.
295
968547
2753
16:12
Limitless, abundant,
296
972259
2670
무한하고 풍부하며,
16:14
world-changing.
297
974970
1544
세상을 변화시킵니다.
16:17
And AI really is different,
298
977389
2962
그리고 AI는 정말 다릅니다.
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
우리가 이에 대해 창의적이고 정직하게 생각해야 한다는 뜻이죠.
16:24
We have to push our analogies and our metaphors
300
984647
2586
그에 대한 비유와 은유를 최대한 이끌어내야
16:27
to the very limits
301
987274
1752
앞으로 벌어질 일을 헤쳐나갈 수 있습니다.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
이건 단순한 발명품이 아니기 때문입니다.
16:34
AI is itself an infinite inventor.
304
994907
3503
AI는 그 자체로 무한한 발명가입니다.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
네, 이것은 흥미진진하고, 유망하며, 흥미롭고
16:42
and intriguing all at once.
306
1002164
2044
동시에 걱정되기도 합니다.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
정말 솔직히 말씀드리면, 정말 초현실적입니다.
16:47
But step back,
308
1007836
1293
하지만 한 걸음 물러나
16:49
see it on the long view of glacial time,
309
1009171
3462
빙하기만큼 긴 시간의 관점으로 바라보면
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
현재 우리가 할 수 있는 적절한 비유는 다음과 같습니다.
16:57
Since the beginning of life on Earth,
311
1017471
3003
지구에 생명이 시작된 이래로
17:00
we've been evolving, changing
312
1020516
2961
우리는 진화하고, 변화했으며,
17:03
and then creating everything around us in our human world today.
313
1023477
4171
오늘날 인류 세계를 둘러싼 모든 것을 창조해왔습니다.
17:08
And AI isn't something outside of this story.
314
1028232
3003
그리고 AI도 이 이야기에서 벗어난 것이 아닙니다.
17:11
In fact, it's the very opposite.
315
1031569
2961
사실, 완전히 정반대입니다.
17:15
It's the whole of everything that we have created,
316
1035197
3170
우리가 창조한 모든 것이 엄선된 상태로 한데 모여 있어서
17:18
distilled down into something that we can all interact with
317
1038367
3545
우리는 그와 상호작용함으로써 혜택을 얻을 수 있습니다.
17:21
and benefit from.
318
1041912
1377
17:23
It's a reflection of humanity across time,
319
1043872
3504
이것은 시간을 거쳐온 인류의 모습을 반영하고 있고
17:27
and in this sense,
320
1047418
1251
그런 의미에서는 전혀 새로운 종이 아닙니다.
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
비유는 여기서 끝입니다.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
다음에 조카 카스피언이 물으면 저는 이렇게 말할 것입니다.
17:37
AI isn't separate.
324
1057219
1460
"AI는 따로 구분된 것이 아니야.
17:39
AI isn't even in some senses, new.
325
1059388
3295
어떤 면에서 AI는 전혀 새로운 게 아니란다.
17:43
AI is us.
326
1063517
1126
AI는 바로 우리와 같아.
17:45
It's all of us.
327
1065394
1210
우리 모두와 똑같지."
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
어쩌면 이것이야말로 가장 가능성 있고 중요한 답으로
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
여섯 살 짜리 아이도 이해할 수 있을 것입니다.
17:54
As we build out AI,
330
1074528
1376
우리가 AI를 구축할 때는 모든 좋은 것들을 반영해야 합니다.
17:55
we can and must reflect all that is good,
331
1075946
3545
17:59
all that we love,
332
1079533
1126
우리가 사랑하는 것들과 인류에게 특별한 모든 것들:
18:00
all that is special about humanity:
333
1080701
2753
18:03
our empathy, our kindness,
334
1083495
2169
공감, 친절, 호기심, 창의성 등이 반드시 반영되어야 하죠.
18:05
our curiosity and our creativity.
335
1085664
2169
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
저는 이것이 21세기의 가장 큰 도전이자,
18:14
but also the most wonderful,
337
1094381
2211
우리에게 가장 훌륭한 영감을 주는 희망찬 기회라고 말하고 싶습니다.
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
18:20
Thank you.
339
1100429
1168
감사합니다.
18:21
(Applause)
340
1101639
4879
(박수)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
크리스 앤더슨: 감사합니다, 무스타파.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
놀라운 시각이고 정말 강력한 비유였어요 .
18:32
You're in an amazing position right now.
343
1112066
1960
지금 당신은 특별한 위치에 있잖아요.
18:34
I mean, you were connected at the hip
344
1114026
1793
OpenAI에서 일어나고 있는 놀라운 일을 가장 잘 알고 계시죠.
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
18:38
You’re going to have resources made available,
346
1118614
2169
개발 자원을 더 투입할 예정이고,
18:40
there are reports of these giant new data centers,
347
1120824
4046
거대한 새 데이터 센터 구축에 천 억 달러 투자 얘기도 있습니다.
18:44
100 billion dollars invested and so forth.
348
1124870
2461
18:48
And a new species can emerge from it.
349
1128082
3837
거기서 새로운 종이 생겨날 수 있죠.
18:52
I mean, in your book,
350
1132294
1502
당신의 저서를 보면 놀라울 정도로 낙관적 시각이고,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
인공지능의 위험성에 대해서도 아주 솔직하고 거침없이 나타냈죠.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
제가 궁금한 것은 지금 가지고 계신 시각에서
19:04
what is it that most keeps you up at night?
354
1144431
2336
가장 걱정스러운 부분은 무엇인가요?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
무스타파 슐레이만: 제 생각에 우리가 직면할 가장 큰 위험은
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
제가 비관적 혐오의 함정이라고 부르는 것인데요.
19:11
You know, we have to have the courage to confront
357
1151855
2586
나쁜 시나리오에 대한 가능성에 맞설 용기가 있어야만
19:14
the potential of dark scenarios
358
1154483
1960
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
우리가 기대하는 모든 이점을 최대한 활용할 수 있습니다.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
좋은 소식은 지난 2~3년 사이에는
19:23
there have been very, very few downsides, right?
361
1163325
2961
단점이 거의 없었다는 것입니다.
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
LLM이 어떤 해를 끼쳤는지 확실히 말하기는 매우 어렵습니다.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
하지만 향후 10년 동안에도 그렇게 될 거라는 보장은 없죠.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
그래서 만약 몇 가지 특정 기능에 주목한다면,
19:39
take for example, autonomy.
366
1179174
1835
자율성을 예로 들어보죠.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
자율성은 분명히 우리 사회의 위험을 증가시키는 한계입니다.
19:43
over which we increase risk in our society.
368
1183387
2794
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
그리고 우리가 아주 아주 조심스럽게 나아가야 할 부분이죠.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
다른 하나는 반복적인 자기개선 같은 것입니다.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
모델이 독립적으로 스스로를 개선하고,
19:56
update its own code,
372
1196483
1460
자체적으로 코드를 업데이트하고,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
감독 없이 환경을 탐색하도록 허용하는 것이죠.
20:01
without a human in control to change how it operates,
374
1201321
3295
운영 방식의 변화를 사람이 통제하지 않는다면,
20:04
that would obviously be more dangerous.
375
1204616
1919
분명히 더 위험할 것입니다.
20:06
But I think that we're still some way away from that.
376
1206535
2544
하지만 아직까지 우리는 갈 길이 멀다고 생각합니다.
이 문제에 진정으로 맞서려면 아직 5~10년은 더 걸릴 것 같아요.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
20:12
But it's time to start talking about it now.
378
1212958
2085
하지만 지금부터 논의를 시작해야죠.
크리스 앤더슨: 디지털 종은 다른 생물종과 달리
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
9개월이 아니라 9나노초 만에 복제할 수 있으며,
20:17
can replicate not in nine months,
380
1217588
2002
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
복제본을 무한히 만들어낼 수 있습니다.
20:24
all of which have more power than we have in many ways.
383
1224803
3796
모든 부분에서 우리보다 강력한 힘을 가지고 있습니다.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
제 말은, 의도치 않은 결과가 발생할 가능성이 정말 엄청나다는 거죠.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
문제가 생긴다면 단시간에 일어날 수도 있는 것 아닌가요?
20:35
it could happen in an hour?
386
1235689
1919
20:37
MS: No.
387
1237649
1335
무스타파 슐레이만: 아니요.
20:38
That is really not true.
388
1238984
1752
그건 사실이 아닙니다.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
그것을 시사할 만한 증거는 없는 것 같습니다.
20:42
And I think that, you know,
390
1242863
1585
제 생각에는, 아시다시피,
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
흔히 “지능 폭발”이라고 하는데요.
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
제가 보기엔 이론적 가설일 뿐입니다.
20:51
that we're all kind of curious to explore,
393
1251079
2420
다들 호기심을 갖고 탐구하고 있지만 그럴 것이라는 증거는 없습니다.
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
그리고 단어 선택에 신중할 필요가 있다고 생각해요.
말씀하신 그것이 종이라는 개념을 사용할 때의 약점 중 하나입니다.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
21:03
that we will design the capability for self-replication into it
397
1263801
4337
자가 복제를 할 수 있는 능력을 갖도록 설계할 거라면
21:08
if people choose to do that.
398
1268180
1668
그것은 인간의 선택의 문제죠.
21:09
And I would actually argue that we should not,
399
1269890
2169
사실 저는 그래서는 안 된다고 주장하고 싶습니다.
그건 우리가 계속 숨겨둬야 할 위험한 능력 중 하나일 것입니다.
21:12
that would be one of the dangerous capabilities
400
1272059
2210
21:14
that we should step back from, right?
401
1274269
1835
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
그러니까 이런 일이 우연히 “나타날” 가능성은 없죠.
21:19
I really think that's a very low probability.
403
1279942
2502
그럴 확률은 매우 낮다고 생각해요.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
엔지니어가 그런 기능을 의도적으로 설계하면 일어날 일입니다.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
혹은 엔지니어들이 신중한 설계에 충분한 노력을 들이지 않는다면 말이죠.
그래서 아주 초기에 안전중심 설계를 도입하는 시도를
21:30
And so this is the point of being explicit
406
1290160
2294
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
분명하고 투명하게 하는 것이 중요한 점이 되겠습니다.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
크리스 앤더슨: 감사합니다.
이 새로운 것에 인류를, 우리의 가장 좋은 부분을 대입하고,
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
우리가 직면할지도 모르는 이상하고 생물학적이고 기괴하고
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
끔찍한 방향성을 피하게 하는 당신의 시각은
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
제게 정말 인상 깊었습니다.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
그리고 여기 TED에 와서 공유해 주셔서 정말 감사합니다.
21:58
Thank you, good luck.
414
1318355
1210
감사합니다, 행운을 빕니다.
21:59
(Applause)
415
1319565
1876
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7