아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Soul Chung
검토: DK Kim
00:01
Maybe I'm not the best library assistant.
0
1164
2794
제가 가장 훌륭한 도서관 보조
직원은 아닐 수도 있지만
00:04
Could artificial intelligence
do it better?
1
4167
2294
그런데 인공 지능이 저보다
일을 잘할 수 있을까요?
00:06
I’d like to think of myself as
irreplaceable, but let’s see.
2
6753
3211
자신을 대체 불가능한
존재라고 믿고 싶지만,
한번 따져 보죠.
00:14
Maybe getting fired was the push I
needed to find the perfect job for me.
3
14927
3629
해고를 당한 건 저에게 딱 맞는 직업을
찾는 데 필요한 자극이었는지 몰라요.
다음 일자리를 빨리 찾기만 한다면요.
00:19
As long as I find it quickly.
4
19057
1793
00:21
And don’t spend any money in the meantime.
5
21059
2252
그리고 당분간은 지출도 줄여야 겠죠.
00:25
Luckily, there's somewhere I can sit
and work all day without buying anything.
6
25688
3796
다행히 뭘 사지 않아도 하루 종일
앉아서 뭘 할 수 있는 곳이 있어요.
(문 여는 소리)
00:34
Ada? I thought I was clear—
7
34655
3546
“에이다?
분명히 말한 것 같은데요,
여기서 일하는 건 끝났어요.”
00:38
your employment here is over.
8
38201
2252
00:41
Oh, I'm not here as an employee.
This is a public library, after all.
9
41370
4171
“아, 여기 직원으로 온 게 아니에요,
여긴 공공 도서관이잖아요.”
00:49
Right. How to make one month
as a library assistant
10
49504
3628
그럼, 어떻게 하면
도서관 보조 직원 한 달 경력을
00:53
sound like the 3 to 5 years of experience
11
53132
2419
신입 일자리를 얻는 데 필요한
3~5년 경력처럼 만들 수 있을까?
00:55
every entry level job seems to require?
12
55551
2753
(웃음 소리)
01:01
Shh!
13
61724
1001
쉿!
01:04
Dealt with an overbearing,
rule-obsessed boss...
14
64477
3712
위압적이고 규칙에 집착하는
상사와 일했다...
01:08
No, no. Ugh.
15
68773
2002
아니, 아니, 아아.
01:12
Let’s see how an AI does
with writing my resume.
16
72151
2878
AI는 내 이력서를
어떻게 쓰는지 보자.
01:15
Okay. I checked out lots of books.
17
75905
3295
좋아.
[이 경력을 그럴듯하게
보이게 다시 써 줘]
책을 많이 빌려주었다.
01:19
Make that sound impressive.
18
79700
1585
이걸 인상적으로 만들어 봐.
01:22
Ooh! “Expedited seamless
intellectual asset transactions.”
19
82120
4337
오! , “지적 자산 거래를
원활하게 만들었습니다.”
01:26
Excellent. Okay, how about
“sat at reception”?
20
86499
3712
훌륭하네, 그럼, 이건?
“안내를 했다.”
01:31
Oh! “Frontline client liaison.”
21
91087
2294
와우!, “고객 대응 일선 담당자.”
01:33
Good, good. That’s great!
22
93506
2169
좋아, 좋아, 멋지네!
01:37
Maybe too good.
23
97426
1460
하지만, 좀 과장된 걸지도.
01:38
Even if I get one of these jobs,
24
98886
1627
이 직업 중 하나에 취직이 된다고 해도
01:40
what if I pay my dues
only to have AI outpace me?
25
100513
2794
일을 열심히 해 봐야
AI가 나보다 더 잘하면 어쩌지?
01:43
What if, by the time I hone my skills,
26
103808
1877
내가 기술을 다 익힐 때 쯤이면
01:45
humans aren’t doing writing
and research anymore?
27
105685
2419
인간이 더 이상 글쓰기와 연구를
하지 않는다면 어떻게 될까?
(한숨)
01:51
Maybe I should work directly on AI.
28
111732
2753
어쩌면 내가 직접 AI를
연구해야 할지도 몰라.
01:54
Then at least I’d be helping
determine the course of the future
29
114485
2961
그렇다면 적어도 미래의 방향을
결정하는 데 도움이 되겠지.
01:57
instead of being left behind.
30
117446
1544
뒤쳐지는 게 아니라.
01:59
Like, say I created an AI librarian.
31
119615
2962
예를 들어 AI 사서를
만들었다고 해 보자.
02:02
That actually doesn’t seem
too far-fetched.
32
122743
2169
사실 그리 먼 미래의
이야기는 아닌 것 같네.
02:05
To make my system more powerful
I have to, well...
33
125788
5547
앱을 더 강력하게 만들려면
02:11
keep adding more simulated neurons
for starters.
34
131335
3629
아마 우선 모사된 뉴런을
계속 추가해야 될 거야.
02:16
Soon my AI system is a better
librarian than my old boss.
35
136799
3003
내 AI 앱은 예전 상사보다
금방 더 나은 사서가 될 거야.
02:20
But you know what? I'm feeling generous.
36
140094
2336
그런데 나는 관대한 사람이지.
02:22
Why don't you stay as my assistant?
37
142722
1835
“대체품 시험을 맡아서
제 보조로 계속 일하는 건 어때요?”
02:24
You can help me test your replacement.
38
144640
1919
02:27
Hmph.
39
147685
1001
“흠.”
02:31
What should I name it?
40
151022
1376
“이름을 뭐라고 할까요?
02:32
What's a good name for a great librarian?
41
152398
2211
훌륭한 도서관 사서의
이름으로 뭐가 좋을까요?
02:35
No ideas? I like Biblionimus Maximus.
42
155651
4380
생각나는 게 없어요?
비블리오니무스 막시무스가 좋겠어요.”
02:42
Hmm. Let's try a prompt.
43
162241
2670
“흠, 질문을 해 보죠.
02:46
Who invented artificial intelligence?
44
166245
5923
누가 인공 지능을 발명했지?
02:52
Include citations.
45
172293
1752
출처도 포함하고.
02:56
Biblionimus says the first
theoretical descriptions of AI
46
176005
4254
비블리오니무스에 따르면
AI를 이론적으로 처음 묘사한 것은
03:00
were “Comments on a Thinking Machine”
by Ada Lovelace in 1840,
47
180259
4672
1840년 에이다 러브레이스가 쓴
‘생각하는 기계에 대한 논평’과
03:05
and “Machine Intelligence”
by Alan Turing in 1927.
48
185097
4547
1927년 앨런 튜링이 쓴
‘기계 지능’이라고 하네요.”
03:09
See? Nailed it!
49
189685
1544
“봤죠? 성공이에요!”
03:12
Not quite.
50
192063
2002
“그렇지 않아요.
03:15
Lovelace’s “Notes on an Analytical Engine”
were published in 1843.
51
195358
5922
러브레이스가 쓴
‘분석 엔진에 관한 노트’는
1843년에 출판되었어요.
03:22
Alan Turing’s paper was called
“Computing Machinery and Intelligence,”
52
202114
4880
앨런 튜링의 논문은
‘컴퓨팅 기계 및 지능’이고
03:27
and it was published in 1950.
53
207078
3211
1950년에 출판되었어요.”
03:30
Isn’t that what Biblionimus said?
54
210498
1918
“그게 비블리오니무스가
한 말 아닌가요?”
03:32
No. I can see how it sounds
that way to you,
55
212416
3838
“아니오, 비슷하게 들리겠지만
03:36
but every element was slightly wrong.
56
216254
2377
모든 요소가 약간씩 틀렸어요.”
03:38
But what about the citations?
57
218881
1877
“그런데 출처는 어떤가요?”
03:41
Completely fabricated.
58
221175
2544
“완전히 조작이에요.
03:43
Look, it even made up ISBN numbers.
59
223886
2878
심지어 ISBN 번호까지 지어냈죠.
03:46
Clearly, it's not ready to replace
human librarians if it needs an expert
60
226764
4171
AI가 낸 결과를 점검할
전문가가 필요한 걸 보니,
AI는 인간 사서를 대체할
준비가 아직 안 됐네요.”
03:50
to check its work.
61
230935
1460
03:52
We’re still training Biblionimus.
62
232728
1877
“비블리오니무스는 아직 훈련하는
중이고 나아질 거예요.”
03:54
It’ll improve.
63
234689
1209
03:55
Hmph.
64
235898
1001
“흠.”
03:59
In time, my system stops
producing bogus results.
65
239026
3712
시간이 지나면서, 이 앱은
가짜 결과를 내놓지 않게 됩니다.
04:03
As it gets more competent,
66
243739
1418
시스템이 더 발전할수록
04:05
it doesn’t just help patrons
find what they’re looking for,
67
245157
3546
고객이 필요한 것을 찾도록
도와줄 뿐만 아니라
04:08
it finds resources they didn’t
even know they needed.
68
248744
2711
필요한지 몰랐던 정보까지도
찾아줄 수 있게 됩니다.
04:12
The library has never been busier.
69
252164
2253
도서관이 이렇게
바빴던 적은 없을 거예요.
04:16
Maybe it’s a waste to limit our technology
to the library.
70
256794
2794
“이 기술을 도서관에 국한하는 건
낭비일 수도 있겠어요.
04:19
Research labs, companies,
even governments—
71
259755
2836
연구소, 기업, 그리고 정부까지 모두
04:22
they all have more information than they
can manage.
72
262591
2503
관리하기 어려울 정도로
많은 정보를 가지고 있잖아요.
04:25
They could use a good librarian,
don’t you think?
73
265219
2961
좋은 도서관 사서를
고용할 수도 있지 않을까요?”
04:28
Hmph.
74
268764
1001
“흠.”
04:30
What?
75
270391
1001
“왜요?”
04:31
Selling the AI off to the highest bidder
76
271392
2753
“가장 높은 가격을 제시한 단체에
AI를 판매하는 것은
04:34
isn’t exactly in the spirit
of the library.
77
274145
3587
우리 도서관의 철학과
전혀 맞지 않아요.”
04:38
True...
78
278149
1626
“맞아요...
04:40
And I definitely don’t want Biblionimus
to become an instrument
79
280109
2961
그리고 저는 비블리오니무스가
기업의 욕심이나 권력 남용의 도구가
되는 건 절대 원하지 않아요.
04:43
of corporate greed or abuses of power
or anything like that.
80
283070
3087
04:47
Let’s make Biblionimus available for free,
81
287199
2503
비블리오니무스를 무료로
사용할 수 있게 만들자고요.
04:49
but anyone who wants to use it
has to be approved by us first.
82
289702
3837
다만 사용하려는 사람은 먼저
우리한테 승인을 받아야 하고요.”
[조용히, 접수하는 곳]
04:58
We’ll never be able to review
all these applications.
83
298711
3879
“이 모든 요청을 검토할 수는 없어요.
05:02
Even if you actually help.
84
302757
2419
당신이 저를 도와준다고
해도 말이에요.”
05:05
I have a better idea.
85
305384
1627
“저한테 좋은 생각이 있어요.
05:07
I bought the Diligentsia 3000.
86
307219
1961
‘딜리젠시아 3000’을 샀어요.
05:09
It’s an AI system that can vet
applicants for us.
87
309180
2878
이 AI 시스템은 우리를 대신해
신청서를 심사해줄 거예요.
05:15
It will process our backlog
almost instantly.
88
315811
2962
밀린 일을 거의 즉시 처리할 거예요.
05:20
So, I guess I won’t be needing
your help anymore.
89
320358
2627
그러니까, 이제 더 이상
당신의 도움이 필요 없을 것 같아요.
05:24
I mean I’m firing you.
90
324195
1710
당신을 해고한다는 말이에요.”
05:26
The library is a public space.
91
326322
2502
“도서관은 공공 공간이에요.”
05:34
Almost every vital industry
has a need for my AI.
92
334955
2962
거의 모든 핵심 산업에서
제 AI를 원할 거예요.
05:38
As do plenty of not-so-vital industries.
93
338459
2586
그렇게 중요하지 않은
여러 산업도 마찬가지고요.
(문을 박차고 여는 소리,
사이렌 소리)
05:45
(Radio chatter) Suspect is in custody.
94
345549
1961
(무전기 소리: 용의자를 체포헸습니다)
05:47
What's going on?
95
347676
1544
“무슨 일이에요?
05:50
What? Investigating a bomb threat?
96
350471
2794
뭐라고요? 폭탄 테러 위협을
조사 중이라고요?
05:53
Where did this tip come from?
97
353516
1793
이 단서는 어디에서 나왔습니까?
05:56
It came from Biblionimus?
98
356394
1584
비블리오니무스가 알려줬다고요?
06:02
I thought you made sure Biblionimus
wasn’t making mistakes anymore!
99
362775
3295
비블리오니무스가 더 이상 실수하지 않게
당신이 처리한 줄 알았는데요!”
06:06
That was back before you fired me.
100
366862
2795
“그건 당신이 날 해고하기 전 일이고,
06:09
I don't work here anymore.
101
369657
2085
난 더 이상 여기 직원이 아니에요.
06:12
You invented Biblionimus,
can’t you figure out how to fix it?
102
372243
4588
비블리오니무스를 발명하셨는데
어떻게 고쳐야 할지 모르나요?”
06:16
Argh! It doesn’t work like that!
103
376956
2544
“아! 그런 식으로는
해결할 수 없어요!
06:19
I created Biblionimus,
but it’s been out there ever since,
104
379583
3128
제가 비블리오니무스를 만들었지만
그 이후로 비블리오니무스는
06:22
absorbing more information
than any human ever could.
105
382711
2878
정보를 그 어떤 인간보다
더 많이 흡수하게 되었죠.
06:25
It's grown up and left home, so to speak.
106
385714
1961
말하자면, 어른이 되어
집을 떠난 셈이죠.
06:27
But there is one thing I can do.
107
387842
2794
하지만 할 수 있는 게 하나 있어요.
06:31
I can bring in a digital neuroscientist.
108
391220
2002
디지털 신경과학자를
데려올 수 있어요.”
06:33
A what?
109
393222
1293
“누구요?”
06:34
It’s an AI system that studies
other AI systems’, um, brains.
110
394640
5047
“다른 AI 시스템의, 어, 뇌를
연구하는 AI 시스템이죠.
06:40
Okay, Dr. Cerebrox.
111
400271
2043
좋아요, 세레브록스 박사님.
06:42
Biblionimus is supposed to make
unexpected, hopeful connections,
112
402314
3671
비블리오니무스는 예상을 뛰어넘는,
희망찬 연결을 만들어야 해요,
06:45
not spout conspiracy theories.
113
405985
2002
음모론을 퍼뜨리면 안 돼요.”
06:48
As far as I can tell,
114
408404
1126
“비블리오니무스 막시무스는
제가 아는 한 전혀 문제가 없습니다.
06:49
there’s nothing at all wrong
with Biblionimus Maximus.
115
409530
2669
06:52
Did the human users feed
it incorrect information?
116
412199
2795
인간 사용자들이
잘못된 정보를 입력했거나
06:55
Or perhaps ask it a it
a confusing question?
117
415119
2377
아니면 헷갈리는 질문을 했을 겁니다.”
06:57
Even if they did, it shouldn’t be
making up bomb threats.
118
417496
3170
“설령 그랬다고 해도 폭탄 테러 위협을
꾸며 내서는 안 되죠.
07:00
What if it did something worse, like
encourage a coup? Or a nuclear strike?
119
420666
4254
더 나쁜 짓을 하면 어떡하죠?
쿠데타를 조장하거나,
아니면 핵 공격을 부추기면요?”
07:05
Let me take another look.
120
425171
1584
“다시 한번 살펴보겠습니다.
07:07
This system employs a deeply
intricate architecture.
121
427506
2878
이 시스템이 사용하는
구조는 매우 복잡합니다.
07:10
Its robust toolkit consists
of refined algorithms
122
430593
2752
강력한 기능은 철저한 데이터 분석을
수행하는 정교한 알고리즘과
07:13
performing exhaustive data analysis
and advanced computational procedures.
123
433345
4088
고급 연산 절차로 구성되어 있습니다.”
07:17
But what does that mean?
124
437600
1668
“그게 무슨 뜻이죠?
07:19
What's actually happening inside it?
125
439268
2169
그 안에서 실제로 무슨 일이
벌어지고 있는 건가요?”
07:21
My training is to express diagnoses
in terms you can understand.
126
441437
3545
“제가 훈련받은 건 진단 결과를
이해할 수 있게 말로 표현하는 겁니다.
07:24
You are not a digital neuroscientist.
127
444982
2085
당신은 디지털 신경과학자가 아니니까
07:27
Therefore, there will be a
level of abstraction.
128
447067
2336
어느 정도 추상적인 답변을
제공할 수 밖에 없습니다.”
07:30
We need to speak to your manager.
129
450905
2544
“당신의 상사와 상의해야겠군요.”
07:33
Certainly, just a moment—
130
453866
1835
“물론이죠, 잠시만 기다려 주십시오.”
07:36
Good evening, this is the chief customer
satisfaction officer of Cerebrox Inc.
131
456994
3879
“안녕하세요, 세러브록스 사의
고객 만족 최고 책임자입니다.”
07:41
Uh, you have the exact same
voice as Dr. Cerebrox.
132
461040
3295
“어, 당신은 세러브록스 박사와
목소리가 똑같네요.”
07:44
All of our AI’s use the voice that has
been proven to be optimally soothing
133
464418
3587
“당사의 모든 AI 목소리는
고객을 진정시키는 효과가
입증된 것입니다.
07:48
to customers.
134
468005
1043
07:49
But rest assured, I am a different,
more senior system.
135
469048
3044
하지만 안심하셔도 됩니다,
저는 좀 더 숙련된 시스템입니다.”
07:52
So there’s no human I can speak to?
136
472092
1961
“그럼 저와 대화할 수 있는
인간은 없는 건가요?”
07:54
How would a human be able to help you
interpret matters of digital neuroscience?
137
474261
4129
“디지털 신경과학 문제를 해석하는 데
인간이 어떻게 도움이 되겠습니까?”
08:01
We have to turn Biblionimus off until
we can make sure it won’t wreak havoc.
138
481977
4588
“비블리오니무스가 큰 피해를
끼치지 않는 게 확실해질 때까지
기능을 꺼야겠어요.”
08:06
Are you sure?
139
486982
1585
“정말이에요?”
08:08
I don’t see what else we can do.
140
488859
1627
“달리 뭘 할 수 있을지 모르겠어요.”
08:20
Whew. I need a drink.
141
500871
1919
“휴, 뭐라도 한 잔 마셔야겠어.
08:23
That’s weird.
142
503874
1085
이상하네.
08:25
Error... Reconnect payment
method... okay...
143
505125
4922
오류...결제 수단 재연결...
알겠어... 또 다른 오류...
08:30
Another error...
I can’t even log into my account.
144
510506
4504
계정에 접속조차 안 되네.
08:35
There must be something wrong
with the app.
145
515135
2086
앱에 문제가 있는 것 같아.
08:41
Hi, I’m having trouble accessing
my account.
146
521100
2961
안녕하세요, 제 계정 접속에
지금 문제가 있어요.
08:45
Hello?
147
525187
1168
여보세요?
(기계 잡음)
08:48
Is anyone here?
148
528190
1418
여기 아무도 없나요?
08:49
I need to speak to a person!
149
529608
1794
사람이랑 이야기하고 싶어요!”
08:51
(Bank bot) AIs are much more
reliable bankers than humans.
150
531402
2711
(뱅크 봇) AI는 사람보다
훨씬 더 믿을 수 있는 은행원이에요.
08:54
AIs are more reliable bankers.
AIs are more reliable bankers.
151
534113
5130
AI는 더 신뢰할 수 있는
은행원입니다.
AI는 더 신뢰할 수 있는
은행원입니다.
AI는 더 신뢰할 수 있는
은행원입니다.
09:03
What is happening?
152
543914
1543
이게 대체 무슨 일이야?
09:09
Didn’t you say Biblionimus was deployed
in many critical industries?
153
549253
5380
“비블리오니무스가 여러 주요 산업에
활용되었다고 하지 않았나요?”
09:14
Yes, but banks and utility companies
should still be able to function
154
554717
3253
“네, 하지만 은행과
필수 산업 회사들은
비블리오니무스 도입 전처럼
운영될 수 있어야 해요!”
09:17
like they did before Biblionimus!
155
557970
1710
09:19
That’s easier said than done.
156
559722
2377
“그게 말처럼 쉽지는 않아요.
09:22
They may not even have the expertise
to do things the old way anymore.
157
562099
4338
예전처럼 일할 수 있는 전문가들이
더 이상 없을 수도 있어요.”
09:27
So our options are either
certain disaster without the AI,
158
567980
2961
“그러면 우리가 선택할 수 있는 것은
AI 없이 재앙을 맞이하거나,
09:30
or turning it back on
and holding our breath,
159
570941
2294
아니면 AI 시스템을 다시 켠 다음에,
숨을 죽인 상태로
09:33
hoping nothing goes off
the rails until, what, forever?
160
573235
3962
영원히 아무 문제도 일어나지
않기를 바라는 건가요?”
(한숨)
09:45
But would a world where humans
hand the reins to AI systems
161
585122
4171
그런데 인간이 AI 시스템에
통제권을 넘겨준 세상이
09:49
really be that different?
162
589293
1585
그렇게 다를까?
09:51
There are already so many things I
don’t understand and can’t control,
163
591545
3587
내가 이해할 수 없고
통제할 수 없는 것들이 너무 많아.
09:55
where I have to place my trust
in other people’s hands—
164
595674
2753
모든 일에는 어느 정도 신뢰가 필요해.
09:58
like trusting that I can use
the money in my bank account,
165
598427
2711
예를 들어 은행 계좌에 넣어둔 돈을
안전하게 사용할 수 있다거나
10:01
or that the antibiotics I get prescribed
will actually treat an infection.
166
601138
3504
처방받은 항생제가 감염을
치료할 것이라는 믿음처럼.
10:05
But I guess if we hand all
that power over to AIs,
167
605309
3587
하지만 그 모든 권한을
인공지능에 넘겨준다면,
10:08
we need to make sure they will actually
serve us better
168
608896
2586
인공지능이 불완전한 인간보다
10:11
than our imperfect human institutions.
169
611482
2294
더 나은 서비스를 제공할 수 있다고
확실히 보장해야 해.
10:13
And that seems really, really hard.
170
613859
3587
그리고 그건 정말, 정말
어려운 일인 것 같아.
10:18
Hmph.
171
618656
1001
“흠.
10:19
You’re looking for “Brave New World”?
172
619990
2795
‘멋진 신세계’를 찾고 있나요?
10:24
Hold on.
173
624495
1168
잠시만요.”
10:26
It’s in fiction, under “H.”
174
626038
2294
“소설 구역 ‘H’에 있어요.
10:28
Just down there, third row on the left.
175
628332
2461
저기 왼쪽 세 번째 줄이에요.”
10:35
Ada. Maybe I could reconsider
your position.
176
635089
5714
“에이다, 다시 한번 기회를
줄 수 있을 것 같네요.”
10:41
You’re offering me my job back?
177
641261
1961
“다시 일해도 된다는 건가요?”
10:43
If you can follow all the rules.
178
643430
2962
“모든 규칙을 지킨다면요.”
10:46
Oh, that's a big decision.
179
646433
1919
“오, 그건 큰 결심이 필요하겠네요.
10:48
I'll have to think about it.
180
648936
1460
생각해 볼게요.”
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.