아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Sarah Hong
검토: DK Kim
00:04
I'm going about my day,
normal Tuesday of meetings
0
4334
2600
평상시처럼 화요일 회의를 하러 가는데
00:06
when I get a ping from my manager's
manager's manager.
1
6967
3434
상사의 상사의 상사에게
연락을 받습니다.
00:12
It says: “Get me a document
by the end of the day
2
12167
2634
이렇게 적혀 있네요.
“오늘 안으로 인공 지능과 관련하여
팀이 작업하고 있는
00:14
that records everything your team
has been working on related to AI."
3
14834
3933
모든 것을 기록해서
보고서를 올리세요.”
00:18
As it turns out, the board of directors
of my large company
4
18767
2800
알고 보니, 저희 대기업의 이사회가
00:21
had been hearing buzz
about this new thing called ChatGPT,
5
21601
3133
챗지피티라는 새로운 것에 대한
소문을 듣고 있었는데,
00:24
and they wanted to know
what we were doing about it.
6
24767
2467
우리가 그에 대해 무엇을
하고 있는지 알고 싶었던 것입니다.
00:27
They are freaking out about the future,
7
27701
1900
그들은 미래에 대해 겁을 먹고 있고,
00:29
I'm freaking out
about this measly document,
8
29634
2400
저는 이 보잘것없는 문서 때문에
겁이 나고 있습니다.
기술 분야에서 가장 뜨거운 문제를
해결하는 완벽한 시작인 것 같죠?
00:32
it sounds like the perfect start
9
32067
1534
00:33
to solving the next
hottest problem in tech, right?
10
33601
2800
00:36
As someone who works
with machine-learning models
11
36434
2333
매일같이 머신러닝 모델을
다루는 사람으로서
00:38
every single day,
12
38767
1167
00:39
I know firsthand that the rapid
development of these technologies
13
39967
3267
저는 이러한 기술들의 급속한 발전이
00:43
poses endless opportunities
for innovation.
14
43267
3400
무한한 혁신 기회를 가져온다는 것을
직접적으로 알고 있습니다.
00:46
However, the same exponential
improvement in AI systems
15
46667
3667
그러나 인공 지능의 지수적인 개선은
00:50
is becoming a looming existential threat
to the team I manage.
16
50367
3434
제가 맡은 팀에 다가오는
실존적 위협이 되고 있습니다.
00:54
With increasing accessibility
17
54201
1766
접근성이 향상되고 소름끼칠 정도로
인간과 유사한 결과가
00:55
and creepily human-like results coming
out of the field of AI research,
18
55967
3900
인공 지능 연구 분야에서 나오면서
00:59
companies like my own are turning toward
automation to make things more efficient.
19
59867
4400
제가 다니는 회사 같은 회사들은
업무를 더 효율적으로 만들기 위해
자동화로 전환하고 있습니다.
01:04
Now on the surface, this seems
like a pretty great vision.
20
64267
3300
이제 표면적으로는,
꽤 훌륭한 전망처럼 보입니다.
01:07
But as we start to dig deeper,
we uncover an uncomfortable paradox.
21
67567
4300
하지만 더 깊이 파고들면
불편한 역설이 드러납니다.
01:11
Let's break this down.
22
71901
1466
좀 더 자세히 설명해 보죠.
01:13
In order to harness
the power of AI systems,
23
73401
2633
인공 지능의 성능을 활용하려면,
시스템을 높은 기준에 맞게 학습하고
미세 조정해야 합니다.
01:16
these systems must be
trained and fine-tuned
24
76034
2433
01:18
to match a high-quality standard.
25
78501
2366
01:20
But who defines quality,
26
80901
2400
하지만 누가 품질을 정의하며,
01:23
and who trains these systems
in the first place?
27
83334
3167
애초에 이러한 시스템을
훈련하는 사람은 누구일까요?
01:26
As you may have guessed,
real-life subject matter experts,
28
86534
3500
짐작하셨겠지만,
주제별 인간 전문가들입니다.
흔히 현재 그 일을 하고 있는
바로 그 사람들이죠.
01:30
oftentimes the same exact people
who are currently doing the job.
29
90034
3967
01:34
Imagine my predicament here.
30
94934
2033
제가 처한 이 곤경을 생각해 보세요.
수년 동안 함께 일해 온,
제가 믿는 팀에 가서
01:37
I get to go to my trusted team,
whom I've worked with for years,
31
97001
3433
01:40
look them in the eyes
32
100467
1367
그들을 마주 바라보며
01:41
and pitch them on training
the very systems that might displace them.
33
101867
3867
자신들을 대체할 수도 있는
시스템을 교육하도록 제안합니다.
01:46
This paradox had led me to rely
on three ethical principles
34
106334
4033
이러한 역설로 인해 저는 세 가지
윤리 원칙을 세우게 되었습니다.
01:50
that can ensure that managers
can grapple with the implications
35
110401
3266
이 원칙들은 관리자가
인력의 자기 대체가 미치는 영향을
01:53
of a self-replacing workforce.
36
113701
1900
해결할 수 있도록 보장해 줍니다.
첫째는 전환 과정의 투명성이고,
01:56
One, transformational transparency,
37
116034
2867
01:58
Two, collaborative AI augmentation.
38
118901
2900
둘째는 협업적 인공 지능 증강입니다.
02:01
And three, reskilling
to realize potential.
39
121834
2833
그리고, 세 번째는 잠재력을
실현하기 위한 재교육입니다.
02:05
Now before we get into solutions,
let’s zoom out a little bit.
40
125567
4200
이제 해법을 살펴보기 전에,
조금 물러나서 보겠습니다.
02:09
How deep is this problem
of self-replacing workers, really?
41
129801
3733
자기 대체 인력 문제는
실제로 얼마나 심각할까요?
02:13
Research from this year
coming out of OpenAI
42
133567
2234
OpenAI가 올해 발표한
연구에 따르면
02:15
indicates that approximately 80 percent
of the US workforce
43
135834
3133
미국 근로자의 약 80%는
인공 지능 도입으로 인해
그들 업무의 최대 10%가
영향을 받을 것으로 봅니다.
02:19
could see up to 10 percent
of their tasks impacted
44
139001
2533
02:21
by the introduction of AI,
45
141567
1867
02:23
while around 19 percent of the workforce
46
143467
2500
한편, 근로자의 약 19%는
업무의 50%까지
영향을 받을 것으로 봅니다.
02:26
could see up to 50 percent
of their tasks impacted.
47
146001
3366
02:29
The craziest thing about all of this is,
48
149367
1934
이 중에서 가장 놀라운 점은,
02:31
is that these technologies
do not discriminate.
49
151334
4267
이 기술이 차별을
하지 않는다는 것입니다.
02:35
Occupations that have historically
required an immense amount of training
50
155634
3667
역사적으로 엄청난 훈련이나
교육이 필요한 직종들도
02:39
or education are equally as vulnerable
to being outsourced to AI.
51
159334
4300
인공 지능으로 넘어갈 위험이
마찬가지로 높습니다.
02:44
Now before we throw our hands up
and let the robots take over,
52
164334
4233
이제 우리가 손을 들어버리고
로봇에게 작업을 맡기기 전에
02:48
let's put this all into perspective.
53
168601
2266
이것들을 살펴보겠습니다.
02:50
Fortunately for us,
54
170867
1200
다행스럽게도 이런 일이 일어난 게
역사상 처음은 아닙니다.
02:52
this is not the first time in history
that this has happened.
55
172067
2867
02:54
Let's go back to
the Industrial revolution.
56
174967
2534
산업 혁명으로 돌아가 봅시다.
02:57
Picture Henry Ford’s iconic Model T
automobile production line.
57
177534
4333
헨리 포드의 상징적인 모델 T 자동차
생산 공장을 상상해 보세요.
03:01
In this remarkable setup,
58
181867
1467
이 놀라운 작업 배치에서
03:03
workers and machines engage
in a synchronous dance.
59
183334
3533
작업자와 기계가
조화롭게 움직이고 있습니다.
03:06
They were tasked
with specific repetitive tasks,
60
186867
2634
이들은 특정한 반복 작업을 합니다.
03:09
such as tightening bolts
or fitting components
61
189534
2300
제품이 조립 과정을 따라 움직일 때
나사를 조이거나 부품을 넣는 거죠.
03:11
as the product moved down the line.
62
191867
2100
역설적이게도, 그리고 제가
현재 처한 상황과 다르지 않게,
03:14
Ironically, and not dissimilar
to my current predicament,
63
194001
3233
03:17
the humans themselves played
a crucial role in training the systems
64
197267
3700
인간들이 한때 다방면으로
숙련되어 있던 역할을
결국 대체할 시스템을 훈련하는 데
인간 자신들이 중요한 역할을 했습니다.
03:21
that would eventually replace
their once multi-skilled roles.
65
201001
3533
03:24
They were the ones who honed their craft,
perfected the techniques
66
204567
3867
자신의 기술을 연마하고,
기술을 완성하고,
03:28
and ultimately handed off
the knowledge to the technicians
67
208434
2833
궁극적으로 전체 과정을 자동화하는 데
관련된 기술자와 공학자에게
03:31
and engineers involved in automating
their entire process.
68
211267
3700
자신들의 지식을 넘겨준 것은
바로 그들이었습니다.
03:35
Now on the outset,
this situation seems pretty dire.
69
215401
5066
지금 초기에는 이런 상황이
매우 심각해 보입니다.
03:40
Yet despite initial fears and hesitations
70
220467
2767
하지만 이러한 기술 발전에 대한
03:43
involved in these
technological advancements,
71
223267
2367
초기의 두려움과 망설임에도 불구하고
03:45
history has proven that humans
have continuously found ways
72
225667
3734
역사를 통해 증명된 것은
인류는 계속해서 적응하고
혁신할 방법을 찾아왔다는 것입니다.
03:49
to adapt and innovate.
73
229434
2133
03:51
While some roles were indeed
replaced, new roles emerged,
74
231601
3166
일부 역할은 실제로 대체되었지만
새로운 역할이 생겨났기 때문에
03:54
requiring higher-level skills
like creativity
75
234767
2734
기계로는 재현할 수 없는 창의성과
03:57
and creative problem solving that machines
just simply couldn't replicate.
76
237501
4033
창의적인 문제 해결과 같은
더 높은 수준의 기술이 필요했습니다.
04:02
Reflecting on this historical example
77
242101
2066
이 역사적 사례를 생각해 보면
04:04
reminds us that the relationship
between humans and machines
78
244201
3166
인간과 기계의 관계는
언제나 섬세한 균형을
04:07
has always been a delicate balancing act.
79
247401
2666
유지해 왔다는 것을
상기할 수 있습니다.
04:10
We are the architects of our own progress,
80
250434
3167
우리는 자신의 발전을 설계하면서
04:13
often training machines to replace us
81
253634
2600
흔히 자신을 대체할 기계를 훈련합니다.
04:16
while simultaneously carving out
unique roles for ourselves
82
256234
3400
자신의 고유한 역할을 개척하는 동시에
04:19
and discovering new possibilities.
83
259667
2334
새로운 가능성을 발견하기도 합니다.
이제 현재로 돌아와서, 우리는
인공 지능 혁명의 발단에 서 있습니다.
04:22
Now coming back to the present day,
we are on the cusp of the AI revolution.
84
262034
4900
04:26
As someone responsible for moving
that revolution forward,
85
266967
2734
그 혁명을 전진시키는
책임을 맡은 사람으로서
04:29
the tension becomes omnipresent.
86
269701
2133
긴장감은 어디에나 존재하게 됩니다.
04:31
Option one, I can innovate quickly
and risk displacing my team.
87
271834
4200
이 경우 저는 신속하게 혁신하고
팀을 대체하는 위험을 감수할 수 있죠.
아니면 두 번째 방법으로는,
04:36
Or option two, I can refuse to innovate
in an effort to protect my team,
88
276067
5167
팀을 보호하려는 노력의 일환으로
혁신을 거부할 수도 있습니다.
04:41
but ultimately still lose people
because the company falls behind.
89
281234
3700
하지만 회사가 뒤처지기 때문에
궁극적으로 역시 사람을 잃습니다.
04:45
So what am I supposed to do
90
285501
2000
이런 상황에서 그저 중간 관리자인
제가 할 일은 무엇일까요?
04:47
as a mere middle manager
in this situation?
91
287534
2733
04:50
Knowingly introducing
this complex paradox for your team
92
290267
3034
이러한 복잡한 역설을 알면서
팀에 도입하는 것은
04:53
presents strong challenges
for people management.
93
293301
3233
인력 관리에 큰 어려움을 안겨줍니다.
04:56
Luckily, we can refer back
to those three ethical principles
94
296567
2834
다행스럽게도 제가 강연 초반에 말한
세 가지 윤리 원칙을 참고하면
04:59
I addressed at the beginning of the talk
95
299434
1933
05:01
to ensure that you can
continue to move ahead
96
301367
2234
직원들이 뒤처지지 않게 하면서
계속 앞으로 나갈 수 있습니다.
05:03
without leaving your people behind.
97
303634
2067
05:06
First and foremost,
98
306401
1200
무엇보다도 인공 지능으로
전환하는 것은 투명해야 합니다.
05:07
AI transformation needs to be transparent.
99
307634
3467
05:11
As leaders, it is imperative
to foster dialogue,
100
311134
2733
리더로서 대화를 촉진하고,
주요 문제를 해결하고,
05:13
address key concerns,
101
313867
1167
05:15
and offer concise explanations
regarding the purpose
102
315067
2900
AI 구현에 수반되는 목적과
잠재적 과제에 대해
05:17
and potential challenges
entailed in implementing AI.
103
317967
3467
간결하게 설명하는 것이 필수입니다.
05:21
This requires actively
involving your employees
104
321467
2667
이를 위해서는 의사결정 과정에
05:24
in the decision-making process
105
324167
1567
직원을 적극적으로 참여시키고
직원의 자율성을 존중해야 합니다.
05:25
and valuing their autonomy.
106
325767
1834
05:28
By introducing the concept of consent,
107
328234
2433
특히 자신의 핵심 업무를 자동화하는
임무를 맡은 직원들에게
05:30
especially for employees who are tasked
108
330701
1933
05:32
with automating
their core responsibilities,
109
332667
2300
동의의 개념을 도입함으로써,
직원들이 강력한 목소리를 유지하면서
05:35
we can ensure that they
maintain a strong voice
110
335001
2633
05:37
in carving out their professional destiny.
111
337667
2334
자신의 직업 전망을
개척하게 할 수 있습니다.
다음으로, 앞으로 펼쳐질
미래를 인정하면서
05:41
Next, now that we've gotten folks
bought into this grandiose vision
112
341034
3400
05:44
while acknowledging
the journey that lies ahead,
113
344467
3000
사람들이 이 장대한 미래를
받아들이게 했으면
05:47
let's talk about how to use AI
as an augmentation device.
114
347467
4000
이제 인공 지능을 증강 장치로
사용하는 방법을 알아보겠습니다.
05:51
Picture the worst part of your job today.
115
351501
2366
현재 업무에서 가장 안 좋은
부분을 떠올려 보세요.
05:54
What if you could delegate it?
116
354767
1700
그걸 위임할 수 있다면 어떨까요?
05:56
And no, not hand it off
to some other sad soul at work,
117
356501
3233
아니요, 다른 불운한 동료에게
넘겨주는 것이 아니라,
05:59
but hand it to a system
that can do your rote tasks for you.
118
359734
3833
여러분 대신 단순 반복 작업을
할 수 있는 시스템에 넘기는 겁니다.
06:03
Instead of perceiving AI
as a complete replacement,
119
363601
3333
인공 지능을 완전한 대체물로
인식하는 대신,
06:06
identify opportunities
where you can use it
120
366967
2267
직원의 잠재력과 생산성을 향상하는 데
06:09
to enhance your employees'
potential and productivity.
121
369267
3967
인공 지능을 사용할 수 있는
기회를 찾아 보세요.
06:13
Collaboratively with your team,
122
373267
1567
여러분의 팀과 협력하여,
06:14
identify areas and tasks
that can be automated,
123
374867
3134
자동화할 수 있는 영역과
작업을 식별하여
기계로는 잘 수행할 수 없는,
비판적 사고가 필요한
06:18
carving out more room
for higher-value activities
124
378034
2767
06:20
requiring critical thinking that machines
just aren't very good at doing.
125
380834
4633
고부가 가치 활동을 위한 여지를
더 많이 확보하세요.
06:26
Let's put this into an example.
126
386434
1900
예를 들어 보겠습니다.
06:28
Recently, I completed a project
with my team at work
127
388367
2500
최근에 저는 회사 팀원들과
함께 일을 완료했습니다.
06:30
that's going to save our company
over 12,000 working hours.
128
390901
4366
이 일을 통해 회사의 근무 시간을
12,000시간 이상
절약할 수 있을 것입니다.
06:35
The folks involved
in training this algorithm
129
395267
2134
이 알고리즘 교육에 참여한 사람들은
06:37
are the same subject matter experts
that worked tirelessly last year
130
397434
3500
작년에 우리 웹사이트 전반에 걸쳐
세분화된 경험을 최적화하기 위해
06:40
to hand-curate and research data
to optimize segmented experiences
131
400967
4434
데이터를 직접 선별하고 조사하며
쉬지 않고 일한
동일 분야 전문가들입니다.
06:45
across our website.
132
405434
1500
06:47
Now because of the sheer amount of time
spent and the level of detail involved,
133
407634
5100
엄청나게 소요된 시간과
관련된 세부 사항의 수준으로 인해
06:52
I would have expected
134
412767
1167
저는 이 작업 후에 엄청난 자부심을
느낄 것으로 예상했습니다.
06:53
that there was an immense amount of pride
behind this workflow.
135
413967
3334
06:57
But to my surprise, as it turns out,
136
417334
2400
그러나 놀랍게도, 알고 보니
06:59
the subject matter experts
who built this model
137
419734
2300
이 모델을 구축한 해당 분야 전문가들은
07:02
were actually excited to hand
these tasks off to automation.
138
422067
3667
사실 이러한 작업을 자동화에
맡기는 것을 기쁘게 생각했습니다.
07:05
There were things that they would have
much rather spent their time on,
139
425767
3367
시간을 훨씬 더 투자하고 싶은
일들이 있었던 거죠.
제품이 더 나은 성능을 발휘하도록
기존 데이터를 최적화한다거나
07:09
like in optimizing existing data
to perform better on product surfaces
140
429134
3400
07:12
or even researching and developing
new insights to augment
141
432567
3200
모델이 제대로 수행하지 못하는
부분을 보강하기 위해
07:15
where the model just simply
doesn't do as well.
142
435801
2233
새로운 방법을 연구하고
개발하는 일 등 말입니다.
07:19
Lastly, we must reskill
in order to avoid replacement.
143
439901
4600
마지막으로, 대체를 피하려면
기술 교육을 다시 받아야 합니다.
07:24
Knowingly investing
in the professional development
144
444534
2533
직원의 전문성 개발과
복지에 알맞게 투자하면
07:27
and well-being of our workforce
145
447101
1833
07:28
ensures that they are equipped
with the skills and knowledge
146
448934
2900
인공 지능을 기초로 한 미래에
성공하는 데 필요한
07:31
needed to thrive in an AI-powered future.
147
451867
2867
기술과 지식을 갖추게 됩니다.
07:34
By providing opportunities
for upskilling and reskilling,
148
454767
3367
기술 향상과 재교육 기회를 제공함으로써
07:38
we can empower our employees to rethink
their roles as they exist today
149
458167
4334
직원들이 현재 하는 역할을
다시 점검하고
07:42
and carve out new possibilities
that align with their evolving expertise
150
462534
3700
진화하는 전문성과 관심사에 맞는
새로운 가능성을 개척하도록
힘을 실어줄 수 있습니다.
07:46
and interests.
151
466267
1500
07:47
So how does this work in practice?
152
467801
2333
그렇다면 이것을 어떻게 실행할까요?
07:50
When I started introducing AI as a way
to accelerate my team's workflows,
153
470167
4534
팀의 작업 속도를 올리는 방법으로
인공 지능을 도입하기 시작했을 때,
07:54
I used it as an opportunity to improve
my team's technical literacy.
154
474701
4166
저는 이를 팀의 기술 활용 능력을
향상하는 기회로 활용했습니다.
07:58
I worked with my team
of engineers on a tool
155
478867
2334
저의 엔지니어 팀과 함께
08:01
that could transparently identify
156
481234
2033
모델 결과에 대한 데이터의 영향을
08:03
the impact of data on a model's outcomes.
157
483301
3200
투명하게 식별할 수 있는
도구를 개발했습니다.
08:06
I then went to my operations analyst,
158
486534
1833
그런 다음 기술 교육을 받지 않은
운영 분석가를 찾아갔고,
08:08
who didn't have technical
training at the time,
159
488367
2234
08:10
and they were able to quickly identify
areas where the model was underperforming
160
490634
4733
그들은 모델이 제대로 작동하지 않는
부분을 빠르게 찾아내고
08:15
and hand off direct suggestions
to my data science team
161
495367
3167
데이터 과학팀에 직접 제안을 전달해서
08:18
to make those models do better next time.
162
498567
2600
다음 번에는 모델이
더 잘 작동하도록 하게 했습니다.
08:21
Fostering a culture of continuous learning
163
501201
2800
지속적인 학습과 재교육 문화를
조성하는 것이 무엇보다 중요합니다.
08:24
and reskilling is paramount.
164
504034
2067
이를 통해 인공 지능 혁신은
훨씬 더 흥미롭고 덜 무서워집니다.
08:26
It makes AI transformation
a lot more exciting and a lot less scary.
165
506101
4766
08:31
We have reached a critical juncture
166
511967
2234
우리는 인공 지능 기술의 급속한 발전이
08:34
where the rapid development
of AI technology
167
514234
2133
기회와 도전을 동시에 안겨주는
중대한 국면에 이르렀습니다.
08:36
poses both opportunities and challenges.
168
516367
2967
08:39
As managers and leaders,
169
519834
1500
관리자이자 리더로서,
08:41
it is imperative that we
navigate this terrain
170
521334
2200
민감성과 예지력을 둘 다 갖추고
이 지형을 탐색하는 것이 필수입니다.
08:43
with both sensitivity and foresight.
171
523534
2267
08:45
By embracing innovation,
172
525801
2000
혁신을 수용하고,
적응하는 문화를 조성하고,
08:47
fostering a culture of adaptation,
173
527801
2066
08:49
and ultimately intentionally investing
in the professional development
174
529901
4233
궁극적으로 인력의 전문성 개발과
복지에 면밀하게 투자함으로써,
08:54
and well-being of our workforce,
175
534167
1734
08:55
we can ensure that we are
preparing our team
176
535934
2067
인공 지능 도입의 복잡성을
해결하는 동시에
08:58
for the challenges that lie ahead
177
538034
1800
08:59
while addressing the complexities
of introducing AI.
178
539867
3700
팀이 앞으로 닥칠 도전에
대비하도록 할 수 있습니다.
09:03
Together, let's forge a future
that harmoniously combines human ingenuity
179
543601
4800
인간의 독창성과 기술 진보가
조화롭게 결합되는 미래,
09:08
and technological progress,
180
548434
1867
09:10
where AI enhances human potential
181
550301
2533
인공 지능이 인간의 잠재력을
대체하는 것이 아니라
09:12
rather than replacing it.
182
552834
1700
향상하는 미래를 다 함께 만듭시다.
09:14
Thank you.
183
554534
1167
감사합니다.
09:15
(Applause)
184
555734
1133
(박수)(환호)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.