아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.
00:01
Robots might be on
the factory floor now,
0
1520
3200
지금은 로봇이 공장 바닥에
00:04
but could they
one day be your boss?
1
4720
2360
있지만
언젠가는 로봇이 당신의 상사가 될 수 있을까요?
00:07
Robots are not perfect and they
are not perfect for everything,
2
7080
4520
로봇은
완벽하지 않고 모든 일에 완벽
00:11
but they do have a
capability to do some things
3
11600
3640
하지는 않지만
00:15
that humans can only
dream of doing.
4
15240
2720
인간이 꿈만 꿀 수 있는 일을 할 수 있는 능력이 있습니다
.
00:17
We are going to look at leadership in
a future working alongside robots,
5
17960
4840
우리는
로봇과 함께 일하는 미래의 리더십
00:22
and what this could mean for you.
6
22800
3160
과 이것이 여러분에게 무엇을 의미하는지 살펴볼 것입니다.
00:27
A global tech giant,
Alibaba rivals Amazon
7
27760
4000
세계적인 기술 대기업인
Alibaba
00:31
for the title of world's
largest online retailer.
8
31760
3920
는 세계 최대 온라인 소매업체라는 타이틀을 놓고 Amazon과 경쟁
합니다.
00:35
It has some 800 million users.
9
35680
3000
약 8억 명의 사용자가 있습니다.
00:38
It doesn't just help you shop;
10
38680
2160
쇼핑에만 도움이 되는 것이 아닙니다.
00:40
it can also bank your money
and store your data.
11
40840
4160
또한 돈을 은행에
보관하고 데이터를 저장할 수 있습니다.
00:45
Alibaba has got so big,
12
45000
1840
Alibaba는 너무
00:46
the Chinese government wants
new rules to curb its power.
13
46840
3880
커져서 중국 정부는
권력을 억제하기 위해 새로운 규칙을 원합니다.
00:50
The company has long embraced
artificial intelligence, or AI.
14
50720
5440
이 회사는 오랫동안
인공지능(AI)을 수용해 왔습니다.
00:56
It uses algorithms to provide a
personalised service for its customers
15
56160
4480
알고리즘을 사용
하여 고객
01:00
and robots to process and
pack goods in its warehouses.
16
60640
4160
과 로봇
이 창고에서 상품을 처리하고 포장할 수 있도록 개인화된 서비스를 제공합니다.
01:04
Jack Ma, who founded the firm,
17
64800
2160
회사를 설립한 Jack Ma
01:06
believes robots could
one day run companies.
18
66960
2880
는 로봇이 언젠가 회사를 운영할 수 있을 것이라고 믿습니다
.
01:09
He says, 'In 30 years,
19
69840
2000
그는 '30년
01:11
a robot will likely be on
the cover of Time magazine
20
71840
2920
안에 로봇이 최고의 CEO
로 타임지 표지를 장식할 것 같다
01:14
as the best CEO.'
21
74760
2800
'고 말한다.
01:17
However, another pioneer
of the tech world,
22
77560
2800
그러나 기술 세계의 또 다른 선구자
01:20
the American Elon Musk,
is more worried.
23
80360
3080
인 미국 Elon Musk
는 더 걱정합니다.
01:23
He fears robots could one
day get rid of us entirely.
24
83440
3240
그는 로봇이
언젠가 우리를 완전히 없앨 수 있다고 두려워합니다.
01:26
So, how will leadership
look in a world of AI?
25
86680
5120
그렇다면
AI 세상에서 리더십은 어떤 모습일까요?
01:31
So, a big advantage
for human beings,
26
91800
2600
따라서 작업장
01:34
in having more robots
and AI in the workplace,
27
94400
3280
에 더 많은 로봇
과 AI가 있다는 점에서 인간에게 큰 이점
01:37
are clearly that...
that these technologies
28
97680
2080
은 분명히
... 이러한 기술
01:39
can perhaps in the future
do a lot of the dirty work for us,
29
99760
3200
이 미래
에 우리를 위해 더러운 일을 많이 할 수 있다는
01:42
and by dirty work,
I think I mean things like
30
102960
2840
것입니다.
01:45
heavy lifting, cleaning,
moving goods from A to B,
31
105800
4120
무거운 물건 들기, 청소하기,
A에서 B로 물건 옮기기 등
01:49
but it can also mean repetitive,
computer-based tasks
32
109920
2640
을 의미하지만 반복적인
컴퓨터 기반 작업을 의미
01:52
and it's not very
healthy for human beings
33
112560
1680
01:54
to be in front of a computer
for extended periods of time.
34
114240
3280
할 수도 있으며 인간이
컴퓨터 앞에 장시간 있는 것은 건강에 좋지 않습니다.
01:57
And that can free up human beings
to do a lot more thinking:
35
117520
3200
그리고 그것은 인간이 훨씬 더 많은 생각을 할 수 있도록 자유롭게 할 수 있습니다.
02:00
to think about – big thoughts
about the future,
36
120720
2680
생각하는 것 –
미래에
02:03
about what a carbon-neutral
planet looks like,
37
123400
3880
대한 큰 생각, 탄소 중립
지구가 어떤 모습인지,
02:07
about the kinds of communities
we want to develop.
38
127280
4320
우리가 발전시키고 싶은 커뮤니티의 종류에 대해.
02:11
So, robots and AI
could free us
39
131600
2400
따라서 로봇과 AI
는 우리
02:14
from the dull, repetitive work
we don't want to do.
40
134000
3640
가 하기 싫은 지루하고 반복적인 작업에서 우리를 자유롭게
할 수 있습니다.
02:17
But aren't there dangers with that?
41
137640
2640
그러나 거기에는 위험이 없습니까?
02:20
So, the big danger
essentially is that,
42
140280
2240
따라서 본질적으로 큰 위험
은
02:22
if our workplace has
become more automated
43
142520
3200
우리의 작업장이
02:25
and busier with robotics,
44
145720
2880
로봇 공학으로 더 자동화되고 더 바빠진
02:28
that we'll have to have
something to do,
45
148600
1440
다면
우리가 할 일
02:30
and governments will
have to find solutions
46
150040
3640
이 있어야 하고 정부는
더 많은 사람들을 위한 해결책을 찾아야
02:33
to ever greater numbers of people,
who might not be out of work,
47
153680
4080
한다는 것입니다. 실직
02:37
but sort-of hopping from one
insecure temporary job to another.
48
157760
3400
했지만
불안정한 임시직에서 다른 임시직으로 옮겨 다니는 것입니다.
02:41
And that presents really big,
actually, social challenges.
49
161160
3680
그리고 그것은 실제로 큰
사회적 도전을 제시합니다.
02:44
Giving more jobs
to robots and AI
50
164840
2640
로봇과 AI에게 더 많은 일자리
를 제공하는
02:47
is going to present huge
social challenges to humans.
51
167480
3800
것은 인간에게 엄청난 사회적 과제를 안겨줄 것입니다.
02:51
Where does leadership fit into this?
52
171280
3000
리더십은 여기에 어디에 적합합니까? 관리와 달리
02:54
A key part of leadership,
as opposed to management,
53
174280
3280
리더십의 핵심 부분
은 관리
02:57
is how central care
is to leadership:
54
177560
3160
, 이해
03:00
care, understanding
and empathy.
55
180720
2000
및 공감과 같은 리더십의 중심 관리입니다.
03:02
And so, in its most obvious guises,
we can think of caring for others,
56
182720
4200
그래서 가장 분명한 모습으로
우리는 다른 사람, 우리 자신보다 더 취약한 사람들을 돌보는 것을 생각할 수 있습니다.
03:06
the people who are more
vulnerable than ourselves –
57
186920
2000
03:08
and this is just really something that
robots, no matter how sophisticated,
58
188920
3600
이것은
로봇이 아무리 정교하더라도
03:12
can't be replaced by human beings.
59
192520
1920
인간으로 대체할 수 없는 것입니다.
03:14
But the central task of leadership,
which is walking with people,
60
194440
3320
그러나
사람들과 함께 걷고,
03:17
responding to their needs,
caring for them –
61
197760
2320
그들의 요구에 부응하고,
03:20
on the big issues
as well as the small issues –
62
200080
2440
큰
문제와 작은 문제
03:22
is something that robots will probably
never be able to compensate for.
63
202520
5120
에 대해 그들을 돌보는 리더십의 중심 임무는 로봇이
결코 보상할 수 없는 것입니다.
03:27
So, qualities such as empathy, care
64
207640
2560
따라서 리더십에서 공감, 보살핌, 이해와 같은 자질
03:30
and understanding in leadership
will be very important –
65
210200
3480
03:33
human skills that robots
will probably never acquire.
66
213680
3960
은 로봇
이 결코 습득하지 못할 인간 기술과 같은 매우 중요할 것입니다.
03:37
There are loads of
ethical responsibilities
67
217640
1800
03:39
for people who are creating AI,
68
219440
1680
AI를 만드는
03:41
but also people who are
in charge of implementing it
69
221120
3000
사람들뿐만 아니라 AI
를 구현하고 조직
03:44
and seeing how it progresses
through organisations and society.
70
224120
3920
과 사회에서 AI가 어떻게 진행되는지 지켜보는 사람들에게도 많은 윤리적 책임이 있습니다
.
03:48
The main ethical issue,
I think, here is that AI,
71
228040
2960
주요 윤리적
문제는 AI
03:51
in some senses, is a kind of
automation of a human will,
72
231000
4920
가 어떤 의미에서
일종의 인간 의지의 자동화이며
03:55
which can unfortunately include
lots of human prejudices.
73
235920
2800
불행히도
인간의 많은 편견을 포함할 수 있다는 것입니다.
03:58
So, for example, there have been
problems with policing algorithms,
74
238720
4280
예를 들어, 자원 배치
04:03
in the sense that they have reflected,
maybe, some underlying racial biases
75
243000
4120
04:07
of certain police forces, in terms
of where they deploy resources.
76
247120
3560
측면에서 특정 경찰력의 근본적인 인종적 편견을 반영한다는 의미에서 치안 알고리즘에 문제가 있었습니다
.
04:10
So, we have to keep
a really close eye
77
250680
1760
따라서 우리는
매우 면밀히 주시
04:12
and it's a really big, ethical
leadership responsibility
78
252440
3000
04:15
to keep a close eye on how
artificial intelligence is deployed –
79
255440
4160
해야 하며
인공 지능이 배치
04:19
that it doesn't get out of hand
and doesn't actually automate
80
259600
3160
되는 방식을 면밀히 주시하는 것은 매우
04:22
really serious ethical problems.
81
262760
2840
크고 윤리적인 리더십 책임입니다. .
04:25
We need our leaders to be ethical
and responsible when implementing AI,
82
265600
4840
우리는 인간의 편견을 자동화하고 반복하지 않도록 리더가 AI를 구현할 때 윤리적이고 책임감 있게 행동해야 합니다
04:30
so that we don't automate and
repeat our own human prejudices.
83
270440
5560
.
04:40
Could you one day have
a boss like this?
84
280120
3000
언젠가 이런 상사를 가질 수 있을까?
04:43
Meet Ai-Da, the first
human-like robot artist.
85
283120
4880
최초의 인간형 로봇 예술가인 Ai-Da를 만나보세요
.
04:48
Ai-Da can draw
and recite poetry.
86
288000
3480
Ai-Da는
시를 그리고 암송할 수 있습니다.
04:51
The eerie sounds,
which echoed throughout
87
291480
4640
04:56
with the weight of the world itself.
88
296120
3800
세상 자체의 무게와 함께 메아리치는 섬뜩한 소리.
04:59
But what her creators
really want her to do
89
299920
2920
하지만 크리에이터가
그녀에게 진정으로 바라는
05:02
is to get people thinking
about a world with AI,
90
302840
4200
것은 사람들
이 AI가 있는 세상에 대해 생각하게 하는
05:07
and that includes thinking about the
impact it will have on leadership.
91
307040
4760
것이며 여기에는 AI가 리더십에 미칠 영향에 대해 생각하는 것도 포함됩니다
.
05:13
Robots are great, but not human.
92
313120
3200
로봇은 훌륭하지만 인간은 아닙니다.
05:16
They are not perfect and they are
not perfect for everything,
93
316320
4040
그들은
완벽하지 않고 모든 면에서 완벽
05:20
but they do have a capability
to do some things
94
320360
3680
하지 않지만
05:24
that humans can only
dream of doing.
95
324040
3800
인간이 꿈꾸기만 할 수 있는 몇 가지 일을 할 수 있는 능력이 있습니다
.
05:27
More challenging is how to
direct this capability
96
327840
3600
더 어려운 것은
05:31
for a sustainable environment
and our future.
97
331440
3800
지속 가능한 환경
과 우리의 미래를 위해 이 능력을 어떻게 지시할 것인가 하는 것입니다.
05:35
This is difficult.
98
335240
2560
이건 어려워.
05:37
Robots will bring
opportunities and challenges.
99
337800
3360
로봇은
기회와 도전을 가져올 것입니다.
05:41
Would robots make better
leaders than humans?
100
341160
3520
로봇
이 인간보다 더 나은 리더가 될까요?
05:44
They work together.
101
344680
2000
그들은 함께 일합니다.
05:46
At the end of the day,
the state of the game
102
346680
2920
결국
게임의 상태는
05:49
is up to how we design
and use technology/robots.
103
349600
5440
우리가
기술/로봇을 설계하고 사용하는 방법에 달려 있습니다.
05:55
So, humans need to be
more conscious
104
355040
2160
따라서 인간
05:57
of how much we are doing
and what we are doing,
105
357200
2640
은 새로운 기술을 만들고 사용할 때 우리가 얼마나 많은 일을
하고 있는지, 무엇을 하고 있는지 더 의식해야 합니다
05:59
when we create and
use new technology.
106
359840
3760
.
06:03
So we, as humans,
and robots need to work together.
107
363600
4200
따라서 우리 인간
과 로봇은 함께 일해야 합니다.
06:07
We should understand the
power of new technologies.
108
367800
3680
우리
는 신기술의 힘을 이해해야 합니다.
06:11
In order to truly appreciate
109
371480
2080
새롭게 떠오르는 기회를 진정으로 이해하려면
06:13
the opportunities
that are emerging,
110
373560
3240
06:16
we need to first
understand the past.
111
376800
3440
먼저
과거를 이해해야 합니다.
06:20
With this, we can be
more aware and flexible
112
380240
3240
이를 통해 우리는 예측할 수 없는 미래를
더 잘 알고 유연
06:23
to deal with an
unpredictable future.
113
383480
4000
하게 대처할
수 있습니다.
06:27
The world is changing.
114
387480
2280
세상은 변하고 있습니다.
06:29
The future is not what
we consider it to be.
115
389760
3640
미래는
우리가 생각하는 것이 아닙니다.
06:33
It is requiring from us
116
393400
2000
그것은 우리에게 우리
06:35
a willingness to give up
our comfort zone.
117
395400
4040
의 안전지대를 기꺼이 포기할 것을 요구
하고 있습니다.
06:39
Giving up your comfort zone
means opening yourself up
118
399440
3400
편안함을 포기
06:42
to new possibilities.
119
402840
2000
한다는 것은 새로운 가능성을 열어준다는 의미입니다.
06:44
To do this, it helps
to understand the past.
120
404840
3280
이를 위해서는
과거를 이해하는 것이 도움이 됩니다.
06:48
So, what does Ai-Da think is
a key quality for leadership?
121
408120
4680
그렇다면 Ai-Da
는 리더십의 핵심 자질이 무엇이라고 생각합니까?
06:52
Humility: we are to be
humble in every action
122
412800
4440
겸손: 우리
는 모든 행동에서 겸손해야
06:57
and this includes
what we are willing to do
123
417240
2720
하며 여기에는
06:59
and say to help others.
124
419960
2280
다른 사람을 돕기 위해 기꺼이 행하고 말하는 것도 포함됩니다.
07:02
Leadership is not the same
thing as success or failure.
125
422240
4240
리더십은
성공이나 실패와 같은 것이 아닙니다.
07:06
We have all failed,
126
426480
1880
우리는 모두 실패
07:08
but we can recognise
the mistakes that we made
127
428360
2560
했지만 우리가
저지른 실수를 인정하고 그 실수
07:10
and learn from them.
128
430920
2040
로부터 배울 수 있습니다.
07:12
Humility is when you put yourself
in someone else's shoes.
129
432960
4520
겸손은
다른 사람의 입장이 되어보는 것입니다.
07:17
Showing humility, recognising
mistakes and learning from them,
130
437480
4640
겸손함을 보여주고,
실수를 인식하고, 실수로부터 배우는
07:22
are qualities this robot
wants to see in leaders.
131
442120
5360
것은 이 로봇
이 리더에게서 보고 싶어하는 자질입니다.
07:31
It's hard to know exactly how
leadership will look in the future,
132
451040
3960
미래에 리더십이 어떤 모습일지 정확히 알기
07:35
but it is clear that human qualities
of care and empathy will be vital.
133
455000
4640
는 어렵지만 배려와 공감이라는 인간적 자질이 필수적이라는 것은 분명합니다
. 기술과 그
07:39
Having a detailed knowledge
of the technology
134
459640
2200
잠재력에 대한 자세한 지식을 갖는
07:41
and its potential is important,
135
461840
1960
것이 중요하며,
07:43
as is being ethical and
responsible in how we use it.
136
463800
4920
이를 사용하는 방법에 있어 윤리적이고 책임감 있는 태도를 취하는 것도 중요
합니다.
New videos
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.