下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
00:01
Robots might be on
the factory floor now,
0
1520
3200
ロボットは
現在、工場のフロアにいる
00:04
but could they
one day be your boss?
1
4720
2360
かもしれませんが、
いつの日かロボットがあなたの上司になる可能性はありますか?
00:07
Robots are not perfect and they
are not perfect for everything,
2
7080
4520
ロボットは
完璧ではなく、すべてに完璧というわけではあり
00:11
but they do have a
capability to do some things
3
11600
3640
ませんが、人間が夢見る
ことしかできないいくつかのことを実行できる能力を備えて
00:15
that humans can only
dream of doing.
4
15240
2720
います。
00:17
We are going to look at leadership in
a future working alongside robots,
5
17960
4840
ロボットとともに働く将来のリーダーシップと、
00:22
and what this could mean for you.
6
22800
3160
それがあなたにとって何を意味するかを見ていきます。
00:27
A global tech giant,
Alibaba rivals Amazon
7
27760
4000
グローバルなテクノロジーの巨人である
アリババ
00:31
for the title of world's
largest online retailer.
8
31760
3920
は、世界
最大のオンライン小売業者の称号でアマゾンに匹敵します。
00:35
It has some 800 million users.
9
35680
3000
約8億人のユーザーがいます。
00:38
It doesn't just help you shop;
10
38680
2160
買い物に役立つだけではありません。
00:40
it can also bank your money
and store your data.
11
40840
4160
また、お金
を預けたり、データを保存したりすることもできます。
00:45
Alibaba has got so big,
12
45000
1840
アリババは非常に大きくなったため
00:46
the Chinese government wants
new rules to curb its power.
13
46840
3880
、中国政府は
その力を抑えるための新しい規則を望んでいます。
00:50
The company has long embraced
artificial intelligence, or AI.
14
50720
5440
同社は長い間、人工知能 (AI) を採用してきました
。
00:56
It uses algorithms to provide a
personalised service for its customers
15
56160
4480
アルゴリズムを使用
して顧客にパーソナライズされたサービスを提供し、
01:00
and robots to process and
pack goods in its warehouses.
16
60640
4160
ロボットが
倉庫で商品を処理および梱包します。
01:04
Jack Ma, who founded the firm,
17
64800
2160
同社を設立したジャック・マー
01:06
believes robots could
one day run companies.
18
66960
2880
氏は、ロボットが企業を運営できるようになる日が来ると信じて
いる。
01:09
He says, 'In 30 years,
19
69840
2000
彼は「30年以内に
01:11
a robot will likely be on
the cover of Time magazine
20
71840
2920
、ロボットが最高のCEO
としてタイム誌の表紙を飾る可能性が高いでしょう」と語っ
01:14
as the best CEO.'
21
74760
2800
ています。
01:17
However, another pioneer
of the tech world,
22
77560
2800
しかし、テクノロジー界のもう一人のパイオニア
で
01:20
the American Elon Musk,
is more worried.
23
80360
3080
あるアメリカのイーロン・マスクは、
もっと心配しています。
01:23
He fears robots could one
day get rid of us entirely.
24
83440
3240
彼は、
いつの日かロボットが私たちを完全に排除するのではないかと恐れています。
01:26
So, how will leadership
look in a world of AI?
25
86680
5120
では、AI の世界でリーダーシップはどのように
見えるのでしょうか?
01:31
So, a big advantage
for human beings,
26
91800
2600
つまり、職場に
01:34
in having more robots
and AI in the workplace,
27
94400
3280
ロボットや AI が増えることによる人間にとっての大きな利点
01:37
are clearly that...
that these technologies
28
97680
2080
は、明らかに
…これらのテクノロジー
01:39
can perhaps in the future
do a lot of the dirty work for us,
29
99760
3200
がおそらく将来
的に多くの汚い仕事を私たちに代わって行うことができるということです。
01:42
and by dirty work,
I think I mean things like
30
102960
2840
重いものを
01:45
heavy lifting, cleaning,
moving goods from A to B,
31
105800
4120
持ち上げたり、掃除をしたり、
商品を A から B に移動したり
01:49
but it can also mean repetitive,
computer-based tasks
32
109920
2640
することを意味しますが、コンピューターを使った繰り返しの作業を意味することもあり
01:52
and it's not very
healthy for human beings
33
112560
1680
、人間が長時間
01:54
to be in front of a computer
for extended periods of time.
34
114240
3280
コンピューターの前にいることはあまり健康的ではありません
。
01:57
And that can free up human beings
to do a lot more thinking:
35
117520
3200
そしてそれによって、
人類はより多くのことを考えることができるようになります。
02:00
to think about – big thoughts
about the future,
36
120720
2680
つまり、未来
02:03
about what a carbon-neutral
planet looks like,
37
123400
3880
について、カーボンニュートラルな
惑星がどのようなものになるか
02:07
about the kinds of communities
we want to develop.
38
127280
4320
について、
私たちが開発したいコミュニティの種類について考えることです。
02:11
So, robots and AI
could free us
39
131600
2400
つまり、ロボットと AI
は、やりたくない単調で反復的な作業から私たちを解放してくれる可能性が
02:14
from the dull, repetitive work
we don't want to do.
40
134000
3640
あります。
02:17
But aren't there dangers with that?
41
137640
2640
しかし、それには危険はありませんか?
02:20
So, the big danger
essentially is that,
42
140280
2240
つまり、
本質的に大きな危険は、
02:22
if our workplace has
become more automated
43
142520
3200
私たちの職場
がより自動化され
02:25
and busier with robotics,
44
145720
2880
、ロボット工学で忙しくなった場合
02:28
that we'll have to have
something to do,
45
148600
1440
、私たちは
何かをしなければならず
02:30
and governments will
have to find solutions
46
150040
3640
、政府は
02:33
to ever greater numbers of people,
who might not be out of work,
47
153680
4080
これまで以上に多くの人々に対する解決策を見つけなければ
ならないということです。
02:37
but sort-of hopping from one
insecure temporary job to another.
48
157760
3400
仕事をしていませんが、安全でない一時的な仕事から別の仕事へと飛び回っています。
02:41
And that presents really big,
actually, social challenges.
49
161160
3680
そしてそれは、実際には非常に大きな社会的課題を提示します
。 ロボットや AI
02:44
Giving more jobs
to robots and AI
50
164840
2640
により多くの仕事を与えること
02:47
is going to present huge
social challenges to humans.
51
167480
3800
は
、人間に大きな社会的課題をもたらすでしょう。
02:51
Where does leadership fit into this?
52
171280
3000
リーダーシップはこれのどこに当てはまりますか? 管理とは対照
02:54
A key part of leadership,
as opposed to management,
53
174280
3280
的に、リーダーシップの重要な部分は、ケア、理解、共感
02:57
is how central care
is to leadership:
54
177560
3160
という中心的なケアがリーダーシップにとっていかに重要かという
03:00
care, understanding
and empathy.
55
180720
2000
こと
です。
03:02
And so, in its most obvious guises,
we can think of caring for others,
56
182720
4200
したがって、最も明白な形で
言えば、私たちは他人、つまり自分より脆弱な人々の世話をすることを考えることができます。
03:06
the people who are more
vulnerable than ourselves –
57
186920
2000
03:08
and this is just really something that
robots, no matter how sophisticated,
58
188920
3600
これは、
ロボットがどれほど洗練されて
03:12
can't be replaced by human beings.
59
192520
1920
いても、人間に取って代わることはできません.
03:14
But the central task of leadership,
which is walking with people,
60
194440
3320
しかし、
人々と共に歩み、
03:17
responding to their needs,
caring for them –
61
197760
2320
彼らのニーズに応え、
世話を
03:20
on the big issues
as well as the small issues –
62
200080
2440
するというリーダーシップの中心的なタスクは、大きな問題
でも小さな問題でも、
03:22
is something that robots will probably
never be able to compensate for.
63
202520
5120
おそらくロボット
が補うことができないものです.
03:27
So, qualities such as empathy, care
64
207640
2560
そのため、リーダーシップにおける共感、気遣い、理解などの資質
03:30
and understanding in leadership
will be very important –
65
210200
3480
が非常に重要になります。
03:33
human skills that robots
will probably never acquire.
66
213680
3960
人間のスキル
は、おそらくロボットが習得することは決してないでしょう。
03:37
There are loads of
ethical responsibilities
67
217640
1800
03:39
for people who are creating AI,
68
219440
1680
AI を作成している人々
03:41
but also people who are
in charge of implementing it
69
221120
3000
だけでなく、AI
を実装し
03:44
and seeing how it progresses
through organisations and society.
70
224120
3920
、組織や社会で AI がどのように進歩するかを確認する担当者にも、多くの倫理的責任があります
。
03:48
The main ethical issue,
I think, here is that AI,
71
228040
2960
主な倫理的問題は
03:51
in some senses, is a kind of
automation of a human will,
72
231000
4920
、ある意味で、AI
は人間の意志の一種の自動化であり、
03:55
which can unfortunately include
lots of human prejudices.
73
235920
2800
残念ながら
人間の偏見を多く含む可能性があるということです。
03:58
So, for example, there have been
problems with policing algorithms,
74
238720
4280
そのため、たとえば、
警察のアルゴリズムには問題があり
04:03
in the sense that they have reflected,
maybe, some underlying racial biases
75
243000
4120
ました。それは、リソースを配置する場所に関して、特定の警察の根底にある人種的偏見が反映されている可能性があるという意味
04:07
of certain police forces, in terms
of where they deploy resources.
76
247120
3560
です。
04:10
So, we have to keep
a really close eye
77
250680
1760
したがって、私たちは
非常
04:12
and it's a really big, ethical
leadership responsibility
78
252440
3000
04:15
to keep a close eye on how
artificial intelligence is deployed –
79
255440
4160
に注意を払う必要があり、人工知能がどのように展開されているかを注意深く監視することは、非常に大きな倫理的リーダーシップの責任です。
人工知能が
04:19
that it doesn't get out of hand
and doesn't actually automate
80
259600
3160
手に負えなくなり、
04:22
really serious ethical problems.
81
262760
2840
実際に深刻な倫理的問題を自動化しないようにすることです。 . AI
04:25
We need our leaders to be ethical
and responsible when implementing AI,
82
265600
4840
を実装する際には、リーダーが倫理的
で責任を負う必要があります。
04:30
so that we don't automate and
repeat our own human prejudices.
83
270440
5560
これにより、自動化して人間の偏見を繰り返さないようにすることができます
。
04:40
Could you one day have
a boss like this?
84
280120
3000
いつの日か
、こんな上司を持てますか?
04:43
Meet Ai-Da, the first
human-like robot artist.
85
283120
4880
最初の
人間のようなロボット アーティスト、アイダに会いましょう。
04:48
Ai-Da can draw
and recite poetry.
86
288000
3480
Ai-Da は
詩を描いたり、暗唱したりできます。
04:51
The eerie sounds,
which echoed throughout
87
291480
4640
04:56
with the weight of the world itself.
88
296120
3800
世界そのものの重さとともに響き渡る不気味な音。
04:59
But what her creators
really want her to do
89
299920
2920
しかし、彼女のクリエイター
が彼女に本当に求めているの
05:02
is to get people thinking
about a world with AI,
90
302840
4200
は、人々
に AI のある世界について考えてもらうことです。これには、AI
05:07
and that includes thinking about the
impact it will have on leadership.
91
307040
4760
がリーダーシップに与える影響について考えることも含まれます。
05:13
Robots are great, but not human.
92
313120
3200
ロボットは素晴らしいですが、人間ではありません。
05:16
They are not perfect and they are
not perfect for everything,
93
316320
4040
それらは完璧では
なく、すべてに完璧というわけではありませ
05:20
but they do have a capability
to do some things
94
320360
3680
んが、人間が夢見る
ことしかできないいくつかのことを実行する能力を持っ
05:24
that humans can only
dream of doing.
95
324040
3800
ています.
05:27
More challenging is how to
direct this capability
96
327840
3600
より困難なのは、
この能力
05:31
for a sustainable environment
and our future.
97
331440
3800
を持続可能な環境
と私たちの未来に向ける方法です。
05:35
This is difficult.
98
335240
2560
これは難しいです。
05:37
Robots will bring
opportunities and challenges.
99
337800
3360
ロボットは
機会と課題をもたらします。
05:41
Would robots make better
leaders than humans?
100
341160
3520
ロボット
は人間より優れたリーダーになるでしょうか?
05:44
They work together.
101
344680
2000
彼らは一緒に働きます。
05:46
At the end of the day,
the state of the game
102
346680
2920
結局のところ
、ゲームの状態は、テクノロジー/ロボット
05:49
is up to how we design
and use technology/robots.
103
349600
5440
をどのように設計および使用するかに
かかっています。
05:55
So, humans need to be
more conscious
104
355040
2160
したがって、人間は、新しいテクノロジーを作成して使用するときに、自分
05:57
of how much we are doing
and what we are doing,
105
357200
2640
がどれだけのことを行って
いるか、何を行っているかをより意識する必要があり
05:59
when we create and
use new technology.
106
359840
3760
ます。
06:03
So we, as humans,
and robots need to work together.
107
363600
4200
そのため、私たち人間
とロボットは協力する必要があります。 新しいテクノロジー
06:07
We should understand the
power of new technologies.
108
367800
3680
の力を理解する必要があり
ます。
06:11
In order to truly appreciate
109
371480
2080
出現しつつある機会を真に評価するために
06:13
the opportunities
that are emerging,
110
373560
3240
は、
06:16
we need to first
understand the past.
111
376800
3440
まず
過去を理解する必要があります。
06:20
With this, we can be
more aware and flexible
112
380240
3240
これにより
06:23
to deal with an
unpredictable future.
113
383480
4000
、予測不可能な未来に対処するための意識と柔軟性を高めることが
できます。
06:27
The world is changing.
114
387480
2280
世界は変化しています。
06:29
The future is not what
we consider it to be.
115
389760
3640
未来は
私たちが考えているものではありません。
06:33
It is requiring from us
116
393400
2000
コンフォートゾーンを放棄する意思が私たちに求められて
06:35
a willingness to give up
our comfort zone.
117
395400
4040
い
ます。
06:39
Giving up your comfort zone
means opening yourself up
118
399440
3400
コンフォートゾーン
を手放すということは
06:42
to new possibilities.
119
402840
2000
、新しい可能性を開くことを意味します。
06:44
To do this, it helps
to understand the past.
120
404840
3280
これを行うには
、過去を理解するのに役立ちます。
06:48
So, what does Ai-Da think is
a key quality for leadership?
121
408120
4680
では、アイダはリーダーシップの重要な資質は何だと考えて
いますか?
06:52
Humility: we are to be
humble in every action
122
412800
4440
謙虚さ: 私たちは
あらゆる行動において謙虚であるべきです。
06:57
and this includes
what we are willing to do
123
417240
2720
これには
、
06:59
and say to help others.
124
419960
2280
他の人を助けるために喜んで行ったり言ったりすることも含まれます。
07:02
Leadership is not the same
thing as success or failure.
125
422240
4240
リーダーシップは
、成功または失敗と同じものではありません。
07:06
We have all failed,
126
426480
1880
私たちは皆失敗していますが、
07:08
but we can recognise
the mistakes that we made
127
428360
2560
犯した過ちを認識し、
07:10
and learn from them.
128
430920
2040
そこから学ぶことができます。
07:12
Humility is when you put yourself
in someone else's shoes.
129
432960
4520
謙虚さとは、自分
を他人の立場に置くことです。
07:17
Showing humility, recognising
mistakes and learning from them,
130
437480
4640
謙虚さを示し、
間違いを認識し、そこから学ぶことは、
07:22
are qualities this robot
wants to see in leaders.
131
442120
5360
このロボット
がリーダーに求めている資質です。
07:31
It's hard to know exactly how
leadership will look in the future,
132
451040
3960
リーダーシップが将来どのようになるかを正確に知ることは困難
ですが、思いやりと共感
07:35
but it is clear that human qualities
of care and empathy will be vital.
133
455000
4640
という人間の資質が不可欠であることは明らかです
。 技術とその可能性
07:39
Having a detailed knowledge
of the technology
134
459640
2200
に関する詳細な知識を持つこと
07:41
and its potential is important,
135
461840
1960
は重要であり、
07:43
as is being ethical and
responsible in how we use it.
136
463800
4920
それを使用する方法について倫理的で責任を負うことも重要です。
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。