ADVANCED English Vocabulary in context | Learn English with the News
94,914 views ・ 2023-05-31
下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
00:00
Hi there, this is Harry and welcome back to
advanced English lessons with Harry, where
0
179
3971
こんにちは、ハリーです。
ハリーとの高度な英語レッスンへようこそ。そこでは、
00:04
I tried to help you to get a better understanding
of the English language helping you with vocabulary
1
4150
5500
語彙
00:09
expressions, phrases, whatever it takes to
help you to improve conversational English,
2
9650
5470
表現やフレーズなど、
英会話の上達に必要なものをすべて教えて、英語をより深く理解できるように努めました。
00:15
or indeed your business English.
3
15120
1749
または実際のビジネス英語。
00:16
And from time to time, we include an article
and newsy article, something in the news.
4
16869
5571
そして時々、記事
やニュース記事、ニュースの何かを含めます。
00:22
And I read that for you, and they give you
some words and expressions that have been
5
22440
3950
そして、私がそれを読んで、
00:26
used in the article and explain what they
mean.
6
26390
3110
記事の中で使用されているいくつかの単語や表現を示し、それらが何を意味するのかを説明します
。
00:29
So that's exactly what we're going to do in
this particular lesson.
7
29500
2919
したがって、それがまさに
この特定のレッスンで行うことです。
00:32
And at the end of the lesson, if you need
any further help with any further explanations
8
32419
5191
レッスンの最後に、
さらに詳しい説明
00:37
or examples, then please write to me on www.englishlessonviaskype.com
and I'll happily provide you with any information
9
37610
8320
や例についてのサポートが必要な場合は、www.englishlessonviaskype.com までご連絡ください。ご希望の
情報や必要な情報を喜んで提供させていただきます
00:45
that you like or that you need.
10
45930
1750
。
00:47
Okay, so getting back to this advanced English
lesson, it's all about an article, the article
11
47680
5000
さて、この高度な英語のレッスンに戻りますが
、これはすべて記事に関するものです。その記事は
00:52
appeared in The Guardian newspaper, which
is a really nice source of well-balanced articles
12
52680
6640
ガーディアン新聞に掲載されました。この記事は、私たちが時々読みたい、バランスの
とれた記事の実に素晴らしい情報源です
00:59
that we like to read from time to time.
13
59320
2480
。
01:01
And the particular heading in this particular
article is" Another warning about the AI apocalypse.
14
61800
8020
そして、この特定の記事の特定の見出しは、
「AI 黙示録に関する別の警告。
01:09
I don't buy it."
15
69820
1839
私はそれには賛成しません。」です。
01:11
So it's not my opinion.
16
71659
1640
したがって、それは私の意見ではありません。
01:13
It's the opinion of the journalist who wrote
the particular article.
17
73299
3210
それはその記事を書いたジャーナリストの意見です
。
01:16
So he's just saying, or she is saying, another
warning about the AI, the artificial intelligence,
18
76509
6641
つまり、彼は、あるいは彼女が、
AI、人工知能、黙示録についての別の警告を言っているだけであり、
01:23
apocalypse, people think we're coming into
a major, major catastrophe dealing with artificial
19
83150
6620
人々は私たちが人工知能を扱う大きな大惨事に直面していると考えています
01:29
intelligence.
20
89770
1000
。
01:30
And the journalist says, I don't buy it, meaning
they don't necessarily agree with it.
21
90770
5560
そしてジャーナリストは、「私はそれを支持しません」と言っています。つまり、
彼らは必ずしもそれに同意しているわけではありません。
01:36
So what I do, I'll read it once just for you
to get the gist of what it's about, then I'll
22
96330
4260
それで、私は何をするかというと
、内容の要点を理解するために一度読んで、特定の単語に
01:40
read it a second time putting some stress
on certain words, and then I'll come back
23
100590
4489
重点を置いてもう一度読んで
、それから戻ってきて
01:45
and I'll give you an explanation as to the
meaning of those particular words.
24
105079
3921
、
それらの特定の単語の意味について説明します。
01:49
Okay, so let's start.
25
109000
2100
さて、それでは始めましょう。
01:51
And here's the text.
26
111100
1510
そして本文はこちらです。
01:52
So I read it once for you just to get a gist
and then a second time to get a better understanding.
27
112610
4899
したがって、要点を理解するために 1 回読み
、さらに理解を深めるために 2 回目を読みました。
01:57
And I'll come back and give you the particular
words and expressions that I've highlighted,
28
117509
4281
戻ってきて、
私が強調した特定の単語や表現を紹介します。
02:01
so you get a meaning and how we can use them.
29
121790
3249
そうすれば、意味とそれらの使用方法がわかります。
02:05
So here's the first reading just for the just
AI tools like Chat GPT are everywhere.
30
125039
7420
ここでは、
Chat GPT のような AI ツールがどこにでもある場合に限って、最初の読み取り値を示します。 AI テクノロジーの急増につながったのは
02:12
It is the combination of computational power,
and availability of data that has led to a
31
132459
5511
、計算能力
とデータの可用性の組み合わせです
02:17
surge in AI technology.
32
137970
2769
。
02:20
But the reason models such as Chat GPT and
Bard have made such a spectacular splash is
33
140739
5511
しかし、Chat GPT や
Bard などのモデルがこれほど大きな話題を呼んだ理由は、
02:26
that they have hit our own homes, with around
100 million people currently using them.
34
146250
6670
それらが私たちの家庭に浸透し、
現在約 1 億人が使用しているからです。
02:32
This has led to a very fraught public debate,
it is predicted that a quarter of all jobs
35
152920
5450
これは非常に複雑な公的議論を引き起こし、
全仕事の4分の1が
02:38
will be affected one way or another by AI
and some companies are holding back on recruitment
36
158370
6960
何らかの形でAIの影響を受けると予測されており、
一部の企業は
02:45
to see which jobs can be automated.
37
165330
3670
どの仕事が自動化できるかを見極めるため採用を控えている。 昨日、
02:49
Fears about AI can move markets, as we saw
yesterday when Pearson shares tumbled over
38
169000
5780
AIが自社のビジネスを破壊するのではないかとの懸念からピアソン株が急落したときも見られたように、AIに対する懸念は市場を動かす可能性がある
02:54
concerns that AI would disrupt its business.
39
174780
4500
。
02:59
And looming above the day to day debate are
the sometimes apocalyptic warnings about the
40
179280
5500
そして、日々の議論の上に迫っているのは、
03:04
long term dangers of AI technologies, often
from loud and arguably authoritative voices
41
184780
7140
AI テクノロジーの長期的な危険性について、時として黙示録的な警告であり、多くの場合、これらのテクノロジーを開発した
03:11
belonging to executives, and researchers who
developed these technologies?
42
191920
5590
経営陣や研究者に属する、おそらく権威ある大声からのものでしょうか
?
03:17
So are people right to raise the spectre of
apocalyptic AI driven destruction?
43
197510
6899
それでは、人々が
終末論的な AI による破壊の恐怖を煽るのは正しいのでしょうか?
03:24
In my view, no.
44
204409
1541
私の見解では、そうではありません。
03:25
I agree that there are some sobering risks.
45
205950
3429
いくつかの重大なリスクがあることに同意します。
03:29
But people are beginning to understand that
these are socio technical systems that is
46
209379
6361
しかし人々は、
これらが
03:35
not just neutral tools, but an inextricable
bundle of code data subjective parameters,
47
215740
7860
単なる中立的なツールではなく、
コードデータの主観的なパラメータ
03:43
and people.
48
223600
1440
と人々の分かちがたい束である社会技術システムであることを理解し始めています。
03:45
AI's end users and the direction it develops,
aren't inevitable, and addressing the risks
49
225040
7430
AI のエンド ユーザーと AI の発展の方向性は
避けられないものではなく、
03:52
of AI isn't simply a question of stop or proceed.
50
232470
5900
AI のリスクへの対処は単に停止するか続行するかという問題ではありません。
03:58
Companies are aware of these issues as they
work on new systems, open AI, the company
51
238370
5819
企業は、
新しいシステム、オープン AI、
04:04
behind chat GPT, some of them are pretty well,
it recognises that while a lot has been done
52
244189
6970
チャット GPT の背後にある企業に取り組んでいるときにこれらの問題を認識しており、一部の企業はかなりうまくいっているものの、チャットから人種差別やその他の形式の憎しみを根絶するために
多くのことが行われてきたことを認識しています
04:11
to root out racism and other forms of hate
from chat, GP tes responses, manipulation,
53
251159
7531
。 GP テストの応答、操作、
04:18
and hallucination, which means producing content
that is nonsensical or untruthful, essentially
54
258690
7009
幻覚。これは、無意味または虚偽のコンテンツを作成することを意味し
、本質的には
04:25
making stuff up still happen.
55
265699
2791
依然として何かをでっち上げます。
04:28
I'm confident that trial and era plus burgeoning
research in this area will help.
56
268490
6420
私は、この分野での試みと時代、そして急成長している
研究が役に立つと確信しています。
04:34
Okay, so that's the article.
57
274910
2039
さて、それではその記事です。
04:36
So basically, what the journalist is saying
is giving his opinion about the current surge
58
276949
6751
基本的に、ジャーナリストが言っていることは、過去 6 か月ほどで導入され、非常に多くの人が導入された Chat GPT や Bard などの特定のシステムにおける人工知能への関心が
現在高まっていることについて意見を述べているということです。
04:43
in the interest in artificial intelligence
in particular systems such as Chat GPT and
59
283700
6170
04:49
Bard which have been introduced in the last
six months or so and there are lots and lots
60
289870
4400
04:54
of people around the world using it.
61
294270
2680
世界中でそれを使っています。
04:56
But there are also frustrations because the
imp act of Chat GPT and other artificial intelligence
62
296950
6580
しかし、
チャット GPT やその他の人工知能が
05:03
on current jobs is huge.
63
303530
2340
現在の仕事に与える影響は大きいため、不満もあります。
05:05
And people, of course, are panicking and worried
as to what the future will hold for jobs.
64
305870
5010
そして当然のことながら、人々はパニックに陥り、
仕事の将来がどうなるのかを心配しています。
05:10
So this particular journalist believes that
balance is important that yes, these issues
65
310880
5950
つまり、このジャーナリストは、バランスが重要であると信じており
、確かにこれらの問題は
05:16
are there.
66
316830
1809
存在します。
05:18
But we shouldn't be overly concerned.
67
318639
1661
しかし、過度に心配する必要はありません。
05:20
And like everything else, we should learn
to embrace these new developments.
68
320300
4060
そして、他のすべてのことと同様に、私たちは
これらの新しい発展を受け入れることを学ぶ必要があります。
05:24
They happen to be my own opinion, I think
that's actually quite right, that it's senseless
69
324360
4690
これらはたまたま私自身の意見であり、
それは実際に全く正しいと思います。
05:29
and difficult to push them aside and ban them
or try to ban them because they will be there
70
329050
5709
彼らを押しのけて禁止したり、どうせ
そこにいるからといって禁止しようとするのは
05:34
anyway.
71
334759
1000
無意味で難しいということです。
05:35
So we might as well embrace what is there
and tried to work for the good and the better
72
335759
4821
したがって、私たちはそこにあるものを受け入れ、すべての人にとって
良いこと、より良いことのために働こうと努めたほうがよいでしょう
05:40
of everyone.
73
340580
1000
。
05:41
Okay, so et me read it to you a second time
a little bit more slowly.
74
341580
3680
では、もう一度、
もう少しゆっくり読んであげましょう。
05:45
Okay, so that you can understand it.
75
345260
2020
わかりました、理解できるように。
05:47
And then I'll give you a meaning of the words
that I've highlighted.
76
347280
4509
そして、強調表示した単語の意味を説明します
。
05:51
AI tools like Chat GPT are everywhere.
77
351789
3671
Chat GPT のような AI ツールはどこにでもあります。 AI テクノロジーの急増を
05:55
It is the combination of computational power
and availability of data that has led to a
78
355460
5690
もたらしたのは、計算能力とデータの可用性の組み合わせです
06:01
surge in AI technology.
79
361150
1970
。
06:03
But the reason models such as Chat GPT and
Bard have made such a spectacular splash is
80
363120
7240
しかし、Chat GPT や
Bard などのモデルがこれほど大きな話題を呼んだ理由は、
06:10
that they have hit our own homes, with around
100 million people currently using them.
81
370360
7040
それらが私たちの家庭に浸透し、
現在約 1 億人が使用しているからです。
06:17
This has led to a very fraught public debate,
it is predicted that a quarter of all jobs
82
377400
5840
これは非常に複雑な公的議論を引き起こし、
全仕事の4分の1が
06:23
will be affected one way or another by AI
and some companies are holding back on recruitment
83
383240
6859
何らかの形でAIの影響を受けると予測されており、
一部の企業は
06:30
to see which jobs can be automated.
84
390099
3630
どの仕事が自動化できるかを見極めるため採用を控えている。
06:33
fears about AI can move markets.
85
393729
1691
AI に対する懸念が市場を動かす可能性があります。
06:35
And as we saw yesterday, when Pearson shares
tumbled over concerns that AI would disrupt
86
395420
7339
そして昨日見たように、
AIがビジネスを破壊するのではないかという懸念からピアソン株が急落した
06:42
its business.
87
402759
1961
。
06:44
And looming about the day to day debate, or
the sometimes apocalyptic warnings about the
88
404720
5810
そして、AIテクノロジーの長期的な危険性についての日々の議論や、
時には黙示録的な警告が迫ってきており、
06:50
long term dangers of AI technologies, often
from loud and arguably authoritative voices
89
410530
7099
多くの場合、
06:57
belonging to executives and researchers who
developed these technologies.
90
417629
5741
これらのテクノロジーを開発した企業幹部や研究者に属するおそらく権威ある大声からの警告が発せられます。
07:03
So are people right to raise the spectre of
apocalyptic AI driven destruction?
91
423370
7139
それでは、人々が
終末論的な AI による破壊の恐怖を煽るのは正しいのでしょうか?
07:10
In my view?
92
430509
1000
私からしてみれば?
07:11
No.
93
431509
1000
いいえ、
07:12
I agree that there are some sobering risks.
94
432509
2861
いくつかの重大なリスクがあることに同意します。
07:15
But people are beginning to understand that
these are socio technical systems that is
95
435370
6060
しかし人々は、
これらが
07:21
not just neutral tools, but an inextricable
bundle of code, data, subjective parameters,
96
441430
7180
単なる中立的なツールではなく、
コード、データ、主観的パラメータ、および
07:28
and people.
97
448610
1340
人々の分かちがたい束である社会技術システムであることを理解し始めています。
07:29
AI's end users and the direction it develops,
aren't inevitable, and addressing the risks
98
449950
7490
AI のエンド ユーザーと AI の発展の方向性は
避けられないものではなく、
07:37
of AI isn't simply a question of stop or proceed.
99
457440
5729
AI のリスクへの対処は単に停止するか続行するかという問題ではありません。
07:43
Companies are aware of these issues as they
work on new systems.
100
463169
3451
企業は新しいシステムに取り組む際に、これらの問題を認識しています
。
07:46
Open AI, the company behind Chat GPT sums
them up pretty well.
101
466620
6609
Chat GPT を開発した Open AI は、
これらを非常にうまくまとめています。 チャット GPT からの
07:53
It recognises that while a lot has been done
to root out racism, and other forms of hate
102
473229
6090
人種差別やその他の形態の憎悪を根絶するために多くの努力が行われてきた一方で、
07:59
from Chat GPT is responses, manipulation and
hallucination, which means producing content
103
479319
6831
応答、操作、
幻覚など、
08:06
that is nonsensical or untruthful essentially
made up still happen.
104
486150
6220
本質的にでっち上げられたナンセンスまたは虚偽のコンテンツの作成が
依然として発生していることを認識しています。 この分野での
08:12
I'm confident that trial and error plus burgeoning
research in this area will help.
105
492370
6669
試行錯誤と急成長する
研究が役立つと私は確信しています。
08:19
Okay, so there's the article as I explained
before, just the argument that's going on
106
499039
5051
さて、前に説明した記事があります
。最近起こっている議論は、この新しい
08:24
these days between should we or should we
not embrace or try to ban all of this new
107
504090
6770
08:30
issues this new media this new these new platforms
such as Chat GPT and Bard, okay, so the words
108
510860
6710
問題、この新しいメディア、新しいメディア、
Chat GPT や Bard などの新しいプラットフォームのすべてを受け入れるべきか、受け入れるべきではないか、あるいは禁止しようとするべきかという議論です。 、はい、強調
08:37
that I've highlighted.
109
517570
2410
表示した単語です。
08:39
The first word is computational, computational,
so just be careful with the pronunciation,
110
519980
6770
最初の単語は computational、computational
なので、発音には注意してください。
08:46
okay?
111
526750
1450
08:48
Computational.
112
528200
1440
計算的。
08:49
Computational means about calculating something.
113
529640
2910
Computational とは、何かを計算することを意味します。
08:52
Okay.
114
532550
1000
わかった。
08:53
So when you calculate how much you need, it's
a computation.
115
533550
3880
したがって、どれだけ必要かを計算するとき、それは
計算になります。
08:57
You carried out a computation and of course,
all the algorithms that we use computational
116
537430
6230
あなたは計算を実行し、もちろん、
09:03
power to identify how to use these particular
artificial intelligence platforms, computational.
117
543660
9589
これらの特定の人工知能プラットフォームを計算的に使用する方法を特定するために、私たちが計算能力を使用するすべてのアルゴリズムを実行しました
。
09:13
Second word surge, and we have it here led
to a surge and AI technology, a surge means
118
553249
6710
2番目の言葉はサージですが、ここでは
サージとAI技術を結び付けていますが、サージとは
09:19
a sudden increase.
119
559959
2541
突然の増加を意味します。
09:22
So if there's a power blackout in certain
countries, it's often because there has been
120
562500
5440
したがって、特定の国で停電が発生する場合
、それは多くの場合、
09:27
a surge in demand.
121
567940
1820
需要の急増が原因です。
09:29
So in particularly cold winters, people switch
on their heating.
122
569760
5150
そのため、特に寒い冬には、人々は暖房のスイッチを入れます
。
09:34
As a result, there's a surge in demand for
electricity, and that might result in a blackout.
123
574910
5730
その結果、電力需要が急増し
、停電が発生する可能性があります。
09:40
So surge as a sudden increase.
124
580640
2990
したがって、急増は突然の増加です。
09:43
Or if there's heavy rains and floods in a
river there may be a surge of water a sudden
125
583630
6519
あるいは、川に大雨と洪水がある場合、
水の急増があるかもしれません、洪水を
09:50
increase in the flow of the water that causes
flooding, surge, so it's a noun, okay?
126
590149
6190
引き起こす水の流れの突然の増加
、サージ、つまり名詞ですよね?
09:56
And for pronunciation.
127
596339
2351
そして発音に関しても。
09:58
Take the word around.
128
598690
1320
言葉をそのまま受け入れましょう。
10:00
Ah, and just put the s on the front of it,
surge, a surge in demand.
129
600010
5639
ああ、その前に s を付けてください。
急上昇、需要の急増です。
10:05
Okay.
130
605649
1000
わかった。
10:06
Third word frought fraught.
131
606649
3491
3番目の単語frought frought。
10:10
Now think of the word taught, teach taught.
132
610140
4810
ここで、「教えられた」、「教えられた」という言葉について考えてみましょう。
10:14
And now from fraught.
133
614950
1730
そして今、緊張から。
10:16
So get your pronunciation.
134
616680
3030
それで発音を身につけてください。
10:19
In the article, we have this has led to a
very fraught, public debate.
135
619710
5490
記事では、これが
非常に困難を伴う公的議論を引き起こしたと述べています。 「
10:25
Fraught means very difficult, very niggly,
very argumentative.
136
625200
5620
Fraught」とは、非常に難しい、非常に厄介な、
非常に理屈っぽいという意味です。
10:30
It's not everybody in agreement with each
other people are arguing on one side, other
137
630820
5450
誰もがお互いに同意しているわけではなく、
一方の側で議論している人もいれば、もう
10:36
people are arguing on the other side.
138
636270
1910
一方の側で他の人が議論しているのです。
10:38
So, it is fraught, it means it is difficult,
and we have this expression in English fraught
139
638180
6159
つまり、それは困難を伴います、それは困難であることを意味します、
そして私たちは英語でこの表現を持っています 困難を伴います
10:44
with difficulties, there are problems.
140
644339
2551
、問題があります。
10:46
So it's not an easy passage, it's not going
to be smooth.
141
646890
3790
したがって、それは簡単な経過ではなく、
スムーズではありません。
10:50
It's fraught, public debate or fraught, public
opinion.
142
650680
6090
それは、世論や議論、あるいは
世論に問題を抱えています。
10:56
Number four to hold back on.
143
656770
3509
抑えるべき4番。
11:00
In the article we said companies are holding
back on recruitment.
144
660279
3500
記事の中で、企業が採用を控えていると述べました
。
11:03
So to hold back on something is to delay.
145
663779
3571
したがって、何かを我慢することは遅らせることです。
11:07
Okay, so companies are holding back on recruitment,
because they want to see can they get away
146
667350
5120
企業が採用を控えているのは、人材を採用せずに人工知能だけを使用するだけで
済むかどうかを知りたいからです。
11:12
without recruiting people and just use artificial
intelligence, of course, it will go straight
147
672470
5489
もちろん、それは
11:17
to the bottom line.
148
677959
1291
最終的な結果に直結します。
11:19
So to hold back on something means to prevent
it from being issued.
149
679250
4580
したがって、何かを保留するということは、
それが発行されないようにすることを意味します。
11:23
So perhaps is an article and the publisher
said, No, let's hold back on publishing that
150
683830
5280
つまり、記事があり、出版社は「
いいえ、その記事の公開を数日間控えましょう」と言ったのです。
11:29
article for a few days, meaning, let's delay
publishing that article for a few days to
151
689110
5979
つまり、
その記事の公開を数日間遅らせて差し控えましょうという意味です
11:35
hold back on.
152
695089
1891
。
11:36
And of course, if you do like this particular
lesson, then please like the video, and if
153
696980
5530
そしてもちろん、このレッスンが気に入ったら
、ビデオを「いいね!」してください。また、本当に役立つので
11:42
you can subscribe to the channel because it
really, really helps.
154
702510
5080
チャンネル登録もしていただけますか
。
11:47
To tumble over.
155
707590
1350
転倒すること。
11:48
Okay, now, here we're talking about financial
aspects, the shares and a leading publishing
156
708940
5560
さて、ここで私たちは財務
面、株式、そして
11:54
company called Pearson, the shares tumbled
over concerns so they tumbled mean, they fell.
157
714500
7940
ピアソンと呼ばれる大手出版社について話していますが、株価は懸念から急落しました。
つまり、下落したということです。
12:02
So in something tumbles, it falls, so the
value of the shares fell over the concerns
158
722440
6130
つまり、何かが転落すれば、それは下落するので、人工知能とそれが会社のビジネスに与える影響に関する
懸念により、株式の価値は下落しました
12:08
about artificial intelligence and its impact
on the company's business.
159
728570
4310
。
12:12
So they, this is the reason why the shares
fell, they tumbled over concerns that AI would
160
732880
6750
つまり、彼ら、これが株価
下落の理由であり、AI (
12:19
and here's the next word, disrupt their business.
161
739630
3950
次の言葉です) がビジネスを混乱させるのではないかという懸念に陥ったのです。
12:23
So when something is disrupted, so it doesn't
stop completely, but it is made more difficult.
162
743580
7090
つまり、何かが中断されると、
完全に停止するわけではありませんが、より困難になります。
12:30
So businesses disrupted.
163
750670
1710
それでビジネスは中断されました。
12:32
So for example, if there was a train strike,
or a strike by doctors, then travelling and
164
752380
7790
したがって、たとえば、電車のストライキ
や医師のストライキがあった場合、
12:40
trains will be difficult because it will be
disrupted, you're not sure whether your train
165
760170
4800
電車が
12:44
is running or not.
166
764970
1630
運行しているかどうかがわからないため、旅行や電車の移動が困難になります。
12:46
Or if you have to have an operation to get
your knee replaced, or whatever it might be.
167
766600
4799
または、
膝を置換する手術を受ける必要がある場合、またはそれが何であれ。
12:51
If there are no doctors, then the operations
the shedule of operations will also be disrupted.
168
771399
5421
医師がいなければ、手術
スケジュールにも支障が生じます。
12:56
Some will happen, some will not.
169
776820
1800
起こるものもあれば、起こらないものもあります。
12:58
So when we disrupt something, we cause problems,
difficulties, it doesn't stop entirely, but
170
778620
6640
ですから、私たちが何かを混乱させると、問題や困難が生じますが
、それが完全に止まるわけではありませんが、
13:05
it's not easy to get things done.
171
785260
1949
物事をやり遂げるのは簡単ではありません。
13:07
So not easy to travel.
172
787209
1370
だから旅行するのは簡単ではありません。
13:08
During a train strike, there will be a lot
of disruption, not easy to have normal, everyday
173
788579
5570
列車ストライキが発生すると、多く
の混乱が発生し、病院で通常の日常業務を行うのは容易ではありません
13:14
operations in the hospital.
174
794149
1880
。
13:16
When there's a doctor strike, it will cause
some disruption.
175
796029
3531
医師のストライキが起こると、混乱が生じるでしょう
。
13:19
Okay.
176
799560
1000
わかった。
13:20
Now, the next word we have is looming.
177
800560
3080
さて、次の言葉が迫っています。
13:23
Okay?
178
803640
1000
わかった?
13:24
So, and looming above the day-to-day debate.
179
804640
2879
そして、この問題は日々の議論の上に迫っています。
13:27
So when something looms, it's sort of hanging
there, waiting to fall.
180
807519
6321
つまり、何かが迫ってくると、それは
そこにぶら下がって落ちるのを待っているようなものです。
13:33
For example, if you're looking out the window,
whether called October, November day, there
181
813840
6170
たとえば、
10 月、11 月の日であっても、窓の外を見ていると、周囲に
13:40
might often be some fog around so the fog
looms over the streets sort of just hangs
182
820010
6579
霧が発生していることがよくあります。そのため、霧が
通りの上に迫っており、ただそこにぶら下がっているだけで、
13:46
there and makes it very difficult for you
to see through that fog, it looms or if something
183
826589
6500
その霧を通して見ることが非常に困難になります。 、それが迫っている、または何かが
13:53
looms, it's just hang in there and you're
waiting for something to happen.
184
833089
4000
迫っている場合は、ただそこに耐えて、
何かが起こるのを待っています。
13:57
So if a factory or a business is going to
close or there are concerns or rumours that
185
837089
6071
つまり、工場や企業が閉鎖されたり、
14:03
the company has financial difficulties, then
there's looming over the city, this uncertainty
186
843160
6599
会社が経営難に陥っているという懸念や噂が流れたりすると、人々が職を失うかどうかの
不確実性が街に迫ってきて、
14:09
whether people are going to lose their job
so looms something that just hangs there.
187
849759
5431
そこにただぶら下がっている何かが迫ってきます。
14:15
And in the article we said, and looming above
the day-to-day debate, so something was in
188
855190
6180
そして、記事の中で私たちはこう言いました、そして、日々の議論の上に迫っている
ので、何かが
14:21
the air hanging their over their heads, like
a big weight waiting to fall.
189
861370
5670
空中にあり、まるで
落ちるのを待っている大きな重しのように彼らの頭上にぶら下がっていました。
14:27
Okay, looms.
190
867040
1710
さて、織機が始まります。
14:28
Number eight, the next word is sobering.
191
868750
2779
8番目、次の言葉は身の引き締まる思いです。
14:31
In the article we say, I agree that there
are some sobering risks sober is when you're
192
871529
7120
この記事で私たちが述べているのは、シラフにはいくつかのリスクがあるということに同意します。シラフとは
14:38
not affected by alcohol, you're sober, but
sobering risks are risks that make you sit
193
878649
6941
アルコールの影響を受けていないときであり、シラフですが、
シラフのリスクとは、座っ
14:45
up and think.
194
885590
1150
て考えさせられるリスクのことです。
14:46
Okay, so in this article, they're talking
about the possible apocalyptic destruction
195
886740
6700
さて、この記事では、人工知能が引き起こす
終末的な破壊の可能性について話しています
14:53
that artificial intelligence will cause.
196
893440
2930
。
14:56
And this person writing the article says they
don't agree with this but there are some sobering
197
896370
6380
そして、記事を書いているこの人は、
これには同意しないが、いくつかの深刻な
15:02
risks meaning there are some risks that you
really need to think about.
198
902750
4000
リスクがある、つまり
本当に考慮する必要があるリスクがあると述べています。
15:06
You can't just avoid them and put your head
in the sand.
199
906750
3120
単にそれらを避けて砂に頭を突っ込むことはできません
。
15:09
So sobering risks, risks that are out there
that are real and you need to think about.
200
909870
6290
厳粛なリスク、
現実に存在し、考慮する必要があるリスクです。
15:16
The next word inextricable now here, just
want to focus on the pronunciation first of
201
916160
6460
次の単語 inextricable です。
まず第一に、発音に焦点を当てたいと思います
15:22
all, okay, so inextricable, inextricable,
inextricable, inextricable inextricable inextricable,
202
922620
10250
。わかりました。とても、分りきれない、分り切れない、分り切れない、分り切れない、分り切れない
、分り
15:32
inextricable Now, what does it mean?
203
932870
7219
切れない、では、これはどういう意味ですか?
15:40
Inextricable means something that cannot be
separated.
204
940089
3310
不可分とは、切り離せないものを意味します
。
15:43
Okay.
205
943399
1000
わかった。
15:44
And the article they say this is that is not
just neutral tools, but an inextricable bundle
206
944399
8190
そして、彼らが言うこの記事は、
単なる中立的なツールではなく、
15:52
of code data, subjective parameters, and people,
meaning these things cannot be separated.
207
952589
6901
コードデータ、主観的なパラメーター、および人々の分かちがたい束であり、
これらは分離できないことを意味します。
15:59
It's all part of the same problem, the problem
about artificial intelligence, they're inextricable
208
959490
6000
それはすべて同じ問題の一部であり、
人工知能に関する問題であり、それらは切り離せないものであり、
16:05
all the issues are inextricable, they cannot
be separated.
209
965490
4200
すべての問題は切り離せないものであり、切り離すことはできません
。
16:09
Okay.
210
969690
1000
わかった。 ある
16:10
In countries often we talk about the inextricable
link between state and church where often
211
970690
7430
国々では、国家と教会の切っても切れない関係についてよく話されますが、
そこでは
16:18
you know what the church does, what the state
does are exactly the same.
212
978120
3800
教会が何をしているのか、国家が何をしているのかは
全く同じであることがよくあります。
16:21
So this inextricable link, okay, so we have
to be really careful about the pronunciation.
213
981920
6420
この切っても切れない関係なので、
発音には細心の注意を払う必要があります。
16:28
And then also to get the correct meaning inextricable.
214
988340
4220
そして、分かちがたい正しい意味を理解することもできます。
16:32
Next word inevitable, little bit easier to
pronounce inevitable.
215
992560
3690
次の単語「必然」、「
必然」を少し発音しやすくします。
16:36
And here in the article, we say, the use of
artificial intelligence at the end of the
216
996250
5910
そしてこの記事では、
最終的には人工知能の使用
16:42
day, and the direction in which it develops
aren't inevitable.
217
1002160
3869
とその発展の方向性は
避けられない、と述べています。
16:46
So inevitable means something that this is
going to happen no matter what.
218
1006029
4601
つまり、避けられないということは、
何が起こってもそれが起こるということを意味します。
16:50
So, you know, the end of the day is always
inevitable, we get up in the morning at seven
219
1010630
4720
つまり、一日の終わりは常に
避けられないもので、私たちは朝 7 時
16:55
or 8am.
220
1015350
1409
か 8 時に起きます。
16:56
The surest thing is that we will go to bed
it when it's dark at 10, 11, or 12.
221
1016759
5861
最も確実なのは、
10時、11時、または12時に暗くなったら寝るということです。
17:02
So the day at the end of the day is inevitable,
you can't stop it happening.
222
1022620
4420
つまり、1日の終わりの日は避けられ
ず、それが起こるのを止めることはできません。
17:07
In the article, they say, this change isn't
inevitable, meaning it doesn't have to be
223
1027040
5169
記事の中で彼らは、この変化は避けられない
、つまり必ず
17:12
something that will happen, but we can make
changes.
224
1032209
4031
起こるものである必要はないが、
変えることはできる、と述べている。
17:16
So inevitable is something that is always
going to happen inevitable.
225
1036240
5070
つまり、必然とは、常に
必然的に起こることです。
17:21
As soon as night follows day, it's inevitable.
226
1041310
3570
昼の後に夜が来ると、それは避けられません。
17:24
We are born, we live we die, it's inevitable.
227
1044880
6000
私たちは生まれ、生き、死ぬことは避けられません。
17:30
That certain things in life that are inevitable
life, death, and taxes was a famous quotation.
228
1050880
5890
人生において避けられない、
生、死、税金についての名言は有名です。
17:36
So the people are born, people die, and people
pay taxes inevitable, okay.
229
1056770
5550
つまり、人々は生まれ、死に、そして
税金を支払うのは避けられないのです。
17:42
And the next expression would have to root
out something, okay.
230
1062320
5010
そして、次の式では何かを根絶する必要があります
。
17:47
And here, they say to root out racism.
231
1067330
2630
そしてここで彼らは人種差別を根絶すると言っています。
17:49
So to root out something means to get rid
of it, okay.
232
1069960
3910
つまり、何かを根絶するということは、それを取り除くことを意味します
。
17:53
So if you're digging in the garden, and you
dig up a big tree, you literally root it out,
233
1073870
6530
つまり、庭を掘っていて
大きな木を掘り出すと、文字通り根を抜くことになります。
18:00
meaning you dig up all the roots that hold
the tree into the ground, or you've got a
234
1080400
6370
つまり、木を地面に支えている根をすべて掘り起こすことになります
。あるいは、
18:06
problem in your office or you've got a problem
in the school, you try to root out the cause
235
1086770
5580
オフィスやオフィスに問題が発生した場合、
学校で問題が起きたとき、あなたは問題の原因を根絶しようとします
18:12
of the problem.
236
1092350
1000
。
18:13
You know, if there's somebody who's been disruptive,
you might tell them, they need to find some
237
1093350
4990
ご存知のように、もし妨害行為をした生徒がいたら、
あなたは彼らに、
18:18
other place to work all this a pupil who's
been disruptive, you might send him home from
238
1098340
5520
この妨害行為をした生徒を働かせるための他の場所を見つける必要がある、と言うかもしれません。あるいは、その生徒
を
18:23
school for a few days or a few weeks, or tell
the parents that this child is causing problems.
239
1103860
5500
数日か数週間学校から帰すか、あるいはこう言うかもしれません。
この子が問題を起こしていると親たちに。
18:29
And we have to root out bullying or racism
within the school.
240
1109360
4250
そして学校内でのいじめや人種差別を根絶しなければなりません
。
18:33
And if the child doesn't improve the behaviour,
then they will be asked to leave.
241
1113610
4520
そして、子供が態度を改善しない場合、
彼らは退場するよう求められます。
18:38
So to root out something is to get rid of
it, dig it up and throw it out, to root out.
242
1118130
7320
したがって、何かを根絶するということは
、それを取り除き、掘り起こして捨て、根を抜くことです。
18:45
And then number 12.
243
1125450
1870
そして 12 番です。
18:47
To make up in the article says to make up
stuff.
244
1127320
4180
記事の中で「補う」とは、「補う」と書かれています
。
18:51
We make up stories.
245
1131500
1210
私たちは物語を作ります。
18:52
Kids make up stories all the time.
246
1132710
2480
子どもたちはいつも物語を作ります。
18:55
They make up little friends that don't really
exist.
247
1135190
3760
彼らは実際には存在しない小さな友達を作ります
。
18:58
They make up stories, why they didn't do their
homework, they make up stories, why they don't
248
1138950
4390
彼らは、なぜ宿題をしなかったのか、頭が痛いから、おなかが痛いから学校に行きたく
ないのかと、話をでっち上げます
19:03
want to go to school because they've got a
headache or a pain in the tummy.
249
1143340
3380
。
19:06
So people are constantly making up stuff,
making up stories that are not really true,
250
1146720
5970
そのため、人々は常に何かをでっち上げ、実際には
真実ではない話をでっち上げ、
19:12
either to impress somebody, or to get something
that they want to make up in our article here
251
1152690
6119
誰かを感動させたり、
ここの記事ででっち上げたい何かを手に入れたりして、彼らが根絶しようとした
19:18
that talking again about this whole Chat GPT
where they tried to root out racism and also
252
1158809
6561
このチャットGPT全体について再び話します 人種
差別、そして実際には真実ではない
19:25
this idea where people make up stories that
are not really true, but people for some strange
253
1165370
5150
話をでっち上げているのに
、何らかの奇妙な
19:30
reason believe it.
254
1170520
1280
理由でそれを信じてしまうという考えもあります。
19:31
Okay, so to root out those people making stuff
up or making up stuff.
255
1171800
5500
さて、それでは、でっちあげたりでっち上げたりする人たちを根絶することです
。
19:37
And then finally, we have another word quite
difficult on the tongue for pronunciation.
256
1177300
5940
そして最後に、発音が非常に難しい単語がもう 1 つあります
。
19:43
Burgeoning, burgeoning.
257
1183240
2280
急成長、急成長。
19:45
Now make sure you've got the g sound burgeoning.
258
1185520
4540
ここで、G 音が急成長していることを確認してください。
19:50
Yeah.
259
1190060
1030
うん。
19:51
Okay.
260
1191090
1030
わかった。
19:52
So it's like, again, the word urge, got a
g.
261
1192120
3950
つまり、またしても「衝動」という言葉にgがついたようなものです
。
19:56
Urge.
262
1196070
1000
衝動。
19:57
And then burge burgeoning.
263
1197070
1930
そしてバージニアが急成長します。
19:59
Okay, now burgeoning means growing quickly
or developing or expanding.
264
1199000
6100
さて、急成長とは、急速に成長すること、
発展または拡大することを意味します。
20:05
So here they're talking about, I am confident
that trial and error plus burgeoning research,
265
1205100
7290
彼らがここで話しているのは、
試行錯誤と急成長する研究、この分野
20:12
lots of increasing or growing research in
this area will help.
266
1212390
4690
での多くの増加または成長する研究が
役立つと私は確信しているということです。
20:17
Okay, so we might have a burgeoning economy,
an economy that started off small, but year
267
1217080
7500
そうですね、私たちは急成長している経済、最初は
小規模だった経済が
20:24
by year is getting bigger and bigger and bigger
burgeoning.
268
1224580
3380
年々大きくなり、さらに大きく急
成長しているかもしれません。
20:27
So let me give you the pronunciation.
269
1227960
2820
それでは発音を教えてください。
20:30
Again, burgeoning, burgeoning, burgeoning,
burgeoning.
270
1230780
6170
再び、急成長、急成長、急成長、急
成長。
20:36
Okay, so a burgeoning economy, burgeoning
research.
271
1236950
4410
そうですね、経済は急成長し、研究も急成長しています
。
20:41
Okay, so they're their words, we have 13 In
total, let me run through them again, quickly.
272
1241360
7500
さて、これらは彼らの言葉です。合計 13 個あります
。もう一度簡単に説明しましょう。
20:48
Computational search, fraught, to hold back
on, to tumble over, to disrupt, to loom or
273
1248860
12720
コンピュータによる検索は、困難を伴い、
我慢し、転倒し、混乱し、迫り来る、迫り来る、
21:01
looming, sobering, inextricable, inevitable,
to root out, to make up stuff, and then finally
274
1261580
13620
厳粛で、切り離すことができず、避けられず、
根絶し、でっちあげ、そしてついに急
21:15
burgeoning.
275
1275200
1000
成長します。
21:16
Okay, so hopefully you've enjoyed that particular
article, AI and all this issue about Chat
276
1276200
5380
さて、
チャット GPT に関する記事、AI、およびこの問題すべてを楽しんでいただければ幸いです
21:21
GPT.
277
1281580
1000
。
21:22
Chat GPT is really top of the agenda these
days, everybody is talking about it.
278
1282580
4870
Chat GPT は最近本当に議題のトップにあり
、誰もがそれについて話しています。
21:27
You know, everybody is looking out for it.
279
1287450
2540
ご存知のように、誰もがそれを探しています。
21:29
Everybody's practising.
280
1289990
1000
みんな練習してるよ。
21:30
We tried it ourselves here just to see what
we could get.
281
1290990
2870
ここでは、何が得られるかを確認するために、自分たちで試してみました
。
21:33
And the results are quite, quite amazing.
282
1293860
2290
そしてその結果は、実に驚くべきものでした。
21:36
Okay, so if there's anything else that you
require in relation to this article, or the
283
1296150
4620
さて、
この記事、または冒頭で述べたように
21:40
words or the phrase of the expressions, as
I said at the beginning, give me a call, send
284
1300770
4280
表現の単語やフレーズに関して他に何か必要なことがあれば、
電話か
21:45
me an email, and we'll try to help you out.
285
1305050
2330
メールを送ってください。お手伝いさせていただきます。 あなたはアウトです。
21:47
Okay, this is Harry's always thanking you
for listening and for watching, and remember,
286
1307380
4049
はい、ハリーはいつも
聞いてくれて、見てくれてありがとうと言っています。忘れずに、
21:51
join me for the next lesson.
287
1311429
1220
次のレッスンに参加してください。
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。