Advanced English VOCABULARY lesson | Learn English with the News
78,182 views ・ 2023-04-19
下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
01:14
Okay, so this is an article based on a very
topical idea at the moment about all this
0
74940
7080
わかりました。これは、
このすべての
01:22
artificial intelligence and, in particular, about
this chat GPT. Yeah, okay, so I'll read it to you
1
82020
7740
人工知能、特に
このチャット GPT について、現時点で非常に話題になっているアイデアに基づいた記事です。 ええ、わかりました。2 回読み上げます
01:29
twice: once, to give you the gist, and the second
time to go through the words. So here we go.
2
89760
6540
。1 回目は要点を説明するため、2
回目は単語を確認するためです。 それでは、行きましょう。 親会社の市場価値が急落し続けているため、専門家によると、
01:37
The type of factual error that blighted
the launch of Google's artificial
3
97380
5460
Google の人工
01:42
intelligence-powered chatbot will carry on
troubling companies using the technology,
4
102840
6180
知能を利用したチャットボットの立ち上げを台無しにしたタイプの事実誤認は、
この技術を使用している企業を悩ませ続けるでしょう
01:49
experts say, as the market value of its parent
company continues to plunge. Shareholders were
5
109020
8040
。 株主は、
01:57
rattled after it emerged that a video demo
of Google's rival to the Microsoft-backed
6
117060
6720
Microsoft が支援するチャット GPT チャットボットに対する Google のライバルのビデオ デモに、
02:03
chat GPT chatbot contained a flawed response to a
question about NASA's James Webb Space Telescope.
7
123780
9420
NASA の James Webb Space Telescope に関する質問に対する誤った回答が含まれていることが明らかになり、動揺しました。
02:13
The animation showed a response from the program
called Bard, stating that the JWST, James Webb
8
133920
8220
アニメーションはバードと呼ばれるプログラムからの応答を示し
、JWST のジェームズ ウェッブ
02:22
Space Telescope, took the very first pictures
of a planet outside of our own solar system,
9
142140
6840
宇宙望遠鏡が太陽系外の惑星の最初の写真を撮影したことを示し
、
02:28
prompting astronomers to point out that this
was untrue. Google said the error underlined
10
148980
7500
天文学者にこれが
真実ではないことを指摘するよう促しました。 Google によると、このエラーは、今後数週間に予定されている
02:36
the need for the rigorous testing that Bard is
undergoing before a wider release to the public,
11
156480
6480
一般公開の前に、Bard が受けている厳格なテストの必要性を強調していると述べています
02:42
which has been scheduled for the coming weeks. A
presentation of Google's AI-backed search plans
12
162960
8100
。 水曜日の
Google の AI 支援型検索計画のプレゼンテーションも、
02:51
on Wednesday also failed to reassure shareholders.
This week, Microsoft, a key backer of chat GPT's
13
171060
8760
株主を安心させることができませんでした。
今週、チャット GPT の開発者である OpenAI の主要な支援者である Microsoft は、
02:59
developer OpenAI, announced it was integrating the
chatbot technology into its Bing search engine.
14
179820
7800
チャットボット技術を Bing 検索エンジンに統合すると発表しました。
03:07
Google also plans to integrate the technology
behind Bard into its search engine. Both Bard
15
187620
8100
Google は、Bard の背後にある技術を検索エンジンに統合することも計画しています
。 Bard
03:15
and chat GPT are based on large language models,
a type of artificial neural network, which are
16
195720
7560
とチャット GPT はどちらも、人工ニューラル ネットワークの一種である大規模言語モデルに基づいており
、テキストベースのプロンプトに対する応答を生成する方法を教えるプロセス
03:23
fed vast amounts of text from the internet in
a process that teaches them how to generate
17
203280
6780
で、インターネットから膨大な量のテキストが供給されます
03:30
responses to text-based prompts. Chat GPT became a
sensation after its launch in November last year,
18
210060
8220
。 チャット GPT は、
昨年 11 月に開始された後、単一のシンプルなプロンプトから
03:38
as it composed recipes, poems, work presentations,
and essays from single, simple prompts.
19
218280
8460
レシピ、詩、作品のプレゼンテーション、エッセイを作成したため、センセーションを巻き起こしました
。
03:48
Okay, so that's the article. Let
me read it again to you a little
20
228000
3780
さて、それで記事です。
もう一度ゆっくりと読み上げさせてください
03:51
bit more slowly. And then we'll look at the words.
The type of factual error that blighted the launch
21
231780
6240
。 そして、言葉を見ていきます。 専門家によると、
03:58
of Google's artificial intelligence-powered
chatbot will carry on troubling companies
22
238020
6240
Google の人工知能を利用した
チャットボットの立ち上げを台無しにしたタイプの事実誤認は、親会社の
04:04
using the technology, experts say, as the market
value of its parent company continues to plunge.
23
244260
8580
市場価値が急落し続けているため、テクノロジーを使用している企業を悩ませ続けるでしょう
。
04:13
Shareholders were rattled after it emerged
that a video demo of Google's rival to the
24
253380
6600
株主は、Microsoft が支援するチャット GPT チャットボット
に対する Google のライバルのビデオ デモに、
04:19
Microsoft-backed chat GPT chatbot contained a
flawed response to a question about NASA's James
25
259980
8460
NASA の James Webb Space Telescope に関する質問に対する誤った回答が含まれていることが明らかになり、動揺しました
04:28
Webb Space Telescope. The animation showed
a response from the program called Bard,
26
268440
7140
。 アニメーションは
Bard と呼ばれるプログラムからの応答を示し、
04:35
stating that the JWST, James Webb Space
Telescope, took the very first pictures of a
27
275580
8760
JWST である James Webb Space
Telescope が 太陽系外の惑星の最初の写真を撮影したことを示し
04:44
planet outside of our own solar system, prompting
astronomers to point out that this was untrue.
28
284340
7140
、
天文学者にこれが真実ではないことを指摘するよう促しました。
04:52
Google said the error underlined the need for
the rigorous testing that Bard is undergoing
29
292560
5880
Google は、エラーは、今後数週間に予定されている一般公開の前に、Bard が受けている厳格なテストの必要性を強調していると述べました
04:58
before a wider release to the public, which
has been scheduled for the coming weeks.
30
298440
5220
。 水曜日の
05:04
A presentation of Google's AI-backed search plans
on Wednesday also failed to reassure shareholders.
31
304200
8460
Google の AI 支援型検索計画のプレゼンテーションも、
株主を安心させることができませんでした。
05:13
This week, Microsoft, a key backer of chat GPT's
developer OpenAI, announced it was integrating the
32
313500
8700
今週、チャット GPT の開発者である OpenAI の主要な支援者である Microsoft は、
05:22
chatbot technology into its Bing search engine.
Google also plans to integrate the technology
33
322200
7320
チャットボット技術を Bing 検索エンジンに統合すると発表しました。
Google は、Bard の背後にある技術を検索エンジンに統合することも計画しています
05:29
behind Bard into its search engine. Both Bard
and chat GPT are based on large language models,
34
329520
8940
。 Bard
とチャット GPT はどちらも、一種の人工ニューラル ネットワークである大規模な言語モデルに基づいており、
05:38
a type of artificial neural network, which
are fed vast amounts of text from the
35
338460
6780
05:45
internet in a process that teaches them how
to generate responses to text-based prompts.
36
345240
6060
テキストベースのプロンプトへの応答を生成する方法を学習するプロセスでインターネットから膨大な量のテキストが供給されます。
05:52
Chat GPT became a sensation after its launch
in November last year, as it composed recipes,
37
352020
6300
チャット GPT は昨年 11 月にリリースされて以来、センセーションを巻き起こしました。1 つのシンプルなプロンプトから
レシピ、
05:58
poems, work presentations, and
essays from single, simple prompts.
38
358320
6840
詩、作品のプレゼンテーション、
エッセイを作成できるからです。
06:05
Okay, so that's the text. As I said, I've
given you the link below. So here are some
39
365160
4860
さて、それがテキストです。 前述のとおり、
以下のリンクを提供しました。 ここでは、
06:10
of the words that I've highlighted and what they
mean. The first word is "blighted," as in the type
40
370020
6060
強調した単語とその
意味をいくつか紹介します。 最初の単語は「blighted」です。
06:16
of factual error that blighted the launch. When
something is blighted, it is damaged. So, if they
41
376080
7860
打ち上げを台無しにした事実上の誤りのタイプのように。
何かが枯れると、それはダメージを受けます。 そのため、彼らが行っ
06:23
made a mistake, as they did, there was an error,
and it blighted the launch; it damaged the launch,
42
383940
5220
たように、彼らがミスを犯した場合、エラーが発生し、ローンチが台無しになりました
。 打上げに損害を与え、
06:29
and people didn't look too kindly on it.
In effect, it damaged the share price.
43
389160
5880
人々はあまり親切に見てくれませんでした。
事実上、それは株価にダメージを与えました。
06:35
Now, you can blame lots of things. You can
blight a crop by an invasion of insects,
44
395820
5820
今、あなたは多くのことを責めることができます。
昆虫の侵入によって作物を枯死させる可能性がある
06:41
so it's damaged because these insects cause
disease among the crops, or blighted is to damage.
45
401640
6660
ため、 これらの昆虫が
作物に病気を引き起こしたり、枯死したりすることで被害を受けます。
06:50
Next, we have "carry on." This is a simple and
very well-used phrasal verb. So it says here,
46
410520
6900
次に、「続けます」です。 これはシンプルでよく
使われる句動詞です。 ここでは、
06:57
the artificial intelligence-powered chatbot
will carry on troubling companies. To carry
47
417420
7740
人工知能を搭載したチャットボットが
問題を抱えた企業を存続させると書かれています。 続けるとは、
07:05
on means to continue. So, when you carry on
something, you continue—carry on speaking,
48
425160
6300
続けることを意味します。 ですから、何かを続けるときは
、続けます—話し続け、
07:11
carry on listening, carry on with your exercise,
continue. So, when the teacher comes into the
49
431460
6480
聞き続け、運動を続け、
続けます。 そのため、教師が教室に入ってきて
07:17
classroom and tells the kids, "carry on with
what you're doing," she means continue what
50
437940
5160
子供たちに「今し
ていることを続けてください」と言うとき、彼女はあなたがしていることを続けていることを意味します
07:23
you're doing. So this damage, this blight for
Google, will carry on and continue troubling
51
443100
7740
。 したがって、Google にとってのこの損害、この災難は
、
07:30
companies that use this artificial intelligence.
And then, the very last word in this particular
52
450840
7620
この人工知能を使用する企業を悩ませ続けます。
そして、この特定の段落の最後の言葉は
07:38
paragraph says, "will impact the market value of
its parent company as it continues to plunge." To
53
458460
9240
、「急落し続ける親会社の市場価値に影響を与える」と述べています
。 プランジとは、
07:47
plunge means to fall very, very quickly. So,
if the share price was $100 a share and then
54
467700
7260
非常に速く落ちることを意味します。 したがって、
株価が 1 株あたり 100 ドルだったのに
07:54
after this mistake, and after the launch, the
share price went to $60 or $50, then you could
55
474960
7260
、この間違いの後、ローンチ後に
株価が 60 ドルまたは 50 ドルになった場合、
08:02
say the share price has plunged. It has fallen
very, very quickly. So when something falls,
56
482220
6120
株価は急落したと言えます。 非常に急速に下落しています
。 何かが落ちると、
08:08
it plunges; it means it goes down really quickly.
In the next paragraph, shareholders were rattled
57
488340
8460
落ち込みます。 急激に落ちるということです。
次の段落では、
08:16
after it emerged these mistakes. After these
mistakes emerged, when somebody is rattled,
58
496800
6900
これらの間違いが明らかになった後、株主は動揺しました。 これらの
間違いが発生した後、誰かががたがたしているとき、
08:23
it means they're not so sure; they are
a little bit circumspect, or they're a
59
503700
5820
それは確信が持てていないことを意味します。 彼らは
少し慎重であるか、
08:29
little bit nervous. So, if somebody is rattled,
they are unsure about what they should say or
60
509520
7260
少し神経質です。 そのため、だれかががたがたしている場合、
彼らは何を言うべきか、または
08:37
whether they should continue using the service.
So, if shareholders were rattled, it means they
61
517620
5940
サービスを使い続けるべきかどうかについて確信が持てません。
したがって、株主が動揺しているとすれば、それは、株価の突然の下落
08:43
were very unhappy and frightened and scared at the
sudden drop in the share price. They were rattled.
62
523560
7680
に非常に不満を持ち、おびえ、怖がっていたことを意味します
。 彼らはガタガタした。
08:52
And then we use the word "flawed," as in this
GPT chatbot contained a flawed response. A flawed
63
532860
9960
そして、この
GPT チャットボットに欠陥のある応答が含まれていたため、「欠陥あり」という言葉を使用しています。 欠陥のある
09:02
response means a response with a mistake in it.
So, if you write some document and it is flawed,
64
542820
6840
回答とは、回答に誤りがあることを意味します。
そのため、ある文書を作成して欠陥がある場合、
09:09
as you see the spelling there, FLAWED, it
means that there's a fundamental mistake
65
549660
6120
そこにある「FLAWED」というスペルが見られるように、それは、使用している情報に
根本的な間違いがあることを意味します
09:15
in the information that you're using. And then the
example they had: they were using the example that
66
555780
6540
。 そして
彼らが持っていた例: 彼らは
09:22
this telescope took the first images of planets in
our solar system when, in fact, that information
67
562320
8820
この望遠鏡が 太陽系の惑星の最初の画像を撮ったという例を使用していましたが
、実際にはその情報は
09:31
was incorrect. So the statement they made was
flawed. It was inaccurate, it was incorrect.
68
571140
6420
間違っていました。 したがって、彼らの声明には欠陥がありました
。 それは不正確でした、それは間違っていました。
09:38
And then when we use the word "prompting," as
in prompting astronomers, prompting means giving
69
578700
6660
そして、天文学者にプロンプトを表示する場合のように、「プロンプトを表示する」という言葉を使用する場合
、プロンプト表示とは、
09:45
the astronomers an opportunity to come out and
tell them, "No, in fact, you're wrong." So when
70
585360
6600
天文学者に
「いいえ、実際、あなたは間違っています」と言う機会を与えることを意味します。 そのため
09:51
somebody is prompted, they are pushed gently. If
you're standing on the stage and you forget your
71
591960
7440
誰かに促されたとき、そっと押し出されます。
ステージに立っていて、
09:59
words as an actor, somebody on the side of the
stage will prompt you; they will whisper what the
72
599400
6360
俳優としての言葉を忘れてしまった場合、ステージの横にいる誰かが
促します。 彼らは
10:05
words should be, giving you a gentle little
push or a hint. So in this case, when this
73
605760
5700
言葉がどうあるべきかをささやき、あなたに優しく少し
押したりヒントを与えたりします。 したがって、この場合、この
10:11
information was announced and there was obviously
a mistake in it, it prompted, encouraged, and
74
611460
6060
情報が発表され、明らかに間違いがあったとき、
10:17
gave astronomers a bit of a push to come out and
say, "Sorry, guys, you're wrong, you're wrong."
75
617520
5400
天文学者は「
すみません、あなたは間違っています。 間違っている。」
10:23
Now, it says here, they prompted astronomers to
"point out," and when you point out something,
76
623700
6360
さて、ここに書かれているように、彼らは天文学者に
「指摘する」よう促し、何かを指摘するときは
10:30
you indicate it. If you're traveling around a city
on a tourist bus, the tour guide will point out
77
630060
7500
それを示します。 観光バスで街中を旅行している場合
、ツアー ガイドは
10:37
places of interest, showing and indicating to you
the places of interest. So what these astronomers
78
637560
7020
興味のある場所を示し、
興味のある場所を示します。 そのため、これらの天文学者が
10:44
did, they were prompted to point out, to
indicate where and what the mistake was.
79
644580
5520
したことは、どこで何が間違いなのかを指摘するよう促されたのです
。
10:52
Next paragraph, Google said the error underlined
the need for rigorous testing. So when something
80
652440
6780
次のパラグラフで、Google は、エラーが厳格なテストの必要性を強調していると述べました
。 したがって、何かが
10:59
is tested rigorously, it means in great, great
detail. Rigorous means thorough or complete. A
81
659220
8580
厳密にテストされている場合、それは非常に詳細であることを意味します
。 厳格とは、徹底した、完全なという意味です。
11:07
rigorous test would be a thorough, complete test
to make sure there are no mistakes in the future.
82
667800
6480
厳格なテストとは、
将来的に間違いがないことを確認するための徹底的で完全なテストです。
11:14
So what Google will do now that this mistake has
been identified is ensure that the next time they
83
674280
5820
この誤りが
特定された今、Google が行うことは、次回
11:20
launch something, all of the information is
stress-tested to make sure it's accurate and
84
680100
5820
何かを開始するときに、すべての情報が正確であり、
11:25
not going to give any misleading information. So
when you test something rigorously, you go through
85
685920
6720
誤解を招くような情報を提供しないことを確認するためにストレス テストを行うことです。 そのため、
何かを厳密にテストするときは、
11:32
it quite thoroughly. If you buy a new car, you
would expect it to be tested rigorously, with a
86
692640
7380
それを徹底的に調べます。 新しい車を購入した場合、
11:40
thorough test on the car before it's handed over
to you, ensuring that the steering wheel works,
87
700020
5460
車を引き渡す前に徹底的なテストを行い、
ステアリング ホイールが機能すること、
11:45
the locking system works, the brakes work, the
engine works well, and in modern cars, all the
88
705480
5640
ロック システムが機能すること、ブレーキが機能すること、
エンジンが正常に機能することを確認するために、厳密にテストされることを期待するでしょう。 、そして現代の車では、すべての
11:51
technology works. There will be a rigorous, really
detailed testing program on that particular car.
89
711120
7320
テクノロジーが機能します。
その特定の車には、厳密で非常に詳細なテスト プログラムがあります。
11:58
Next, they're going to go through this rigorous
testing before a wider release to the public.
90
718440
7560
次に、
一般公開する前に、この厳格なテストを受けます。
12:06
So what does that mean, a wider release to
the public? The release they had, based on
91
726000
6780
では、それはどういう意味ですか
? この記事に基づいて、彼らが行ったリリースは
12:12
this article, was to a group of journalists
or specialists in that particular area. It
92
732780
4860
、
その特定の分野のジャーナリストまたは専門家のグループに対するものでした。 それは
12:17
was quite an invited guest list, a short, small
list of people they wanted to impress. Of course,
93
737640
6900
かなり招待されたゲスト リストであり、彼らが
感銘を与えたいと思っていた人々の短くて小さなリストでした。 もちろん、
12:24
with a mistake, that didn't impress them so much,
but it was a very narrow range of invitees. A
94
744540
7740
それはあまり印象に残っていませんでしたが、
招待者の範囲は非常に狭かったです。
12:32
wider release to the public means a general
release to everybody. So the whole world will
95
752280
7380
一般へのより広範なリリースとは、すべての人への一般的なリリースを意味します
。 したがって、全世界が
12:39
have the information. A wider release to the
public means making it available to everybody.
96
759660
8340
情報を入手できます。 広く公開するということは、
誰でも利用できるようにすることを意味します。
12:49
And then, at the end of that particular paragraph,
it says that this attempt failed to reassure
97
769140
7440
そして、その特定の段落の最後に、
この試みは株主を安心させることができなかったと述べています
12:56
shareholders. "Failed to reassure" means it
doesn't succeed in giving people peace of mind;
98
776580
9300
。 「安心できなかった」とは、
人々に安心感を与えることに成功していないことを意味します。
13:08
they're still uncertain, unclear, and nervous.
So when you fail to reassure somebody, they
99
788040
6300
彼らはまだ不確かで、不明確で、緊張しています。
そのため、誰かを安心させることができなかった場合、情報を
13:14
don't feel any better after you've given them the
information. Okay. So if you had your car stolen,
100
794340
7140
提供した後も気分が良くなりません
。 わかった。 したがって、車が盗まれたとしても、そうで
13:21
hopefully not. If you had your car stolen, and
you reported to the police, the police will come
101
801480
5160
ないことを願っています。 車が盗まれ、
警察に通報した場合、警察があなたのところに来て
13:26
to you and tell you, I can guarantee you that
we'll have your car back within 24 hours. Well,
102
806640
5280
、
24 時間以内に車を取り戻すことを保証できますと伝えます。 ええと、
13:31
that's a good reassurance that you believe that
police are going to find your car. But if the
103
811920
5400
警察があなたの車を見つけてくれると信じているという安心感を与えてくれます。 しかし、
13:37
policeman said to you, look, the chances
of us finding the car are pretty remote,
104
817320
4800
警官があなたに、ほら、
私たちが車を見つける可能性はほとんどないと言った場合、
13:42
the likelihood is that the car has been
stolen. And by the time it's discovered,
105
822120
6240
車が盗まれた可能性が高いです
。 そして発見されるまでに、
13:48
all the parts will be taken off the car and sold
individually. So the police will fail to reassure
106
828360
7140
すべての部品が車から取り外され、個別に販売されます
。 そのため、警察はあなたが車を取り戻すことを保証できません
13:55
you that you're going to get your car back. In
fact, quite the opposite. The chances of getting
107
835500
4740
。
実際、まったく逆です。
14:00
your car back are almost zero so they failed
to reassure you. So in this particular article,
108
840240
6540
あなたの車が戻ってくる可能性はほとんどないので、彼らはあなたを安心させることができませんでした
. そのため、この特定の記事では、
14:06
the announcement by Google failed to reassure
shareholders that they would see the share price
109
846780
7860
Google による発表は、株主が株価が跳ね返るのを見ることを安心させることができなかった
14:15
bouncing back up so they are a bit worried
about the future of this particular bot.
110
855300
5340
ため、
この特定のボットの将来について少し心配しています。
14:22
This week, Microsoft, a key backer—what does
that mean? A key backer is a key or an important
111
862200
10380
今週は、主要な支援者である Microsoft とはどういう
意味ですか? キーバッカーとは、通常は経済的に重要な支援者または重要なサポーターです
14:32
supporter, usually financially. If Google is
putting all the money into this particular bot,
112
872580
7620
。 Google が
すべての資金をこの特定のボットに投入している場合、Google は
14:40
they are supporting it financially,
providing resources, technicians, analysts,
113
880860
8160
財政的にサポートしており、この特定のボットの開発を支援する
リソース、技術者、アナリスト、
14:49
or programmers to help develop this particular
bot. They are the key backer, the number one,
114
889020
8460
またはプログラマーを提供しています
。 彼らは重要な支持者であり、ナンバーワンであり、
14:57
the most important, the person with all the
money available to help support and drive
115
897480
6780
最も重要であり、これを
サポートし、推進し
15:04
this and get it to where they want it to be.
And then, in the very last paragraph where
116
904260
21300
、希望する場所に到達させるために利用できるすべての資金を持っている人です。
そして、
15:25
we're talking about Bard and ChatGPT
being based on large language models,
117
925560
5520
Bard と ChatGPT が
大規模な言語モデルに基づいていることについて話している最後の段落では、
15:32
we use the word vast; they are fed vast amounts.
Vast means huge, a vast amount of information,
118
932460
8820
広大なという言葉を使用しています。 彼らは膨大な量の餌を与えられています。
広大とは膨大で膨大な量の情報を意味し、
15:41
a vast amount of rain fell over the last few days,
a vast amount of snow is needed for the French,
119
941280
8460
ここ数日で大量の雨が降り、
フランス、オーストリア、イタリアのアルプスには大量の雪が必要で
15:49
Austrian, and Italian Alps, and they're going
to enjoy a nice winter skiing business. Okay,
120
949740
6720
、彼らは
快適な冬のスキーを楽しむ予定です。 仕事。 わかりました。とても
15:56
so vast means huge, great. A vast wilderness,
like the desert, is a massive area of land,
121
956460
8100
広いというのは、巨大で素晴らしいという意味です。
砂漠のような広大な荒野は広大な土地です
16:04
but it's a wilderness or a vast amount. Okay?
So to generate and improve or to give these bots
122
964560
9720
が、それは荒野または広大な土地です。 わかった?
したがって、これらのボット
16:14
and ChatGPT artificial intelligence to make them
workable and worthwhile, they have to be fed vast
123
974280
7980
や ChatGPT 人工知能を生成して改善したり、それらを
実行可能で価値のあるものにするためには、人工知能を利用できるように膨大な量の情報を提供する必要があります
16:22
amounts of information so that they can draw on
their artificial intelligence. And then finally,
124
982260
6660
。 そして最後に、
16:28
the last word we have here is composed, as in
composed recipes, poems, work presentations. Well,
125
988920
9780
構成されたレシピ、詩、作品のプレゼンテーションなど、ここでの最後の言葉は構成です。 ええと、
16:38
to compose is to make up or to bring together,
like a musical composition. When somebody writes
126
998700
9000
作曲するということは、
音楽作品のように、作り上げたり、まとめたりすることです。 誰かが
16:47
music, they compose music, somebody writes the
lyrics, somebody puts together the music score.
127
1007700
7560
曲を書いたり、曲を作ったり、歌詞を書いたり
、楽譜を作ったりします。
16:55
So you know, good partnerships of songwriters
and musicians who come up with the words and
128
1015260
7020
ご存知のように、歌詞と音楽を思いつくソングライターとミュージシャンの良好なパートナーシップです
17:02
the music. So to compose something is to bring it
together, to write it, to create it. So in this
129
1022280
6420
。 したがって、何かを構成するとは
、それをまとめる、書く、作成することです。 したがって、この文では
17:08
sentence, it says, ChatGPT became a sensation
after its launch last November, as it composed
130
1028700
9000
、ChatGPT は
昨年 11 月の開始後、レシピや詩を作成したことでセンセーションを巻き起こしたと述べています。
17:17
recipes, poems; it was able to create recipes and
poems within seconds that other people could take
131
1037700
9060
レシピや詩を数秒で作成することができました
が、他の人は数
17:26
hours and hours, if not weeks, to compose. Okay,
so there you've got some specific words related
132
1046760
6720
週間とは言わないまでも、何時間も何時間もかけて作成することができました。 では、損傷に関連する
具体的な単語がいくつかあります。
17:34
to damage, carry on to continue, plunge to fall
very quickly, rattled to be unsettled or nervous,
133
1054080
10140
続行する、急降下する、
非常に急速に落下する、不安定または神経質になるためにガタガタ鳴る、
17:44
flawed response, a damaged response that has
some mistakes in it, prompting to push gently
134
1064940
9000
不完全な反応、いくつかの間違いを含む損傷した反応
、優しく押すよう促す
17:53
to persuade somebody to do something, point out
to indicate, rigorous testing, very difficult,
135
1073940
8760
誰かに何かをするよう説得する、指摘する、指摘する、
厳密なテスト、非常に困難、
18:02
detailed testing, a wider release to the public
means to almost everybody, if not everybody,
136
1082700
7260
詳細なテスト、一般へのより広範なリリースは、すべて
の人ではないにしても、ほぼすべての人にとって、人々を安心させることに
18:11
failed to reassure you have failed to
make people feel comfortable. Yeah,
137
1091460
5700
失敗したことを安心させることに失敗したことを意味します
。 ええ、
18:17
there was a mistake, and they failed
to reassure; they were unable to make
138
1097160
4500
間違いがあり、彼らは安心できませんでした
。
18:21
people feel comfortable and happy about
it. And key backer, the main investor,
139
1101660
5820
人々に安心感や満足感を与えることができませんでした
。 そして主要な投資家である主要な支援者、
18:28
vast amounts, huge amounts of information
needed, and composed recipes and poems. They
140
1108200
7800
大量の膨大な量の情報が
必要であり、レシピや詩を作成しました。 彼らは
18:36
created recipes or wrote recipes or created poems,
wrote poems through this artificial intelligence.
141
1116000
9300
レシピを作成したり、レシピを書いたり、詩を作ったり、
この人工知能を介して詩を書いたりしました。
18:45
Okay, so there you go. That's the news article.
As I said, it's taken from a Guardian newspaper.
142
1125300
6240
では、どうぞ。 それがニュース記事です。
私が言ったように、それはガーディアン紙から取られました.
18:51
I've highlighted some of the words. And often when
you read a newspaper article, these journalists
143
1131540
5880
いくつかの単語を強調しました。 そして、
あなたが新聞記事を読むとき、これらのジャーナリストは、
18:57
are using language that perhaps you might not
use on a day-to-day basis because it's okay,
144
1137420
4680
あなたが日常的に使用しないかもしれない言語を使用していることがよくあります。
なぜなら、
19:02
it's good quality, very good quality English, but
it may not be the natural English that you and I
145
1142100
5040
それは良い品質の非常に優れた英語だからです。しかし、
それは自然な英語ではないかもしれません。 あなたと私が
19:07
would use if we were sitting over a cup of coffee
and discussing ChatGPT. But this will help you to
146
1147140
7260
コーヒーを飲みながら ChatGPT について話し合っている場合に使用します
。 しかしこれは、
19:14
use language, particularly for essay writing,
particularly for exams like IELTS or CAE. So
147
1154400
8400
特にエッセイの書き方、
特に IELTS や CAE などの試験で言語を使用するのに役立ちます。 そのため、
19:22
it's important to understand the words, and it's
also important to know what they mean. And as
148
1162800
5100
言葉を理解することが重要であり、
その意味を知ることも重要です。 また、
19:27
I've given you some examples of alternative words,
synonyms so you can use instead of those, okay, so
149
1167900
6120
代わりの言葉や同義語の例をいくつか示した
ので、それらの代わりに使用できます。さらに
19:34
if you need any more information, you know where
to contact me: www.englishlessonviaskype.com.
150
1174020
6960
情報が必要な場合は、
www.englishlessonviaskype.com に連絡してください。
19:40
Very happy to help you. If you want
some more news articles like this,
151
1180980
3960
お役に立ててとてもうれしいです。
このようなニュース記事がさらに必要な場合は
19:44
just let me know and we can include them in future
lesson plans. Okay, this is Harry thanking you,
152
1184940
5700
お知らせください。今後のレッスン プランに含めることができます
。 ハリーです
19:50
and thank you for watching and listening. And as
always, remember to join me for the next lesson.
153
1190640
4620
いつものように、次のレッスンに参加することを忘れないでください。
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。