Fake News: Fact & Fiction - Episode 5: Why do people share fake news?
38,357 views ・ 2023-10-10
下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。
00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6809
3540
こんにちは。BBC Learning English の「フェイク ニュース: 事実とフィクション」へようこそ。
00:10
I'm Hugo.
1
10439
791
私はヒューゴです。
00:11
And I'm Sam.
2
11339
781
そして私はサムです。
00:12
In the programme today,
3
12619
791
今日のプログラムでは、
00:13
we'll look at some of the reasons people
share fake news.
4
13490
2659
人々がフェイクニュースを共有する理由のいくつかを見ていきます
。
00:16
We'll hear from disinformation
researcher Samantha Bradshaw.
5
16229
2901
偽情報
研究者のサマンサ・ブラッドショーに話を聞きます。
00:20
One reason why people
share fake news that they know is fake,
6
20039
3781
人々が
フェイクだと知りながらフェイクニュースを共有する理由の 1 つは、
00:24
has to do with this thing that
we call identity signalling.
7
24179
4410
アイデンティティ シグナリングと呼ばれるものに関係しています。
00:28
Identity signalling. Have you heard of that Sam?
8
28949
2520
ID シグナリング。 あのサムのことを聞いたことがありますか? 実際にこの番組の
00:31
Not until I saw the script for
this programme actually.
9
31890
3780
台本を見るまでは知りませんでした
。
00:35
Ah, so make sure you keep watching
to find out what identity signalling is
10
35750
3530
ああ、それでは、
アイデンティティ シグナリングとは何なのか、
00:40
and how it's a part of
the spread of fake news.
11
40530
2939
そしてそれが
フェイク ニュースの拡散にどのように関与しているのかを知るために、引き続き注目してください。
00:43
Before we get to that, we have some
key vocabulary which you're going to
12
43979
3271
その前に、サムについて語ってもらう重要な語彙がいくつかあります
00:47
tell us about Sam.
13
47329
820
。
00:48
What do you have for us today?
14
48299
1091
今日は何かありますか?
00:49
Yes, so today I am talking about:
agenda, actors and motives.
15
49649
5610
はい、それで今日私が話しているのは、
議題、俳優、動機についてです。
00:59
If you have to go to meetings and
who doesn't love a good meeting?
16
59189
4841
会議に行かなければならない場合、
良い会議が嫌いな人はいないでしょうか。
01:04
I hate them.
17
64700
1080
彼らのことが嫌いです。
01:05
They're such a waste of time.
18
65859
2261
とても時間の無駄です。
01:08
You will probably be
familiar with agendas.
19
68239
3410
おそらく
議題についてはよくご存じでしょう。
01:12
An agenda is a list of things that
are going to be discussed
20
72120
4040
アジェンダとは、会議で議論される内容のリストです
01:16
at the meeting.
21
76370
1040
。
01:17
But there is another meaning of the
word 'agenda' that is important
22
77659
4291
しかし、フェイクニュースの分野で重要な「アジェンダ」という言葉には別の意味があります
01:22
in the area of fake news.
23
82040
2450
。
01:24
If an individual or organisation or
a government 'has an agenda',
24
84590
5599
個人、組織、または
政府が「アジェンダを持っている」場合、それは
01:30
it means that there is
something they want to achieve.
25
90530
3179
達成したい何かがあることを意味します。
01:33
This could be clearly
stated objectives.
26
93799
3151
これは明確に
述べられた目標である可能性があります。
01:37
But having an agenda can also
suggest a secret or hidden aim.
27
97030
5559
しかし、議題があるということは、
秘密や隠れた目的を示唆している可能性もあります。 「
01:42
Let's park the word agenda for the
moment because there is another word
28
102669
4031
アジェンダ」という言葉はしばらく保留にしましょう。
もう一つ
01:46
I want to talk about that has a very
well-known meaning but also
29
106780
4120
話したい言葉があります。それは非常
によく知られた意味を持っていますが、
01:51
another meaning which is perhaps
not so well-known - actor.
30
111230
4340
おそらく
あまり知られていない別の意味も持っています。それは「俳優」です。
01:56
It's probably a very familiar word.
31
116780
3030
とても馴染みのある言葉かもしれません。
01:59
Somebody who performs on stage
or in films is an actor.
32
119890
3869
舞台や映画で演技する人は
俳優です。
02:03
But the same word is used to
describe a person, group or even
33
123879
4511
しかし、同じ言葉は、
02:08
a state that has an agenda that's either
politically or economically motivated
34
128470
6099
政治的または経済的動機に基づく議題を持ち
02:15
and they have influence or power
that they use
35
135020
2430
、その議題を推進するために使用する影響力や権力を持っている個人、グループ、さらには国家を表すのにも使用されます
02:17
to promote that agenda.
36
137530
2659
。
02:20
In this context you can hear the phrases:
37
140389
2761
この文脈では、
02:23
state actors, political actors,
and even - bad actors.
38
143449
6180
国家主体、政治主体、
さらには悪役というフレーズを聞くことができます。
02:30
State actors are governments,
39
150360
3709
国家主体とは政府のことであり、
02:34
political actors are those with, you
guessed it, political power and agendas
40
154150
4359
政治主体とは、お
察しのとおり、政治的権力と政策を持った
02:38
and bad actors - well that doesn't mean
people who aren't very good at acting.
41
158990
5250
人々、そして悪役のことです。これは、
演技があまり得意ではない人々を意味するわけではありません。
02:44
A bad actor uses power or influence
in a dishonest way
42
164840
4949
悪意のある者は、権力や影響力を
不正な方法で利用して、
02:50
to push a hidden agenda.
43
170210
2500
隠された議題を推進します。
02:52
They're trying to achieve something
but it's not clear what it is.
44
172909
3680
彼らは何かを達成しようとしている
が、それが何なのかは明らかではない。
02:56
And it's not clear who is doing it.
45
176719
2871
そして誰がそれをやっているのかは明らかではありません。
02:59
For example, if a government from
one country wants to influence an
46
179670
4160
たとえば、
ある国の政府が
03:03
election in another country,
they may spread fake news stories
47
183910
4180
別の国の選挙に影響を与えたい場合、
フェイクニュースを広める一方
03:08
but hide the fact that
they're doing it.
48
188180
2910
で、その事実を隠している可能性があります
。
03:11
This could be described as the
actions of a bad actor or
49
191170
4060
これは、
悪い行為者または
03:15
a bad state actor.
50
195620
1530
悪い状態の行為者の行為として説明できます。 オンラインで
03:18
People who spread disinformation
online may not be doing it because
51
198169
4050
偽情報を広める人は、それを信じている
からではなく、自分たちの目的に適しているからそうしているのかもしれません
03:22
they believe it but
because it suits their agenda.
52
202300
4810
。
03:27
This spreading of disinformation can
be very sophisticated and the
53
207190
4539
この偽情報の拡散は
非常に巧妙である可能性があり、それを
03:31
motives of those doing
it are often not obvious.
54
211810
3490
行う者の動機は
明らかではないことがよくあります。
03:36
Motive.
55
216259
1231
動かす。
03:37
That's another useful word
in this context.
56
217570
2770
これも
この文脈では役立つ言葉です。
03:41
If you like TV crime dramas, and who
doesn't love a good crime drama?,
57
221240
4889
テレビの犯罪ドラマが好きで、
優れた犯罪ドラマが嫌いな人はいないでしょうか?
03:46
- me, I never really understand them -
58
226590
3934
- 私には、犯罪ドラマがまったく理解できません -
03:50
you will often hear the word 'motive'.
59
230604
3835
「動機」という言葉をよく聞くでしょう。
03:54
"He can't be guilty.
He didn't have a motive."
60
234520
3749
「彼が有罪であるはずはない。
彼には動機がなかった。」
03:59
A motive is a reason for doing
something and not everyone's motives
61
239060
4979
動機とは何かをする理由であり
、オンラインに投稿する動機はすべての人にとって本物であるとは限りません
04:04
for what they post
online are genuine.
62
244120
2519
。
04:07
But how can you tell?
63
247340
1169
しかし、どうすればわかりますか?
04:09
Let's go back to the studio to see
if there are any more useful tips.
64
249349
4111
スタジオに戻って、
さらに役立つヒントがあるかどうかを確認してみましょう。
04:16
Thanks for that Sam.
65
256449
881
サム、ありがとう。
04:17
Really interesting, I was really
impressed with your acting there.
66
257410
3040
本当に面白くて、
そこでのあなたの演技には本当に感銘を受けました。
04:20
Well, I may be a bad
actor but I'm not a bad actor.
67
260990
5169
まあ、私は悪い
俳優かもしれませんが、悪い俳優ではありません。
04:26
My motives are purely genuine.
68
266239
2290
私の動機は純粋に本物です。
04:28
Well that's an interesting
point about fake news I think.
69
268609
2100
まあ、それが
フェイクニュースの興味深い点だと思います。
04:31
We've heard that fake news is
produced by people who may want to
70
271160
3210
フェイクニュースは、
04:34
make money or have
a political or social agenda.
71
274449
3391
金儲けをしたい人や、
政治的または社会的目的を持っている人によって作成されていると聞いています。
04:37
Those are their motives,
72
277920
1190
それらは彼らの動機ですが、私たちが
04:39
but they can only be successful
if we share those stories.
73
279189
3801
それらのストーリーを共有する場合にのみ成功することができます。
04:44
Absolutely. But why do people share
news, stories, images that are fake?
74
284120
5310
絶対に。 しかし、なぜ人々は
フェイクのニュース、ストーリー、画像を共有するのでしょうか? オックスフォード大学のオックスフォード インターネット研究所の
04:49
Well researcher Samantha Bradshaw
from the Oxford Internet Institute
75
289720
3820
研究者サマンサ ブラッドショーは、
04:53
at Oxford University shared
her observations with us earlier.
76
293620
3490
以前に私たちに彼女の観察を共有してくれました。
04:58
People share fake news for
a variety of reasons.
77
298910
3380
人々はさまざまな理由でフェイクニュースを共有します
。
05:02
In many cases sometimes people don't
even realise the stories
78
302449
3871
多くの場合、人々は自分たちが
05:06
that they're sharing are fake.
79
306400
1819
共有しているストーリーが偽物であることにさえ気づいていないことがあります。
05:08
They might find the content funny or
humorous or they might think that
80
308329
4110
彼らは、コンテンツが面白い、またはユーモラスであると感じるかもしれません、
05:12
people in their network such as
their friends or family or broader
81
312519
3731
あるいは、
友人、家族、またはより広い
05:16
acquaintances might
enjoy this content.
82
316329
3760
知人などのネットワーク内の人々が
このコンテンツを楽しむかもしれないと考えるかもしれません。
05:20
Another reason people might share
fake news has to do with
83
320169
3520
人々がフェイク ニュースを共有するもう 1 つの理由は、
05:24
the emotional appeal of fake news
because it tends to be very negative.
84
324050
5549
フェイク ニュースは
非常にネガティブな傾向があるため、感情に訴えかけることと関係しています。
05:29
It tends to also elicit a reaction
from people and they might be angry
85
329679
4541
また、人々の反応を引き出す傾向があり
、人々は怒り、あまりにもとんでもないので共有する必要があると考え、この記事で
05:34
and they might type and share and
discuss what is being talked about
86
334300
5649
話題になっていることを入力して共有し、議論する可能性があります
05:40
in this article because they find it
so outrageous that they need
87
340029
4151
05:44
to share it.
88
344259
1620
。
05:45
The third reason why people might
share fake news has to do with what
89
345959
3650
人々がフェイク ニュースを共有する可能性がある 3 番目の理由は、
05:49
we call 'identity signalling' where
people know that the information
90
349689
4571
05:54
being shared in this story is false.
91
354340
2530
この記事で共有されている情報が虚偽であることを人々が知る「アイデンティティ シグナリング」と呼ばれるものに関係しています。
05:56
But the purpose of sharing it is to
signal to a broader community that
92
356949
4210
しかし、それを共有する目的は、
06:01
they share certain values that are
reflected in that news story.
93
361239
4910
そのニュース記事に反映されている特定の価値観を共有していることをより広範なコミュニティに伝えることです。
06:06
And so it gives people a sense of
belonging and
94
366680
5130
そして、それは人々に帰属意識を与え、
06:12
fitting into a broader community of people.
95
372139
2671
より広い人々のコミュニティに溶け込むことができるのです。
06:14
Has much more to do with identity
than the actual facts of the story.
96
374889
4241
物語の実際の事実よりもアイデンティティに大きく関係しています。
06:20
So what do you make of that Sam?
97
380449
1330
それで、そのサムについてどう思いますか?
06:22
OK, well, I can definitely see
how we might accidentally share
98
382790
4039
そうですね、真実ではないものを
誤って共有してしまう可能性があることは確かにわかります
06:26
things that aren't true for,
for example I sometimes see some
99
386909
3800
。
たとえば、
06:30
amazing photos that I find out later
are actually photoshopped.
100
390789
3311
後で実際に
フォトショップで加工されていることが判明する素晴らしい写真を時々見ることがあります。
06:34
and things that might make me angry
can make me reach for the share button.
101
394939
4230
怒りを感じると
共有ボタンに手が伸びてしまうこともあります。
06:39
But what stood out for me was this
idea of identity signalling.
102
399249
4361
しかし、私にとって印象に残ったのは、
アイデンティティ シグナリングというアイデアでした。
06:44
We might want to show that
we belong to a particular group.
103
404060
3040
自分が特定のグループに属していることを示したい場合があります。
06:47
We share some beliefs and opinions
and that it really doesn't matter
104
407180
3930
私たちはいくつかの信念や意見を共有しており、その
06:51
whether the content is true or not.
105
411350
1729
内容が真実であるかどうかは実際には問題ではありません。
06:53
And this is something that the people
who produce fake news know well
106
413399
3501
そして、これは
フェイクニュースを作る人々がよく知っていることであり、
06:57
and they know how to make
us share those stories.
107
417050
2669
彼らは
それらの話を私たちに共有させる方法を知っています。
06:59
Here's Samantha Bradshaw again.
108
419799
2090
再びサマンサ・ブラッドショーです。
07:02
So the purveyors of fake news
will use a variety of strategies to
109
422329
5731
そのため、フェイクニュースの提供者は、
07:08
get people clicking and
sharing their content.
110
428139
4000
人々にコンテンツをクリックさせて
共有させるために、さまざまな戦略を使用します。
07:12
One of these strategies has to do
with just the style that fake news
111
432219
5410
これらの戦略の 1 つは、フェイク ニュース記事がよく書かれるスタイルに関係しています。
フェイク ニュース記事は非常に
07:17
stories are often written in.
112
437709
1781
07:19
They'll tend to use highly emotional
language and content also that gets
113
439759
6750
感情的な
言葉や、
07:26
people's emotions high.
114
446589
2090
人々の感情を高揚させるコンテンツを使用する傾向があります。
07:28
And this is because psychologically
we also like to share
115
448759
4861
そしてこれは、心理的に
私たちも
07:33
this kind of information.
116
453699
1490
この種の情報を共有することを好むからです。
07:35
And this kind of content,
especially highly emotive content,
117
455360
4109
そして、この種のコンテンツ、
特に非常に感情的なコンテンツは、プラットフォームのアルゴリズム
07:39
will go much further because
of the algorithms of the platforms.
118
459549
4561
によってさらに進化するでしょう
。
07:44
And we also know that emotions like
anger, outrage, fear are
119
464189
5690
また、
怒り、怒り、恐怖などの感情は、幸福や喜びなどの感情
07:49
much stronger emotions than
things like happiness and joy.
120
469959
3340
よりもはるかに強い感情であることも私たちは知っています
。
07:53
And so that's why we see
disinformation and fake news stories
121
473379
4031
だからこそ、事実に基づく毎日のニュース概要の背後にある
07:57
go viral compared to facts and the
boring truth and the mundane truth
122
477490
6039
事実や
退屈な真実、ありふれた真実と比較して、偽情報やフェイクニュース記事が急速に広まるのを目にするのです
08:03
behind our factual daily news briefs.
123
483609
5261
。
08:08
We of course still see our cat memes
and cute animal videos going viral too
124
488949
5171
もちろん、
08:14
because joy and happiness is a strong
emotion but it's not quite as strong
125
494199
5020
喜びや幸福は強い
感情ですが、
08:19
as things like anger and fear.
126
499299
2751
怒りや恐怖などの感情ほど強力ではないため、猫のミームやかわいい動物のビデオがバイラルになるのを今でも見ています。
08:22
Now we know that many
fake news stories are very emotive.
127
502129
2880
今、私たちは
フェイクニュースの多くが非常に感情的なものであることを知っています。
08:25
They generate strong emotions;
the sense that something's not fair
128
505089
4000
それらは強い感情を生み出します。
何かが不公平である、
08:29
or people or organisations are doing
things they shouldn't and that can
129
509269
3390
あるいは人々や組織がやる
べきではないことをしているという感覚があり、
08:32
make us look for other
content to support that feeling.
130
512740
2990
その感覚を裏付ける他のコンテンツを探すようになることがあります。
08:36
Yeah but good to know the cute
cat videos are being shared too.
131
516620
4430
そうですね、でもかわいい
猫の動画もシェアされているのは嬉しいですね。
08:41
And dogs don't forget dogs!
132
521279
2951
そして犬は犬を忘れません!
08:44
But she also talked about algorithms,
133
524899
2070
しかし、彼女はアルゴリズム、つまり
08:47
the algorithms that social
media companies use.
134
527090
2969
ソーシャル
メディア企業が使用するアルゴリズムについても話しました。
08:50
So Sam what is an algorithm?
135
530289
2291
サムはアルゴリズムとは何ですか?
08:53
OK, thanks for that Hugo!
136
533090
1449
OK、ヒューゴさん、ありがとう! コンピュータの専門家からは
08:55
I might get into trouble here from
computer experts but let's have a go.
137
535190
5490
トラブルに巻き込まれるかもしれません
が、やってみましょう。
09:00
Have you ever lost a huge amount
of time because, for example,
138
540760
4390
たとえば、
09:05
you've gone on YouTube to watch a
video and then you see a list of
139
545230
4180
YouTube でビデオを見ようとすると、おすすめの関連ビデオ
のリストが表示され、
09:09
suggested related videos
which start playing automatically?
140
549490
4059
自動的に再生が始まってしまい、膨大な時間をロスしたことはありませんか?
09:14
All the time, all the time.
I think we've all done that.
141
554000
3009
いつも、いつも。
誰もがそれをやったことがあると思います。
09:17
Absolutely. So you click on
one video and then another
142
557940
2420
絶対に。 つまり、1 つの
ビデオをクリックし、さらに
09:20
and another and another and
then it's been hours and hours and hours.
143
560629
4121
別のビデオをクリックし、さらに別のビデオをクリックすると、何
時間も何時間もかかってしまいます。
09:25
Exactly. Yeah. OK. So what's this
got to do with algorithms?
144
565169
3050
その通り。 うん。 わかりました。 では、これは
アルゴリズムとどのような関係があるのでしょうか?
09:28
Well an algorithm is a set of
instructions a computer system
145
568299
4811
アルゴリズムとは、
コンピュータ システムが
09:33
follows to complete a particular task.
146
573190
3329
特定のタスクを完了するために従う一連の命令です。
09:36
Social media companies use
algorithms to make that list of
147
576600
4130
ソーシャル メディア企業はアルゴリズムを使用して、ユーザー専用の関連動画
のリストを作成します
09:40
related videos just for you.
148
580810
3370
。
09:44
These are personalised based on your
behaviour online and
149
584260
4179
これらはオンラインでのあなたの行動に基づいてパーソナライズされており、
09:48
they get us clicking.
150
588519
1500
クリックを促します。
09:50
This is because the companies want
to keep you on their platforms for
151
590100
3830
これは、企業がユーザーをできる
だけ長く自社のプラットフォームに留まらせたいと考えているためです
09:54
as long as possible. That's how they
make their money.
152
594010
3389
。 そうやって彼らは
お金を稼いでいます。
09:57
The longer you're on their site the
more links you click the more
153
597529
3331
サイトに長く滞在するほど、
より多くのリンクをクリックし、より多くの
10:00
advertisements you see and
the more cash they collect.
154
600940
2889
広告が表示され、より
多くの現金が集まります。
10:04
And the more we click on a
particular kind of story, the more
155
604720
3600
そして、
特定の種類のストーリーをクリックすればするほど、
10:08
the algorithms give
us similar content.
156
608400
2790
アルゴリズムは
同様のコンテンツを提供します。
10:11
Now there's nothing necessarily
wrong with that because I guess
157
611270
3540
結局のところ、
私たちは
10:14
after all we're getting a free service
which has to be paid for somehow.
158
614890
4840
何らかの形で料金を支払わなければならない無料のサービスを受けていると思うので、それが必ずしも間違っているわけではありません
。
10:20
But it does mean that we
usually don't see things that
159
620090
3150
しかし、それは私たちが
普段、
10:23
we don't like, that we
don't agree with.
160
623320
1859
自分の気に入らないものや
同意できないものに気づかないことを意味します。
10:25
And this can make us feel
that our view, our opinion
161
625259
3680
そしてこれにより、私たちは
自分の見解、意見が
10:29
is the right one which everyone shares.
162
629029
2120
誰もが共有する正しいものであると感じることができます。
10:31
Which is why I think it's a good idea
to try and look for different opinions.
163
631460
4189
だからこそ、
色々な意見を聞いてみるのが良いと思います。
10:35
So we don't end up thinking that
everyone thinks the way we do.
164
635730
4069
したがって、
誰もが私たちと同じように考えていると考えることはできません。
10:39
So does that mean after watching all your
cat videos you search for dog videos,
165
639879
4821
ということは、猫の動画をすべて見た後、バランスをとるために
犬の動画を検索するということですか
10:44
for a bit of balance?
166
644780
1409
?
10:46
I love cats and dogs equally actually
but that's not exactly what I was thinking.
167
646429
4551
私は実際には猫も犬も同じように愛しています
が、それは私が考えていたことではありませんでした。
10:51
I'm just putting your leg there.
168
651060
979
ただそこに足を置いているだけです。
10:52
Sam please remind us
of today's vocabulary.
169
652549
2921
サム、
今日の語彙を思い出してください。
10:55
Certainly Hugo.
170
655860
600
確かにヒューゴ。
10:56
So we started with 'agenda' which is
a plan of things to be done.
171
656540
3659
そこで私たちは、やるべきことの計画である「アジェンダ」から始めました
。
11:00
And it's a hidden, and if it's
a hidden agenda, it means the reason
172
660679
3841
そして、それは隠されたものであり、
隠された議題である場合、
11:04
for someone's actions might be
secret or hidden.
173
664600
3779
誰かの行動の理由が
秘密であるか、隠されている可能性があることを意味します。
11:08
Then there was the word 'actor'.
174
668480
1659
それから「俳優」という言葉がありました。
11:10
In the context of fake news an actor
is someone with an agenda that uses
175
670549
4680
フェイクニュースの文脈において、俳優とは、
ある目的を持って、
11:15
power and influence to
try and promote that agenda.
176
675309
3761
権力と影響力を利用して
その目的を推進しようとする人物を指します。
11:20
A 'motive' is a reason
for doing something.
177
680029
2770
「動機」とは
何かをする理由のことです。
11:22
And like hidden agendas sometimes
the motives for a particular action
178
682990
4419
そして、隠された議題と同様に、インターネット上での
特定の行動の動機が必ずしも明確で
11:27
on the Internet are not always
clear and transparent.
179
687490
3979
透明であるとは限りません。
11:31
Samantha Bradshaw talked
about identity signalling.
180
691549
3641
サマンサ・ブラッドショーは
アイデンティティ・シグナリングについて語った。
11:35
This is the description of behaviour
online when people share things
181
695299
3691
これは、
人々が真実かどうかに興味を持たずに物事を共有するときの、オンラインでの行動の説明です
11:39
without being interested in whether
they're true or not.
182
699320
2889
。
11:42
What's important is not how true it
is but that it demonstrates that
183
702289
4110
重要なのは、それがどれほど真実であるかということではなく、
11:46
they think in the same way or share
the same beliefs as the group.
184
706480
5149
彼らがそのグループと同じように考えているか、同じ信念を共有していることを示すかどうかです
。
11:51
And finally 'algorithm'.
185
711710
1380
そして最後に「アルゴリズム」です。
11:53
An algorithm is a set of software
instructions that for example can
186
713600
3990
アルゴリズムは、
たとえば、
11:57
produce a personalised list of
recommended videos based on what
187
717670
4089
12:01
an individual has searched for or
watched in the past.
188
721840
3160
個人が過去に検索したものや
視聴したものに基づいて、個人に合わせた推奨ビデオのリストを作成できる一連のソフトウェア命令です。
12:06
Thank you Sam.
That was very comprehensive.
189
726250
2200
ありがとうサム。
それは非常に包括的な内容でした。
12:08
That's all from us today. We look
forward to your company again soon.
190
728530
3269
今日は以上です。
近いうちにまた御社をご利用いただけることを楽しみにしております。
12:11
Goodbye. And stay safe.
191
731879
2260
さようなら。 そして安全を確保してください。
12:14
Bye bye!
192
734259
500
バイバイ!
New videos
Original video on YouTube.com
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。