Fake News: Fact & Fiction - Episode 8: Don't get caught out!

36,396 views ・ 2023-10-30

BBC Learning English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:06
Hello and welcome to Fake News: Fact and Fiction, from BBC Learning English.
0
6540
3280
こんにちは。BBC Learning English の「フェイク ニュース: 事実とフィクション」へようこそ。
00:09
I'm Hugo.
1
9900
600
私はヒューゴです。
00:11
And I'm Sam.
2
11220
699
そして私はサムです。
00:12
In the program today we hear from Jenni Sargent, Managing Director of First Draft News.
3
12119
5101
今日のプログラムでは、First Draft News のマネージング ディレクター、ジェニー サージェントの話を聞きます。
00:17
The issue of trust and truth online is one of the most urgent challenges facing our global society today.
4
17300
5450
オンラインの信頼と真実の問題は、 今日のグローバル社会が直面している最も緊急の課題の 1 つです。
00:22
Yes, and we find out that even the experts can be tricked by a fake news story
5
22829
5460
00:28
as researcher Samantha Bradshaw tells us.
6
28829
2881
研究者のサマンサ・ブラッドショー氏が語るように、専門家でもフェイクニュースに騙される可能性があることが分かりました。
00:32
I definitely have been caught out by a fake news story.
7
32100
3470
間違いなくフェイクニュースに騙されてしまいました。
00:35
I believed for the longest time that ...
8
35649
2121
私は長い間そう信じていました...
00:39
So what was it that she believed?
9
39530
2189
それで、彼女は何を信じていたのでしょうか?
00:41
Stay with us to find out.
10
41990
2429
ぜひお問い合わせください。
00:44
Before that though, we have some vocabulary which you are going to tell us about today.
11
44499
4580
その前に、今日お話しする語彙がいくつかあります 。
00:49
Sam what do you have for us?
12
49159
1171
サム、私たちに何か用事はある?
00:50
Today Hugo, I have a range of phrases we can use if we realise that we have been the victim of a scam
13
50410
7059
ヒューゴ、今日は、詐欺の被害者になったり、フェイク ニュースを信じたりしたことに気づいた場合に使用できるさまざまなフレーズを紹介します
00:58
or believed some fake news.
14
58070
1930
01:04
English has many phrasal and multi-word verbs.
15
64890
4500
英語には多くの句動詞や複数の単語を含む動詞があります。
01:09
These are a natural part of everyday language and are used for good things as well as bad.
16
69569
7321
これらは日常言語の自然な部分であり 、良いことにも悪いことにも使用されます。
01:16
Take 'fall for' as an example.
17
76969
2740
「fall for」を例に挙げてみましょう。
01:20
When you fall for someone, it means that you become strongly attracted to them.
18
80609
5701
誰かを好きになるということは、その人 に強く惹かれるということです。
01:26
You fall in love with them.
19
86390
1119
あなたは彼らに恋をします。
01:28
And if you've ever fallen for someone you might remember that feeling of butterflies you have in your stomach.
20
88159
6331
誰かを好きになったことがあるなら、お腹の中で蝶が飛んでいるような感覚を覚えているかもしれません。
01:35
But you have a very different feeling, a sinking feeling in your stomach, if you fall for a scam.
21
95340
8310
しかし、詐欺に引っかかった場合は、まったく異なる感覚、つまり胃の底が沈むような感覚になります 。
01:44
To fall for something means that you've been tricked into believing something that isn't true.
22
104519
5790
何かに陥るということは、 騙されて真実ではないものを信じ込まされていることを意味します。
01:50
This isn't always bad.
23
110389
1550
これは必ずしも悪いことではありません。
01:52
It could just be a simple joke or a prank but it could also be a con or a scam or some fake news.
24
112019
8670
それは単なるジョークやいたずらの可能性もありますが、 詐欺や詐欺、フェイクニュースの可能性もあります。
02:00
If you completely believe something that isn't true you can say: "I fell for it hook, line and sinker".
25
120769
7841
真実ではないことを完全に信じている場合は、「フック、ライン、シンカーに夢中になりました」と言うことができます。
02:08
'To fall for' isn't used in the passive and suggests perhaps that you think you believed something too easily.
26
128939
8040
「To fall for」は受動態では使用されず、 おそらく何かを簡単に信じすぎたと考えていることを示唆しています。 あなた自身の応答では
02:18
To highlight the action of the scammers rather than your own response,
27
138139
5261
なく詐欺師の行動を強調するために 、
02:23
there are a number of other phrases with similar meanings which we use which are generally only in the passive.
28
143789
8491
同様の意味を持つ他のフレーズが多数ありますが、これらは通常受動態でのみ使用されます。
02:32
These are 'to be taken in by' and 'to be caught out by'.
29
152360
5350
それは「取り込まれる」と「追い出される」です。
02:38
Now to help you avoid falling for, being taken in by, or caught out by fake news and scams,
30
158849
7170
フェイク ニュースや詐欺に騙されたり、騙されたり、引っ掛かったりしないようにするために、
02:46
let's go back to the programme for some more tips.
31
166409
2611
プログラムに戻ってさらにヒントを見てみましょう。
02:51
Thanks Sam.
32
171150
600
02:51
It can be easy to be taken in by fake news, but in today's programme perhaps some advice from our first guest,
33
171830
5799
ありがとうサム。
フェイクニュースに騙されがちですが、今日の番組では、最初のゲスト、ジェニー・サージェントからのアドバイスがあるかもしれません
02:57
Jenni Sargent. She is the managing director of an organisation called First Draft News,
34
177710
5600
。 彼女は、
03:03
who work around the world to fight what they call 'information disorder'.
35
183390
3760
「情報障害」と呼ばれるものと戦うために世界中で活動しているファースト ドラフト ニュースと呼ばれる組織のマネージング ディレクターです。
03:07
We spoke to Jenni earlier and asked how we can face the challenge of identifying and dealing with fake news.
36
187230
4770
私たちは以前ジェニーと話し、フェイクニュースを特定して対処するという課題にどのように対処できるかを尋ねました。 私たちが
03:16
We have an acronym that we use which is S.H.E.E.P.
37
196090
3239
使用している頭字語は S.H.E.E.P です。
03:20
We say to think about: the source, the history, the emotion, the evidence, and whether it includes pictures.
38
200020
6540
私たちは、情報源、歴史、感情、 証拠、そして写真が含まれているかどうかについて考えなさいと言います。
03:26
Because those are the five things that you can remember and help you think before you share.
39
206889
5071
なぜなら、これら 5 つは 覚えていて、共有する前に考えるのに役立つからです。
03:32
Take time to think through who shared it, what's their motivation,
40
212040
3700
時間をかけて、誰が共有したのか、その 動機は何なのか、他に
03:36
what else have they shared that might be relevant? Have they tried to manipulate me emotionally?
41
216009
5331
関連する可能性のあるものを共有したのか、じっくり考えてみましょう。 彼らは私を感情的に操作しようとしたのでしょうか?
03:41
And what evidence do they present with this piece of information, this story, or this video or this image?
42
221639
5350
そして、彼らはこの 情報、この物語、このビデオ、この画像についてどのような証拠を提示しているのでしょうか?
03:47
Have they used images which are very easily, easy to persuade us to think differently?
43
227349
5730
彼らは、私たちに違う考え方をさせるのに非常に簡単で簡単なイメージを使用したのでしょうか ?
03:53
So taking time as a member of society before you share is something that we can all do to help.
44
233349
5071
したがって、社会の一員として、共有する前に時間を割くことは、 私たち全員ができることです。
03:59
Sheep: an acronym to help you think before you share.
45
239199
3150
羊: 共有する前に考えるのに役立つ頭字語。
04:02
So let's take a look at it in a bit more detail now.
46
242560
2500
それでは、もう少し詳しく見てみましょう。
04:05
So 'S' is for 'source'.
47
245140
1950
したがって、「S」は「ソース」を意味します。
04:07
Yes, the source is where the information is coming from.
48
247599
4040
はい、ソースは情報の出所です。
04:11
Is it someone you know?
49
251949
1111
あなたの知っている人ですか?
04:13
Is it an organisation you trust?
50
253900
2609
あなたが信頼できる組織ですか?
04:17
Are they who they say they are?
51
257050
2310
彼らは彼らが言うとおりの人ですか?
04:20
If it's a well-known person, is it their actual account?
52
260110
3480
著名な人物の場合、実際のアカウントですか?
04:24
Well it's very easy to fake a social media post. Just take a look at this for example
53
264279
4701
ソーシャルメディアの投稿を偽造するのは非常に簡単です。 たとえばこれを見てください
04:30
Wow. So the former president loves us! Looks just like the real thing, doesn't it?
54
270339
5010
。 つまり、元大統領は私たちを愛しているのです! 本物そっくりですね。
04:35
Except it's fake. It's just an image. It's been automatically generated by one of a number of fake tweet sites.
55
275889
9180
それが偽物であることを除いて。 それは単なるイメージです。 これは、多数の偽ツイート サイトの 1 つによって自動的に生成されたものです。
04:45
And if you really weren't sure, you could go to the actual account and
56
285149
3760
本当に確信が持てない場合は、実際のアカウントにアクセスして、
04:48
see that this post doesn't actually appear on the timeline.
57
288989
3281
この投稿が実際にはタイムラインに表示されていないことを確認してください。
04:52
And one way of finding out more about the source is
58
292959
2041
ソースについてさらに詳しく知る方法の 1 つは、
04:55
by looking at the history of the account of the person or organisation posting.
59
295079
3760
投稿した個人または組織のアカウントの履歴を調べることです。
04:58
So 'History' is the 'H' of sheep.
60
298919
2301
つまり、「History」は羊の「H」です。
05:01
How old is the account? Who follows them? Who do they follow? What else have they posted?
61
301300
4289
アカウントは何年前のものですか? 誰が彼らをフォローしますか? 彼らは誰をフォローしているのでしょうか? 彼らは他に何を投稿しましたか?
05:05
Do all these things make the source more or less reliable?
62
305949
3661
これらすべてのことから、情報源の信頼性は多かれ少なかれ高まるのでしょうか?
05:10
For example the other day on Facebook I saw a post a friend of mine had shared.
63
310649
5040
たとえば、先日 Facebook で 友人がシェアした投稿を見ました。
05:16
It was from a company offering a great prize for liking and sharing their post.
64
316470
6390
それは、 投稿に「いいね!」を付けて共有すると、素晴らしい賞品を提供する企業からのものでした。
05:22
This is a common scam on Facebook but some are genuine.
65
322939
4540
これは Facebook でよくある詐欺ですが、中には本物の詐欺もあります。
05:27
So I did a bit of digging and when I checked out the company's own Facebook profile,
66
327559
6010
そこで私は少し調べてみたところ、その 会社自身の Facebook プロフィールをチェックしたところ、
05:33
their account was only a few days old and there was no history of posts.
67
333899
6141
そのアカウントは開設されてからわずか数日しか経っておらず 、投稿の履歴もありませんでした。
05:40
This was a red flag and made me think it was probably one of those scam competitions.
68
340120
5830
これは危険信号であり、 おそらく詐欺コンテストの一種ではないかと思いました。
05:46
Yea. The next part of the acronym is 'Emotion'.
69
346030
2630
そうだね。 頭字語の次の部分は「Emotion」です。
05:48
Is the post manipulating your emotions? Does it want you to feel angry or outraged?
70
348949
6270
投稿があなたの感情を操作していませんか? それはあなたに怒りや激怒を感じてもらいたいのでしょうか?
05:55
Is it biased? Is it saying something for example you wouldn't believe about someone you like,
71
355299
4790
偏見ですか? たとえば、 好きな人のことは信じない
06:00
but you would believe about someone you don't like?
72
360240
2570
けど、嫌いな人のことは信じるというようなことを言っているのでしょうか?
06:03
But just because a post might generate strong emotions doesn't mean it's fake news.
73
363899
7260
しかし、投稿が強い感情を引き起こす可能性があるからといって、 それがフェイクニュースであるとは限りません。
06:11
There are many news reports that might make you feel sadness or anger, but does the language of the post suggest
74
371239
7300
悲しみや怒りを感じさせるようなニュース報道がたくさんありますが、その投稿の文言は、
06:18
you should be feeling a particular way? Does it suggest you should or must share it?
75
378629
6421
あなたが特定の感情を抱くべきであることを示唆していますか? 共有する 必要がある、または共有しなければならないことを示唆していますか? 投稿でシェアしろと言われる
06:25
I always get a bit suspicious whenever a post tells me to share it.
76
385709
4330
たびに、私はいつも少し疑ってしまいます 。
06:30
Yeah and the next part of the acronym is another E. This one is for 'Evidence'.
77
390750
5550
はい、頭字語の次の部分は別の E です。 これは「証拠」を表します。
06:36
If the post is making claims about politicians, health, science for example which aren't being reported in
78
396449
5990
その投稿が、 たとえば主流メディアでは報道されていない政治家、健康、科学についての主張をしている場合
06:42
the mainstream media, what evidence is there that they are actually true?
79
402519
4161
、 それらが実際に真実であるという証拠は何でしょうか?
06:47
This is a tricky area as the mainstream media can't and doesn't report everything.
80
407790
5699
主流 メディアはすべてを報道できないし、報道しないので、これは難しい分野だ。
06:53
And of course in some cases has its own agenda and also does make mistakes.
81
413569
6160
そしてもちろん、場合によっては 独自の意図があり、間違いを犯すこともあります。
06:59
These are areas that can be really very complex.
82
419809
3350
これらは実際には非常に複雑になる可能性がある領域です。
07:03
If you don't trust the mainstream media, how do you decide what sources you do trust?
83
423389
5491
主流メディアを信頼しない場合、どの 情報源を信頼するかをどのように判断すればよいでしょうか?
07:09
And is that trust based on objective evidence or
84
429209
4050
そして、その信頼は客観的な証拠に基づいているのでしょうか、
07:13
because those sources say things you agree with or want to be true.
85
433339
4940
それともそれらの情報源があなたが 同意すること、または真実でありたいと思っていることを言っているからでしょうか。
07:18
Yeah it can be very difficult to recognise and ignore our own biases,
86
438589
4541
そうですね、 自分自身の偏見を認識して無視するのは非常に難しい場合があります。
07:23
which is why it's helpful to look for multiple sources and opinions that are different from our own.
87
443210
6389
だからこそ、自分とは異なる複数の情報源や意見を探すことが役立つのです 。
07:30
The final part of the jigsaw is pictures. Are photos and videos used as evidence?
88
450029
6811
ジグソーの最後の部分は絵です。 写真やビデオは証拠として使用されますか?
07:37
We've seen how easy it is for images to be misleading.
89
457410
3659
画像がいかに誤解を招きやすいかを見てきました。
07:41
So do the images show what you are being told they show?
90
461149
4271
では、画像は、あなたが伝えているものを示しているのでしょうか?
07:45
Are the captions accurate? Could the pictures have been manipulated?
91
465980
4659
字幕は正確ですか? 写真は加工された可能性がありますか?
07:51
So remember SHEEP as a fact checking guide to detecting fake news.
92
471660
4529
したがって、フェイク ニュースを検出するためのファクト チェック ガイドとして SHEEP を覚えておいてください 。
08:00
To be a fake news detective you have to be aware that it is out there.
93
480100
5059
フェイクニュースの探偵になるには、フェイクニュースが 存在することを認識しなければなりません。
08:05
You have to be sceptical and want to find the truth before you share something.
94
485290
5489
何かを共有する前に、懐疑的になり、真実を見つけなければなりません。
08:10
And if you do come across a post that is suspicious or maybe something that a friend has shared,
95
490990
5010
また、疑わしい投稿や友人が共有した投稿を見つけた場合、
08:16
how should you go about dealing with it?
96
496540
1919
どのように対処すればよいでしょうか?
08:18
Yeah there are many fact checking and debunking websites and services out there.
97
498539
3701
はい、事実を確認し て誤りを暴くウェブサイトやサービスがたくさんあります。
08:22
It's often very quick to do a search for particular phrases or keywords
98
502589
3821
多くの場合、 特定の語句やキーワードを検索して、
08:26
to see if the topic has been covered on one of them.
99
506490
2859
そのトピックがそれらのいずれかでカバーされているかどうかを確認するのが非常に簡単です。
08:29
And another tip here is to include the word 'fake' or 'scam' in the search term as well.
100
509670
6400
ここでのもう 1 つのヒントは、 検索語に「偽物」または「詐欺」という単語も含めることです。
08:36
But the trouble I have is if I come across something a friend has posted or shared,
101
516150
5830
しかし、私が抱えている問題は、 友人が投稿または共有したものを見つけた場合、
08:42
should I let them know?
102
522340
2219
彼らに知らせるべきかということです。
08:44
Good question. Do you do that Sam?
103
524639
1920
良い質問。 サムがやるの?
08:46
I have done. Yes.
104
526750
1730
やりました。 はい。
08:48
And how did it go?
105
528610
929
そして、それはどうなりましたか?
08:50
To be honest it was a bit mixed. It depends on who shared it and what it was.
106
530080
5140
正直に言うと、少し複雑でした。 それは 誰が共有したか、そしてそれが何であったかによって異なります。
08:55
So most friends are OK with it if, for example, it's a fake competition and you warn them about it.
107
535300
5909
したがって、たとえば、 それが偽のコンテストであり、あなたがそれについて警告しても、ほとんどの友人はそれを受け入れます。
09:01
Some don't acknowledge it at all but if it's something a bit more controversial, like a conspiracy theory
108
541840
6929
それを全く認めない人もいますが、それが陰謀論
09:09
or one of those miracle cures the pharmaceutical industry is apparently hiding,
109
549009
4770
や 製薬業界が明らかに隠している奇跡の治療法のような、もう少し物議を醸すものであれば、それを
09:14
then some people get quite angry if you challenge their beliefs even when you link it to the facts.
110
554200
7459
リンクしたとしても自分たちの信念に異議を唱えると、かなり怒る人もいます。 事実に。
09:21
Or maybe because you link to the facts. I'm not sure.
111
561919
3040
あるいは、事実とリンクしているからかもしれません。 よくわからない。
09:25
Yeah. That's an interesting observation and it's a question we put to disinformation researcher
112
565539
4691
うん。 これは興味深い観察であり、私たちがオックスフォード大学の 偽情報研究者
09:30
Samantha Bradshaw from Oxford University.
113
570310
2839
サマンサ・ブラッドショーに尋ねた質問です。 ソーシャル メディア チャネルに表示され、
09:33
How do you deal with fake news people share which appears on your social media channels?
114
573230
4929
人々が共有するフェイク ニュースにどう対処しますか ?
09:38
And this is what she had to say.
115
578389
2620
そしてこれが彼女が言わなければならなかったことです。
09:42
So combating fake news as it appears in our own news feeds and our Twitter feeds.
116
582039
7081
したがって、 私たちのニュースフィードやTwitterフィードに表示されるフェイクニュースとの戦いです。
09:49
It's a very delicate task I think because one can't simply just post a debunked news article
117
589480
8730
これは非常にデリケートな作業だと思います。なぜなら、 単に誤りを暴いたニュース記事を投稿するだけで
09:58
and have the problem fixed.
118
598290
3619
問題を解決してもらうことはできないからです。
10:01
The reason why fake news often spreads further and faster than other kinds of information again comes back to this
119
601990
8160
フェイクニュースが 他の種類の情報よりもさらに遠くまで、より速く拡散する理由は、やはりこの
10:10
whole issue of identity signalling and people don't necessarily care that the information contained
120
610509
6001
アイデンティティシグナリングの問題全体に戻ります。そして、人々は、それが真実かどうかにかかわらず、ストーリーに 含まれる情報を必ずしも気にしません
10:16
in a story, whether or not it's true.
121
616590
3049
10:19
They don't care about the facts or not they care more about belonging to a sense of community.
122
619720
8000
彼らは事実を気にしないし、 コミュニティの感覚に属することをもっと気にします。
10:27
And so posting a debunked story doesn't necessarily change people's minds.
123
627909
5871
したがって、誤りが暴かれた記事を投稿しても、 必ずしも人々の考えが変わるわけではありません。
10:33
Instead I think we need to engage more critically one another but in a way that promotes empathy
124
633860
6380
その代わりに、私たちはお互いにもっと批判的に関わる必要があると思います が、それは共感を促進し
10:40
and promotes understanding so that again we can negotiate consensus and
125
640320
4930
、理解を促進する方法であり、そうすることで再び 合意を交渉し、
10:45
come together to build our democracy and find balanced viewpoints.
126
645330
4670
民主主義を構築し バランスの取れた視点を見つけるために団結できるようにする必要があると思います。
10:51
Anything you like to comment there, Sam?
127
651000
600
何かコメントしたいことはありますか、サム?
10:53
Yes I'd like to pick out the phrase 'a delicate task'.
128
653480
3949
はい、「繊細な仕事」という言葉を選びたいと思います。
10:58
Samantha said that dealing with fake news on our own social media is 'a delicate task'.
129
658009
5930
サマンサさんは、自社のソーシャルメディア上でフェイクニュースに対処するのは 「デリケートな仕事」だと語った。
11:04
So this means it's a difficult job that needs to be done carefully with sensitivity.
130
664019
7021
つまり、 繊細な作業を慎重に行う必要がある難しい仕事であるということです。
11:11
And she also talked about 'empathy' which is understanding other people's feelings and experiences.
131
671320
9039
そして、 他の人の感情や経験を理解する「共感」についても話しました。
11:20
Well I think if we all had more empathy and understanding the world would be a better place.
132
680639
5381
私たち全員がもっと共感し 、理解できれば、世界はより良い場所になると思います。
11:26
But it might put you out of a job as a journalist Hugo if there wasn't any conflict.
133
686610
5310
しかし、 もし衝突がなければ、ヒューゴさん、ジャーナリストとしての職を失うかもしれません。
11:32
I think there would still be plenty of conflict to go around and there will always be people trying
134
692000
4759
まだまだたくさんの紛争が起こるだろうし 、他人を利用しようとする人々は常にいるだろうし、それが
11:36
to take advantage of other people which leads us back to our guest Samantha Bradshaw.
135
696840
4780
ゲストのサマンサ・ブラッドショーの話に戻ります。
11:41
Has she ever fallen for a fake news story? Take a listen.
136
701700
3479
彼女はフェイクニュースに騙されたことがありますか? 聞いてみてください。
11:45
I definitely have been caught out by a fake news story.
137
705549
3571
間違いなくフェイクニュースに騙されてしまいました。
11:49
I believed for the longest time that teacup pigs were a real thing.
138
709200
4390
私は長い間、 ティーカップピッグは本物だと信じていました。
11:53
And for anyone who doesn't know, a teacup pig is a little baby pig and there would be all these cute viral videos on
139
713940
6640
知らない人のために言っておきますが、ティーカップピッグとは小さな子豚のことで、この子豚が走り回るかわいい動画がインターネット上にたくさん拡散され
12:00
the Internet of these little pigs running around and the idea was that they would stay that little forever.
140
720660
5500
、 その子豚が永遠に残るという考えがありました。
12:06
But in reality they were just normal pigs that would grow to be a real sized pig.
141
726429
4980
しかし実際には、彼らは 成長すると実物大の豚になる普通の豚でした。
12:11
But I had it in my mind that I was going to buy a teacup pig one day because they were just so adorable and dog-like
142
731490
6339
でも、ティーカップブタはとても愛らしくて犬のようで可愛かったので、いつか買おうと心の中で思っていたのですが
12:17
and cute, only later to find out that those are not real. They are fully grown pigs.
143
737909
6970
、後になってそれが本物ではないことが分かりました。 彼らは完全に成長した豚です。
12:25
You can buy one, it will just be massive one day.
144
745179
2791
1 つ買っても、それはいつか巨大なものになるでしょう。
12:29
So even the experts can be caught out although
145
749019
2951
そのため、
12:32
happy to report that Samantha realised it was a scam before she actually bought one.
146
752050
4539
サマンサが 実際に購入する前にそれが詐欺であることに気づいたと喜んで報告しても、専門家でさえもバレてしまう可能性があります。
12:36
Yes, and you might think that selling cute pigs is a harmless scam
147
756990
4870
はい、かわいいブタを売るのは無害な詐欺だと思うかもしれませんが、
12:41
but this and other similar hoaxes lead to all sorts of problems.
148
761940
4929
これや他の同様のデマはあらゆる種類の問題を引き起こします。
12:46
So, for example, what do you do if you live in a tiny flat and you bought a tiny pet that then grows to be
149
766949
8111
では、たとえば、あなたが小さなアパートに住んでいて、 小さなペットを購入したのですが、それが成長してお腹を空かせた
12:55
a huge hungry pet?
150
775140
1899
巨大なペットになったらどうしますか?
12:57
Many of these pigs have been starved, abandoned and poorly treated.
151
777820
4650
これらの豚の多くは飢え、捨てられ、ひどい扱いを受けています。
13:02
Yet there is still a market for them on social media.
152
782550
3010
しかし、ソーシャルメディアには依然としてそれらの市場が存在します。
13:05
Yes not all fake news is about issues such as politics, health, science.
153
785640
5179
はい、すべてのフェイクニュースが政治、健康、科学などの問題に関するものであるわけではありません。
13:10
Well, now a lot to digest. Please Sam remind us of today's vocabulary.
154
790919
4360
さて、今は消化すべきことがたくさんあります。 サム、今日の語彙を思い出させてください。
13:15
Of course.
155
795480
760
もちろん。
13:16
So to start with, there are some phrasal and multi-word verbs.
156
796320
5109
まず、句動詞と複数の単語を含む動詞がいくつかあります。
13:22
To 'fall for someone' means 'to fall in love'
157
802110
3279
「誰かに落ちる」ということは「恋に落ちる」ことを意味します
13:25
but to 'fall for something' means you believed something that wasn't true.
158
805990
5560
が、「何かに落ちる」ということは、 真実ではないものを信じたことを意味します。
13:31
And if you completely believed it without any doubts, you fell for it 'hook line and sinker'.
159
811870
8720
そして、何の疑いもなくそれを完全に信じてしまったら 、あなたは「フックラインとシンカー」にハマったことになります。
13:40
The verbs 'to be taken in by' or 'caught out by' something also mean that you believed something that wasn't true
160
820750
7950
何かに「取り込まれる」または「巻き込まれる」という動詞も、真実ではないことを信じたことを意味します
13:49
but these are generally used in the passive if you are talking about the victim.
161
829000
5399
が、これらは通常、 被害者について話している場合に受動態で使用されます。
13:55
A 'delicate task' is a difficult job that needs to be done carefully with politeness and sensitivity.
162
835750
7259
「繊細な仕事」とは、 丁寧さと感性を持って丁寧に行わなければならない難しい仕事のことです。
14:04
And 'empathy' is understanding other people's feelings and experiences.
163
844330
4820
そして「共感」とは、 他人の感情や経験を理解することです。
14:10
Thank you Sam.
164
850450
849
ありがとうサム。
14:11
Now the Internet and social media are fantastic resources of information
165
851379
3450
現在、インターネットとソーシャル メディアは 素晴らしい情報源であり
14:15
and great tools for keeping in touch with family and friends.
166
855220
2610
、家族や友人と連絡を取り合うための優れたツールです 。
14:17
But because they make communication so easy, it makes communication of fake news and disinformation so easy too.
167
857919
7181
しかし、コミュニケーションが非常に簡単になるため、フェイクニュースや偽情報のコミュニケーションも非常に簡単になります。
14:25
As this is the last programme in the series, I wonder if you have any final thoughts Sam.
168
865180
3900
これがシリーズ最後のプログラムなので、 最後に何か考えはありますか? サム。
14:30
Yes I do. So one of the things that struck me was how long fake news has been around but also
169
870350
6829
はい、そうします。 そこで、私が印象に残ったことの 1 つは、 フェイク ニュースが存在してからどれだけ長いかということでしたが、
14:37
that fake news only spreads if it is shared.
170
877259
3491
フェイク ニュースは共有された場合にのみ広まるということでもありました。
14:41
And the one thing we've heard again and again in this series is
171
881259
4081
このシリーズで私たちが何度も聞いたことの 1 つは、
14:45
always to think very carefully before sharing something.
172
885490
4690
何かを共有する前に常に注意深く考えることです。
14:50
Don't take everything you see on the Internet at face value but be vigilant, be sceptical, be aware of your own biases
173
890320
9210
インターネット上で目にするものすべてを額面通りに受け取るのではなく、用心深く、懐疑的であり、自分自身の偏見を認識し、
14:59
and research anything that raises a red flag.
174
899950
4189
危険信号を引き起こすものはすべて調査してください。
15:04
How about you Hugo?
175
904220
620
ヒューゴさんはどうですか?
15:05
Yeah absolutely. I think that's why we all have a role to play.
176
905110
3179
はい、絶対に。 だからこそ、私たち全員が果たすべき役割があるのだと思います。 世の中には
15:08
There's so much out there that's not true that it's vital for all of us to share responsibly.
177
908370
5729
真実ではないことがたくさんあるので、 私たち全員が責任を持って共有することが重要です。
15:14
Well that's all from us today and from this series.
178
914559
2641
さて、今日の私たちとこのシリーズからの話はこれですべてです。 サムとご一緒
15:17
It's been a pleasure to have your company and Sam, thank you!
179
917280
2830
できてとても光栄でした 、ありがとう!
15:20
And thank you to Hugo it really has been a pleasure.
180
920919
3001
そしてヒューゴに感謝します、 本当に楽しかったです。
15:24
Goodbye.
181
924129
900
さようなら。
15:25
Goodbye.
182
925200
500
さようなら。
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7