Vocabulary for English Conversation on Artificial Intelligence (AI)

39,424 views ・ 2024-01-24

Speak Confident English


下の英語字幕をダブルクリックすると動画を再生できます。 翻訳された字幕は機械翻訳です。

00:00
I know you've noticed the nonstop hype, excitement,
0
485
4000
宣伝、興奮、パニックが絶え間なく続いていることにお気付きかと思います
00:04
and panic over the topic of artificial intelligence or AI.
1
4945
4700
00:09
This past year, it's everywhere. In fact, recently,
2
9715
4210
この1年、それは どこにでもありました。 実際、最近、
00:14
AI scientist, Fei-Fei Li said,
3
14345
1820
AI 科学者のフェイフェイ・リー氏は、
00:16
"I would call this an inflection moment." An inflection moment is when
4
16725
4840
「私はこれを転換期と呼ぶでしょう 」と述べました。 変曲点とは、
00:21
a significant change occurs. It's a turning point.
5
21725
3840
大きな変化が起こる瞬間です。 それは転換点です。 業界における
00:26
It describes a sudden noticeable or important change
6
26265
4860
突然の 顕著な変化または重要な変化を指します
00:31
in an industry. For example, of course, artificial intelligence isn't new.
7
31225
4460
。 たとえば、もちろん、 人工知能は新しいものではありません。
00:35
In fact, the first time that term was used was in the 1950s,
8
35925
4280
実際、この 用語が初めて使用されたのは 1950 年代で、
00:40
and most of us use AI every day. For example,
9
40745
4300
私たちのほとんどは毎日 AI を使用しています 。 たとえば、
00:45
if you use facial recognition to open your smartphone or if you use an
10
45545
4820
顔認識を使用して スマートフォンを開いたり、メールの送信をクリックする前にアプリを使用して
00:50
app to check your spelling and grammar before you click send on an email.
11
50425
4500
スペルと文法をチェックしたりする場合です 。
00:55
If you sometimes say, Hey,
12
55505
1980
00:57
Siri or Alexa for a voice prompt,
13
57675
3090
音声プロンプトに対して「Hey、Siri または Alexa」と時々言う場合、
01:01
or if you click a Netflix recommendation based on your previous viewing.
14
61225
4859
または 以前の視聴に基づいて Netflix のおすすめをクリックした場合。
01:06
These are all examples of AI in our everyday lives,
15
66694
3791
これらはすべて、 私たちの日常生活における AI の例です
01:11
but what is new is how much we society
16
71145
4500
が、新しいのは、私たち社会が
01:16
are talking about it now.
17
76025
1180
現在 AI についてどれほど話題にしているかということです。
01:17
It's even a hot topic of conversation in my Confident Women
18
77265
4500
私の「自信に満ちた女性」コミュニティでも話題になっています
01:21
Community. Now, I am not an expert in the AI industry,
19
81766
4519
。 さて、私は AI 業界の専門家ではありませんが、
01:26
but what I can share with you is the vocabulary,
20
86745
2900
01:29
the words and phrases English speakers are using to discuss this topic
21
89705
4820
英語話者が会話、新聞記事、ポッドキャストなどで このトピックについて議論する際に使用している語彙、単語、フレーズを皆さんと共有できることです
01:35
in conversations, in newspaper articles, on podcasts, and so on.
22
95145
4660
01:40
I want you to have the vocabulary you need to participate in these
23
100485
4360
こうした会話に参加するために必要な語彙を身につけて、AI があなたの世界に影響を与える中で、
01:44
conversations and to confidently contribute your thoughts,
24
104846
4599
自分の考え、
01:49
your concerns,
25
109755
1250
懸念、
01:51
your excitement as AI impacts your world.
26
111155
3770
興奮を自信を持って発信してほしいと思います。
01:55
That's exactly why I am sharing this lesson with you today and this Confident
27
115465
4380
まさにそれが、私が 今日このレッスンと自信のある
01:59
English lesson.
28
119846
539
英語のレッスンを皆さんと共有する理由です。
02:00
You're going to learn the vocabulary being used now to have
29
120385
4580
02:04
conversations on the age and novelty of AI,
30
124966
4119
AI の時代と目新しさ、
02:09
the pros of AI and its benefits,
31
129945
3220
AI の長所とその利点、
02:13
the cons of AI and the fears we might have, and finally,
32
133705
4380
AI の短所と 私たちが抱くかもしれない恐怖、そして最後に
02:18
the role AI currently plays in our lives and its possible future.
33
138345
4540
AI が現在果たしている役割について会話するために現在使用されている語彙を学びます。 私たちの生活とその可能性のある未来。
02:36
Before we go any further, if this is your first time here, welcome.
34
156785
4420
先に進む前に、 ここに初めて来られる方は、ようこそ。
02:41
I'm Annemarie, an English confidence and fluency coach.
35
161665
2740
私は英語の 自信と流暢さのコーチのアンネマリーです。
02:45
Everything I do is designed to help you get the confidence you want for your
36
165215
4310
私がやっているすべてのことは、
02:49
life and work in English.
37
169526
1159
英語での生活や仕事に自信を持てるようサポートすることを目的としています。 英語で有意義な会話をするのに役立つ追加レッスンを含む、無料のリソースやレッスンをさらに
02:51
If you'd love to get more free resources and lessons for me,
38
171525
3000
入手したい場合は、
02:54
including additional lessons that help you have meaningful conversations in
39
174526
4518
02:59
English, you can find them all at my Speak Confident English website.
40
179130
3835
私の Speak Confident English Web サイトですべて見つけることができます。
03:03
While you're there,
41
183215
833
その間に、
03:04
I recommend that you download my in-depth training called How to Get the
42
184085
4400
私の 詳細なトレーニング「
03:08
Confidence to Say What You Want In English. In that training,
43
188486
3319
英語で言いたいことを言う自信を得る方法」をダウンロードすることをお勧めします。 そのトレーニングでは、
03:12
I share with you my number one strategy for confidence and
44
192044
4441
03:16
fluency building to start this lesson.
45
196635
2450
このレッスンを始めるにあたって、自信と流暢さを身につけるための私の一番の戦略を共有します。
03:19
I want to get clear on the precise definition of AI and
46
199685
4960
AI の正確な定義を明確にし、
03:24
talk about why this lesson right now. So first,
47
204794
4171
なぜ今このレッスンを行うのかについて話したいと思います 。 それではまず、
03:29
what exactly is artificial intelligence?
48
209115
2610
人工知能とは一体何でしょうか?
03:32
If you've been afraid to ask that question out loud, you're not alone.
49
212264
4141
その質問を大声で聞くのが怖かったとしても 、あなたは一人ではありません。
03:36
There are many people who keep hearing about AI,
50
216455
4310
AI についてよく耳にします
03:40
but they're not really sure what that means. So here's exactly what it is.
51
220785
4620
が、それが何を 意味するのかよくわかっていない人はたくさんいます。 これがまさにその内容です。
03:46
Artificial intelligence is a technology developed to simulate or
52
226565
4360
人工知能は、コンピューター システムを通じて人間の知能を シミュレートまたは模倣するために開発されたテクノロジーです
03:51
imitate human intelligence through computer systems.
53
231315
3810
03:56
This refers to a machine's ability to perform cognitive
54
236195
4530
これは、機械が 認知機能を実行する能力を指します
04:01
functions. These are the functions you might use for reasoning,
55
241205
3840
。 これらは、 推論、
04:05
problem solving, learning something new,
56
245435
2730
問題解決、新しいことの学習、
04:08
or communicating with natural language. So why this lesson?
57
248705
4740
または自然言語によるコミュニケーションに使用できる関数です 。 では、なぜこのレッスンなのでしょうか?
04:13
Right now? Without a doubt,
58
253615
2310
今すぐ? AI に関する
04:16
the advancement and conversations around AI are evolving
59
256025
4780
進歩と会話は、
04:20
rapidly almost every day. It seems there's some new change, update,
60
260806
4919
ほぼ毎日急速に進化していることは間違いありません。 何らかの新しい変更、更新、
04:25
or policy. Staying informed on this topic can help you adapt to changes,
61
265745
4980
またはポリシーがあるようです。 このトピックに関する情報を常に入手しておくことは、 変化に適応し、情報に基づい
04:31
make informed decisions,
62
271275
2050
た意思決定を行い、AI のトピックに関する
04:33
and participate in conversations on the topic of AI.
63
273985
4220
会話に参加するのに役立ちます 。
04:38
Moreover,
64
278725
710
さらに、
04:39
knowing about AI allows you to better understand the
65
279435
4490
AI について知ることで、
04:44
expanding vocabulary in the English language around this topic.
66
284475
3610
このトピックに関する英語の語彙の増加をより深く理解できるようになります。
04:48
It also helps you to understand the shifts occurring in
67
288785
4780
また、
04:53
English language culture as AI influences our present and
68
293566
4999
AI が私たちの現在と未来に影響を与えるにつれて、英語文化に起こっている変化を理解するのにも役立ちます
04:58
future.
69
298566
833
04:59
I want you to have the vocabulary you need to speak to this issue,
70
299565
4160
この問題について話すのに必要な語彙を身につけていただきたいと思います。
05:04
and as the industry evolves, I'll add new lessons on this topic Accordingly,
71
304345
4460
業界の進化に合わせて、このトピックに関する新しいレッスンを追加していきます
05:09
as we continue through this lesson,
72
309225
1460
。したがって、このレッスンを続けるときは、
05:11
I'm going to use a very conversational approach and I'll be highlighting the key
73
311105
4900
非常に会話的なアプローチを使用し、
05:16
vocabulary English speakers are using right now to talk about AI.
74
316135
4790
英語話者が AI について話すために現在使用している主要な語彙に焦点を当てます。
05:21
Specifically when we talk about the length of time AI has existed,
75
321404
3921
具体的には、 AI が存在してきた期間
05:25
as well as why it feels so new right now.
76
325904
2861
と、それが今とても新しいと感じられる理由について話すときです。 これらは
05:29
All highlight language we use to talk about the pros of AI and the
77
329385
4579
すべて、 AI の長所と、私たちが
05:33
potential benefits we might experience.
78
333965
1880
経験する可能性のある潜在的な利点について話すために使用する言語を強調しています。
05:36
We'll talk about the cons and the fears we might have,
79
336495
3870
私たちは短所 と私たちが抱くかもしれない恐怖について話し、
05:40
and I'll end with the role of AI in our current lives and possibly in the
80
340904
4941
最後に私 たちの現在の生活、そしておそらく
05:45
future. So point number one. As I mentioned earlier,
81
345846
3519
将来における AI の役割についてお話します。 それでは、ポイントその 1。 先ほども述べたように、
05:50
AI isn't new.
82
350185
1020
AI は新しいものではありません。 この話題を中心にさまざまな話題が飛び交っているため、
05:52
It definitely feels new to many of us with all the buzz happening around this
83
352105
4580
私たちの多くにとっては確かに新鮮に感じられます
05:56
topic, but as I highlighted,
84
356686
2159
が、私が強調したように、
05:59
this term was originally used in the 1950s.
85
359355
2810
この用語はもともと 1950 年代に使用されていました。
06:03
Progress in this industry was slow until scientists greenlit
86
363205
4800
科学者たちが新しいアイデアにゴーサインを出すまで、この業界の進歩は遅かった
06:08
a new idea. Neural networks.
87
368485
2320
。 ニューラルネットワーク。
06:11
Let me pause here to talk about some of the vocabulary I just used to greenlight
88
371464
4781
ここで一時停止して、先ほど私が使用した語彙のいくつかについて話したいと思います。 ゴーサインとは、何か (通常はプロジェクト) を前進させたり進めたりする
06:16
something means to give permission to move forward or go ahead with
89
376246
4679
許可を与えることを意味します
06:20
something, usually with a project.
90
380926
1799
06:23
A neural network is a mathematical system that learns
91
383685
4680
ニューラル ネットワークは、
06:28
skills by finding statistical patterns in data,
92
388505
3459
データ内の統計的パターンを見つけてスキルを学習する数学システムであり、人間の脳のニューロン間の
06:32
and they're inspired by the connections between neurons in the human brain.
93
392585
4660
接続にヒントを得ています 。
06:38
When scientists greenlit this new idea,
94
398035
2890
科学者たちがこの新しいアイデアにゴーサインを出したとき、
06:41
it gave way to systems such as Alexa, Siri,
95
401505
4540
それは Alexa、Siri、
06:46
and a more powerful version of Google Translate.
96
406545
2980
そしてより強力なバージョン の Google Translate などのシステムに取って代わられました。
06:50
The next big shift came when tech companies began building large
97
410105
4900
次の大きな変化は、テクノロジー 企業が大規模な言語モデルを構築し始めたときに起こりました
06:55
language models.
98
415365
833
06:56
These are neural networks that are trained on vast
99
416615
4310
これらは、Wikipedia やブログなどの 膨大な量のインターネット テキストやデータを基にトレーニングされたニューラル ネットワークです
07:01
amounts of internet texts and data such as
100
421154
4171
07:05
Wikipedia and blogs.
101
425555
1290
07:07
Let's talk a little bit more about what a language model is because this is a
102
427575
3950
言語モデルとはaiに関する会話で
07:11
term that is used often in conversations on ai.
103
431526
3079
よく使われる用語なので、もう少し詳しく説明しましょう 。
07:15
To understand a language model,
104
435065
1980
言語モデルを理解するには、ニューラル ネットワークの
07:17
we need to go back to understanding a neural network. Again,
105
437065
4580
理解に戻る必要があります 。 繰り返しになりますが、
07:21
a neural network is a mathematical system that learns skills by finding
106
441805
4960
ニューラル ネットワークは、
07:27
statistical patterns in data.
107
447155
1810
データ内の統計的パターンを見つけることによってスキルを学習する数学システムです。
07:29
A language model is a neural network that learns new skills
108
449605
4360
言語モデルは、インターネットからのテキストを分析することで 新しいスキルを学習するニューラル ネットワークです
07:34
by analyzing texts from the internet.
109
454545
2620
07:37
Examples of this include predicting the next word in a pattern,
110
457885
3560
この例には、 パターン内の次の単語の予測、
07:41
writing computer code,
111
461795
1410
コンピューター コードの作成、
07:43
having conversations and writing prose. Over time,
112
463465
4740
会話、 散文の執筆などが含まれます。 時間が経つにつれて、
07:48
newer generations of artificial intelligence gobbled up information
113
468535
4350
新しい世代の人工 知能は情報を貪欲にし
07:53
and learned to perform more sophisticated tasks to gobble
114
473505
4900
、何かを 貪り食うためのより高度なタスクを実行して、
07:58
up something means to use or eat it quickly.
115
478406
3039
それをすぐに使用したり食べたりすることを学びました。
08:02
These next generation AI models are what we now call
116
482095
4470
これらの次世代 AI モデルは、現在では
08:06
generative ai.
117
486735
1190
生成型 AI と呼ばれるものです。
08:08
Generative AI is a technology that creates new content.
118
488495
4350
ジェネレーティブ AI は、 新しいコンテンツを作成するテクノロジーです。 たとえば、
08:13
It can create content such as text images and computer code,
119
493505
4700
テキスト画像やコンピューターコードなどのコンテンツを作成できます
08:18
for example.
120
498225
833
08:19
All of this comes from trained neural networks that have analyzed
121
499585
4820
これらはすべて、インターネット上の情報を分析した、訓練されたニューラル ネットワークから来ています
08:24
information on the internet.
122
504475
1770
。 定義とともに例が
08:26
I think it's always helpful to have examples along with definitions.
123
506965
3600
あると常に役立つと思います 。
08:31
So here are a few common examples of generative ai,
124
511145
3860
そこで、 生成 AI、
08:35
Alexa ChatGPT, Google Assistant, and Google Bard.
125
515775
4110
Alexa ChatGPT、Google アシスタント、Google Bard の一般的な例をいくつか紹介します。
08:40
These technologies spit out responses to requests
126
520415
4750
これらのテクノロジーは、
08:45
or prompts for information to spit out a response means to quickly
127
525485
4760
情報の要求またはプロンプトに対する応答を吐き出し、 応答を吐き出すための手段を使用して、
08:50
produce an answer or a response. You might, for example,
128
530275
3970
回答または応答を迅速に生成します。 たとえば、
08:54
enter a prompt into chatGPT asking for an overview on a recent
129
534495
4710
最近の
08:59
government policy or a book summary,
130
539206
2559
政府の政策の概要や本の概要、
09:02
or the best way to grow a particular house plant and instantly receive a
131
542025
4500
または特定の観葉植物を育てる最良の方法を尋ねるプロンプトを chatGPT に入力すると、 即座に
09:06
response.
132
546765
810
応答を受け取ることができます。
09:07
Other generative AI systems have been developed to specialize in a immersive
133
547575
4750
他の生成 AI システムは、 没入型の
09:13
augmented reality experiences, database analysis and summarization,
134
553115
4930
拡張現実体験、 データベースの分析と要約、
09:18
mental health support, health diagnosis, and so much more.
135
558385
4580
メンタルヘルスのサポート、健康 診断などに特化するために開発されています。
09:23
Now that we have this general sense of where AI came from and some of the core
136
563745
4500
AI がどこから来たのか、そしていくつかの核となる
09:28
concepts,
137
568365
833
概念についての一般的な理解ができたところで、
09:29
let's move on to talking about the pros of AI and its possible
138
569335
4590
AI の長所とその考えられる
09:34
benefits, and again,
139
574245
1480
利点について話しましょう。繰り返しになりますが、
09:35
the most important part of what I want to share with you is the core vocabulary
140
575745
4340
私が皆さんと共有したい最も重要な部分は次のとおり です。
09:40
you can use in talking about this with others.
141
580145
2140
これについて他の人と話すときに使用できる中心的な語彙。
09:43
If you're a big fan of artificial intelligence or you love talking about the
142
583265
4500
あなたが人工知能の大ファン、 または考えられる利点について話すのが好きな人のために、
09:48
possible benefits,
143
588045
833
09:49
here are the pros you might highlight and the language you would use in English
144
589635
4530
強調すべき長所と、その際に 使用する英語の言語を以下に示します
09:54
to do so. First,
145
594166
1439
。 まず、
09:55
AI already plays a pivotal role in our lives in how we work, create,
146
595985
4580
AI はすでに、 私たちの仕事、創造、
10:00
think, search, interact process, and more.
147
600775
3670
思考、検索、対話プロセスなどにおいて、私たちの生活において極めて重要な役割を果たしています。
10:04
If something has a pivotal role in our lives,
148
604985
2540
何かが 私たちの生活において極めて重要な役割を果たしている場合、
10:07
it means that it has a critical or vitally important position,
149
607985
3940
それは職場、家庭、学校など、それが重要な、または非常に重要な位置を占めていることを意味します
10:12
whether it's at work, home, or school.
150
612395
2530
10:15
The use of AI fosters creativity by freeing up your mind space
151
615425
4860
AI を使用すると、 心のスペース
10:20
or mental capacity, for example,
152
620425
2580
や精神的能力が解放されるため、創造性が促進されます。たとえば、
10:23
by making some of your tasks more efficient in accurate,
153
623065
3020
タスクの一部を より効率的かつ正確にすることで、
10:26
it frees up time for you to then focus on high level
154
626625
4820
高度な
10:31
creative thinking or strategic thinking. For example,
155
631845
3320
創造的思考や戦略的 思考に集中できる時間が確保されます。 たとえば、
10:35
AI can help to provide a more accurate diagnosis in healthcare,
156
635825
3420
AI は、 医療分野でより正確な診断を提供したり、
10:39
spark creative ideas in a meeting,
157
639775
1790
会議で創造的なアイデアを生み出したり、生徒に合わせ
10:42
provide a tailored personalized learning plan for a student.
158
642195
4290
た個別の学習計画を提供したりするのに役立ちます 。
10:47
It can quickly analyze a vast amount of user feedback,
159
647385
3900
膨大な量のユーザーフィードバックを迅速に分析し、道路
10:51
enhance safety and efficiency on roads, personalized marketing,
160
651675
4730
上の安全性と効率性を高め 、パーソナライズされたマーケティングを行い、
10:57
minimize human error, and more.
161
657445
2000
人的エラーを最小限に抑えることができます。
10:59
The meteoric rise of generative AI and its widespread
162
659865
4540
生成 AI の流星的な台頭 とその広範な
11:04
acceptance.
163
664695
833
受け入れ。
11:06
Speak to society's desire for a modern tool that allows us
164
666015
4870
11:10
to have more balance, efficiency and innovation.
165
670886
3239
よりバランス、 効率性、イノベーションを可能にする最新のツールを求める社会の要望に応えます。
11:14
If something has widespread acceptance,
166
674745
2620
何かが広く受け入れられているということは、何かを含めるべきである、または何かが正しいということについて
11:17
it means there's a general agreement that something should be included or that
167
677745
4500
一般的な合意があることを意味します
11:22
something is right. Now with all those benefits of AI,
168
682246
4159
。 AI にはこれだけの利点がありますが、
11:26
there are definitely some potential drawbacks and reasonable fears.
169
686615
4670
潜在的な 欠点や当然の懸念も確かに存在します。
11:32
Well, we're not sure if AI is going to overtake humanity.
170
692115
4210
まあ、AIが 人類を追い越すかどうかはわかりません。
11:36
In other words, become the most dominant form of intelligence on earth.
171
696545
4139
言い換えれば、 地球上で最も支配的な知性の形態になるということです。 対処す
11:41
There are some cons we should address. At its extreme,
172
701215
4390
べき短所がいくつかあります 。 極端な場合、
11:46
AI threatens to replace humans in the workforce.
173
706304
2301
AI は労働力として人間に取って代わる恐れがあります 。
11:49
That threat is a real concern, and at least in the short term,
174
709755
4049
この脅威は深刻な懸念であり、 少なくとも短期的には、AIに委任できる
11:53
while there are certainly tasks that can be delegated to ai,
175
713815
3910
タスクは確かにありますが、
11:58
it's more likely that employers will seek out job candidates
176
718275
4370
雇用主は
12:03
who have up to date AI skills.
177
723105
2460
最新のAIスキルを備えた求職者を探す可能性が高くなります。
12:06
As AI normalization continues, unfortunately,
178
726225
4140
AI の正規化が 進むにつれて、残念なことに、この変化する環境に適応するのに苦労している人々が
12:10
this could result in forcing out those who struggle in
179
730875
4450
追い出される結果になる可能性があります
12:15
adapting to this changing environment.
180
735804
1761
。 雇用を失う
12:18
In addition to the potential for job loss, AI isn't foolproof.
181
738425
4620
可能性があることに加えて 、AI は絶対確実というわけではありません。
12:23
It occasionally produces what we call hallucinations.
182
743705
2979
それは時折、いわゆる 幻覚を引き起こすことがあります。
12:27
A hallucination in this context is incorrect
183
747525
4159
この文脈における幻覚とは、AI
12:31
information generated by AI but presented as fact,
184
751995
4570
によって生成されたが 事実として提示される誤った情報であり、
12:37
and of course, this can be dangerous when information isn't fact checked.
185
757304
4901
もちろん、情報が事実確認されていない場合、これは危険である可能性があります 。
12:42
This particular problem can occur when an AI entity is trained
186
762835
4530
この特定の問題は、 AI エンティティが
12:47
on old limited low quality data,
187
767705
3700
古い限定された低品質データでトレーニングされ、
12:52
and in the analysis of that old limited low quality data,
188
772184
4301
その 古い限定された低品質データの分析において、
12:57
it generates what it considers to be an accurate response,
189
777145
4659
正確な応答であるとみなされる応答を生成する場合に発生する可能性があります
13:02
although that may not be the case. Moreover,
190
782605
2800
が、実際はそうではない可能性があります 。 さらに、
13:05
when someone requests information or enters a prompt that is
191
785515
4570
誰かが情報を要求したり、不明瞭な プロンプトを入力したり、
13:10
unclear, uses slang or idioms or isn't concise,
192
790395
4289
スラングや 慣用句が使用されたり、簡潔ではなかったりすると、
13:15
it can cause further confusion. In the end,
193
795345
3220
さらなる混乱を引き起こす可能性があります 。 結局のところ、
13:18
these hallucinations can perpetuate significant harm by spreading
194
798615
4830
これらの幻覚は、雇用や幻覚への脅威に加えて、
13:23
disinformation to perpetuate means to make an undesired
195
803505
4660
望ましくない
13:28
situation or an unfounded belief continue in addition to the
196
808605
5000
状況や根拠のない信念を継続させる手段を永続させるために偽情報を広めることにより、重大な害を永続させる可能性があります
13:33
threat to jobs and these hallucinations.
197
813606
2839
13:36
Another possible area of harm is the ability for AI to
198
816915
4250
もう 1 つの潜在的な 危害領域は、AI が指示に応じて
13:41
impersonate individuals or create fake identities when instructed to do so,
199
821475
4970
個人になりすましたり、偽の ID を作成したりする能力です。
13:47
to impersonate means to pretend to be another person,
200
827145
3580
なりすましとは、
13:50
whether it's out of a desire to entertain or to deceive,
201
830726
4399
楽しませるためか騙すためかを問わず、別の人のふりをすることを意味し、
13:55
this could create greater chances of identity theft and it blurs
202
835755
4890
これにより大きなチャンスが生まれる可能性があります。 個人情報の盗難の危険性があり、
14:00
the lines between right and wrong, real and fake.
203
840646
3759
善悪、本物と偽物の境界線があいまいになります。
14:05
In other words,
204
845184
833
言い換えれば、誰かまたは何かに対する自信や信頼性が
14:06
it can erode or destroy the confidence and credibility
205
846385
4780
損なわれたり、破壊されたりする可能性があります
14:11
in someone or something.
206
851665
1740
14:14
I talked briefly about the type of data fed to AI,
207
854245
3960
AI に供給されるデータの種類について簡単に説明しましたが、
14:18
and I want to elaborate on that a bit.
208
858225
1820
それについてもう少し詳しく説明したいと思います。
14:20
There are concerns about where data comes from and copyright
209
860695
4870
データの出所や著作権
14:25
infringement.
210
865566
833
侵害に関する懸念があります。
14:27
Copyright infringement occurs when content protected by
211
867155
4730
著作権侵害は、著作権で保護 されたコンテンツを許可なく
14:32
copyright is used without permission or when it violates the
212
872075
4730
使用した場合、 または
14:36
rights granted. Now, with all of these pros and cons,
213
876806
4479
付与された権利を侵害した場合に発生します。 さて、 こうした賛否両論がある中で、
14:42
society is still at odds with the regulations that should
214
882035
4890
社会は依然として、
14:46
be put in place to be at odds with something means to be in conflict.
215
886926
4519
対立するために設けられるべき規制と、対立することを 意味するものとの間に矛盾を抱えている。 実施すべき
14:51
There isn't agreement on the policies or regulations that should be
216
891695
4510
政策や規制については合意がありません
14:56
implemented. As AI continues to evolve at lightning speed,
217
896206
4599
。 AI が 電光石火のスピードで進化し続ける中、
15:01
governments question whether current regulations are effective
218
901355
4450
政府は 現在の規制がイノベーションの
15:06
in balancing the need for innovation and safeguarding
219
906145
4900
必要性と、
15:11
the public from harm now and in the future.
220
911345
2620
現在および将来の危害から国民を守ることのバランスをとるのに効果的であるかどうか疑問を抱いています。
15:14
And that brings me to our fourth point that we're going to talk about today.
221
914665
3460
そして、それが今日お話しする 4 番目のポイントにつながります 。
15:18
Along with the key vocabulary,
222
918535
1630
重要な語彙とともに、AI の
15:20
you need the current role of AI and its possible future.
223
920185
3940
現在の役割 と、AI が実現する可能性のある将来についても理解する必要があります。
15:24
As the world of AI continues to evolve,
224
924945
2340
AI の世界が進化し続けるにつれて、倫理的懸念をめぐる
15:28
so too does the conversation around ethical concerns.
225
928345
3180
会話も進化しています 。
15:31
An ethical concern is any circumstance in which a moral
226
931905
4300
倫理的懸念とは、 道徳的
15:36
conflict exists. In just this last year,
227
936725
2720
対立が存在するあらゆる状況です。 ちょうどこの 1 年の間に、
15:39
we've seen the rise of new tech empires and leaders in every field race
228
939735
4950
私たちは新しいテクノロジー 帝国の台頭と、このテクノロジーを導入しようとするあらゆる分野の競争のリーダーを目の当たりにしてきました
15:44
to embrace this technology. On top of that,
229
944905
3180
。 それに加えて、
15:48
the introduction of ChatGPT to the mainstream has produced
230
948265
4740
ChatGPT が主流に導入されたことで
15:53
new schools of thought and it continues to reshape our society as
231
953065
4940
新しい学派が生まれ、私たちが話している ように社会を再形成し続けています
15:58
we speak.
232
958006
833
15:59
When something is introduced to the mainstream or accepted by the
233
959075
4610
何かが主流に導入される、 または主流に受け入れられるということは
16:03
mainstream, it means the ideas, attitudes,
234
963686
3039
、そのアイデア、態度、
16:06
and activities are perceived as normal or conventional at
235
966726
4919
活動が、その特定の時点 では正常または慣習的であると認識されていることを意味します
16:11
this particular point in time.
236
971646
1399
。 AI が今後私たちの生活にどのような影響を与えるかを
16:13
There's no way for me to fully predict how
237
973275
4570
完全に予測する方法はありません
16:18
AI will influence our lives going forward. However,
238
978185
3140
。 しかし、
16:21
what I can share is a mindset and the language I
239
981435
4770
私が共有できるのは、 考え方と、
16:26
hear many others using.
240
986206
1799
他の多くの人が使っているのを聞いた言葉です。
16:28
As we think about the best way to use AI in our lives right now,
241
988545
4580
私たちが 今、生活の中で AI を使用する最善の方法を考えるとき、
16:33
we can harness its potential to improve quality of life,
242
993825
4020
16:37
particularly if we view AI as an extension or
243
997846
4719
特に AI を手段を活用するための私たちの能力を置き換えるのではなく、私たちの能力を
16:42
a tool that enhances our abilities rather than
244
1002765
4440
強化する拡張機能またはツールとして考える場合、私たちは生活の質を向上
16:47
replacing our abilities to harness means to bring something
245
1007675
4930
させるためにその潜在力を活用することができます。 何か
16:52
into control in order to have power or control over it. Now,
246
1012915
4490
を制御したり、 権力を握ったりするために何かを制御すること。 さて、
16:57
before we get to my practice question today,
247
1017406
1959
今日の練習問題に入る前に、皆さんが学んだ
16:59
because I do want you to have the opportunity to practice the vocabulary you've
248
1019366
4919
語彙を練習し、
17:04
learned and to share your thoughts on this topic,
249
1024286
2319
このトピックについての考えを共有する機会を得てほしいと思っているため、
17:07
I want to reiterate that I'm not an expert in the AI industry.
250
1027405
3800
私はこの分野の専門家ではないことを繰り返しておきたいと思います。 AI業界。
17:11
My goal here is entirely to give you the vocabulary you need to speak on this
251
1031345
4820
ここでの私の目標は、 このトピックについて話すために必要な語彙を提供し
17:16
topic and to share your thoughts on it.
252
1036166
2559
、それについての考えを共有することです。
17:19
If there's anything I got wrong in this lesson,
253
1039385
2220
このレッスンで何か間違った点があれば、
17:22
I welcome your comments and now here's my question for you.
254
1042005
3320
コメントをお待ちしています。 ここで私からの質問です。
17:26
What do you think about AI? What's your opinion on it?
255
1046195
3530
AIについてどう思いますか? それについてどう思いますか? 私たちの生活を改善する恩恵をもたらす
17:30
Do you view it as primarily a positive with benefits that improve our lives,
256
1050385
4900
このことを主に肯定的なものと考えていますか 、
17:35
or do you have some concerns about it? However you feel about it,
257
1055744
4740
それともそれについて何らかの懸念を持っていますか ? どのように感じても構いませんので、
17:40
I invite you to share with me,
258
1060685
1280
私と共有してください。今日のレッスンで学んだ語彙やフレーズを
17:41
and I want you to try using two or three of the vocabulary words or
259
1061984
4981
2 つまたは 3 つ使ってみてください
17:46
phrases you learned in this lesson today. As always,
260
1066966
2839
。 いつものように、それを
17:50
the best place for you to do that is in the comments below.
261
1070105
2980
行うのに最適な場所は、 以下のコメントです。 この内容を書面で
17:53
If you'd like to also see this content in writing,
262
1073785
3220
も見たい場合は 、
17:57
you can find it all at my Speak Confident English website.
263
1077145
3099
私の Speak Confident English Web サイトですべてを見つけることができます 。
18:00
I'll leave a direct link to this lesson just below the video.
264
1080595
3290
このレッスンへの直接リンクをビデオのすぐ下に残しておきます 。
18:04
If you found this helpful,
265
1084545
1300
これが役に立ったと思われる場合は、ぜひ
18:06
I would love to know and you can tell me in a few simple ways. Number one,
266
1086405
3720
知りたいです。 いくつかの簡単な方法を教えてください。 まず、
18:10
you can give this lesson a thumbs up here on YouTube.
267
1090126
2199
このレッスンを YouTube で高く評価してください。
18:12
You can also subscribe to my Speak Confident English Channel,
268
1092825
3020
私の Speak Confident English チャンネルに登録することもできます
18:15
so you never miss one of my Confident English lessons. And finally,
269
1095945
3820
ので、私の Confident English レッスンを見逃すことはありません。 最後に、
18:20
you can share a comment with me below. Thank you so much for joining me,
270
1100105
3420
以下で私とコメントを共有できます。 ご参加いただき誠にありがとうございました。
18:23
and I look forward to seeing you next time.
271
1103705
1700
次回お会いできるのを楽しみにしています。
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7