Vocabulary for English Conversation on Artificial Intelligence (AI)

38,549 views ・ 2024-01-24

Speak Confident English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:00
I know you've noticed the nonstop hype, excitement,
0
485
4000
없는 과대 광고, 흥분,
00:04
and panic over the topic of artificial intelligence or AI.
1
4945
4700
공포를 느끼셨을 것입니다 .
00:09
This past year, it's everywhere. In fact, recently,
2
9715
4210
작년에는 어디에나 있었습니다. 실제로 최근
00:14
AI scientist, Fei-Fei Li said,
3
14345
1820
AI 과학자인 페이 페이 리(Fei-Fei Li)는
00:16
"I would call this an inflection moment." An inflection moment is when
4
16725
4840
“이를 변곡점이라고 부르고 싶다 ”고 말했습니다. 변곡점은
00:21
a significant change occurs. It's a turning point.
5
21725
3840
중요한 변화가 일어나는 순간이다. 전환점입니다.
00:26
It describes a sudden noticeable or important change
6
26265
4860
이는 업계에서 갑자기 눈에 띄거나 중요한 변화를 설명합니다
00:31
in an industry. For example, of course, artificial intelligence isn't new.
7
31225
4460
. 예를 들어, 물론 인공지능은 새로운 것이 아닙니다.
00:35
In fact, the first time that term was used was in the 1950s,
8
35925
4280
실제로 이 용어가 처음 사용된 것은 1950년대였으며
00:40
and most of us use AI every day. For example,
9
40745
4300
우리 대부분은 매일 AI를 사용합니다 . 예를 들어
00:45
if you use facial recognition to open your smartphone or if you use an
10
45545
4820
얼굴 인식을 사용하여 스마트폰을 열거나 앱을 사용하여
00:50
app to check your spelling and grammar before you click send on an email.
11
50425
4500
이메일 보내기를 클릭하기 전에 철자와 문법을 확인하는 경우가 있습니다.
00:55
If you sometimes say, Hey,
12
55505
1980
가끔
00:57
Siri or Alexa for a voice prompt,
13
57675
3090
음성 안내를 위해 안녕, Siri 또는 Alexa라고 말하거나 이전 시청을 기반으로
01:01
or if you click a Netflix recommendation based on your previous viewing.
14
61225
4859
Netflix 추천을 클릭하는 경우 .
01:06
These are all examples of AI in our everyday lives,
15
66694
3791
이것들은 모두 우리 일상생활에 존재하는 AI의 예이지만,
01:11
but what is new is how much we society
16
71145
4500
새로운 점은 지금 우리 사회가 AI에 대해 얼마나 많이
01:16
are talking about it now.
17
76025
1180
이야기하고 있는지입니다.
01:17
It's even a hot topic of conversation in my Confident Women
18
77265
4500
이는 내 Confident Women
01:21
Community. Now, I am not an expert in the AI industry,
19
81766
4519
커뮤니티에서도 화제가 되는 주제입니다. 저는 AI 업계의 전문가는 아니지만,
01:26
but what I can share with you is the vocabulary,
20
86745
2900
01:29
the words and phrases English speakers are using to discuss this topic
21
89705
4820
영어 사용자들이
01:35
in conversations, in newspaper articles, on podcasts, and so on.
22
95145
4660
대화, 신문 기사, 팟캐스트 등에서 이 주제를 논의하기 위해 사용하는 어휘, 단어 및 문구를 여러분과 공유할 수 있습니다.
01:40
I want you to have the vocabulary you need to participate in these
23
100485
4360
저는 여러분이 이러한 대화에 참여하는 데 필요한 어휘를 갖고 AI가 세상에 영향을 미칠 때 자신의
01:44
conversations and to confidently contribute your thoughts,
24
104846
4599
생각,
01:49
your concerns,
25
109755
1250
우려,
01:51
your excitement as AI impacts your world.
26
111155
3770
흥분을 자신있게 제공하기를 바랍니다.
01:55
That's exactly why I am sharing this lesson with you today and this Confident
27
115465
4380
이것이 바로 제가 오늘 이 수업과 자신감 있는
01:59
English lesson.
28
119846
539
영어 수업을 여러분과 공유하는 이유입니다.
02:00
You're going to learn the vocabulary being used now to have
29
120385
4580
02:04
conversations on the age and novelty of AI,
30
124966
4119
AI의 시대와 참신함,
02:09
the pros of AI and its benefits,
31
129945
3220
AI의 장점과 이점,
02:13
the cons of AI and the fears we might have, and finally,
32
133705
4380
AI의 단점과 우리가 가질 수 있는 두려움, 그리고 마지막으로
02:18
the role AI currently plays in our lives and its possible future.
33
138345
4540
AI가 현재 수행하는 역할에 대해 대화하기 위해 현재 사용되는 어휘를 배우게 됩니다. 우리의 삶과 가능한 미래.
02:36
Before we go any further, if this is your first time here, welcome.
34
156785
4420
더 나아가기 전에, 이번이 처음 오신 것을 환영합니다.
02:41
I'm Annemarie, an English confidence and fluency coach.
35
161665
2740
저는 영어 자신감과 유창성 코치 Annemarie입니다.
02:45
Everything I do is designed to help you get the confidence you want for your
36
165215
4310
제가 하는 모든 일은 여러분이
02:49
life and work in English.
37
169526
1159
영어로 생활하고 일하면서 원하는 자신감을 얻을 수 있도록 돕기 위해 고안되었습니다. 영어로 의미 있는 대화를 나누는 데 도움이 되는 추가 수업을 포함하여
02:51
If you'd love to get more free resources and lessons for me,
38
171525
3000
더 많은 무료 리소스와 수업을 받고 싶으시면
02:54
including additional lessons that help you have meaningful conversations in
39
174526
4518
02:59
English, you can find them all at my Speak Confident English website.
40
179130
3835
Speak Confident English 웹사이트에서 모두 찾아보실 수 있습니다.
03:03
While you're there,
41
183215
833
그곳에 계시는 동안 영어로 원하는 것을 자신감 있게 말하는
03:04
I recommend that you download my in-depth training called How to Get the
42
184085
4400
방법이라는 심층 교육을 다운로드하시기 바랍니다
03:08
Confidence to Say What You Want In English. In that training,
43
188486
3319
. 그 훈련에서
03:12
I share with you my number one strategy for confidence and
44
192044
4441
저는
03:16
fluency building to start this lesson.
45
196635
2450
이 수업을 시작하기 위한 자신감과 유창함 구축을 위한 저의 첫 번째 전략을 여러분과 공유합니다.
03:19
I want to get clear on the precise definition of AI and
46
199685
4960
AI에 대한 정확한 정의를 명확히 하고
03:24
talk about why this lesson right now. So first,
47
204794
4171
왜 이 강의가 필요한지에 대해 지금 당장 이야기하고 싶습니다. 그렇다면 먼저
03:29
what exactly is artificial intelligence?
48
209115
2610
인공지능이란 정확히 무엇인가?
03:32
If you've been afraid to ask that question out loud, you're not alone.
49
212264
4141
그 질문을 큰 소리로 묻는 것이 두려웠다면 혼자가 아닙니다.
03:36
There are many people who keep hearing about AI,
50
216455
4310
AI에 대해 계속해서 들어보지만
03:40
but they're not really sure what that means. So here's exactly what it is.
51
220785
4620
그것이 무엇을 의미하는지 잘 모르는 사람들이 많이 있습니다. 이것이 정확히 무엇인지입니다.
03:46
Artificial intelligence is a technology developed to simulate or
52
226565
4360
인공지능(Artificial Intelligence)은 컴퓨터 시스템을 통해 인간의 지능을 시뮬레이션하거나 모방하기 위해 개발된 기술이다
03:51
imitate human intelligence through computer systems.
53
231315
3810
.
03:56
This refers to a machine's ability to perform cognitive
54
236195
4530
이는 인지 기능을 수행하는 기계의 능력을 나타냅니다
04:01
functions. These are the functions you might use for reasoning,
55
241205
3840
. 이는 추론,
04:05
problem solving, learning something new,
56
245435
2730
문제 해결, 새로운 것을 학습하거나
04:08
or communicating with natural language. So why this lesson?
57
248705
4740
자연어로 의사소통하는 데 사용할 수 있는 기능입니다 . 그러면 왜 이 수업을 합니까?
04:13
Right now? Without a doubt,
58
253615
2310
지금 바로? 의심의 여지 없이 AI를 둘러싼
04:16
the advancement and conversations around AI are evolving
59
256025
4780
발전과 대화는
04:20
rapidly almost every day. It seems there's some new change, update,
60
260806
4919
거의 매일 빠르게 진화하고 있습니다. 새로운 변경 사항, 업데이트
04:25
or policy. Staying informed on this topic can help you adapt to changes,
61
265745
4980
또는 정책이 있는 것 같습니다. 이 주제에 대한 최신 정보를 유지하면 변화에 적응하고, 정보에
04:31
make informed decisions,
62
271275
2050
입각한 결정을 내리고, AI 주제에 대한
04:33
and participate in conversations on the topic of AI.
63
273985
4220
대화에 참여하는 데 도움이 될 수 있습니다 .
04:38
Moreover,
64
278725
710
더욱이,
04:39
knowing about AI allows you to better understand the
65
279435
4490
AI에 대해 알면
04:44
expanding vocabulary in the English language around this topic.
66
284475
3610
이 주제와 관련하여 영어로 확장되는 어휘를 더 잘 이해할 수 있습니다.
04:48
It also helps you to understand the shifts occurring in
67
288785
4780
또한
04:53
English language culture as AI influences our present and
68
293566
4999
AI가 우리의 현재와 미래에 영향을 미치면서 영어 문화에서 일어나는 변화를 이해하는 데 도움이 됩니다
04:58
future.
69
298566
833
.
04:59
I want you to have the vocabulary you need to speak to this issue,
70
299565
4160
저는 여러분이 이 문제에 대해 이야기하는 데 필요한 어휘를 갖기를 바랍니다.
05:04
and as the industry evolves, I'll add new lessons on this topic Accordingly,
71
304345
4460
업계가 발전함에 따라 저는 이 주제에 대한 새로운 강의를 추가할 것입니다.
05:09
as we continue through this lesson,
72
309225
1460
따라서 이 강의를 계속하면서
05:11
I'm going to use a very conversational approach and I'll be highlighting the key
73
311105
4900
저는 매우 대화적인 접근 방식을 사용하여 저는 현재
05:16
vocabulary English speakers are using right now to talk about AI.
74
316135
4790
영어 사용자들이 AI에 대해 이야기하기 위해 사용하고 있는 주요 어휘를 강조하겠습니다.
05:21
Specifically when we talk about the length of time AI has existed,
75
321404
3921
특히 AI가 존재한 기간
05:25
as well as why it feels so new right now.
76
325904
2861
과 현재 AI가 왜 그렇게 새롭게 느껴지는지에 대해 이야기할 때 그렇습니다.
05:29
All highlight language we use to talk about the pros of AI and the
77
329385
4579
AI의 장점과 우리가
05:33
potential benefits we might experience.
78
333965
1880
경험할 수 있는 잠재적 이점에 대해 이야기하기 위해 사용하는 모든 강조 언어는 다음과 같습니다. 우리가
05:36
We'll talk about the cons and the fears we might have,
79
336495
3870
가질 수 있는 단점과 두려움에 대해 이야기하고 현재 생활과 미래 생활
05:40
and I'll end with the role of AI in our current lives and possibly in the
80
340904
4941
에서 AI의 역할로 마무리하겠습니다
05:45
future. So point number one. As I mentioned earlier,
81
345846
3519
. 첫 번째 요점입니다 . 앞서 언급했듯이
05:50
AI isn't new.
82
350185
1020
AI는 새로운 것이 아닙니다. 이 주제에 관한 모든 소문이
05:52
It definitely feels new to many of us with all the buzz happening around this
83
352105
4580
우리 중 많은 사람들에게 확실히 새로운 느낌을 주지만
05:56
topic, but as I highlighted,
84
356686
2159
, 제가 강조했듯이
05:59
this term was originally used in the 1950s.
85
359355
2810
이 용어는 원래 1950년대에 사용되었습니다.
06:03
Progress in this industry was slow until scientists greenlit
86
363205
4800
과학자들이 새로운 아이디어를 승인할 때까지 이 산업의 발전은 느렸습니다
06:08
a new idea. Neural networks.
87
368485
2320
. 신경망.
06:11
Let me pause here to talk about some of the vocabulary I just used to greenlight
88
371464
4781
여기서 잠시 멈춰서 제가 방금 사용한 몇 가지 어휘에 대해 이야기해 보겠습니다.
06:16
something means to give permission to move forward or go ahead with
89
376246
4679
승인이란 무엇인가를 진행하거나 일반적으로 프로젝트를 진행할 수 있는 권한을 부여하는 것을 의미합니다
06:20
something, usually with a project.
90
380926
1799
.
06:23
A neural network is a mathematical system that learns
91
383685
4680
신경망은
06:28
skills by finding statistical patterns in data,
92
388505
3459
데이터에서 통계적 패턴을 찾아 기술을 학습하는 수학적 시스템으로,
06:32
and they're inspired by the connections between neurons in the human brain.
93
392585
4660
인간 두뇌의 뉴런 간 연결에서 영감을 받았습니다.
06:38
When scientists greenlit this new idea,
94
398035
2890
과학자들이 이 새로운 아이디어를 승인했을 때
06:41
it gave way to systems such as Alexa, Siri,
95
401505
4540
Alexa, Siri
06:46
and a more powerful version of Google Translate.
96
406545
2980
및 더 강력한 버전 의 Google 번역과 같은 시스템이 등장했습니다.
06:50
The next big shift came when tech companies began building large
97
410105
4900
다음으로 큰 변화는 기술 회사들이 대규모 언어 모델을 구축하기 시작했을 때 나타났습니다
06:55
language models.
98
415365
833
.
06:56
These are neural networks that are trained on vast
99
416615
4310
이는 Wikipedia 및 블로그와 같은 방대한
07:01
amounts of internet texts and data such as
100
421154
4171
양의 인터넷 텍스트 및 데이터에 대해 훈련된 신경망입니다
07:05
Wikipedia and blogs.
101
425555
1290
. 언어 모델이
07:07
Let's talk a little bit more about what a language model is because this is a
102
427575
3950
무엇인지 좀 더 이야기해 보겠습니다.
07:11
term that is used often in conversations on ai.
103
431526
3079
AI에 대한 대화에서 자주 사용되는 용어이기 때문입니다.
07:15
To understand a language model,
104
435065
1980
언어 모델을 이해하려면 신경망을
07:17
we need to go back to understanding a neural network. Again,
105
437065
4580
이해하는 과정으로 돌아가야 합니다 . 다시 말하지만,
07:21
a neural network is a mathematical system that learns skills by finding
106
441805
4960
신경망은 데이터에서 통계적 패턴을 찾아 기술을 학습하는 수학적 시스템입니다
07:27
statistical patterns in data.
107
447155
1810
.
07:29
A language model is a neural network that learns new skills
108
449605
4360
언어 모델은
07:34
by analyzing texts from the internet.
109
454545
2620
인터넷의 텍스트를 분석하여 새로운 기술을 학습하는 신경망입니다.
07:37
Examples of this include predicting the next word in a pattern,
110
457885
3560
이에 대한 예로는 패턴의 다음 단어 예측,
07:41
writing computer code,
111
461795
1410
컴퓨터 코드 작성,
07:43
having conversations and writing prose. Over time,
112
463465
4740
대화 및 산문 작성이 포함됩니다. 시간이 지남에 따라
07:48
newer generations of artificial intelligence gobbled up information
113
468535
4350
새로운 세대의 인공 지능은 정보를 흡수
07:53
and learned to perform more sophisticated tasks to gobble
114
473505
4900
하고 더 정교한 작업을 수행하여 정보를
07:58
up something means to use or eat it quickly.
115
478406
3039
빨리 사용하거나 먹기 위한 수단을 삼키는 방법을 배웠습니다.
08:02
These next generation AI models are what we now call
116
482095
4470
이러한 차세대 AI 모델은 현재 우리가
08:06
generative ai.
117
486735
1190
생성적 AI라고 부르는 것입니다.
08:08
Generative AI is a technology that creates new content.
118
488495
4350
제너레이티브 AI(Generative AI)는 새로운 콘텐츠를 만드는 기술이다. 예를 들어
08:13
It can create content such as text images and computer code,
119
493505
4700
텍스트 이미지, 컴퓨터 코드 등의 콘텐츠를 만들 수 있습니다
08:18
for example.
120
498225
833
.
08:19
All of this comes from trained neural networks that have analyzed
121
499585
4820
이 모든 것은 인터넷 정보를 분석한 훈련된 신경망에서 비롯됩니다
08:24
information on the internet.
122
504475
1770
. 정의와 함께 예를
08:26
I think it's always helpful to have examples along with definitions.
123
506965
3600
갖는 것이 항상 도움이 된다고 생각합니다 .
08:31
So here are a few common examples of generative ai,
124
511145
3860
다음은 생성 AI,
08:35
Alexa ChatGPT, Google Assistant, and Google Bard.
125
515775
4110
Alexa ChatGPT, Google Assistant 및 Google Bard의 몇 가지 일반적인 예입니다.
08:40
These technologies spit out responses to requests
126
520415
4750
이러한 기술은 정보 요청이나 프롬프트에 대한 응답을 뱉어낸다는 것은
08:45
or prompts for information to spit out a response means to quickly
127
525485
4760
신속하게
08:50
produce an answer or a response. You might, for example,
128
530275
3970
답변이나 응답을 생성하는 것을 의미합니다. 예를 들어
08:54
enter a prompt into chatGPT asking for an overview on a recent
129
534495
4710
chatGPT에 최근
08:59
government policy or a book summary,
130
539206
2559
정부 정책이나 도서 요약에 대한 개요
09:02
or the best way to grow a particular house plant and instantly receive a
131
542025
4500
또는 특정 실내 식물을 재배하는 가장 좋은 방법을 묻는 메시지를 입력하고 즉시
09:06
response.
132
546765
810
응답을 받을 수 있습니다.
09:07
Other generative AI systems have been developed to specialize in a immersive
133
547575
4750
몰입형
09:13
augmented reality experiences, database analysis and summarization,
134
553115
4930
증강 현실 경험, 데이터베이스 분석 및 요약,
09:18
mental health support, health diagnosis, and so much more.
135
558385
4580
정신 건강 지원, 건강 진단 등을 전문으로 하기 위해 다른 생성 AI 시스템이 개발되었습니다.
09:23
Now that we have this general sense of where AI came from and some of the core
136
563745
4500
이제 우리는 AI가 어디서 왔는지와 몇 가지 핵심
09:28
concepts,
137
568365
833
개념에 대한 일반적인 이해를 가지게 되었습니다. 이제
09:29
let's move on to talking about the pros of AI and its possible
138
569335
4590
AI의 장점과 가능한
09:34
benefits, and again,
139
574245
1480
이점에 대해 이야기해 보겠습니다. 다시 한 번
09:35
the most important part of what I want to share with you is the core vocabulary
140
575745
4340
제가 여러분과 공유하고 싶은 가장 중요한 부분은 다음과 같습니다.
09:40
you can use in talking about this with others.
141
580145
2140
이에 대해 다른 사람과 이야기할 때 사용할 수 있는 핵심 어휘입니다.
09:43
If you're a big fan of artificial intelligence or you love talking about the
142
583265
4500
당신이 인공 지능의 열렬한 팬이거나 가능한 이점에 대해 이야기하는 것을 좋아한다면
09:48
possible benefits,
143
588045
833
,
09:49
here are the pros you might highlight and the language you would use in English
144
589635
4530
강조할 수 있는 장점 과 그렇게 하기 위해 영어로 사용할 언어는 다음과 같습니다
09:54
to do so. First,
145
594166
1439
. 첫째,
09:55
AI already plays a pivotal role in our lives in how we work, create,
146
595985
4580
AI는 우리가 일하고, 창조하고,
10:00
think, search, interact process, and more.
147
600775
3670
생각하고, 검색하고, 상호 작용하는 과정 등의 방식에서 이미 우리 삶에서 중추적인 역할을 하고 있습니다.
10:04
If something has a pivotal role in our lives,
148
604985
2540
어떤 것이 우리 삶에서 중추적인 역할을 한다는 것은
10:07
it means that it has a critical or vitally important position,
149
607985
3940
그것이
10:12
whether it's at work, home, or school.
150
612395
2530
직장, 집, 학교에서 중요하거나 매우 중요한 위치를 차지하고 있다는 것을 의미합니다.
10:15
The use of AI fosters creativity by freeing up your mind space
151
615425
4860
AI를 사용하면 마음의 공간
10:20
or mental capacity, for example,
152
620425
2580
이나 정신 능력을 자유롭게 하여 창의력을 키울 수 있습니다. 예를 들어
10:23
by making some of your tasks more efficient in accurate,
153
623065
3020
작업의 일부를 정확하고 효율적으로 만들어
10:26
it frees up time for you to then focus on high level
154
626625
4820
높은 수준의
10:31
creative thinking or strategic thinking. For example,
155
631845
3320
창의적 사고나 전략적 사고에 집중할 수 있는 시간을 확보합니다. 예를 들어,
10:35
AI can help to provide a more accurate diagnosis in healthcare,
156
635825
3420
AI는 의료 분야에서 보다 정확한 진단을 제공하고,
10:39
spark creative ideas in a meeting,
157
639775
1790
회의에서 창의적인 아이디어를 촉발하고,
10:42
provide a tailored personalized learning plan for a student.
158
642195
4290
학생을 위한 맞춤형 맞춤형 학습 계획을 제공하는 데 도움이 될 수 있습니다.
10:47
It can quickly analyze a vast amount of user feedback,
159
647385
3900
방대한 양의 사용자 피드백을 신속하게 분석하고, 도로에서의
10:51
enhance safety and efficiency on roads, personalized marketing,
160
651675
4730
안전성과 효율성을 향상시키며 , 개인화된 마케팅,
10:57
minimize human error, and more.
161
657445
2000
인적 오류 최소화 등을 수행할 수 있습니다.
10:59
The meteoric rise of generative AI and its widespread
162
659865
4540
생성적 AI의 급격한 증가 와 광범위한
11:04
acceptance.
163
664695
833
수용.
11:06
Speak to society's desire for a modern tool that allows us
164
666015
4870
11:10
to have more balance, efficiency and innovation.
165
670886
3239
더 많은 균형, 효율성 및 혁신을 가능하게 하는 현대적인 도구에 대한 사회의 요구에 대해 이야기하십시오.
11:14
If something has widespread acceptance,
166
674745
2620
어떤 것이 널리 받아들여진다면,
11:17
it means there's a general agreement that something should be included or that
167
677745
4500
어떤 것이 포함되어야 한다거나
11:22
something is right. Now with all those benefits of AI,
168
682246
4159
어떤 것이 옳다는 일반적인 합의가 있다는 의미입니다. 이제 AI의 모든 이점에도 불구하고
11:26
there are definitely some potential drawbacks and reasonable fears.
169
686615
4670
분명히 몇 가지 잠재적인 단점과 합리적인 두려움이 있습니다.
11:32
Well, we're not sure if AI is going to overtake humanity.
170
692115
4210
글쎄요, AI가 인류를 능가할지는 확실하지 않습니다.
11:36
In other words, become the most dominant form of intelligence on earth.
171
696545
4139
즉, 지구상에서 가장 지배적인 형태의 지능이 되는 것입니다.
11:41
There are some cons we should address. At its extreme,
172
701215
4390
우리가 해결해야 할 몇 가지 단점이 있습니다 . 극단적으로
11:46
AI threatens to replace humans in the workforce.
173
706304
2301
AI는 인력에서 인간을 대체할 위협을 하고 있습니다.
11:49
That threat is a real concern, and at least in the short term,
174
709755
4049
이러한 위협은 실질적인 우려 사항이며, 적어도 단기적으로는
11:53
while there are certainly tasks that can be delegated to ai,
175
713815
3910
확실히 AI에 위임할 수 있는 작업이 있지만
11:58
it's more likely that employers will seek out job candidates
176
718275
4370
고용주는
12:03
who have up to date AI skills.
177
723105
2460
최신 AI 기술을 갖춘 구직자를 찾을 가능성이 더 높습니다.
12:06
As AI normalization continues, unfortunately,
178
726225
4140
AI 정규화가 계속되면서 불행하게도
12:10
this could result in forcing out those who struggle in
179
730875
4450
12:15
adapting to this changing environment.
180
735804
1761
변화하는 환경에 적응하는 데 어려움을 겪는 사람들이 강제로 밀려날 수 있습니다.
12:18
In addition to the potential for job loss, AI isn't foolproof.
181
738425
4620
일자리 손실 가능성 외에도 AI는 완벽하지 않습니다.
12:23
It occasionally produces what we call hallucinations.
182
743705
2979
그것은 때때로 우리가 환각이라고 부르는 것을 만들어냅니다.
12:27
A hallucination in this context is incorrect
183
747525
4159
이런 맥락에서 환각은 AI가
12:31
information generated by AI but presented as fact,
184
751995
4570
생성한 잘못된 정보를 사실로 제시하는 것이며,
12:37
and of course, this can be dangerous when information isn't fact checked.
185
757304
4901
물론 정보를 사실 확인하지 않으면 위험할 수 있습니다.
12:42
This particular problem can occur when an AI entity is trained
186
762835
4530
이 특정 문제는 AI 엔터티가
12:47
on old limited low quality data,
187
767705
3700
오래되고 제한된 저품질 데이터에 대해 훈련을 받고,
12:52
and in the analysis of that old limited low quality data,
188
772184
4301
오래되고 제한된 저품질 데이터를 분석할 때 정확한 응답이라고
12:57
it generates what it considers to be an accurate response,
189
777145
4659
간주되는 것을 생성할 때 발생할 수 있습니다.
13:02
although that may not be the case. Moreover,
190
782605
2800
그러나 그렇지 않을 수도 있습니다 . 더욱이
13:05
when someone requests information or enters a prompt that is
191
785515
4570
누군가가 불분명하거나 속어나 관용어를 사용하거나 간결하지 않은 정보를 요청하거나 프롬프트를 입력하면
13:10
unclear, uses slang or idioms or isn't concise,
192
790395
4289
13:15
it can cause further confusion. In the end,
193
795345
3220
더 큰 혼란을 야기할 수 있습니다 . 결국,
13:18
these hallucinations can perpetuate significant harm by spreading
194
798615
4830
이러한 환각은 일자리에 대한 위협과 이러한 환각에 더해
13:23
disinformation to perpetuate means to make an undesired
195
803505
4660
바람직하지 않은
13:28
situation or an unfounded belief continue in addition to the
196
808605
5000
상황이나 근거 없는 믿음을 지속시키는 수단을 영속시키기 위해 허위 정보를 확산시켜 심각한 피해를 영속시킬 수 있습니다
13:33
threat to jobs and these hallucinations.
197
813606
2839
. 해를 끼칠
13:36
Another possible area of harm is the ability for AI to
198
816915
4250
수 있는 또 다른 영역은 AI가 지시에 따라
13:41
impersonate individuals or create fake identities when instructed to do so,
199
821475
4970
개인을 사칭하거나 가짜 신원을 생성할 수 있는 능력,
13:47
to impersonate means to pretend to be another person,
200
827145
3580
13:50
whether it's out of a desire to entertain or to deceive,
201
830726
4399
즐거움을 주려는 욕구에서든 속이기 위한 욕구에서든 다른 사람인 것처럼 가장하는 수단으로,
13:55
this could create greater chances of identity theft and it blurs
202
835755
4890
이는 더 큰 기회를 창출할 수 있다는 것입니다. 신원 도용으로 인해
14:00
the lines between right and wrong, real and fake.
203
840646
3759
옳고 그름, 진짜와 가짜 사이의 경계가 모호해집니다.
14:05
In other words,
204
845184
833
즉,
14:06
it can erode or destroy the confidence and credibility
205
846385
4780
14:11
in someone or something.
206
851665
1740
누군가 또는 사물의 자신감과 신뢰성을 침식하거나 파괴할 수 있습니다.
14:14
I talked briefly about the type of data fed to AI,
207
854245
3960
AI에 입력되는 데이터의 종류에 대해 간략하게 이야기했는데,
14:18
and I want to elaborate on that a bit.
208
858225
1820
이에 대해 좀 더 자세히 설명하고 싶습니다.
14:20
There are concerns about where data comes from and copyright
209
860695
4870
데이터의 출처와 저작권
14:25
infringement.
210
865566
833
침해에 대한 우려가 있습니다.
14:27
Copyright infringement occurs when content protected by
211
867155
4730
저작권 침해는 저작권 으로 보호되는 콘텐츠를 무단으로
14:32
copyright is used without permission or when it violates the
212
872075
4730
사용하거나 부여
14:36
rights granted. Now, with all of these pros and cons,
213
876806
4479
된 권리를 침해하는 경우 발생합니다. 이제 이 모든 장단점에도 불구하고
14:42
society is still at odds with the regulations that should
214
882035
4890
사회는 여전히 갈등을 일으킬 수 있는 수단과 충돌하기 위해 제정되어야 할 규정에 대해 충돌하고 있습니다
14:46
be put in place to be at odds with something means to be in conflict.
215
886926
4519
. 구현해야 할
14:51
There isn't agreement on the policies or regulations that should be
216
891695
4510
정책이나 규정에 대한 합의가 없습니다
14:56
implemented. As AI continues to evolve at lightning speed,
217
896206
4599
. AI가 계속해서 빛의 속도로 발전함에 따라
15:01
governments question whether current regulations are effective
218
901355
4450
정부는 현재 규정이 혁신
15:06
in balancing the need for innovation and safeguarding
219
906145
4900
요구의 균형을 맞추고
15:11
the public from harm now and in the future.
220
911345
2620
현재와 미래의 피해로부터 대중을 보호하는 데 효과적인지 의문을 제기합니다.
15:14
And that brings me to our fourth point that we're going to talk about today.
221
914665
3460
그리고 그것은 우리가 오늘 이야기할 네 번째 요점으로 이어졌습니다 .
15:18
Along with the key vocabulary,
222
918535
1630
핵심 어휘와 함께 AI
15:20
you need the current role of AI and its possible future.
223
920185
3940
의 현재 역할 과 가능한 미래가 필요합니다.
15:24
As the world of AI continues to evolve,
224
924945
2340
AI의 세계가 계속 발전함에 따라
15:28
so too does the conversation around ethical concerns.
225
928345
3180
윤리적 문제에 대한 대화도 계속 발전하고 있습니다.
15:31
An ethical concern is any circumstance in which a moral
226
931905
4300
윤리적 우려는 도덕적
15:36
conflict exists. In just this last year,
227
936725
2720
갈등이 존재하는 모든 상황을 의미합니다. 작년에만
15:39
we've seen the rise of new tech empires and leaders in every field race
228
939735
4950
우리는 이 기술을 수용하기 위해 모든 분야 경쟁에서 새로운 기술 제국과 리더가 등장하는 것을 보았습니다
15:44
to embrace this technology. On top of that,
229
944905
3180
. 게다가
15:48
the introduction of ChatGPT to the mainstream has produced
230
948265
4740
ChatGPT가 주류에 도입되면서
15:53
new schools of thought and it continues to reshape our society as
231
953065
4940
새로운 사고 방식이 생겨났고 지금 이 순간 에도 우리 사회는 계속해서 변화하고 있습니다
15:58
we speak.
232
958006
833
.
15:59
When something is introduced to the mainstream or accepted by the
233
959075
4610
어떤 것이 주류에 소개되거나 주류 에 의해 수용된다는 것은 특정 시점에서
16:03
mainstream, it means the ideas, attitudes,
234
963686
3039
아이디어, 태도,
16:06
and activities are perceived as normal or conventional at
235
966726
4919
활동이 정상적이거나 관습적인 것으로 인식된다는 것을 의미합니다
16:11
this particular point in time.
236
971646
1399
. 앞으로 AI가 우리 삶에
16:13
There's no way for me to fully predict how
237
973275
4570
어떤 영향을 미칠지 완전히 예측할 수는 없습니다
16:18
AI will influence our lives going forward. However,
238
978185
3140
. 하지만
16:21
what I can share is a mindset and the language I
239
981435
4770
제가 공유할 수 있는 것은
16:26
hear many others using.
240
986206
1799
많은 사람들이 사용하는 사고방식과 언어입니다.
16:28
As we think about the best way to use AI in our lives right now,
241
988545
4580
지금 우리 삶에서 AI를 사용하는 가장 좋은 방법에 대해 생각할 때,
16:33
we can harness its potential to improve quality of life,
242
993825
4020
우리는 삶의 질을 향상시키기 위해 AI의 잠재력을 활용할 수 있습니다.
16:37
particularly if we view AI as an extension or
243
997846
4719
특히 AI를 수단을 활용하는
16:42
a tool that enhances our abilities rather than
244
1002765
4440
능력을 대체하는 것이 아니라
16:47
replacing our abilities to harness means to bring something
245
1007675
4930
능력을 향상시키는 도구 또는 확장으로 본다면 더욱 그렇습니다.
16:52
into control in order to have power or control over it. Now,
246
1012915
4490
권력을 갖거나 통제하기 위해 어떤 것을 통제하게 하다. 이제 오늘 연습 문제를
16:57
before we get to my practice question today,
247
1017406
1959
시작하기 전에
16:59
because I do want you to have the opportunity to practice the vocabulary you've
248
1019366
4919
여러분이 배운 어휘를 연습
17:04
learned and to share your thoughts on this topic,
249
1024286
2319
하고 이 주제에 대한 생각을 공유할 수 있는 기회를 갖기를 바라기 때문에
17:07
I want to reiterate that I'm not an expert in the AI industry.
250
1027405
3800
저는 이 분야의 전문가가 아니라는 점을 다시 한번 강조하고 싶습니다. AI 산업.
17:11
My goal here is entirely to give you the vocabulary you need to speak on this
251
1031345
4820
여기서 나의 목표는 전적으로 여러분이 이 주제에 관해 이야기하는 데 필요한 어휘를 제공
17:16
topic and to share your thoughts on it.
252
1036166
2559
하고 이에 대한 여러분의 생각을 공유하는 것입니다.
17:19
If there's anything I got wrong in this lesson,
253
1039385
2220
이번 강의에서 제가 잘못한 부분이 있다면 여러분의
17:22
I welcome your comments and now here's my question for you.
254
1042005
3320
의견을 환영합니다. 이제 질문을 드리겠습니다.
17:26
What do you think about AI? What's your opinion on it?
255
1046195
3530
AI에 대해 어떻게 생각하시나요? 그것에 대한 당신의 의견은 무엇입니까?
17:30
Do you view it as primarily a positive with benefits that improve our lives,
256
1050385
4900
당신은 이를 주로 우리의 삶을 개선하는 이점이 있는 긍정적인 것으로 보십니까,
17:35
or do you have some concerns about it? However you feel about it,
257
1055744
4740
아니면 그것에 대해 우려하고 있습니까 ? 어떻게 생각하시든, 저
17:40
I invite you to share with me,
258
1060685
1280
와 공유해 보시고 오늘
17:41
and I want you to try using two or three of the vocabulary words or
259
1061984
4981
17:46
phrases you learned in this lesson today. As always,
260
1066966
2839
이 수업에서 배운 어휘나 표현 중 두세 가지를 사용해 보시기 바랍니다 . 언제나 그렇듯이,
17:50
the best place for you to do that is in the comments below.
261
1070105
2980
가장 좋은 곳은 아래 댓글입니다.
17:53
If you'd like to also see this content in writing,
262
1073785
3220
이 내용을 서면으로도 보고 싶으시면
17:57
you can find it all at my Speak Confident English website.
263
1077145
3099
저의 Speak Confident English 웹사이트에서 모두 찾아보실 수 있습니다 . 동영상 바로 아래에
18:00
I'll leave a direct link to this lesson just below the video.
264
1080595
3290
이 강의에 대한 직접 링크를 남겨두겠습니다 .
18:04
If you found this helpful,
265
1084545
1300
이 내용이 도움이 되었다면
18:06
I would love to know and you can tell me in a few simple ways. Number one,
266
1086405
3720
알고 싶습니다. 몇 가지 간단한 방법으로 알려주실 수 있습니다. 첫째,
18:10
you can give this lesson a thumbs up here on YouTube.
267
1090126
2199
여기 YouTube에서 이 강의에 좋아요를 눌러주세요.
18:12
You can also subscribe to my Speak Confident English Channel,
268
1092825
3020
또한 제 Speak Confident English 채널을 구독하시면
18:15
so you never miss one of my Confident English lessons. And finally,
269
1095945
3820
제 Confident English 수업 중 하나도 놓치지 않으실 수 있습니다 . 마지막으로
18:20
you can share a comment with me below. Thank you so much for joining me,
270
1100105
3420
아래에서 저와 의견을 공유하실 수 있습니다. 함께해주셔서 너무 감사드리며,
18:23
and I look forward to seeing you next time.
271
1103705
1700
다음에 또 뵙기를 기대하겠습니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7