ADVANCED English Vocabulary in context | Learn English with the News

94,914 views ・ 2023-05-31

Learn English with Harry


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:00
Hi there, this is Harry and welcome back to advanced English lessons with Harry, where
0
179
3971
안녕하세요. Harry입니다. Harry와 함께하는 고급 영어 수업에 다시 오신 것을 환영합니다. 여기서
00:04
I tried to help you to get a better understanding of the English language helping you with vocabulary
1
4150
5500
저는 여러분이 영어를 더 잘 이해할 수 있도록 어휘
00:09
expressions, phrases, whatever it takes to help you to improve conversational English,
2
9650
5470
표현, 구문, 영어 회화 실력을 향상시키는 데 도움이 되는 모든 것을 도와드리고자 노력했습니다.
00:15
or indeed your business English.
3
15120
1749
또는 실제로 귀하의 비즈니스 영어.
00:16
And from time to time, we include an article and newsy article, something in the news.
4
16869
5571
그리고 때때로 우리는 뉴스에 기사와 뉴스 기사를 포함합니다.
00:22
And I read that for you, and they give you some words and expressions that have been
5
22440
3950
그리고 나는 당신을 위해 그것을 읽었고 그들은 당신에게 기사에서 사용된 몇 가지 단어와 표현을 제공
00:26
used in the article and explain what they mean.
6
26390
3110
하고 그것이 의미하는 바를 설명합니다 .
00:29
So that's exactly what we're going to do in this particular lesson.
7
29500
2919
이것이 바로 우리가 이 특정 수업에서 하려는 것입니다.
00:32
And at the end of the lesson, if you need any further help with any further explanations
8
32419
5191
그리고 수업이 끝날 때 추가 설명
00:37
or examples, then please write to me on www.englishlessonviaskype.com and I'll happily provide you with any information
9
37610
8320
이나 예에 대한 추가 도움이 필요하면 www.englishlessonviaskype.com에 저에게 편지를 보내주세요. 원하는 정보나 필요한 정보를 기꺼이 제공해 드리겠습니다
00:45
that you like or that you need.
10
45930
1750
.
00:47
Okay, so getting back to this advanced English lesson, it's all about an article, the article
11
47680
5000
자, 이 고급 영어 수업으로 돌아가서, 기사에 관한 것이 전부입니다.
00:52
appeared in The Guardian newspaper, which is a really nice source of well-balanced articles
12
52680
6640
The Guardian 신문에 실린 기사입니다. 이 기사는 우리가 때때로 읽고 싶어하는 균형잡힌 기사의 정말 좋은 출처입니다
00:59
that we like to read from time to time.
13
59320
2480
.
01:01
And the particular heading in this particular article is" Another warning about the AI apocalypse.
14
61800
8020
그리고 이 특정 기사의 특정 제목은 "AI 종말에 대한 또 다른 경고.
01:09
I don't buy it."
15
69820
1839
나는 그것을 사지 않습니다."입니다.
01:11
So it's not my opinion.
16
71659
1640
그래서 그것은 내 의견이 아닙니다. 특정 기사를
01:13
It's the opinion of the journalist who wrote the particular article.
17
73299
3210
쓴 기자의 의견입니다 .
01:16
So he's just saying, or she is saying, another warning about the AI, the artificial intelligence,
18
76509
6641
그래서 그는 인공 지능, 인공 지능, 종말에 대한 또 다른 경고를 말하고 있습니다.
01:23
apocalypse, people think we're coming into a major, major catastrophe dealing with artificial
19
83150
6620
사람들은 우리가 인공 지능을 다루는 중대한 재앙에 직면하고 있다고 생각합니다
01:29
intelligence.
20
89770
1000
.
01:30
And the journalist says, I don't buy it, meaning they don't necessarily agree with it.
21
90770
5560
그리고 기자는 "나는 그것을 사지 않는다"고 말하는데, 그들이 반드시 그것에 동의하는 것은 아니라는 뜻입니다.
01:36
So what I do, I'll read it once just for you to get the gist of what it's about, then I'll
22
96330
4260
그래서 제가 하는 것은, 여러분이 내용의 요점을 이해하도록 한 번 읽고 , 특정 단어에
01:40
read it a second time putting some stress on certain words, and then I'll come back
23
100590
4489
약간의 강세를 두고 두 번째로 읽을 것입니다.
01:45
and I'll give you an explanation as to the meaning of those particular words.
24
105079
3921
특정 단어의 의미에 대한 설명을 제공합니다.
01:49
Okay, so let's start.
25
109000
2100
자, 시작하겠습니다.
01:51
And here's the text.
26
111100
1510
그리고 여기 텍스트가 있습니다.
01:52
So I read it once for you just to get a gist and then a second time to get a better understanding.
27
112610
4899
그래서 요점을 파악하기 위해 한 번 읽고 더 나은 이해를 위해 두 번째로 읽었습니다. 다시
01:57
And I'll come back and give you the particular words and expressions that I've highlighted,
28
117509
4281
돌아와서 제가 강조한 특정 단어와 표현을 알려드릴
02:01
so you get a meaning and how we can use them.
29
121790
3249
테니 의미와 사용 방법을 알아보세요.
02:05
So here's the first reading just for the just AI tools like Chat GPT are everywhere.
30
125039
7420
여기 어디에나 있는 Chat GPT와 같은 AI 도구에 대한 첫 번째 자료가 있습니다. AI 기술의 급증을 가져온 것은
02:12
It is the combination of computational power, and availability of data that has led to a
31
132459
5511
계산 능력과 데이터 가용성의 조합입니다
02:17
surge in AI technology.
32
137970
2769
.
02:20
But the reason models such as Chat GPT and Bard have made such a spectacular splash is
33
140739
5511
그러나 Chat GPT 및 Bard와 같은 모델이 큰 인기를 얻은 이유는
02:26
that they have hit our own homes, with around 100 million people currently using them.
34
146250
6670
현재 약 1억 명의 사람들이 사용하고 있는 우리 가정을 강타했기 때문입니다.
02:32
This has led to a very fraught public debate, it is predicted that a quarter of all jobs
35
152920
5450
이로 인해 매우 혼란스러운 공개 토론이 이어졌습니다. 모든 일자리의 4분의 1이
02:38
will be affected one way or another by AI and some companies are holding back on recruitment
36
158370
6960
AI의 영향을 받을 것으로 예상되며 일부 회사는
02:45
to see which jobs can be automated.
37
165330
3670
어떤 일자리가 자동화될 수 있는지 알아보기 위해 채용을 보류하고 있습니다.
02:49
Fears about AI can move markets, as we saw yesterday when Pearson shares tumbled over
38
169000
5780
AI에 대한 두려움은 시장을 움직일 수 있습니다
02:54
concerns that AI would disrupt its business.
39
174780
4500
.
02:59
And looming above the day to day debate are the sometimes apocalyptic warnings about the
40
179280
5500
그리고
03:04
long term dangers of AI technologies, often from loud and arguably authoritative voices
41
184780
7140
AI 기술의 장기적인 위험에 대한 묵시적인 경고가 날마다 떠오르고 있으며, 종종 이러한 기술을 개발한 경영진과 연구자의 크고 권위 있는 목소리에서 나오는 경우가 많습니다.
03:11
belonging to executives, and researchers who developed these technologies?
42
191920
5590
03:17
So are people right to raise the spectre of apocalyptic AI driven destruction?
43
197510
6899
그렇다면 사람들이 묵시적인 AI 주도 파괴의 망령을 불러일으키는 것이 옳습니까?
03:24
In my view, no.
44
204409
1541
제 생각에는 아닙니다.
03:25
I agree that there are some sobering risks.
45
205950
3429
나는 냉정한 위험이 있다는 데 동의합니다.
03:29
But people are beginning to understand that these are socio technical systems that is
46
209379
6361
그러나 사람들은 이것이
03:35
not just neutral tools, but an inextricable bundle of code data subjective parameters,
47
215740
7860
단순한 중립적 도구가 아니라 코드 데이터 주관적 매개 변수
03:43
and people.
48
223600
1440
와 사람의 불가분의 묶음인 사회 기술 시스템이라는 것을 이해하기 시작했습니다.
03:45
AI's end users and the direction it develops, aren't inevitable, and addressing the risks
49
225040
7430
AI의 최종 사용자와 그것이 발전하는 방향은 불가피하지 않으며
03:52
of AI isn't simply a question of stop or proceed.
50
232470
5900
AI의 위험을 해결하는 것은 단순히 중단하거나 진행하는 문제가 아닙니다.
03:58
Companies are aware of these issues as they work on new systems, open AI, the company
51
238370
5819
회사는 새로운 시스템, 개방형 AI,
04:04
behind chat GPT, some of them are pretty well, it recognises that while a lot has been done
52
244189
6970
채팅 GPT 뒤에 있는 회사에서 작업할 때 이러한 문제를 인식하고 있습니다. 그 중 일부는 꽤 잘 알고 있지만 채팅에서
04:11
to root out racism and other forms of hate from chat, GP tes responses, manipulation,
53
251159
7531
인종 차별 및 기타 형태의 증오를 근절하기 위해 많은 작업을 수행했지만 GP는 응답, 조작
04:18
and hallucination, which means producing content that is nonsensical or untruthful, essentially
54
258690
7009
및 환각을 테스트합니다. 즉, 무의미하거나 진실하지 않은 콘텐츠를 생성하여 본질적으로
04:25
making stuff up still happen.
55
265699
2791
여전히 일어나는 일을 만드는 것을 의미합니다.
04:28
I'm confident that trial and era plus burgeoning research in this area will help.
56
268490
6420
나는 시행착오와 이 분야의 급성장하는 연구가 도움이 될 것이라고 확신합니다.
04:34
Okay, so that's the article.
57
274910
2039
자, 그럼 기사입니다.
04:36
So basically, what the journalist is saying is giving his opinion about the current surge
58
276949
6751
그래서 기본적으로 언론인이 말하는 것은 최근 6개월 정도 도입된
04:43
in the interest in artificial intelligence in particular systems such as Chat GPT and
59
283700
6170
Chat GPT 및 Bard와 같은 특정 시스템에서 인공 지능에 대한 관심이 현재 급증하고
04:49
Bard which have been introduced in the last six months or so and there are lots and lots
60
289870
4400
있으며 많은
04:54
of people around the world using it.
61
294270
2680
사람들이 있는 것에 대해 자신의 의견을 말하고 있습니다. 그것을 사용하는 전 세계.
04:56
But there are also frustrations because the imp act of Chat GPT and other artificial intelligence
62
296950
6580
그러나 Chat GPT 및 기타 인공 지능이
05:03
on current jobs is huge.
63
303530
2340
현재 작업에 미치는 영향이 크기 때문에 좌절감도 있습니다.
05:05
And people, of course, are panicking and worried as to what the future will hold for jobs.
64
305870
5010
물론 사람들은 미래의 직업에 대해 당황하고 걱정하고 있습니다 .
05:10
So this particular journalist believes that balance is important that yes, these issues
65
310880
5950
그래서 이 특정 저널리스트는 균형이 중요하다고 생각합니다. 예, 이러한 문제가
05:16
are there.
66
316830
1809
있습니다.
05:18
But we shouldn't be overly concerned.
67
318639
1661
그러나 지나치게 걱정할 필요는 없습니다.
05:20
And like everything else, we should learn to embrace these new developments.
68
320300
4060
그리고 다른 모든 것과 마찬가지로 우리는 이러한 새로운 발전을 받아들이는 법을 배워야 합니다.
05:24
They happen to be my own opinion, I think that's actually quite right, that it's senseless
69
324360
4690
그것들은 제 자신의 의견입니다. 제 생각에는 그것들이 어쨌든 거기에 있을 것이기 때문에
05:29
and difficult to push them aside and ban them or try to ban them because they will be there
70
329050
5709
그것들을 제쳐두고 금지하거나 금지하려고 시도하는 것은 무의미하고 어렵다는 것이 실제로 꽤 옳다고 생각합니다
05:34
anyway.
71
334759
1000
.
05:35
So we might as well embrace what is there and tried to work for the good and the better
72
335759
4821
그래서 우리는 거기에 있는 것을 포용 하고 모든 사람의 선과 더 나은 것을 위해 일하려고 노력하는 것이 좋을 것입니다
05:40
of everyone.
73
340580
1000
.
05:41
Okay, so et me read it to you a second time a little bit more slowly.
74
341580
3680
좋아요, 그럼 제가 두 번째로 조금 더 천천히 읽어드리겠습니다.
05:45
Okay, so that you can understand it.
75
345260
2020
좋아, 네가 이해할 수 있도록.
05:47
And then I'll give you a meaning of the words that I've highlighted.
76
347280
4509
그런 다음 강조 표시한 단어의 의미를 알려 드리겠습니다 .
05:51
AI tools like Chat GPT are everywhere.
77
351789
3671
Chat GPT와 같은 AI 도구는 어디에나 있습니다. AI 기술의 급증을 가져온 것은
05:55
It is the combination of computational power and availability of data that has led to a
78
355460
5690
계산 능력과 데이터 가용성의 조합입니다
06:01
surge in AI technology.
79
361150
1970
.
06:03
But the reason models such as Chat GPT and Bard have made such a spectacular splash is
80
363120
7240
그러나 Chat GPT 및 Bard와 같은 모델이 큰 인기를 얻은 이유는
06:10
that they have hit our own homes, with around 100 million people currently using them.
81
370360
7040
현재 약 1억 명의 사람들이 사용하고 있는 우리 가정을 강타했기 때문입니다.
06:17
This has led to a very fraught public debate, it is predicted that a quarter of all jobs
82
377400
5840
이로 인해 매우 혼란스러운 공개 토론이 이어졌습니다. 모든 일자리의 4분의 1이
06:23
will be affected one way or another by AI and some companies are holding back on recruitment
83
383240
6859
AI의 영향을 받을 것으로 예상되며 일부 회사는
06:30
to see which jobs can be automated.
84
390099
3630
어떤 일자리가 자동화될 수 있는지 알아보기 위해 채용을 보류하고 있습니다.
06:33
fears about AI can move markets.
85
393729
1691
AI에 대한 두려움이 시장을 움직일 수 있습니다.
06:35
And as we saw yesterday, when Pearson shares tumbled over concerns that AI would disrupt
86
395420
7339
그리고 어제 본 것처럼 Pearson 주가는 AI가 비즈니스를 방해할 것이라는 우려로 폭락했습니다
06:42
its business.
87
402759
1961
.
06:44
And looming about the day to day debate, or the sometimes apocalyptic warnings about the
88
404720
5810
그리고 이러한 기술을 개발한 경영진과 연구원의 크고 권위 있는 목소리에서 나오는 AI 기술의 장기적인 위험에 대한 매일매일의 논쟁이나 때로는 묵시적인 경고에 대해 어렴풋이 나타나고 있습니다
06:50
long term dangers of AI technologies, often from loud and arguably authoritative voices
89
410530
7099
06:57
belonging to executives and researchers who developed these technologies.
90
417629
5741
.
07:03
So are people right to raise the spectre of apocalyptic AI driven destruction?
91
423370
7139
그렇다면 사람들이 묵시적인 AI 주도 파괴의 망령을 불러일으키는 것이 옳습니까?
07:10
In my view?
92
430509
1000
내 생각에?
07:11
No.
93
431509
1000
아니요. 정신이
07:12
I agree that there are some sobering risks.
94
432509
2861
번쩍 들게 하는 위험이 있다는 데 동의합니다.
07:15
But people are beginning to understand that these are socio technical systems that is
95
435370
6060
그러나 사람들은 이것이
07:21
not just neutral tools, but an inextricable bundle of code, data, subjective parameters,
96
441430
7180
단순한 중립적 도구가 아니라 코드, 데이터, 주관적 매개변수
07:28
and people.
97
448610
1340
및 사람의 떼려야 뗄 수 없는 묶음인 사회 기술 시스템이라는 것을 이해하기 시작했습니다.
07:29
AI's end users and the direction it develops, aren't inevitable, and addressing the risks
98
449950
7490
AI의 최종 사용자와 그것이 발전하는 방향은 불가피하지 않으며
07:37
of AI isn't simply a question of stop or proceed.
99
457440
5729
AI의 위험을 해결하는 것은 단순히 중단하거나 진행하는 문제가 아닙니다.
07:43
Companies are aware of these issues as they work on new systems.
100
463169
3451
회사는 새로운 시스템에서 작업할 때 이러한 문제를 인식하고 있습니다 .
07:46
Open AI, the company behind Chat GPT sums them up pretty well.
101
466620
6609
Chat GPT의 배후에 있는 회사인 Open AI는 이를 아주 잘 요약합니다.
07:53
It recognises that while a lot has been done to root out racism, and other forms of hate
102
473229
6090
인종 차별을 근절하기 위해 많은 조치를 취했지만 Chat GPT의 다른 형태의 증오는
07:59
from Chat GPT is responses, manipulation and hallucination, which means producing content
103
479319
6831
응답, 조작 및 환각이며, 이는
08:06
that is nonsensical or untruthful essentially made up still happen.
104
486150
6220
본질적으로 무의미하거나 사실이 아닌 콘텐츠를 생성하는 것을 의미합니다 .
08:12
I'm confident that trial and error plus burgeoning research in this area will help.
105
492370
6669
시행착오와 이 분야에 대한 급성장하는 연구가 도움이 될 것이라고 확신합니다.
08:19
Okay, so there's the article as I explained before, just the argument that's going on
106
499039
5051
좋아요, 전에 설명드린 기사가 있습니다 . 요즘 계속되는 논쟁은
08:24
these days between should we or should we not embrace or try to ban all of this new
107
504090
6770
우리가 이 모든 새로운 문제를 포용하거나 금지해야 하는지,
08:30
issues this new media this new these new platforms such as Chat GPT and Bard, okay, so the words
108
510860
6710
이 새로운 미디어, Chat GPT 및 Bard와 같은 새로운 이러한 새로운 플랫폼 사이에 있습니다. , 알겠습니다.
08:37
that I've highlighted.
109
517570
2410
제가 강조 표시한 단어입니다.
08:39
The first word is computational, computational, so just be careful with the pronunciation,
110
519980
6770
첫 번째 단어는 계산적, 계산적 이므로 발음에 주의하세요.
08:46
okay?
111
526750
1450
08:48
Computational.
112
528200
1440
전산.
08:49
Computational means about calculating something.
113
529640
2910
전산이란 무언가를 계산하는 것을 의미합니다.
08:52
Okay.
114
532550
1000
좋아요.
08:53
So when you calculate how much you need, it's a computation.
115
533550
3880
그래서 얼마나 필요한지 계산할 때 계산입니다.
08:57
You carried out a computation and of course, all the algorithms that we use computational
116
537430
6230
당신은 계산을 수행했고 물론 우리가
09:03
power to identify how to use these particular artificial intelligence platforms, computational.
117
543660
9589
이러한 특정 인공 지능 플랫폼을 사용하는 방법을 식별하기 위해 계산 능력을 사용하는 모든 알고리즘을 계산했습니다 .
09:13
Second word surge, and we have it here led to a surge and AI technology, a surge means
118
553249
6710
두 번째 단어 급상승, 여기서 급등으로 이어진 AI 기술, 급등은
09:19
a sudden increase.
119
559959
2541
급격한 증가를 의미합니다.
09:22
So if there's a power blackout in certain countries, it's often because there has been
120
562500
5440
따라서 특정 국가에서 정전이 발생하면
09:27
a surge in demand.
121
567940
1820
수요가 급증했기 때문인 경우가 많습니다.
09:29
So in particularly cold winters, people switch on their heating.
122
569760
5150
그래서 특히 추운 겨울에 사람들은 난방을 켭니다 .
09:34
As a result, there's a surge in demand for electricity, and that might result in a blackout.
123
574910
5730
그 결과 전력 수요가 급증 하고 정전이 발생할 수 있습니다.
09:40
So surge as a sudden increase.
124
580640
2990
따라서 급격한 증가로 급증하십시오.
09:43
Or if there's heavy rains and floods in a river there may be a surge of water a sudden
125
583630
6519
또는 강에 폭우와 홍수가 있을 경우 수위가 있을 수 있습니다. 물의
09:50
increase in the flow of the water that causes flooding, surge, so it's a noun, okay?
126
590149
6190
흐름이 갑자기 증가하여 범람, 서지가 발생하므로 명사입니다.
09:56
And for pronunciation.
127
596339
2351
그리고 발음을 위해.
09:58
Take the word around.
128
598690
1320
주위에 단어를 가져 가라.
10:00
Ah, and just put the s on the front of it, surge, a surge in demand.
129
600010
5639
아, 그리고 그냥 앞에 s를 붙이세요. 급증, 수요 급증.
10:05
Okay.
130
605649
1000
좋아요.
10:06
Third word frought fraught.
131
606649
3491
세 번째 단어는 걱정했다.
10:10
Now think of the word taught, teach taught.
132
610140
4810
이제 가르침을 받았다는 말을 생각해 보십시오.
10:14
And now from fraught.
133
614950
1730
그리고 지금 걱정에서.
10:16
So get your pronunciation.
134
616680
3030
그래서 당신의 발음을 얻으십시오.
10:19
In the article, we have this has led to a very fraught, public debate.
135
619710
5490
기사에서 우리는 이것이 매우 힘든 공개 토론으로 이어졌습니다.
10:25
Fraught means very difficult, very niggly, very argumentative.
136
625200
5620
Fraught는 매우 어렵고, 매우 까다롭고, 매우 논쟁적이라는 뜻입니다.
10:30
It's not everybody in agreement with each other people are arguing on one side, other
137
630820
5450
모두가 서로 의견이 일치하는 것은 아닙니다. 사람들이 한쪽에서 다투고 다른
10:36
people are arguing on the other side.
138
636270
1910
사람들이 다른 쪽에서 다투는 것입니다.
10:38
So, it is fraught, it means it is difficult, and we have this expression in English fraught
139
638180
6159
그래서, 그것은 어려움을 겪고 있다는 것을 의미합니다. 그리고 우리는 어려움으로 가득 찬 영어 표현이 있습니다
10:44
with difficulties, there are problems.
140
644339
2551
. 문제가 있습니다.
10:46
So it's not an easy passage, it's not going to be smooth.
141
646890
3790
따라서 쉬운 통과가 아니며 원활하지 않을 것입니다.
10:50
It's fraught, public debate or fraught, public opinion.
142
650680
6090
걱정, 공개 토론 또는 걱정, 여론입니다.
10:56
Number four to hold back on.
143
656770
3509
보류할 네 번째.
11:00
In the article we said companies are holding back on recruitment.
144
660279
3500
기사에서 우리는 기업들이 채용을 보류하고 있다고 말했습니다.
11:03
So to hold back on something is to delay.
145
663779
3571
따라서 무언가를 보류하는 것은 지연하는 것입니다.
11:07
Okay, so companies are holding back on recruitment, because they want to see can they get away
146
667350
5120
좋아요, 그래서 기업들은 채용을 보류하고 있습니다. 왜냐하면 그들은
11:12
without recruiting people and just use artificial intelligence, of course, it will go straight
147
672470
5489
사람들을 채용하지 않고 그냥 인공 지능을 사용하는 것이 가능한지 확인하고 싶기 때문입니다
11:17
to the bottom line.
148
677959
1291
.
11:19
So to hold back on something means to prevent it from being issued.
149
679250
4580
그래서 무언가를 보류한다는 것은 그것이 발행되는 것을 막는 것을 의미합니다.
11:23
So perhaps is an article and the publisher said, No, let's hold back on publishing that
150
683830
5280
기사가 있을 수도 있고 게시자가 ' 아니요, 해당
11:29
article for a few days, meaning, let's delay publishing that article for a few days to
151
689110
5979
기사의 게시를 며칠 동안 보류합시다'라고 말했을 수도 있습니다
11:35
hold back on.
152
695089
1891
.
11:36
And of course, if you do like this particular lesson, then please like the video, and if
153
696980
5530
물론 이 특정 강의가 마음에 든다면 동영상을 좋아하고
11:42
you can subscribe to the channel because it really, really helps.
154
702510
5080
채널을 구독할 수 있다면 정말 큰 도움이 됩니다.
11:47
To tumble over.
155
707590
1350
넘어지다.
11:48
Okay, now, here we're talking about financial aspects, the shares and a leading publishing
156
708940
5560
자, 이제 여기서 우리는 재정적인 측면에 대해 이야기하고 있습니다 . 주식과 Pearson이라는 선도적인 출판사에 대해 이야기하고 있습니다
11:54
company called Pearson, the shares tumbled over concerns so they tumbled mean, they fell.
157
714500
7940
.
12:02
So in something tumbles, it falls, so the value of the shares fell over the concerns
158
722440
6130
그래서 무언가가 넘어지면 떨어지기 때문에
12:08
about artificial intelligence and its impact on the company's business.
159
728570
4310
인공 지능과 회사 비즈니스에 미치는 영향에 대한 우려로 주식 가치가 떨어졌습니다.
12:12
So they, this is the reason why the shares fell, they tumbled over concerns that AI would
160
732880
6750
그래서 그들은, 이것이 주식이 하락한 이유이고, 그들은 AI가 그들의 사업을 방해할 것이라는 우려에 굴복했습니다
12:19
and here's the next word, disrupt their business.
161
739630
3950
.
12:23
So when something is disrupted, so it doesn't stop completely, but it is made more difficult.
162
743580
7090
그래서 무언가가 중단되면 완전히 멈추지 않고 더 어렵게 만듭니다.
12:30
So businesses disrupted.
163
750670
1710
그래서 사업이 중단되었습니다.
12:32
So for example, if there was a train strike, or a strike by doctors, then travelling and
164
752380
7790
예를 들어, 열차 파업 이나 의사 파업이 있었다면 열차가 중단되어 여행과
12:40
trains will be difficult because it will be disrupted, you're not sure whether your train
165
760170
4800
열차가 어려울 것입니다 . 열차가 운행하는지 여부를 확신할 수 없습니다
12:44
is running or not.
166
764970
1630
.
12:46
Or if you have to have an operation to get your knee replaced, or whatever it might be.
167
766600
4799
또는 무릎을 교체하기 위해 수술을 받아야 하는 경우 또는 무엇이든 가능합니다.
12:51
If there are no doctors, then the operations the shedule of operations will also be disrupted.
168
771399
5421
의사가 없으면 수술 일정도 중단됩니다.
12:56
Some will happen, some will not.
169
776820
1800
일부는 발생하고 일부는 발생하지 않습니다.
12:58
So when we disrupt something, we cause problems, difficulties, it doesn't stop entirely, but
170
778620
6640
그래서 우리가 무언가를 방해하면 문제와 어려움을 일으키고 완전히 멈추지는 않지만
13:05
it's not easy to get things done.
171
785260
1949
일을 완수하는 것은 쉽지 않습니다.
13:07
So not easy to travel.
172
787209
1370
그래서 여행하기가 쉽지 않습니다.
13:08
During a train strike, there will be a lot of disruption, not easy to have normal, everyday
173
788579
5570
열차 파업 중에는 많은 혼란이 있을 것이며 병원에서 일상적인 정상적인 수술을 하기가 쉽지 않을 것입니다
13:14
operations in the hospital.
174
794149
1880
.
13:16
When there's a doctor strike, it will cause some disruption.
175
796029
3531
의사 파업이 있을 때 약간의 혼란을 야기할 것입니다.
13:19
Okay.
176
799560
1000
좋아요.
13:20
Now, the next word we have is looming.
177
800560
3080
이제 우리가 가진 다음 단어가 다가오고 있습니다.
13:23
Okay?
178
803640
1000
좋아요?
13:24
So, and looming above the day-to-day debate.
179
804640
2879
그래서 일상적인 논쟁 위에 어렴풋이 나타나고 있습니다.
13:27
So when something looms, it's sort of hanging there, waiting to fall.
180
807519
6321
따라서 무언가 어렴풋이 나타날 때 그것은 일종의 거기에 매달려 떨어지기를 기다리고 있습니다.
13:33
For example, if you're looking out the window, whether called October, November day, there
181
813840
6170
예를 들어, 10월이든 11월이든 창 밖을 내다보면
13:40
might often be some fog around so the fog looms over the streets sort of just hangs
182
820010
6579
주변에 안개가 끼어 안개가 거리에 드리워져 있어 안개를 통해
13:46
there and makes it very difficult for you to see through that fog, it looms or if something
183
826589
6500
보기가 매우 어렵습니다. , 어렴풋이 나타나거나 어떤 일이 어렴풋이 보이면
13:53
looms, it's just hang in there and you're waiting for something to happen.
184
833089
4000
그냥 거기에 매달리고 어떤 일이 일어나기를 기다리고 있습니다.
13:57
So if a factory or a business is going to close or there are concerns or rumours that
185
837089
6071
따라서 공장이나 기업이 문을 닫거나
14:03
the company has financial difficulties, then there's looming over the city, this uncertainty
186
843160
6599
회사가 재정적 어려움을 겪고 있다는 우려나 소문이 있는 경우 도시 전체에
14:09
whether people are going to lose their job so looms something that just hangs there.
187
849759
5431
사람들이 일자리를 잃을지 여부에 대한 불확실성이 어렴풋이 나타나고 있습니다 .
14:15
And in the article we said, and looming above the day-to-day debate, so something was in
188
855190
6180
그리고 우리가 말한 기사에서 매일매일의 토론 위에 어렴풋이 드러나는 무언가가 마치 떨어지기를 기다리는 큰 추
14:21
the air hanging their over their heads, like a big weight waiting to fall.
189
861370
5670
처럼 그들의 머리 위에 매달려 있었습니다 .
14:27
Okay, looms.
190
867040
1710
좋아, 직기.
14:28
Number eight, the next word is sobering.
191
868750
2779
여덟 번째, 다음 단어는 냉정합니다.
14:31
In the article we say, I agree that there are some sobering risks sober is when you're
192
871529
7120
우리가 말하는 기사에서 나는
14:38
not affected by alcohol, you're sober, but sobering risks are risks that make you sit
193
878649
6941
술에 취하지 않은 상태에서 냉정한 위험이 있다는 데 동의하지만 냉정한 위험은 앉아서 생각하게 만드는 위험입니다
14:45
up and think.
194
885590
1150
.
14:46
Okay, so in this article, they're talking about the possible apocalyptic destruction
195
886740
6700
좋아요, 그래서 이 기사에서 그들은 인공 지능이 야기할 가능한 종말론적 파괴에 대해 이야기하고 있습니다
14:53
that artificial intelligence will cause.
196
893440
2930
.
14:56
And this person writing the article says they don't agree with this but there are some sobering
197
896370
6380
그리고 기사를 쓰는 이 사람은 그들이 이것에 동의하지 않는다고 말하지만
15:02
risks meaning there are some risks that you really need to think about.
198
902750
4000
당신이 정말로 생각해야 할 몇 가지 위험이 있다는 것을 의미하는 정신이 번쩍 드는 위험이 있습니다 .
15:06
You can't just avoid them and put your head in the sand.
199
906750
3120
당신은 그들을 피하고 모래에 머리를 넣을 수 없습니다 . 정신이
15:09
So sobering risks, risks that are out there that are real and you need to think about.
200
909870
6290
번쩍 들게 하는 위험, 현실적이고 생각해야 할 위험이 있습니다.
15:16
The next word inextricable now here, just want to focus on the pronunciation first of
201
916160
6460
다음 단어 inextricable은 이제 여기에서 우선 발음에 집중하고 싶습니다.
15:22
all, okay, so inextricable, inextricable, inextricable, inextricable inextricable inextricable,
202
922620
10250
15:32
inextricable Now, what does it mean?
203
932870
7219
알겠습니다.
15:40
Inextricable means something that cannot be separated.
204
940089
3310
Inextricable은 분리할 수 없는 것을 의미합니다 .
15:43
Okay.
205
943399
1000
좋아요.
15:44
And the article they say this is that is not just neutral tools, but an inextricable bundle
206
944399
8190
그리고 그들이 말하는 기사는 중립적인 도구일 뿐만 아니라
15:52
of code data, subjective parameters, and people, meaning these things cannot be separated.
207
952589
6901
코드 데이터, 주관적인 매개 변수 및 사람의 떼려야 뗄 수 없는 묶음입니다. 즉, 이러한 것들을 분리할 수 없습니다.
15:59
It's all part of the same problem, the problem about artificial intelligence, they're inextricable
208
959490
6000
그것은 모두 같은 문제, 즉 인공 지능에 관한 문제의 일부입니다. 그들은 불가분의 관계입니다.
16:05
all the issues are inextricable, they cannot be separated.
209
965490
4200
모든 문제는 불가분의 관계이며 분리할 수 없습니다.
16:09
Okay.
210
969690
1000
좋아요.
16:10
In countries often we talk about the inextricable link between state and church where often
211
970690
7430
국가에서 우리는 종종 국가와 교회 사이의 뗄래야 뗄 수 없는 관계에 대해 이야기합니다. 여기서
16:18
you know what the church does, what the state does are exactly the same.
212
978120
3800
교회가 하는 일과 국가가 하는 일은 정확히 동일합니다.
16:21
So this inextricable link, okay, so we have to be really careful about the pronunciation.
213
981920
6420
따라서 이 불가분의 관계는 발음에 정말 주의해야 합니다.
16:28
And then also to get the correct meaning inextricable.
214
988340
4220
그런 다음 올바른 의미를 이해하기 위해 불가분의 관계.
16:32
Next word inevitable, little bit easier to pronounce inevitable.
215
992560
3690
다음 단어는 불가피합니다. 불가피하게 발음하기가 조금 더 쉽습니다.
16:36
And here in the article, we say, the use of artificial intelligence at the end of the
216
996250
5910
그리고 여기 기사에서 우리는 결국 인공 지능의 사용
16:42
day, and the direction in which it develops aren't inevitable.
217
1002160
3869
과 그것이 발전하는 방향이 불가피하지 않다고 말합니다.
16:46
So inevitable means something that this is going to happen no matter what.
218
1006029
4601
따라서 불가피하다는 것은 무슨 일이 있어도 일어날 일을 의미합니다 .
16:50
So, you know, the end of the day is always inevitable, we get up in the morning at seven
219
1010630
4720
아시다시피 하루의 끝은 항상 불가피합니다. 우리는 아침 7시나 8시에 일어납니다
16:55
or 8am.
220
1015350
1409
.
16:56
The surest thing is that we will go to bed it when it's dark at 10, 11, or 12.
221
1016759
5861
가장 확실한 것은 10시, 11시 또는 12시에 어두워지면 잠자리에 든다는 것입니다
17:02
So the day at the end of the day is inevitable, you can't stop it happening.
222
1022620
4420
.
17:07
In the article, they say, this change isn't inevitable, meaning it doesn't have to be
223
1027040
5169
기사에서 그들은 이 변화가 불가피한 것이 아니라 반드시
17:12
something that will happen, but we can make changes.
224
1032209
4031
일어날 일이 아니라 우리가 변화를 만들 수 있다는 것을 의미한다고 말합니다 .
17:16
So inevitable is something that is always going to happen inevitable.
225
1036240
5070
따라서 불가피한 것은 항상 필연적으로 일어날 일입니다.
17:21
As soon as night follows day, it's inevitable.
226
1041310
3570
밤이 낮을 따라오자마자 그것은 불가피합니다.
17:24
We are born, we live we die, it's inevitable.
227
1044880
6000
우리는 태어나고, 살고, 죽고, 피할 수 없는 것입니다.
17:30
That certain things in life that are inevitable life, death, and taxes was a famous quotation.
228
1050880
5890
인생에서 피할 수 없는 삶과 죽음과 세금이라는 그 유명한 인용구가 있었습니다.
17:36
So the people are born, people die, and people pay taxes inevitable, okay.
229
1056770
5550
그래서 사람들은 태어나고, 사람들은 죽고, 사람들은 필연적으로 세금을 냅니다.
17:42
And the next expression would have to root out something, okay.
230
1062320
5010
그리고 다음 표현은 무언가를 근절해야 할 것입니다 .
17:47
And here, they say to root out racism.
231
1067330
2630
그리고 여기서는 인종차별을 근절하라고 합니다.
17:49
So to root out something means to get rid of it, okay.
232
1069960
3910
따라서 뿌리를 뽑는다는 것은 그것을 없애는 것을 의미합니다 .
17:53
So if you're digging in the garden, and you dig up a big tree, you literally root it out,
233
1073870
6530
그래서 정원에서 땅을 파고 큰 나무를 파면 말 그대로
18:00
meaning you dig up all the roots that hold the tree into the ground, or you've got a
234
1080400
6370
뿌리를 뽑는 것입니다.
18:06
problem in your office or you've got a problem in the school, you try to root out the cause
235
1086770
5580
학교에 문제가 생겼을 때 문제의 원인을 제거하려고 합니다
18:12
of the problem.
236
1092350
1000
.
18:13
You know, if there's somebody who's been disruptive, you might tell them, they need to find some
237
1093350
4990
아시다시피, 방해가 되는 사람이 있다면 그들에게 말할 수 있습니다. 그들은 파괴적인
18:18
other place to work all this a pupil who's been disruptive, you might send him home from
238
1098340
5520
학생을 일할 다른 장소를 찾아야 합니다 . 그를
18:23
school for a few days or a few weeks, or tell the parents that this child is causing problems.
239
1103860
5500
며칠 또는 몇 주 동안 학교에서 집으로 보내거나 이 아이가 문제를 일으키는 부모.
18:29
And we have to root out bullying or racism within the school.
240
1109360
4250
그리고 학교 내 괴롭힘이나 인종차별을 근절해야 합니다 .
18:33
And if the child doesn't improve the behaviour, then they will be asked to leave.
241
1113610
4520
그리고 아이가 행동을 개선하지 않으면 떠나라는 요청을 받게 됩니다.
18:38
So to root out something is to get rid of it, dig it up and throw it out, to root out.
242
1118130
7320
따라서 무언가를 뿌리 뽑는다는 것은 그것을 제거하고 파내어 버리는 것, 뿌리를 뽑는 것입니다.
18:45
And then number 12.
243
1125450
1870
그리고 12번.
18:47
To make up in the article says to make up stuff.
244
1127320
4180
18:51
We make up stories.
245
1131500
1210
우리는 이야기를 구성합니다.
18:52
Kids make up stories all the time.
246
1132710
2480
아이들은 항상 이야기를 만듭니다.
18:55
They make up little friends that don't really exist.
247
1135190
3760
그들은 실제로 존재하지 않는 작은 친구를 만듭니다 .
18:58
They make up stories, why they didn't do their homework, they make up stories, why they don't
248
1138950
4390
그들은 왜 숙제를 안했는지, 왜
19:03
want to go to school because they've got a headache or a pain in the tummy.
249
1143340
3380
두통이나 배가 아파서 학교에 가고 싶지 않은지 이야기를 지어냅니다.
19:06
So people are constantly making up stuff, making up stories that are not really true,
250
1146720
5970
그래서 사람들은
19:12
either to impress somebody, or to get something that they want to make up in our article here
251
1152690
6119
누군가에게 깊은 인상을 주거나 그들이 근절하려고 했던
19:18
that talking again about this whole Chat GPT where they tried to root out racism and also
252
1158809
6561
전체 Chat GPT에 대해 다시 이야기하는 기사에서 만들고 싶은 것을 얻기 위해 사실이 아닌 이야기를 만들고 끊임없이 물건을 만들고 있습니다. 인종차별과 또한
19:25
this idea where people make up stories that are not really true, but people for some strange
253
1165370
5150
사람들이 사실이 아닌 이야기를 꾸며내지만 이상한
19:30
reason believe it.
254
1170520
1280
이유로 사람들이 그것을 믿는다는 생각입니다.
19:31
Okay, so to root out those people making stuff up or making up stuff.
255
1171800
5500
좋아, 그래서 물건을 만들 거나 물건을 만드는 사람들을 근절하기 위해.
19:37
And then finally, we have another word quite difficult on the tongue for pronunciation.
256
1177300
5940
그리고 마지막으로 발음하기가 상당히 어려운 또 다른 단어가 있습니다 .
19:43
Burgeoning, burgeoning.
257
1183240
2280
급증, 급증.
19:45
Now make sure you've got the g sound burgeoning.
258
1185520
4540
이제 g 소리가 싹트는지 확인하세요.
19:50
Yeah.
259
1190060
1030
응.
19:51
Okay.
260
1191090
1030
좋아요.
19:52
So it's like, again, the word urge, got a g.
261
1192120
3950
다시 말하지만 충동이라는 단어에는 g가 붙습니다 .
19:56
Urge.
262
1196070
1000
충고하다.
19:57
And then burge burgeoning.
263
1197070
1930
그리고 번성합니다.
19:59
Okay, now burgeoning means growing quickly or developing or expanding.
264
1199000
6100
자, 이제 급증한다는 것은 빠르게 성장하거나 발전하거나 확장하는 것을 의미합니다.
20:05
So here they're talking about, I am confident that trial and error plus burgeoning research,
265
1205100
7290
그래서 여기에서 그들은 시행착오와 함께 급성장하는 연구, 이 분야
20:12
lots of increasing or growing research in this area will help.
266
1212390
4690
에서 증가하거나 성장하는 많은 연구가 도움이 될 것이라고 확신합니다.
20:17
Okay, so we might have a burgeoning economy, an economy that started off small, but year
267
1217080
7500
좋아요, 그래서 우리는 급성장하는 경제를 가질 수 있습니다. 작게 시작했지만 해가
20:24
by year is getting bigger and bigger and bigger burgeoning.
268
1224580
3380
갈수록 점점 더 커지는 경제입니다 .
20:27
So let me give you the pronunciation.
269
1227960
2820
그럼 발음을 알려드리겠습니다.
20:30
Again, burgeoning, burgeoning, burgeoning, burgeoning.
270
1230780
6170
다시, 번창하고, 번창하고, 번창하고, 번창합니다.
20:36
Okay, so a burgeoning economy, burgeoning research.
271
1236950
4410
좋아요, 급성장하는 경제, 급성장하는 연구.
20:41
Okay, so they're their words, we have 13 In total, let me run through them again, quickly.
272
1241360
7500
자, 그들의 말이군요. 총 13개가 있습니다 . 빠르게 다시 살펴보겠습니다.
20:48
Computational search, fraught, to hold back on, to tumble over, to disrupt, to loom or
273
1248860
12720
전산 검색, 걱정, 억제, 넘어짐, 방해, 어렴풋이 어렴풋이 어렴풋이 나타나고, 냉정하고, 불가분의,
21:01
looming, sobering, inextricable, inevitable, to root out, to make up stuff, and then finally
274
1261580
13620
불가피하고, 근절하고, 물건을 구성하고, 마침내
21:15
burgeoning.
275
1275200
1000
싹트기 시작합니다.
21:16
Okay, so hopefully you've enjoyed that particular article, AI and all this issue about Chat
276
1276200
5380
알겠습니다. Chat GPT에 대한 AI 및 이번 호의 특정 기사가 마음에 드셨기를 바랍니다
21:21
GPT.
277
1281580
1000
.
21:22
Chat GPT is really top of the agenda these days, everybody is talking about it.
278
1282580
4870
채팅 GPT는 요즘 가장 중요한 의제이며 모두가 그것에 대해 이야기하고 있습니다.
21:27
You know, everybody is looking out for it.
279
1287450
2540
알다시피, 모두가 그것을 찾고 있습니다.
21:29
Everybody's practising.
280
1289990
1000
다들 연습중입니다.
21:30
We tried it ourselves here just to see what we could get.
281
1290990
2870
우리는 우리가 얻을 수 있는 것을 보기 위해 여기에서 직접 시도했습니다 .
21:33
And the results are quite, quite amazing.
282
1293860
2290
그리고 그 결과는 아주 아주 놀랍습니다.
21:36
Okay, so if there's anything else that you require in relation to this article, or the
283
1296150
4620
자, 그럼 이 글과 관련하여 필요한 다른 사항이 있거나 처음에 말씀드린
21:40
words or the phrase of the expressions, as I said at the beginning, give me a call, send
284
1300770
4280
표현의 단어나 구가 있으시면 전화를 주시고 이메일을 보내주시면 도와드리겠습니다.
21:45
me an email, and we'll try to help you out.
285
1305050
2330
너나가.
21:47
Okay, this is Harry's always thanking you for listening and for watching, and remember,
286
1307380
4049
알겠습니다. 듣고 지켜봐 주셔서 항상 감사합니다. 기억해 두세요.
21:51
join me for the next lesson.
287
1311429
1220
다음 수업에 함께 해주세요.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7