Advanced English VOCABULARY lesson | Learn English with the News
78,590 views ・ 2023-04-19
아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.
01:14
Okay, so this is an article based on a very
topical idea at the moment about all this
0
74940
7080
자, 이것은
이 모든
01:22
artificial intelligence and, in particular, about
this chat GPT. Yeah, okay, so I'll read it to you
1
82020
7740
인공 지능, 특히
이 채팅 GPT에 대한 현재 매우 시사적인 아이디어를 기반으로 한 기사입니다. 네, 알겠습니다.
01:29
twice: once, to give you the gist, and the second
time to go through the words. So here we go.
2
89760
6540
두 번 읽어드리겠습니다. 한 번은 요점을 알려주고 두 번째는
단어를 살펴봅니다. 그래서 우리는 간다. 전문가들은 모회사의 시장 가치가 계속해서 급락함에 따라
01:37
The type of factual error that blighted
the launch of Google's artificial
3
97380
5460
Google의 인공
01:42
intelligence-powered chatbot will carry on
troubling companies using the technology,
4
102840
6180
지능 기반 챗봇 출시를 방해한 사실적 오류 유형이 이
기술을 사용하는 회사를 계속 괴롭힐 것이라고
01:49
experts say, as the market value of its parent
company continues to plunge. Shareholders were
5
109020
8040
말합니다
.
01:57
rattled after it emerged that a video demo
of Google's rival to the Microsoft-backed
6
117060
6720
Microsoft가 지원하는 채팅 GPT 챗봇에 대한 Google의 경쟁 동영상 데모에
02:03
chat GPT chatbot contained a flawed response to a
question about NASA's James Webb Space Telescope.
7
123780
9420
NASA의 제임스 웹 우주 망원경에 대한 질문에 대한 잘못된 답변이 포함되어 있다는 사실이 밝혀진 후 주주들은 덜컥 덜컥 거렸습니다.
02:13
The animation showed a response from the program
called Bard, stating that the JWST, James Webb
8
133920
8220
이 애니메이션은 Bard라는 프로그램의 응답을 보여 주면서
JWST인 James Webb
02:22
Space Telescope, took the very first pictures
of a planet outside of our own solar system,
9
142140
6840
우주 망원경이
우리 태양계 외부의 행성에 대한 최초의 사진을 찍었다는 내용으로
02:28
prompting astronomers to point out that this
was untrue. Google said the error underlined
10
148980
7500
천문학자들이 이것이 사실이 아님을 지적하도록 유도했습니다
. Google은 이 오류가 앞으로 몇 주 동안 예정된 일반 대중에게 공개되기 전에
02:36
the need for the rigorous testing that Bard is
undergoing before a wider release to the public,
11
156480
6480
Bard가 겪고 있는 엄격한 테스트의 필요성을 강조했다고 말했습니다
02:42
which has been scheduled for the coming weeks. A
presentation of Google's AI-backed search plans
12
162960
8100
. 수요일에
Google의 AI 지원 검색 계획 발표
02:51
on Wednesday also failed to reassure shareholders.
This week, Microsoft, a key backer of chat GPT's
13
171060
8760
도 주주를 안심시키지 못했습니다.
이번 주 채팅 GPT 개발자 OpenAI의 주요 후원자인 Microsoft는
02:59
developer OpenAI, announced it was integrating the
chatbot technology into its Bing search engine.
14
179820
7800
챗봇 기술을 Bing 검색 엔진에 통합한다고 발표했습니다.
03:07
Google also plans to integrate the technology
behind Bard into its search engine. Both Bard
15
187620
8100
Google은 또한
Bard의 기술을 검색 엔진에 통합할 계획입니다. Bard
03:15
and chat GPT are based on large language models,
a type of artificial neural network, which are
16
195720
7560
와 채팅 GPT는 모두 인공 신경망의 일종인 대규모 언어 모델을 기반으로 합니다. 이 모델
은 텍스트 기반 프롬프트에 대한 응답을 생성하는 방법을 가르치는 과정
03:23
fed vast amounts of text from the internet in
a process that teaches them how to generate
17
203280
6780
에서 인터넷에서 방대한 양의 텍스트를 공급받습니다
03:30
responses to text-based prompts. Chat GPT became a
sensation after its launch in November last year,
18
210060
8220
. Chat GPT는
작년 11월에 출시된 후 간단한 프롬프트 하나로
03:38
as it composed recipes, poems, work presentations,
and essays from single, simple prompts.
19
218280
8460
레시피, 시, 작업 프레젠테이션
및 에세이를 작성하여 센세이션을 일으켰습니다.
03:48
Okay, so that's the article. Let
me read it again to you a little
20
228000
3780
자, 그럼 기사입니다.
조금 더 천천히 다시 읽어 드리겠습니다
03:51
bit more slowly. And then we'll look at the words.
The type of factual error that blighted the launch
21
231780
6240
. 그런 다음 단어를 살펴보겠습니다.
03:58
of Google's artificial intelligence-powered
chatbot will carry on troubling companies
22
238020
6240
Google의 인공 지능 기반
챗봇의 출시를 방해한 사실적 오류 유형은
04:04
using the technology, experts say, as the market
value of its parent company continues to plunge.
23
244260
8580
모회사의 시장 가치가 계속 급락함에 따라 이 기술을 사용하는 회사를 계속해서 골치 아프게 할 것이라고 전문가들은 말합니다. Microsoft가 지원하는 채팅 GPT 챗봇에 대한
04:13
Shareholders were rattled after it emerged
that a video demo of Google's rival to the
24
253380
6600
Google의 경쟁 동영상 데모에
04:19
Microsoft-backed chat GPT chatbot contained a
flawed response to a question about NASA's James
25
259980
8460
NASA의 James 웹 우주 망원경에 대한 질문에 대한 잘못된 답변이 포함되어 있다는 사실이 밝혀진 후 주주들은 동요했습니다
04:28
Webb Space Telescope. The animation showed
a response from the program called Bard,
26
268440
7140
. 이 애니메이션은
Bard라는 프로그램의 응답을 보여 주면서
04:35
stating that the JWST, James Webb Space
Telescope, took the very first pictures of a
27
275580
8760
JWST인 제임스 웹 우주
망원경이 우리 태양계 밖의 행성에 대한 최초의 사진을 찍었다고 말하면서
04:44
planet outside of our own solar system, prompting
astronomers to point out that this was untrue.
28
284340
7140
천문학자들이 이것이 사실이 아님을 지적하도록 했습니다.
04:52
Google said the error underlined the need for
the rigorous testing that Bard is undergoing
29
292560
5880
Google은 이 오류가 앞으로 몇 주 동안 예정된 일반 대중에게 공개되기 전에 Bard가 겪고 있는 엄격한 테스트의 필요성을 강조했다고 말했습니다
04:58
before a wider release to the public, which
has been scheduled for the coming weeks.
30
298440
5220
. 수요일에
05:04
A presentation of Google's AI-backed search plans
on Wednesday also failed to reassure shareholders.
31
304200
8460
Google의 AI 지원 검색 계획 발표
도 주주를 안심시키지 못했습니다.
05:13
This week, Microsoft, a key backer of chat GPT's
developer OpenAI, announced it was integrating the
32
313500
8700
이번 주 채팅 GPT의 개발자 OpenAI의 주요 후원자인 Microsoft는
05:22
chatbot technology into its Bing search engine.
Google also plans to integrate the technology
33
322200
7320
채팅봇 기술을 Bing 검색 엔진에 통합한다고 발표했습니다.
Google은 또한
05:29
behind Bard into its search engine. Both Bard
and chat GPT are based on large language models,
34
329520
8940
Bard의 기술을 검색 엔진에 통합할 계획입니다. Bard
와 채팅 GPT는 모두 인공 신경망의 일종인 대규모 언어 모델을 기반으로 합니다.
05:38
a type of artificial neural network, which
are fed vast amounts of text from the
35
338460
6780
이 모델은
05:45
internet in a process that teaches them how
to generate responses to text-based prompts.
36
345240
6060
텍스트 기반 프롬프트에 대한 응답을 생성하는 방법을 가르치는 과정에서 인터넷에서 방대한 양의 텍스트를 제공받습니다.
05:52
Chat GPT became a sensation after its launch
in November last year, as it composed recipes,
37
352020
6300
Chat GPT는
지난해 11월 출시된 후 간단한 프롬프트 하나로 레시피,
05:58
poems, work presentations, and
essays from single, simple prompts.
38
358320
6840
시, 작품 발표,
에세이를 구성하여 센세이션을 일으켰습니다.
06:05
Okay, so that's the text. As I said, I've
given you the link below. So here are some
39
365160
4860
자, 이것이 텍스트입니다. 내가 말했듯이
아래 링크를 제공했습니다.
06:10
of the words that I've highlighted and what they
mean. The first word is "blighted," as in the type
40
370020
6060
제가 강조한 단어와 그
의미는 다음과 같습니다. 첫 번째 단어는 출시를 방해한 사실적 오류의 유형에서와 같이 'blighted'입니다
06:16
of factual error that blighted the launch. When
something is blighted, it is damaged. So, if they
41
376080
7860
.
어떤 것이 역병에 걸리면 손상됩니다. 따라서 그들이
06:23
made a mistake, as they did, there was an error,
and it blighted the launch; it damaged the launch,
42
383940
5220
실수했다면, 실수가 있었고
그것은 출시를 망쳤습니다. 그것은 출시를 손상시켰고
06:29
and people didn't look too kindly on it.
In effect, it damaged the share price.
43
389160
5880
사람들은 그것에 대해 그다지 친절하게 보지 않았습니다.
사실상 주가를 훼손한 셈이다.
06:35
Now, you can blame lots of things. You can
blight a crop by an invasion of insects,
44
395820
5820
이제 많은 것을 탓할 수 있습니다.
곤충의 침입으로 농작물을 병들게 할 수 있으므로
06:41
so it's damaged because these insects cause
disease among the crops, or blighted is to damage.
45
401640
6660
이 곤충이
농작물에 병을 일으키기 때문에 피해를 입습니다.
06:50
Next, we have "carry on." This is a simple and
very well-used phrasal verb. So it says here,
46
410520
6900
다음은 "계속"입니다. 이것은 간단하고
매우 잘 사용되는 구동사입니다. 그래서 여기에는
06:57
the artificial intelligence-powered chatbot
will carry on troubling companies. To carry
47
417420
7740
인공 지능 기반 챗봇이
골칫거리인 회사를 이어갈 것이라고 말합니다. carry
07:05
on means to continue. So, when you carry on
something, you continue—carry on speaking,
48
425160
6300
on은 계속한다는 뜻입니다. 따라서
무언가를 계속하면 계속해서 말하고,
07:11
carry on listening, carry on with your exercise,
continue. So, when the teacher comes into the
49
431460
6480
계속 듣고, 연습을 계속하고,
계속합니다. 따라서 교사가 교실에 들어와서
07:17
classroom and tells the kids, "carry on with
what you're doing," she means continue what
50
437940
5160
아이들에게 "계속 하세요
"라고 말하면 하던 일을 계속한다는 의미입니다
07:23
you're doing. So this damage, this blight for
Google, will carry on and continue troubling
51
443100
7740
. 따라서 이 피해, Google의 역병은
계속해서
07:30
companies that use this artificial intelligence.
And then, the very last word in this particular
52
450840
7620
이 인공 지능을 사용하는 회사를 괴롭힐 것입니다.
그런 다음 이 특정 단락의 맨 마지막 단어는
07:38
paragraph says, "will impact the market value of
its parent company as it continues to plunge." To
53
458460
9240
"
모회사가 계속 급락함에 따라 모회사의 시장 가치에 영향을 미칠 것입니다."라고 말합니다. To
07:47
plunge means to fall very, very quickly. So,
if the share price was $100 a share and then
54
467700
7260
plunge은 매우, 매우 빠르게 떨어지는 것을 의미합니다. 따라서
주가가 주당 100달러였다가
07:54
after this mistake, and after the launch, the
share price went to $60 or $50, then you could
55
474960
7260
이 실수 이후, 그리고 출시 후에
주가가 60달러 또는 50달러로 갔다면
08:02
say the share price has plunged. It has fallen
very, very quickly. So when something falls,
56
482220
6120
주가가 급락했다고 말할 수 있습니다.
매우 빠르게 떨어졌습니다. 따라서 무언가가 떨어지면
08:08
it plunges; it means it goes down really quickly.
In the next paragraph, shareholders were rattled
57
488340
8460
떨어집니다. 정말 빨리 떨어진다는 뜻입니다.
다음 단락에서 주주들은
08:16
after it emerged these mistakes. After these
mistakes emerged, when somebody is rattled,
58
496800
6900
이러한 실수가 드러나자 당황했습니다. 이러한
실수가 나타난 후, 누군가 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 덜덜덜 떨릴 때
08:23
it means they're not so sure; they are
a little bit circumspect, or they're a
59
503700
5820
그것은 그들이 그렇게 확신하지 못한다는 것을 의미합니다. 그들은
조금 신중하거나
08:29
little bit nervous. So, if somebody is rattled,
they are unsure about what they should say or
60
509520
7260
조금 긴장합니다. 따라서 어떤 사람이 덜컥거린다면
무슨 말을 해야 하는지 또는
08:37
whether they should continue using the service.
So, if shareholders were rattled, it means they
61
517620
5940
서비스를 계속 사용해야 하는지에 대해 확신이 서지 않는 것입니다.
따라서 주주들이 덜덜 떨었다면 주가가 갑자기 하락한 것에 대해
08:43
were very unhappy and frightened and scared at the
sudden drop in the share price. They were rattled.
62
523560
7680
매우 불행하고 두렵고 무서웠다는 뜻입니다
. 그들은 덜거덕거렸다.
08:52
And then we use the word "flawed," as in this
GPT chatbot contained a flawed response. A flawed
63
532860
9960
그런 다음 이
GPT 챗봇에 결함이 있는 응답이 포함되어 있으므로 '결함'이라는 단어를 사용합니다. 결함이 있는
09:02
response means a response with a mistake in it.
So, if you write some document and it is flawed,
64
542820
6840
응답은 실수가 있는 응답을 의미합니다.
따라서 어떤 문서를 작성했는데
09:09
as you see the spelling there, FLAWED, it
means that there's a fundamental mistake
65
549660
6120
거기에 있는 철자 FLAWED에 결함이 있는 경우
09:15
in the information that you're using. And then the
example they had: they were using the example that
66
555780
6540
사용 중인 정보에 근본적인 실수가 있음을 의미합니다. 그리고
그들이 가진 예: 그들은
09:22
this telescope took the first images of planets in
our solar system when, in fact, that information
67
562320
8820
이 망원경이 우리 태양계에서 행성의 첫 번째 이미지를 촬영한 예를 사용하고 있었습니다.
사실 그 정보는
09:31
was incorrect. So the statement they made was
flawed. It was inaccurate, it was incorrect.
68
571140
6420
정확하지 않았습니다. 따라서 그들이 한 진술에는
결함이 있었습니다. 정확하지 않았습니다. 잘못되었습니다.
09:38
And then when we use the word "prompting," as
in prompting astronomers, prompting means giving
69
578700
6660
그런 다음 천문학자에게 프롬프트를 표시할 때와 같이 '프롬프트'라는 단어를 사용할 때
프롬프트는
09:45
the astronomers an opportunity to come out and
tell them, "No, in fact, you're wrong." So when
70
585360
6600
천문학자에게
'아니, 사실은 당신이 틀렸습니다.'라고 말할 기회를 주는 것을 의미합니다. 따라서
09:51
somebody is prompted, they are pushed gently. If
you're standing on the stage and you forget your
71
591960
7440
누군가가 메시지를 받으면 부드럽게 밀어줍니다. 만약
당신이 무대에 서서
09:59
words as an actor, somebody on the side of the
stage will prompt you; they will whisper what the
72
599400
6360
배우로서 할 말을 잊었다면, 무대 옆에 있는 누군가가
당신을 재촉할 것입니다. 그들은
10:05
words should be, giving you a gentle little
push or a hint. So in this case, when this
73
605760
5700
당신에게 부드러운 푸시 또는 힌트를 제공하는 단어가 무엇인지 속삭일 것입니다
. 따라서 이 경우 이
10:11
information was announced and there was obviously
a mistake in it, it prompted, encouraged, and
74
611460
6060
정보가 발표되고
그 안에 분명히 오류가 있을 때
10:17
gave astronomers a bit of a push to come out and
say, "Sorry, guys, you're wrong, you're wrong."
75
617520
5400
천문학자들이 나와서
'미안합니다. 여러분이 틀렸습니다. 다시 틀렸어."
10:23
Now, it says here, they prompted astronomers to
"point out," and when you point out something,
76
623700
6360
자, 여기에서는 천문학자들에게
'지적'하도록 자극했으며, 무언가를 지적할 때
10:30
you indicate it. If you're traveling around a city
on a tourist bus, the tour guide will point out
77
630060
7500
표시한다고 말합니다.
관광 버스를 타고 도시를 여행하는 경우 투어 가이드가
10:37
places of interest, showing and indicating to you
the places of interest. So what these astronomers
78
637560
7020
관심 있는 장소를 가리키며
관심 있는 장소를 보여주고 알려줄 것입니다. 그래서 이 천문학자들은 무엇을
10:44
did, they were prompted to point out, to
indicate where and what the mistake was.
79
644580
5520
했는지,
어디에서 무엇을 잘못했는지 지적하라는 메시지를 받았습니다.
10:52
Next paragraph, Google said the error underlined
the need for rigorous testing. So when something
80
652440
6780
다음 단락에서 Google은 오류가
엄격한 테스트의 필요성을 강조한다고 말했습니다. 따라서 무언가가
10:59
is tested rigorously, it means in great, great
detail. Rigorous means thorough or complete. A
81
659220
8580
엄격하게 테스트된다는 것은 훌륭하고
세부적인 것을 의미합니다. 엄격함은 철저한 또는 완전함을 의미합니다.
11:07
rigorous test would be a thorough, complete test
to make sure there are no mistakes in the future.
82
667800
6480
엄격한 테스트는
앞으로 실수가 없는지 확인하기 위한 철저하고 완전한 테스트입니다.
11:14
So what Google will do now that this mistake has
been identified is ensure that the next time they
83
674280
5820
따라서 이 실수가 확인되었으므로 이제 Google이 할 일은
다음 번에
11:20
launch something, all of the information is
stress-tested to make sure it's accurate and
84
680100
5820
무언가를 출시할 때 모든 정보가
정확하고
11:25
not going to give any misleading information. So
when you test something rigorously, you go through
85
685920
6720
오해의 소지가 있는 정보를 제공하지 않도록 스트레스 테스트를 받는 것입니다. 따라서
무언가를 엄격하게 테스트할 때는
11:32
it quite thoroughly. If you buy a new car, you
would expect it to be tested rigorously, with a
86
692640
7380
아주 철저하게 테스트합니다. 새 차를 구입하는 경우
11:40
thorough test on the car before it's handed over
to you, ensuring that the steering wheel works,
87
700020
5460
차량을 인도하기 전에 엄격한 테스트를 거쳐
스티어링 휠이 작동하는지,
11:45
the locking system works, the brakes work, the
engine works well, and in modern cars, all the
88
705480
5640
잠금 시스템이 작동하는지, 브레이크가 작동하는지,
엔진이 제대로 작동하는지 확인해야 합니다. , 최신 자동차에서는 모든
11:51
technology works. There will be a rigorous, really
detailed testing program on that particular car.
89
711120
7320
기술이 작동합니다.
특정 차량에 대한 엄격하고 세부적인 테스트 프로그램이 있을 것입니다.
11:58
Next, they're going to go through this rigorous
testing before a wider release to the public.
90
718440
7560
다음으로
대중에게 더 광범위하게 출시되기 전에 이 엄격한 테스트를 거칠 것입니다.
12:06
So what does that mean, a wider release to
the public? The release they had, based on
91
726000
6780
그렇다면 대중에게 더 폭넓게 출시된다는 것은 무엇을 의미할까요
? 이 기사를 기반으로 그들이 가진 릴리스는 특정 분야의
12:12
this article, was to a group of journalists
or specialists in that particular area. It
92
732780
4860
저널리스트 또는 전문가 그룹에 대한 것이었습니다
.
12:17
was quite an invited guest list, a short, small
list of people they wanted to impress. Of course,
93
737640
6900
꽤 많은 초대 게스트 목록,
감동을 주고 싶은 사람들의 짧고 작은 목록이었습니다. 물론,
12:24
with a mistake, that didn't impress them so much,
but it was a very narrow range of invitees. A
94
744540
7740
실수로 그다지 인상적이지는 않았지만,
매우 좁은 범위의 초대 대상자였습니다.
12:32
wider release to the public means a general
release to everybody. So the whole world will
95
752280
7380
대중에게 더 폭넓은 릴리스는
모든 사람에게 일반적인 릴리스를 의미합니다. 따라서 전 세계가
12:39
have the information. A wider release to the
public means making it available to everybody.
96
759660
8340
정보를 갖게 될 것입니다. 공개 범위가 넓다는 것은
모든 사람이 사용할 수 있다는 것을 의미합니다. 그런
12:49
And then, at the end of that particular paragraph,
it says that this attempt failed to reassure
97
769140
7440
다음 특정 단락의 끝에서
이 시도가 주주를 안심시키는 데 실패했다고 말합니다
12:56
shareholders. "Failed to reassure" means it
doesn't succeed in giving people peace of mind;
98
776580
9300
. '안심시키지 못함'은
사람들에게 마음의 평화를 주는 데 성공하지 못했다는 의미입니다.
13:08
they're still uncertain, unclear, and nervous.
So when you fail to reassure somebody, they
99
788040
6300
그들은 여전히 불확실하고 불분명하며 긴장합니다.
따라서 누군가를 안심시키지 못하면 정보를
13:14
don't feel any better after you've given them the
information. Okay. So if you had your car stolen,
100
794340
7140
제공한 후에도 기분이 나아지지 않습니다
. 좋아요. 따라서 차를 도난당했다면 그러지
13:21
hopefully not. If you had your car stolen, and
you reported to the police, the police will come
101
801480
5160
않기를 바랍니다. 차를 도난 당하고
경찰에 신고하면 경찰이 당신에게 와서
13:26
to you and tell you, I can guarantee you that
we'll have your car back within 24 hours. Well,
102
806640
5280
말할 것입니다.
24시간 이내에 차를 돌려받을 것이라고 장담할 수 있습니다. 음,
13:31
that's a good reassurance that you believe that
police are going to find your car. But if the
103
811920
5400
경찰이 당신의 차를 찾을 것이라고 믿는다는 것은 안심할 수 있는 좋은 소식입니다. 하지만
13:37
policeman said to you, look, the chances
of us finding the car are pretty remote,
104
817320
4800
경찰관이 당신에게 “보세요,
우리가 차를 찾을 가능성은 매우 희박합니다.
13:42
the likelihood is that the car has been
stolen. And by the time it's discovered,
105
822120
6240
차를 도난당했을 가능성이 있습니다
. 그리고 그것이 발견될 때쯤에는
13:48
all the parts will be taken off the car and sold
individually. So the police will fail to reassure
106
828360
7140
모든 부품이 차에서 분리되어
개별적으로 판매될 것입니다. 따라서 경찰은
13:55
you that you're going to get your car back. In
fact, quite the opposite. The chances of getting
107
835500
4740
당신이 차를 돌려받을 것이라고 안심시키지 못할 것입니다.
실제로는 정반대입니다.
14:00
your car back are almost zero so they failed
to reassure you. So in this particular article,
108
840240
6540
당신의 차를 되찾을 가능성은 거의 제로에 가깝기 때문에 그들은
당신을 안심시키지 못했습니다. 따라서 이 특정 기사에서
14:06
the announcement by Google failed to reassure
shareholders that they would see the share price
109
846780
7860
Google의 발표는 주가가 다시 반등할 것이라고 주주들을 안심시키는 데 실패하여
14:15
bouncing back up so they are a bit worried
about the future of this particular bot.
110
855300
5340
이 특정 봇의 미래에 대해 약간 걱정하고 있습니다.
14:22
This week, Microsoft, a key backer—what does
that mean? A key backer is a key or an important
111
862200
10380
이번 주 주요 후원자인 Microsoft,
그게 무슨 뜻인가요? 주요 후원자는 일반적으로 재정적으로 주요하거나 중요한
14:32
supporter, usually financially. If Google is
putting all the money into this particular bot,
112
872580
7620
후원자입니다. Google이
이 특정 봇에 모든 돈을 투자한다면
14:40
they are supporting it financially,
providing resources, technicians, analysts,
113
880860
8160
재정적으로 지원하고
리소스, 기술자, 분석가
14:49
or programmers to help develop this particular
bot. They are the key backer, the number one,
114
889020
8460
또는 프로그래머를 제공하여 이 특정 봇 개발을 돕습니다
. 그들은 핵심 후원자이자 최고의 후원자이며
14:57
the most important, the person with all the
money available to help support and drive
115
897480
6780
가장 중요하고 이를
지원하고 추진하며
15:04
this and get it to where they want it to be.
And then, in the very last paragraph where
116
904260
21300
원하는 곳으로 가져갈 수 있는 모든 돈을 가진 사람입니다.
그런 다음 대규모 언어 모델을 기반으로 하는
15:25
we're talking about Bard and ChatGPT
being based on large language models,
117
925560
5520
Bard 및 ChatGPT에 대해 이야기하는 마지막 단락에서
15:32
we use the word vast; they are fed vast amounts.
Vast means huge, a vast amount of information,
118
932460
8820
방대한이라는 단어를 사용합니다. 그들은 엄청난 양을 먹입니다.
방대하다는 것은 엄청난 양의 정보를 의미합니다.
15:41
a vast amount of rain fell over the last few days,
a vast amount of snow is needed for the French,
119
941280
8460
지난 며칠 동안 엄청난 양의 비가 내렸습니다.
프랑스, 오스트리아, 이탈리아 알프스에는 엄청난 양의 눈이 필요했습니다.
15:49
Austrian, and Italian Alps, and they're going
to enjoy a nice winter skiing business. Okay,
120
949740
6720
사업. 알겠습니다.
15:56
so vast means huge, great. A vast wilderness,
like the desert, is a massive area of land,
121
956460
8100
방대하다는 것은 거대하고 훌륭하다는 뜻입니다. 광활한 광야는
사막과 마찬가지로 광활한 땅이지만 광활한
16:04
but it's a wilderness or a vast amount. Okay?
So to generate and improve or to give these bots
122
964560
9720
광야 또는 광대한 양입니다. 좋아요?
따라서 이러한 봇과 ChatGPT 인공 지능을 생성하고 개선하거나 제공하여
16:14
and ChatGPT artificial intelligence to make them
workable and worthwhile, they have to be fed vast
123
974280
7980
작동 가능하고 가치 있게 만들려면 인공 지능을
16:22
amounts of information so that they can draw on
their artificial intelligence. And then finally,
124
982260
6660
활용할 수 있도록 방대한 양의 정보를 제공해야 합니다
. 그리고 마지막으로
16:28
the last word we have here is composed, as in
composed recipes, poems, work presentations. Well,
125
988920
9780
여기에 있는 마지막 단어는
구성 레시피, 시, 작업 프레젠테이션에서와 같이 구성됩니다. 음,
16:38
to compose is to make up or to bring together,
like a musical composition. When somebody writes
126
998700
9000
작곡한다는 것은
작곡과 같이 구성하거나 결합하는 것입니다. 누군가가 작곡할 때
16:47
music, they compose music, somebody writes the
lyrics, somebody puts together the music score.
127
1007700
7560
, 누군가는 작곡하고, 누군가는
가사를 쓰고, 누군가는 악보를 합칩니다.
16:55
So you know, good partnerships of songwriters
and musicians who come up with the words and
128
1015260
7020
아시다시피 가사와 음악을 생각해내는 작곡가와 음악가의 좋은 파트너십입니다
17:02
the music. So to compose something is to bring it
together, to write it, to create it. So in this
129
1022280
6420
. 따라서 무언가를 작곡한다는 것은 그것을
결합하고, 쓰고, 창조하는 것입니다. 따라서 이
17:08
sentence, it says, ChatGPT became a sensation
after its launch last November, as it composed
130
1028700
9000
문장에서 ChatGPT는
지난 11월 출시된 후
17:17
recipes, poems; it was able to create recipes and
poems within seconds that other people could take
131
1037700
9060
요리법, 시를 작곡하면서 센세이션을 일으켰습니다.
다른 사람들이
17:26
hours and hours, if not weeks, to compose. Okay,
so there you've got some specific words related
132
1046760
6720
작곡하는 데 몇 주가 아니더라도 몇 시간이 걸릴 수 있는 요리법과 시를 몇 초 안에 만들 수 있었습니다. 좋아요, 손상과
관련된 특정 단어가 있습니다
17:34
to damage, carry on to continue, plunge to fall
very quickly, rattled to be unsettled or nervous,
133
1054080
10140
. 계속하려면 계속하세요.
매우 빠르게 추락하려면 매우 빠르게, 불안정하거나 긴장하기 위해
17:44
flawed response, a damaged response that has
some mistakes in it, prompting to push gently
134
1064940
9000
덜거덕거립니다.
17:53
to persuade somebody to do something, point out
to indicate, rigorous testing, very difficult,
135
1073940
8760
누군가에게 무언가를 하도록 설득하다
, 지적하다, 지적하다, 엄격한 테스트, 매우 어려운,
18:02
detailed testing, a wider release to the public
means to almost everybody, if not everybody,
136
1082700
7260
세부적인 테스트, 대중에게 더 폭넓은 릴리스는
모든 사람은 아니더라도 거의 모든 사람에게
18:11
failed to reassure you have failed to
make people feel comfortable. Yeah,
137
1091460
5700
사람들을 편안하게 만드는 데 실패했다는 확신을 주지 못했다는 것을 의미합니다. 예,
18:17
there was a mistake, and they failed
to reassure; they were unable to make
138
1097160
4500
실수가 있었고
안심시키지 못했습니다. 그들은
18:21
people feel comfortable and happy about
it. And key backer, the main investor,
139
1101660
5820
사람들이 그것에 대해 편안하고 행복하게 느끼게 할 수 없었습니다
. 그리고 핵심 후원자, 주요 투자자,
18:28
vast amounts, huge amounts of information
needed, and composed recipes and poems. They
140
1108200
7800
방대한 양, 막대한 양의 정보가
필요하고 레시피와 시를 구성했습니다. 그들은 이 인공 지능을 통해
18:36
created recipes or wrote recipes or created poems,
wrote poems through this artificial intelligence.
141
1116000
9300
요리법을 만들거나 요리법을 쓰거나 시를 짓고
시를 썼습니다.
18:45
Okay, so there you go. That's the news article.
As I said, it's taken from a Guardian newspaper.
142
1125300
6240
자, 이제 시작합니다. 그 뉴스 기사입니다.
내가 말했듯이, 그것은 Guardian 신문에서 가져온 것입니다.
18:51
I've highlighted some of the words. And often when
you read a newspaper article, these journalists
143
1131540
5880
일부 단어를 강조했습니다. 그리고 종종
당신이 신문 기사를 읽을 때 이 언론인들은
18:57
are using language that perhaps you might not
use on a day-to-day basis because it's okay,
144
1137420
4680
당신이 일상적으로 사용하지 않을 수도 있는 언어를 사용하고 있습니다.
왜냐하면 그것은 괜찮기 때문입니다.
19:02
it's good quality, very good quality English, but
it may not be the natural English that you and I
145
1142100
5040
그것은 양질의 영어입니다. 하지만
그것은 자연스러운 영어가 아닐 수도 있습니다. 당신과 나는
19:07
would use if we were sitting over a cup of coffee
and discussing ChatGPT. But this will help you to
146
1147140
7260
커피 한 잔을 마시며 ChatGPT에 대해 토론할 때 사용할 것입니다
. 그러나 이것은
19:14
use language, particularly for essay writing,
particularly for exams like IELTS or CAE. So
147
1154400
8400
특히
IELTS 또는 CAE와 같은 시험을 위해 특히 에세이 쓰기를 위해 언어를 사용하는 데 도움이 될 것입니다. 따라서
19:22
it's important to understand the words, and it's
also important to know what they mean. And as
148
1162800
5100
단어를 이해하는 것이 중요하고
그 의미를 아는 것도 중요합니다. 그리고
19:27
I've given you some examples of alternative words,
synonyms so you can use instead of those, okay, so
149
1167900
6120
대체 단어의 몇 가지 예를 제공했으므로
동의어 대신 사용할 수 있습니다.
19:34
if you need any more information, you know where
to contact me: www.englishlessonviaskype.com.
150
1174020
6960
더 자세한 정보가 필요하면
저에게 연락할 수 있는 곳을 알고 계실 것입니다: www.englishlessonviaskype.com.
19:40
Very happy to help you. If you want
some more news articles like this,
151
1180980
3960
기꺼이 도와드리겠습니다.
이와 같은 뉴스 기사를 더 원하신다면
19:44
just let me know and we can include them in future
lesson plans. Okay, this is Harry thanking you,
152
1184940
5700
저에게 알려주시면 향후 수업 계획에 포함시킬 수 있습니다
. 알겠습니다. 해리의 감사 인사입니다.
19:50
and thank you for watching and listening. And as
always, remember to join me for the next lesson.
153
1190640
4620
시청해 주셔서 감사합니다. 그리고
언제나처럼 다음 수업에 참여하는 것을 잊지 마세요.
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.