Should we fear chatbots? ⏲️ 6 Minute English

136,787 views ・ 2023-07-06

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:07
Hello. This is 6 Minute English
0
7680
1600
안녕하세요.
00:09
from BBC Learning English.
1
9280
1720
BBC Learning English의 6분 영어입니다.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
저는 닐입니다.
저는 롭입니다.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
이제 저는 우리 대부분이 챗봇과 상호 작용했다고 확신합니다 .
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
텍스트로 텍스트에 응답하거나
00:22
or respond to your voice.
6
22560
2040
음성에 응답하는 컴퓨터 기술의 일부입니다.
00:24
You ask it a question and usually it comes up
7
24600
3400
질문을 하면 일반적으로
00:28
with an answer.
8
28000
1200
답이 나옵니다.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
예, 거의 다른 사람과 대화하는 것과 같습니다.
00:31
But of course, it's not.
10
31680
1760
하지만 물론 그렇지 않습니다.
00:33
It's just a clever piece of technology.
11
33440
2640
그것은 단지 영리한 기술입니다. 점점
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
더 정교해지고 복잡해지고
00:39
but could they replace real human interaction altogether?
13
39800
3200
있지만 실제 인간 상호 작용을 완전히 대체할 수 있을까요?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
잠시 후 더 자세히 논의하고 챗봇이
00:46
really think for themselves. But first,
15
46560
3120
실제로 스스로 생각하는지 알아보겠습니다. 하지만 먼저
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
질문이 있습니다, Rob. 인간과 기계 사이에 어떤 종류의 그럴듯한 대화를 가능하게 한 최초의 컴퓨터 프로그램은
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
00:58
was invented in 1966.
18
58080
2840
1966년에 발명되었습니다.
01:00
But what was it called?
19
60920
1760
그러나 그것은 무엇이라고 불렸습니까?
01:02
Was it a) Alexa.
20
62680
2360
a) 알렉사.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) 엘리자, 또는 c) 패리? 음, Alexa가 아니라
01:10
that's too new, so I'll guess
22
70080
2080
너무 새롭기 때문에 추측하겠습니다.
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
답은 프로그램 마지막에 공개하겠습니다.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
이제 1960~70년대의 오래된 챗봇은 아주 기본적이었습니다.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
하지만 최근에는 이 기술이
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
문장에서 사용될 가능성이 높은 다음 단어를 예측할 수 있고 단어와 문장 구조를 학습합니다.
01:32
It's clever stuff.
28
92600
1360
영리한 물건입니다.
01:33
I've experienced using them when talking to my bank
29
93960
2760
은행에 문의하거나
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
웹사이트에서 티켓을 예약하는 데 문제가 있을 때 사용해본 적이 있습니다.
01:40
I no longer phone a human,
31
100040
2480
나는 더 이상 사람에게 전화를 걸지 않고
01:42
I speak to a virtual assistant instead.
32
102520
2840
대신 가상 비서와 통화합니다.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
아마도 현재 가장 잘 알려진 챗봇은
01:48
is ChatGTP.
34
108240
1640
ChatGTP일 것입니다.
01:49
It is. The claim is that it's able to answer
35
109880
2920
그것은. 주장은
01:52
anything you ask it.
36
112800
1680
당신이 묻는 모든 것에 대답할 수 있다는 것입니다.
01:54
This includes writing
37
114480
1280
여기에는
01:55
students' essays.
38
115760
1680
학생들의 에세이 쓰기가 포함됩니다.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
이것은 BBC
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
라디오 4 프로그램인 Word of Mouth에서 논의된 내용입니다. 워싱턴
02:02
Emily M Bender,
41
122560
1640
02:04
Professor of Computational Linguistics at the University
42
124200
3320
대학교 전산 언어학 교수인 Emily M Bender는 챗봇이 말하는 것을
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
항상 신뢰하는 것이 위험한 이유를 설명했습니다
02:11
what a chatbot is telling us.
44
131280
2160
.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
우리는 문법 적이고 유창하며 일관되게 보이는 텍스트에
02:18
as authoritative and reliable and valuable and
46
138720
4720
권위 있고 신뢰할 수 있으며 가치 있는 것으로 반응하는 경향이 있으며
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
ChatGTP에서 나오는 내용은 그렇지
02:26
is none of that.
48
146120
1400
않기 때문에 이를 경계해야 합니다.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
따라서 Bender 교수는 잘 쓰여진 텍스트, 즉 일관성이 있는 텍스트, 즉
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
명확하고 세 심하게 고려되고 합리적인 텍스트는
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
우리가 읽고 있는 내용이 신뢰할 수 있고 권위 있다고 생각하게 만든다고 말합니다.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
따라서 존중되고 정확하며 중요한 소리입니다.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
예, 챗봇은 이런 식으로 작성하는 것처럼 보일 수 있습니다 . 그러나 실제로
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
그들은 배운 내용을 기반으로 한 단어를 차례로 예측하고 있습니다.
02:52
We should therefore be on guard - be careful
55
172080
3040
그러므로 우리는 경계해야 합니다. 우리가 듣고 있는 내용의
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
정확성에 대해 주의하고 경계해야 합니다 .
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
한 가지 우려 사항은 인공 지능의 한 형태인 챗봇이 정보를 배우고 처리하는
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
방식에서 인간의 두뇌처럼 작동한다는 것입니다 .
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
그들은 경험을 통해 배울 수 있습니다. 딥 러닝이라는 것이 있습니다.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
인지 심리학자이자 컴퓨터 과학자인 제프리 힌튼(Geoffrey Hinton)은
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
최근 챗봇이 머지않아
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
인간의 두뇌가 보유하고 있는 정보 수준을 넘어설 수 있다고 우려한다고 말했습니다. 그건 좀 무섭지 않나요?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
하지만 현재로서는 챗봇이 실용적인 정보를 제공하는 데 유용할 수 있지만
03:30
but sometimes we start to believe they are human
64
210560
2680
때때로 우리는 챗봇이 인간이라고 믿기 시작
03:33
and we interact with them in a human like way.
65
213240
2920
하고 인간과 같은 방식으로 상호 작용합니다.
03:36
This can make us believe them even more.
66
216160
2520
이것은 우리가 그들을 더욱 믿게 만들 수 있습니다 .
03:38
Professor Emma Bender,
67
218680
1160
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
BBC의 입소문
03:41
programme, explains why we might feel like that.
69
221720
3560
프로그램에서 연설하는 Emma Bender 교수는 우리가 왜 그렇게 느끼는지 설명합니다.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
제 생각에는 거기에서 무슨 일이 일어나고 있는지,
03:48
you get depend on the questions
71
228440
2360
여러분이 얻는 대답의 종류는 여러분이 입력한 질문에 따라 달라집니다
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
.
03:54
And so, if as the human interacting with this machine
73
234160
3360
그래서 인간이 이 기계와 상호 작용
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
하고 당신이 어떻게 느끼는지에 대해 질문하기 시작한다면, 챗봇?
04:01
And, what do you think of this?
75
241640
2120
그리고, 이것에 대해 어떻게 생각하세요?
04:03
What are your goals?
76
243760
1200
당신의 목표는 무엇입니까?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
지각 있는
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
존재가 말하는 것과 같은 소리를 하도록 유도할 수 있습니다. 우리는
04:13
whenever we encounter language.
79
253320
1840
언어를 접할 때마다 언어 뒤에 숨은 마음을 상상하게 됩니다.
04:15
And so we really have to account for that when
80
255160
1880
따라서 우리는 이에 대한 결정을 내릴 때 실제로 그것을 설명해야 합니다
04:17
we're making decisions about these.
81
257040
2240
.
04:19
So, although a chatbot might sound human,
82
259480
2960
따라서 챗봇이 사람처럼 들릴 수 있지만
04:22
we really just ask it
83
262440
1280
실제로는
04:23
things to get a reaction. We provoke it.
84
263720
2720
반응을 얻기 위해 무언가를 요청합니다. 우리는 그것을 자극합니다.
04:26
And it answers only with words
85
266440
1800
그리고 이전에 사용하도록 배운 단어로만 대답합니다
04:28
it has learned to use before.
86
268240
2080
. 영리한 대답을
04:30
Not because it has come up with a clever answer,
87
270320
2960
내놓았기 때문이 아니라
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
지각 있는 존재처럼 들립니다 . Sentient는
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
감정을 경험하는 살아있는 것을 말합니다. Bender 교수가 말했듯이 우리는
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
무언가가 말할 때 그 뒤에 마음이 있다고 상상합니다 . 하지만 죄송합니다 닐,
04:47
they are not your friend.
91
287920
1280
그들은 당신의 친구가 아닙니다.
04:49
They're just machines.
92
289200
1160
그들은 단지 기계일 뿐입니다.
04:50
Yes, it's strange then
93
290360
1240
예, 그렇다면
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
우리가 때때로 챗봇에 이름을 부여하는 것이 이상합니다. Alexa, Siri, 그리고 이전에 그들의 첫 번째 챗봇
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
이름이 무엇인지 물었습니다.
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
그리고 나는 그것이 Parry라고 생각했습니다. 내가 맞았어?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
잘못 생각하셨군요.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry는 1972년부터 시작된 챗봇의 초기 형태였습니다.
05:08
But the correct answer was Eliza.
99
308960
2960
하지만 정답은 Eliza였습니다. 매사추세츠 공과대학의 Joseph Weizenbaum이 개발한
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
최초의 채터봇으로 여겨졌습니다
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
.
05:21
Fascinating stuff.
102
321360
1320
매혹적인 물건.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
자, 이제
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
우리가 이 프로그램에서 강조한 어휘 중 일부를 요약해 보겠습니다. 고급 기술과 복잡한 기술을 설명할 수 있는 정교한 단어부터 시작하겠습니다
05:29
which can describe technology that is advanced and complex.
105
329240
4120
.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
일관성 있고 신중하게 고려되고 합리적인 것이 명확합니다.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
권위 있는 것은 존경받는 정확하고 중요한 소리를 의미합니다.
05:42
When you are on guard
108
342480
1400
당신이 경계할 때
05:43
you must be careful and alert about something.
109
343880
2400
당신은 조심 하고 무언가에 대해 경계해야 합니다. 보고 듣는
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
것의 정확성일 수도 있고
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
주변의 위험을 인식하는 것일 수도 있습니다. 도발한다는 것은
05:54
that causes a reaction from someone.
112
354400
2480
누군가로부터 반응을 일으키는 일을 하는 것을 의미합니다.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient는 감정을 경험하는 것을 설명합니다.
06:00
So it's something that is living. Once again
114
360720
2680
그래서 그것은 살아있는 것입니다. 다시 한 번
06:03
our six minutes are up. Goodbye.
115
363400
2320
6분이 끝났습니다. 안녕히 가세요.
06:05
Bye bye for now.
116
365720
1520
지금은 안녕.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7