Should we fear chatbots? ⏲️ 6 Minute English

130,813 views ・ 2023-07-06

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:07
Hello. This is 6 Minute English
0
7680
1600
Bonjour. Ceci est 6 minutes d'anglais
00:09
from BBC Learning English.
1
9280
1720
de BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
Je suis Neil.
Et je suis Rob.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Maintenant, je suis sûr que la plupart d'entre nous ont interagi avec un chatbot.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
Ce sont des éléments de technologie informatique qui répondent au texte par du texte
00:22
or respond to your voice.
6
22560
2040
ou répondent à votre voix.
00:24
You ask it a question and usually it comes up
7
24600
3400
Vous lui posez une question et généralement il trouve
00:28
with an answer.
8
28000
1200
une réponse.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Oui, c'est presque comme parler à un autre humain.
00:31
But of course, it's not.
10
31680
1760
Mais bien sûr, ce n'est pas le cas.
00:33
It's just a clever piece of technology.
11
33440
2640
C'est juste une technologie astucieuse.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Cela devient plus sophistiqué, plus avancé et plus complexe,
00:39
but could they replace real human interaction altogether?
13
39800
3200
mais pourraient-ils remplacer complètement la véritable interaction humaine ?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
Nous en discuterons plus en détail dans un instant et découvrirons si les chatbots
00:46
really think for themselves. But first,
15
46560
3120
pensent vraiment par eux-mêmes. Mais d'abord,
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
j'ai une question pour vous, Rob. Le premier programme informatique permettant
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
une sorte de conversation plausible entre les humains et les machines
00:58
was invented in 1966.
18
58080
2840
a été inventé en 1966.
01:00
But what was it called?
19
60920
1760
Mais comment s'appelait-il ?
01:02
Was it a) Alexa.
20
62680
2360
Était-ce a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, ou c) Parer ? Eh bien, ce n'est pas Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
c'est trop nouveau, donc je suppose que
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Je révélerai la réponse à la fin du programme.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Maintenant, les vieux chatbots des années 60 et 70 étaient assez basiques.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Mais plus récemment, la technologie est capable de prédire le mot suivant
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
susceptible d'être utilisé dans une phrase et elle apprend les mots et les structures de phrases.
01:32
It's clever stuff.
28
92600
1360
C'est un truc intelligent.
01:33
I've experienced using them when talking to my bank
29
93960
2760
Je les ai utilisés lorsque j'ai parlé à ma banque
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
ou lorsque j'ai eu des problèmes pour réserver un billet sur un site Web.
01:40
I no longer phone a human,
31
100040
2480
Je ne téléphone plus à un humain,
01:42
I speak to a virtual assistant instead.
32
102520
2840
je parle à un assistant virtuel à la place.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Le chatbot le plus connu actuellement
01:48
is ChatGTP.
34
108240
1640
est probablement ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
C'est. L'affirmation est qu'il est capable de répondre à
01:52
anything you ask it.
36
112800
1680
tout ce que vous lui demandez.
01:54
This includes writing
37
114480
1280
Cela comprend la rédaction des
01:55
students' essays.
38
115760
1680
essais des étudiants.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
Maintenant, c'est quelque chose qui a été discuté sur le
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
programme BBC Radio 4, Word of Mouth.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
professeur de linguistique computationnelle à l'Université
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
de Washington, a expliqué pourquoi il est dangereux de toujours faire confiance à
02:11
what a chatbot is telling us.
44
131280
2160
ce qu'un chatbot nous dit.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Nous avons tendance à réagir à un texte apparemment grammatical, fluide et cohérent
02:18
as authoritative and reliable and valuable and
46
138720
4720
comme faisant autorité, fiable et précieux et
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
nous devons nous méfier de cela, car ce qui sort de ChatGTP n'est
02:26
is none of that.
48
146120
1400
rien de tout cela.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Ainsi, le professeur Bender dit qu'un texte bien écrit, qui est cohérent -
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
cela signifie qu'il est clair, soigneusement réfléchi et sensé -
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
nous fait penser que ce que nous lisons est fiable et fait autorité.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
C'est donc un son respecté, précis et important.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Oui, les chatbots peuvent sembler écrire de cette façon. Mais en réalité,
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
ils ne font que prédire un mot après l'autre en fonction de ce qu'ils ont appris.
02:52
We should therefore be on guard - be careful
55
172080
3040
Nous devons donc être sur nos gardes - être prudents
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
et attentifs à l'exactitude de ce qu'on nous dit. L'
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
une des préoccupations est que les chatbots - une forme d'intelligence artificielle - fonctionnent
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
un peu comme un cerveau humain dans la façon dont il peut apprendre et traiter les informations.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Ils sont capables d'apprendre de l'expérience. Quelque chose qui s'appelle l'apprentissage en profondeur.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
Un psychologue cognitif et informaticien appelé Geoffrey Hinton, a
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
récemment déclaré qu'il craignait que les chatbots ne dépassent bientôt le niveau
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
d'informations détenu par un cerveau humain . C'est un peu effrayant n'est-ce pas ?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Mais pour l'instant, les chatbots peuvent être utiles pour des informations pratiques,
03:30
but sometimes we start to believe they are human
64
210560
2680
mais parfois nous commençons à croire qu'ils sont humains
03:33
and we interact with them in a human like way.
65
213240
2920
et nous interagissons avec eux de manière humaine.
03:36
This can make us believe them even more.
66
216160
2520
Cela peut nous faire croire encore plus à eux.
03:38
Professor Emma Bender,
67
218680
1160
Le professeur Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
s'exprimant sur le programme Word of Mouth de la BBC
03:41
programme, explains why we might feel like that.
69
221720
3560
, explique pourquoi nous pourrions ressentir cela.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Je pense que ce qui se passe là-bas, c'est que les types de réponses que
03:48
you get depend on the questions
71
228440
2360
vous obtenez dépendent des questions que
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
vous posez, car il s'agit probablement du mot suivant, probablement du mot suivant.
03:54
And so, if as the human interacting with this machine
73
234160
3360
Et donc, si en tant qu'humain interagissant avec cette machine
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
et que vous commencez à poser des questions sur ce que vous ressentez, vous savez, chatbot ?
04:01
And, what do you think of this?
75
241640
2120
Et, qu'en pensez-vous ?
04:03
What are your goals?
76
243760
1200
Quels sont vos objectifs?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Vous pouvez le provoquer pour qu'il dise des choses qui ressemblent à ce que
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
dirait une entité sensible. Nous sommes vraiment prêts à imaginer un esprit derrière le langage
04:13
whenever we encounter language.
79
253320
1840
chaque fois que nous rencontrons un langage.
04:15
And so we really have to account for that when
80
255160
1880
Et donc nous devons vraiment en tenir compte lorsque
04:17
we're making decisions about these.
81
257040
2240
nous prenons des décisions à ce sujet.
04:19
So, although a chatbot might sound human,
82
259480
2960
Ainsi, bien qu'un chatbot puisse sembler humain,
04:22
we really just ask it
83
262440
1280
nous lui demandons simplement
04:23
things to get a reaction. We provoke it.
84
263720
2720
des choses pour obtenir une réaction. Nous le provoquons.
04:26
And it answers only with words
85
266440
1800
Et il ne répond qu'avec des mots
04:28
it has learned to use before.
86
268240
2080
qu'il a appris à utiliser auparavant.
04:30
Not because it has come up with a clever answer,
87
270320
2960
Non pas parce qu'il a trouvé une réponse intelligente,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
mais cela ressemble à une entité sensible. Sentient décrit une
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
chose vivante qui éprouve des sentiments. Comme le dit le professeur Bender, nous imaginons
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
que lorsque quelque chose parle, il y a un esprit derrière. Mais désolé Neil,
04:47
they are not your friend.
91
287920
1280
ils ne sont pas ton ami.
04:49
They're just machines.
92
289200
1160
Ce ne sont que des machines.
04:50
Yes, it's strange then
93
290360
1240
Oui, c'est étrange alors
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
que nous donnions parfois des noms aux chatbots. Alexa, Siri et plus tôt
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
je vous ai demandé comment s'appelait leur tout premier chatbot ?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
Et j'ai deviné que c'était Parry. Avais-je raison ?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Vous avez mal deviné, j'en ai peur.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry était une première forme de chatbot de 1972.
05:08
But the correct answer was Eliza.
99
308960
2960
Mais la bonne réponse était Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Il a été considéré comme le premier chatterbot, comme on l'appelait alors,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
et a été développé par Joseph Weizenbaum au Massachusetts Institute of Technology. Des
05:21
Fascinating stuff.
102
321360
1320
trucs fascinants.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
OK, récapitulons maintenant une partie du vocabulaire que
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
nous avons mis en évidence dans ce programme, en commençant par sophistiqué,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
qui peut décrire une technologie avancée et complexe.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Quelque chose de cohérent, de clair réfléchi et de sensé.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Faire autorité signifie respecter un son précis et important.
05:42
When you are on guard
108
342480
1400
Lorsque vous êtes sur vos gardes,
05:43
you must be careful and alert about something.
109
343880
2400
vous devez être prudent et attentif à quelque chose.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Il peut s'agir de l'exactitude de ce que vous voyez ou entendez ou simplement d'être conscient
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
des dangers qui vous entourent. Provoquer signifie faire quelque chose
05:54
that causes a reaction from someone.
112
354400
2480
qui provoque une réaction de la part de quelqu'un.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient décrit quelque chose qui éprouve des sentiments.
06:00
So it's something that is living. Once again
114
360720
2680
C'est donc quelque chose qui vit. Encore une fois,
06:03
our six minutes are up. Goodbye.
115
363400
2320
nos six minutes sont écoulées. Au revoir.
06:05
Bye bye for now.
116
365720
1520
Au revoir pour le moment.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7