BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:00
6 Minute English.
0
760
1720
6 minutes d'anglais.
00:02
From BBC Learning English.
1
2600
2640
De BBC Learning English.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
Bonjour. Il s'agit de 6 minutes d'anglais de BBC Learning English. Je suis Neil.
00:09
And I'm Rob.
3
9880
1200
Et je suis Rob.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
Maintenant, je suis sûr que la plupart d’entre nous ont interagi avec un chatbot. Il
00:15
These are bits of computer technology
5
15680
2320
s’agit de composants de technologie informatique
00:18
that respond to text with text or respond to your voice.
6
18120
4600
qui répondent au texte par du texte ou à votre voix.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
Vous lui posez une question et généralement il vous donne une réponse.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
Oui, c'est presque comme parler à un autre humain, mais bien sûr ce n'est pas le cas,
00:31
it's just a clever piece of technology.
9
31520
2560
c'est juste une technologie intelligente.
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
Ces technologies deviennent de plus en plus « sophistiquées » — plus « avancées et complexes » —
00:37
but could they replace real human interaction altogether?
11
37960
3200
mais pourraient-elles remplacer complètement l’interaction humaine réelle ?
00:41
We'll discuss that more in a moment
12
41280
2040
Nous en discuterons plus en détail dans un instant
00:43
and find out if chatbots really think for themselves.
13
43440
3680
et découvrirons si les chatbots pensent vraiment par eux-mêmes.
00:47
But first I have a question for you, Rob.
14
47240
2440
Mais d’abord, j’ai une question pour toi, Rob.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
Le premier programme informatique permettant une sorte de conversation plausible
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
entre humains et machines a été inventé en 1966, mais comment s'appelait-il ?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
Était-ce a) Alexa ? b) ÉLISA ? Ou c) PARER ?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
Ah, eh bien, ce n'est pas Alexa, c'est trop nouveau, donc je devinerai c) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
Je révélerai la réponse à la fin de l'émission.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
Les anciens chatbots des années 1960 et 1970 étaient assez basiques,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
mais plus récemment, la technologie est capable de prédire le prochain mot
01:25
that is likely to be used in a sentence,
22
85200
2200
susceptible d'être utilisé dans une phrase,
01:27
and it learns words and sentence structures.
23
87520
2840
et elle apprend des mots et des structures de phrases.
01:30
Mm, it's clever stuff.
24
90480
1480
Mm, c'est intelligent.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
J'ai déjà eu recours à eux lorsque je parlais à ma banque
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
ou lorsque j'avais des problèmes pour réserver un billet sur un site Web.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
Je ne téléphone plus à un humain, je parle à un assistant virtuel.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
Le chatbot le plus connu du moment est probablement ChatGPT.
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
C'est vrai. On prétend qu'il est capable de répondre à tout ce que vous lui demandez.
01:52
This includes writing students' essays.
30
112680
2760
Cela comprend la rédaction des essais des étudiants.
01:55
Now, this is something that was discussed
31
115560
1760
C'est un sujet qui a été abordé
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
dans l'émission Word of Mouth de la BBC Radio 4.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
Emily M Bender, professeur de linguistique informatique
02:05
at the University of Washington,
34
125000
1680
à l'Université de Washington,
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
a expliqué pourquoi il est dangereux de toujours faire confiance à ce qu'un chatbot nous dit.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
Nous avons tendance à réagir à un texte grammatical, fluide et apparemment cohérent
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
comme faisant autorité, fiable et précieux et nous devons nous en méfier,
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
car ce qui sort de ChatGPT n'est rien de tout cela.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
Ainsi, le professeur Bender affirme qu'un texte bien écrit qui est « cohérent » —
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
c'est-à-dire « clair, soigneusement réfléchi et sensé » —
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
nous fait penser que ce que nous lisons est fiable et « fait autorité ».
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
C'est donc quelque chose de « respecté, précis et important ».
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
Oui, les chatbots peuvent sembler écrire de cette façon,
02:44
but really, they are just predicting one word after another,
44
164400
3560
mais en réalité, ils ne font que prédire un mot après l’autre,
02:48
based on what they have learnt.
45
168080
2040
en fonction de ce qu’ils ont appris.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
Nous devrions donc être « sur nos gardes » – être « prudents et vigilants » –
02:54
about the accuracy of what we are being told.
47
174080
3000
quant à l’exactitude de ce qu’on nous dit.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
L’une des préoccupations est que les chatbots – une forme d’intelligence artificielle –
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
fonctionnent un peu comme un cerveau humain dans la façon dont ils peuvent apprendre et traiter les informations.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
Ils sont capables d’apprendre de l’expérience, ce qu’on appelle l’apprentissage profond. Geoffrey Hinton,
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
psychologue cognitif et informaticien, a
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
récemment déclaré qu’il craignait que les chatbots puissent bientôt dépasser
03:19
the level of information that a human brain holds.
53
199200
3400
le niveau d’information que détient le cerveau humain.
03:22
That's a bit scary, isn't it?
54
202720
1440
C'est un peu effrayant, n'est-ce pas ?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
Mm, mais pour l'instant, les chatbots peuvent être utiles pour des informations pratiques,
03:28
but sometimes we start to believe they are human
56
208760
2680
mais parfois nous commençons à croire qu'ils sont humains
03:31
and we interact with them in a human-like way.
57
211560
2680
et nous interagissons avec eux d'une manière humaine.
03:34
This can make us believe them even more.
58
214360
2400
Cela peut nous amener à les croire encore plus. La
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
professeure Emma Bender, s'exprimant dans l'émission Word of Mouth de la BBC,
03:40
explains why we might feel like that.
60
220520
2760
explique pourquoi nous pouvons ressentir cela.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
Je pense que ce qui se passe là-bas, c'est que les types de réponses que vous obtenez
03:47
depend on the questions you put in,
62
227680
2040
dépendent des questions que vous posez,
03:49
because it's doing likely next word, likely next word,
63
229840
2520
car il s'agit probablement du mot suivant, probablement du mot suivant,
03:52
and so if, as the human interacting with this machine,
64
232480
3280
et donc si, en tant qu'humain interagissant avec cette machine,
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
vous commencez à lui poser des questions sur Comment te sens-tu, tu sais, Chatbot ?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
Et "Qu'est-ce que tu penses de ça ?" Et, « Quels sont vos objectifs ? »
04:03
You can provoke it to say things
67
243240
1720
Vous pouvez le provoquer à dire des choses
04:05
that sound like what a sentient entity would say.
68
245080
2960
qui ressemblent à ce que dirait une entité sensible.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
Nous sommes vraiment préparés à imaginer un esprit derrière le langage
04:11
whenever we encounter language
70
251600
1600
chaque fois que nous rencontrons un langage
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
et nous devons donc vraiment en tenir compte lorsque nous prenons des décisions à ce sujet.
04:17
So, although a chatbot might sound human,
72
257840
2560
Ainsi, même si un chatbot peut sembler humain,
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
nous lui demandons simplement des choses pour obtenir une réaction – nous le « provoquons » –
04:24
and it answers only with words it's learned to use before,
74
264480
4040
et il ne répond qu’avec des mots qu’il a appris à utiliser auparavant, et
04:28
not because it has come up with a clever answer.
75
268640
2720
non parce qu’il a trouvé une réponse intelligente.
04:31
But it does sound like a sentient entity —
76
271480
2600
Mais cela ressemble bien à une entité sensible —
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
« sensible » décrit « un être vivant qui éprouve des sentiments ».
04:38
As Professor Bender says,
78
278760
1640
Comme le dit le professeur Bender,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
nous imaginons que lorsque quelque chose parle, il y a un esprit derrière.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
Mais désolé, Neil, ce ne sont pas tes amis, ce sont juste des machines !
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
Oui, c'est étrange alors que nous donnions parfois des noms aux chatbots.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa, Siri, et plus tôt je vous ai demandé quel était le nom du tout premier chatbot.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
Et j'ai deviné que c'était PARRY. Avais-je raison ?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
Vous avez mal deviné, j'en ai peur.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY était une première forme de chatbot datant de 1972, mais la bonne réponse était ELIZA.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
Il était considéré comme le premier « chatterbot » — comme on l'appelait alors —
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
et a été développé par Joseph Weizenbaum au Massachusetts Institute of Technology.
05:19
Fascinating stuff.
88
319800
1040
Des trucs fascinants.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
OK, récapitulons maintenant une partie du vocabulaire que nous avons mis en évidence dans ce programme.
05:25
Starting with 'sophisticated',
90
325440
2000
Commençons par « sophistiqué »,
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
qui peut décrire une technologie « avancée et complexe ».
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
Ce qui est « cohérent » est « clair, soigneusement réfléchi et sensé ».
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
« Autoritaire » signifie « respecté, précis et important ».
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
Lorsque vous êtes « sur vos gardes », vous devez être « prudent et vigilant » à propos de quelque chose :
05:44
it could be accuracy of what you see or hear,
95
344480
3320
cela peut concerner l’exactitude de ce que vous voyez ou entendez,
05:47
or just being aware of the dangers around you.
96
347920
2640
ou simplement être conscient des dangers qui vous entourent.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
« Provoquer » signifie « faire quelque chose qui provoque une réaction chez quelqu’un ».
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
« Sentient » décrit « quelque chose qui éprouve des sentiments » —
05:58
so it's 'something that is living'.
99
358760
2120
c'est donc « quelque chose qui vit ».
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
Une fois de plus, nos six minutes sont écoulées. Au revoir.
06:03
Bye for now.
101
363760
1000
Au revoir pour l'instant.
06:05
6 Minute English.
102
365680
1520
6 minutes d'anglais.
06:07
From BBC Learning English.
103
367320
2400
De BBC Learning English.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
Bonjour. Il s'agit de 6 minutes d'anglais de BBC Learning English.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— Je suis Sam. — Et je suis Neil.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
À l'automne 2021, quelque chose d'étrange s'est produit
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
au siège de Google dans la Silicon Valley en Californie.
06:22
A software engineer called Blake Lemoine
108
382640
2720
Un ingénieur logiciel appelé Blake Lemoine
06:25
was working on the artificial intelligence project
109
385480
2840
travaillait sur le projet d'intelligence artificielle
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
Language Models for Dialogue Applications, ou LaMDA en abrégé.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA est un « chatbot » — un « programme informatique
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
conçu pour avoir des conversations avec des humains sur Internet ».
06:40
After months talking with LaMDA
113
400120
2280
Après des mois de discussion avec LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
sur des sujets allant des films au sens de la vie,
06:46
Blake came to a surprising conclusion —
115
406000
2640
Blake est arrivé à une conclusion surprenante :
06:48
the chatbot was an intelligent person
116
408760
2720
le chatbot était une personne intelligente
06:51
with wishes and rights that should be respected.
117
411600
3040
avec des souhaits et des droits qui devaient être respectés.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
Pour Blake, LaMDA était un employé de Google, pas une machine.
06:58
He also called it his friend.
119
418840
1880
Il l'appelait aussi son ami.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
Google a rapidement réaffecté Blake du projet,
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
annonçant que ses idées n'étaient pas étayées par des preuves.
07:07
But what exactly was going on?
122
427720
2440
Mais que se passait-il exactement ?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
Dans ce programme, nous discuterons de la question de savoir si l'intelligence artificielle
07:14
is capable of consciousness.
124
434120
2160
est capable de conscience.
07:16
We'll hear from one expert
125
436400
1480
Nous écouterons un expert
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
qui pense que l’IA n’est pas aussi intelligente que nous le pensons parfois
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
et, comme d’habitude, nous apprendrons également du nouveau vocabulaire.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
Mais avant cela, j'ai une question pour toi, Neil.
07:28
What happened to Blake Lemoine
129
448240
1400
Ce qui est arrivé à Blake Lemoine
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
est étrangement similaire au film hollywoodien de 2013, Her,
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
avec Joaquin Phoenix dans le rôle d'un écrivain solitaire qui parle avec son ordinateur,
07:38
voiced by Scarlett Johansson.
132
458600
1840
doublé par Scarlett Johansson.
07:40
But what happens at the end of the movie?
133
460560
2280
Mais que se passe-t-il à la fin du film ?
07:42
Is it a) The computer comes to life?
134
462960
2520
Est-ce que a) L’ordinateur prend vie ?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) L’ordinateur rêve de l’écrivain ?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
Ou c) L’écrivain tombe amoureux de l’ordinateur ?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) L'écrivain tombe amoureux de l'ordinateur.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
OK, Neil, je révélerai la réponse à la fin du programme.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
Bien que Hollywood regorge de films sur les robots qui prennent vie,
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
Emily Bender, professeur de linguistique et d'informatique à l'Université de Washington,
08:07
thinks AI isn't that smart.
141
487400
2640
pense que l'IA n'est pas si intelligente.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
Elle pense que les mots que nous utilisons pour parler de technologie —
08:13
phrases like 'machine learning' —
143
493520
2120
des expressions comme « apprentissage automatique » —
08:15
give a false impression about what computers can and can't do.
144
495760
4440
donnent une fausse impression de ce que les ordinateurs peuvent et ne peuvent pas faire.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
Voici le professeur Bender discutant d' une autre expression trompeuse -
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
« reconnaissance vocale » - avec l' émission The Inquiry de la BBC World Service.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
Si vous parlez de « reconnaissance automatique de la parole »,
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
le terme « reconnaissance » suggère qu’il se passe quelque chose de cognitif, et
08:37
where I think a better term would be automatic transcription.
149
517120
2840
je pense qu’un meilleur terme serait la transcription automatique.
08:40
That just describes the input-output relation,
150
520080
2400
Cela décrit simplement la relation entrée-sortie,
08:42
and not any theory or wishful thinking
151
522600
3480
et non une théorie ou un vœu pieux
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
sur ce que fait l'ordinateur pour pouvoir y parvenir.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
L'utilisation de mots comme « reconnaissance » en relation avec les ordinateurs
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
donne l'idée que quelque chose de « cognitif » se produit —
08:56
something 'related to the mental processes
155
536800
2680
quelque chose de « lié aux processus mentaux
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
de réflexion, de connaissance, d'apprentissage et de compréhension ».
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
Mais penser et savoir sont des activités humaines, pas des machines.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
Le professeur Benders affirme que parler de ces technologies en lien avec les ordinateurs
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
est un « vœu pieux » – « quelque chose qui a peu de chances de se produire ».
09:16
The problem with using words in this way
160
556560
2120
Le problème avec l’utilisation de mots de cette manière
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
est qu’elle renforce ce que le professeur Bender appelle le « biais technique » —
09:23
'the assumption that the computer is always right'.
162
563680
2920
« l’hypothèse selon laquelle l’ordinateur a toujours raison ».
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
Lorsque nous rencontrons un langage qui semble naturel, mais qui provient d’un ordinateur,
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
les humains ne peuvent s’empêcher d’imaginer un esprit derrière ce langage,
09:34
even when there isn't one.
165
574840
1520
même s’il n’y en a pas.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
En d’autres termes, nous « anthropomorphisons » les ordinateurs :
09:39
we 'treat them as if they were human'.
167
579560
2320
nous les « traitons comme s’ils étaient humains ».
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
Voici à nouveau le professeur Bender, discutant de cette idée avec Charmaine Cozier,
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
la présentatrice de The Inquiry sur BBC World Service.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
Ainsi, « ism » signifie système, « anthro » ou « anthropo » signifie humain
09:55
and 'morph' means shape.
171
595280
1800
et « morph » signifie forme. Il s’agit
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
donc d’un système qui met la forme d’un humain sur quelque chose,
10:02
and, in this case, the something is a computer.
173
602080
1680
et, dans ce cas, ce quelque chose est un ordinateur.
10:03
We anthropomorphise animals all the time,
174
603880
2920
Nous anthropomorphisons les animaux tout le temps,
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
mais nous anthropomorphisons également les figurines, les poupées
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
ou les entreprises lorsque nous parlons d’ entreprises ayant des intentions, etc.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
Nous avons l’habitude de nous voir dans le monde qui nous entoure.
10:19
And while we're busy seeing ourselves
178
619480
1920
Et pendant que nous nous occupons de nous voir nous-mêmes
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
en attribuant des traits humains à des choses qui n’en sont pas, nous risquons d’être pris au dépourvu.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
Plus un texte est fluide, plus il peut aborder de sujets différents,
10:30
the more chances there are to get taken in.
181
630400
2720
plus il y a de chances d'être absorbé.
10:34
If we treat computers as if they could think,
182
634040
2600
Si nous traitons les ordinateurs comme s'ils pouvaient penser,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
nous risquons d'être « pris au dépourvu » ou « désagréablement surpris ». L'
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
intelligence artificielle fonctionne en trouvant des modèles dans des quantités massives de données,
10:45
so it can seem like we're talking with a human,
185
645720
2520
de sorte que nous pouvons avoir l'impression de parler à un humain
10:48
instead of a machine doing data analysis.
186
648360
3000
plutôt qu'à une machine effectuant une analyse de données.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
En conséquence, nous nous laissons « piéger » — nous sommes « trompés »
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
en pensant que nous avons affaire à un être humain ou à quelque chose d’intelligent. Une
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
IA puissante peut donner l’impression que les machines sont conscientes,
11:03
but even tech giants like Google
190
663480
2320
mais même les géants de la technologie comme Google
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
sont encore loin de pouvoir construire des ordinateurs capables de rêver ou de tomber amoureux.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
En parlant de cela, Sam, quelle était la réponse à ta question ?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
J'ai demandé ce qui s'est passé dans le film de 2013, Her.
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
Neil pensait que le personnage principal tombait amoureux de son ordinateur,
11:20
— which was the correct answer! — OK.
195
680360
2760
ce qui était la bonne réponse ! - D'ACCORD.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
Bon, il est temps de récapituler le vocabulaire que nous avons appris dans ce programme
11:27
about AI, including 'chatbots' —
197
687000
2720
sur l'IA, y compris les « chatbots » — «
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
des programmes informatiques conçus pour interagir avec des humains via Internet ».
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
L'adjectif « cognitif » décrit tout ce qui est lié
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
aux « processus mentaux de connaissance, d' apprentissage et de compréhension ».
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
« Penser pour de vrai » signifie « penser que quelque chose qui a très peu de chances de se produire
11:46
'might happen one day in the future'.
202
706240
2040
pourrait se produire un jour dans le futur ».
11:48
To 'anthropomorphise' an object
203
708400
1440
« Anthropomorphiser » un objet
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
signifie « le traiter comme s’il était humain, même s’il ne l’est pas ».
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
Lorsque vous êtes « pris au dépourvu », vous êtes « surpris de manière négative ».
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
Et enfin, « se faire avoir » par quelqu’un signifie être « trompé ou dupé » par cette personne.
12:02
My computer tells me that our six minutes are up!
207
722160
2920
Mon ordinateur m’indique que nos six minutes sont écoulées !
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
Rejoignez-nous bientôt, pour l'instant c'est un au revoir de notre part.
12:08
Bye!
209
728280
1360
Au revoir!
12:09
6 Minute English.
210
729760
1560
6 minutes d'anglais.
12:11
From BBC Learning English.
211
731440
2400
De BBC Learning English.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
Bonjour, je suis Rob. Bienvenue sur 6 Minute English et avec moi dans le studio se trouve Neil.
12:19
— Hello, Rob. — Hello.
213
739280
1720
— Bonjour, Rob. - Bonjour.
12:21
Feeling clever today, Neil?
214
741120
1520
Tu te sens intelligent aujourd'hui, Neil ?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
Je me sens plutôt brillant et intelligent, oui !
12:25
That's good to hear.
216
745120
1000
C'est bon à entendre.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
Eh bien, « vous aurez besoin de votre sang-froid » — ce
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
qui signifie « vous devrez réfléchir très vite » dans ce programme,
12:30
because we're talking about intelligence,
219
750880
2480
car nous parlons d'intelligence,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
ou pour être plus précis, d' intelligence artificielle,
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
et nous apprendrons un peu de vocabulaire lié au sujet,
12:40
so that you can have your own discussion about it.
222
760040
2720
afin que vous puissiez avoir votre propre discussion à ce sujet.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
Neil, maintenant, tu sais qui est le professeur Stephen Hawking, n'est-ce pas ?
12:46
Well, of course! Yes.
224
766120
1240
Bien sûr ! Oui.
12:47
Many people say that he's a 'genius' —
225
767480
2320
Beaucoup de gens disent qu’il est un « génie » —
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
en d’autres termes, il est « très, très intelligent ».
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
Le professeur Hawking est l'un des scientifiques les plus célèbres au monde
12:56
and people remember him for his brilliance
228
776720
1960
et les gens se souviennent de lui pour son génie,
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
mais aussi parce qu'il communique en utilisant une voix synthétique générée par un ordinateur —
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
« synthétique » signifie « fabriqué à partir de quelque chose de non naturel ». Le terme
13:07
'Artificial' is similar in meaning —
231
787720
2040
« artificiel » a une signification similaire :
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
nous l’utilisons lorsque quelque chose est « fabriqué par l’homme pour ressembler ou se comporter comme quelque chose de naturel ».
13:14
Well, Professor Hawking has said recently
233
794720
2360
Le professeur Hawking a récemment déclaré
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
que les efforts visant à créer des machines pensantes constituent une menace pour notre existence.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
Une « menace » signifie « quelque chose qui peut nous mettre en danger ».
13:25
Now, can you imagine that, Neil?!
236
805120
1360
Maintenant, peux-tu imaginer ça, Neil ?!
13:26
Well, there's no denying that good things
237
806600
2080
Eh bien, il est indéniable que de bonnes choses
13:28
can come from the creation of artificial intelligence.
238
808800
2640
peuvent résulter de la création de l’intelligence artificielle.
13:31
Computers which can think for themselves
239
811560
1920
Les ordinateurs capables de penser par eux-mêmes
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
pourraient être capables de trouver des solutions à des problèmes que nous n’avons pas réussi à résoudre.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
Mais la technologie évolue rapidement et nous devrions peut-être en considérer les conséquences.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
Certains de ces robots très intelligents nous surpassent déjà, Rob.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
« Surpasser » signifie « avoir des capacités supérieures aux nôtres ».
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
Oui. Peut-être vous souvenez-vous des gros titres lorsqu'un superordinateur
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
a vaincu le champion du monde d'échecs, Gary Kasparov, à la stupéfaction générale.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
C'était en 1997. Mais comment s'appelait l'ordinateur, Neil ?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
Était-ce a) La Menace Rouge ? b) Bleu profond ? Ou c) Silver Surfer ?
14:09
Erm, I don't know.
248
849720
2200
Euh, je ne sais pas.
14:12
I think c) is probably not right. Erm...
249
852040
2360
Je pense que c) n’est probablement pas correct. Euh...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
Je pense à Deep Blue. C'est b) Deep Blue. D'
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
ACCORD. Eh bien, vous saurez si vous avez eu la bonne réponse à la fin du programme.
14:22
Well, our theme is artificial intelligence
252
862080
2240
Eh bien, notre thème est l’intelligence artificielle
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
et quand on en parle, on doit mentionner le cinéma.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
Mm, de nombreux films de science-fiction ont exploré l’idée
14:30
of bad computers who want to harm us.
255
870760
2440
de mauvais ordinateurs qui veulent nous faire du mal.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
2001, l’Odyssée de l’espace en est un exemple.
14:36
Yes, a good film.
257
876880
1000
Oui, un bon film.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
Et un autre est Terminator, un film dans lequel l’acteur Arnold Schwarzenegger
14:42
played an android from the future.
259
882120
2240
joue un androïde venu du futur.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
Un « androïde » est « un robot qui ressemble à un humain ». As-tu regardé celui-là, Neil ?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
Oui, je l'ai et cet androïde n'est pas très convivial.
14:51
No, it's not!
262
891840
1000
Non, ce n'est pas le cas !
14:52
In many movies and books about robots that think,
263
892960
2920
Dans de nombreux films et livres sur les robots qui pensent,
14:56
the robots end up rebelling against their creators.
264
896000
3200
les robots finissent par se rebeller contre leurs créateurs.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
Mais certains experts affirment que le risque posé par l’intelligence artificielle
15:02
is not that computers attack us because they hate us.
266
902920
3320
n’est pas que les ordinateurs nous attaquent parce qu’ils nous détestent.
15:06
Their problem is related to their efficiency.
267
906360
2800
Leur problème est lié à leur efficacité.
15:09
What do you mean?
268
909280
1000
Que veux-tu dire?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
Eh bien, écoutons ce que le philosophe Nick Bostrom a à dire.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
Il est le fondateur du Future of Humanity Institute de l'Université d'Oxford.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
Il utilise trois mots pour décrire ce qu'il y a dans l'esprit d'un ordinateur pensant.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
Cette phrase signifie « atteindre leurs objectifs ». Quelle est la phrase qu'il utilise ?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
Le risque principal ne réside pas dans le fait que les machines soient mauvaises ou qu’elles détestent les humains,
15:35
but rather that they are indifferent to humans
274
935920
2320
mais plutôt dans le fait qu’elles soient indifférentes aux humains
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
et que, dans la poursuite de leurs propres objectifs, nous, les humains, en souffrions comme effet secondaire.
15:42
Suppose you had a super intelligent AI
276
942840
1800
Imaginez que vous ayez une IA super intelligente
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
dont le seul objectif serait de fabriquer autant de trombones que possible. Le
15:48
Human bodies consist of atoms
278
948120
2280
corps humain est constitué d’atomes
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
et ces atomes pourraient être utilisés pour fabriquer de très jolis trombones.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
Si vous voulez des trombones, il s’avère que pour y parvenir,
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
vous auriez des raisons instrumentales de faire des choses qui seraient néfastes pour l’humanité.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
Un monde dans lequel les humains deviennent des trombones : ouah, ça fait peur !
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
Mais l’expression qui signifie « atteindre leurs objectifs » est « poursuivre leurs buts ».
16:11
Yes, it is.
284
971760
1000
Oui c'est le cas.
16:12
So the academic explains that if you're a computer
285
972880
3280
L'universitaire explique donc que si vous êtes un ordinateur
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
chargé de produire des trombones, vous poursuivrez votre objectif à n'importe quel prix.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
Et même utiliser des atomes de corps humains pour les transformer en trombones !
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— C'est une histoire d'horreur, Rob. — Mm.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
Si Stephen Hawking est inquiet, je pense que je le suis aussi !
16:32
How can we be sure that artificial intelligence —
290
992160
2880
Comment pouvons-nous être sûrs que l’intelligence artificielle – qu’il
16:35
be either a device or software — will have a moral compass?
291
995160
4000
s’agisse d’un appareil ou d’un logiciel – aura une boussole morale ?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
Ah, une bonne expression — une « boussole morale » —
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
en d’autres termes, « une compréhension de ce qui est bien et de ce qui est mal ». L'
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
intelligence artificielle est un sujet intéressant, Rob.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
J'espère que nous pourrons en reparler à l'avenir.
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
Mais maintenant, je regarde l'horloge et nous manquons de temps, j'en ai peur,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
et j'aimerais savoir si j'ai bien répondu à la question du quiz ?
16:57
Well, my question was about a supercomputer
298
1017120
3000
Eh bien, ma question portait sur un superordinateur
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
qui a battu le champion du monde d'échecs, Gary Kasparov, en 1997.
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
Quel était le nom de la machine ? Était-ce Red Menace, Deep Blue ou Silver Surfer ?
17:09
And I think it's Deep Blue.
301
1029720
2880
Et je pense que c'est Deep Blue.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
Eh bien, il semble que vous soyez plus intelligent qu'un ordinateur,
17:15
because you got the answer right.
303
1035720
1800
car vous avez trouvé la bonne réponse.
17:17
Yes, it was Deep Blue.
304
1037640
1240
Oui, c'était Deep Blue.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
Le match de 1997 était en fait le deuxième entre Kasparov et Deep Blue,
17:23
a supercomputer designed by the company IBM
306
1043800
3000
un superordinateur conçu par la société IBM
17:26
and it was specialised in chess-playing.
307
1046920
2400
et spécialisé dans le jeu d'échecs.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
Eh bien, je pense que je pourrais défier Deep Blue à un jeu !
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
Évidemment, je suis un peu, je suis un peu un génie moi-même.
17:35
Very good! Good to hear!
310
1055120
1600
Très bien! Bon à entendre !
17:36
Anyway, we've just got time to remember
311
1056840
1600
Quoi qu'il en soit, nous avons juste le temps de nous souvenir de
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
certains des mots et expressions que nous avons utilisés aujourd'hui. Neil ?
17:41
They were...
313
1061760
1000
Ils étaient...
17:42
you'll need your wits about you,
314
1062880
3680
vous aurez besoin de toute votre intelligence,
17:46
artificial,
315
1066680
2560
artificiels,
17:49
genius,
316
1069360
2600
géniaux,
17:52
synthetic,
317
1072080
2040
synthétiques, une
17:54
threat,
318
1074240
1760
menace,
17:56
to surpass,
319
1076120
2600
pour surpasser,
17:58
to pursue their goals,
320
1078840
3120
pour poursuivre leurs objectifs, une
18:02
moral compass.
321
1082080
1320
boussole morale.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
Merci. Et bien, c'est tout pour ce programme.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
Visitez BBC Learning English dot com pour trouver plus de programmes d'anglais de 6 minutes.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— À la prochaine, au revoir ! - Au revoir!
18:13
6 Minute English.
325
1093640
1440
6 minutes d'anglais.
18:15
From BBC Learning English.
326
1095200
2280
De BBC Learning English.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
Bonjour. Ceci est un cours d'anglais de 6 minutes. Je suis Rob. Et Sam se joint à moi pour faire cela.
18:23
Hello.
328
1103200
1000
Bonjour.
18:24
In this programme, we're talking about robots.
329
1104320
3040
Dans cette émission, nous parlons de robots.
18:27
Robots can perform many tasks,
330
1107480
2000
Les robots peuvent effectuer de nombreuses tâches,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
mais ils sont désormais introduits dans les services sociaux pour fonctionner comme des soignants,
18:34
to look after the sick and elderly.
332
1114280
2120
pour s'occuper des malades et des personnes âgées.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
Nous discuterons des aspects positifs et négatifs de cette question,
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
mais d'abord, posons-vous une question à laquelle répondre, Sam. Êtes-vous prêt pour cela ?
18:44
Fire away!
335
1124160
1120
Tirez !
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
Savez-vous en quelle année a été construit le premier robot commercial ?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
Était-ce en a) 1944 ? b) 1954 ? Ou c) 1964 ?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
Ce n'est pas une invention toute nouvelle, donc je vais opter pour 1954.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
Bon, eh bien, je vous dirai si vous avez raison ou tort à la fin du programme.
19:07
So, let's talk more about robots,
340
1147000
1920
Alors, parlons davantage des robots,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
et plus particulièrement de ceux qui sont conçus pour prendre soin des gens.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
Traditionnellement, ce sont les humains qui travaillent comme infirmières ou aides-soignants et
19:16
who take care of elderly people —
343
1156480
2200
qui prennent soin des personnes âgées, c’est-à-dire de
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
celles qui sont trop âgées ou trop malades pour prendre soin d’elles-mêmes.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
Mais trouver suffisamment de soignants pour s’occuper des gens est un problème :
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
il y a plus de personnes ayant besoin de soins que de personnes capables de les aider.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
Et récemment au Royaume-Uni, le gouvernement a annoncé un fonds de 34 millions de livres sterling
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
pour aider au développement de robots qui prendront soin de nous pendant nos vieux jours.
19:41
Well, robot carers are being developed,
349
1181760
2440
Eh bien, des robots soignants sont en cours de développement,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
mais peuvent-ils vraiment apprendre suffisamment d’empathie pour prendre soin des personnes âgées et malades ?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
L'empathie est « la capacité de comprendre ce que ressent quelqu'un
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
en imaginant ce que ce serait d' être à la place de cette personne ».
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
Eh bien, écoutons maintenant parler de l'un de ces nouveaux robots, appelé Pepper.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
Abbey Hearn-Nagaf est assistante de recherche à l'Université de Bedfordshire.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
Elle a parlé au programme You and Yours de BBC Radio 4
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
et a expliqué comment Pepper est présenté pour la première fois à quelqu'un dans une maison de retraite.
20:15
We just bring the robot to their room
357
1215880
2200
Nous amenons simplement le robot dans leur chambre
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
et nous parlons de ce que Pepper ne peut pas faire, ce qui est important,
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
il ne peut donc pas fournir d'assistance physique de quelque façon que ce soit.
20:23
It does have hands, it can wave.
360
1223800
2160
Il a des mains, il peut faire des signes.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
Lorsque vous lui demandez de l'intimité, il se retourne
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
et se couvre en quelque sorte les yeux avec ses mains, mais c'est le maximum qu'il fait.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
Il n'accroche rien, il ne déplace rien,
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
car nous sommes plus intéressés de voir comment il fonctionne comme un compagnon,
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
ayant quelque chose à qui parler, avec qui converser, avec qui interagir.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
Abbey a donc décrit comment le robot est présenté à quelqu'un.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
Elle a tenu à souligner que ce robot a des « limites » – « des choses qu’il ne peut pas faire ».
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
Il peut faire un signe de la main ou se retourner lorsqu'une personne a besoin d'« intimité » — « d'être privée » —
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
mais il ne peut pas fournir d '« assistance physique ».
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
Cela signifie qu'il ne peut pas aider quelqu'un en le « touchant ou en le sentant ».
21:05
But that's OK, Abbey says.
371
1265120
1680
Mais ce n’est pas grave, dit Abbey.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
Ce robot est conçu pour être un « compagnon » —
21:10
'someone who is with you to keep you company' —
373
1270120
2320
« quelqu’un qui est avec vous pour vous tenir compagnie » —
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
un ami, en d’autres termes, avec qui vous pouvez converser ou parler.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
Eh bien, avoir un compagnon est un bon moyen d’éviter que les gens ne se sentent seuls,
21:20
but surely a human is better for that?
376
1280680
2960
mais un humain est sûrement mieux pour cela ?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
Ils vous comprennent sûrement mieux qu’un robot ne le pourra jamais ?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
Eh bien, l’innovation signifie que les robots deviennent de plus en plus intelligents.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
Et, comme nous l’avons mentionné, au Royaume-Uni seulement, la population âgée est en augmentation
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
et il y a plus de 100 000 postes d’assistants de soins vacants.
21:40
Who's going to do all the work?
381
1300640
1800
Qui va faire tout le travail ?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
Je pense que nous devrions entendre le Dr Sarah Woodin,
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
chercheuse en santé sur la vie autonome à l'Université de Leeds,
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
qui s'est également exprimée dans le cadre du programme You and Yours de la BBC.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
Elle semble plus réaliste quant à l’introduction de robots soignants.
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
Je pense qu’il y a des problèmes si nous considérons les robots comme des substituts aux humains.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
Nous savons que l’argent est rare : si les robots sont produits en masse,
22:08
there could be large institutions where people might be housed
388
1328720
4200
il pourrait y avoir de grandes institutions où les gens pourraient être hébergés
22:13
and abandoned to robots.
389
1333040
2800
et abandonnés aux robots.
22:15
I do think questions of ethics
390
1335960
1480
Je pense que les questions d’éthique
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
doivent également être intégrées à l’agenda de la croissance et de l’emploi ,
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
car elles sont parfois traitées de manière très distincte.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
OK, donc Sarah Woodin suggère que lorsque l'argent est « serré » —
22:27
meaning there is 'only just enough' —
394
1347400
1680
ce qui signifie qu'il y en a « juste assez » —
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
fabriquer des robots en grande quantité — ou les produire en masse —
22:32
might be a cheaper option than using humans.
396
1352640
2720
pourrait être une option moins coûteuse que d'utiliser des humains.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
Et elle dit que les gens pourraient être abandonnés aux robots.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
Oui, « abandonné » signifie « laissé seul dans un endroit, généralement pour toujours ».
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
Elle dit donc qu'il est possible que quelqu'un finisse par être oublié
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
et qu'il n'ait plus qu'un robot pour prendre soin de lui. Alors, est-ce correct, d’un point de vue éthique ?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
Oui, eh bien, elle mentionne « l’éthique » — c’est-à-dire « ce qui est moralement juste » —
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
et cela doit être considéré comme faisant partie du programme pour l’emploi. Il
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
ne faut donc pas seulement se demander quels postes sont à pourvoir,
23:05
but who and how it should be done.
404
1385840
2360
mais aussi qui doit le faire et comment.
23:08
And earlier I asked you, Sam,
405
1388320
1400
Et plus tôt je t'ai demandé, Sam,
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
savais-tu en quelle année a été construit le premier robot commercial ? Et tu as dit ?
23:14
I said 1954.
407
1394400
1640
J'ai dit 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
Eh bien, tu n'avais pas besoin d'un robot pour t'aider là-bas parce que tu as raison.
23:19
— Ah, yay! — Well done!
409
1399600
1760
— Ah, ouais ! - Bien joué!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
Faisons maintenant quelque chose qu'un robot ne peut pas encore faire,
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
et récapitulons le vocabulaire que nous avons mis en évidence aujourd'hui, en commençant par l'empathie.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
L’empathie est « la capacité de comprendre ce que ressent quelqu’un
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
en imaginant ce que ce serait d’ être à la place de cette personne ».
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
« Assistance physique » décrit le fait d’« aider quelqu’un en le touchant ».
23:41
We also mentioned a 'companion' —
415
1421720
1920
Nous avons également mentionné un « compagnon »,
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
c’est-à-dire « quelqu’un qui est avec vous et vous tient compagnie ».
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
Notre mot suivant était « serré » — dans le contexte de l’argent,
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
lorsque l’argent est serré, cela signifie qu’il n’y en a « pas assez ».
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
« Abandonné » signifie « laissé seul dans un endroit, généralement pour toujours ».
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
Et enfin, nous avons discuté du mot « éthique » —
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
nous entendons beaucoup parler d’éthique des affaires ou d’éthique médicale —
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
et cela signifie « l’étude de ce qui est moralement juste ».
24:06
OK, thank you, Sam.
423
1446560
1560
OK, merci, Sam.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
Eh bien, nous avons réussi à terminer 6 minutes d'anglais sans l'aide d'un robot.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
C'est tout pour l'instant, mais rejoignez-nous bientôt. Au revoir!
24:15
Bye-bye, everyone!
426
1455920
1000
Au revoir tout le monde !
24:17
6 Minute English.
427
1457720
1680
6 minutes d'anglais.
24:19
From BBC Learning English.
428
1459520
2480
De BBC Learning English.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
Bonjour. Il s'agit de 6 minutes d'anglais de BBC Learning English. Je suis Phil.
24:26
And I'm Georgie.
430
1466760
1240
Et je suis Georgie.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
Les tests sur les animaux sont des expériences réalisées sur des animaux vivants dans le cadre de recherches scientifiques
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
pour déterminer l’efficacité d’un nouveau médicament ou la sécurité d’un produit pour les humains.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
Les scientifiques qui y sont favorables soutiennent que les tests sur les animaux
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
montrent si les médicaments sont sûrs ou dangereux pour les humains
24:46
and has saved many lives.
435
1486000
1760
et ont permis de sauver de nombreuses vies.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
Mais les défenseurs des droits des animaux affirment que c'est cruel
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
et également inefficace car les animaux et les humains sont très différents.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
Selon la loi britannique, les médicaments doivent être testés sur deux types d’animaux différents, en
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
commençant généralement par des rats, des souris ou des cobayes.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
Et dans l'anglais courant, le terme « cobaye humain »
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
peut être utilisé pour désigner « la première personne sur laquelle on a testé quelque chose ».
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
Mais aujourd’hui, les groupes pour et contre les tests sur les animaux réfléchissent à nouveau,
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
grâce à une récente avancée dans le débat : l’IA.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
Dans cette émission, nous découvrirons comment l’intelligence artificielle
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
pourrait contribuer à réduire le besoin de tests scientifiques sur les animaux.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
Mais d’abord, j’ai une question pour toi, Georgie.
25:34
There's one commonly used medicine in particular
447
1534200
2880
Il existe un médicament couramment utilisé
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
qui est nocif pour les animaux mais sans danger pour les humains, mais lequel ?
25:43
Is it a) Antibiotics?
449
1543240
3280
S'agit-il de a) Des antibiotiques ?
25:46
b) Aspirin?
450
1546640
2080
b) De l'aspirine ?
25:48
Or c) Paracetamol?
451
1548840
2480
Ou c) Paracétamol ?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
Hmm, je suppose que c'est de l'aspirine.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
OK, Georgie, je révélerai la réponse à la fin du programme.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
Christine Ro est une journaliste scientifique qui s'intéresse au débat sur l'expérimentation animale.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
Ici, elle explique à l'émission Tech Life de la BBC World Service
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
certaines des limites des tests de médicaments sur les animaux.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
Bien sûr, on ne peut pas nécessairement prédire à partir d'une souris ou d'un chien
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
ce qui va se passer chez un humain, et il y a eu un certain nombre de cas
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
où des substances qui se sont révélées toxiques chez les animaux se sont
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
avérées sans danger pour les humains. et vice versa. Il
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
existe bien sûr également des limites aux tests sur les animaux en matière de bien-être animal .
26:31
Most people, I think, if they had the choice,
462
1591360
2280
Je pense que la plupart des gens, s’ils avaient le choix,
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
voudraient que leurs substances soient utilisées sur le moins d’animaux possible, voire aucun animal,
26:39
while still ensuring safety.
464
1599040
1840
tout en garantissant la sécurité.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
Cela a été une tâche très difficile à accomplir,
26:43
but AI might help to make that more possible.
466
1603400
2440
mais l’IA pourrait contribuer à rendre cela plus possible.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
Christine affirme que les médicaments qui sont sans danger pour les animaux
26:49
might not be safe for humans.
468
1609360
2320
pourraient ne pas être sans danger pour les humains.
26:51
But the opposite is also true —
469
1611800
1760
Mais l’inverse est également vrai :
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
ce qui est sans danger pour les humains peut ne pas l’être pour les animaux.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
Christine utilise l’expression « vice versa »
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
pour montrer que « le contraire » de ce qu’elle dit est également vrai.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
Christine utilise également l'expression « enfiler l'aiguille »
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
pour décrire « une tâche qui requiert beaucoup d'habileté et de précision,
27:12
'especially one involving a conflict'.
475
1632560
3480
en particulier lorsqu'elle implique un conflit ».
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
Oui, les tests médicaux sur les animaux peuvent sauver des vies humaines,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
mais beaucoup de gens les considèrent comme cruels et pénibles pour l’animal :
27:24
it's a difficult needle to thread.
478
1644720
2840
c’est une aiguille difficile à enfiler.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
Mais aujourd’hui, le défi d’enfiler cette aiguille est devenu un peu plus facile
27:31
because of artificial intelligence.
480
1651560
2080
grâce à l’intelligence artificielle.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
Prédire dans quelle mesure un nouveau médicament est susceptible de nuire à l’homme
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
nécessite d’analyser les résultats de milliers d’expériences.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
Et l’une des choses dans lesquelles l’IA est particulièrement douée, c’est l’analyse de montagnes et de montagnes de données.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
Voici à nouveau Christine Ro, qui s'entretient avec Tech Life de BBC World Service.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
Bien entendu, l’IA ne représente pas l’ensemble du tableau,
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
mais elle en constitue une part de plus en plus importante, notamment parce
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
qu’il existe une énorme quantité de données toxicologiques à analyser
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
pour déterminer la sécurité chimique. à cela
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
s'ajoute le nombre impressionnant de produits chimiques inventés en permanence.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
L’IA aide les scientifiques à traiter d’énormes quantités de données.
28:14
If you 'wade through' something,
491
1694880
2200
Si vous « pataugez » dans quelque chose,
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
vous « passez beaucoup de temps et d’efforts à faire quelque chose d’ennuyeux ou de difficile »,
28:22
'especially reading a lot of information'.
493
1702240
2960
en particulier à lire beaucoup d’informations.
28:25
AI can process huge amounts of data,
494
1705320
2600
L’IA peut traiter d’énormes quantités de données,
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
et de plus, cette quantité continue de croître à mesure que de nouveaux produits chimiques sont inventés.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
Christine utilise l'expression « en plus de cela », qui signifie « en plus de quelque chose ».
28:38
Often this extra thing is negative.
497
1718600
2440
Souvent, ce petit plus est négatif.
28:41
She means there's already so much data to understand
498
1721160
3360
Elle veut dire qu’il y a déjà tellement de données à comprendre
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
et qu’en plus, il y a encore plus à comprendre sur ces nouveaux produits chimiques.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
Bien sûr, la bonne nouvelle est qu'avec l'IA, les tests sur les animaux pourraient un jour cesser,
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
même si Christine prévient que l'IA n'est pas une « image complète »,
29:00
it's not 'a complete description of something
502
1740000
2120
ce n'est pas « une description complète de quelque chose
29:02
'which includes all the relevant information'.
503
1742240
2920
» qui inclut toutes les informations pertinentes.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
Néanmoins, cette nouvelle constitue un pas en avant
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
pour le bien-être animal et pour la médecine moderne.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
En parlant de cela, quelle a été la réponse à ta question, Phil ?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
Quel est le médicament couramment utilisé qui est sans danger pour les humains, mais nocif pour les animaux ?
29:21
I guessed it was aspirin.
508
1761360
1920
J'ai supposé que c'était de l'aspirine.
29:23
Which was the correct answer!
509
1763400
3080
Quelle était la bonne réponse !
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
Bon, récapitulons le vocabulaire dont nous avons discuté,
29:30
starting with 'human guinea pigs'
511
1770360
2600
en commençant par « cobayes humains »
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
qui signifie « les premières personnes sur lesquelles on a testé quelque chose de nouveau ».
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
L'expression « vice versa » est utilisée pour indiquer
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
que « le contraire de ce que vous venez de dire est également vrai ».
29:44
To 'thread the needle'
515
1784160
1320
« Enfiler l'aiguille »
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
décrit « une tâche qui nécessite une habileté et une précision extrêmes pour être réalisée avec succès ».
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
Le terme « image globale » signifie « une description complète de quelque chose
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
» qui inclut toutes les informations et opinions pertinentes à ce sujet.
29:59
If you 'wade through' something,
519
1799880
2000
Si vous « pataugez » dans quelque chose,
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
vous « passez beaucoup de temps et d’efforts à faire quelque chose d’ennuyeux ou de difficile »,
30:06
'especially reading a lot of information'.
521
1806960
2800
en particulier à lire beaucoup d’informations.
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
Et enfin, l’expression « au-dessus de quelque chose »
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
signifie « en plus de quelque chose », et cette chose supplémentaire est souvent négative.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
C'est tout pour cette semaine. Au revoir pour l'instant !
30:20
Bye!
525
1820280
1360
Au revoir!
30:21
6 Minute English.
526
1821760
1320
6 minutes d'anglais.
30:23
From BBC Learning English.
527
1823200
2800
De BBC Learning English.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7