Are computers always right? 6 Minute English

255,743 views ・ 2018-07-19

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine : Bonjour et bienvenue sur 6 Minute
00:08
English. I'm Catherine.
1
8760
1420
English. Je suis Catherine.
00:10
Rob: And hello, I'm Rob.
2
10180
1400
Rob : Et bonjour, je suis Rob.
00:11
Catherine: Today we have another
3
11580
1389
Catherine : Aujourd'hui, nous avons un autre
00:12
technology topic.
4
12969
761
sujet technologique.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
Rob : Ah bon ! J'aime la technologie. Ça facilite les
00:16
things easier, it's fast and means I can
6
16240
2160
choses, c'est rapide et ça me permet d'
00:18
have gadgets.
7
18400
1400
avoir des gadgets.
00:19
Catherine: Do you think that technology
8
19800
1760
Catherine : Pensez-vous que la technologie
00:21
can actually do things better than humans?
9
21560
2200
peut réellement faire les choses mieux que les humains ?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob : Pour certaines choses, oui. Je pense
00:26
that drive themselves will be safer than
11
26400
1600
que les voitures qui conduisent elles-mêmes seront plus sûres que les
00:28
humans but that will take away some of
12
28000
3180
humains, mais cela enlèvera une partie
00:31
the pleasure of driving. So I guess it
13
31180
2180
du plaisir de conduire. Donc je suppose que cela
00:33
depends on what you mean by better.
14
33360
1940
dépend de ce que vous entendez par mieux.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
Catherine : Bon point, Rob. Et cela rejoint
00:36
actually ties in very closely with today's
16
36980
2420
en fait très étroitement le sujet d'aujourd'hui
00:39
topic which is technochauvinism.
17
39400
3200
qui est le technochauvinisme.
00:42
Rob: What's that?
18
42600
1480
Rob : Qu'est-ce que c'est ?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
Catherine : Nous le saurons bientôt, Rob, mais
00:45
before we do, today's quiz question.
20
45600
3200
avant, la question du quiz d'aujourd'hui.
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
L'intelligence artificielle, ou A.I., est un domaine de l'
00:52
computer science that develops the
22
52060
2040
informatique qui développe la
00:54
ability of computers to learn to do things
23
54100
2540
capacité des ordinateurs à apprendre à faire des choses
00:56
like solve problems or drive cars without
24
56640
2495
comme résoudre des problèmes ou conduire des voitures sans
00:59
crashing. But in what decade was the
25
59140
2800
s'écraser. Mais au cours de quelle décennie le
01:01
term 'Artificial Intelligence'
26
61940
2640
terme "intelligence artificielle" a-
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
t-il été inventé ? Était-ce : a) les années 1940, b) les années 1950
01:09
or c) the 1960s?
28
69490
2070
ou c) les années 1960 ?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob : Je pense que c'est une expression assez nouvelle, donc
01:14
I'll go for c) the 1960s.
30
74560
2380
je vais choisir c) les années 1960.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
Catherine : Bonne chance avec ça, Rob, et
01:18
we'll give you the answer later in the
32
78360
1300
nous vous donnerons la réponse plus tard dans le
01:19
programme. Now, let's get back to our
33
79660
2940
programme. Revenons maintenant à notre
01:22
topic of technochauvinism.
34
82600
2040
sujet du technochauvinisme.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
Rob : Je sais ce qu'est un chauvin. C'est
01:26
someone who thinks that their country or
36
86580
2380
quelqu'un qui pense que son pays, sa
01:28
race or sex is better than others. But how
37
88960
3140
race ou son sexe est meilleur que les autres. Mais
01:32
does this relate to technology?
38
92100
1340
quel est le rapport avec la technologie ?
01:33
Catherine: We're about to find out.
39
93440
1891
Catherine : Nous sommes sur le point de le découvrir.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard est professeur de
01:37
Journalism at New York University and
41
97324
2236
journalisme à l'Université de New York et
01:39
she's written a book called
42
99560
1660
elle a écrit un livre intitulé
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
Artificial Unintelligence. Elle est apparue dans
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
l'émission More or Less de la BBC Radio 4
01:47
to talk about it. Listen carefully and find
45
107220
2620
pour en parler. Écoutez attentivement et
01:49
out her definition of technochauvinism.
46
109840
3320
découvrez sa définition du technochauvinisme.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard : Le technochauvinisme est
01:54
the idea that technology is always the
48
114980
2540
l'idée que la technologie est toujours la
01:57
highest and best solution. So somehow
49
117520
3120
solution la plus élevée et la meilleure. Donc, d'une manière ou d'une autre,
02:00
over the past couple of decades we got
50
120640
2260
au cours des deux dernières décennies, nous avons
02:02
into the habit of
51
122900
1360
pris l'habitude de
02:04
thinking that doing something with a
52
124270
3410
penser que faire quelque chose avec un
02:07
computer is always the best and most
53
127680
3480
ordinateur est toujours la meilleure et la plus
02:11
objective way to do something and
54
131180
2060
objective façon de faire quelque chose et
02:13
that's simply not true.
55
133240
1540
ce n'est tout simplement pas vrai.
02:14
Computers are not objective, they are
56
134780
3000
Les ordinateurs ne sont pas objectifs, ce sont des
02:17
proxies for the people who make them.
57
137780
2300
mandataires pour les personnes qui les fabriquent.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
Catherine : Quelle est la
02:22
definition of technochauvinism?
59
142300
2280
définition du technochauvinisme de Meredith Broussard ?
02:24
Rob: It's this idea that using technology
60
144580
2250
Rob : C'est cette idée qu'il
02:26
is better than not using technology.
61
146830
2450
vaut mieux utiliser la technologie que ne pas l'utiliser.
02:29
Catherine: She says that we have this idea
62
149280
2360
Catherine : Elle dit que nous avons cette idée
02:31
that a computer is objective. Something
63
151640
2800
qu'un ordinateur est objectif. Quelque chose
02:34
that is objective is neutral, it doesn't have
64
154440
2500
qui est objectif est neutre, il n'a pas
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
d'opinion, c'est juste et c'est impartial -
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
c'est donc le contraire d'être chauvin. Mais
02:43
Meredith Broussard says this is not true.
67
163180
2860
Meredith Broussard dit que ce n'est pas vrai.
02:46
Rob: She argues that computers are not
68
166040
2635
Rob : Elle soutient que les ordinateurs ne sont pas
02:48
objective. They are proxies for the people
69
168680
2880
objectifs. Ce sont des procurations pour les personnes
02:51
that make them. You might know the
70
171560
1800
qui les fabriquent. Vous connaissez peut-être le
02:53
word proxy when you are using your
71
173360
1735
mot proxy lorsque vous utilisez votre
02:55
computer in one country and want to look
72
175095
2235
ordinateur dans un pays et que vous souhaitez consulter
02:57
at something that is only available
73
177330
1871
quelque chose qui n'est disponible que
02:59
in a different country. You can use a piece
74
179201
2298
dans un autre pays. Vous pouvez utiliser un
03:01
of software called a proxy to do that.
75
181500
2640
logiciel appelé proxy pour le faire.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
Catherine : Mais un mandataire, c'est aussi une personne ou
03:06
a thing that carries out your wishes and
77
186980
2660
une chose qui exécute pour vous vos volontés et
03:09
your instructions for you.
78
189640
2000
vos instructions.
03:11
So computers are only as smart or as
79
191640
2860
Ainsi, les ordinateurs ne sont aussi intelligents ou aussi
03:14
objective as the people that
80
194500
2560
objectifs que les personnes qui les
03:17
programme them. Computers are proxies
81
197060
3060
programment. Les ordinateurs sont des mandataires
03:20
for their programmers. Broussard says
82
200120
2620
pour leurs programmeurs. Broussard dit
03:22
that believing too much in Artificial
83
202740
2400
que trop croire en l'
03:25
Intelligence can make the world worse.
84
205140
2820
intelligence artificielle peut aggraver le monde.
03:27
Let's hear a bit more. This time find out
85
207960
2920
Écoutons un peu plus. Cette fois, découvrez
03:30
what serious problems in society
86
210880
2820
quels graves problèmes de
03:33
does she think may be reflected in AI?
87
213700
3900
société pourraient, selon elle, se refléter dans l'IA ?
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard : C'est un
03:39
problem. What we have is data on the
89
219000
2700
problème nuancé. Ce que nous avons, ce sont des données sur le
03:41
world as it is and we have serious
90
221700
3100
monde tel qu'il est et nous avons de sérieux
03:44
problems with racism, sexism, classism,
91
224800
2920
problèmes de racisme, de sexisme, de classisme, d'
03:47
ageism, in the world right now so there is
92
227720
2300
âgisme, dans le monde en ce moment, donc il n'y a
03:50
no such thing as perfect data. We also
93
230020
3760
pas de données parfaites. Nous avons également
03:53
have a problem inside the tech world
94
233780
2379
un problème dans le monde de la technologie
03:56
where the creators of algorithms do not
95
236160
3080
où les créateurs d'algorithmes n'ont pas
03:59
have sufficient awareness of social
96
239240
3960
suffisamment conscience des
04:03
issues such that they can make good
97
243200
2680
problèmes sociaux pour pouvoir créer une bonne
04:05
technology that gets us closer to a world
98
245880
3800
technologie qui nous rapproche d'un monde
04:09
as it should be.
99
249680
1660
tel qu'il devrait être.
04:11
Rob: She said that society has problems
100
251340
2640
Rob : Elle a dit que la société a des problèmes
04:13
with racism, sexism, classism and ageism.
101
253984
3296
de racisme, de sexisme, de classisme et d'âgisme.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
Catherine : Et elle dit que c'est un
04:19
problem. A nuanced problem is not
103
259820
2231
problème nuancé. Un problème nuancé n'est pas
04:22
simple, but it does have small and
104
262060
1960
simple, mais il a
04:24
important areas which may be
105
264020
2200
des zones petites et importantes qui peuvent être
04:26
hard to spot, but they need to be considered.
106
266220
3020
difficiles à repérer, mais elles doivent être prises en compte.
04:29
Rob: And she also talked about
107
269240
1800
Rob : Et elle a aussi parlé des
04:31
algorithms used to program these
108
271053
2220
algorithmes utilisés pour programmer ces
04:33
technological systems.
109
273273
1527
systèmes technologiques.
04:34
An algorithm is a set of instructions that
110
274800
2497
Un algorithme est un ensemble d'instructions que les
04:37
computers use to perform their tasks.
111
277300
2240
ordinateurs utilisent pour effectuer leurs tâches.
04:39
Essentially it's the rules that they use
112
279540
1680
Ce sont essentiellement les règles qu'ils utilisent
04:41
to come up with their answers and
113
281220
2220
pour trouver leurs réponses et
04:43
Broussard believes that technology will
114
283440
2560
Broussard pense que la technologie
04:46
reflect the views of those who create the algorithms.
115
286000
2680
reflétera les points de vue de ceux qui créent les algorithmes.
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine : La prochaine fois que vous utiliserez un
04:50
of software or your favourite app, you
117
290320
2120
logiciel ou votre application préférée,
04:52
might find yourself wondering if it's a
118
292440
2040
vous vous demanderez peut-être s'il s'agit d'un
04:54
useful tool or does it contain these little
119
294480
3020
outil utile ou s'il contient ces petites
04:57
nuances that
120
297500
1100
nuances qui
04:58
reflect the views of the developer.
121
298600
2220
reflètent le point de vue du développeur.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
Rob : Bien, Catherine. Que diriez-vous de la
05:02
answer to this week's question then?
123
302565
1735
réponse à la question de cette semaine alors?
05:04
Catherine: I asked in which decade was
124
304300
2160
Catherine : J'ai demandé dans quelle décennie
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
le terme « intelligence artificielle » a été inventé.
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
Était-ce les années 40, 50 ou 60 ?
05:11
Rob: And I said the 60s.
127
311500
1060
Rob : Et j'ai dit les années 60.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
Catherine : Mais c'était en fait les années 1950.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
Peu importe, Rob. Passons en revue le vocabulaire d'aujourd'hui.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
Rob : Eh bien, nous avions un chauvin - c'est
05:20
someone who believes their country, race
131
320700
2460
quelqu'un qui croit que son pays, sa race
05:23
or sex is better than any others.
132
323160
2000
ou son sexe est meilleur que n'importe quel autre.
05:25
Catherine: And this gives us
133
325160
1540
Catherine : Et cela nous donne le
05:26
technochauvinism,
134
326700
1380
technochauvinisme,
05:28
the belief that a technological solution is
135
328080
2809
la conviction qu'une solution technologique est
05:30
always a better solution to a problem.
136
330889
2180
toujours une meilleure solution à un problème.
05:33
Rob: Next - someone or something that is
137
333069
2776
Rob : Ensuite - quelqu'un ou quelque chose qui est
05:35
objective is neutral, fair and balanced.
138
335845
2775
objectif est neutre, juste et équilibré.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine : Un proxy est un logiciel
05:41
but also someone who does something
140
341380
1660
mais aussi quelqu'un qui fait quelque chose
05:43
for you, on your behalf.
141
343040
2340
pour vous, en votre nom.
05:45
A nuanced problem is a subtle
142
345380
2220
Un problème nuancé est un problème
05:47
one, it's not a simple case of right or
143
347600
3000
subtil, ce n'est pas un simple cas de bien ou de
05:50
wrong, in a nuanced problem there are
144
350600
2740
mal, dans un problème nuancé il y a
05:53
small but important things that you need
145
353340
2140
des choses petites mais importantes que vous
05:55
to consider.
146
355480
800
devez considérer.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob : Et un algorithme est un ensemble d'
05:58
instructions for a computer system.
148
358842
2128
instructions logicielles pour un système informatique.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
Catherine : Eh bien, c'est tout ce dont nous avons le temps
06:02
today. Goodbye for now.
150
362400
1780
aujourd'hui. Au revoir pour le moment.
06:04
Rob: Bye bye!
151
364180
700
Rob : Au revoir !
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7