Will robots out-think humans? 6 Minute English

79,866 views ・ 2018-01-25

BBC Learning English


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo. Les sous-titres traduits sont traduits automatiquement.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan : Bonjour et bienvenue sur 6 Minute English.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
Je m'appelle Dan et Neil se joint à moi aujourd'hui. Salut Neil.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
Neil : Salut Dan. Qu'y a-t-il avec l'
00:13
gear and helmet?
3
13780
929
équipement de protection et le casque ?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan : Je me prépare juste pour l'inévitable
00:17
rise of the machines. That’s the takeover
5
17385
2385
montée en puissance des machines. C'est la prise
00:19
of the world by artificial intelligence, or
6
19770
3486
de contrôle du monde par l'intelligence artificielle, ou
00:23
AI, which some people predict will happen.
7
23256
3404
IA, que certaines personnes prédisent.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil : Des moyens inévitables ne peuvent être évités ou
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
arrêtés. Soulèvement des machines? Que veux-tu dire?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
Dan : C'est notre sujet dans cet anglais de 6 minutes.
00:34
We’ll be talking about that, giving you
11
34968
1852
Nous en parlerons, en vous donnant
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
six éléments de vocabulaire connexes et, bien sûr,
00:39
our regular quiz question.
13
39875
1655
notre question de quiz habituelle.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
Neil : C'est la première chose que vous avez dite
00:43
that makes any sense. What’s the question?
15
43437
2003
qui a du sens. Quelle est la question?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
Dan : Le mot « robot » tel que nous l'utilisons aujourd'hui
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
a été utilisé pour la première fois dans une pièce tchèque des années 1920 « Les
00:52
Universal Robots’. But before this, what
18
52440
3356
robots universels de Rossum ». Mais avant cela, quelle
00:55
was its original meaning? a) forced labour
19
55796
3524
était sa signification originelle ? a) travail forcé
00:59
b) metal man c) heartless thing
20
59320
3640
b) homme de métal c) chose sans cœur
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil : J'irai pour a) travail forcé
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan : Nous verrons si tu avais raison ou
01:08
not later in the show.
23
68545
1285
pas plus tard dans l'émission.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
Neil : D'accord Dan. Dis moi ce qui se passe.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan : J'ai vu un article de presse rédigé par le correspondant technologique de la BBC,
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
Rory Cellan-Jones, sur le
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
récent salon technologique CES à Las Vegas. Il a
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
interviewé David Hanson, fondateur de Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics, qui a déclaré que son ambition était de
01:29
achieve an AI that can beat humans at any
30
89720
3660
réaliser une IA capable de battre les humains dans n'importe quelle
01:33
intellectual task.
31
93380
1500
tâche intellectuelle.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
Neil : C'est sûrement une bonne chose ! Une IA
01:37
and robotics could take over many of the jobs
33
97535
2915
et une robotique améliorées pourraient prendre en charge bon nombre des tâches
01:40
that we don’t want to do, or that are so
34
100450
2466
que nous ne voulons pas faire, ou qui sont si
01:42
important to get 100% right… like air traffic
35
102916
2774
importantes pour être correctes à 100 %… comme le
01:45
control. We’d never have another plane crash.
36
105690
2566
contrôle du trafic aérien. Nous n'aurions jamais un autre accident d'avion.
01:48
It would be infallible because it would be
37
108256
2394
Ce serait infaillible parce que ce serait
01:50
so clever.
38
110650
1190
tellement astucieux.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan : Infaillible signifie ne jamais échouer. Et c'est
01:54
what bothers me. What happens when its intelligence
40
114607
3003
ce qui me dérange. Que se passe-t-il lorsque son intelligence
01:57
surpasses ours? Why should it do what
41
117610
2774
dépasse la nôtre ? Pourquoi devrait-il faire ce que
02:00
we want it to do?
42
120384
1275
nous voulons qu'il fasse?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil : Dépasser quelque chose, c'est faire ou être
02:03
better than it. Dan, you’ve been watching
44
123735
2075
meilleur que cela. Dan, tu as regardé
02:05
too many movies. Robots fighting humanity
45
125810
2971
trop de films. Les robots combattant l'humanité
02:08
is a popular theme. Guess what… humanity
46
128781
2899
sont un thème populaire. Devinez quoi… l'humanité
02:11
often wins. And besides, we would programme
47
131680
2498
gagne souvent. Et en plus, on programmerait
02:14
the computer to be benevolent.
48
134178
1742
l'ordinateur pour qu'il soit bienveillant.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan : Bienveillant signifie gentil et serviable. Mais
02:18
that’s just it, once the intelligence becomes
50
138725
2935
c'est juste ça, une fois que l'intelligence devient
02:21
sentient, or able to think for itself, who
51
141660
2781
sensible, ou capable de penser par elle-même, qui
02:24
knows what it will do. We humans are not exactly
52
144441
3179
sait ce qu'elle fera. Nous, les humains, ne sommes pas exactement
02:27
perfect, you know. What happens if it decides
53
147620
2602
parfaits, vous savez. Que se passe-t-il s'il décide
02:30
that it is better than us and wants us out
54
150222
2428
qu'il est meilleur que nous et qu'il nous veut
02:32
of the way?
55
152650
1000
à l'écart ?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
Neil : Ne t'inquiète pas. Asimov y a pensé.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
Isaac Asimov était un écrivain de science-fiction
02:38
writer who, among other things, wrote about
58
158819
2747
américain qui, entre autres, a écrit sur les
02:41
robots. He came up with three laws that every
59
161566
2874
robots. Il a proposé trois lois que chaque
02:44
robot would have to follow to stop it from
60
164440
2624
robot devrait suivre pour l'empêcher d'
02:47
acting against humanity. So we’re safe!
61
167064
2436
agir contre l'humanité. Nous sommes donc en sécurité !
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
Dan : Je n'en suis pas si sûr. Un robot sensible pourrait se
02:52
make up its own mind about how to interpret
63
172433
2867
faire sa propre opinion sur la façon d'interpréter
02:55
the laws. For example, imagine if we created
64
175300
3284
les lois. Par exemple, imaginez si nous créions
02:58
an AI system to protect all of humanity.
65
178584
2985
un système d'IA pour protéger toute l'humanité.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
Neil : Eh bien, c'est super ! Plus de guerre.
03:03
more murder. No more fighting.
67
183764
1606
Plus de meurtre. Plus de combats.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
Dan : Pensez-vous vraiment que les humains peuvent arrêter de se
03:08
fighting? What if the AI decides that the
69
188064
2455
battre ? Et si l'IA décidait que la
03:10
only way to stop us from hurting ourselves
70
190519
3286
seule façon de nous empêcher de nous faire du mal et de nous faire du mal
03:13
and each other is to control everything we
71
193805
3285
est de contrôler tout ce que nous
03:17
do, so it takes over to protect us. Then we
72
197090
3507
faisons, alors elle prend le relais pour nous protéger. Alors nous
03:20
would lose our freedom to a thing that we
73
200597
3343
perdrions notre liberté au profit d'une chose que nous avons
03:23
created that is infallible and more intelligent
74
203940
3377
créée qui est infaillible et plus intelligente
03:27
than we are! That’s the end, Neil!
75
207317
2443
que nous ! C'est la fin, Neil !
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil : Je pense que c'est un peu tiré par les cheveux,
03:31
which means difficult to believe. I’m sure
77
211976
2215
ce qui signifie difficile à croire. Je suis sûr que d'
03:34
others don’t think that way.
78
214191
1539
autres ne pensent pas de cette façon.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
Dan : D'accord. Écoutons ce que dit l'
03:38
team say when I ask them if they are worried
80
218253
2467
équipe de Learning English quand je leur demande s'ils craignent
03:40
that AI and robots could take over the world.
81
220720
3519
que l'IA et les robots ne prennent le contrôle du monde.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
Phil : Eh bien, c'est possible, mais peu probable.
03:47
There will come a point where our technology
83
227820
1880
Il arrivera un moment où notre technologie
03:49
will be limited – probably before real AI
84
229700
3125
sera limitée - probablement avant que la véritable IA ne
03:52
is achieved.
85
232825
1935
soit atteinte.
03:54
Sam: Never in a million years. First of all
86
234760
2360
Sam : Jamais dans un million d'années. Premièrement,
03:57
we’d programme them so that they couldn’t,
87
237124
3306
nous les programmions pour qu'ils ne puissent pas,
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
et deuxièmement, nous les battions quand même.
04:04
you ever seen a movie?
89
244062
1858
Vous n'avez jamais vu de film ?
04:05
Kee: I totally think it could happen. We
90
245920
2371
Kee : Je pense totalement que cela pourrait arriver. Nous
04:08
only have to make a robot that’s smart enough
91
248291
2668
n'avons qu'à créer un robot suffisamment intelligent
04:10
to start thinking for itself. After that,
92
250959
2605
pour commencer à penser par lui-même. Après cela,
04:13
who knows what it might do.
93
253564
2796
qui sait ce que cela pourrait faire.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil : Un mélange d'opinions là-bas, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
Il semble que vous n'êtes pas seul.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
Dan : Non. Mais je n'ai pas exactement une armée
04:22
of support either. I guess we’ll just have
97
262438
2402
de soutien non plus. Je suppose que nous devrons
04:24
to wait and see.
98
264840
1000
simplement attendre et voir.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
Neil : Parlez pour vous. J'ai attendu
04:27
enough – for our quiz question that is.
100
267789
1810
assez longtemps - pour notre question de quiz.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
Dan : Ah ouais ! Je vous ai demandé quelle était la
04:32
meaning of the word ‘robot’ was before
102
272095
2205
signification originale du mot "robot" avant
04:34
it was used in its modern form. a) forced
103
274300
3633
qu'il ne soit utilisé dans sa forme moderne. a)
04:37
labour b) metal man c) heartless thing
104
277933
3367
travail forcé b) homme de métal c) chose sans cœur
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil : Et j'ai dit a) travail forcé
04:43
Dan: And you were… right!
106
283009
1971
Dan : Et tu avais… raison !
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
Neil : Allons-nous jeter un œil au vocabulaire alors ?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
Dan : D'accord. Nous avons d'abord eu l'inévitable. Si quelque chose
04:51
is inevitable then it cannot be avoided or
109
291019
3150
est inévitable, il ne peut être évité ou
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
arrêté. Peux-tu penser à quelque chose d'inévitable, Neil ?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil : Il est inévitable qu'un jour le
04:59
will stop burning. Then we had infallible,
112
299754
2936
Soleil s'arrête de brûler. Ensuite, nous avons eu infaillible,
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
ce qui signifie ne jamais échouer. Donnez-nous un exemple, Dan.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan : Le vaccin contre la variole est infaillible.
05:08
The natural spread of that disease has been
115
308072
2228
La propagation naturelle de cette maladie a été
05:10
completely stopped. After that was surpasses.
116
310300
3470
complètement stoppée. Après c'était surpassé.
05:13
If something surpasses something else then
117
313770
3239
Si quelque chose surpasse quelque chose d'autre, alors
05:17
it becomes better than it.
118
317009
1711
cela devient meilleur que cela.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil : De nombreux parents à travers le monde espèrent que
05:20
their children will surpass them in wealth,
120
320995
2174
leurs enfants les surpasseront en termes de richesse, de
05:23
status or achievement. After that we heard
121
323169
2662
statut ou de réussite. Après cela, nous avons entendu
05:25
benevolent, which means kind and helpful.
122
325831
2599
bienveillant, ce qui signifie gentil et serviable.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
Nommez une personne célèbre pour sa bienveillance, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
Dan : Le Père Noël est un personnage bienveillant.
05:34
After that we heard sentient. If something
125
334665
2814
Après cela, nous avons entendu sensible. Si quelque chose
05:37
is sentient, it is able to think for itself.
126
337479
2720
est sensible, il est capable de penser par lui-même.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
Neil : En effet. Beaucoup de gens s'interrogent sur la
05:42
possibility of sentient life on other planets.
128
342620
3060
possibilité d'une vie sensible sur d'autres planètes.
05:45
Finally we heard far-fetched, which means
129
345680
2176
Enfin on a entendu farfelu, ce qui veut dire
05:47
difficult to believe. Like that far-fetched
130
347856
2283
difficile à croire. Comme cette histoire farfelue que
05:50
story you told me the other day about being
131
350139
1932
tu m'as racontée l'autre jour à propos d'être en
05:52
late because of a dragon, Dan.
132
352071
1348
retard à cause d'un dragon, Dan.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
Dan : Je jure que c'était réel ! Il avait de grandes
05:55
teeth and everything!
134
355899
1240
dents pointues et tout!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
Neil : Ouais, ouais, ouais. Et c'est la fin
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
de cet anglais de 6 minutes. N'oubliez pas de
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
consulter nos pages Facebook, Twitter et YouTube
06:03
pages. See you next time!
138
363140
1640
. À la prochaine!
06:04
Dan: Bye!
139
364780
640
Dan : Au revoir !
06:05
Neil: Bye.
140
365420
860
Neil : Au revoir.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7