How will AI change the world?

1,777,259 views ・ 2022-12-06

TED-Ed


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Julie perrissin-fabert Relecteur: Guillaume Rouy
Dans les prochaines années, l’intelligence artificielle (IA)
00:07
In the coming years, artificial intelligence
0
7336
2169
va sûrement changer nos vies et probablement le monde entier.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Mais, on se sait pas encore de quelle manière.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Ce qui suit est tiré d’un entretien du Forum économique mondial
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
accordé par le professeur d’informatique et expert en IA, Stuart Russel,
00:22
helps separate the sense from the nonsense.
5
22435
2586
qui nous aide démêler le vrai du faux à propos des IA.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Demander à un humain de faire une tâche
00:29
and giving that as the objective to an AI system.
7
29067
3461
et donner le même objectif à une IA sont deux choses très différentes.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Quand on demande à une personne d’aller acheter un café,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
ce n’est pas la mission de sa vie,
00:37
and nothing else in the universe matters.
10
37742
1960
la seule chose au monde qui compte,
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
l’objectif à atteindre même s’il fallait tuer tous les clients du Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
pour avoir son café avant la fermeture.
00:45
No, that’s not what you mean.
13
45124
1627
Non, on ne veut pas dire cela.
00:46
All the other things that we mutually care about,
14
46751
2294
Tout ce qui est important pour nous
00:49
they should factor into your behavior as well.
15
49045
2169
influence aussi notre comportement.
00:51
And the problem with the way we build AI systems now
16
51214
3169
Le problème, c’est que nous construisons les systèmes d’IA
00:54
is we give them a fixed objective.
17
54383
1627
en leur donnant un objectif précis.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Il faut préciser toutes les variables de l’objectif.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Par exemple, pouvons-nous lutter contre l’acidification des océans ?
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Oui, une réaction catalytique serait très efficace,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
mais un quart de l’oxygène de l’atmosphère serait consommé,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
ce qui nous tuerait lentement et dans la douleur
01:13
over the course of several hours.
23
73986
1752
en l’espace de quelques heures.
01:15
So, how do we avoid this problem?
24
75780
3211
Comment éviter ce problème ?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Il faut peut-être être plus attentif en définissant l’objectif
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
et tenir compte de l’oxygène dans l’atmosphère.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Mais, la réaction catalytique aurait des effets secondaires dans l’océan,
01:29
poisons all the fish.
28
89418
1377
et empoisonnerait les poissons.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Bien, on précise aussi de ne pas tuer les poissons.
01:33
And then, well, what about the seaweed?
30
93464
1919
Et ensuite, il faut penser aux algues,
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
et ne rien faire qui leur soit nocif.
01:38
And on and on and on.
32
98344
1210
Et ainsi de suite…
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Le même processus n’est pas nécessaire avec les êtres humains,
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
car sans en être conscients, ils savent ce qui compte vraiment,
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Si vous demandez à quelqu’un d’aller vous chercher un café
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
et que vous êtes à Paris, à l’Hôtel George V,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
où le café coûte 13 euros,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
on s’attend à ce qu’il revienne et dise :
« Il coûte 13 €, tu es sûr de le vouloir ? Je peux aller ailleurs sinon. »
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
C’est une réaction parfaitement humaine.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Quand on repeind une maison,
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
on demande si on peut enlever les gouttières et les remettre ensuite.
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Cela ne nous semble pas sorcier,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
mais les IA n’en sont pas capables.
Elles doivent obligatoirement connaitre l’objectif dans sa totalité.
02:19
they have to know the full objective.
45
139719
1793
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Si on construit des IA conscientes qu’elles ne connaissent pas l’objectif,
02:25
then they start to exhibit these behaviors,
47
145474
2586
elles vont commencer à adopter ce type de comportements,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
comme demander la permission avant de supprimer l’oxygène de l’atmosphère.
02:32
In all these senses, control over the AI system
49
152565
3378
Ainsi, contrôler un système d’IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
est possible puisque l’IA ne connaît pas l’objectif réel.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Et quand on construit des IA qui ont la certitude
02:44
that they have the objective,
52
164368
1418
de connaître l’objectif réel,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
on obtient ces comportement psychopathes.
02:48
And I think we see the same thing in humans.
54
168539
2127
Je pense que c’est pareil pour les êtres humains.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Que se passe-t-il quand on confronte l’IA générale et l’économie ?
02:55
How do things change? Can we adapt?
56
175379
3587
Comment les choses changent-elles ? Pouvons-nous nous adapter ?
02:59
This is a very old point.
57
179175
1835
Ce sujet est très ancien.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Étonnamment, Aristote dit, dans l’un de ses écrits :
03:04
look, if we had fully automated weaving machines
59
184597
3045
« Si nous avions des métiers à tisser entièrement automatisées,
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
des plectres capables de pincer la lyre et produire de la musique sans humains,
03:11
then we wouldn’t need any workers.
61
191604
2002
il n’y aurait plus besoin de travailleurs. »
03:13
That idea, which I think it was Keynes
62
193814
2878
Cette idée, que Keynes a appelée
03:16
who called it technological unemployment in 1930,
63
196692
2836
« chômage technologique » en 1930,
03:19
is very obvious to people.
64
199528
1919
est bien connue du grand public.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Les gens pensent que si la machine fait leur travail,
03:24
then I'm going to be unemployed.
66
204533
1669
alors ils perdent leur emploi.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Pensez aux entrepôts des entreprises
03:29
for e-commerce, they are half automated.
68
209872
2711
du e-commerce, qui sont semi-automatisés.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Dans un entrepôt traditionnel, il y a des marchandises empilées partout
03:36
all over the place and humans go and rummage around
70
216629
2461
et les humains fouillent,
ramènent les marchandises et les envoient.
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
Maintenant, c’est un robot qui récupère les étagères
03:44
that contains the thing that you need,
73
224553
1919
contenant les marchandises nécessaires,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
mais les humains doivent sortir les objets de l’étagère
03:50
because that’s still too difficult.
75
230101
1877
car c’est encore difficile pour les robots.
03:52
But, at the same time,
76
232019
2002
On peut se demander
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
s’il faut créer des robots suffisamment précis pour récupérer
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
n’importe quel objet qu’il est possible de commercialiser ?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Cela supprimerait immédiatement 3 ou 4 millions de postes.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E. M. Foster a écrit une histoire fascinante,
04:09
where everyone is entirely machine dependent.
81
249745
3504
dans laquelle les humains dépendent des robots.
04:13
The story is really about the fact that if you hand over
82
253499
3754
L’histoire montre que,
en laissant les robots contrôler notre société,
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
nous perdons la capacité de le faire
04:23
or to teach the next generation how to understand it.
85
263718
2544
et de l’apprendre à la génération d’après.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
On peut voir WALL-E comme une version moderne de cette histoire :
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
toutes les personnes sont diminuées et infantilisées par les robots,
04:32
and that hasn’t been possible up to now.
88
272893
1961
ce qui n’avait pas été possible avant aujourd’hui.
04:34
We put a lot of our civilization into books,
89
274854
2419
Les livres gardent tout en mémoire,
04:37
but the books can’t run it for us.
90
277273
1626
mais ils ne peuvent pas gouverner.
04:38
And so we always have to teach the next generation.
91
278899
2795
Il faut montrer l’exemple aux générations suivantes.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Cela fait des milliards d’années d’apprentissage et d’enseignement,
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
une chaîne interrompue qui remonte à des dizaines de milliers de générations.
Que se passerait-il si on brise la chaîne ?
04:50
What happens if that chain breaks?
94
290119
1919
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Il faut y réfléchir en développant les IA.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
On ne peut pas prévoir la date d’arrivée des IA générales :
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
on ne les développera pas du jour au lendemain.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Ce n’est pas du tout ou rien.
05:04
The impact is going to be increasing.
99
304592
2461
Leur impact sur nos sociétés sera croissant.
05:07
So with every advance in AI,
100
307053
2043
Chaque avancée en matière d’IA
05:09
it significantly expands the range of tasks.
101
309096
2962
agrandit significativement la palette des tâches connues.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
C’est pourquoi la plupart des experts estiment que, d’ici la fin du siècle,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
il est extrêmement probable que nous ayons développé des IA générales.
05:20
The median is something around 2045.
104
320733
3754
On estime leur arrivée à environ 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Je suis un peu plus mitigé.
05:26
I think the problem is harder than we think.
106
326489
2085
Je pense que nous sous-estimons le problème.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
J’aime la réponse de John McAfee, l’un des fondateurs de l’IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
pour qui l’IA générale existerait à une date comprise entre 5 et 500 ans.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
A mon avis, nous aurons besoin de nombreux Einstein pour y parvenir.

Original video on YouTube.com
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7