How humans and AI can work together to create better businesses | Sylvain Duranton

29,531 views ・ 2020-02-14

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Traducteur: Juliette Bruneel Relecteur: Claire Ghyselen
00:12
Let me share a paradox.
1
12865
2127
Permettez-moi de vous présenter un paradoxe.
00:16
For the last 10 years,
2
16429
1467
Ces 10 dernières années,
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
de nombreuses entreprises ont essayé d'être moins bureaucratiques,
00:21
to have fewer central rules and procedures,
4
21792
2833
d'avoir moins de règles et de procédures centralisées
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
de rendre les équipes locales plus autonomes et plus agiles.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Elles veulent maintenant utiliser l'intelligence artificielle, IA,
00:32
unaware that cool technology
7
32814
2445
sans se rendre compte que cette super technologie
00:35
might make them more bureaucratic than ever.
8
35283
3602
peut les rendre plus bureaucratiques que jamais.
00:39
Why?
9
39378
1151
Pourquoi dis-je cela ?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Parce qu'il y a une forte similarité entre l' IA et la bureaucratie.
00:44
The essence of bureaucracy
11
44403
2412
Oui, la bureaucratie ne se base que
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
sur des règles et procédures pré-établies et fait fi du jugement humain.
00:51
And AI decides solely based on rules.
13
51887
3841
L' IA se réfère uniquement aux règles,
00:56
Many rules inferred from past data
14
56062
2833
dont beaucoup sont déduites de données antérieures,
00:58
but only rules.
15
58919
1904
et rien d'autre.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
Et si l'esprit humain n'intervient pas,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
l'IA apportera une nouvelle forme de bureaucratie terrifiante
01:09
I call it "algocracy" --
18
69538
2999
que j'appelle « Algocratie ».
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
L'AI y prendra toutes les décisions essentielles
01:17
outside of any human control.
20
77085
2317
en dehors de tout contrôle humain.
01:20
Is there a real risk?
21
80427
1674
Ce risque est-il réel ?
01:22
Yes.
22
82514
1150
Oui.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Je supervise une équipe de 800 spécialistes en IA.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Nous avons déployé plus de 100 solutions d'IA personnalisées
01:30
for large companies around the world.
25
90599
2467
dans de grandes entreprises partout dans le monde.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Et je vois trop de dirigeants qui se comportent
comme les bureaucrates du passé.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Ils veulent se passer des hommes trop chers et démodés
01:44
and rely only upon AI to take decisions.
28
104720
3865
et ne s'appuyer que sur l'IA dans la prise de décision.
01:49
I call this the "human-zero mindset."
29
109244
4253
C'est ce que j'appelle « système sans conscience ».
01:54
And why is it so tempting?
30
114260
2118
Et pourquoi est-ce si tentant ?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Parce que l'approche qui combine homme+IA prend plus de temps,
02:02
costly and difficult.
32
122307
2609
elle est plus chère et plus difficile.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Les équipes commerciales, techniques, et les analystes
02:08
have to iterate for months
34
128257
2079
doivent travailler pendant des mois
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
pour avoir un système collaboratif performant entre humain et l'IA.
02:16
Long, costly and difficult.
36
136160
3428
C'est plus long, plus coûteux et plus difficile.
02:19
But the reward is huge.
37
139891
2070
Mais ça vaut vraiment le coup.
02:22
A recent survey from BCG and MIT
38
142343
3306
Selon une enquête récente du BCG et du MIT,
02:25
shows that 18 percent of companies in the world
39
145673
4507
18 % des entreprises dans le monde,
02:30
are pioneering AI,
40
150204
2214
développent l'IA
02:32
making money with it.
41
152442
2301
et gagnent de l'argent grâce à ça.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Leurs initiatives en IA se focalisent à 80%
02:40
on effectiveness and growth,
43
160771
1953
sur l'efficacité et la croissance,
02:42
taking better decisions --
44
162748
2170
pour prendre de meilleures décisions
02:44
not replacing humans with AI to save costs.
45
164942
3538
au lieu de remplacer l'humain par l'IA pour réduire les coûts.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Pourquoi l'intervention humaine est-elle si importante ?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Tout simplement car laissée à elle-même, l'IA peut faire des choses stupides.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Parfois sans conséquence, comme ce Tweet :
03:03
"Dear Amazon,
49
183212
1564
« Cher Amazon ,
03:04
I bought a toilet seat.
50
184800
1386
j'ai acheté une lunette de toilette.
03:06
Necessity, not desire.
51
186210
1661
Par besoin, pas par envie.
03:07
I do not collect them,
52
187895
1452
Je ne les collectionne pas,
03:09
I'm not a toilet-seat addict.
53
189371
2238
Je ne suis pas accro aux toilettes.
03:11
No matter how temptingly you email me,
54
191633
2206
Vous aurez beau m'envoyer des courriels tentants,
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
Vous ne me ferez pas dire : 'Oh, tiens,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
Je vais en acheter une de plus pour me faire plaisir' »
03:18
(Laughter)
57
198400
1344
(Rires)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Parfois c'est plus gênant, comme ce Tweet :
03:24
"Had the same situation
59
204903
1787
« J'étais dans la même situation
03:26
with my mother's burial urn."
60
206714
2459
avec l'urne funéraire de ma mère.
03:29
(Laughter)
61
209197
1008
(Rires)
03:30
"For months after her death,
62
210229
1365
Plusieurs mois après son décès,
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
j'ai reçu des messages d'Amazon me disant :
« Si vous l'avez apprécié... »
03:35
(Laughter)
64
215190
2015
(Rires)
03:37
Sometimes with worse consequences.
65
217229
2528
Dans d'autres cas, les conséquences sont graves.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Prenez le cas d'un calcul IA d'université qui rejette la candidature d'un étudiant.
03:44
Why?
67
224535
1150
Pourquoi ?
03:45
Because it has "learned," on past data,
68
225709
2670
Parce qu'il ne se base que sur des données passées,
03:48
characteristics of students that will pass and fail.
69
228403
3182
les caractéristiques des étudiants qui ont réussi ou échoué.
03:51
Some are obvious, like GPAs.
70
231609
2103
Certaines sont évidentes, comme les notes.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Mais si, dans le passé, tous les étudiants venant d'une même ville ont échoué,
03:59
it is very likely that AI will make this a rule
72
239202
3532
Il est très probable que l'IA en fasse une règle
04:02
and will reject every student with this postal code,
73
242758
3770
et qu'elle rejette tous les étudiants venant de cette ville.
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
Ne laissant à personne la chance de démontrer que la règle est fausse.
04:11
And no one can check all the rules,
75
251857
2516
Et personne n'est en mesure de vérifier toutes les règles,
04:14
because advanced AI is constantly learning.
76
254397
3452
car l'IA avancée est en apprentissage constant.
04:18
And if humans are kept out of the room,
77
258307
2326
Et si l'humain est gardé à l'écart,
04:20
there comes the algocratic nightmare.
78
260657
3277
on plonge dans le cauchemar algocratique.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Qui est responsable d'avoir évincé l'étudiant ?
04:27
No one, AI did.
80
267347
1643
Personne, c'est l'IA qui a décidé.
04:29
Is it fair? Yes.
81
269014
1674
Est-ce que c'est juste ? Oui.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Le même ensemble de règles objectives a été appliqué à tout le monde.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Pouvons-nous revoir le cas de ce gars brillant
qui vient du mauvais endroit ?
04:38
No, algos don't change their mind.
84
278899
3111
Non, les calculs ne changent pas d'avis.
04:42
We have a choice here.
85
282974
2016
C'est maintenant qu'il nous faut choisir.
04:45
Carry on with algocracy
86
285756
2524
Continuer dans cette algocratie ou choisir un système « humain + IA ».
04:48
or decide to go to "Human plus AI."
87
288304
2865
04:51
And to do this,
88
291193
1333
Et pour y arriver,
04:52
we need to stop thinking tech first,
89
292550
3440
nous devons arrêter de penser à « la technologie d'abord »
04:56
and we need to start applying the secret formula.
90
296014
3650
et commencer à appliquer la formule secrète
05:00
To deploy "Human plus AI,"
91
300601
2103
pour déployer « homme + IA »,
05:02
10 percent of the effort is to code algos;
92
302728
2921
10% de l'effort porte sur le codage des algorithmes.
05:05
20 percent to build tech around the algos,
93
305673
3531
20% sur la technologie autour de ceux-ci :
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
récupérer les données, créer l'interface, les intégrer aux systèmes d'information.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
Mais 70%, le plus gros de l'effort,
05:16
is about weaving together AI with people and processes
96
316286
4476
consiste à articuler l'IA avec les personnes et les processus
05:20
to maximize real outcome.
97
320786
2374
pour en retirer le maximum.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
L'IA échoue quand on rogne sur ces 70%.
05:28
The price tag for that can be small,
99
328794
3159
Le coût peut être réduit,
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
mais des millions de dollars sont gaspillés en technologie inutile.
05:35
Anyone cares?
101
335986
1150
Qui s'en soucie ?
05:38
Or real tragedies:
102
338153
2325
De réelles tragédies peuvent survenir :
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
346 morts dans les crashes récents de deux avions B-737
05:48
when pilots could not interact properly
104
348776
3261
dont les pilotes ne pouvaient pas interagir correctement
05:52
with a computerized command system.
105
352061
2467
à cause du système de commande informatisé.
05:55
For a successful 70 percent,
106
355974
1794
Pour que les 70% soient couronnés de succès,
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
il faut d'abord s'assurer que les algorithmes sont codés par des analystes
06:02
and domain experts together.
108
362911
2118
en équipe avec des experts du secteur.
06:05
Take health care for example.
109
365427
2198
Prenez par exemple le secteur de la santé.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Une de nos équipes a travaillé sur un nouveau médicament
avec un léger problème.
06:12
When taking their first dose,
111
372784
1499
Lorsqu'ils le prenaient pour la première fois,
06:14
some patients, very few, have heart attacks.
112
374307
3484
certains patients, très peu, avaient une crise cardiaque.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Et donc, tous les patients, pour leur première dose,
06:21
have to spend one day in hospital,
114
381276
2682
devaient passer une journée à l'hôpital,
06:23
for monitoring, just in case.
115
383982
2071
sous surveillance, au cas où.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Notre objectif a été d'identifier les patients
à risque zéro de crise cardiaque,
06:32
who could skip the day in hospital.
117
392193
2333
qui pouvaient éviter la journée à l'hôpital.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Nous avons utilisé l'IA pour analyser les données d'essais cliniques,
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
pour corréler les ECG, la composition sanguine, et les marqueurs biologiques
06:44
with the risk of heart attack.
120
404537
2000
avec le risque de crise cardiaque.
06:47
In one month,
121
407232
1274
En un mois,
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
notre modèle pouvait détecter 62% de patients à risque zéro.
06:54
They could skip the day in hospital.
123
414887
2222
Ils pouvaient éviter la journée à l'hôpital.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Vous seriez à l'aise pour prendre votre première dose à la maison
07:01
if the algo said so?
125
421379
1524
avec ces résultats de calcul ?
07:02
(Laughter)
126
422927
1015
(Rires)
07:03
Doctors were not.
127
423966
1650
Les médecins ne l'étaient pas.
07:05
What if we had false negatives,
128
425966
2302
Et dans le cas de faux négatifs,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
les gens autorisés par l'IA à rester à la maison peuvent mourir ?
07:13
(Laughter)
130
433545
1365
(Rires)
07:14
There started our 70 percent.
131
434934
2452
C'est là qu'ont commencé nos 70%.
07:17
We worked with a team of doctors
132
437410
1992
Nous avons travaillé avec une équipe de médecins
07:19
to check the medical logic of each variable in our model.
133
439426
3799
à vérifier la logique médicale de chaque variable dans notre modèle.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Par exemple, nous utilisions le taux d'une certaine enzyme du foie
07:28
as a predictor,
135
448130
1273
comme indice,
07:29
for which the medical logic was not obvious.
136
449427
3698
ce qui n'était pas une logique médicale évidente.
07:33
The statistical signal was quite strong.
137
453149
2666
Le signal statistique était plutôt fort.
07:36
But what if it was a bias in our sample?
138
456300
2833
Et s'il y avait un biais dans notre échantillon ?
07:39
That predictor was taken out of the model.
139
459157
2800
On a enlevé l'indice concerné du modèle.
07:42
We also took out predictors for which experts told us
140
462307
3445
Nous avons aussi retiré les indices pour lesquels les experts affirmaient
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
qu'ils ne pouvaient pas être mesurés avec précision dans la vie réelle.
07:50
After four months,
142
470371
1690
Après quatre mois, nous avions un modèle et un protocole médical.
07:52
we had a model and a medical protocol.
143
472085
3071
07:55
They both got approved
144
475514
1666
Tous deux ont été approuvés
07:57
my medical authorities in the US last spring,
145
477204
3222
par les autorités médicales américaines au printemps
08:00
resulting in far less stress for half of the patients
146
480450
3706
et cela a réduit le stress de la moitié des patients
08:04
and better quality of life.
147
484180
1800
et a amélioré leur qualité de vie.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Les ventes de ce médicament ont augmenté
de plus de 100 millions de façon inattendue.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
70% pour créer le lien entre l'IA, les équipes et les processus,
08:15
also means building powerful interfaces
150
495890
3571
c'est aussi construire des interfaces puissantes
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
pour résoudre des problèmes complexes, IA et humains ensemble.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Un jour, un distributeur de mode nous a lancé un défi :
08:31
"We have the best buyers in the world.
153
511143
2498
« Nous avons les meilleurs acheteurs au monde.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Pouvez-vous créer un moteur IA qui donne de meilleures prévisions de ventes qu'eux,
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
qui dirait combien de chemises homme, haut de gamme, vert clair, taille XL
08:42
we need to buy for next year?
156
522990
2047
nous devons acheter pour l'année prochaine ?
08:45
At predicting better what will sell or not
157
525061
2810
Qui saura mieux prédire que nos stylistes sur ce qui se vendra ou pas. »
08:47
than our designers."
158
527895
1960
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
En quelques semaines, notre équipe a créé un modèle sur des données passées,
08:54
and the competition was organized with human buyers.
160
534434
3533
et la compétition s'est engagée face aux acheteurs humains.
08:58
Result?
161
538347
1150
Résultat ?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
L'IA a gagné, en réduisant l'erreur de prévision de 25%.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Ils auraient pu essayer de lancer ce modèle des « champions non humain »
09:10
and create a fight with all human buyers.
164
550760
2754
et le mettre en compétition avec tous les acheteurs humains.
09:13
Have fun.
165
553538
1150
Amusez-vous bien !
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Mais nous savions que les acheteurs connaissaient les tendances
09:20
that could not be found in past data.
167
560355
2845
qu'on ne pouvait pas déceler dans les données du passé.
09:23
There started our 70 percent.
168
563701
2857
Ici ont commencé nos 70%.
09:26
We went for a second test,
169
566582
1944
Nous avons commencé un second test,
09:28
where human buyers were reviewing quantities
170
568550
3103
en faisant vérifier par les acheteurs les quantités suggérées par l'IA
09:31
suggested by AI
171
571677
1662
09:33
and could correct them if needed.
172
573363
2325
et en les faisant corriger si nécessaire.
09:36
Result?
173
576180
1150
Résultat ?
09:37
Humans using AI ...
174
577704
2117
Les hommes qui utilisent l'IA...
09:39
lose.
175
579845
1407
perdent.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
75% des corrections faites par un humain
09:45
were reducing accuracy.
177
585970
2055
réduisaient la fiabilité.
Fallait-il alors se débarrasser des acheteurs humains ?
09:49
Was it time to get rid of human buyers?
178
589002
3174
09:52
No.
179
592200
1158
Non.
09:53
It was time to recreate a model
180
593382
2617
Il était temps de recréer un modèle
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
dans lequel les hommes n'essaient pas de deviner quand l'IA se trompe
10:01
but where AI would take real input from human buyers.
182
601118
4542
mais où les acheteurs humains contribueraient réellement à l'IA.
10:06
We fully rebuilt the model
183
606962
1611
Nous avons entièrement reconstruit le modèle
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
en nous éloignant de notre interface initiale qui disait, plus ou moins :
10:14
"Hey, human! This is what I forecast,
185
614585
2437
« Hé, humain ! Voici ce que je prévois,
10:17
correct whatever you want,"
186
617046
1761
corrige ce que tu veux, »
10:18
and moved to a much richer one, more like,
187
618831
3636
et nous l'avons orientée vers un modèle beaucoup plus riche, du genre :
10:22
"Hey, humans!
188
622491
1976
« Hé, humains !
10:24
I don't know the trends for next year.
189
624491
1825
Je ne connais pas les tendances de l'année prochaine.
10:26
Could you share with me your top creative bets?"
190
626340
2956
Voulez-vous partager avec moi vos meilleurs paris créatifs ?
10:30
"Hey, humans!
191
630063
1476
Hé, humains !
10:31
Could you help me quantify those few big items?
192
631563
2719
Voulez-vous m'aider à quantifier ces quelques articles importants ?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
Je ne trouve pas d'articles comparables pertinents dans le passé. »
10:38
Result?
194
638401
1150
Résultat ?
10:40
"Human plus AI" wins,
195
640195
2000
« Homme + IA » est gagnant,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
en réduisant l'erreur de prévision de 50%.
10:47
It took one year to finalize the tool.
197
647770
2828
Il a fallu un an pour finaliser l'outil.
10:51
Long, costly and difficult.
198
651073
3317
Long, coûteux et difficile.
10:55
But profits and benefits
199
655046
2206
Mais les marges et les bénéfices
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
ont dépassé les 100 millions d'économies par an pour ce distributeur.
11:03
Seventy percent on very sensitive topics
201
663459
2936
70% sur des sujets très sensibles
11:06
also means human have to decide what is right or wrong
202
666419
3778
veut aussi dire que les humains décident de ce qui est juste ou faux
11:10
and define rules for what AI can do or not,
203
670221
4086
et définissent les règles de ce que l'IA peut faire ou pas,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
comme fixer des plafonds de prix pour empêcher les moteurs de calcul
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
[de fixer] des prix exorbitants pour des consommateurs non avertis
11:22
who would accept them.
206
682387
1466
qui les accepteraient.
11:24
Only humans can define those boundaries --
207
684538
2563
Seuls les humains peuvent fixer ces limites -
11:27
there is no way AI can find them in past data.
208
687125
3621
en aucune façon, l'IA ne les trouve dans des données passées.
11:31
Some situations are in the gray zone.
209
691230
2467
Certaines situations sont floues.
11:34
We worked with a health insurer.
210
694135
2745
Nous avons collaboré avec une société d'assurance maladie.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Ils ont développé un moteur IA pour détecter parmi leurs clients
11:41
people who are just about to go to hospital
212
701641
2548
ceux qui étaient sur le point de rentrer à l'hôpital
11:44
to sell them premium services.
213
704213
2269
pour leur vendre des services premium.
11:46
And the problem is,
214
706506
1515
Et le problème,
11:48
some prospects were called by the commercial team
215
708045
2969
c'est que l'équipe commerciale a appelé des prospects
11:51
while they did not know yet
216
711038
2697
qui ne savaient même pas encore
11:53
they would have to go to hospital very soon.
217
713759
2818
qu'ils devraient entrer à l'hôpital bientôt.
11:57
You are the CEO of this company.
218
717720
2317
Vous dirigez cette société.
12:00
Do you stop that program?
219
720061
1667
Arrêtez-vous ce programme ?
12:02
Not an easy question.
220
722577
1913
Ce n'est pas une question facile.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Et pour y répondre, certaines sociétés forment des équipes
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
qui définissent des règles et des standards éthiques
pour aider les équipes commerciales et techniques à poser des limites
12:13
between personalization and manipulation,
223
733918
3596
entre la personnalisation et la manipulation,
12:17
customization of offers and discrimination,
224
737538
2969
la customisation des offres et la discrimination,
12:20
targeting and intrusion.
225
740531
2023
le ciblage commercial et l'intrusion.
12:24
I am convinced that in every company,
226
744562
3674
Je suis convaincu que dans chaque entreprise,
12:28
applying AI where it really matters has massive payback.
227
748260
4650
utiliser l'IA pour des sujets importants engendre des bénéfices considérables.
12:33
Business leaders need to be bold
228
753474
2151
Les dirigeants d'entreprise doivent oser
12:35
and select a few topics,
229
755649
1976
et sélectionner un petit nombre de sujets,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
et pour chacun d'eux, mobiliser 10, 20, 30 personnes de leurs meilleures équipes -
12:42
tech, AI, data science, ethics --
231
762609
3333
techniques, IA, analystes, éthique --
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
et passer par le cycle complet 10-, 20-, 70% de « Homme + IA »
12:50
of "Human plus AI,"
233
770411
1722
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
s'ils veulent faire adopter l'IA
efficacement dans leurs équipes et processus.
12:57
There is no other way.
235
777006
1889
Il n'y a pas d'autre moyen.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Les citoyens des pays développés ont déjà peur de l'algocratie.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
7 000 ont été interrogées dans un sondage récent.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Plus de 75% ont exprimé une réelle inquiétude
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
quant à l'impact de l'IA sur leur travail, leur vie privée,
13:15
on the risk of a dehumanized society.
240
795697
3436
quant au risque d'une société déshumanisée.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Imposer l'algocratie crée un risque réel d'un retour de bâton contre l'IA
13:24
within companies or in society at large.
242
804561
4103
dans les entreprises ou dans la société dans son ensemble.
13:29
"Human plus AI" is our only option
243
809014
3285
« Homme + IA » est notre seule option
13:32
to bring the benefits of AI to the real world.
244
812323
3134
pour apporter les bénéfices de l'IA au monde réel.
13:36
And in the end,
245
816038
1158
Et au final,
13:37
winning organizations will invest in human knowledge,
246
817220
4134
les organisations fructueuses investiront dans la connaissance humaine
13:41
not just AI and data.
247
821378
2325
pas seulement dans l'IA et les données.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
Recruter, former, récompenser les experts humains.
13:48
Data is said to be the new oil,
249
828800
3142
On dit que les données sont le nouveau pétrole,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
mais croyez-moi, l'esprit humain fera la différence,
13:56
because it is the only derrick available
251
836061
3588
car c'est la seule plateforme disponible
13:59
to pump the oil hidden in the data.
252
839673
3674
pour extraire le pétrole des données.
14:04
Thank you.
253
844633
1153
Merci.
14:05
(Applause)
254
845810
3904
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7