A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,179 views ・ 2020-04-14

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Je suis parmi vous car j’ai passé trop de nuits sans sommeil
00:17
worrying and wondering who wins in the end.
1
17397
2486
à m’inquiéter et me demander qui gagne au final.
00:19
Is it humans or is it robots?
2
19907
2450
Les humains ou les robots ?
00:22
You see, as a technology strategist,
3
22918
1723
En tant que stratège en technologie,
00:24
my job involves behavior change:
4
24665
1904
je m’intéresse au changement comportemental :
00:26
understanding why and how people adopt new technologies.
5
26593
3096
pourquoi et comment on adopte de nouvelles technologies.
00:30
And that means I'm really frustrated
6
30101
2373
Cela veut dire que cela me frustre énormément
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
de savoir que je ne vivrai pas assez longtemps
pour voir comment cela se termine.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
De fait, si la plus jeune personne à regarder ce TED a 14 ans
00:39
and the oldest, a robust 99,
9
39874
2813
et la plus âgée a 99 ans,
00:42
then together,
10
42711
1152
ensemble,
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
notre conscience collective a à peine 185 ans.
00:48
That is a myopic pinprick of time
12
48593
3366
Autant dire un instant nanoscopique
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
par rapport à l’évolution et l’histoire de la vie sur notre planète.
00:55
Turns out we're all in the cheap seats
14
55912
1825
En fait, nous sommes tous en classe éco
00:57
and none of us will live to see how it all pans out.
15
57761
2992
et aucun de nous ne vivra pour voir comment cela se finit.
01:00
So at my company, we wanted a way around this.
16
60777
2348
C’est pourquoi mon entreprise cherche à contourner ça.
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
Nous cherchons un axe pour créer un effet de levier
01:05
beyond our fixed temporal vantage point,
18
65911
3008
et voir plus loin que notre horizon temporellement fixe,
01:08
to get a sense of how it all shakes up.
19
68943
2270
pour avoir une impression de ce qui se trame.
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
Pour y arriver, nous avons mené une étude auprès de 1200 Américains
01:15
representative of the US census,
21
75238
2150
représentatifs de la population des États-Unis.
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
Nous leur avons posé des questions comportementales
01:19
around robotics and AI
23
79960
1801
au sujet de la robotique et de l’IA
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
ainsi que de l’adoption des technologies.
C’est une étude à grande échelle
01:26
We had a big study
25
86011
1285
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
prenant en compte les différences entre genres et générations,
01:30
between religious and political beliefs,
27
90321
1968
religions et croyances politiques,
01:32
even job function and personality trait.
28
92313
2769
professions et personnalités.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
C’est une capsule temporelle fascinante
01:38
of our human frailty
30
98633
1666
de notre fragilité humaine
01:40
in this predawn of the robotic era.
31
100323
2586
à l’aube de l’ère robotique.
01:43
And I have five minutes to tell you about it.
32
103220
2278
Et j’ai cinq minutes pour vous en parler.
01:46
The first thing you should know is that we brainstormed
33
106260
2579
La première chose à retenir est que nous avons réfléchi
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
à une liste de scénarios de l’IA robotique actuelle et potentielle.
01:55
They ran the spectrum from the mundane,
35
115693
2542
Ça couvre un spectre vaste, du banal,
01:58
so, a robot house cleaner, anyone?
36
118259
1976
le robot aspirateur, par exemple,
02:00
Through to the mischievous,
37
120259
1302
au plus facétieux,
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
l’idée d’un robot qui promène le chien, d’un robot avocat
02:04
or maybe a sex partner.
39
124704
1533
ou partenaire sexuel
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
voire le carrément macabre, l’idée de devenir cyborg,
02:09
blending human and robot,
41
129498
1293
un mélange humain et robot,
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
ou de télécharger notre cerveau pour lui permettre de survivre à notre mort.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
Nous avons catégorisé le niveau d’aise des personnes avec ces scénarios.
02:18
There were actually 31 in the study,
44
138966
1730
L’étude comprend 31 scénarios
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
mais je vais m’en tenir à quelques-uns aujourd’hui.
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
Le constat qui saute aux yeux, c’est l’océan de rouge.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
L’Amérique ne se sent pas du tout à l’aise avec ces choses-là.
02:30
That's why we call it the discomfort index,
48
150901
2835
C’est pour ça que nous l’avons appelé l’index du malaise
02:33
not the comfort index.
49
153760
1420
et non l’index de l’aise.
02:35
There were only two things the majority of America is OK with.
50
155204
3691
Il n’y a que deux choses pour lesquelles la majorité est à l’aise.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
L’idée d’une IA robotique pour faire le ménage
02:41
and a robot AI package deliverer,
52
161817
1992
et celle pour la livraison de colis.
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
Je pense que Dyson et Amazon devraient se rencontrer.
02:46
There's an opportunity there.
54
166848
1548
Il y a une opportunité à prendre.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Nous sommes prêts à nous débarrasser de nos tâches ménagères
sur nos amis les robots.
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
Nous sommes déjà au taquet pour les services :
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
un robot avocat ou peut-être un conseiller financier.
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Nous sommes très proches de l’idée des robots soignants,
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
infirmiers, médecins, gardes d’enfants.
03:04
So from this, you'd go,
60
184509
1353
Vous pourriez penser :
03:05
"It's OK, Lucy, you know what?
61
185886
1453
«OK, Lucy, j’ai compris.
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
Va te rendormir, cesse de te tracasser, les humains vont gagner.»
03:10
But actually not so fast.
63
190442
1222
Mais c’est aller trop vite.
03:11
If you look at my data very closely,
64
191688
1722
En creusant les données,
on voit que nous sommes plus vulnérables qu’on ne le pense.
03:13
you can see we're more vulnerable than we think.
65
193434
2246
03:15
AI has a branding problem.
66
195704
1285
L’IA a un problème d’image.
03:17
So of those folks who said
67
197013
2157
Ceux et celles qui disaient
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
qu’ils rejetaient toute idée d’assistant personnel,
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
eh bien, ils sont 45 % à en avoir un en poche,
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
en termes de machines équipées avec Alexa, Google ou Siri.
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
Une personne sur 5 qui se dit opposée à l’idée d’IA de rencontre
03:31
had of course, you guessed it, done online dating.
72
211994
2655
a déjà, vous l’avez deviné, utilisé un site de rencontres.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Et 80 % de ceux et celles qui refusent l’idée
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
de monter à bord d’avions autonomes avec un pilote en back-up
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
ont pris, comme moi pour venir à Vancouver,
03:42
flown commercial.
76
222045
1167
un vol commercial.
03:43
Lest you think everybody was scared, though,
77
223236
2055
On peut craindre que tout le monde ait peur,
03:45
here are the marvelous folk in the middle.
78
225315
2135
mais il y a la merveilleuse cohorte du milieu.
03:47
These are the neutrals.
79
227474
1247
Ceux qui sont neutres.
03:48
These are people for whom you say,
80
228745
1642
Ce sont ceux qui répondent à :
03:50
"OK, robot friend,"
81
230411
1269
«Nos amis les robots, »
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
par : «Ami ? Hmmm. Peut-être. »
03:54
Or, "AI pet,"
83
234663
1621
Ou à «IA de compagnie »
03:56
and they go, "Never say never."
84
236308
2062
par : «Ne jamais dire jamais. »
03:58
And as any decent political operative knows,
85
238843
2666
Et comme tout enquêteur politique digne de ce nom le sait,
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
faire changer le centre ambivalent peut tout changer.
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
De plus, nous sommes vulnérables car les hommes
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
sont deux fois plus enclins que les femmes
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
à croire que rouler dans une voiture autonome est une bonne idée,
04:13
that uploading your brain for posterity is fun,
90
253022
2817
que télécharger son cerveau pour la postérité est cool,
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
et 2,5 fois plus enclins à croire que devenir cyborg l’est aussi,
04:19
and for this, I blame Hollywood.
92
259609
1679
et merci Hollywood pour ça.
04:21
(Laughter)
93
261312
1296
(Rires)
04:22
And this is where I want you to look around the theater
94
262632
2596
J’aimerais que vous regardiez autour de vous
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
car sachez qu’un homme sur quatre accepte l’idée du sexe avec un robot.
04:28
That goes up to 44 percent of millennial men
96
268633
3137
On parle de 44 % des hommes de la génération Y,
04:31
compared to just one in 10 women,
97
271794
1594
mais d’une femme sur dix seulement,
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
ce qui, selon moi, change notre regard sur l’ennui du sexe mécanique.
04:36
(Laughter)
99
276825
1968
(Rires)
04:38
Even more astounding than that though, to be honest,
100
278817
2429
Ce qui est encore plus étonnant, pour être sincère,
04:41
is this behavioral difference.
101
281270
1570
ce sont les différences comportementales.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
Ici, on a la cohorte qui a un appareil avec un assistant vocal,
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
un haut-parleur ou un hub connecté, un smartphone,
04:49
versus those who don't.
104
289871
1722
et ceux qui n’en ont pas.
04:51
And you can see from this graph
105
291617
1500
On constate sur ce graphique
04:53
that the Trojan horse is already in our living room.
106
293141
3723
que le cheval de Troie est déjà dans notre salon.
04:56
And as these devices proliferate
107
296888
2087
Avec la prolifération de ces appareils,
04:58
and our collective defenses soften,
108
298999
3217
nos défenses collectives s’amenuisent.
05:02
we all see how it can end.
109
302240
1997
On voit aisément où cela nous mène.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
Ceci est le bon moment pour vous avouer
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
que j’ai emporté mon Alexa en vacances.
05:10
Final finding I have time for is generational.
112
310192
2151
Il me reste du temps pour parler générations.
05:12
So look at the difference just three generations make.
113
312367
2555
Regardez la différence créée sur trois générations,
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
des silencieux aux milléniaux en passant par les baby boomers.
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
Quand on extrapole, c’est encore plus fascinant.
05:21
the same rate of change,
116
321394
1215
Au même taux de changement,
05:22
just the same pace,
117
322633
1190
la même vitesse,
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
sans l’accélération qui, selon moi, surviendra,
05:26
the same pace,
119
326706
1175
à la même vitesse,
05:27
then it is eight generations away
120
327905
1697
dans huit générations,
05:29
when we hear every single American
121
329626
2340
tous les Américains que nous pourrions interroger
05:31
thinking the majority of these things here are normal.
122
331990
3381
penseront que la majorité de toutes ces choses est normale.
05:35
So the year 2222 is an astounding place
123
335395
3039
L’an 2222 devrait donc être un lieu stupéfiant
05:38
where everything here is mainstream.
124
338458
2294
où tout ça est banal.
05:40
And lest you needed any more convincing,
125
340776
1945
Si vous avez encore besoin d’être convaincu,
05:42
here is the generation's "excitement level with AI."
126
342745
2808
voici la génération : «niveau d’enthousiasme pour l’IA ».
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
Sans surprise, les plus jeunes sont plus enthousiastes
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Mais, et c’est sans doute la découverte la plus paradoxale de ma carrière,
05:53
when I asked these people my 3am question,
129
353331
3000
quand je pose la question qui me tient éveillées à 3 heures du matin,
05:56
"Who wins in the end?"
130
356355
1467
«Qui gagne au final ? »
05:58
Guess what.
131
358188
1150
Devinez...
05:59
The more excited you are about AI and robotics,
132
359736
2238
Plus on est enthousiaste pour l’IA et les robots,
06:01
the more likely you are to say it's the robots.
133
361998
2685
plus on a tendance à croire que les robots seront victorieux.
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
Je ne pense pas avoir besoin d’un ordinateur quantique
06:08
to see where this is all headed.
135
368903
1705
pour discerner vers où ça nous entraîne.
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
Nous sommes la grenouille dans l’eau bouillante.
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
Si les robots de TED2222 nous regardent pour la postérité,
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
envoyez un cyborg, déterrez-moi et dites-moi si j’ai eu raison.
06:21
(Laughter)
139
381538
1165
(Rires)
06:22
Thank you.
140
382727
1177
Merci.
06:23
(Applause)
141
383928
1619
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7