A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,179 views ・ 2020-04-14

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Roberto Lippi Revisore: Anna Cristiana Minoli
Sono qui perché ho passato sveglia fin troppe notti,
preoccupandomi e chiedendomi chi vincerà alla fine.
Saranno gli umani o i robot?
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Vedete, come stratega tecnologica,
lavoro sui cambi comportamentali:
00:17
worrying and wondering who wins in the end.
1
17397
2486
capire perché e come le persone adottano le nuove tecnologie.
00:19
Is it humans or is it robots?
2
19907
2450
E questo vuol dire che sono molto frustrata
00:22
You see, as a technology strategist,
3
22918
1723
00:24
my job involves behavior change:
4
24665
1904
sapendo che non vivrò tanto a lungo da vedere come finirà tutto questo.
00:26
understanding why and how people adopt new technologies.
5
26593
3096
In effetti, se la persona più giovane che ci guarda ha 14 anni
00:30
And that means I'm really frustrated
6
30101
2373
e il più vecchio è un robusto 99enne,
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
allora insieme,
la nostra consapevolezza collettiva abbraccia 185 anni.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
00:39
and the oldest, a robust 99,
9
39874
2813
È un miope spezzone di tempo
00:42
then together,
10
42711
1152
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
se pensate all’evoluzione e alla storia della vita su questo pianeta.
Si scopre che siamo tutti mal posizionati
00:48
That is a myopic pinprick of time
12
48593
3366
e nessuno di noi vivrà da vedere il dipanarsi di questa storia.
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
Quindi, nella mia azienda, volevamo capirne di più.
Volevamo trovare un modo per vedere l’estremità,
00:55
Turns out we're all in the cheap seats
14
55912
1825
00:57
and none of us will live to see how it all pans out.
15
57761
2992
oltre il nostro punto panoramico temporale che è fisso,
01:00
So at my company, we wanted a way around this.
16
60777
2348
per avere un’idea di come tutto si mischierà.
E per fare ciò, abbiamo condotto uno studio tra 1.200 Americani,
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
01:05
beyond our fixed temporal vantage point,
18
65911
3008
rappresentativi del censimento USA,
01:08
to get a sense of how it all shakes up.
19
68943
2270
nel quale abbiamo fatto varie domande attitudinali
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
riguardo la robotica e l’IA
infilandone anche di comportamentali riguardo l’adozione della tecnologia.
01:15
representative of the US census,
21
75238
2150
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
È stata una grossa ricerca,
e abbiamo potuto analizzare differenze di genere e generazione,
01:19
around robotics and AI
23
79960
1801
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
di fedi politiche e religiose,
perfino di funzioni lavorative e di tratti della personalità.
01:26
We had a big study
25
86011
1285
È una capsula temporale affascinante e limitata nel tempo
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
01:30
between religious and political beliefs,
27
90321
1968
della nostra fragilità umana
prima dell’alba dell’era robotica.
01:32
even job function and personality trait.
28
92313
2769
E ho cinque minuti per parlarvene.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
La prima cosa da sapere è che abbiamo raccolto idee
01:38
of our human frailty
30
98633
1666
01:40
in this predawn of the robotic era.
31
100323
2586
su una lista di scenari di intelligenze robotiche attuali e potenziali.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
Comprendono lo spettro che va dal mondano,
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
tipo, un robot che pulisce la casa, no?
fino al malizioso,
l’idea di un robot pet sitter, o magari un robot avvocato,
01:55
They ran the spectrum from the mundane,
35
115693
2542
o magari un partner sessuale.
01:58
so, a robot house cleaner, anyone?
36
118259
1976
Fino al macabro a tutti gli effetti, l’idea di essere un cyborg,
02:00
Through to the mischievous,
37
120259
1302
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
che mischia umano e robot,
o di fare upload del tuo cervello così che possa vivere dopo la morte.
02:04
or maybe a sex partner.
39
124704
1533
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
E abbiamo tracciato i livelli di comfort delle persone con questi vari scenari.
02:09
blending human and robot,
41
129498
1293
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
Ce n’erano 31 nello studio,
ma per comodità, ve ne mostrerò solo una qualcuno.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
La prima cosa che noterete, ovviamente, è il mare di rosso.
02:18
There were actually 31 in the study,
44
138966
1730
L’America non è per niente a suo agio con queste cose.
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
Per questo lo chiamiamo l’indice di malcontento,
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
non l’indice di comfort.
Con solo due cose la maggioranza dell’America è d’accordo.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
02:30
That's why we call it the discomfort index,
48
150901
2835
E cioè l’idea di un robot IA che pulisce casa
02:33
not the comfort index.
49
153760
1420
e un robot IA che consegna pacchi,
02:35
There were only two things the majority of America is OK with.
50
155204
3691
quindi Dyson e Amazon, dovreste parlarvi.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
Avete un’opportunità.
Sembra che siamo pronti a scaricare le nostre faccende ai nostri amici robot.
02:41
and a robot AI package deliverer,
52
161817
1992
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
Siamo decisamente indecisi quando si tratta di servizi,
02:46
There's an opportunity there.
54
166848
1548
quindi robot IA avvocato o consulente finanziario, forse.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Ma siamo saldamente chiusi sull’idea di robot per la cura,
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
sia esso un robot infermiere, dottore, o babysitter.
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
Quindi da qui, direste,
“Va bene Lucy, sai cosa?
Torna a dormire, smettila di preoccuparti, gli umani alla fine vincono.”
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Ma non è così immediato.
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
Guardate attentamente i miei dati,
03:04
So from this, you'd go,
60
184509
1353
notate che siamo più vulnerabili di quanto pensiamo.
03:05
"It's OK, Lucy, you know what?
61
185886
1453
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
L’IA ha un problema di brand.
Tra le persone che hanno detto
03:10
But actually not so fast.
63
190442
1222
che rifiuterebbero assolutamente l’idea di un assistente personale,
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
il 45 per cento ne aveva in effetti uno in tasca,
03:15
AI has a branding problem.
66
195704
1285
con dispositivi come Alexa, Google o Siri.
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
Uno su cinque contrari all’idea di un’IA combina-incontri
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
aveva ovviamente provato gli incontri online.
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
E l′80 per cento di noi che rifiutiamo l’idea
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
di prendere un aereo autonomo con un pilota di riserva
03:31
had of course, you guessed it, done online dating.
72
211994
2655
abbiamo di fatto, come io per arrivare qui a Vancouver,
preso voli di linea.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Però, nessuno era spaventato:
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
questa è la meravigliosa gente comune.
Questi sono i neutrali.
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
Persone per cui dici,
“OK, amico robot,”
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
e loro tipo: “Hm, amico robot. Forse.”
03:45
here are the marvelous folk in the middle.
78
225315
2135
O “animale domestico IA,”
03:47
These are the neutrals.
79
227474
1247
e loro dicono: “Mai dire mai.”
03:48
These are people for whom you say,
80
228745
1642
03:50
"OK, robot friend,"
81
230411
1269
E come ogni decente stratega politico sa,
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
portare a sé chi sta nel mezzo può cambiare la partita.
03:54
Or, "AI pet,"
83
234663
1621
Un’altra nostra vulnerabilità è che gli uomini --
03:56
and they go, "Never say never."
84
236308
2062
03:58
And as any decent political operative knows,
85
238843
2666
mi dispiace ma uomini, siete due volte più portati delle donne
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
a credere che salire in una macchina a guida autonoma sia una buona idea,
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
che caricare la vostra mente per i posteri sia divertente,
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
e 2.5 volte più portati a credere che diventare un cyborg sia bello,
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
e di questo, incolpo Hollywood.
(Risate)
04:13
that uploading your brain for posterity is fun,
90
253022
2817
Ed è qui che vi voglio a guardare in giro per il teatro
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
e sapere che a un uomo su quattro va bene l’idea del sesso con un robot.
04:19
and for this, I blame Hollywood.
92
259609
1679
Si sale fino al 44 per cento degli uomini millennial
04:21
(Laughter)
93
261312
1296
04:22
And this is where I want you to look around the theater
94
262632
2596
rispetto a solo una donna su 10,
che penso getti nuova luce su chi si lamenta del “sesso meccanico”.
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
(Risate)
Ma ancora più sorprendente, onestamente,
04:31
compared to just one in 10 women,
97
271794
1594
è questa differenza comportamentale.
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
Ci sono persone che hanno un dispositivo con un assistente vocale dentro,
04:36
(Laughter)
99
276825
1968
04:38
Even more astounding than that though, to be honest,
100
278817
2429
quindi uno smart speaker, un hub casalingo o uno smartphone,
04:41
is this behavioral difference.
101
281270
1570
e persone che non lo hanno.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
E vedete da questo grafico
che il cavallo di Troia è già nel nostro salotto.
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
E con il proliferare di questi dispositivi
04:49
versus those who don't.
104
289871
1722
e l’indebolirsi delle nostre difese,
04:51
And you can see from this graph
105
291617
1500
04:53
that the Trojan horse is already in our living room.
106
293141
3723
sappiamo tutti come può finire.
In effetti, forse non c’è momento migliore per ammettere
04:56
And as these devices proliferate
107
296888
2087
04:58
and our collective defenses soften,
108
298999
3217
che ho portato la mia Alexa Dot in vacanza con me.
L’ultima scoperta che ho per voi è generazionale.
05:02
we all see how it can end.
109
302240
1997
Guardate alla differenza tra sole tre generazioni.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
Questo è il salto tra silenziosi, boomer e millennial.
E la cosa più affascinante è che se estrapolate tutto ciò,
05:10
Final finding I have time for is generational.
112
310192
2151
05:12
So look at the difference just three generations make.
113
312367
2555
quel tasso di variazione,
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
quello stesso ritmo,
non quello accelerato che credo ci sarà,
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
lo stesso ritmo,
saremmo a otto generazioni
05:21
the same rate of change,
116
321394
1215
dal sentire ogni singolo americano
05:22
just the same pace,
117
322633
1190
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
pensare che la maggioranza di queste cose siano normali.
05:26
the same pace,
119
326706
1175
Quindi l’anno 2222 è un posto strabiliante
05:27
then it is eight generations away
120
327905
1697
05:29
when we hear every single American
121
329626
2340
in cui tutto questo è mainstream.
05:31
thinking the majority of these things here are normal.
122
331990
3381
E se mai aveste bisogno di più prove,
questo è il “livello di entusiasmo per l’IA” della generazione.
05:35
So the year 2222 is an astounding place
123
335395
3039
Non a caso, i più giovani di noi sono più entusiasti.
05:38
where everything here is mainstream.
124
338458
2294
05:40
And lest you needed any more convincing,
125
340776
1945
Ma, e possibilmente la scoperta più paradossale della mia carriera,
05:42
here is the generation's "excitement level with AI."
126
342745
2808
quando ho fatto loro la mia domanda delle tre del mattino,
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
“Chi vince alla fine?”
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Immaginate.
Più vi affascinano l’IA e la robotica
05:53
when I asked these people my 3am question,
129
353331
3000
più è probabile che rispondiate i robot.
05:56
"Who wins in the end?"
130
356355
1467
E non ci serve, penso, una rete neurale con software per riconoscere schemi
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
per capire dove andremo a finire.
06:01
the more likely you are to say it's the robots.
133
361998
2685
Siamo le proverbiali rane bollite.
Quindi se i robot di TED2222 ci stanno guardando per i posteri,
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
06:08
to see where this is all headed.
135
368903
1705
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
potreste inviare un cyborg, disseppellirmi e dirmi se avevo ragione?
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
(Risate)
Grazie.
(Applausi)
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
06:21
(Laughter)
139
381538
1165
06:22
Thank you.
140
382727
1177
06:23
(Applause)
141
383928
1619
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7