A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,260 views

2020-04-14 ・ TED


New videos

A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,260 views ・ 2020-04-14

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Alessandra Mantellini Revisor: Sebastian Betti
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Estoy aquí porque he pasado demasiadas noches despierta,
00:17
worrying and wondering who wins in the end.
1
17397
2486
preocupándome y preguntándome quién gana al final.
00:19
Is it humans or is it robots?
2
19907
2450
¿Serán los humanos o los robots?
00:22
You see, as a technology strategist,
3
22918
1723
Como estratega de tecnología,
00:24
my job involves behavior change:
4
24665
1904
mi trabajo implica un cambio de conducta:
00:26
understanding why and how people adopt new technologies.
5
26593
3096
entender por qué y cómo la gente adopta nuevas tecnologías.
00:30
And that means I'm really frustrated
6
30101
2373
Y eso significa que estoy muy frustrada
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
porque sé que no viviré para ver cómo termina todo esto.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
De hecho, si la persona más joven que ve esto tiene 14 años,
00:39
and the oldest, a robust 99,
9
39874
2813
y la más mayor tiene unos sólidos 99,
00:42
then together,
10
42711
1152
entonces juntos,
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
nuestras conciencias colectivas abarcan solo 185 años.
00:48
That is a myopic pinprick of time
12
48593
3366
Eso no es absolutamente nada
en términos de tiempo
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
si piensan en la evolución y en la historia de la vida en el planeta.
00:55
Turns out we're all in the cheap seats
14
55912
1825
Resulta que tenemos asientos baratos
00:57
and none of us will live to see how it all pans out.
15
57761
2992
y no viviremos para ver cómo acaba todo.
01:00
So at my company, we wanted a way around this.
16
60777
2348
En mi empresa, buscamos una forma de evitar eso.
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
Queríamos ver si había una salida,
01:05
beyond our fixed temporal vantage point,
18
65911
3008
más allá de nuestro punto de vista temporal y fijo,
01:08
to get a sense of how it all shakes up.
19
68943
2270
para tener una idea de cómo se mueve todo.
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
Y para ello, realizamos un estudio entre 1200 estadounidenses
01:15
representative of the US census,
21
75238
2150
pertenecientes al censo de EE. UU.,
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
en el que les hicimos preguntas sobre su actitud
01:19
around robotics and AI
23
79960
1801
en torno a la robótica y la IA.
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
Además, recopilamos conductas vinculadas a la adopción de tecnología.
Hicimos un gran estudio
01:26
We had a big study
25
86011
1285
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
para poder analizar diferencias entre géneros y generaciones,
01:30
between religious and political beliefs,
27
90321
1968
entre creencias religiosas y políticas,
01:32
even job function and personality trait.
28
92313
2769
e incluso entre empleos y rasgos de personalidad.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
Es una cápsula del tiempo fascinante y limitada en el tiempo
01:38
of our human frailty
30
98633
1666
de nuestra fragilidad humana
01:40
in this predawn of the robotic era.
31
100323
2586
en esta era previa al esplendor de la era robótica.
Tengo cinco minutos para contarles.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
Sepan que lo primero fue hacer una lluvia de ideas,
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
una lista de escenarios actuales y potenciales de la robótica en IA.
01:55
They ran the spectrum from the mundane,
35
115693
2542
Iban desde el espectro de lo mundano,
01:58
so, a robot house cleaner, anyone?
36
118259
1976
como un robot limpiador de casas,
02:00
Through to the mischievous,
37
120259
1302
pasando por lo juguetón,
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
como un cuidador de mascotas robot, o tal vez un abogado robot,
02:04
or maybe a sex partner.
39
124704
1533
o quizás una pareja sexual,
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
hasta lo francamente macabro, como la idea de ser un ciborg,
02:09
blending human and robot,
41
129498
1293
mezclando humanos y robots,
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
o subir tu cerebro a la nube para que pueda vivir después de tu muerte.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
Y trazamos los niveles de comodidad de la gente con estos diversos escenarios.
02:18
There were actually 31 in the study,
44
138966
1730
En realidad, hubo 31 en el estudio,
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
pero por comodidad, aquí les mostraré solo algunos de ellos.
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
Lo primero que notarán, obviamente, es la cantidad de rojo.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
Los estadounidenses se sienten muy incómodos con esto.
02:30
That's why we call it the discomfort index,
48
150901
2835
Por eso lo llamamos el índice de malestar,
02:33
not the comfort index.
49
153760
1420
no el índice de comodidad.
02:35
There were only two things the majority of America is OK with.
50
155204
3691
Solo hay dos cosas con las que la mayoría de estadounidenses está de acuerdo.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
Y se trata de la idea de un robot limpiador de casas con IA
02:41
and a robot AI package deliverer,
52
161817
1992
y un robot repartidor de paquetes con IA,
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
así que Dyson y Amazon, podrían llegar a un acuerdo.
02:46
There's an opportunity there.
54
166848
1548
Ahí hay una oportunidad.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Se ve que estamos listos para darles nuestras tareas a nuestros amigos robots.
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
Definitivamente somos indecisos cuando se trata de servicios,
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
como los de un abogado robot con IA o los de un asesor financiero.
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Y estamos firmemente en contra de tener robots cuidadores,
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
ya sean enfermeros, médicos, o cuidadores de niños.
03:04
So from this, you'd go,
60
184509
1353
A partir de esto, me dirías:
03:05
"It's OK, Lucy, you know what?
61
185886
1453
“Está bien, Lucy, ¿sabes qué?
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
Vuelve a dormir, no te preocupes, los humanos ganan al final”.
03:10
But actually not so fast.
63
190442
1222
En realidad, no es así. Si miran mis datos con atención,
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
somos más vulnerables de lo que creemos.
03:15
AI has a branding problem.
66
195704
1285
La IA tiene un problema de marca.
De esas personas que dijeron
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
que ellos rechazarían totalmente la idea de un asistente personal,
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
el 45 % de ellos tenía, de hecho, uno en sus bolsillos,
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
en términos de un dispositivo con Alexa, Google o Siri.
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
Una de cada cinco personas en contra del emparejamiento con IA,
03:31
had of course, you guessed it, done online dating.
72
211994
2655
por supuesto, lo han adivinado, ha hecho citas en línea.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Y el 80 % de nosotros que rechazamos la idea
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
de subir a un avión autónomo con piloto de respaldo,
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
de hecho, al igual que yo,
para llegar a Vancouver, usamos líneas comerciales.
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
Para que no crean que todos tienen miedo,
03:45
here are the marvelous folk in the middle.
78
225315
2135
aquí está la maravillosa gente en el medio.
03:47
These are the neutrals.
79
227474
1247
Estos son los neutrales.
03:48
These are people for whom you say,
80
228745
1642
Son personas a las que les dices:
03:50
"OK, robot friend,"
81
230411
1269
“Vale, un amigo robot”,
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
y ellos te dicen, “Un amigo robot. Tal vez”.
03:54
Or, "AI pet,"
83
234663
1621
O, “una mascota de IA”,
03:56
and they go, "Never say never."
84
236308
2062
y te dicen: “Nunca digas nunca”.
03:58
And as any decent political operative knows,
85
238843
2666
Y como sabe cualquier agente político decente,
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
cambiar la opinión de los neutrales cambia el juego.
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
También somos vulnerables por los hombres:
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
Lo siento, pero tienen el doble de probabilidades
que las mujeres de creer que subirse a un automóvil autónomo es buena idea,
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
de creer que guardar cerebros para la posteridad es divertido,
04:13
that uploading your brain for posterity is fun,
90
253022
2817
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
y tienen más del doble de probabilidades de creer
que volverse un ciborg es genial,
04:19
and for this, I blame Hollywood.
92
259609
1679
y por esto, culpo a Hollywood.
04:21
(Laughter)
93
261312
1296
(Risas)
04:22
And this is where I want you to look around the theater
94
262632
2596
Ahora quiero que vean a su alrededor
y sepan que uno de cada cuatro hombres tendría sexo con un robot.
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
Eso es el 44 % de los hombres millennials
04:31
compared to just one in 10 women,
97
271794
1594
en comparación con una de cada 10 mujeres.
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
Creo que eso le da un giro inesperado a la queja del sexo mecánico.
04:36
(Laughter)
99
276825
1968
(Risas)
04:38
Even more astounding than that though, to be honest,
100
278817
2429
Aún más increíble, siendo honesta,
es la diferencia de comportamientos.
04:41
is this behavioral difference.
101
281270
1570
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
Entonces, aquí hay personas que tienen un dispositivo con un asistente de voz,
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
ya sea un altavoz inteligente, o un teléfono inteligente,
04:49
versus those who don't.
104
289871
1722
en comparación con los que no tienen.
04:51
And you can see from this graph
105
291617
1500
Y en este gráfico pueden ver
04:53
that the Trojan horse is already in our living room.
106
293141
3723
que el caballo de Troya ya está en nuestra sala de estar.
04:56
And as these devices proliferate
107
296888
2087
Y a medida que estos dispositivos proliferan
04:58
and our collective defenses soften,
108
298999
3217
y nuestras defensas colectivas se suavizan,
05:02
we all see how it can end.
109
302240
1997
todos vemos cómo puede terminar.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
De hecho, es un buen momento para admitir
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
que me llevé mi Alexa Dot de vacaciones.
05:10
Final finding I have time for is generational.
112
310192
2151
Queda el hallazgo final: el generacional.
05:12
So look at the difference just three generations make.
113
312367
2555
Vean la diferencia en solo tres generaciones.
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
Este es el salto del silencio al boom y al milenio.
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
Lo que es aún más fascinante es que si extrapolas esto,
con el mismo ritmo de cambio,
05:21
the same rate of change,
116
321394
1215
05:22
just the same pace,
117
322633
1190
solo el mismo ritmo,
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
no uno acelerado, que creo que será el caso,
05:26
the same pace,
119
326706
1175
el mismo ritmo,
05:27
then it is eight generations away
120
327905
1697
hay ocho generaciones de distancia
05:29
when we hear every single American
121
329626
2340
cuando oímos que todos los estadounidenses
05:31
thinking the majority of these things here are normal.
122
331990
3381
creen que la mayoría de estas cosas son normales.
05:35
So the year 2222 is an astounding place
123
335395
3039
Así que el año 2222 es una era asombrosa
05:38
where everything here is mainstream.
124
338458
2294
donde todo esto es corriente.
05:40
And lest you needed any more convincing,
125
340776
1945
Por si necesitaban algo más convincente,
05:42
here is the generation's "excitement level with AI."
126
342745
2808
este es nuestro “nivel de entusiasmo con la IA”.
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
Como era de esperar, los más jóvenes estamos más emocionados.
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Pero, posiblemente el hallazgo más paradójico de mi carrera sea
05:53
when I asked these people my 3am question,
129
353331
3000
que cuando les hice a esta gente mi pregunta de las 3 a.m.,
05:56
"Who wins in the end?"
130
356355
1467
“¿Quién ganará al final?”
Adivinen.
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
Cuanto más te gusten la IA y la robótica,
06:01
the more likely you are to say it's the robots.
133
361998
2685
más probable es que digas que serán los robots.
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
No se necesita una red neuronal
con un software que reconozca patrones
06:08
to see where this is all headed.
135
368903
1705
para ver hacia dónde vamos.
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
Tenemos el síndrome de la rana hervida.
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
Si los robots en TED2222 están viendo esto para la posteridad,
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
¿podría desenterrarme un ciborg y decirme si tenía razón?
06:21
(Laughter)
139
381538
1165
(Risas)
06:22
Thank you.
140
382727
1177
Gracias.
06:23
(Applause)
141
383928
1619
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7