A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,158 views ・ 2020-04-14

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Filipe Marques Revisora: Clara Marques
Estou aqui, porque passei demasiadas noites acordada,
preocupada e a pensar quem ganhará no final.
Serão os humanos ou os robôs?
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Enquanto estratega tecnológica,
trabalho em mudança comportamental:
00:17
worrying and wondering who wins in the end.
1
17397
2486
compreender porquê e como as pessoas adotam novas tecnologias.
00:19
Is it humans or is it robots?
2
19907
2450
E isso significa que estou muito frustrada
00:22
You see, as a technology strategist,
3
22918
1723
00:24
my job involves behavior change:
4
24665
1904
pois sei que não vou viver para ver como tudo isto vai acabar.
00:26
understanding why and how people adopt new technologies.
5
26593
3096
E, de facto, se a pessoa mais nova a ver isto tiver 14 anos
00:30
And that means I'm really frustrated
6
30101
2373
e a mais velha, uns robustos 99,
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
então juntos,
as nossas consciências coletivas abrangem apenas 185 anos.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
00:39
and the oldest, a robust 99,
9
39874
2813
Trata-se de uma miopia temporal do tamanho de um buraco de agulha
00:42
then together,
10
42711
1152
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
quando se pensa na evolução e na história da vida neste planeta.
Estamos todos nos lugares económicos
00:48
That is a myopic pinprick of time
12
48593
3366
e nenhum de nós viverá para ver como tudo se desenrola.
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
Na minha empresa, queríamos contornar isto.
Queríamos ver se havia uma forma de forçar a saída,
00:55
Turns out we're all in the cheap seats
14
55912
1825
00:57
and none of us will live to see how it all pans out.
15
57761
2992
para além da nossa posição temporal fixa,
01:00
So at my company, we wanted a way around this.
16
60777
2348
para saber como tudo se desenrolará.
E para isso, realizámos um estudo entre 1200 americanos
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
01:05
beyond our fixed temporal vantage point,
18
65911
3008
representativo do censo dos EUA,
01:08
to get a sense of how it all shakes up.
19
68943
2270
onde colocámos uma série de perguntas sobre atitudes
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
em torno da robótica e da IA
e também comportamentais em torno da adoção de tecnologias.
01:15
representative of the US census,
21
75238
2150
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
Fizemos um grande estudo
para podermos analisar diferenças de género e de gerações,
01:19
around robotics and AI
23
79960
1801
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
entre crenças religiosas e políticas,
até mesmo profissões e personalidades.
01:26
We had a big study
25
86011
1285
É uma fascinante cápsula do tempo, fixa no tempo,
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
01:30
between religious and political beliefs,
27
90321
1968
da nossa fragilidade humana
neste amanhecer da era robótica.
01:32
even job function and personality trait.
28
92313
2769
E eu tenho cinco minutos para falar sobre isso.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
A primeira coisa que devem saber é que gerámos
01:38
of our human frailty
30
98633
1666
01:40
in this predawn of the robotic era.
31
100323
2586
uma lista de cenários de robótica com IA, atuais e potenciais.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
Com um espetro desde o mundano,
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
por exemplo, um robô de limpeza?
Até aos mais maliciosos,
um robô para animais de estimação, ou talvez um advogado robô,
01:55
They ran the spectrum from the mundane,
35
115693
2542
ou talvez um parceiro sexual.
01:58
so, a robot house cleaner, anyone?
36
118259
1976
Até ao mais macabro, a ideia de ser um ciborgue,
02:00
Through to the mischievous,
37
120259
1302
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
misturando humanos e robôs,
ou transferir o seu cérebro para que possa viver depois da sua morte.
02:04
or maybe a sex partner.
39
124704
1533
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
E traçámos os níveis de conforto das pessoas com estes vários cenários.
02:09
blending human and robot,
41
129498
1293
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
Na verdade, o estudo incluía 31,
mas para facilitar, vou mostrar-vos apenas alguns deles aqui.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
A primeira coisa em que vão reparar, é o mar de vermelho.
02:18
There were actually 31 in the study,
44
138966
1730
A América está muito desconfortável com estas coisas.
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
É por isso que lhe chamamos o índice de desconforto,
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
e não o índice de conforto.
Só havia duas coisas com que a maioria da América está de acordo.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
02:30
That's why we call it the discomfort index,
48
150901
2835
E é essa a ideia de um robô de limpeza doméstico com IA
02:33
not the comfort index.
49
153760
1420
e um robô que entrega encomendas com IA,
02:35
There were only two things the majority of America is OK with.
50
155204
3691
por isso, a Dyson e a Amazon deviam falar.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
Existe aí uma oportunidade.
Parece que estamos prontos para transferir obrigações aos nossos amigos robôs.
02:41
and a robot AI package deliverer,
52
161817
1992
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
Estamos definitivamente indecisos quando se trata de serviços,
02:46
There's an opportunity there.
54
166848
1548
um advogado robô com IA ou um consultor financeiro, talvez.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Mas não estamos recetivos à ideia de cuidados robóticos,
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
quer seja uma enfermeira, um médico, uma creche.
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
A partir disto, diriam,
“Bem, Lucy, sabes que mais?
Vai dormir, não te preocupes, os humanos acabam por ganhar”.
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Mas não é bem assim.
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
Se virmos os dados com atenção,
03:04
So from this, you'd go,
60
184509
1353
estamos mais vulneráveis do que pensamos.
03:05
"It's OK, Lucy, you know what?
61
185886
1453
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
A IA tem uma imagem errada.
Por isso, das pessoas que disseram
03:10
But actually not so fast.
63
190442
1222
que rejeitariam absolutamente a ideia de um assistente pessoal,
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
45 por cento delas tinham, de facto, um nos seus bolsos,
03:15
AI has a branding problem.
66
195704
1285
em termos de um dispositivo com Alexa, Google ou Siri.
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
Um em cada cinco das que eram contra a ideia de encontros com IA
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
tinham, claro, adivinharam, realizado encontros online.
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
E 80 por cento daqueles que recusam a ideia
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
de voar num avião autónomo com um piloto de reserva
tinham, de facto, tal como eu para chegar a Vancouver,
03:31
had of course, you guessed it, done online dating.
72
211994
2655
voado comercialmente.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Mas, para vermos que nem todos tinham medo,
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
aqui estão as pessoas fantásticas no meio.
Estes são os neutros.
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
São pessoas a quem se diz,
“Bom, amigo robô,”
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
e eles ficam tipo, “Hum, amigo robô. Talvez”.
03:45
here are the marvelous folk in the middle.
78
225315
2135
Ou, “animal de estimação IA”.
03:47
These are the neutrals.
79
227474
1247
e eles dizem: “Nunca digas nunca”.
03:48
These are people for whom you say,
80
228745
1642
03:50
"OK, robot friend,"
81
230411
1269
E como qualquer político decente sabe,
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
inverter o meio ambivalente pode mudar o jogo.
03:54
Or, "AI pet,"
83
234663
1621
03:56
and they go, "Never say never."
84
236308
2062
Outra razão da vulnerabilidade são os homens.
03:58
And as any decent political operative knows,
85
238843
2666
Perdão, mas homens, vocês têm o dobro da tendência
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
para acreditar que entrar num num carro autónomo é uma boa ideia,
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
que transferirem o cérebro para a posteridade é divertido,
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
e duas vezes e meia maior tendência de acreditar que ser um ciborgue é fixe,
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
e, por isto, culpo Hollywood.
(Risos)
04:13
that uploading your brain for posterity is fun,
90
253022
2817
E é aqui que eu quero que vocês olhem à volta do teatro
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
porque um em cada quatro homens não vê problema em sexo com um robô.
04:19
and for this, I blame Hollywood.
92
259609
1679
Este valor sobe para 44 por cento dos homens da geração do milénio
04:21
(Laughter)
93
261312
1296
04:22
And this is where I want you to look around the theater
94
262632
2596
contra uma em cada 10 mulheres,
o que acho que dá uma nova perspetiva sobre a queixa do sexo mecânico.
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
(Risos)
Ainda mais espantoso do que isso, para ser honesta,
04:31
compared to just one in 10 women,
97
271794
1594
é esta diferença comportamental.
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
Portanto, aqui temos pessoas que têm um dispositivo com um assistente de voz,
04:36
(Laughter)
99
276825
1968
04:38
Even more astounding than that though, to be honest,
100
278817
2429
um altifalante inteligente, um hub ou um smartphone,
04:41
is this behavioral difference.
101
281270
1570
contra os que não têm.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
E pode ver-se neste gráfico
que o cavalo de Troia já está na nossa sala de estar.
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
E à medida que estes aparelhos proliferam
04:49
versus those who don't.
104
289871
1722
e as nossas defesas coletivas amolecem,
04:51
And you can see from this graph
105
291617
1500
04:53
that the Trojan horse is already in our living room.
106
293141
3723
todos vemos como pode acabar.
De facto, esta é uma boa altura para admitir que
04:56
And as these devices proliferate
107
296888
2087
04:58
and our collective defenses soften,
108
298999
3217
eu levei a minha Alexa Dot nas férias comigo.
A última conclusão é geracional.
05:02
we all see how it can end.
109
302240
1997
Bom, vejam a diferença que apenas três gerações criam.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
Este é o salto do silencioso para o boomer para o millennial.
E o que é mais fascinante do que isto é que se extrapolarmos isto,
05:10
Final finding I have time for is generational.
112
310192
2151
05:12
So look at the difference just three generations make.
113
312367
2555
à mesma taxa de variação,
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
ao mesmo ritmo,
não o acelerado que, na verdade, acredito que será o caso,
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
o mesmo ritmo,
então faltam oito gerações
05:21
the same rate of change,
116
321394
1215
para ouvirmos todos os americanos
05:22
just the same pace,
117
322633
1190
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
dizerem que a maioria destas coisas aqui são normais.
05:26
the same pace,
119
326706
1175
Logo, o ano de 2222 é um lugar incrível
05:27
then it is eight generations away
120
327905
1697
05:29
when we hear every single American
121
329626
2340
onde tudo aqui é corrente.
05:31
thinking the majority of these things here are normal.
122
331990
3381
E caso precisassem de mais provas,
aqui está o “nível de entusiasmo com a IA” das gerações.
05:35
So the year 2222 is an astounding place
123
335395
3039
Sem surpresa, os mais novos de nós estão mais entusiasmados.
05:38
where everything here is mainstream.
124
338458
2294
05:40
And lest you needed any more convincing,
125
340776
1945
Mas, e possivelmente a descoberta mais paradoxal da minha carreira,
05:42
here is the generation's "excitement level with AI."
126
342745
2808
quando fiz a minha pergunta das 3 da manhã a estas pessoas,
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
“Quem é que ganha no fim?”
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Adivinhem lá.
Quanto mais entusiasmado com a IA e a robótica,
05:53
when I asked these people my 3am question,
129
353331
3000
mais provável será dizer que são os robôs.
05:56
"Who wins in the end?"
130
356355
1467
E não precisamos de uma rede neural e software de reconhecimento de padrões
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
para ver onde tudo isto vai dar.
06:01
the more likely you are to say it's the robots.
133
361998
2685
Somos as proverbiais rãs em água a ferver.
Portanto, se os robôs da TED2222 estiverem a ver isto para a posteridade,
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
06:08
to see where this is all headed.
135
368903
1705
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
enviam um ciborgue, desenterram-me e dizem-me se tinha razão?
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
(Risos)
Obrigado.
(Aplausos)
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
06:21
(Laughter)
139
381538
1165
06:22
Thank you.
140
382727
1177
06:23
(Applause)
141
383928
1619
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7