A fascinating time capsule of human feelings toward AI | Lucy Farey-Jones

53,158 views ・ 2020-04-14

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Marcelo Santos Revisor: Wanderley Jesus
Estou aqui, porque eu fiquei muitas noites deitada acordada,
me preocupando e perguntando quem ganha no final.
São os humanos ou os robôs?
00:12
I'm here, because I've spent far too many nights lying awake,
0
12802
4571
Como uma estrategista de tecnologia,
eu trabalho com mudança de comportamento:
00:17
worrying and wondering who wins in the end.
1
17397
2486
entender porquê e como as pessoas adotam novas tecnologias
00:19
Is it humans or is it robots?
2
19907
2450
E isso significa que estou muito frustada,
00:22
You see, as a technology strategist,
3
22918
1723
00:24
my job involves behavior change:
4
24665
1904
pois sei que eu não vou viver para ver como tudo isso termina.
00:26
understanding why and how people adopt new technologies.
5
26593
3096
E na verdade, se a pessoa mais jovem assistindo isso tem 14 anos
00:30
And that means I'm really frustrated
6
30101
2373
e a mais velha, um robusto 99,
00:32
that I know I won't live to see how this all ends up.
7
32498
3460
então juntos,
nossa consciência coletiva alcançam apenas 185 anos.
00:36
And in fact, if the youngest person watching this is 14
8
36577
3273
00:39
and the oldest, a robust 99,
9
39874
2813
Isso é uma alfinetada de tempo miópica
00:42
then together,
10
42711
1152
00:43
our collective consciousnesses span just 185 years.
11
43887
4174
quando você pensa na evolução e a história de vida deste planeta.
Na verdade todos estão na classe econômica
00:48
That is a myopic pinprick of time
12
48593
3366
e nenhum de nós vai viver para ver como isso vai evoluir.
00:51
when you think of the evolution and the story of life on this planet.
13
51983
3492
Então na minha companhia, queríamos resolver isso.
Queríamos ver se havia um jeito de nos desaprisionarmos
00:55
Turns out we're all in the cheap seats
14
55912
1825
00:57
and none of us will live to see how it all pans out.
15
57761
2992
além do nosso ponto de vista temporal fixo,
01:00
So at my company, we wanted a way around this.
16
60777
2348
para entender como tudo se move.
E para fazer isso, nós conduzimos um estudo com 1.200 americanos
01:03
We wanted to see if there was a way to cantilever out,
17
63149
2738
01:05
beyond our fixed temporal vantage point,
18
65911
3008
representantes do censo dos EUA,
01:08
to get a sense of how it all shakes up.
19
68943
2270
na qual fizemos uma bateria de perguntas da atitude
01:11
And to do this, we conducted a study amongst 1,200 Americans
20
71237
3977
sobre robótica e IA
e também fizemos umas comportamentais sobre adoção da tecnologia.
01:15
representative of the US census,
21
75238
2150
01:17
in which we asked a battery of attitudinal questions
22
77412
2524
Como foi um grande estudo
pudemos analisar diferenças em gênero e geração,
01:19
around robotics and AI
23
79960
1801
01:21
and also captured behavioral ones around technology adoption.
24
81785
3373
entre crenças religiosas e políticas,
até função no trabalho e traços de personalidade.
01:26
We had a big study
25
86011
1285
É uma fascinante, temporal cápsula do tempo
01:27
so that we could analyze differences in gender and generations,
26
87320
2977
01:30
between religious and political beliefs,
27
90321
1968
da nossa fragilidade humana
nesse pré-início da era robótica.
01:32
even job function and personality trait.
28
92313
2769
E eu tenho cinco minutos para falar sobre isso.
01:35
It is a fascinating, time-bound time capsule
29
95106
3503
A primeira coisa que deve saber é que nós idealizamos
01:38
of our human frailty
30
98633
1666
01:40
in this predawn of the robotic era.
31
100323
2586
uma lista de cenários atuais e potenciais da IA robótica.
01:43
And I have five minutes to tell you about it.
32
103220
2278
01:46
The first thing you should know is that we brainstormed
33
106260
2579
Eles perpassam o espectro do mundano,
01:48
a list of scenarios of current and potential AI robotics.
34
108863
6227
então, um robô de limpeza doméstica?
Até os travessos,
a ideia de um robô cuidador de pet, ou um robô advogado,
01:55
They ran the spectrum from the mundane,
35
115693
2542
ou talvez um parceiro sexual.
01:58
so, a robot house cleaner, anyone?
36
118259
1976
Passando até pelo macabro, a ideia de um ciborgue,
02:00
Through to the mischievous,
37
120259
1302
02:01
the idea of a robot pet sitter, or maybe a robot lawyer,
38
121585
3095
misturando humano e robô,
ou carregando seu cérebro para que possa viver após sua morte.
02:04
or maybe a sex partner.
39
124704
1533
02:06
Through to the downright macabre, the idea of being a cyborg,
40
126553
2921
E nós traçamos o nível de conforto das pessoas com estes cenários variados.
02:09
blending human and robot,
41
129498
1293
02:10
or uploading your brain so it could live on after your death.
42
130815
3881
Há 31 cenários nesse estudo,
mas para aliviar, vou mostrar pra vocês só alguns deles aqui.
02:15
And we plotted people's comfort levels with these various scenarios.
43
135045
3897
A primeira coisa à vista, é claro, é o mar de vermelho.
02:18
There were actually 31 in the study,
44
138966
1730
América é bem desconfortável com esta coisa.
02:20
but for ease, I'm going to show you just a few of them here.
45
140720
3214
Por isso nós chamamos isso de índice de desconforto,
02:24
The first thing you'll notice, of course, is the sea of red.
46
144355
2833
não o índice de conforto.
Só tiveram duas coisas nas quais a maioria da América está bem.
02:27
America is very uncomfortable with this stuff.
47
147212
2809
02:30
That's why we call it the discomfort index,
48
150901
2835
E é a ideia de um robô IA limpador doméstico
02:33
not the comfort index.
49
153760
1420
e um robô IA entregador,
02:35
There were only two things the majority of America is OK with.
50
155204
3691
então Dyson e Amazon, vocês deviam conversar.
02:38
And that's the idea of a robot AI house cleaner
51
158919
2874
Tem uma oportunidade aí.
Parece que estamos prontos para jogar nossas tarefas para amigos robôs.
02:41
and a robot AI package deliverer,
52
161817
1992
02:43
so Dyson and Amazon, you guys should talk.
53
163833
2626
Estamos meio que em cima do muro quando se trata de serviços,
02:46
There's an opportunity there.
54
166848
1548
então um robô IA advogado ou um conselheiro fiscal, talvez.
02:48
It seems we're ready to off-load our chores to our robot friends.
55
168420
3960
Mas nós estamos bem fechados à ideia de cuidado robótico,
02:52
We're kind of definitely on the fence when it comes to services,
56
172404
3015
seja uma enfermeira, um médico, cuidados infantis.
02:55
so robot AI lawyer or a financial adviser, maybe.
57
175443
3770
Então disso você diria,
“Está bem, Lucy, quer saber?
Volte à dormir, não se preocupe, os humanos ganham no final.”
02:59
But we're firmly closed to the idea of robot care,
58
179237
2785
Mas na verdade, calma aí.
03:02
whether it be a nurse, a doctor, child care.
59
182046
2439
Se olhar meus dados de perto,
03:04
So from this, you'd go,
60
184509
1353
pode ver que estamos mais vulneráveis do que parece.
03:05
"It's OK, Lucy, you know what?
61
185886
1453
03:07
Go back to sleep, stop worrying, the humans win in the end."
62
187363
3055
IA tem um problema de marca.
Então das pessoas que dizem
03:10
But actually not so fast.
63
190442
1222
que absolutamente rejeitariam a ideia de um assistente pessoal,
03:11
If you look at my data very closely,
64
191688
1722
03:13
you can see we're more vulnerable than we think.
65
193434
2246
deles 45% tinham, na verdade, um em seus bolsos,
03:15
AI has a branding problem.
66
195704
1285
em termos de um dispositivo com Alexa, Google ou Siri.
03:17
So of those folks who said
67
197013
2157
03:19
that they would absolutely reject the idea of a personal assistant,
68
199194
3143
Um em cinco dos contrários à ideia de encontrar parceiros por IA
03:22
45 percent of them had, in fact, one in their pockets,
69
202361
2886
tinham claro, adivinha, feito encontros online.
03:25
in terms of a device with Alexa, Google or Siri.
70
205271
3603
E 80 % de nós que recusamos a ideia
03:28
One in five of those who were against the idea of AI matchmaking
71
208898
3072
de entrar num avião autônomo com um piloto de backup
tinham de fato, assim como eu ao vir para Vancouver,
03:31
had of course, you guessed it, done online dating.
72
211994
2655
voado comercialmente.
03:34
And 80 percent of those of us who refuse the idea
73
214673
2289
Mas pensando que todos estavam assustados,
03:36
of boarding an autonomous plane with a pilot backup
74
216986
2456
aqui estão o maravilhoso pessoal do meio.
Esses são os neutros.
03:39
had in fact, just like me to get here to Vancouver,
75
219466
2555
Estas são as pessoas que você diz,
“OK, amigo robô,”
03:42
flown commercial.
76
222045
1167
03:43
Lest you think everybody was scared, though,
77
223236
2055
e eles ficam tipo, “Hm, amigo robô. Talvez.”
03:45
here are the marvelous folk in the middle.
78
225315
2135
Ou, “IA de estimação,”
03:47
These are the neutrals.
79
227474
1247
e eles dirão: “Nunca diga nunca.”
03:48
These are people for whom you say,
80
228745
1642
03:50
"OK, robot friend,"
81
230411
1269
E como qualquer agente político decente sabe,
03:51
and they're like, "Hm, robot friend. Maybe."
82
231704
2935
mudar o meio ambivalente pode mudar o jogo.
03:54
Or, "AI pet,"
83
234663
1621
Outra razão pela que sei sermos vulneráveis são os homens...
03:56
and they go, "Never say never."
84
236308
2062
03:58
And as any decent political operative knows,
85
238843
2666
desculpe, mas homens, vocês têm o dobro de chances
04:01
flipping the ambivalent middle can change the game.
86
241533
2722
de acreditar que entrar usar um carro autônomo é uma boa ideia,
04:04
Another reason I know we're vulnerable is men --
87
244644
2319
que carregar seu cérebro para posteriormente é divertido,
04:06
I'm sorry, but men, you are twice as likely than women
88
246987
2576
e duas e meia vezes mais chances de crer que virar um ciborgue é legal,
04:09
to believe that getting into an autonomous car is a good idea,
89
249587
3411
e nisso, eu culpo Hollywood.
(Risadas)
04:13
that uploading your brain for posterity is fun,
90
253022
2817
Neste ponto quero que você olhe ao seu redor
04:15
and two and a half times more likely to believe that becoming a cyborg is cool,
91
255863
3722
e saiba que um em quatro homens estão bem com a ideia de sexo robótico.
04:19
and for this, I blame Hollywood.
92
259609
1679
Subindo para até 44 % em homens millenials
04:21
(Laughter)
93
261312
1296
04:22
And this is where I want you to look around the theater
94
262632
2596
comparado à uma em dez mulheres,
o que eu acho que coloca um novo olhar na reclamação de sexo mecânico.
04:25
and know that one in four men are OK with the idea of sex with a robot.
95
265252
3357
04:28
That goes up to 44 percent of millennial men
96
268633
3137
(Risadas)
Ainda mais espantoso que isso, para ser honesta,
04:31
compared to just one in 10 women,
97
271794
1594
é a diferença comportamental.
04:33
which I think puts a whole new twist on the complaint of mechanical sex.
98
273412
3389
Então aqui temos pessoas que têm um dispositivo com assistente de voz nele,
04:36
(Laughter)
99
276825
1968
04:38
Even more astounding than that though, to be honest,
100
278817
2429
então uma caixa de som smart, um home hub ou smart phone,
04:41
is this behavioral difference.
101
281270
1570
versus aqueles que não têm.
04:42
So here we have people who have a device with a voice assistant in it,
102
282864
4213
E você pode ver nesse gráfico
que o cavalo de Tróia já está na sala.
04:47
so a smart speaker, a home hub or a smart phone,
103
287101
2746
E com esses dispositivos proliferando
04:49
versus those who don't.
104
289871
1722
e nossas defesas coletivas amolecendo,
04:51
And you can see from this graph
105
291617
1500
04:53
that the Trojan horse is already in our living room.
106
293141
3723
podemos ver como pode terminar.
De fato, isso pode ser a melhor hora para admitir
04:56
And as these devices proliferate
107
296888
2087
04:58
and our collective defenses soften,
108
298999
3217
que levei sim minha Alexa Dot de férias comigo.
A última descoberta que posso comentar é geracional.
05:02
we all see how it can end.
109
302240
1997
Veja a diferença que apenas três gerações fazem.
05:04
In fact, this may be as good a time as any to admit
110
304261
2389
05:06
I did take my Alexa Dot on vacation with me.
111
306674
2406
Este é o salto do silêncio para o boomer para millenial.
E o que é mais facinante que isso é se você extrapolar,
05:10
Final finding I have time for is generational.
112
310192
2151
05:12
So look at the difference just three generations make.
113
312367
2555
a mesma taxa de mudança,
05:14
This is the leap from silent to boomer to millennial.
114
314946
3155
no mesmo ritmo,
não o acelerado que acredito vá ser o caso,
05:18
And what's more fascinating than this is if you extrapolate this out,
115
318125
3245
no mesmo ritmo,
então já será a oitava geração
05:21
the same rate of change,
116
321394
1215
quando ouvirmos que todo americano
05:22
just the same pace,
117
322633
1190
05:23
not the accelerated one I actually believe will be the case,
118
323847
2835
pensa que a maioria dessas coisas aqui são normais.
05:26
the same pace,
119
326706
1175
Então o ano 2222 é um lugar espantoso
05:27
then it is eight generations away
120
327905
1697
05:29
when we hear every single American
121
329626
2340
em que tudo aqui é convencional.
05:31
thinking the majority of these things here are normal.
122
331990
3381
E se você precisa de mais convencimento,
aqui está o “nível de animação com IA” por geração.
05:35
So the year 2222 is an astounding place
123
335395
3039
Então não surpreende que os mais jovens são os mais animados.
05:38
where everything here is mainstream.
124
338458
2294
05:40
And lest you needed any more convincing,
125
340776
1945
Mas, e possivelmente a descoberta mais paradoxal da minha carreira,
05:42
here is the generation's "excitement level with AI."
126
342745
2808
quando perguntei à essas pessoas minhas perguntas de madrugada,
05:45
So not surprisingly, the youngest of us are more excited.
127
345577
3340
“Quem ganha no final?”
05:49
But, and possibly the most paradoxical finding of my career,
128
349331
3976
Adivinha.
Quanto mais animado sobre a IA e robótica,
05:53
when I asked these people my 3am question,
129
353331
3000
mais propenso você é de dizer que é são os robôs.
05:56
"Who wins in the end?"
130
356355
1467
Não acho que precisamos de um software de reconhecimento de padrões
05:58
Guess what.
131
358188
1150
05:59
The more excited you are about AI and robotics,
132
359736
2238
para ver para onde isso vai.
06:01
the more likely you are to say it's the robots.
133
361998
2685
Nós somos os sapos proverbiais na água fervendo.
Então se os robôs na TED2222 estão assistindo,
06:05
And I don't think we need a neural net running pattern-recognition software
134
365347
3532
06:08
to see where this is all headed.
135
368903
1705
06:10
We are the proverbial frogs in boiling water.
136
370632
2705
favor enviar um ciborgue, me desenterrar e me confirmar isso?
06:13
So if the robots at TED2222 are watching this for posterity,
137
373361
5153
(Risadas)
Obrigada.
(Aplausos)
06:18
could you send a cyborg, dig me up and tell me if I was right?
138
378538
2976
06:21
(Laughter)
139
381538
1165
06:22
Thank you.
140
382727
1177
06:23
(Applause)
141
383928
1619
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7