How a handful of tech companies control billions of minds every day | Tristan Harris

947,059 views ・ 2017-07-28

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Maurício Kakuei Tanaka Revisor: Maricene Crus
00:12
I want you to imagine
0
12960
1200
Imaginem
00:15
walking into a room,
1
15000
1200
que estão entrando numa sala,
00:17
a control room with a bunch of people,
2
17480
2136
uma sala de controle com um grupo de pessoas,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
centenas delas debruçadas sobre uma mesa de controle,
00:23
and that that control room
4
23280
1520
e que essa sala
00:25
will shape the thoughts and feelings
5
25680
3696
irá modelar os pensamentos e sentimentos
00:29
of a billion people.
6
29400
1240
de um bilhão de pessoas.
00:32
This might sound like science fiction,
7
32560
1880
Pode parecer ficção científica,
00:35
but this actually exists
8
35320
2216
mas isso realmente existe nos dias de hoje.
00:37
right now, today.
9
37560
1200
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Sei disso porque eu fazia parte de uma dessas salas de controle.
00:44
I was a design ethicist at Google,
11
44159
2297
Eu era especialista em ética de design do Google,
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
onde estudava como se controlam os pensamentos das pessoas de forma ética.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
O que não falamos é como um grupo de pessoas,
00:53
working at a handful of technology companies
14
53480
2536
que trabalham em um grupo de empresas de tecnologia,
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
controlam, por meio de suas decisões, o que um bilhão de pessoas pensam hoje.
01:02
Because when you pull out your phone
16
62400
1736
Quando pegamos o telefone,
e elas projetam o funcionamento disso ou o conteúdo das notificações,
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
estão sendo programados pequenos blocos de tempo em nossa mente.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Se vemos uma notificação, ela programa pensamentos
01:13
that maybe you didn't intend to have.
20
73680
2040
que talvez não quiséssemos ter.
01:16
If you swipe over that notification,
21
76400
2616
Se abrimos essa notificação,
01:19
it schedules you into spending a little bit of time
22
79040
2381
ela programa que passemos um pouco mais de tempo
01:21
getting sucked into something
23
81445
1381
envolvidos em uma situação na qual talvez não quiséssemos ser envolvidos.
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
01:27
When we talk about technology,
25
87320
1520
Quando falamos de tecnologia,
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
tendemos a falar sobre ela como uma oportunidade visionária,
01:32
It could go any direction.
27
92760
1480
que poderia seguir qualquer caminho.
01:35
And I want to get serious for a moment
28
95400
1856
Vou falar sério e contar por que ela segue um caminho muito específico.
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
01:40
Because it's not evolving randomly.
30
100840
2200
A tecnologia não está evoluindo ao acaso.
01:44
There's a hidden goal driving the direction
31
104000
2016
Há um objetivo secreto guiando o caminho de toda a tecnologia que criamos.
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
Esse objetivo é a disputa pela nossa atenção.
01:52
Because every news site,
34
112840
2736
Todo novo site,
01:55
TED, elections, politicians,
35
115600
2736
TED, eleições, política, jogos, até mesmo os aplicativos de meditação,
01:58
games, even meditation apps
36
118360
1976
02:00
have to compete for one thing,
37
120360
1960
tem que competir por uma coisa:
02:03
which is our attention,
38
123160
1736
nossa atenção.
02:04
and there's only so much of it.
39
124920
1600
Isso ocorre com frequência.
02:08
And the best way to get people's attention
40
128440
2416
A melhor maneira de conseguir a atenção das pessoas
02:10
is to know how someone's mind works.
41
130880
2440
é saber como funciona a mente delas.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Há todo um conjunto de técnicas de persuasão,
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
que aprendi na faculdade, no "Persuasive Technology Lab",
02:19
to get people's attention.
44
139680
1600
para conseguir a atenção das pessoas.
02:21
A simple example is YouTube.
45
141880
1480
Um exemplo simples é o YouTube.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
Ele quer aumentar ao máximo o tempo que passamos nele.
02:26
And so what do they do?
47
146960
1200
O que fazem então?
02:28
They autoplay the next video.
48
148840
2280
Exibem o próximo vídeo automaticamente.
02:31
And let's say that works really well.
49
151760
1816
Digamos que funciona muito bem.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Estão conseguindo um pouco mais do tempo das pessoas.
A Netflix observa isso e diz: "Isso reduz minha participação no mercado.
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
02:38
well, that's shrinking my market share,
52
158440
1858
Irei exibir automaticamente o próximo episódio".
02:40
so I'm going to autoplay the next episode.
53
160322
2000
02:43
But then if you're Facebook,
54
163320
1376
O Facebook diz então: "Isso reduz toda a minha participação no mercado,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
então tenho que exibir todos os vídeos antes mesmo que você clique pra assistir".
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
02:52
So the internet is not evolving at random.
58
172320
3160
Portanto, a internet não está evoluindo ao acaso.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
A razão pela qual ela parece estar nos envolvendo dessa maneira
03:00
is because of this race for attention.
60
180760
2376
é a disputa pela atenção.
03:03
We know where this is going.
61
183160
1416
Sabemos aonde isso vai chegar.
03:04
Technology is not neutral,
62
184600
1520
A tecnologia não é neutra,
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
e torna-se esta disputa ao nível mais baixo do cérebro
03:10
of who can go lower to get it.
64
190760
2200
de quem pode ir mais baixo para ganhá-la.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Darei um exemplo do "Snapchat".
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Caso não saibam, o Snapchat é o principal meio de comunicação
03:20
that teenagers in the United States communicate.
67
200000
2256
dos adolescentes americanos.
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Se, como eu, vocês utilizam mensagens de texto para se comunicar,
03:26
Snapchat is that for teenagers,
69
206480
1776
isso é o Snapchat para os adolescentes.
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
E cerca de 100 milhões deles o utilizam.
Foi inventado um recurso chamado "Snapstreaks",
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
que mostra a quantidade de dias seguidos em que duas pessoas se comunicaram.
03:33
which shows the number of days in a row
72
213240
1896
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
Em outras palavras, deram a duas pessoas algo que elas não queriam perder.
03:39
is they gave two people something they don't want to lose.
75
219680
2960
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
Se você é adolescente, e tem 150 dias seguidos,
03:47
you don't want that to go away.
77
227480
1976
não quer perder isso.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Pensem nos pequenos blocos de tempo programados na mente das crianças.
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
Não é teoria: quando as crianças saem de férias,
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
descobriu-se que elas dão suas senhas a até cinco amigos
03:59
to keep their Snapstreaks going,
81
239800
2216
para manter o Snapstreaks delas ativo, mesmo quando não conseguem.
04:02
even when they can't do it.
82
242040
2016
04:04
And they have, like, 30 of these things,
83
244080
1936
Elas têm 30 desses, e precisam tirar fotos
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
nem que seja de paredes e tetos só para passar o dia.
04:09
or ceilings just to get through their day.
85
249440
2480
04:13
So it's not even like they're having real conversations.
86
253200
2696
Não é como se tivessem conversas reais.
04:15
We have a temptation to think about this
87
255920
1936
Temos a tendência de pensar assim:
04:17
as, oh, they're just using Snapchat
88
257880
2696
"Ah, elas só estão usando o Snapchat do modo como falávamos ao telefone.
04:20
the way we used to gossip on the telephone.
89
260600
2016
04:22
It's probably OK.
90
262640
1200
Deve estar tudo bem".
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Mas o que não dizem é que, na década de 70,
04:26
when you were just gossiping on the telephone,
92
266760
2615
quando falávamos ao telefone,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
não havia uma centena de engenheiros do outro lado
04:32
who knew exactly how your psychology worked
94
272440
2056
que sabiam exatamente como funcionava nossa mente
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
e nos organizavam no conceito da psicologia chamado de "duplo vínculo".
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Se estiverem se sentindo um pouco indignados com isso,
04:42
notice that that thought just comes over you.
97
282680
2576
notem que esse sentimento simplesmente atinge vocês.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
A indignação também é uma ótima forma de chamar a atenção,
04:49
because we don't choose outrage.
99
289880
1576
Não escolhemos ficar indignados, é algo que acontece conosco.
04:51
It happens to us.
100
291480
1416
04:52
And if you're the Facebook newsfeed,
101
292920
1856
O feed de notícias do Facebook, independentemente de nossa vontade,
04:54
whether you'd want to or not,
102
294800
1416
04:56
you actually benefit when there's outrage.
103
296240
2736
realmente se beneficia quando há indignação,
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
porque ela não apenas programa em nós uma reação emocional no tempo e espaço.
05:01
in emotional time, space, for you.
105
301960
2880
05:05
We want to share that outrage with other people.
106
305440
2416
Também queremos compartilhar essa indignação com os outros.
05:07
So we want to hit share and say,
107
307880
1576
Queremos clicar em "compartilhar" e dizer: "Você acredita no que eles disseram?"
05:09
"Can you believe the thing that they said?"
108
309480
2040
05:12
And so outrage works really well at getting attention,
109
312520
3376
A indignação funciona muito bem para chamar a atenção.
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
Se o Facebook tivesse que escolher
entre mostrar publicações tranquilas ou polêmicas,
05:19
and a calm newsfeed,
111
319840
1320
05:22
they would want to show you the outrage feed,
112
322120
2136
ele mostraria as polêmicas,
05:24
not because someone consciously chose that,
113
324280
2056
não por ter sido uma escolha consciente de alguém,
05:26
but because that worked better at getting your attention.
114
326360
2680
mas porque funcionaria melhor para chamar a atenção.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
A sala de controle do feed de notícias não é responsável por nós.
05:37
It's only accountable to maximizing attention.
116
337040
2296
Só é responsável por aumentar ao máximo a atenção.
05:39
It's also accountable,
117
339360
1216
Também é responsável devido ao modelo de negócios da publicidade,
05:40
because of the business model of advertising,
118
340600
2376
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
para qualquer um que possa pagar mais, entrar na sala de controle e dizer:
05:46
and say, "That group over there,
120
346360
1576
"Quero programar esses pensamentos na mente daquele grupo ali".
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
05:51
So you can target,
122
351760
1200
05:54
you can precisely target a lie
123
354040
1936
Pode-se mirar com precisão uma mentira diretamente às pessoas mais suscetíveis.
05:56
directly to the people who are most susceptible.
124
356000
2920
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Como isso é lucrativo, só tende a piorar.
06:05
So I'm here today
126
365040
1800
Estou aqui hoje
06:08
because the costs are so obvious.
127
368160
2000
porque os danos são muito evidentes.
06:12
I don't know a more urgent problem than this,
128
372280
2136
Não conheço um problema mais urgente, porque ele está abaixo de todos os demais.
06:14
because this problem is underneath all other problems.
129
374440
3120
06:18
It's not just taking away our agency
130
378720
3176
Não está apenas tirando nossa ação
06:21
to spend our attention and live the lives that we want,
131
381920
2600
de dedicar nossa atenção e viver a vida que queremos;
06:25
it's changing the way that we have our conversations,
132
385720
3536
está mudando a maneira como conversamos,
06:29
it's changing our democracy,
133
389280
1736
está mudando nossa democracia,
06:31
and it's changing our ability to have the conversations
134
391040
2616
e nossa capacidade de ter as conversas
06:33
and relationships we want with each other.
135
393680
2000
e os relacionamentos que queremos uns com os outros.
06:37
And it affects everyone,
136
397160
1776
Isso afeta todos nós,
06:38
because a billion people have one of these in their pocket.
137
398960
3360
porque um bilhão de pessoas têm um desses em seu bolso.
06:45
So how do we fix this?
138
405360
1400
Como corrigimos isso?
06:49
We need to make three radical changes
139
409080
2936
Precisamos fazer três mudanças radicais na tecnologia e na nossa sociedade.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
A primeira é que devemos reconhecer que podemos ser persuadidos.
07:00
Once you start understanding
142
420840
1376
Uma vez que começássemos a entender que podem programar nossa mente
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
para ter pequenos pensamentos ou blocos de tempo que não escolhemos,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
07:07
wouldn't we want to use that understanding
145
427640
2056
não iríamos querer usar essa compreensão e nos proteger do modo como isso ocorre?
07:09
and protect against the way that that happens?
146
429720
2160
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Acho que precisamos nos ver principalmente de uma nova forma.
07:15
It's almost like a new period of human history,
148
435920
2216
É quase como um novo período na história, como o Iluminismo,
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
mas quase uma espécie de Iluminismo autoconsciente,
07:21
that we can be persuaded,
151
441640
2080
no qual podemos ser persuadidos,
07:24
and there might be something we want to protect.
152
444320
2240
e poderia haver algo que queremos proteger.
07:27
The second is we need new models and accountability systems
153
447400
4576
A segunda é que precisamos de novos modelos e sistemas de responsabilidade
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
para que, conforme o mundo fique melhor e mais persuasivo com o tempo,
07:35
because it's only going to get more persuasive --
155
455520
2336
pois se tornará cada vez mais persuasivo,
07:37
that the people in those control rooms
156
457880
1856
as pessoas nessas salas de controle
07:39
are accountable and transparent to what we want.
157
459760
2456
sejam responsáveis e transparentes com o que queremos.
07:42
The only form of ethical persuasion that exists
158
462240
2696
A única forma ética de persuasão
07:44
is when the goals of the persuader
159
464960
1936
é quando os objetivos do persuasor estão alinhados com os objetivos do persuadido,
07:46
are aligned with the goals of the persuadee.
160
466920
2200
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
e isso implica levantar grandes questões, como o modelo comercial de publicidade.
07:54
Lastly,
162
474720
1576
Finalmente,
07:56
we need a design renaissance,
163
476320
1680
precisamos de um renascimento de projeto,
07:59
because once you have this view of human nature,
164
479080
3056
porque uma vez que se tenha esta visão da natureza humana,
08:02
that you can steer the timelines of a billion people --
165
482160
2976
de que se pode controlar as linhas do tempo de um bilhão de pessoas,
08:05
just imagine, there's people who have some desire
166
485160
2736
imaginem que há pessoas que têm algum desejo
08:07
about what they want to do and what they want to be thinking
167
487920
2856
do que querem fazer, pensar e sentir e como querem ser informadas,
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
e somos todos arrastados para outros caminhos
08:13
and we're all just tugged into these other directions.
169
493960
2536
e há um bilhão de pessoas sendo arrastadas para todos esses diferentes caminhos.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Imaginem um total renascimento de projeto
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
que procure organizar a maneira exata e mais fortalecedora
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
de investir o tempo para que essas linhas do tempo aconteçam.
08:28
And that would involve two things:
174
508600
1656
Isso implicaria duas coisas:
uma seria nos proteger das linhas do tempo que não queremos experimentar,
08:30
one would be protecting against the timelines
175
510280
2136
08:32
that we don't want to be experiencing,
176
512440
1856
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
dos pensamentos que não queremos ter,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
evitando um alarme, que, quando soa, nos dispersa.
A segunda seria nos permitir viver a linha do tempo que queremos.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
Darei um exemplo concreto.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Digamos que seu amigo cancele o jantar com você hoje,
08:48
and you are feeling a little bit lonely.
182
528760
3775
e você esteja se sentindo um pouco solitário.
08:52
And so what do you do in that moment?
183
532559
1817
Então o que você faz? Abre o Facebook.
08:54
You open up Facebook.
184
534400
1279
08:56
And in that moment,
185
536960
1696
Nesse momento,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
os projetistas da sala de controle querem programar exatamente uma coisa:
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
aumentar ao máximo o tempo que você passa na tela.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Em vez disso, imaginem se eles criassem uma linha de tempo diferente,
09:10
that was the easiest way, using all of their data,
189
550560
3496
que fosse a maneira mais fácil, usando todos os dados disponíveis,
09:14
to actually help you get out with the people that you care about?
190
554080
3096
para realmente nos ajudar a sair com pessoas que importam para nós?
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Imaginem como isso aliviaria toda a solidão na sociedade,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
se essa fosse a linha do tempo que o Facebook quisesse dar às pessoas.
09:26
Or imagine a different conversation.
193
566160
1715
Ou imaginem uma conversa diferente.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Digamos que quiséssemos publicar algo muito polêmico no Facebook,
realmente importante: falar de temas polêmicos.
09:31
which is a really important thing to be able to do,
195
571240
2416
09:33
to talk about controversial topics.
196
573680
1696
09:35
And right now, when there's that big comment box,
197
575400
2336
Agora mesmo, com aquele grande espaço
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
quase nos perguntando: sobre o que você quer escrever?
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
Está sendo programada uma pequena série de coisas
que continuaremos fazendo na tela.
09:44
you're going to continue to do on the screen.
200
584000
2136
Imaginem que, em vez disso, haja outro botão ali dizendo:
09:46
And imagine instead that there was another button there saying,
201
586160
2976
"Qual seria a melhor forma de investir seu tempo?"
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
Clicamos em "dar um jantar"
09:52
And right there underneath the item it said,
204
592840
2096
e, logo abaixo disso, está escrito: "Quem vem para o jantar?"
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Ainda assim teríamos uma conversa sobre algo aberto para discussão,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
mas seria no lugar mais fortalecedor de nossa linha do tempo:
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
em casa, à noite, para conversar com um grupo de amigos.
10:06
to talk about it.
209
606760
1200
10:09
So imagine we're running, like, a find and replace
210
609000
3160
Imaginem que estamos fazendo uma espécie de "localizar e substituir",
em todas as linhas do tempo que atualmente nos controlam
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
de forma persuasiva a passar cada vez mais tempo na tela,
10:19
and replacing all of those timelines
213
619080
2536
e substituindo todas essas linhas, com o que queremos em nossa vida.
10:21
with what do we want in our lives.
214
621640
1640
10:26
It doesn't have to be this way.
215
626960
1480
Não precisa ser assim.
10:30
Instead of handicapping our attention,
216
630360
2256
Em vez de limitar nossa atenção, imaginem se usarmos
10:32
imagine if we used all of this data and all of this power
217
632640
2816
toda esta informação e todo este poder e esta nova visão da natureza humana
10:35
and this new view of human nature
218
635480
1616
10:37
to give us a superhuman ability to focus
219
637120
2856
para nos dar uma capacidade sobre-humana de concentração,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
de colocar nossa atenção no que nos importa,
10:44
and a superhuman ability to have the conversations
221
644160
2616
e de ter as conversas que precisamos ter para a democracia.
10:46
that we need to have for democracy.
222
646800
2000
10:51
The most complex challenges in the world
223
651600
2680
Os desafios mais complexos do mundo
10:56
require not just us to use our attention individually.
224
656280
3120
exigem não apenas o uso de nossa atenção de forma individual.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
Exigem o uso e a coordenação de nossa atenção de forma coletiva.
11:04
Climate change is going to require that a lot of people
226
664440
2816
A mudança climática irá exigir que muitas pessoas
11:07
are being able to coordinate their attention
227
667280
2096
sejam capazes de coordenar juntas a atenção da maneira mais fortalecedora.
11:09
in the most empowering way together.
228
669400
1896
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Imaginem a criação de uma capacidade sobre-humana para fazer isso.
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
Às vezes, os problemas mais urgentes e importantes do mundo
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
não são estas coisas hipotéticas que poderíamos criar no futuro.
11:28
Sometimes the most pressing problems
232
688560
1736
Os problemas mais urgentes
11:30
are the ones that are right underneath our noses,
233
690320
2336
são, às vezes, os que estão bem debaixo de nosso nariz,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
as coisas que já estão controlando os pensamentos de um bilhão de pessoas.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Talvez, em vez de ficarmos animados com a nova realidade aumentada,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
a realidade virtual e estas coisas legais que poderiam acontecer,
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
que serão suscetíveis à mesma disputa pela atenção,
11:46
if we could fix the race for attention
238
706640
2176
poderíamos concentrar essa disputa
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
naquilo que já está no bolso de um bilhão de pessoas.
11:52
Maybe instead of getting excited
240
712040
1576
Talvez, em vez do entusiasmo
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
com os aplicativos educativos mais novos, emocionantes e sofisticados,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
poderíamos dar um jeito no modo como manipulam as mentes infantis
12:00
into sending empty messages back and forth.
243
720760
2480
no envio de mensagens inúteis de um lado para o outro.
12:04
(Applause)
244
724040
4296
(Aplausos)
12:08
Maybe instead of worrying
245
728360
1256
Talvez, em vez da preocupação
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
com as inteligências artificiais fora de controle de um futuro hipotético
12:13
that are maximizing for one goal,
247
733440
1880
que estão aumentando ao máximo para um objetivo,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
poderíamos resolver a inteligência artificial fora de controle
12:19
that already exists right now,
249
739360
2056
que já existe neste momento,
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
que são esses feeds de notícias aumentados para um aspecto.
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
É quase como, em vez de fugir, colonizar novos planetas,
12:29
we could fix the one that we're already on.
252
749920
2056
poderíamos cuidar de nosso próprio planeta.
12:32
(Applause)
253
752000
4120
(Aplausos)
12:40
Solving this problem
254
760040
1776
Resolver este problema
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
implica uma infraestrutura crítica para solucionar qualquer outro problema.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Não há nada em nossa vida ou em nossos problemas coletivos
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
que não exija nossa capacidade de concentração naquilo que nos importa.
12:55
At the end of our lives,
258
775800
1240
No final de nossa vida,
12:58
all we have is our attention and our time.
259
778240
2640
tudo o que teremos será nossa atenção e nosso tempo.
13:01
What will be time well spent for ours?
260
781800
1896
Qual será a melhor forma de investir nosso tempo?
13:03
Thank you.
261
783720
1216
Obrigado.
13:04
(Applause)
262
784960
3120
(Aplausos) (Vivas)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, obrigado. Fique aqui por um instante.
13:20
First of all, thank you.
264
800720
1336
Em primeiro lugar, obrigado.
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
Sei que pedimos esta palestra com pouca antecedência,
13:24
and you've had quite a stressful week
266
804880
2216
e você teve uma semana bastante estressante
13:27
getting this thing together, so thank you.
267
807120
2440
preparando isto, então obrigado.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Algumas pessoas que o ouviram podem dizer
que o que você critica é o vício e todas as pessoas que fazem isso.
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
Para elas é bem interessante.
Todas estas decisões de projeto
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
têm criado um conteúdo de usuário extremamente interessante.
13:42
The world's more interesting than it ever has been.
272
822600
2416
O mundo está mais interessante que nunca.
O que há de errado nisso?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: É bem interessante.
Uma forma de ver isso é o YouTube, por exemplo,
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
13:52
you want to always show the more interesting next video.
276
832640
2656
que sempre quer mostrar o próximo vídeo mais interessante,
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
melhorar a sugestão do próximo vídeo.
Mas, mesmo se pudessem propor o vídeo perfeito que todos quisessem ver,
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
seria apenas cada vez melhor em manter você conectado.
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
O que está faltando nessa equação é descobrir quais seriam nossos limites.
14:05
So what's missing in that equation
281
845880
1656
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Gostaria que o YouTube soubesse sobre o sono.
O presidente da Netflix disse recentemente:
14:12
The CEO of Netflix recently said,
284
852960
1616
"Nossos maiores concorrentes são o Facebook, o YouTube e o sono".
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Portanto, precisamos reconhecer que a estrutura humana é limitada
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
e que temos certos limites ou dimensões de nossa vida
14:24
that we want to be honored and respected,
288
864840
1976
a serem honrados e respeitados,
14:26
and technology could help do that.
289
866840
1816
e a tecnologia poderia ajudar a fazer isso.
14:28
(Applause)
290
868680
2616
(Aplausos)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: Você diria
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
que parte do problema aqui é que temos um modelo simples de natureza humana?
14:39
So much of this is justified in terms of human preference,
293
879120
2736
Muito disso se justifica em termos de preferência humana,
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
onde temos algoritmos que fazem um trabalho incrível
14:44
of optimizing for human preference,
295
884520
1696
de otimização para preferência humana.
14:46
but which preference?
296
886240
1336
Mas qual preferência?
14:47
There's the preferences of things that we really care about
297
887600
3496
Há as preferências das coisas que realmente nos importam,
14:51
when we think about them
298
891120
1376
quando pensamos nelas,
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
contra as preferências do que só clicamos por instinto.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Se pudéssemos implantar essa visão da natureza humana com mais nuance
em cada projeto, seria um passo adiante? TH: Com certeza.
15:00
would that be a step forward?
301
900280
1456
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
Hoje em dia, é como se a tecnologia perguntasse a nosso cérebro volátil:
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
qual seria o melhor modo de levar você a fazer por impulso
15:07
what's the best way to just impulsively get you to do
304
907280
2496
15:09
the next tiniest thing with your time,
305
909800
2136
a próxima coisa mais minúscula com seu tempo,
15:11
instead of asking you in your life
306
911960
1656
em vez de lhe perguntar a melhor forma de investir o seu tempo.
15:13
what we would be most time well spent for you?
307
913640
2176
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Qual seria a linha de tempo perfeita que poderia incluir algo para depois,
aqui no TED em seu último dia?
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
CA: Então, se o Facebook, o Google e todo mundo dissessem a nós:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"Você gostaria de aperfeiçoar seu cérebro reflexivo ou o volátil? A escolha é sua".
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Certo, seria uma maneira.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA: Você disse persuasão, uma palavra interessante
15:37
because to me there's two different types of persuadability.
315
937240
2856
porque, para mim, existem dois tipos diferentes de persuasão:
15:40
There's the persuadability that we're trying right now
316
940120
2536
aquela que estamos examinando agora de razão, pensamento e argumentação,
15:42
of reason and thinking and making an argument,
317
942680
2176
15:44
but I think you're almost talking about a different kind,
318
944880
2696
mas acho que você está falando sobre um tipo diferente, mais intuitivo,
15:47
a more visceral type of persuadability,
319
947590
1906
de ser persuadido sem nem saber o que está pensando.
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
TH: Exatamente.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
Eu me preocupo tanto com esse problema
porque estudei no Persuasive Technology Lab, em Stanford
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
que nos ensina exatamente essas técnicas.
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
Há conferências e workshops que ensinam todas essas formas secretas
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
de atrair a atenção das pessoas e comandar a vida delas.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
Essa conversa é muito importante porque a maioria não sabe que isso existe.
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, conhecemos muitas pessoas de todas essas empresas.
16:15
There are actually many here in the room,
329
975520
1976
Muitas delas estão aqui no auditório.
16:17
and I don't know about you, but my experience of them
330
977520
2477
Não sei sobre você, mas minha experiência com elas
16:20
is that there is no shortage of good intent.
331
980021
2075
é que não falta boa intenção.
16:22
People want a better world.
332
982120
2176
As pessoas querem um mundo melhor,
16:24
They are actually -- they really want it.
333
984320
3520
de verdade.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Creio que não esteja dizendo que são pessoas más.
16:32
It's a system where there's these unintended consequences
335
992520
3696
É um sistema onde essas consequências não desejadas saíram de controle.
16:36
that have really got out of control --
336
996240
1856
TH: Sim, é a disputa clássica pela atenção até o final
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
quando você tem que chamar a atenção, e é muito tensa.
16:42
and it's so tense.
339
1002840
1216
A única forma de obter mais é ir mais a fundo no cérebro
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
para ir mais a fundo na indignação, na emoção e no cérebro volátil.
16:49
to go lower into the lizard brain.
342
1009280
1696
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Muito obrigado por nos ajudar a ficar um pouco mais espertos sobre isso.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, obrigado. TH: Muito obrigado.
(Aplausos)
16:57
(Applause)
345
1017280
2240
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7