How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views

2017-07-28 ・ TED


New videos

How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Miguel A. Quiceno Revisor: Lidia Cámara de la Fuente
00:12
I want you to imagine
0
12960
1200
Quiero que se imaginen
entrando en una sala.
00:15
walking into a room,
1
15000
1200
00:17
a control room with a bunch of people,
2
17480
2136
Una sala de control con un montón de gente,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
cien personas encorvadas en un escritorio con pequeños diales...
00:23
and that that control room
4
23280
1520
y que esa sala de control
00:25
will shape the thoughts and feelings
5
25680
3696
moldeará los pensamientos y sentimientos
00:29
of a billion people.
6
29400
1240
de un billón de personas.
00:32
This might sound like science fiction,
7
32560
1880
Esto podría sonar como ciencia ficción,
00:35
but this actually exists
8
35320
2216
pero esto realmente existe
00:37
right now, today.
9
37560
1200
en la actualidad.
Lo sé porque solía estar en una de esas salas de control.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Yo era un diseñador ético en Google,
00:44
I was a design ethicist at Google,
11
44159
2297
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
donde estudié cómo se controlan los pensamientos de la gente de forma ética;
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
debido a que, de lo que no hablamos, es de cómo el puñado de personas
00:53
working at a handful of technology companies
14
53480
2536
que trabajan en un puñado de empresas de tecnología,
por medio de sus decisiones,
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
controlarán lo que un billón de personas están pensando en la actualidad.
01:02
Because when you pull out your phone
16
62400
1736
Porque cuando sacan su teléfono,
ellos diseñan cómo esto funciona o qué hay en las notificaciones
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
y están programando pequeños bloques de tiempo en nuestras mentes.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Si ven una notificación, esta los programa para que tengan pensamientos
01:13
that maybe you didn't intend to have.
20
73680
2040
que quizás no tenían la intención de tener.
01:16
If you swipe over that notification,
21
76400
2616
Si presionan esa notificación,
esta los programa para que pasen un poco de tiempo,
01:19
it schedules you into spending a little bit of time
22
79040
2381
01:21
getting sucked into something
23
81445
1381
al ser atrapados por algo,
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
por lo que quizá no tenían la intención de dejarse atrapar.
01:27
When we talk about technology,
25
87320
1520
Cuando hablamos de tecnología,
tendemos a hablar de ella, como esta enorme oportunidad,
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
que podría ir en cualquier dirección.
01:35
And I want to get serious for a moment
28
95400
1856
Y quiero hablar seriamente por un instante
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
y decirles por qué va en una dirección muy específica,
01:40
Because it's not evolving randomly.
30
100840
2200
puesto no está evolucionando al azar.
Hay un objetivo oculto dirigiendo la dirección
01:44
There's a hidden goal driving the direction
31
104000
2016
de toda la tecnología que hacemos
01:46
of all of the technology we make,
32
106040
2136
y ese objetivo es la carrera por nuestra atención.
01:48
and that goal is the race for our attention.
33
108200
2920
01:52
Because every news site,
34
112840
2736
Porque cada sitio nuevo:
01:55
TED, elections, politicians,
35
115600
2736
TED, elecciones, políticos,
01:58
games, even meditation apps
36
118360
1976
juegos, incluso las aplicaciones de meditación,
02:00
have to compete for one thing,
37
120360
1960
tienen que competir por una cosa,
nuestra atención
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
y ésta es limitada.
02:08
And the best way to get people's attention
40
128440
2416
La mejor manera de capturar la atención de las personas,
02:10
is to know how someone's mind works.
41
130880
2440
es saber cómo funciona la mente de alguien.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Hay una cantidad de técnicas de persuasión que aprendí en un laboratorio
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
de la universidad llamado: 'Lab. de Tecnología Persuasiva,'
02:19
to get people's attention.
44
139680
1600
para capturar la atención de la gente.
02:21
A simple example is YouTube.
45
141880
1480
Un ejemplo sencillo es YouTube.
YouTube quiere maximizar el tiempo que Uds. pasan allí.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
Entonces, ¿qué es lo que hacen?
02:28
They autoplay the next video.
48
148840
2280
Reproducen el siguiente vídeo automáticamente
02:31
And let's say that works really well.
49
151760
1816
y digamos que funciona muy bien.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Están consiguiendo un poco más de tiempo de la gente.
Bueno, si son Netflix, miran eso y dicen:
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
"Eso está reduciendo mi cuota de mercado,
02:38
well, that's shrinking my market share,
52
158440
1858
así que voy a reproducir el siguiente episodio automáticamente."
02:40
so I'm going to autoplay the next episode.
53
160322
2000
02:43
But then if you're Facebook,
54
163320
1376
Pero si son Facebook, dicen: "eso está reduciendo toda mi cuota de mercado,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
así que ahora debo reproducir todos los vídeos del inicio automáticamente,
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
antes de esperar a que hagan clic en reproducir."
02:52
So the internet is not evolving at random.
58
172320
3160
Por eso Internet no está evolucionando al azar.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
La razón por la que parece que nos atrapa en la manera que lo hace,
03:00
is because of this race for attention.
60
180760
2376
se debe a esta carrera por la atención.
Sabemos adónde va esto.
03:03
We know where this is going.
61
183160
1416
03:04
Technology is not neutral,
62
184600
1520
La tecnología no es neutral.
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
Y se convierte en esta carrera hacia el fondo del tronco encefálico;
03:10
of who can go lower to get it.
64
190760
2200
de quién puede ir más bajo para ganarla.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Permítanme darles un ejemplo de Snapchat.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Si no lo sabían, Snapchat es el medio número uno
que los adolescentes de EE. EE. usan para comunicarse.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Si son como yo y usan mensajes de texto para comunicarse,
03:26
Snapchat is that for teenagers,
69
206480
1776
eso es Snapchat para los adolescentes
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
y hay como cien millones de ellos que la usan.
Ellos inventaron una función llamada Snapstreaks,
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
la cual muestra el número de días seguidos
03:33
which shows the number of days in a row
72
213240
1896
que dos personas se han comunicado entre sí.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
En otras palabras, lo que acaban de hacer,
03:39
is they gave two people something they don't want to lose.
75
219680
2960
es que le dieron a dos personas algo que no quieren perder.
Ya que si son un(a) adolescente y tienen 150 días seguidos,
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
no quieren que eso se esfume.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Así que piensen en los pequeños bloques de tiempo,
que eso programa en las mentes de los niños.
Esto no es teórico: cuando los niños van de vacaciones,
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
se ha demostrado que dan sus contraseñas
a hasta cinco de sus amigos para mantener su Snapstreaks activo,
03:59
to keep their Snapstreaks going,
81
239800
2216
incluso cuando no pueden hacerlo.
04:02
even when they can't do it.
82
242040
2016
Y tienen como 30 de estas cosas,
04:04
And they have, like, 30 of these things,
83
244080
1936
así que, tienen que tomar fotos o simplemente imágenes de paredes
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
04:09
or ceilings just to get through their day.
85
249440
2480
o techos sólo para pasar su día.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Ni siquiera es como si conversaran realmente.
04:15
We have a temptation to think about this
87
255920
1936
Tenemos la tentación de pensar en esto como:
04:17
as, oh, they're just using Snapchat
88
257880
2696
"Oh, sólo están usando Snapchat
de la forma en que solíamos chismear en el teléfono.
04:20
the way we used to gossip on the telephone.
89
260600
2016
04:22
It's probably OK.
90
262640
1200
Probablemente esté bien."
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Pero lo que esto omite es que en la década de 1970,
04:26
when you were just gossiping on the telephone,
92
266760
2615
cuando estaban simplemente chismeando en el teléfono,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
no habían cien ingenieros al otro lado de la pantalla,
04:32
who knew exactly how your psychology worked
94
272440
2056
que sabían exactamente cómo funcionaba su psicología
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
y los orquestaban en un doble vínculo entre sí.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Ahora, si esto les hace sentir un poco de indignación,
04:42
notice that that thought just comes over you.
97
282680
2576
noten que ese pensamiento simplemente les llega.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
La indignación también es una manera muy buena de capturar su atención,
04:49
because we don't choose outrage.
99
289880
1576
ya que no elegimos la indignación,
04:51
It happens to us.
100
291480
1416
es algo que nos sucede.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Y si son la sección de novedades de Facebook, quiéranlo o no,
04:54
whether you'd want to or not,
102
294800
1416
de hecho se benefician cuando hay indignación,
04:56
you actually benefit when there's outrage.
103
296240
2736
porque la indignación no sólo programa
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
una reacción emocional en Uds. en el tiempo/espacio,
05:05
We want to share that outrage with other people.
106
305440
2416
sino que queremos compartir esa indignación con otros.
05:07
So we want to hit share and say,
107
307880
1576
Queremos dar clic en compartir y decir:
05:09
"Can you believe the thing that they said?"
108
309480
2040
"¿Pueden creer lo que dijeron?"
05:12
And so outrage works really well at getting attention,
109
312520
3376
Y así, la indignación funciona muy bien para capturar la atención,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
de modo que si Facebook tuviera la opción
entre mostrarles publicaciones indignantes o tranquilas,
05:19
and a calm newsfeed,
111
319840
1320
ellos querrían mostrarles las indignantes,
05:22
they would want to show you the outrage feed,
112
322120
2136
no porque alguien eligió conscientemente eso,
05:24
not because someone consciously chose that,
113
324280
2056
05:26
but because that worked better at getting your attention.
114
326360
2680
sino porque eso funcionó mejor, para capturar su atención.
Y...
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
La sala de control de noticias no es responsable de nosotros.
Sólo es responsable de maximizar la atención.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
También es responsable,
05:40
because of the business model of advertising,
118
340600
2376
debido al modelo de negocio de la publicidad,
para cualquiera que pueda pagar más, entrar en la sala de control
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
05:46
and say, "That group over there,
120
346360
1576
y decir: "Ese grupo allá,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
quiero programar estos pensamientos en sus mentes."
05:51
So you can target,
122
351760
1200
Así que se puede elegir como blanco...
se puede apuntar con precisión una mentira,
05:54
you can precisely target a lie
123
354040
1936
directamente a las personas que son más susceptibles.
05:56
directly to the people who are most susceptible.
124
356000
2920
Y debido a que esto es rentable, sólo va a empeorar.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Así que hoy estoy aquí,
06:05
So I'm here today
126
365040
1800
porque los costos son muy evidentes.
06:08
because the costs are so obvious.
127
368160
2000
06:12
I don't know a more urgent problem than this,
128
372280
2136
No conozco un problema más urgente que este,
06:14
because this problem is underneath all other problems.
129
374440
3120
porque este problema está debajo de todos los demás problemas.
06:18
It's not just taking away our agency
130
378720
3176
No sólo se está llevando nuestra voluntad,
06:21
to spend our attention and live the lives that we want,
131
381920
2600
de invertir nuestra atención y vivir las vidas que queremos;
06:25
it's changing the way that we have our conversations,
132
385720
3536
está cambiando la manera en que tenemos nuestras conversaciones,
06:29
it's changing our democracy,
133
389280
1736
está cambiando nuestra democracia
y está cambiando nuestra habilidad de tener conversaciones
06:31
and it's changing our ability to have the conversations
134
391040
2616
06:33
and relationships we want with each other.
135
393680
2000
y las relaciones que queremos unos con otros.
Y afecta a todos,
06:37
And it affects everyone,
136
397160
1776
06:38
because a billion people have one of these in their pocket.
137
398960
3360
porque un billón de personas tienen uno de estos en su bolsillo.
06:45
So how do we fix this?
138
405360
1400
Entonces, ¿cómo arreglamos esto?
Necesitamos hacer tres cambios radicales
06:49
We need to make three radical changes
139
409080
2936
en la tecnología y en nuestra sociedad.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
El primero es que debemos reconocer que somos persuasibles.
07:00
Once you start understanding
142
420840
1376
Una vez que empiezan a entender,
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
que su mente puede ser programada para que tenga pequeños pensamientos,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
o pequeños bloques de tiempo que no eligieron,
07:07
wouldn't we want to use that understanding
145
427640
2056
¿no querríamos usar esa comprensión
07:09
and protect against the way that that happens?
146
429720
2160
y protegernos de la forma en que eso sucede?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Pienso que necesitamos vernos fundamentalmente de una nueva forma.
07:15
It's almost like a new period of human history,
148
435920
2216
Es casi como un nuevo período de la historia humana, como la Ilustración;
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
pero casi una especie de iluminación autoconsciente;
07:21
that we can be persuaded,
151
441640
2080
que podemos ser persuadidos
07:24
and there might be something we want to protect.
152
444320
2240
y podría haber algo que queramos proteger.
07:27
The second is we need new models and accountability systems
153
447400
4576
El segundo es que necesitamos nuevos modelos y sistemas de responsabilidad,
para que a medida que el mundo mejore y se vuelva más persuasivo con el tiempo,
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
- porque sólo va a hacerse más y más persuasivo -
07:37
that the people in those control rooms
156
457880
1856
que las personas en esas salas de control
07:39
are accountable and transparent to what we want.
157
459760
2456
sean responsables y transparentes con lo que queremos.
07:42
The only form of ethical persuasion that exists
158
462240
2696
La única forma ética de persuasión que existe,
07:44
is when the goals of the persuader
159
464960
1936
es cuando los objetivos del persuasor
07:46
are aligned with the goals of the persuadee.
160
466920
2200
están alineados con los objetivos del persuadido
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
y eso implica cuestionar cosas grandes, como el modelo de negocio publicitario.
07:54
Lastly,
162
474720
1576
Finalmente,
07:56
we need a design renaissance,
163
476320
1680
necesitamos un renacimiento del diseño,
porque una vez que se tiene esta visión de la naturaleza humana,
07:59
because once you have this view of human nature,
164
479080
3056
de que se puede controlar las líneas de tiempo de un billón de personas,
08:02
that you can steer the timelines of a billion people --
165
482160
2976
08:05
just imagine, there's people who have some desire
166
485160
2736
sólo imaginen, hay gente que tiene algún deseo de lo que quieren hacer,
08:07
about what they want to do and what they want to be thinking
167
487920
2856
estar pensando y sintiendo
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
y cómo quieren ser informados
y simplemente todos somos halados en estas otras direcciones
08:13
and we're all just tugged into these other directions.
169
493960
2536
y hay un billón de personas arrastradas en todas estas diversas direcciones.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Bueno, imaginen todo un Renacimiento de diseño
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
que procurara orquestar la manera más exacta y poderosa
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
de invertir el tiempo para que estas líneas de tiempo ocurrieran.
08:28
And that would involve two things:
174
508600
1656
Eso implicaría dos cosas:
Una nos estaría protegiendo de las líneas de tiempo,
08:30
one would be protecting against the timelines
175
510280
2136
08:32
that we don't want to be experiencing,
176
512440
1856
que no queremos experimentar,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
los pensamientos que no queremos procesar,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
para no tener ese timbre, que cuando suena nos dispersa.
Y la segunda nos permitiría vivir la línea de tiempo que queremos.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
Permítanme darles un ejemplo concreto.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Digamos que su amigo(a) les cancela la cena hoy
08:48
and you are feeling a little bit lonely.
182
528760
3775
y se están sintiendo un poco solos.
08:52
And so what do you do in that moment?
183
532559
1817
Entonces, ¿qué hacen en ese momento?
Abren Facebook...
08:54
You open up Facebook.
184
534400
1279
08:56
And in that moment,
185
536960
1696
y en ese momento
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
los diseñadores en la sala de control, quieren programar exactamente una cosa,
lo cual es maximizar la cantidad de tiempo que pasan en la pantalla.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Ahora, en lugar de eso imaginen
si esos diseñadores crearan una línea de tiempo diferente
09:10
that was the easiest way, using all of their data,
189
550560
3496
que fuera la manera más fácil, - utilizando todos sus datos -
para ayudarles realmente a salir, con las personas que les importan.
09:14
to actually help you get out with the people that you care about?
190
554080
3096
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Tan sólo imagínenlo, eso aliviaría toda la soledad en la sociedad,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
si ese fuera el cronograma que Facebook quisiera hacer posible para la gente.
O imaginen una conversación diferente,
09:26
Or imagine a different conversation.
193
566160
1715
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
donde digamos que quisieran publicar algo súper controvertido en Facebook,
09:31
which is a really important thing to be able to do,
195
571240
2416
lo que es muy importante, - hablar de temas polémicos -.
09:33
to talk about controversial topics.
196
573680
1696
Y ahora mismo, cuando está esa gran caja de comentarios,
09:35
And right now, when there's that big comment box,
197
575400
2336
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
casi preguntándoles: ¿Qué quieres escribir?
En otras palabras, está programando una pequeña serie de cosas
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
que van a seguir haciendo en la pantalla.
09:44
you're going to continue to do on the screen.
200
584000
2136
E imaginen que en lugar de eso, hubiese otro botón allí diciendo:
09:46
And imagine instead that there was another button there saying,
201
586160
2976
¿Cuál sería la mejor forma de invertir tu tiempo?
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
Y hacen clic en "organizar una cena" y justo debajo del artículo dijera:
09:52
And right there underneath the item it said,
204
592840
2096
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
¿Quién quiere confirmar la cena?
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Y aún así tendrían una conversación acerca de algo controvertido,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
pero la tendría en el lugar más inspirador en su línea de tiempo,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
la que sería en casa esa noche, con un montón de amigos para hablar de ello.
10:06
to talk about it.
209
606760
1200
Imaginen que estamos operando, como un "buscar/reemplazar"
10:09
So imagine we're running, like, a find and replace
210
609000
3160
en todas las líneas de tiempo que actualmente nos manipulan
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
persuasivamente hacia más y más tiempo en la pantalla
y reemplazar todas esas líneas de tiempo,
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
con lo que sí queremos en nuestras vidas.
10:26
It doesn't have to be this way.
215
626960
1480
No tiene por qué ser de esta manera.
10:30
Instead of handicapping our attention,
216
630360
2256
En lugar de perjudicar nuestra atención,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
imaginen si usáramos toda esta información y todo este poder
10:35
and this new view of human nature
218
635480
1616
y esta nueva visión de la naturaleza humana
10:37
to give us a superhuman ability to focus
219
637120
2856
para darnos una habilidad sobrehumana de concentración
y una habilidad sobrehumana de poner nuestra atención en lo que nos importa,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
y una habilidad sobrehumana de tener las conversaciones
10:44
and a superhuman ability to have the conversations
221
644160
2616
10:46
that we need to have for democracy.
222
646800
2000
que necesitamos tener en la democracia.
10:51
The most complex challenges in the world
223
651600
2680
Los desafíos más complejos en el mundo,
10:56
require not just us to use our attention individually.
224
656280
3120
no sólo requieren de nosotros que usemos nuestra atención individualmente.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
Nos exigen que utilicemos nuestra atención y la coordinemos colectivamente.
11:04
Climate change is going to require that a lot of people
226
664440
2816
El cambio climático va a requerir que mucha gente,
11:07
are being able to coordinate their attention
227
667280
2096
sea capaz de coordinar su atención en conjunto de la manera más poderosa.
11:09
in the most empowering way together.
228
669400
1896
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
E imaginen crear una habilidad sobrehumana para hacer eso.
A veces los problemas más urgentes e importantes del mundo,
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
no son estas cosas futuras e hipotéticas, que podríamos crear en el futuro.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
A veces los problemas más urgentes,
11:30
are the ones that are right underneath our noses,
233
690320
2336
son los que están justo ante nuestras narices;
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
las cosas que ya están dirigiendo los pensamientos de un billón de personas.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Y tal vez en lugar de entusiasmarnos con la nueva realidad aumentada
y la realidad virtual y estas cosas geniales que podrían suceder,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
- las cuales van a ser susceptibles a la misma carrera por la atención -
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
11:46
if we could fix the race for attention
238
706640
2176
pudiéramos arreglar la carrera por la atención,
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
respecto a lo que ya está en el bolsillo de un billón de personas.
Tal vez en lugar de emocionarnos
11:52
Maybe instead of getting excited
240
712040
1576
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
por las nuevas, emocionantes y más lujosas aplicaciones educativas,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
podríamos arreglar la manera en que las mentes de los niños son manipuladas,
12:00
into sending empty messages back and forth.
243
720760
2480
para que envíen mensajes vanos de un lado a otro.
(Aplausos)
12:04
(Applause)
244
724040
4296
12:08
Maybe instead of worrying
245
728360
1256
Quizá en lugar de preocuparnos
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
por un futuro hipotético de inteligencias artificiales fugitivas,
12:13
that are maximizing for one goal,
247
733440
1880
que se están maximizando para un objetivo,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
podríamos solucionar la inteligencia artificial fugitiva,
12:19
that already exists right now,
249
739360
2056
que ya existe en este momento,
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
las cuales son estas secciones de publicaciones
que se maximizan para una cosa.
Es casi como en lugar de huir a colonizar nuevos planetas,
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
arreglaramos el planeta en el que ya estamos.
12:32
(Applause)
253
752000
4120
(Aplausos)
Solucionar este problema
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
supone tener una infraestructura crítica, para solucionar cualquier otro problema.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
No hay nada en sus vidas o en nuestros problemas colectivos,
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
que no requiera de nuestra capacidad de enfocarnos en las cosas que nos importan.
12:55
At the end of our lives,
258
775800
1240
Al final de nuestras vidas,
12:58
all we have is our attention and our time.
259
778240
2640
todo lo que tenemos es nuestra atención y nuestro tiempo.
13:01
What will be time well spent for ours?
260
781800
1896
¿Cuál sería la mejor manera de invertir nuestro tiempo?
13:03
Thank you.
261
783720
1216
Gracias.
13:04
(Applause)
262
784960
3120
(Aplausos)
Gracias.
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, gracias. Quédate aquí un segundo.
13:20
First of all, thank you.
264
800720
1336
Primero que todo, gracias.
Sé que te pedimos que hicieras esta charla con muy poca antelación
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
y has tenido una semana bastante estresante;
compilando esto, así que gracias.
13:27
getting this thing together, so thank you.
267
807120
2440
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Algunas personas que escuchan esto, podrían decir:
"Lo que discutes es la adicción y todas estas personas haciendo estas cosas,"
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
para ellos es muy interesante. Todas estas decisiones de diseño
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
han construido contenido de usuario, que es increíblemente interesante.
13:42
The world's more interesting than it ever has been.
272
822600
2416
El mundo es más interesante que nunca.
¿Qué hay de malo en eso?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: Creo que es muy interesante.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Una forma de ver esto es si eres YouTube, por ejemplo,
13:52
you want to always show the more interesting next video.
276
832640
2656
quieres mostrar siempre el siguiente vídeo más interesante,
quieres mejorar en sugerir ese siguiente vídeo,
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
pero incluso si pudieras proponer el siguiente vídeo perfecto,
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
que todo el mundo querría ver,
simplemente sería mejor y mejor en mantenerte enganchado a la pantalla.
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
Entonces, lo que falta en esa ecuación es averiguar cuáles serían nuestros límites.
14:05
So what's missing in that equation
281
845880
1656
14:07
is figuring out what our boundaries would be.
282
847560
2136
Querrías que YouTube supiera algo sobre, por ejemplo, quedarte dormido.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
14:12
The CEO of Netflix recently said,
284
852960
1616
El CEO de Netflix hace poco dijo:
"Nuestros mayores competidores son Facebook, YouTube y el sueño."
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Así que lo que necesitamos reconocer, es que la arquitectura humana es limitada
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
y que tenemos ciertos límites o dimensiones de nuestras vidas,
14:24
that we want to be honored and respected,
288
864840
1976
que queremos que sean honrados y respetados
14:26
and technology could help do that.
289
866840
1816
y la tecnología podría ayudar a hacer eso.
14:28
(Applause)
290
868680
2616
(Aplausos)
CA: Quiero decir, ¿podrías hacer el caso de que parte del problema aquí,
14:31
CA: I mean, could you make the case
291
871320
1696
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
es que tenemos un modelo ingenuo de la naturaleza humana?
Mucho de esto se justifica en términos de preferencia humana,
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
donde tenemos estos algoritmos, que hacen un trabajo increíble
14:44
of optimizing for human preference,
295
884520
1696
de optimización para la preferencia humana, pero ¿qué preferencia?
14:46
but which preference?
296
886240
1336
14:47
There's the preferences of things that we really care about
297
887600
3496
Están las preferencias de las cosas que realmente nos importan,
- cuando pensamos en ellas -
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
versus las preferencias de lo que sólo hacemos clic instintivamente.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Si pudiéramos implantar esa visión más matizada
de la naturaleza humana en cada diseño, ¿sería eso un paso adelante?
15:00
would that be a step forward?
301
900280
1456
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Absolutamente. Creo que hoy día
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
es como si básicamente toda nuestra tecnología,
fuera sólo preguntarle a nuestro cerebro reptiliano:
15:07
what's the best way to just impulsively get you to do
304
907280
2496
¿Cuál es la mejor forma de lograr que hagas impulsivamente
15:09
the next tiniest thing with your time,
305
909800
2136
la siguiente cosa más pequeña con tu tiempo, en vez de preguntarte:
15:11
instead of asking you in your life
306
911960
1656
15:13
what we would be most time well spent for you?
307
913640
2176
¿Cuál sería la mejor forma de invertir tu tiempo?
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
¿Cuál sería el cronograma perfecto que incluyera algo para después,
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
o aquí en TED en tu último día?
CA: Así que, si Facebook y Google y todo el mundo nos dijeran primero:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"Oye, ¿quieres que optimicemos tu cerebro reflexivo o tu cerebro lagarto?
15:28
or your lizard brain? You choose."
312
928280
1656
Tú eliges."
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Correcto. Eso sería una manera. Sí.
CA: Usaste la palabra "persuasibilidad," esa palabra me interesa,
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
15:37
because to me there's two different types of persuadability.
315
937240
2856
porque para mí hay dos clases diferentes de persuasión.
Hay una persuasibilidad que estamos intentando ahora mismo:
15:40
There's the persuadability that we're trying right now
316
940120
2536
15:42
of reason and thinking and making an argument,
317
942680
2176
Razonar, pensar y argumentar.
15:44
but I think you're almost talking about a different kind,
318
944880
2696
Pero creo que estás hablando de otra clase,
un tipo de persuasión más visceral;
15:47
a more visceral type of persuadability,
319
947590
1906
de ser persuadido sin siquiera saber que estás pensando.
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
TH: Exacto. La razón por la que me preocupo tanto por este problema,
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
es porque estudié en el Laboratorio de Tecnología Persuasiva en Stanford,
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
el cual enseña a la gente exactamente estas técnicas.
Hay conferencias y talleres que enseñan todas estas formas encubiertas,
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
de capturar la atención de la gente y orquestar sus vidas.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
Y se debe a que la mayoría de la gente no sabe que eso existe,
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
por eso esta conversación es tan importante.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, tú y yo, ambos conocemos a muchas personas de todas estas compañías.
16:15
There are actually many here in the room,
329
975520
1976
De hecho, hay muchos de ellos aquí en la sala
16:17
and I don't know about you, but my experience of them
330
977520
2477
y no sé tú, pero mi experiencia con ellos
no es que haya escasez de buena intención.
16:20
is that there is no shortage of good intent.
331
980021
2075
La gente quiere un mundo mejor.
16:22
People want a better world.
332
982120
2176
16:24
They are actually -- they really want it.
333
984320
3520
De hechos, ellos realmente lo quieren.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Y no creo que estés diciendo que sean personas malvadas.
16:32
It's a system where there's these unintended consequences
335
992520
3696
Es un sistema donde estas consecuencias no deseadas, se han salido de control...
16:36
that have really got out of control --
336
996240
1856
TH: por esta carrera por la atención, sí.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
Es la carrera clásica hasta el final,
cuando tienes que capturar la atención y es muy tensa.
16:42
and it's so tense.
339
1002840
1216
La única manera de obtener más es ir más bajo en el tronco encefálico,
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
para ir más bajo en la indignación y las emociones,
16:49
to go lower into the lizard brain.
342
1009280
1696
para ir más abajo en el cerebro reptiliano.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Bueno, muchas gracias por ayudarnos a todos a ser un poco más sabios en esto.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, gracias. TH: Muchas gracias.
16:57
(Applause)
345
1017280
2240
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7