How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views

2017-07-28 ・ TED


New videos

How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Morgane Quilfen Relecteur: Claire Ghyselen
00:12
I want you to imagine
0
12960
1200
Imaginez
entrer dans une salle,
00:15
walking into a room,
1
15000
1200
00:17
a control room with a bunch of people,
2
17480
2136
une salle de contrôle avec des personnes,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
une centaine de personnes autour d'un bureau avec des boutons
00:23
and that that control room
4
23280
1520
et que cette salle de contrôle
00:25
will shape the thoughts and feelings
5
25680
3696
façonnera les pensées et émotions
00:29
of a billion people.
6
29400
1240
d'un milliard de personnes.
00:32
This might sound like science fiction,
7
32560
1880
Cela semble être de la science-fiction
00:35
but this actually exists
8
35320
2216
mais cela existe
00:37
right now, today.
9
37560
1200
actuellement, aujourd'hui.
Je le sais car j'étais dans une de ces salles de contrôle.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
J'étais déontologue en conception chez Google,
00:44
I was a design ethicist at Google,
11
44159
2297
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
où j'ai étudié comment orienter les pensées des gens de façon éthique.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Nous ne parlons pas de comment les quelques personnes
00:53
working at a handful of technology companies
14
53480
2536
travaillant dans les quelques entreprises en technologie
orienteront, à travers leurs choix, les pensées d'un milliard de personnes.
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
01:02
Because when you pull out your phone
16
62400
1736
Quand vous sortez votre téléphone
et qu'ils conçoivent son fonctionnement et le fil d'actualités,
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
cela organise de petits blocs de temps dans notre esprit.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Si vous voyez une notification, cela vous programme des pensées
01:13
that maybe you didn't intend to have.
20
73680
2040
que vous n'aviez peut-être pas prévues.
01:16
If you swipe over that notification,
21
76400
2616
Si vous cliquez sur cette notification,
cela vous programme à passer un peu de temps
01:19
it schedules you into spending a little bit of time
22
79040
2381
01:21
getting sucked into something
23
81445
1381
à être aspiré par quelque chose
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
que vous n'aviez pas prévu.
01:27
When we talk about technology,
25
87320
1520
En parlant de technologie,
nous en parlons comme d'une opportunité ouverte
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
pouvant aller n'importe où.
01:35
And I want to get serious for a moment
28
95400
1856
Je vais être sérieux un instant
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
et vous dire pourquoi cela va dans une direction spécifique.
01:40
Because it's not evolving randomly.
30
100840
2200
Cela n'évolue pas aléatoirement.
Il y a un but caché donnant la direction
01:44
There's a hidden goal driving the direction
31
104000
2016
de toutes les technologies créées
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
et ce but est la course pour notre attention.
01:52
Because every news site,
34
112840
2736
Tout nouveau site --
01:55
TED, elections, politicians,
35
115600
2736
TED, les élections, les politiques,
01:58
games, even meditation apps
36
118360
1976
les jeux, même les applis de méditation --
02:00
have to compete for one thing,
37
120360
1960
doivent se battre pour une chose :
notre attention,
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
et elle est limitée.
02:08
And the best way to get people's attention
40
128440
2416
La meilleure façon d'obtenir l'attention des gens
02:10
is to know how someone's mind works.
41
130880
2440
est de connaître le fonctionnement de leur cerveau.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Il y a des techniques de persuasion
que j'ai apprises dans un labo, le Labo de la Technologie Persuasive,
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
02:19
to get people's attention.
44
139680
1600
afin d'obtenir l'attention des gens.
02:21
A simple example is YouTube.
45
141880
1480
Un exemple simple est YouTube.
YouTube veut maximiser le temps que vous y passez.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
Que font-ils ?
02:28
They autoplay the next video.
48
148840
2280
Ils lancent automatiquement la vidéo suivante.
02:31
And let's say that works really well.
49
151760
1816
Disons que cela fonctionne très bien.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Ils obtiennent un peu plus du temps des gens.
Si vous êtes Netflix, vous voyez cela et pensez
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
02:38
well, that's shrinking my market share,
52
158440
1858
que cela réduit votre part de marché,
02:40
so I'm going to autoplay the next episode.
53
160322
2000
alors vous lancez automatiquement l'épisode suivant.
02:43
But then if you're Facebook,
54
163320
1376
Mais si vous êtes Facebook,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
vous pensez que cela réduit votre part de marché,
alors vous lancez automatiquement toutes les vidéos
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
au lieu d'attendre que l'on clique.
02:52
So the internet is not evolving at random.
58
172320
3160
Internet n'évolue pas aléatoirement.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
La raison pour laquelle on a l'impression qu'il nous aspire ainsi
03:00
is because of this race for attention.
60
180760
2376
est à cause de cette course à l'attention.
Nous savons où cela va.
03:03
We know where this is going.
61
183160
1416
03:04
Technology is not neutral,
62
184600
1520
La technologie n'est pas neutre
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
et cela devient cette course à la base du tronc cérébral
03:10
of who can go lower to get it.
64
190760
2200
de qui s'abaissera le plus pour l'obtenir.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Laissez-moi vous présenter un exemple de Snapchat.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Si vous l'ignorez, Snapchat est le moyen de communication principal
des adolescents aux Etats-Unis.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Si vous êtes comme moi et utilisez les SMS pour communiquer,
03:26
Snapchat is that for teenagers,
69
206480
1776
Snapchat est l'équivalent pour ados
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
et un million d'entre eux l'utilisent.
Ils ont inventé une fonctionnalité, Snapstreak,
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
03:33
which shows the number of days in a row
72
213240
1896
qui montre le nombre de jours d'affilée
où deux personnes ont communiqué l'une avec l'autre.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
En d'autres mots, ce qu'ils ont fait
03:39
is they gave two people something they don't want to lose.
75
219680
2960
c'est donner à deux personnes une chose à ne pas perdre.
Si vous êtes un adolescent et avez 150 jours d'affilée,
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
vous ne voulez pas les perdre.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Pensez aux petits blocs de temps prévus dans l'esprit des enfants.
Ce n'est pas théorique : en vacances,
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
ils donnent leur mot de passe à des amis, jusqu'à cinq d'entre eux,
03:59
to keep their Snapstreaks going,
81
239800
2216
pour préserver leurs Snapstreaks,
même s'ils ne le peuvent pas.
04:02
even when they can't do it.
82
242040
2016
Et ils en ont une trentaine,
04:04
And they have, like, 30 of these things,
83
244080
1936
ils doivent donc prendre des photos de photos ou de murs
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
04:09
or ceilings just to get through their day.
85
249440
2480
ou de plafonds pour passer la journée.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Ils n'ont même pas de réelles conversations.
04:15
We have a temptation to think about this
87
255920
1936
Nous avons la tentation de dire
04:17
as, oh, they're just using Snapchat
88
257880
2696
qu'ils utilisent Snapchat
04:20
the way we used to gossip on the telephone.
89
260600
2016
comme nous utilisions le téléphone.
04:22
It's probably OK.
90
262640
1200
C'est probablement normal.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Ce que nous oublions c'est que dans les années 70,
04:26
when you were just gossiping on the telephone,
92
266760
2615
quand vous papotiez au téléphone,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
il n'y avait pas 100 ingénieurs de l'autre côté de l'écran
04:32
who knew exactly how your psychology worked
94
272440
2056
connaissant exactement votre psychologie
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
et orchestrant de vous confiner ensemble à une contrainte.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Si cela vous scandalise un peu,
04:42
notice that that thought just comes over you.
97
282680
2576
remarquez que cette pensée vous envahit.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
L'indignation est une très bonne façon d'obtenir votre attention
04:49
because we don't choose outrage.
99
289880
1576
car on ne choisit pas de s'indigner.
04:51
It happens to us.
100
291480
1416
Cela nous arrive.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Le fil d'actualités de Facebook,
04:54
whether you'd want to or not,
102
294800
1416
qu'il le veuille ou non,
04:56
you actually benefit when there's outrage.
103
296240
2736
tire profit de l'indignation.
Car l'indignation ne prévoit pas simplement une réaction
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
à un moment et dans un espace émotionnels pour vous.
05:05
We want to share that outrage with other people.
106
305440
2416
Nous voulons partager cette indignation avec d'autres.
05:07
So we want to hit share and say,
107
307880
1576
Nous voulons partager et dire :
05:09
"Can you believe the thing that they said?"
108
309480
2040
« Tu crois à ce qu'ils ont dit ? »
05:12
And so outrage works really well at getting attention,
109
312520
3376
L'indignation fonctionne très bien pour attirer l'attention,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
si bien que si Facebook devait choisir entre un fil d'actualités scandaleuses
05:19
and a calm newsfeed,
111
319840
1320
et un fil d'actualités calmes,
ils choisiraient les actualités scandaleuses
05:22
they would want to show you the outrage feed,
112
322120
2136
05:24
not because someone consciously chose that,
113
324280
2056
non pas consciemment
05:26
but because that worked better at getting your attention.
114
326360
2680
mais parce que cela attire plus votre attention.
La salle de contrôle du fil d'actualités n'a pas de comptes à nous rendre.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Elle doit simplement maximiser l'attention.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
Elle est aussi responsable,
05:40
because of the business model of advertising,
118
340600
2376
à cause du modèle de publicité,
envers quiconque payant le plus et entrant dans la salle de contrôle
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
05:46
and say, "That group over there,
120
346360
1576
en disant : « Ce groupe-là,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
je veux établir ces pensées dans leur esprit. »
05:51
So you can target,
122
351760
1200
Vous pouvez cibler,
vous pouvez cibler précisément un mensonge
05:54
you can precisely target a lie
123
354040
1936
directement vers les gens les plus susceptibles.
05:56
directly to the people who are most susceptible.
124
356000
2920
Puisque c'est rentable, cela ne va qu'empirer.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Je suis ici aujourd'hui
06:05
So I'm here today
126
365040
1800
car les coûts sont évidents.
06:08
because the costs are so obvious.
127
368160
2000
06:12
I don't know a more urgent problem than this,
128
372280
2136
Je ne connais aucun problème plus urgent
06:14
because this problem is underneath all other problems.
129
374440
3120
car ce problème est sous-jacent à tous les autres problèmes.
06:18
It's not just taking away our agency
130
378720
3176
Non seulement il compromet nos efforts
06:21
to spend our attention and live the lives that we want,
131
381920
2600
pour concentrer notre attention, vivre notre vie désirée,
06:25
it's changing the way that we have our conversations,
132
385720
3536
il change aussi la façon dont nous tenons nos conversations,
06:29
it's changing our democracy,
133
389280
1736
il change notre démocratie
et il change notre capacité à avoir ces conversations
06:31
and it's changing our ability to have the conversations
134
391040
2616
06:33
and relationships we want with each other.
135
393680
2000
et ces relations que nous voulons avoir.
Il affecte tout le monde
06:37
And it affects everyone,
136
397160
1776
06:38
because a billion people have one of these in their pocket.
137
398960
3360
car un milliard de personnes ont ceci dans leur poche.
06:45
So how do we fix this?
138
405360
1400
Comment arranger cela ?
Nous devons effectuer trois changements radicaux
06:49
We need to make three radical changes
139
409080
2936
en termes de technologie et de société.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Premièrement, nous devons reconnaître que nous sommes influençables.
07:00
Once you start understanding
142
420840
1376
Une fois que nous comprenons
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
que l'on peut programmer des petites pensées
ou des blocs de temps non désirés dans notre esprit,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
07:07
wouldn't we want to use that understanding
145
427640
2056
n'utiliserions-nous pas cette connaissance
07:09
and protect against the way that that happens?
146
429720
2160
et ne nous protégerions-nous pas ?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Nous devons avoir une vision fondamentalement nouvelle de nous-mêmes.
07:15
It's almost like a new period of human history,
148
435920
2216
Comme une nouvelle période de l'histoire,
comme le Siècle des Lumières
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
et aussi comme une prise de conscience de soi,
07:21
that we can be persuaded,
151
441640
2080
nous sommes influençables
07:24
and there might be something we want to protect.
152
444320
2240
et il y a peut-être quelque chose à protéger.
07:27
The second is we need new models and accountability systems
153
447400
4576
Deuxièmement, il nous faut de nouveaux modèles
et systèmes de responsabilisation
pour que, alors que le monde s'améliore, devient de plus en plus persuasif --
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
il ne peut que devenir de plus en plus persuasif --
07:37
that the people in those control rooms
156
457880
1856
les gens dans ces salles de contrôle
07:39
are accountable and transparent to what we want.
157
459760
2456
soient responsables, transparents quant à nos désirs.
07:42
The only form of ethical persuasion that exists
158
462240
2696
La seule forme de persuasion éthique qui existe
07:44
is when the goals of the persuader
159
464960
1936
c'est si les objectifs de celui qui persuade
07:46
are aligned with the goals of the persuadee.
160
466920
2200
sont alignés avec ceux de celui qui est persuadé.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
Il faut remettre en question des choses
comme le modèle commercial de la publicité.
07:54
Lastly,
162
474720
1576
Finalement,
07:56
we need a design renaissance,
163
476320
1680
il faut un renouvellement de la conception
car une fois que vous avez cette vision de la nature humaine,
07:59
because once you have this view of human nature,
164
479080
3056
vous pouvez contrôler les calendriers d'un milliard de personnes.
08:02
that you can steer the timelines of a billion people --
165
482160
2976
08:05
just imagine, there's people who have some desire
166
485160
2736
Imaginez, il y a des gens qui ont des désirs
08:07
about what they want to do and what they want to be thinking
167
487920
2856
quant à ce qu'ils veulent faire et ce qu'ils veulent penser
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
et ce qu'ils veulent ressentir et comment ils veulent être informés
08:13
and we're all just tugged into these other directions.
169
493960
2536
et ils sont traînés dans d'autres directions.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Un milliard de personnes sont traînées dans d'autres directions.
08:20
Well, imagine an entire design renaissance
171
500240
2056
Imaginez une renaissance de la conception
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
qui essayait d'orchestrer la façon exacte
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
et la plus stimulante de bien passer son temps.
08:28
And that would involve two things:
174
508600
1656
Cela impliquerait deux choses :
08:30
one would be protecting against the timelines
175
510280
2136
nous protéger de ces calendriers
08:32
that we don't want to be experiencing,
176
512440
1856
selon lesquels nous ne voulons pas vivre,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
ces pensées que nous ne voulons pas avoir
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
pour que lorsque la sonnerie retentit, cela ne nous accapare pas ;
deuxièmement, nous pousser à vivre à notre propre rythme.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
Voici un exemple concret.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Aujourd'hui, votre ami annule votre dîner ensemble
08:48
and you are feeling a little bit lonely.
182
528760
3775
et vous vous sentez un peu seul.
08:52
And so what do you do in that moment?
183
532559
1817
Que faites-vous ?
08:54
You open up Facebook.
184
534400
1279
Vous ouvrez Facebook.
08:56
And in that moment,
185
536960
1696
A ce moment-là,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
les concepteurs dans la salle de contrôle veulent une chose :
maximiser le temps passé devant votre écran.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Imaginez plutôt si ces concepteurs avaient un autre objectif :
09:10
that was the easiest way, using all of their data,
189
550560
3496
la façon la plus simple, grâce à toutes leurs données,
de vous aider à sortir avec les gens que vous aimez.
09:14
to actually help you get out with the people that you care about?
190
554080
3096
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Pensez-y, alléger la solitude dans notre société,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
si c'était le programme que Facebook voulait permettre aux gens.
Ou imaginez une autre conversation.
09:26
Or imagine a different conversation.
193
566160
1715
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Disons que vous vouliez poster quelque chose de controversé sur Facebook,
09:31
which is a really important thing to be able to do,
195
571240
2416
il est très important de pouvoir faire cela,
09:33
to talk about controversial topics.
196
573680
1696
parler de sujets controversés.
09:35
And right now, when there's that big comment box,
197
575400
2336
Actuellement, quand il y a cet espace commentaire,
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
il vous incite presque à écrire.
En d'autres mots, cela prévoit un petit programme de choses
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
que vous allez continuer à faire sur l'écran.
09:44
you're going to continue to do on the screen.
200
584000
2136
Imaginez plutôt qu'il y ait un autre bouton demandant :
09:46
And imagine instead that there was another button there saying,
201
586160
2976
« Comment utiliser au mieux votre temps ? »
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
« Organiser un dîner »
09:52
And right there underneath the item it said,
204
592840
2096
Juste en dessous, cela dit :
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
« Qui veut réserver pour le dîner ? »
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Vous auriez toujours une conversation sur un sujet controversé,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
mais vous l'auriez à l'endroit le plus stimulant :
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
chez vous, ce soir-là, avec des amis, pour en discuter.
10:06
to talk about it.
209
606760
1200
Imaginez que nous faisions un « chercher et remplacer »
10:09
So imagine we're running, like, a find and replace
210
609000
3160
sur tous les programmes qui nous traînent actuellement
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
vers de plus en plus de temps devant l'écran
et que nous remplacions ces programmes
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
par ce que nous voulons faire de notre vie.
10:26
It doesn't have to be this way.
215
626960
1480
Cela n'a pas à être ainsi.
10:30
Instead of handicapping our attention,
216
630360
2256
Au lieu d'handicaper notre attention,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
imaginez si nous utilisions toutes ces données, tout ce pouvoir,
10:35
and this new view of human nature
218
635480
1616
cette nouvelle vision de l'Homme
pour nous donner une capacité de concentration surhumaine,
10:37
to give us a superhuman ability to focus
219
637120
2856
une capacité surhumaine à prêter attention à ce qui nous importe,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
une capacité surhumaine à avoir les conversations
10:44
and a superhuman ability to have the conversations
221
644160
2616
10:46
that we need to have for democracy.
222
646800
2000
que nous devons avoir pour la démocratie.
10:51
The most complex challenges in the world
223
651600
2680
Les défis les plus complexes au monde
10:56
require not just us to use our attention individually.
224
656280
3120
ne nécessitent pas seulement notre attention individuelle.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
Ils nécessitent notre attention et une coordination collectives.
11:04
Climate change is going to require that a lot of people
226
664440
2816
Le changement climatique va nécessiter que beaucoup de gens
11:07
are being able to coordinate their attention
227
667280
2096
puissent coordonner leur attention
11:09
in the most empowering way together.
228
669400
1896
de la façon la plus stimulante, ensemble.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Imaginez créer une capacité surhumaine pour faire cela.
Parfois, les problèmes les plus importants et urgents du monde
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
ne sont pas ces choses hypothétiques que nous pourrions créer à l'avenir.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
Parfois, les problèmes les plus urgents
11:30
are the ones that are right underneath our noses,
233
690320
2336
sont ceux juste sous notre nez,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
les choses qui dirigent déjà les pensées d'un milliard de personnes.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Peut-être qu'au lieu d'être enthousiastes pour la réalité augmentée
et la réalité virtuelle et ces choses cool pouvant arriver
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
qui vont être sujettes à la même course à l'attention,
11:46
if we could fix the race for attention
238
706640
2176
si nous pouvions orienter la course à l'attention
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
ce qui est déjà dans les poches d'un milliard de personnes.
Au lieu d'être enthousiastes
11:52
Maybe instead of getting excited
240
712040
1576
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
pour les nouvelles applications éducatives excitantes, cool et sophistiquées,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
nous pourrions corriger comment les enfants sont manipulés
12:00
into sending empty messages back and forth.
243
720760
2480
et poussés à s'échanger des messages vides.
(Applaudissements)
12:04
(Applause)
244
724040
4296
12:08
Maybe instead of worrying
245
728360
1256
Au lieu de s'inquiéter
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
d'hypothétiques et futures intelligences artificielles folles
12:13
that are maximizing for one goal,
247
733440
1880
qui n'ont qu'un objectif,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
nous pourrions réparer l'intelligence artificielle folle
12:19
that already exists right now,
249
739360
2056
qui existe actuellement
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
et qui sont ces fils d'actualités qui n'ont qu'un objectif.
C'est presque comme si au lieu d'aller coloniser d'autres planètes,
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
nous pouvions réparer celle sur laquelle nous sommes.
12:32
(Applause)
253
752000
4120
(Applaudissements)
Résoudre ce problème
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
offrirait l'infrastructure essentielle à la résolution de tous les autres.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Il n'y a rien dans notre vie ou nos problèmes collectifs
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
ne nécessitant pas notre capacité à nous concentrer sur ce qui nous importe.
12:55
At the end of our lives,
258
775800
1240
A la fin de notre vie,
12:58
all we have is our attention and our time.
259
778240
2640
il ne nous reste que notre attention et notre temps.
13:01
What will be time well spent for ours?
260
781800
1896
Comment bien utiliser notre temps ?
13:03
Thank you.
261
783720
1216
Merci.
13:04
(Applause)
262
784960
3120
(Applaudissements)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chirs Anderson : Tristan, merci. Restez ici un instant.
13:20
First of all, thank you.
264
800720
1336
Tout d'abord, merci.
Cette présentation a été demandée il y a peu de temps
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
et votre semaine a été stressante,
travaillant à cela, alors merci.
13:27
getting this thing together, so thank you.
267
807120
2440
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Certains qui écoutent pourraient dire que vous vous plaignez d'addiction
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
et que pour les gens faisant cela, c'est vraiment intéressant.
13:38
All these design decisions
270
818200
1256
Les décisions de conception
13:39
have built user content that is fantastically interesting.
271
819480
3096
ont créé un contenu utilisation incroyablement intéressant.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Le monde est plus intéressant que jamais.
Qu'y a-t-il de mal à cela ?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris : Je pense que c'est intéressant.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Une façon de le voir est si vous êtes YouTube, par exemple,
13:52
you want to always show the more interesting next video.
276
832640
2656
vous voulez toujours montrer la vidéo la plus intéressante.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Vous voulez améliorer la suggestion de la prochaine vidéo,
13:58
but even if you could propose the perfect next video
278
838360
2456
mais même si vous pouviez proposer la vidéo parfaite
14:00
that everyone would want to watch,
279
840840
1656
que tout le monde voudrait voir,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
vous n'améliorerez que votre capacité à garder les gens devant l'écran.
14:05
So what's missing in that equation
281
845880
1656
Ce qu'il manque dans l'équation
14:07
is figuring out what our boundaries would be.
282
847560
2136
est de trouver où sont les limites.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Il faudrait que YouTube connaisse la notion de sommeil.
14:12
The CEO of Netflix recently said,
284
852960
1616
Le PDG de Netflix a dit récemment :
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
« Nos compétiteurs sont Facebook, YouTube et le sommeil. »
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Nous devons reconnaître que l'architecture humaine est limitée
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
et qu'il y a des limites ou des dimensions de notre vie
14:24
that we want to be honored and respected,
288
864840
1976
que nous voulons voir honorées et respectées
14:26
and technology could help do that.
289
866840
1816
et la technologie pourrait aider.
14:28
(Applause)
290
868680
2616
(Applaudissements)
14:31
CA: I mean, could you make the case
291
871320
1696
CA : Pourriez-vous dire
qu'une part du problème est que nous avons un modèle naïf de la nature humaine ?
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
Tant de choses sont justifiées par la préférence humaine,
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
nous avons ces algorithmes faisant un super boulot,
14:44
of optimizing for human preference,
295
884520
1696
optimisant pour la préférence humaine,
14:46
but which preference?
296
886240
1336
mais quelle préférence ?
14:47
There's the preferences of things that we really care about
297
887600
3496
Il y a les préférences des choses qui nous importent
quand nous y pensons
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
versus celles de ce sur quoi nous avons instinctivement cliqué.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Si nous pouvions implanter une vue plus nuancée de la nature humaine
dans la conception,
15:00
would that be a step forward?
301
900280
1456
cela serait-il du progrès ?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH : Absolument. Actuellement,
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
c'est comme si notre technologie demandait à notre cerveau reptilien
15:07
what's the best way to just impulsively get you to do
304
907280
2496
comment, impulsivement, nous faire faire de notre temps la prochaine petite chose
15:09
the next tiniest thing with your time,
305
909800
2136
15:11
instead of asking you in your life
306
911960
1656
au lieu de demander
15:13
what we would be most time well spent for you?
307
913640
2176
comment vous utiliseriez au mieux votre temps.
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Quel serait le programme parfait pouvant inclure des prévisions,
comment bien utiliser votre temps durant votre dernier jour à TED ?
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
CA : Donc si Facebook et Google et tous les autres disaient :
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
« Aimeriez-vous optimiser votre cerveau réflectif
ou votre cerveau reptilien ? Choisissez. »
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH : Ce serait une façon de faire, oui.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA : Vous avez parlé d'influence, c'est un mot intéressant
15:37
because to me there's two different types of persuadability.
315
937240
2856
car, à mon avis, il y a deux types d'influence.
Il y a celle que nous essayons,
15:40
There's the persuadability that we're trying right now
316
940120
2536
15:42
of reason and thinking and making an argument,
317
942680
2176
celle de la raison, la réflexion, l'argumentation,
15:44
but I think you're almost talking about a different kind,
318
944880
2696
mais vous parlez presque d'une influence différente,
15:47
a more visceral type of persuadability,
319
947590
1906
plus viscérale,
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
celle d'être convaincu sans savoir ce que l'on pense.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
TH : Exactement. Ce problème me tient à cœur
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
car j'ai étudié au labo de la Technologie Persuasive à Stanford
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
qui enseigne ces techniques aux gens.
Il y a des conférences, des ateliers qui enseignent ces façons dissimulées
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
d'obtenir l'attention des gens et d'orchestrer leur vie.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
Le fait que la plupart des gens en ignorent l'existence
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
rend cette conversation si importante.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA : Tristan, vous et moi connaissons tant de monde dans ces entreprises.
16:15
There are actually many here in the room,
329
975520
1976
Il y en a plein dans la pièce
16:17
and I don't know about you, but my experience of them
330
977520
2477
et, je ne sais pas pour vous, mais mon expérience
est qu'ils ne manquent pas de bonnes intentions.
16:20
is that there is no shortage of good intent.
331
980021
2075
16:22
People want a better world.
332
982120
2176
Les gens veulent un monde meilleur.
16:24
They are actually -- they really want it.
333
984320
3520
Ils sont -- ils le veulent vraiment.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Je ne crois pas que vous disiez que ces gens sont maléfiques.
16:32
It's a system where there's these unintended consequences
335
992520
3696
C'est un système où il y a des conséquences inattendues
16:36
that have really got out of control --
336
996240
1856
qui est hors de contrôle --
TH : La course à l'attention.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
La course classique vers les bas-fonds pour obtenir l'attention,
16:42
and it's so tense.
339
1002840
1216
c'est très tendu.
Pour en obtenir plus, il faut descendre le tronc cérébral,
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
descendre dans l'outrage, descendre dans l'émotion,
16:49
to go lower into the lizard brain.
342
1009280
1696
descendre dans le cerveau lézard.
CA : Merci de nous avoir aidés à devenir plus éclairés à ce propos.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, merci. TH : Merci beaucoup.
16:57
(Applause)
345
1017280
2240
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7