How a handful of tech companies control billions of minds every day | Tristan Harris

925,562 views ・ 2017-07-28

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Maxime Van Damme Nagekeken door: Peter van de Ven
00:12
I want you to imagine
0
12960
1200
Beeld je eens in
dat je een ruimte in gaat,
00:15
walking into a room,
1
15000
1200
00:17
a control room with a bunch of people,
2
17480
2136
een controlekamer met een aantal mensen,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
100 mensen gebogen over een bureau met kleine wijzerplaatjes.
00:23
and that that control room
4
23280
1520
En dat die controlekamer
00:25
will shape the thoughts and feelings
5
25680
3696
de gedachten en gevoelens zal bepalen
00:29
of a billion people.
6
29400
1240
van een miljard mensen.
00:32
This might sound like science fiction,
7
32560
1880
Dit mag dan wel klinken als science fiction,
00:35
but this actually exists
8
35320
2216
maar het bestaat al,
00:37
right now, today.
9
37560
1200
nu, vandaag.
Ik weet het, omdat ik vroeger in één van deze controlekamers zat.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Ik was een ontwerpethicus bij Google,
00:44
I was a design ethicist at Google,
11
44159
2297
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
waar ik bestudeerde hoe je de gedachten van mensen ethisch kunt besturen.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Want waar we niet over praten,
is hoe een handvol mensen bij een handvol technologiebedrijven
00:53
working at a handful of technology companies
14
53480
2536
met hun keuzes bepalen wat een miljard mensen vandaag denken.
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
01:02
Because when you pull out your phone
16
62400
1736
Als jij je telefoon tevoorschijn haalt
en zij ontwerpen hoe die werkt of wat er op je overzicht staat,
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
claimt hij kleine blokjes tijd in onze gedachten.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Als je een berichtje ziet, plaatst dat gedachten in je hoofd
01:13
that maybe you didn't intend to have.
20
73680
2040
die je misschien niet van plan was te hebben.
01:16
If you swipe over that notification,
21
76400
2616
Als je over dat bericht veegt,
zorgt dat dat je wat tijd zult besteden door ergens ingezogen te worden
01:19
it schedules you into spending a little bit of time
22
79040
2381
01:21
getting sucked into something
23
81445
1381
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
waar je niet van plan was om te worden ingezogen.
Wanneer we praten over technologie
01:27
When we talk about technology,
25
87320
1520
hebben we het meestal over haar onbegrensde mogelijkheden;
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
het kan elke kant op gaan.
01:35
And I want to get serious for a moment
28
95400
1856
Maar serieus,
ik zal je vertellen waarom het een hele specifieke richting uit gaat.
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
01:40
Because it's not evolving randomly.
30
100840
2200
Want het evolueert niet eender welke kant uit.
Er is een verborgen doel dat bepaalt hoe onze technologie zich ontwikkeld
01:44
There's a hidden goal driving the direction
31
104000
2016
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
en dat doel is de race voor onze aandacht.
01:52
Because every news site,
34
112840
2736
Want iedere nieuwe site --
01:55
TED, elections, politicians,
35
115600
2736
TED, verkiezingen, politici,
01:58
games, even meditation apps
36
118360
1976
spelletjes, zelfs meditatie apps --
02:00
have to compete for one thing,
37
120360
1960
moet strijden om één ding.
Dat is onze aandacht.
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
En daar hebben we maar zoveel van.
02:08
And the best way to get people's attention
40
128440
2416
De beste manier om iemand z'n aandacht te krijgen,
02:10
is to know how someone's mind works.
41
130880
2440
is door te weten hoe iemand z'n brein werkt.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
En er zijn een heleboel overredingstechnieken
die ik leerde tijdens m'n studies in het 'overredingstechnologie lab'
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
02:19
to get people's attention.
44
139680
1600
om de aandacht te krijgen.
02:21
A simple example is YouTube.
45
141880
1480
Een simpel voorbeeld is YouTube.
YouTube wil je zo lang mogelijk op hun site houden.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
Dus wat doen ze?
02:28
They autoplay the next video.
48
148840
2280
Ze spelen automatisch de volgende video.
02:31
And let's say that works really well.
49
151760
1816
Stel dat dat goed werkt en ze houden je wat langer vast.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Als je Netflix bent, dan kijk je daar naar en zegt:
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
"Dat verkleint mijn marktaandeel,
02:38
well, that's shrinking my market share,
52
158440
1858
dus ik ga de volgende aflevering automatisch afspelen."
02:40
so I'm going to autoplay the next episode.
53
160322
2000
02:43
But then if you're Facebook,
54
163320
1376
Maar Facebook zeg dan: "Dat verkleint mijn marktaandeel,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
dus nu moet ik alle videos op de nieuwsfeed automatisch afspelen
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
nog voor je op 'play' klikt."
02:52
So the internet is not evolving at random.
58
172320
3160
Dus het internet evolueert niet in het wilde weg.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
De reden dat het op dit moment voelt alsof het ons erin zuigt,
03:00
is because of this race for attention.
60
180760
2376
is vanwege die race om onze aandacht.
We weten waar dit heen gaat; technologie is niet neutraal.
03:03
We know where this is going.
61
183160
1416
03:04
Technology is not neutral,
62
184600
1520
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
Het wordt die race naar het diepste punt van de hersenstam;
03:10
of who can go lower to get it.
64
190760
2200
over wie het diepste kan gaan.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Laat me je een voorbeeld geven van Snapchat.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Mocht je het niet weten,
Snapchat is onder Amerikaanse tieners de populairste manier om te communiceren.
03:20
that teenagers in the United States communicate.
67
200000
2256
Dus als je, net als ik, berichtjes gebruikt om te communiceren:
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
03:26
Snapchat is that for teenagers,
69
206480
1776
Snapchat is hetzelfde voor tieners; het heeft wel 100 miljoen gebruikers.
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
Zij introduceerden iets wat ze 'Snapstreaks' noemen,
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
wat het aantal dagen op rij toont
03:33
which shows the number of days in a row
72
213240
1896
dat twee mensen met elkaar hebben gecommuniceerd.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
Wat ze dus doen,
03:39
is they gave two people something they don't want to lose.
75
219680
2960
is twee mensen iets geven wat ze niet willen verliezen.
Want als je een tiener bent en je hebt 150 dagen op een rij,
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
dan wil je dat niet verliezen.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Bedenk wat dit voor kleine blokjes tijd in het brein van kinderen claimt.
Dit is geen theorie: als kinderen op vakantie gaan,
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
blijken ze hun paswoorden aan tot wel vijf vrienden te geven
03:59
to keep their Snapstreaks going,
81
239800
2216
om hun Snapstreaks gaande te houden
als zij het zelf niet kunnen doen.
04:02
even when they can't do it.
82
242040
2016
En ze hebben er wel 30,
04:04
And they have, like, 30 of these things,
83
244080
1936
dus moeten ze foto's nemen van plaatjes of muren of plafonds
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
04:09
or ceilings just to get through their day.
85
249440
2480
04:13
So it's not even like they're having real conversations.
86
253200
2696
Ze hebben dus niet eens echte conversaties.
04:15
We have a temptation to think about this
87
255920
1936
We zijn geneigd om te denken:
04:17
as, oh, they're just using Snapchat
88
257880
2696
oh, die gebruiken Snapchat zoals wij vroeger de telefoon.
04:20
the way we used to gossip on the telephone.
89
260600
2016
Dat kan geen kwaad.
04:22
It's probably OK.
90
262640
1200
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Maar als we in de jaren 70 zaten te kletsen aan de telefoon,
04:26
when you were just gossiping on the telephone,
92
266760
2615
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
zaten er aan de andere kant van het scherm geen 100 ingenieurs
die exact wisten hoe je psychologisch in elkaar steekt
04:32
who knew exactly how your psychology worked
94
272440
2056
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
en je van twee kanten aan het lijntje hielden.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Als je hier een beetje boos van wordt,
04:42
notice that that thought just comes over you.
97
282680
2576
merk dan op dat die gedachte je vanzelf binnenvalt.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Woede is ook een hele goede manier om je aandacht te krijgen.
04:49
because we don't choose outrage.
99
289880
1576
Want we kiezen niet voor woede, het overkomt ons.
04:51
It happens to us.
100
291480
1416
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Als jij de Facebook nieuwsfeed bent, of je dat nu wilt of niet,
04:54
whether you'd want to or not,
102
294800
1416
dan profiteer je ervan als iemand boos is.
04:56
you actually benefit when there's outrage.
103
296240
2736
Want woede plaatst niet alleen
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
een reactie in jouw emotionele tijd en ruimte,
05:05
We want to share that outrage with other people.
106
305440
2416
we willen die woede ook delen met andere mensen.
05:07
So we want to hit share and say,
107
307880
1576
We willen het delen en zeggen: "Kan je geloven dat ze dat zeiden?"
05:09
"Can you believe the thing that they said?"
108
309480
2040
05:12
And so outrage works really well at getting attention,
109
312520
3376
Dus woede werkt heel goed om aandacht te krijgen,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
zo goed dat als Facebook de keuze had
tussen het tonen van een woedende en een kalme nieuwsfeed,
05:19
and a calm newsfeed,
111
319840
1320
ze je de woedende feed zouden willen tonen.
05:22
they would want to show you the outrage feed,
112
322120
2136
Niet omdat iemand dat bewust koos,
05:24
not because someone consciously chose that,
113
324280
2056
05:26
but because that worked better at getting your attention.
114
326360
2680
maar omdat dat beter werkt om je aandacht te krijgen.
En de controlekamer van de nieuwsfeed
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
hoeft ons geen verantwoording af te leggen.
Het hoeft alleen maar de aandacht te maximaliseren.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
Het is ook verantwoordelijk, vanwege het bedrijfsmodel van adverteren,
05:40
because of the business model of advertising,
118
340600
2376
jegens degene die de controlekamer genoeg kan betalen om te kunnen zeggen:
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
05:46
and say, "That group over there,
120
346360
1576
"Die groep daar.
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
Ik wil deze gedachten in hun hoofd brengen."
05:51
So you can target,
122
351760
1200
Je kunt gewoon richten.
Je kunt je leugens precies richten op de mensen die het meest vatbaar zijn.
05:54
you can precisely target a lie
123
354040
1936
05:56
directly to the people who are most susceptible.
124
356000
2920
En omdat dit winstgevend is, zal dit enkel nog verergeren.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Dus ben ik vandaag hier,
06:05
So I'm here today
126
365040
1800
omdat de prijs zo duidelijk is.
06:08
because the costs are so obvious.
127
368160
2000
Ik ken geen dringender probleem dan dit,
06:12
I don't know a more urgent problem than this,
128
372280
2136
06:14
because this problem is underneath all other problems.
129
374440
3120
want dit probleem zit onder alle andere problemen.
06:18
It's not just taking away our agency
130
378720
3176
Het ontneemt ons niet alleen de vrijheid
06:21
to spend our attention and live the lives that we want,
131
381920
2600
om onze aandacht te besteden en het leven te leven wat we willen.
06:25
it's changing the way that we have our conversations,
132
385720
3536
Het verandert de manier waarop we onze conversaties voeren,
06:29
it's changing our democracy,
133
389280
1736
het verandert onze democratie en het verandert ons vermogen
06:31
and it's changing our ability to have the conversations
134
391040
2616
om de gesprekken en relaties te hebben die we met elkaar willen.
06:33
and relationships we want with each other.
135
393680
2000
Het treft iedereen,
06:37
And it affects everyone,
136
397160
1776
06:38
because a billion people have one of these in their pocket.
137
398960
3360
omdat een miljard mensen er zo een in zijn zak heeft.
06:45
So how do we fix this?
138
405360
1400
Hoe herstellen we dit?
We moeten drie dingen radicaal veranderen
06:49
We need to make three radical changes
139
409080
2936
aan de technologie en aan onze samenleving.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Ten eerste moeten we inzien dat we overreed kunnen worden.
07:00
Once you start understanding
142
420840
1376
Zodra je inziet dat je geest geprogrammeerd kan worden
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
om kleine gedachten te hebben
met kleine blokjes tijd die je niet gekozen hebt,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
07:07
wouldn't we want to use that understanding
145
427640
2056
zou je dat inzicht niet willen gebruiken om jezelf ertegen te beschermen?
07:09
and protect against the way that that happens?
146
429720
2160
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Ik denk dat we onszelf fundamenteel anders moeten zien.
07:15
It's almost like a new period of human history,
148
435920
2216
Het is bijna als een nieuwe periode in de historie, zoals de Verlichting,
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
maar dan een Verlichting in zelfbewustzijn:
07:21
that we can be persuaded,
151
441640
2080
dat we overreed kunnen worden
en dat er iets zou kunnen zijn wat we willen beschermen.
07:24
and there might be something we want to protect.
152
444320
2240
07:27
The second is we need new models and accountability systems
153
447400
4576
Ten tweede zullen we nieuwe modellen en verantwoordingssystemen nodig hebben,
zodat als de wereld beter en steeds overredender wordt --
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
want het zal alleen maar overredender worden --
07:37
that the people in those control rooms
156
457880
1856
dat de mensen in die controlekamers
07:39
are accountable and transparent to what we want.
157
459760
2456
verantwoordelijk en transparant zijn voor wat wij willen.
07:42
The only form of ethical persuasion that exists
158
462240
2696
De enige vorm van ethische overreding die bestaat,
07:44
is when the goals of the persuader
159
464960
1936
is wanneer de doelen van de overreder
07:46
are aligned with the goals of the persuadee.
160
466920
2200
overeenstemmen met de doelen van de overrede.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
Dat betekent vraagtekens zetten bij zaken als het bedrijfsmodel van adverteren.
07:54
Lastly,
162
474720
1576
Tot slot
hebben we een renaissance van design nodig,
07:56
we need a design renaissance,
163
476320
1680
want heb je eenmaal dit inzicht in de menselijke aard,
07:59
because once you have this view of human nature,
164
479080
3056
dat je de tijdlijn van een miljard mensen kan sturen --
08:02
that you can steer the timelines of a billion people --
165
482160
2976
realiseer je dat er mensen zijn die een wens hebben
08:05
just imagine, there's people who have some desire
166
485160
2736
08:07
about what they want to do and what they want to be thinking
167
487920
2856
over wat ze willen doen, en denken, en voelen,
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
en hoe ze willen geïnformeerd worden,
en we worden gewoon in die andere richtingen getrokken.
08:13
and we're all just tugged into these other directions.
169
493960
2536
Een miljard mensen wordt gewoon in verschillende richtingen getrokken.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Beeld je een volledige design-renaissance in
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
die is gericht op het produceren
van de meest nuttige en meest gewenste tijdlijn.
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
08:28
And that would involve two things:
174
508600
1656
En dat zou twee zaken inhouden:
de eerste is bescherming tegen tijdlijnen die we niet willen,
08:30
one would be protecting against the timelines
175
510280
2136
08:32
that we don't want to be experiencing,
176
512440
1856
de gedachten die we niet willen denken,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
zodat wanneer die 'ping' klinkt, we er niet door worden weggezogen.
De tweede zou ons in staat stellen om het leven te leiden dat we willen.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
Laat me je een voorbeeld geven.
Vandaag zegt je vriend bijvoorbeeld een etentje af
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
08:48
and you are feeling a little bit lonely.
182
528760
3775
en je voelt je een beetje eenzaam.
08:52
And so what do you do in that moment?
183
532559
1817
Dus wat doe je op dat moment?
Je opent Facebook.
08:54
You open up Facebook.
184
534400
1279
08:56
And in that moment,
185
536960
1696
Op dat moment
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
willen de ontwerpers in de controlekamer maar één ding:
je zo lang mogelijk aan het scherm houden.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Wat nu als die designers in plaats daarvan een tijdlijn maakten
09:10
that was the easiest way, using all of their data,
189
550560
3496
die op basis van alle gegevens die ze hadden
jou zouden helpen uit te gaan met mensen waar je om geeft?
09:14
to actually help you get out with the people that you care about?
190
554080
3096
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Stel je voor hoe alle eenzaamheid in de samenleving zou worden verzacht
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
als Facebook de mensen die tijdlijn zou willen bieden.
Of beeld je een ander gesprek in.
09:26
Or imagine a different conversation.
193
566160
1715
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Stel je wil iets heel controversieels posten op Facebook,
wat belangrijk is om te kunnen doen,
09:31
which is a really important thing to be able to do,
195
571240
2416
over controversiële zaken praten.
09:33
to talk about controversial topics.
196
573680
1696
Op dit moment is er dat grote vak voor je opmerking,
09:35
And right now, when there's that big comment box,
197
575400
2336
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
alsof het je vraagt: welke toets wil je indrukken?
Ofwel, het heeft allerlei dingetjes gepland
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
die je op het scherm zult blijven doen.
09:44
you're going to continue to do on the screen.
200
584000
2136
Beeld je in dat er in plaats daarvan een andere knop was die zei:
09:46
And imagine instead that there was another button there saying,
201
586160
2976
"Waar zou je nu het meest bij gebaat zijn?"
09:49
what would be most time well spent for you?
202
589160
2056
En je klikt op 'een etentje geven'.
09:51
And you click "host a dinner."
203
591240
1576
09:52
And right there underneath the item it said,
204
592840
2096
En vlak daaronder staat:
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
"Wie wil er naar het etentje komen?"
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Je zou nog steeds een gesprek hebben over iets controversieels,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
maar je zou het hebben op de beste plaats op jouw tijdlijn,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
namelijk die avond thuis, met een paar vrienden om erover te praten.
10:06
to talk about it.
209
606760
1200
Dus beeld je in dat we een 'zoek en vervang' doen
10:09
So imagine we're running, like, a find and replace
210
609000
3160
op alle tijdlijnen die ons momenteel tot meer en meer schermtijd verleiden
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
en al die tijdlijnen vervangen door wat we in ons leven willen.
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
10:26
It doesn't have to be this way.
215
626960
1480
Het hoeft niet zo te zijn.
10:30
Instead of handicapping our attention,
216
630360
2256
In plaats van onze aandacht het lastig te maken,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
stel dat we deze data en ons inzicht in de menselijke natuur zouden gebruiken
10:35
and this new view of human nature
218
635480
1616
om ons een bovenmenselijk vermogen te geven om te focussen,
10:37
to give us a superhuman ability to focus
219
637120
2856
een bovenmenselijk talent om onze aandacht te geven aan waar we van houden,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
en een bovenmenselijk talent om conversaties te hebben
10:44
and a superhuman ability to have the conversations
221
644160
2616
10:46
that we need to have for democracy.
222
646800
2000
die we nodig hebben voor democratie.
10:51
The most complex challenges in the world
223
651600
2680
De meest complexe uitdagingen ter wereld
10:56
require not just us to use our attention individually.
224
656280
3120
vereisen niet alleen onze individuele aandacht.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
Ze vereisen het gezamenlijk gebruiken en coördineren van onze aandacht.
11:04
Climate change is going to require that a lot of people
226
664440
2816
De klimaatverandering zal vereisen
dat heel wat mensen hun aandacht samen kunnen coördineren
11:07
are being able to coordinate their attention
227
667280
2096
11:09
in the most empowering way together.
228
669400
1896
in de meest krachtige manier.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Stel dat we een bovenmenselijk vermogen ontwikkelen om dat te doen.
Soms zijn 's werelds meest dringende en belangrijke problemen
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
niet deze hypothetische dingen die we zouden kunnen creëren in de toekomst.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
Soms bevinden zich de meest dringende problemen vlak voor onze neus,
11:30
are the ones that are right underneath our noses,
233
690320
2336
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
de dingen die al de gedachten van een miljard mensen bepalen.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
In plaats van opgewonden te worden over de nieuwe 'augmented reality'
en virtual reality en de coole dingen die zouden kunnen gebeuren,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
die ook onderhevig zullen zijn aan dezelfde race voor aandacht,
11:46
if we could fix the race for attention
238
706640
2176
moeten we misschien eerst de strijd om de aandacht verhelpen
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
op het ding dat iedereen al in zijn zak heeft.
In plaats ons van gek te laten maken
11:52
Maybe instead of getting excited
240
712040
1576
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
door de spannendste, nieuwe, coole, chique onderwijs apps,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
kunnen we iets doen aan hoe het brein van kinderen wordt verkwist
12:00
into sending empty messages back and forth.
243
720760
2480
aan het heen en weer zenden van lege berichten.
(Applaus)
12:04
(Applause)
244
724040
4296
In plaats van ons zorgen te maken
12:08
Maybe instead of worrying
245
728360
1256
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
over gevaarlijke losgeslagen artificiële intelligentie in de toekomst
12:13
that are maximizing for one goal,
247
733440
1880
die maar één doel voor ogen hebben,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
zouden we iets kunnen doen
aan de losgeslagen artificiële intelligentie die nu al bestaat,
12:19
that already exists right now,
249
739360
2056
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
namelijk die nieuwsfeeds met maar één doel voor ogen.
Net zoals we in plaats van weg te lopen en op andere planeten te gaan leven,
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
we beter kunnen zorgen voor die waar we al zijn.
(Applaus)
12:32
(Applause)
253
752000
4120
Dit probleem oplossen
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
is cruciaal voor het oplossen van alle andere problemen.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Alles in ons leven en in onze collectieve problemen
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
vereist het vermogen om onze aandacht te richten op waar we om geven.
12:55
At the end of our lives,
258
775800
1240
Aan het einde van ons leven
12:58
all we have is our attention and our time.
259
778240
2640
hebben we alleen onze aandacht en onze tijd.
13:01
What will be time well spent for ours?
260
781800
1896
Waar kunnen we die het best aan besteden?
13:03
Thank you.
261
783720
1216
Dank je.
13:04
(Applause)
262
784960
3120
(Applaus)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, dank je. Wacht nog even.
13:20
First of all, thank you.
264
800720
1336
Allereerst, dank je.
Ik weet dat we je heel laat gevraagd hebben om te spreken
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
en dat je een stressvolle week had om dit samen te rapen, dus dank je.
13:27
getting this thing together, so thank you.
267
807120
2440
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Sommige luisteraars zullen zeggen dat je eigenlijk klaagt over verslaving
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
en voor de mensen die dit doen, is het feitelijk interessant.
Al deze design beslissingen
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
hebben gebruikersinhoud voortgebracht die fantastisch interessant is.
13:42
The world's more interesting than it ever has been.
272
822600
2416
De wereld is interessanter dan ooit.
Wat is daar mis mee?
13:45
What's wrong with that?
273
825040
1256
Tristan Harris: Ik vind dit heel interessant.
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Als je YouTube bent, bijvoorbeeld,
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
13:52
you want to always show the more interesting next video.
276
832640
2656
wil je altijd een volgende interessante video tonen.
Je wil die suggesties steeds beter maken.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Maar zelfs al kon je de perfecte video voorstellen
13:58
but even if you could propose the perfect next video
278
838360
2456
die iedereen zou willen bekijken,
14:00
that everyone would want to watch,
279
840840
1656
je maakt de kijker alleen maar verslaafd aan video's kijken.
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
Wat we missen is het uitvinden wat onze grenzen zouden zijn.
14:05
So what's missing in that equation
281
845880
1656
14:07
is figuring out what our boundaries would be.
282
847560
2136
Je zou willen dat YouTube iets wist over in slaap vallen.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
De CEO van Netflix zei pas:
14:12
The CEO of Netflix recently said,
284
852960
1616
"Onze grootste concurrenten zijn Facebook, YouTube en slaap."
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Ook moeten we inzien dat de mens niet onbegrensd is
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
en dat we zekere grenzen of dimensies in ons leven hebben
14:24
that we want to be honored and respected,
288
864840
1976
die we geëerbiedigd en gerespecteerd willen zien.
14:26
and technology could help do that.
289
866840
1816
Technologie kan hierbij helpen.
14:28
(Applause)
290
868680
2616
(Applaus)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: Zou je kunnen zeggen
dat een deel van het probleem hier is dat we een naïeve menselijke aard hebben?
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
Veel hiervan is gerechtvaardigd omdat we dit zelf willen
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
en die algoritmes doen juist geweldig hun werk
in het bedienen van die voorkeur.
14:44
of optimizing for human preference,
295
884520
1696
Maar welke voorkeur?
14:46
but which preference?
296
886240
1336
14:47
There's the preferences of things that we really care about
297
887600
3496
We hebben voorkeuren omtrent dingen
waarom we echt geven als we erover nadenken
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
versus onze instinctieve voorkeuren.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Als we die nuances in de menselijke aard in de ontwerpen konden implementeren,
15:00
would that be a step forward?
301
900280
1456
zou dat een stap vooruit zijn?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Absoluut.
Nu is het alsof onze technologie eigenlijk alleen aan ons oerbrein vraagt:
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
hoe hou ik je impulsief bezig met het eerstvolgende kleine dingetje.
15:07
what's the best way to just impulsively get you to do
304
907280
2496
15:09
the next tiniest thing with your time,
305
909800
2136
15:11
instead of asking you in your life
306
911960
1656
In plaats van
waar kun je in jouw leven nu het best tijd aan besteden?
15:13
what we would be most time well spent for you?
307
913640
2176
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Wat zou de perfecte tijdlijn zijn,
waar ben je op dit moment bij gebaat, tijdens je laatste dag bij TED.
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
CA: Dus als Facebook en Google ons zouden vragen:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
"Hey, wil je dat we je beschouwende brein verbeteren
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
of je oerbrein? Kies maar."
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Precies. Dat zou een manier zijn, ja.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA: Je zei overreedbaarheid, dat is een interessant woord,
15:37
because to me there's two different types of persuadability.
315
937240
2856
want volgens mij zijn er twee soorten overreedbaarheid.
Er is de overreedbaarheid die we nu toepassen,
15:40
There's the persuadability that we're trying right now
316
940120
2536
15:42
of reason and thinking and making an argument,
317
942680
2176
van redeneren, denken en debatteren.
15:44
but I think you're almost talking about a different kind,
318
944880
2696
Maar ik denk dat je bijna over een andere soort praat,
15:47
a more visceral type of persuadability,
319
947590
1906
een meer instinctieve soort,
van overreed worden zonder te weten dat je nadenkt.
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
TH: Exact. De reden dat ik zo veel om dit probleem geef,
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
is dat ik studeerde in het Persuasive Technology Lab op Stanford
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
dat studenten exact deze technieken leerde.
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
Er zijn conferenties en workshops die mensen al deze listige manieren leren
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
om de aandacht van mensen te krijgen en hun leven te manipuleren.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
En het is omdat de meesten niet weten dat dat bestaat
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
dat deze conversatie zo belangrijk is.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, jij en ik kennen beiden zo veel mensen van deze bedrijven.
16:15
There are actually many here in the room,
329
975520
1976
Er zijn er zelfs veel hier aanwezig.
16:17
and I don't know about you, but my experience of them
330
977520
2477
Ik weet niet wat jij denkt,
maar mijn ervaring is dat er geen tekort is aan goede wil.
16:20
is that there is no shortage of good intent.
331
980021
2075
Mensen willen een betere wereld.
16:22
People want a better world.
332
982120
2176
16:24
They are actually -- they really want it.
333
984320
3520
Ze zijn eigenlijk - ze willen het echt.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Ik denk niet dat je wil zeggen dat dit kwaadwillige mensen zijn.
16:32
It's a system where there's these unintended consequences
335
992520
3696
Het is een systeem dat ongewilde consequenties heeft
die uit de hand zijn gelopen.
16:36
that have really got out of control --
336
996240
1856
TH: Ja, de strijd om de aandacht.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
Het is de klassieke race naar de bodem wanneer je aandacht wil hebben
16:42
and it's so tense.
339
1002840
1216
en het is zo gespannen.
De enige manier om meer te krijgen is lager op de hersenstam gaan,
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
lager naar woede, lager naar emotie,
16:49
to go lower into the lizard brain.
342
1009280
1696
lager in het oerbrein.
CA: Heel erg bedankt om ons hierover iets wijzer te maken.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, dank je. TH: Dank je.
16:57
(Applause)
345
1017280
2240
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7