How we need to remake the internet | Jaron Lanier

430,004 views ・ 2018-05-03

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Axel Saffran
00:12
Back in the 1980s, actually, I gave my first talk at TED,
0
12944
4009
In de jaren 1980 hield ik mijn eerste TED-talk
00:16
and I brought some of the very, very first public demonstrations
1
16977
4262
en gaf ik een aantal van de echt eerste openbare demonstraties
00:21
of virtual reality ever to the TED stage.
2
21263
4234
van virtuele werkelijkheid ooit op het TED-podium.
00:26
And at that time, we knew that we were facing a knife-edge future
3
26375
6867
Toen wisten we al dat we te maken hadden met een twijfelachtige toekomst
00:33
where the technology we needed,
4
33266
5201
waar de technologie die we nodig hadden,
00:38
the technology we loved,
5
38491
1851
de technologie waar we van hielden,
00:40
could also be our undoing.
6
40366
2047
ook onze ondergang kon zijn.
00:43
We knew that if we thought of our technology
7
43266
4091
We wisten dat als we aan onze technologie dachten
00:47
as a means to ever more power,
8
47381
3254
als een middel tot steeds meer macht,
00:50
if it was just a power trip, we'd eventually destroy ourselves.
9
50659
3707
als het alleen maar ging om macht, we onszelf uiteindelijk zouden vernietigen.
00:54
That's what happens
10
54390
1181
Dat is wat er gebeurt
00:55
when you're on a power trip and nothing else.
11
55595
2787
als je alleen aan macht denkt en aan niets anders.
00:59
So the idealism
12
59509
3389
Het idealisme van de toenmalige digitale cultuur
01:02
of digital culture back then
13
62922
4809
01:07
was all about starting with that recognition of the possible darkness
14
67755
4739
ging volledig over het herkennen van de mogelijke duisternis
01:12
and trying to imagine a way to transcend it
15
72518
3350
en een ​​manier proberen te bedenken om ze te overstijgen
01:15
with beauty and creativity.
16
75892
2578
met schoonheid en creativiteit.
01:19
I always used to end my early TED Talks with a rather horrifying line, which is,
17
79033
6507
Ik eindigde mijn vroege TED-talks altijd met een nogal gruwelijk gezegde:
01:26
"We have a challenge.
18
86478
3866
"We hebben een uitdaging.
01:30
We have to create a culture around technology
19
90368
4024
We moeten rond technologie een cultuur creëren
01:34
that is so beautiful, so meaningful,
20
94416
3968
die zo mooi, zo betekenisvol,
01:38
so deep, so endlessly creative,
21
98408
2541
zo diep, zo eindeloos creatief,
01:40
so filled with infinite potential
22
100973
3016
zo gevuld met eindeloze mogelijkheden is
dat ze ons ervan weerhoudt om massaal zelfmoord te plegen."
01:44
that it draws us away from committing mass suicide."
23
104013
3253
01:48
So we talked about extinction as being one and the same
24
108519
5588
We spraken over uitsterven als hetzelfde
als de noodzaak om een ​​aantrekkelijke, oneindig creatieve toekomst te creëren.
01:54
as the need to create an alluring, infinitely creative future.
25
114131
4830
01:59
And I still believe that that alternative of creativity
26
119639
5382
En ik geloof nog steeds dat creativiteit
02:05
as an alternative to death
27
125045
1974
als een alternatief voor de dood
02:07
is very real and true,
28
127043
1969
zeer reëel en waar is,
02:09
maybe the most true thing there is.
29
129036
1983
misschien wel het meest ware dat er is.
02:11
In the case of virtual reality --
30
131870
2095
In het geval van virtuele werkelijkheid
02:13
well, the way I used to talk about it
31
133989
2282
-- ik praatte erover
02:16
is that it would be something like
32
136295
2635
als iets gelijkaardigs
02:18
what happened when people discovered language.
33
138954
2850
als toen mensen taal ontdekten.
02:21
With language came new adventures, new depth, new meaning,
34
141828
4675
Met taal kwamen nieuwe avonturen, nieuwe diepte, nieuwe betekenis,
nieuwe manieren om verbinding te maken, nieuwe manieren om te coördineren,
02:26
new ways to connect, new ways to coordinate,
35
146527
2080
02:28
new ways to imagine, new ways to raise children,
36
148631
4034
nieuwe manieren je iets voor te stellen, nieuwe manieren om kinderen op te voeden.
02:32
and I imagined, with virtual reality, we'd have this new thing
37
152689
4262
En ik dacht dat we met virtuele werkelijkheid iets hadden
02:36
that would be like a conversation
38
156975
1593
als een gesprek,
02:38
but also like waking-state intentional dreaming.
39
158592
3344
maar ook iets als gewild dromen in wakende toestand.
02:41
We called it post-symbolic communication,
40
161960
2653
We noemden het post-symbolische communicatie,
02:44
because it would be like just directly making the thing you experienced
41
164637
4358
omdat het iets zou zijn als zelf maken wat je ervaart
02:49
instead of indirectly making symbols to refer to things.
42
169019
3619
in plaats van indirect symbolen maken om te verwijzen naar dingen.
02:53
It was a beautiful vision, and it's one I still believe in,
43
173466
4338
Het was een mooie visie; ik geloof er nog steeds in,
02:57
and yet, haunting that beautiful vision
44
177828
3215
maar die prachtige visie werd op de hielen gezeten
03:01
was the dark side of how it could also turn out.
45
181067
3150
door de donkere kant van hoe het ook kon eindigen.
03:04
And I suppose I could mention
46
184241
5048
Ik denk dat ik hier een citaat kan aanhalen
03:09
from one of the very earliest computer scientists,
47
189313
3064
van één van de allereerste computerwetenschappers,
03:12
whose name was Norbert Wiener,
48
192401
2135
Norbert Wiener.
03:14
and he wrote a book back in the '50s, from before I was even born,
49
194560
3754
In de jaren 50, voordat ik geboren werd, schreef hij een boek,
03:18
called "The Human Use of Human Beings."
50
198338
2658
‘Het menselijk gebruik van menselijke wezens’.
03:21
And in the book, he described the potential
51
201779
4172
In dat boek beschreef hij de mogelijkheid
03:25
to create a computer system that would be gathering data from people
52
205975
6181
van een computersysteem dat gegevens van mensen zou verzamelen
03:32
and providing feedback to those people in real time
53
212180
3572
en aan de mensen feedback in real time zou geven
03:35
in order to put them kind of partially, statistically, in a Skinner box,
54
215776
5135
om ze deeltijds, statistisch gezien, in een Skinner box,
03:40
in a behaviorist system,
55
220935
2444
een gedragssysteem, te plaatsen.
03:43
and he has this amazing line where he says,
56
223403
2501
Hij zegt er iets geweldigs.
03:45
one could imagine, as a thought experiment --
57
225928
2738
Beeld je als gedachte-experiment
03:48
and I'm paraphrasing, this isn't a quote --
58
228690
2461
-- ik parafraseer, dit is geen citaat --
03:51
one could imagine a global computer system
59
231175
3080
een wereldwijd computernetwerksysteem in
03:54
where everybody has devices on them all the time,
60
234279
2842
waar iedereen de hele tijd apparaten bij heeft
03:57
and the devices are giving them feedback based on what they did,
61
237145
3272
en die apparaten feedback geven op wat ze doen,
04:00
and the whole population
62
240441
1875
en zo iedereen
04:02
is subject to a degree of behavior modification.
63
242340
3576
een zekere gedragsverandering opleggen.
04:05
And such a society would be insane,
64
245940
3546
Een dergelijke maatschappij zou krankzinnig zijn,
04:09
could not survive, could not face its problems.
65
249510
3097
niet kunnen overleven, haar problemen niet aankunnen.
04:12
And then he says, but this is only a thought experiment,
66
252631
2621
Dan zegt hij: "Maar dit is slechts een gedachte-experiment,
04:15
and such a future is technologically infeasible.
67
255276
3420
zo'n toekomst is technisch niet haalbaar."
04:18
(Laughter)
68
258720
1092
(Gelach)
04:19
And yet, of course, it's what we have created,
69
259836
3002
En toch is het net dat wat we hebben gecreëerd
04:22
and it's what we must undo if we are to survive.
70
262862
3277
en wat we moeten ongedaan maken als we willen overleven.
04:27
So --
71
267457
1151
Dus --
04:28
(Applause)
72
268632
3540
(Applaus)
04:32
I believe that we made a very particular mistake,
73
272631
5977
Ik denk dat we een zeer bijzondere fout hebben gemaakt,
04:38
and it happened early on,
74
278632
2234
en al vroeg,
04:40
and by understanding the mistake we made,
75
280890
2074
en door inzicht in die fout,
04:42
we can undo it.
76
282988
1859
kunnen we ze ongedaan maken.
04:44
It happened in the '90s,
77
284871
2559
Het gebeurde in de jaren 90,
04:47
and going into the turn of the century,
78
287454
2742
bij het begin van de eeuw.
04:50
and here's what happened.
79
290220
1388
Dit is wat er gebeurde:
04:53
Early digital culture,
80
293200
1374
de vroege digitale cultuur,
04:54
and indeed, digital culture to this day,
81
294598
4972
en wel tot op vandaag,
04:59
had a sense of, I would say, lefty, socialist mission about it,
82
299594
6309
was, zou ik zeggen, ietwat linksig, socialistisch gericht.
05:05
that unlike other things that have been done,
83
305927
2160
In tegenstelling tot andere dingen die zijn gedaan,
05:08
like the invention of books,
84
308111
1434
zoals de uitvinding van boeken,
05:09
everything on the internet must be purely public,
85
309569
3413
moest alles op het internet puur publiek,
05:13
must be available for free,
86
313006
2325
gratis beschikbaar zijn voor iedereen,
05:15
because if even one person cannot afford it,
87
315355
3388
want als ook maar één iemand het zich niet kon veroorloven,
05:18
then that would create this terrible inequity.
88
318767
2572
dan zou dat vreselijke ongelijkheid creëren.
05:21
Now of course, there's other ways to deal with that.
89
321912
2524
Nu zijn er natuurlijk andere manieren om daarmee om te gaan.
05:24
If books cost money, you can have public libraries.
90
324460
3016
Als boeken geld kosten, zorg dan voor openbare bibliotheken.
05:27
And so forth.
91
327500
1174
Enzovoorts.
05:28
But we were thinking, no, no, no, this is an exception.
92
328698
2618
Maar we dachten: "Nee, nee, nee, dit is anders.
05:31
This must be pure public commons, that's what we want.
93
331340
4605
Dit moet puur publiek gemeengoed worden, dat is wat we willen."
05:35
And so that spirit lives on.
94
335969
2634
En die geest leeft voort.
05:38
You can experience it in designs like the Wikipedia, for instance,
95
338627
3715
Je ziet het in ontwerpen zoals de Wikipedia, bijvoorbeeld,
05:42
many others.
96
342366
1341
en vele anderen.
05:43
But at the same time,
97
343731
1874
Maar tegelijkertijd
05:45
we also believed, with equal fervor,
98
345629
2588
geloofden we ook, met evenveel enthousiasme,
05:48
in this other thing that was completely incompatible,
99
348241
3937
in dat andere, daarmee volstrekt onverenigbare iets,
05:52
which is we loved our tech entrepreneurs.
100
352202
3627
onze tech-ondernemers.
05:55
We loved Steve Jobs; we loved this Nietzschean myth
101
355853
3739
We hielden van Steve Jobs, we hielden van de Nietzscheaanse mythe
05:59
of the techie who could dent the universe.
102
359616
3468
van de techneut die een deuk kon maken in het universum.
06:03
Right?
103
363108
1318
Toch?
06:04
And that mythical power still has a hold on us, as well.
104
364450
5848
En die mythische kracht houdt ons nog altijd in zijn greep.
06:10
So you have these two different passions,
105
370322
4459
Je hebt dus twee verschillende passies,
06:14
for making everything free
106
374805
1937
een om alles gratis te maken
06:16
and for the almost supernatural power of the tech entrepreneur.
107
376766
5166
en een voor de bijna bovennatuurlijke kracht van de tech-ondernemer.
06:21
How do you celebrate entrepreneurship when everything's free?
108
381956
4352
Hoe ga je ondernemerschap honoreren als alles gratis wordt?
06:26
Well, there was only one solution back then,
109
386332
3125
Toen was er maar één oplossing voor,
06:29
which was the advertising model.
110
389481
2087
dat was het reclame-model.
06:31
And so therefore, Google was born free, with ads,
111
391592
4003
En dan kwam gratis Google, met advertenties,
06:35
Facebook was born free, with ads.
112
395619
3682
en gratis Facebook, met advertenties.
06:39
Now in the beginning, it was cute,
113
399325
3865
In het begin was het wel leuk
06:43
like with the very earliest Google.
114
403214
1960
met die allereerste Google.
06:45
(Laughter)
115
405198
1286
(Gelach)
06:46
The ads really were kind of ads.
116
406508
2897
De advertenties waren echt wel advertenties.
06:49
They would be, like, your local dentist or something.
117
409429
2485
Van je plaatselijke tandarts of iets dergelijks.
06:51
But there's thing called Moore's law
118
411938
1920
Maar er is zoiets als de wet van Moore
06:53
that makes the computers more and more efficient and cheaper.
119
413882
3142
die maakt dat computers steeds efficiënter en goedkoper worden.
06:57
Their algorithms get better.
120
417048
1858
Hun algoritmen worden beter.
06:58
We actually have universities where people study them,
121
418930
2596
Universiteiten onderwijzen ze
07:01
and they get better and better.
122
421550
1628
en ze worden maar beter en beter.
07:03
And the customers and other entities who use these systems
123
423202
4452
En de klanten en de andere entiteiten die deze systemen gebruikten
07:07
just got more and more experienced and got cleverer and cleverer.
124
427678
4127
werden steeds ervarener en slimmer en slimmer.
07:11
And what started out as advertising
125
431829
2397
Wat begon als reclame
07:14
really can't be called advertising anymore.
126
434250
2477
kan echt geen reclame meer worden genoemd.
07:16
It turned into behavior modification,
127
436751
2912
Het werd gedragsbeïnvloeding,
07:19
just as Norbert Wiener had worried it might.
128
439687
4493
net wat Norbert Wiener had gevreesd.
07:24
And so I can't call these things social networks anymore.
129
444204
4620
Ik kan deze dingen geen sociale netwerken meer noemen.
07:28
I call them behavior modification empires.
130
448848
3814
Ik noem ze 'gedragsbeïnvloedingsrijken'.
07:32
(Applause)
131
452686
2235
(Applaus)
07:34
And I refuse to vilify the individuals.
132
454945
4214
Ik weiger individuen de schuld te geven.
07:39
I have dear friends at these companies,
133
459183
2271
Ik heb lieve vrienden bij deze bedrijven,
07:41
sold a company to Google, even though I think it's one of these empires.
134
461478
4760
ik verkocht een bedrijf aan Google, al denk ik dat het één van deze rijken is.
07:46
I don't think this is a matter of bad people who've done a bad thing.
135
466262
5060
Ik denk niet dat dit gaat over slechte mensen die iets slechts hebben gedaan.
07:51
I think this is a matter of a globally tragic,
136
471346
4576
Ik denk dat dit een wereldwijd tragische,
07:55
astoundingly ridiculous mistake,
137
475946
4572
verbluffend belachelijke vergissing is,
08:00
rather than a wave of evil.
138
480542
4129
eerder dan een golf van kwade wil.
08:04
Let me give you just another layer of detail
139
484695
2682
Ik leg even nader uit hoe
08:07
into how this particular mistake functions.
140
487401
3103
deze bijzondere vergissing in elkaar zit.
08:11
So with behaviorism,
141
491337
2707
In het behaviorisme
08:14
you give the creature, whether it's a rat or a dog or a person,
142
494068
5064
geef je het schepsel, of het nu een rat, een hond of een mens is,
08:19
little treats and sometimes little punishments
143
499156
2840
kleine traktaties en kleine straffen
als feedback op wat ze doen.
08:22
as feedback to what they do.
144
502020
1817
08:24
So if you have an animal in a cage, it might be candy and electric shocks.
145
504710
5912
Voor een dier in een kooi zijn dat misschien snoep en elektrische schokken.
08:30
But if you have a smartphone,
146
510646
2524
Maar met een smartphone
08:33
it's not those things, it's symbolic punishment and reward.
147
513194
6926
wordt het een symbolische straf of beloning.
08:40
Pavlov, one of the early behaviorists,
148
520144
2443
Pavlov, een van de vroege behavioristen,
08:42
demonstrated the famous principle.
149
522611
2952
demonstreerde zijn beroemde principe.
08:45
You could train a dog to salivate just with the bell, just with the symbol.
150
525587
3961
Je traint een hond om te gaan kwijlen alleen met de bel, alleen met het symbool.
08:49
So on social networks,
151
529572
1586
Op sociale netwerken
08:51
social punishment and social reward function as the punishment and reward.
152
531182
5080
dienen sociale straf en sociale beloning als straf en beloning.
08:56
And we all know the feeling of these things.
153
536286
2077
We weten allemaal hoe dat aanvoelt.
08:58
You get this little thrill --
154
538387
1451
Je krijgt die kleine sensatie --
08:59
"Somebody liked my stuff and it's being repeated."
155
539862
2350
"Iemand vond het leuk en het wordt herhaald."
09:02
Or the punishment: "Oh my God, they don't like me,
156
542236
2334
Of straf: "Oh mijn God, ze houden niet van me,
09:04
maybe somebody else is more popular, oh my God."
157
544594
2239
is iemand anders populairder, oh mijn God."
09:06
So you have those two very common feelings,
158
546857
2226
Die twee zeer algemene gevoelens
worden op zo'n manier uitgedeeld dat je in een soort molen komt te zitten.
09:09
and they're doled out in such a way that you get caught in this loop.
159
549107
3564
09:12
As has been publicly acknowledged by many of the founders of the system,
160
552695
4095
Zoals reeds openlijk erkend door veel oprichters van het systeem;
09:16
everybody knew this is what was going on.
161
556814
2341
iedereen wist dat dit gaande was.
09:19
But here's the thing:
162
559871
1619
Maar nu komt het:
09:21
traditionally, in the academic study of the methods of behaviorism,
163
561514
5294
altijd werden er in de academische studie van de methoden van het behaviorisme
09:26
there have been comparisons of positive and negative stimuli.
164
566832
5436
positieve en negatieve stimuli vergeleken.
09:32
In this setting, a commercial setting,
165
572292
2364
In dit stramien, een commercieel stramien,
09:34
there's a new kind of difference
166
574680
1596
is er een nieuw soort verschil
09:36
that has kind of evaded the academic world for a while,
167
576300
2769
dat in de academische wereld een tijdje onder de radar is gebleven.
09:39
and that difference is that whether positive stimuli
168
579093
4048
Dit verschil gaat om de vraag of positieve stimuli
09:43
are more effective than negative ones in different circumstances,
169
583165
3309
effectiever zijn dan negatieve in verschillende omstandigheden,
09:46
the negative ones are cheaper.
170
586498
2104
maar de negatieve zijn goedkoper.
09:48
They're the bargain stimuli.
171
588626
2056
Ze zijn de koopjesstimuli.
09:50
So what I mean by that is it's much easier
172
590706
5703
Wat ik bedoel is dat het veel gemakkelijker is
om vertrouwen te verliezen dan om vertrouwen op te bouwen.
09:56
to lose trust than to build trust.
173
596433
3116
09:59
It takes a long time to build love.
174
599573
3172
Het duurt lang om liefde op te bouwen.
10:02
It takes a short time to ruin love.
175
602769
2606
Het duurt kort om liefde te ruïneren.
10:05
Now the customers of these behavior modification empires
176
605399
4588
Nu zitten de klanten van deze gedragsbeïnvloedingsrijken
in een zeer snelle lus.
10:10
are on a very fast loop.
177
610011
1423
10:11
They're almost like high-frequency traders.
178
611458
2045
Het lijken wel flitshandelaars.
10:13
They're getting feedbacks from their spends
179
613527
2024
Ze krijgen feedback over hun uitgaven
10:15
or whatever their activities are if they're not spending,
180
615575
2802
of over wat ze ook doen behalve uitgeven.
10:18
and they see what's working, and then they do more of that.
181
618401
3270
Ze zien wat werkt, en dan doen ze meer van dat.
10:21
And so they're getting the quick feedback,
182
621695
2040
Zo krijgen ze snelle feedback,
10:23
which means they're responding more to the negative emotions,
183
623759
3040
wat betekent dat ze meer reageren op negatieve emoties
10:26
because those are the ones that rise faster, right?
184
626823
3937
want dat zijn degenen die sneller stijgen, toch?
10:30
And so therefore, even well-intentioned players
185
630784
3548
En daarom zullen zelfs goed bedoelende spelers,
10:34
who think all they're doing is advertising toothpaste
186
634356
2865
die denken dat ze alleen maar reclame maken voor tandpasta,
10:37
end up advancing the cause of the negative people,
187
637245
3031
uiteindelijk de weg vrijmaken voor de negatieve mensen,
10:40
the negative emotions, the cranks,
188
640300
2334
de negatieve emoties, de kwakzalvers,
10:42
the paranoids,
189
642658
1444
de paranoïden,
10:44
the cynics, the nihilists.
190
644126
3080
de cynici, de nihilisten.
10:47
Those are the ones who get amplified by the system.
191
647230
3493
Die worden versterkt door het systeem.
10:50
And you can't pay one of these companies to make the world suddenly nice
192
650747
5651
Zulke bedrijven kun je nauwelijks betalen om de wereld opeens leuk te maken
en de democratie te verbeteren.
10:56
and improve democracy
193
656422
1151
10:57
nearly as easily as you can pay to ruin those things.
194
657597
3841
Het gaat ze veel makkelijker af om die dingen te ruïneren.
11:01
And so this is the dilemma we've gotten ourselves into.
195
661462
3719
Met dit dilemma hebben we onszelf opgezadeld.
11:05
The alternative is to turn back the clock, with great difficulty,
196
665856
5232
Het alternatief is om de klok met veel moeite terug te draaien
11:11
and remake that decision.
197
671112
2841
en die beslissing te herstellen.
11:13
Remaking it would mean two things.
198
673977
4038
Het herstellen zou twee dingen betekenen.
Het zou ten eerste betekenen dat velen, die het zich konden veroorloven,
11:18
It would mean first that many people, those who could afford to,
199
678039
3928
11:21
would actually pay for these things.
200
681991
2207
er eigenlijk voor zouden betalen.
11:24
You'd pay for search, you'd pay for social networking.
201
684222
4407
Je zou betalen voor opzoeken, je zou betalen voor sociale netwerken.
11:28
How would you pay? Maybe with a subscription fee,
202
688653
3461
Hoe zou je betalen? Misschien met een abonnementsgeld,
11:32
maybe with micro-payments as you use them.
203
692138
2738
misschien met micro-betalingen als je het gebruikt.
11:34
There's a lot of options.
204
694900
1802
Er zijn allerlei mogelijkheden.
11:36
If some of you are recoiling, and you're thinking,
205
696726
2397
Mocht je terugdeinzen en denken:
"Mijn God, daar zou ik nooit voor betalen!
11:39
"Oh my God, I would never pay for these things.
206
699147
2366
11:41
How could you ever get anyone to pay?"
207
701537
2095
Wie zou je ooit zover kunnen krijgen?"
11:43
I want to remind you of something that just happened.
208
703656
3239
Denk dan even aan iets dat net gebeurde.
11:46
Around this same time
209
706919
2054
Rond dezelfde tijd
11:48
that companies like Google and Facebook were formulating their free idea,
210
708997
5707
dat bedrijven als Google en Facebook hun idee van gratis uitwerkten,
11:54
a lot of cyber culture also believed that in the future,
211
714728
4504
was veel cybercultuur ook van mening dat in de toekomst,
11:59
televisions and movies would be created in the same way,
212
719256
3022
televisie en films op dezelfde manier zouden worden gemaakt,
12:02
kind of like the Wikipedia.
213
722302
1755
een beetje als Wikipedia.
12:04
But then, companies like Netflix, Amazon, HBO,
214
724456
5064
Maar toen zeiden bedrijven als Netflix, Amazon, HBO:
12:09
said, "Actually, you know, subscribe. We'll give you give you great TV."
215
729544
3739
"Abonneer je en we geven je geweldige tv."
12:13
And it worked!
216
733307
1373
En het werkte!
12:14
We now are in this period called "peak TV," right?
217
734704
3874
We hebben nu 'piek-tv’, toch?
12:18
So sometimes when you pay for stuff, things get better.
218
738602
4198
Soms worden dingen beter als je ervoor betaalt.
12:22
We can imagine a hypothetical --
219
742824
2286
We kunnen ons een hypothetische --
12:25
(Applause)
220
745134
4671
(Applaus)
12:29
We can imagine a hypothetical world of "peak social media."
221
749829
3659
een hypothetische wereld voorstellen van ‘piek sociale media’.
12:33
What would that be like?
222
753512
1349
Wat zou dat zijn?
12:34
It would mean when you get on, you can get really useful,
223
754885
2770
Als je online zou gaan, zou je echt nuttig, gezaghebbend
12:37
authoritative medical advice instead of cranks.
224
757679
3095
medisch advies krijgen in plaats van kwakzalvers.
12:41
It could mean when you want to get factual information,
225
761143
3310
Het zou kunnen betekenen dat als je feitelijke informatie wil,
12:44
there's not a bunch of weird, paranoid conspiracy theories.
226
764477
3254
je geen rare, paranoïde samenzweringstheorieën aantreft.
12:47
We can imagine this wonderful other possibility.
227
767755
4235
We kunnen ons deze prachtige andere mogelijkheid voorstellen.
12:52
Ah.
228
772014
1261
Ah.
12:53
I dream of it. I believe it's possible.
229
773299
2130
Ik droom ervan. Ik geloof dat het kan.
12:55
I'm certain it's possible.
230
775453
3302
Ik ben er zeker van dat het mogelijk is.
12:58
And I'm certain that the companies, the Googles and the Facebooks,
231
778779
4747
En ik ben er zeker van dat de bedrijven, de Googles en de Facebooks,
13:03
would actually do better in this world.
232
783550
2312
het in deze wereld eigenlijk beter zouden doen.
13:05
I don't believe we need to punish Silicon Valley.
233
785886
3166
Ik geloof niet dat we Silicon Valley moeten gaan straffen.
13:09
We just need to remake the decision.
234
789076
2253
We moeten alleen de beslissing herzien.
13:12
Of the big tech companies,
235
792702
1882
Van de grote tech-bedrijven,
13:14
it's really only two that depend on behavior modification and spying
236
794608
5563
zijn het er eigenlijk maar twee die gedragsbeïnvloeding en spionage
nodig hebben voor hun businessplan.
13:20
as their business plan.
237
800195
1257
13:21
It's Google and Facebook.
238
801476
1759
Dat zijn Google en Facebook.
13:23
(Laughter)
239
803259
1310
(Gelach)
13:24
And I love you guys.
240
804593
1691
En ik hou van jullie.
13:26
Really, I do. Like, the people are fantastic.
241
806308
2721
Echt. De mensen zijn fantastisch.
13:30
I want to point out, if I may,
242
810371
3182
Ik wil erop wijzen, als ik mag,
13:33
if you look at Google,
243
813577
1151
kijk naar Google,
13:34
they can propagate cost centers endlessly with all of these companies,
244
814752
5087
ze kunnen met elk van deze bedrijven kostenplaatsen eindeloos propageren,
13:39
but they cannot propagate profit centers.
245
819863
2048
maar winstplaatsen kunnen ze niet propageren.
13:41
They cannot diversify, because they're hooked.
246
821935
3181
Ze kunnen niet diversifiëren, omdat ze verslaafd zijn.
13:45
They're hooked on this model, just like their own users.
247
825140
2627
Ze zijn verslaafd aan dit model, net als hun gebruikers.
13:47
They're in the same trap as their users,
248
827791
2298
Ze zitten in dezelfde val als de gebruikers,
13:50
and you can't run a big corporation that way.
249
830113
2504
en zo leid je geen groot bedrijf.
13:52
So this is ultimately totally in the benefit of the shareholders
250
832641
3603
Dus is dit uiteindelijk volledig in het voordeel van de aandeelhouders
13:56
and other stakeholders of these companies.
251
836268
2445
en andere belanghebbenden van deze bedrijven.
13:58
It's a win-win solution.
252
838737
2350
Het is een win-win-oplossing.
14:01
It'll just take some time to figure it out.
253
841111
2515
Het vergt alleen wat tijd om het uit te werken.
14:03
A lot of details to work out,
254
843650
2262
Een hoop details om uit te werken,
14:05
totally doable.
255
845936
1830
maar helemaal haalbaar.
14:07
(Laughter)
256
847790
2415
(Gelach)
14:10
I don't believe our species can survive unless we fix this.
257
850229
3834
Ik geloof niet dat onze soort kan overleven, tenzij we dit oplossen.
14:14
We cannot have a society
258
854087
2290
We kunnen geen samenleving hebben
14:16
in which, if two people wish to communicate,
259
856401
2961
waarin, als twee mensen willen communiceren,
14:19
the only way that can happen is if it's financed by a third person
260
859386
3440
de enige manier via een derde betalende is
14:22
who wishes to manipulate them.
261
862850
2346
die hen wil manipuleren.
14:25
(Applause)
262
865220
6238
(Applaus) (Gejuich)
14:35
(Applause ends)
263
875077
1151
14:36
In the meantime, if the companies won't change,
264
876942
2945
In afwachting kunnen jullie, als de bedrijven niet veranderen,
14:39
delete your accounts, OK?
265
879911
1666
jullie accounts verwijderen, OK?
14:41
(Laughter)
266
881601
1269
(Gelach)
14:42
(Applause)
267
882894
1046
(Applaus)
14:43
That's enough for now.
268
883964
1509
Dat is genoeg voor vandaag.
14:45
Thank you so much.
269
885497
1151
Heel erg bedankt.
14:46
(Applause)
270
886672
6804
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7