How to be "Team Human" in the digital future | Douglas Rushkoff

117,366 views ・ 2019-01-14

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Lisette Feenstra Nagekeken door: Peter van de Ven
00:13
I got invited to an exclusive resort
0
13520
3880
Ik werd ooit uitgenodigd om in een exclusief resort
00:17
to deliver a talk about the digital future
1
17440
2456
te komen spreken over de digitale toekomst
00:19
to what I assumed would be a couple of hundred tech executives.
2
19920
3576
voor wat ik dacht een paar honderd directeuren van techbedrijven.
00:23
And I was there in the green room, waiting to go on,
3
23520
2696
Ik zat te wachten in de foyer tot ik op moest,
00:26
and instead of bringing me to the stage, they brought five men into the green room
4
26240
5176
maar in plaats daarvan stapten vijf man de ruimte binnen,
00:31
who sat around this little table with me.
5
31440
2056
die naast me plaatsnamen.
00:33
They were tech billionaires.
6
33520
2096
Het waren techmiljardairs.
00:35
And they started peppering me with these really binary questions,
7
35640
4536
Ze bestookten me met simpele vragen,
00:40
like: Bitcoin or Etherium?
8
40200
2000
zoals: "Bitcoin of Etherium?"
00:43
Virtual reality or augmented reality?
9
43120
2656
"Virtual reality of augmented reality?"
00:45
I don't know if they were taking bets or what.
10
45800
2496
Alsof het een weddenschap was.
00:48
And as they got more comfortable with me,
11
48320
2816
Toen ze zich meer op hun gemak begonnen te voelen,
00:51
they edged towards their real question of concern.
12
51160
3216
werd duidelijk waar ze zich echt zorgen om maakten.
00:54
Alaska or New Zealand?
13
54400
2240
"Alaska of Nieuw-Zeeland?"
00:57
That's right.
14
57760
1216
Serieus.
Deze techmiljardairs vroegen een mediatheoreticus om advies
00:59
These tech billionaires were asking a media theorist for advice
15
59000
2976
over waar ze hun bunkers voor Armaggedon moesten zetten.
01:02
on where to put their doomsday bunkers.
16
62000
1880
01:04
We spent the rest of the hour on the single question:
17
64600
3136
De rest van dat uur draaide om één vraag:
01:07
"How do I maintain control of my security staff
18
67760
3616
"Hoe zorg ik ervoor
dat mijn veiligheidsmensen er na de gebeurtenis niet vandoor gaan?"
01:11
after the event?"
19
71400
1320
01:13
By "the event" they mean the thermonuclear war
20
73920
2736
Daarmee bedoelen ze de kernoorlog of klimaatramp of sociale onrust
01:16
or climate catastrophe or social unrest that ends the world as we know it,
21
76680
4656
die het einde van de wereld betekent en nog veel belangrijker:
01:21
and more importantly, makes their money obsolete.
22
81360
3280
die hun geld waardeloos maakt.
01:26
And I couldn't help but think:
23
86200
2216
En deze gedachte drong zich op:
01:28
these are the wealthiest, most powerful men in the world,
24
88440
4736
dit zijn de rijkste en machtigste mannen ter wereld,
01:33
yet they see themselves as utterly powerless to influence the future.
25
93200
4656
maar ze achten zichzelf niet in staat
om invloed te hebben op de toekomst.
01:37
The best they can do is hang on for the inevitable catastrophe
26
97880
4456
Ze kunnen niets beters verzinnen dan de onvermijdelijke ramp te trotseren
01:42
and then use their technology and money to get away from the rest of us.
27
102360
3680
en daarna met hun technologie en geld op de vlucht te slaan.
01:47
And these are the winners of the digital economy.
28
107520
2536
En dit zijn succesvolle ondernemers van de digitale economie.
01:50
(Laughter)
29
110080
3416
(Gelach)
01:53
The digital renaissance
30
113520
2776
De digitale renaissance
01:56
was about the unbridled potential
31
116320
4256
ging over de ongebreidelde potentie
02:00
of the collective human imagination.
32
120600
2416
van onze collectieve menselijke verbeelding.
02:03
It spanned everything from chaos math and quantum physics
33
123040
5136
Daartoe behoorde alles van chaostheorie tot kwantummechanica
02:08
to fantasy role-playing and the Gaia hypothesis, right?
34
128200
4176
en van fantasy-rollenspellen tot de Gaia-hypothese.
02:12
We believed that human beings connected could create any future we could imagine.
35
132400
6720
Wij geloofden dat mensen die verbonden waren
elke toekomst konden bouwen die ze maar wensten.
02:20
And then came the dot com boom.
36
140840
2199
En toen vond de internetexplosie plaats.
02:24
And the digital future became stock futures.
37
144600
3616
En de digitale toekomst veranderde in aandelenfutures.
02:28
And we used all that energy of the digital age
38
148240
3016
En we gebruikten al die energie van het digitale tijdperk
02:31
to pump steroids into the already dying NASDAQ stock exchange.
39
151280
4256
om de stervende NASDAQ-beurs vol met steroïden te pompen.
02:35
The tech magazines told us a tsunami was coming.
40
155560
3616
De computertijdschriften voorspelden dat er een ware tsunami op komst was.
02:39
And only the investors who hired the best scenario-planners and futurists
41
159200
4456
Alleen investeerders met de beste analisten en futurologen in dienst
02:43
would be able to survive the wave.
42
163680
2520
zouden de vloedgolf overleven.
02:47
And so the future changed from this thing we create together in the present
43
167160
5896
De toekomst veranderde van iets waar we samen aan werken in het heden
02:53
to something we bet on
44
173080
1496
naar een gokspel op leven en dood.
02:54
in some kind of a zero-sum winner-takes-all competition.
45
174600
3200
03:00
And when things get that competitive about the future,
46
180120
3136
En als de strijd om de toekomst zo hoog gespeeld wordt,
03:03
humans are no longer valued for our creativity.
47
183280
3296
dan is menselijke creativiteit ineens niets meer waard.
03:06
No, now we're just valued for our data.
48
186600
3136
Alleen onze data is nog van waarde.
03:09
Because they can use the data to make predictions.
49
189760
2376
Want met data kunnen ze voorspellingen doen.
Creativiteit is vooral ruis,
03:12
Creativity, if anything, that creates noise.
50
192160
2576
03:14
That makes it harder to predict.
51
194760
2216
en dat maakt het onvoorspelbaar.
En zo ontstond een digitaal landschap
03:17
So we ended up with a digital landscape
52
197000
2416
03:19
that really repressed creativity, repressed novelty,
53
199440
3256
dat creativiteit onderdrukte en nieuwe ontwikkelingen verdrong,
03:22
it repressed what makes us most human.
54
202720
2840
het onderdrukte wat ons tot mens maakt.
03:26
We ended up with social media.
55
206760
1456
En zo ontstonden sociale media.
03:28
Does social media really connect people in new, interesting ways?
56
208240
3456
Brengen die nou echt nieuwe en interessante vormen van contact voort?
03:31
No, social media is about using our data to predict our future behavior.
57
211720
5016
Nee, sociale media gebruiken onze data om ons toekomstige gedrag te voorspellen
03:36
Or when necessary, to influence our future behavior
58
216760
2896
en om ons toekomstige gedrag te beïnvloeden,
03:39
so that we act more in accordance with our statistical profiles.
59
219680
4040
zodat we beter passen in onze statistische profielen.
03:45
The digital economy -- does it like people?
60
225200
2216
De digitale economie: houdt die van mensen?
03:47
No, if you have a business plan, what are you supposed to do?
61
227440
2896
Nee. Wat doe je dus met een businesssplan?
Je elimineert de mensen.
03:50
Get rid of all the people.
62
230360
1256
03:51
Human beings, they want health care, they want money, they want meaning.
63
231640
3400
Mensen willen gezondheidszorg, ze willen geld, ze willen zingeving.
03:56
You can't scale with people.
64
236360
1880
Je kan mensen niet 'opschalen'.
(Gelach)
03:59
(Laughter)
65
239360
1456
04:00
Even our digital apps --
66
240840
1216
Zelfs onze digitale apps kweken geen goede relaties of solidariteit.
04:02
they don't help us form any rapport or solidarity.
67
242080
3216
04:05
I mean, where's the button on the ride hailing app
68
245320
2416
Waar zit de knop op de taxi-app
04:07
for the drivers to talk to one another about their working conditions
69
247760
3496
waarmee bestuurders onderling over werkomstandigheden kunnen praten
04:11
or to unionize?
70
251280
1200
of zich kunnen verenigen?
04:13
Even our videoconferencing tools,
71
253600
2016
Zelfs videobelapps maken goed contact onmogelijk.
04:15
they don't allow us to establish real rapport.
72
255640
2376
04:18
However good the resolution of the video,
73
258040
3336
Hoe hoog de resolutie van de video ook is,
04:21
you still can't see if somebody's irises are opening to really take you in.
74
261400
4016
je ziet niet of iemands pupillen zich vergroten om je goed te zien.
04:25
All of the things that we've done to establish rapport
75
265440
2576
Het tot stand brengen van goede relaties,
04:28
that we've developed over hundreds of thousands of years of evolution,
76
268040
3335
wat we door duizenden jaren evolutie hebben ontwikkeld, werkt niet meer.
04:31
they don't work,
77
271399
1217
Je ziet niet of iemands adem gelijk loopt aan die van jou.
04:32
you can't see if someone's breath is syncing up with yours.
78
272640
3016
04:35
So the mirror neurons never fire, the oxytocin never goes through your body,
79
275680
3656
Spiegelneuronen vuren niet af,
er gaat geen oxytocine door je lichaam heen
04:39
you never have that experience of bonding with the other human being.
80
279360
3240
en je zal nooit weten wat het is om een band te krijgen met iemand anders.
04:43
And instead, you're left like,
81
283360
1456
Dan vraag je je af:
04:44
"Well, they agreed with me, but did they really,
82
284840
2256
goed, ze gaven me gelijk, maar snappen ze echt wat ik bedoel?
04:47
did they really get me?"
83
287120
1696
04:48
And we don't blame the technology for that lack of fidelity.
84
288840
3376
Maar de technologie krijgt niet de schuld van dit gebrek aan loyaliteit.
04:52
We blame the other person.
85
292240
1480
We geven de ander de schuld.
04:55
You know, even the technologies and the digital initiatives that we have
86
295320
4056
Zelfs technologieën en digitale initiatieven die er zijn
04:59
to promote humans,
87
299400
2176
om mensen te promoten,
05:01
are intensely anti-human at the core.
88
301600
2760
zijn in beginsel mensonvriendelijk.
05:05
Think about the blockchain.
89
305600
2000
Denk maar aan blockchain.
05:08
The blockchain is here to help us have a great humanized economy? No.
90
308520
3616
Zorgt de blockchain voor een bloeiende humane economie?
Nee!
05:12
The blockchain does not engender trust between users,
91
312160
2696
Een blockchain stimuleert geen vertrouwen onder gebruikers,
05:14
the blockchain simply substitutes for trust in a new,
92
314880
3536
hij ruilt vertrouwen in voor iets totaal ongrijpbaars.
05:18
even less transparent way.
93
318440
2000
05:21
Or the code movement.
94
321600
1816
Of neem de codebeweging.
05:23
I mean, education is great, we love education,
95
323440
2176
Onderwijs is geweldig en belangrijk
05:25
and it's a wonderful idea
96
325640
1456
en het is een goed idee
05:27
that we want kids to be able to get jobs in the digital future,
97
327120
3136
om kinderen voor te bereiden voor banen in de digitale toekomst
05:30
so we'll teach them code now.
98
330280
1600
en daarom leren we ze nu coderen.
05:32
But since when is education about getting jobs?
99
332640
2480
Maar sinds wanneer ontwikkel je jezelf voor een baan?
05:35
Education wasn't about getting jobs.
100
335920
1736
Je ontwikkelde jezelf niet voor een baan.
05:37
Education was compensation for a job well done.
101
337680
3976
Ontwikkeling was een vergoeding voor een goede prestatie.
05:41
The idea of public education
102
341680
1576
Het idee van openbaar onderwijs
05:43
was for coal miners, who would work in the coal mines all day,
103
343280
3376
was ooit bedoeld voor mijnwerkers, die de hele dag in de mijnen werkten,
05:46
then they'd come home and they should have the dignity
104
346680
2576
zodat ze 's avonds met trots een boek konden lezen;
05:49
to be able to read a novel and understand it.
105
349280
2136
05:51
Or the intelligence to be able to participate in democracy.
106
351440
2960
of om wijs genoeg te zijn om mee te doen in de democratie.
05:55
When we make it an extension of the job, what are we really doing?
107
355200
3216
Wat gebeurt er als je ontwikkeling een verlengstuk van je werk wordt?
05:58
We're just letting corporations really
108
358440
2536
Zo staan we toe dat bedrijven
06:01
externalize the cost of training their workers.
109
361000
3120
de trainingskosten van hun werknemers niet hoeven te dragen.
06:05
And the worst of all really is the humane technology movement.
110
365520
4096
De humane technologiebeweging spant de kroon.
06:09
I mean, I love these guys, the former guys who used to take
111
369640
2816
Sympathieke lui,
maar ze gebruikten ooit de algoritmes van de gokmachines van Las Vegas
06:12
the algorithms from Las Vegas slot machines
112
372480
2936
06:15
and put them in our social media feed so that we get addicted.
113
375440
2936
voor onze socialmediafeed, zodat we verslaafd zouden raken.
06:18
Now they've seen the error of their ways
114
378400
1936
En nu ze tot inkeer zijn gekomen,
willen ze technologie een menselijk gezicht geven.
06:20
and they want to make technology more humane.
115
380360
2456
06:22
But when I hear the expression "humane technology,"
116
382840
2416
Maar als ik de term 'humane technologie' hoor,
06:25
I think about cage-free chickens or something.
117
385280
2856
denk ik aan scharrelkippen.
06:28
We're going to be as humane as possible to them,
118
388160
2256
We zullen ze netjes behandelen --
06:30
until we take them to the slaughter.
119
390440
1720
tot we ze naar het slachthuis brengen ...
06:33
So now they're going to let these technologies be as humane as possible,
120
393200
3416
En nu zijn bouwen ze hun technologieën zo humaan mogelijk,
06:36
as long as they extract enough data and extract enough money from us
121
396640
3216
als ze maar genoeg data verzamelen en genoeg geld aan ons verdienen
06:39
to please their shareholders.
122
399880
1400
om de aandeelhouders blij te maken.
06:42
Meanwhile, the shareholders, for their part, they're just thinking,
123
402520
3176
Ondertussen denken de aandeelhouders:
06:45
"I need to earn enough money now, so I can insulate myself
124
405720
2976
ik moet genoeg geld verdienen om mezelf te beschermen
06:48
from the world I'm creating by earning money in this way."
125
408720
3056
tegen de wereld die ik creëer door zo mijn geld te verdienen.
06:51
(Laughter)
126
411800
2376
(Gelach)
06:54
No matter how many VR goggles they slap on their faces
127
414200
4056
Ongeacht hoeveel VR-brillen ze opzetten
06:58
and whatever fantasy world they go into,
128
418280
2256
en wat voor fantasiewerelden ze ook invluchten,
07:00
they can't externalize the slavery and pollution that was caused
129
420560
3536
ze kunnen niet heen om de slavernij en vervuiling die gepaard gingen
07:04
through the manufacture of the very device.
130
424120
2976
met de productie van hun apparaat.
07:07
It reminds me of Thomas Jefferson's dumbwaiter.
131
427120
3176
Dit doet me denken aan Thomas Jeffersons etenslift.
07:10
Now, we like to think that he made the dumbwaiter
132
430320
2336
Je zou denken dat hij de lift had gemaakt
07:12
in order to spare his slaves all that labor of carrying the food
133
432680
3656
zodat de slaven het eten niet hoefden te dragen
07:16
up to the dining room for the people to eat.
134
436360
2776
naar de eetkamer waar de gasten aten.
07:19
That's not what it was for, it wasn't for the slaves,
135
439160
2496
Daar was hij niet voor bedoeld.
07:21
it was for Thomas Jefferson and his dinner guests,
136
441680
2336
Hij was er voor Jefferson en z'n gasten,
zodat ze niet zagen hoe het eten naar boven werd gebracht.
07:24
so they didn't have to see the slave bringing the food up.
137
444040
3096
07:27
The food just arrived magically,
138
447160
1576
Het eten verscheen uit het niets
07:28
like it was coming out of a "Start Trek" replicator.
139
448760
3000
alsof het uit een 'Star Trek-replicator' kwam.
07:32
It's part of an ethos that says,
140
452720
2096
Het komt voort uit de houding
07:34
human beings are the problem and technology is the solution.
141
454840
4280
dat mensen het probleem zijn en technologie de oplossing.
07:40
We can't think that way anymore.
142
460680
2056
Maar dat is een verkeerde gedachte.
07:42
We have to stop using technology to optimize human beings for the market
143
462760
5296
We moeten ophouden technologie te gebruiken
voor het optimaliseren van mensen voor de markt
07:48
and start optimizing technology for the human future.
144
468080
5040
en technologie beginnen te optimaliseren voor de toekomst van de mensheid.
07:55
But that's a really hard argument to make these days,
145
475080
2656
Maar dat is tegenwoordig geen populaire boodschap,
07:57
because humans are not popular beings.
146
477760
4056
omdat mensen niet erg geliefd zijn.
08:01
I talked about this in front of an environmentalist just the other day,
147
481840
3376
Ik sprak laatst hierover met een milieudeskundige en die zei:
"Waarom verdedig je mensen?
08:05
and she said, "Why are you defending humans?
148
485240
2096
Ze hebben de planeet vernietigd. Laat ze maar uitsterven."
08:07
Humans destroyed the planet. They deserve to go extinct."
149
487360
2696
08:10
(Laughter)
150
490080
3456
(Gelach)
08:13
Even our popular media hates humans.
151
493560
2576
Zelfs onze favoriete media hebben een hekel aan mensen.
08:16
Watch television,
152
496160
1256
Kijk maar op tv:
08:17
all the sci-fi shows are about how robots are better and nicer than people.
153
497440
3736
in sciencefictionseries zijn robots altijd veel aardiger dan mensen.
08:21
Even zombie shows -- what is every zombie show about?
154
501200
2976
Zelfs zombieseries -- waar gaan die over?
08:24
Some person, looking at the horizon at some zombie going by,
155
504200
3256
Iemand kijkt naar de horizon en ziet een zombie voorbijlopen
08:27
and they zoom in on the person and you see the person's face,
156
507480
2896
en we zien de persoon nu in close-up
08:30
and you know what they're thinking:
157
510400
1736
en je weet wat die denkt:
"Wat is nou het verschil tussen die zombie en mij?
08:32
"What's really the difference between that zombie and me?
158
512160
2736
08:34
He walks, I walk.
159
514920
1536
Hij loopt, ik loop.
08:36
He eats, I eat.
160
516480
2016
Hij eet, ik eet.
08:38
He kills, I kill."
161
518520
2280
Hij doodt, ik dood."
08:42
But he's a zombie.
162
522360
1536
Maar hij is een zombie.
08:43
At least you're aware of it.
163
523920
1416
Jij weet dat tenminste.
08:45
If we are actually having trouble distinguishing ourselves from zombies,
164
525360
3696
Als we echt niet in staat zouden zijn onszelf van zombies te onderscheiden,
08:49
we have a pretty big problem going on.
165
529080
2176
dan hebben we een groot probleem.
08:51
(Laughter)
166
531280
1216
(Gelach)
08:52
And don't even get me started on the transhumanists.
167
532520
2936
De transhumanisten zijn nog erger.
08:55
I was on a panel with a transhumanist, and he's going on about the singularity.
168
535480
3816
Ik zat in een panel met een transhumanist die uitgebreid sprak over singulariteit.
08:59
"Oh, the day is going to come really soon when computers are smarter than people.
169
539320
3856
"Nog even en computers zijn slimmer dan wij.
09:03
And the only option for people at that point
170
543200
2136
En de enige keuze die je hebt,
09:05
is to pass the evolutionary torch to our successor
171
545360
3336
is de fakkel van de evolutie door te geven aan onze opvolgers
09:08
and fade into the background.
172
548720
1616
en naar de achtergrond te verdwijnen.
09:10
Maybe at best, upload your consciousness to a silicon chip.
173
550360
3456
Misschien kan je je bewustzijn nog net uploaden naar een siliciumchip
09:13
And accept your extinction."
174
553840
1840
en accepteren dat je uitsterft."
09:16
(Laughter)
175
556640
1456
(Gelach)
09:18
And I said, "No, human beings are special.
176
558120
3376
Ik zei: "Nee, mensen zijn bijzonder.
09:21
We can embrace ambiguity, we understand paradox,
177
561520
3536
We accepteren ambiguïteit, we snappen paradoxen,
09:25
we're conscious, we're weird, we're quirky.
178
565080
2616
we zijn bewust, we zijn gek, we zijn eigenzinnig.
09:27
There should be a place for humans in the digital future."
179
567720
3336
Mensen verdienen het deel uit te maken van de digitale toekomst."
09:31
And he said, "Oh, Rushkoff,
180
571080
1536
Toen zei hij: "Ach, Rushkoff,
09:32
you're just saying that because you're a human."
181
572640
2296
dat zeg je alleen omdat je een mens bent."
09:34
(Laughter)
182
574960
1776
(Gelach)
09:36
As if it's hubris.
183
576760
1600
Alsof ik verwaand klonk.
09:39
OK, I'm on "Team Human."
184
579280
2800
Oké, ik ben voor 'Team Mens'.
09:43
That was the original insight of the digital age.
185
583200
3856
Met dat inzicht gingen we het digitale tijdperk in.
09:47
That being human is a team sport,
186
587080
2216
Mens zijn als teamsport
09:49
evolution's a collaborative act.
187
589320
2736
en evolutie als samenwerkingsverband.
09:52
Even the trees in the forest,
188
592080
1416
Zelfs de bomen in het bos hebben geen onderlinge strijd,
09:53
they're not all in competition with each other,
189
593520
2216
09:55
they're connected with the vast network of roots and mushrooms
190
595760
3216
ze maken deel uit van een enorm netwerk van wortels en paddenstoelen
09:59
that let them communicate with one another and pass nutrients back and forth.
191
599000
4536
die zorgen voor onderling contact en die voedingsstoffen doorgeven.
10:03
If human beings are the most evolved species,
192
603560
2136
Mensen zijn de meest intelligente wezens
10:05
it's because we have the most evolved ways of collaborating and communicating.
193
605720
4136
omdat we goed kunnen samenwerken en communiceren.
10:09
We have language.
194
609880
1496
We beschikken over taal.
10:11
We have technology.
195
611400
1240
We beschikken over technologie.
10:14
It's funny, I used to be the guy who talked about the digital future
196
614120
4576
Voorheen sprak ik altijd over de digitale toekomst
10:18
for people who hadn't yet experienced anything digital.
197
618720
2680
voor mensen die nog niets digitaals hadden ervaren.
10:22
And now I feel like I'm the last guy
198
622200
1816
Nu lijkt het alsof ik de laatste ben
die zich nog een wereld kan herinneren zonder digitale technologie.
10:24
who remembers what life was like before digital technology.
199
624040
2920
10:28
It's not a matter of rejecting the digital or rejecting the technological.
200
628680
4216
Het is niet dat ik digitaal of technologie afwijs.
10:32
It's a matter of retrieving the values that we're in danger of leaving behind
201
632920
4096
Het gaat erom dat we de waarden die we dreigen te verliezen,
10:37
and then embedding them in the digital infrastructure for the future.
202
637040
3600
moeten inbouwen in de digitale infrastructuur van de toekomst.
10:41
And that's not rocket science.
203
641880
2296
Dat snapt iedereen.
10:44
It's as simple as making a social network
204
644200
2096
Denk maar aan een sociaal netwerk
10:46
that instead of teaching us to see people as adversaries,
205
646320
3536
dat ons niet leert mensen als vijanden te zien,
10:49
it teaches us to see our adversaries as people.
206
649880
3000
maar onze vijanden als mensen te zien.
10:54
It means creating an economy that doesn't favor a platform monopoly
207
654240
4296
Het betekent dat je een economie creëert die geen monopolie verstrekt
10:58
that wants to extract all the value out of people and places,
208
658560
3336
aan een platform dat mensen en locaties maximaal wil exploiteren,
11:01
but one that promotes the circulation of value through a community
209
661920
3936
maar juist één die waarden door een gemeenschap laat circuleren
11:05
and allows us to establish platform cooperatives
210
665880
2416
en die ons in staat stelt samen platforms te creëren
11:08
that distribute ownership as wide as possible.
211
668320
3816
waarop die waarden ons gemeenschappelijk goed worden.
11:12
It means building platforms
212
672160
1656
Het vereist dat er platforms komen
11:13
that don't repress our creativity and novelty in the name of prediction
213
673840
4656
die onze creativiteit en innovatie niet onderdrukken
ten behoeve van voorspelbaarheid,
11:18
but actually promote creativity and novelty,
214
678520
2576
maar creativiteit en nieuwsgierigheid juist stimuleren,
11:21
so that we can come up with some of the solutions
215
681120
2336
zodat we oplossingen kunnen verzinnen
11:23
to actually get ourselves out of the mess that we're in.
216
683480
2680
voor de puinhoop de we ervan gemaakt hebben.
11:27
No, instead of trying to earn enough money to insulate ourselves
217
687440
3056
In plaats van dat we onszelf met al ons geld isoleren
11:30
from the world we're creating,
218
690520
1496
van de wereld die we creëren,
kunnen we die energie beter gebruiken
11:32
why don't we spend that time and energy making the world a place
219
692040
3056
om van de wereld een plek te maken waar je niet uit wil ontsnappen.
11:35
that we don't feel the need to escape from.
220
695120
2040
11:38
There is no escape, there is only one thing going on here.
221
698000
3200
Je kunt het leven niet ontvluchten -- je leeft het of je leeft het niet.
11:42
Please, don't leave.
222
702680
2120
Alsjeblieft, ga niet weg.
11:45
Join us.
223
705640
1360
Doe met ons mee.
11:47
We may not be perfect,
224
707800
1296
We zijn niet perfect,
11:49
but whatever happens, at least you won't be alone.
225
709120
2440
maar wat er ook gebeurt, je bent tenminste nooit alleen.
11:52
Join "Team Human."
226
712640
1520
Sluit je aan bij Team Mens.
11:55
Find the others.
227
715160
2096
Zoek de anderen.
11:57
Together, let's make the future that we always wanted.
228
717280
2960
Laten we samen bouwen aan de toekomst die we willen.
12:01
Oh, and those tech billionaires who wanted to know
229
721560
2496
En de techmiljardairs die vroegen hoe ze konden voorkomen
12:04
how to maintain control of their security force after the apocalypse,
230
724080
3256
dat hun personeel er na de apocalyps niet vandoor zou gaan,
12:07
you know what I told them?
231
727360
1896
weet je wat ik tegen ze zei?
12:09
"Start treating those people with love and respect right now.
232
729280
4216
Behandel deze mensen voortaan met liefde en respect.
12:13
Maybe you won't have an apocalypse to worry about."
233
733520
2440
Misschien komt die apocalyps er dan helemaal niet.
12:16
Thank you.
234
736840
1216
Bedankt.
(Applaus)
12:18
(Applause)
235
738080
4440
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7