How to be "Team Human" in the digital future | Douglas Rushkoff

114,556 views ・ 2019-01-14

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Andra Mocanu Corector: Bianca-Ioanidia Mirea
00:13
I got invited to an exclusive resort
0
13520
3880
Am fost invitat la un resort exclusivist
00:17
to deliver a talk about the digital future
1
17440
2456
pentru a ține un discurs despre viitorul digital
00:19
to what I assumed would be a couple of hundred tech executives.
2
19920
3576
în fața a ceea ce credeam că vor fi câteva sute de oameni influenți din tehnologie.
00:23
And I was there in the green room, waiting to go on,
3
23520
2696
Și iată-mă în culise, așteptând să intru,
00:26
and instead of bringing me to the stage, they brought five men into the green room
4
26240
5176
și în loc să fiu dus pe scenă, au venit cinci oameni în culise
00:31
who sat around this little table with me.
5
31440
2056
și s-au așezat lângă mine, la o masă micuță.
00:33
They were tech billionaires.
6
33520
2096
Erau miliardari ai tehnologiei.
00:35
And they started peppering me with these really binary questions,
7
35640
4536
Și au început să mă ia la întrebări
00:40
like: Bitcoin or Etherium?
8
40200
2000
de tipul: bitcoin sau ethereum?
00:43
Virtual reality or augmented reality?
9
43120
2656
Realitatea virtuală sau augmentată?
00:45
I don't know if they were taking bets or what.
10
45800
2496
Nu știu dacă pariaseră pe chestiile astea sau nu.
00:48
And as they got more comfortable with me,
11
48320
2816
Și, pe măsură ce au devenit mai destinși în prezența mea,
00:51
they edged towards their real question of concern.
12
51160
3216
s-au îndreptat spre adevărata întrebare care îi preocupa:
00:54
Alaska or New Zealand?
13
54400
2240
Alaska sau Noua Zeelandă?
00:57
That's right.
14
57760
1216
Da, auziți bine.
00:59
These tech billionaires were asking a media theorist for advice
15
59000
2976
Acești miliardari îl întrebau pe un om de media
01:02
on where to put their doomsday bunkers.
16
62000
1880
unde să-și construiască buncărele.
01:04
We spent the rest of the hour on the single question:
17
64600
3136
Am dedicat restul orei întrebării:
01:07
"How do I maintain control of my security staff
18
67760
3616
„Cum îmi țin sub control echipa de securitate
01:11
after the event?"
19
71400
1320
după eveniment?”
01:13
By "the event" they mean the thermonuclear war
20
73920
2736
Prin „eveniment”, ei se referă la războiul termonuclear
01:16
or climate catastrophe or social unrest that ends the world as we know it,
21
76680
4656
sau catastrofa climatică sau revolta care va încheia lumea pe care o știm,
01:21
and more importantly, makes their money obsolete.
22
81360
3280
și, cel mai important, care le va face banii inutili.
01:26
And I couldn't help but think:
23
86200
2216
Și nu m-am putut abține să nu mă gândesc:
01:28
these are the wealthiest, most powerful men in the world,
24
88440
4736
aceștia sunt cei mai puternici și bogați oameni din lume,
01:33
yet they see themselves as utterly powerless to influence the future.
25
93200
4656
și totuși se consideră neputincioși în a influența viitorul.
01:37
The best they can do is hang on for the inevitable catastrophe
26
97880
4456
Tot ce pot face e să aștepte catastrofa inevitabilă,
01:42
and then use their technology and money to get away from the rest of us.
27
102360
3680
și apoi să-și folosească tehnologiile și banii pentru a se izola de ceilalți.
01:47
And these are the winners of the digital economy.
28
107520
2536
Iar aceștia sunt învingătorii economiei digitale.
01:50
(Laughter)
29
110080
3416
(Râsete)
01:53
The digital renaissance
30
113520
2776
Renașterea digitală
01:56
was about the unbridled potential
31
116320
4256
era despre potențialul de neoprit
02:00
of the collective human imagination.
32
120600
2416
al imaginației umane colective.
02:03
It spanned everything from chaos math and quantum physics
33
123040
5136
S-a extins de la teoriile haosului și fizica cuantică
02:08
to fantasy role-playing and the Gaia hypothesis, right?
34
128200
4176
până la roluri de fantezie și ipoteza Gaiei, nu?
02:12
We believed that human beings connected could create any future we could imagine.
35
132400
6720
Credeam că, împreună, oamenii puteau crea orice viitor imaginabil.
02:20
And then came the dot com boom.
36
140840
2199
Apoi a venit boomul internetului.
02:24
And the digital future became stock futures.
37
144600
3616
Viitorul digital a devenit viitorul burselor.
02:28
And we used all that energy of the digital age
38
148240
3016
Am folosit toată acea energie a erei digitale
02:31
to pump steroids into the already dying NASDAQ stock exchange.
39
151280
4256
pentru a umfla bursa NASDAQ, care era deja în picaj.
02:35
The tech magazines told us a tsunami was coming.
40
155560
3616
Revistele de tehnologie ne-au avertizat că ceva rău se va întâmpla.
02:39
And only the investors who hired the best scenario-planners and futurists
41
159200
4456
Și singurii investitori care au angajat cei mai buni planificatori
02:43
would be able to survive the wave.
42
163680
2520
vor putea rezista.
02:47
And so the future changed from this thing we create together in the present
43
167160
5896
Și iată cum viitorul s-a schimbat, de la ceea ce creăm împreună, acum,
02:53
to something we bet on
44
173080
1496
la ceva pe care pariem
02:54
in some kind of a zero-sum winner-takes-all competition.
45
174600
3200
ca într-un fel de competiție din care învingătorul ia tot.
03:00
And when things get that competitive about the future,
46
180120
3136
Iar când lucrurile legate de viitor devin competitive,
03:03
humans are no longer valued for our creativity.
47
183280
3296
oamenii nu mai sunt apreciați pentru creativitatea lor.
03:06
No, now we're just valued for our data.
48
186600
3136
Nu, acum suntem apreciați doar pentru datele noastre.
03:09
Because they can use the data to make predictions.
49
189760
2376
Ei pot folosi datele pentru a face previziuni.
03:12
Creativity, if anything, that creates noise.
50
192160
2576
Creativitatea este mai haotică.
03:14
That makes it harder to predict.
51
194760
2216
Este mai greu de prevăzut.
03:17
So we ended up with a digital landscape
52
197000
2416
Astfel am ajuns să avem un peisaj digital
03:19
that really repressed creativity, repressed novelty,
53
199440
3256
care reprimă creativitatea, noul,
03:22
it repressed what makes us most human.
54
202720
2840
și tot ceea ce ne face umani.
03:26
We ended up with social media.
55
206760
1456
Acum avem rețelele sociale.
03:28
Does social media really connect people in new, interesting ways?
56
208240
3456
Oare ele chiar conectează oamenii într-un mod nou și interesant?
03:31
No, social media is about using our data to predict our future behavior.
57
211720
5016
Nu, ele ne folosesc datele pentru a deduce comportamentele noastre viitoare.
03:36
Or when necessary, to influence our future behavior
58
216760
2896
Sau, dacă e necesar, să ne influențeze comportamentul viitor
03:39
so that we act more in accordance with our statistical profiles.
59
219680
4040
pentru a acționa conform profilelor noastre statistice.
03:45
The digital economy -- does it like people?
60
225200
2216
Oare economiei digitale îi plac oamenii?
03:47
No, if you have a business plan, what are you supposed to do?
61
227440
2896
Nu, dacă ai un plan de afaceri, ce ar trebui să faci?
03:50
Get rid of all the people.
62
230360
1256
Să scapi de ceilalți.
03:51
Human beings, they want health care, they want money, they want meaning.
63
231640
3400
Oamenii vor asigurare de sănătate, vor bani, vor un scop.
03:56
You can't scale with people.
64
236360
1880
Nu te poți pune cu oamenii.
03:59
(Laughter)
65
239360
1456
(Râsete)
04:00
Even our digital apps --
66
240840
1216
Până și aplicațiile -
04:02
they don't help us form any rapport or solidarity.
67
242080
3216
ele nu ne ajută să formăm un raport de solidaritate.
04:05
I mean, where's the button on the ride hailing app
68
245320
2416
Adică, unde este opțiunea de pe aplicațiile de ridesharing
04:07
for the drivers to talk to one another about their working conditions
69
247760
3496
ce le permite șoferiilor să comunice despre condițiile de lucru
04:11
or to unionize?
70
251280
1200
sau să se organizeze într-un sindicat?
04:13
Even our videoconferencing tools,
71
253600
2016
Nici conferințele video
04:15
they don't allow us to establish real rapport.
72
255640
2376
nu ne permit să stabilim o relație reală.
04:18
However good the resolution of the video,
73
258040
3336
Oricât de bună ar fi rezoluția imaginii,
04:21
you still can't see if somebody's irises are opening to really take you in.
74
261400
4016
tot nu poți vedea dacă ceilalți sunt cu adevărat atenți la tine.
04:25
All of the things that we've done to establish rapport
75
265440
2576
Tot ce am făcut pentru a stabili conexiuni,
04:28
that we've developed over hundreds of thousands of years of evolution,
76
268040
3335
tot ce am dezvoltat în sute de mii de ani de evoluție,
04:31
they don't work,
77
271399
1217
nimic nu merge,
04:32
you can't see if someone's breath is syncing up with yours.
78
272640
3016
nu poți simți respirația celui de lângă tine.
04:35
So the mirror neurons never fire, the oxytocin never goes through your body,
79
275680
3656
Neuroni în oglindă nu se activează, oxitocina nu este eliberată în corp,
04:39
you never have that experience of bonding with the other human being.
80
279360
3240
nu simți acea experiență de a avea o legătură cu cineva.
04:43
And instead, you're left like,
81
283360
1456
În schimb, rămâi cu impresia
04:44
"Well, they agreed with me, but did they really,
82
284840
2256
că te-au înțeles, dar nu știi dacă mesajul tău
04:47
did they really get me?"
83
287120
1696
a ajuns cu adevărat la ei.
04:48
And we don't blame the technology for that lack of fidelity.
84
288840
3376
Și nu dăm vina pe tehnologie pentru aceste neajunsuri.
04:52
We blame the other person.
85
292240
1480
Dăm vina pe ceilalți.
04:55
You know, even the technologies and the digital initiatives that we have
86
295320
4056
Inclusiv tehnologiile și inițiativele digitale create
04:59
to promote humans,
87
299400
2176
pentru a-i promova pe oameni
05:01
are intensely anti-human at the core.
88
301600
2760
sunt la bază anti-umane.
05:05
Think about the blockchain.
89
305600
2000
Gândiți-vă la blockchain.
05:08
The blockchain is here to help us have a great humanized economy? No.
90
308520
3616
Ne ajută să avem o economie mai umanizată? Nu.
05:12
The blockchain does not engender trust between users,
91
312160
2696
Blockchain-ul nu creează încredere între utilizatori,
05:14
the blockchain simply substitutes for trust in a new,
92
314880
3536
blockchain-ul e un înlocuitor al încrederii într-un mod nou,
05:18
even less transparent way.
93
318440
2000
chiar mai puțin transparent.
05:21
Or the code movement.
94
321600
1816
Sau inițiativa de programare.
05:23
I mean, education is great, we love education,
95
323440
2176
Da, educația e minunată, iubim educația,
05:25
and it's a wonderful idea
96
325640
1456
și e o idee bună
05:27
that we want kids to be able to get jobs in the digital future,
97
327120
3136
să-i vrem pe cei mici să poată obține un job în viitorul digital,
05:30
so we'll teach them code now.
98
330280
1600
și-i învățăm să programeze de mici.
05:32
But since when is education about getting jobs?
99
332640
2480
Dar de când educația e doar pentru a obține un job?
05:35
Education wasn't about getting jobs.
100
335920
1736
Educația nu era strict pentru muncă.
05:37
Education was compensation for a job well done.
101
337680
3976
Educația era compensația pentru ceva bine făcut.
05:41
The idea of public education
102
341680
1576
Ideea educației publice
05:43
was for coal miners, who would work in the coal mines all day,
103
343280
3376
era pentru minerii care lucrau întreaga zi
05:46
then they'd come home and they should have the dignity
104
346680
2576
și care, întorși acasă, să poată avea demnitatea
05:49
to be able to read a novel and understand it.
105
349280
2136
să citească un roman și să-l înțeleagă.
05:51
Or the intelligence to be able to participate in democracy.
106
351440
2960
Sau inteligența necesară pentru a fi parte a democrației.
05:55
When we make it an extension of the job, what are we really doing?
107
355200
3216
Dacă facem din educație extensia muncii, ce facem noi de fapt?
05:58
We're just letting corporations really
108
358440
2536
Lăsăm corporațiile să externalizeze
06:01
externalize the cost of training their workers.
109
361000
3120
costul instruirii muncitorilor lor.
06:05
And the worst of all really is the humane technology movement.
110
365520
4096
Și partea cea mai rea este mișcarea tehnologiei umanizate.
06:09
I mean, I love these guys, the former guys who used to take
111
369640
2816
Adică, îi iubesc pe cei care luau
06:12
the algorithms from Las Vegas slot machines
112
372480
2936
algoritmii din aparatele cu jocuri de noroc din Las Vegas
06:15
and put them in our social media feed so that we get addicted.
113
375440
2936
și îi foloseau pe rețelele sociale ca să ne facă dependenți.
06:18
Now they've seen the error of their ways
114
378400
1936
Acum și-au dat seama de greșelile lor
06:20
and they want to make technology more humane.
115
380360
2456
și vor să facă tehnologia mai umană.
06:22
But when I hear the expression "humane technology,"
116
382840
2416
Dar când aud expresia „tehnologie umană”
06:25
I think about cage-free chickens or something.
117
385280
2856
mă gândesc la pui ieșiți din cușcă sau ceva similar.
06:28
We're going to be as humane as possible to them,
118
388160
2256
O să fim cât mai umani posibil cu ei
06:30
until we take them to the slaughter.
119
390440
1720
până îi ducem la abator.
06:33
So now they're going to let these technologies be as humane as possible,
120
393200
3416
Pentru moment o să facă aceste tehnologii cât mai umane posibil,
06:36
as long as they extract enough data and extract enough money from us
121
396640
3216
cât timp pot extrage suficiente date și bani de la noi
06:39
to please their shareholders.
122
399880
1400
pentru a-i satisface pe investitori.
06:42
Meanwhile, the shareholders, for their part, they're just thinking,
123
402520
3176
Între timp, investitorii se gândesc
06:45
"I need to earn enough money now, so I can insulate myself
124
405720
2976
că trebuie să facă suficienți bani pentru a se izola
06:48
from the world I'm creating by earning money in this way."
125
408720
3056
de lumea pe care o creează prin modul în care își obțin banii.
06:51
(Laughter)
126
411800
2376
(Râsete)
06:54
No matter how many VR goggles they slap on their faces
127
414200
4056
Indiferent câți ochelari VR își pun
06:58
and whatever fantasy world they go into,
128
418280
2256
sau în câte lumi virtuale călătoresc,
07:00
they can't externalize the slavery and pollution that was caused
129
420560
3536
ei nu pot scăpa de sclavia și poluarea cauzate
07:04
through the manufacture of the very device.
130
424120
2976
de fabricarea produsului în sine.
07:07
It reminds me of Thomas Jefferson's dumbwaiter.
131
427120
3176
Îmi amintește de mini-liftul lui Thomas Jefferson.
07:10
Now, we like to think that he made the dumbwaiter
132
430320
2336
Ne place să ne imaginăm că el a inventat acel lift
07:12
in order to spare his slaves all that labor of carrying the food
133
432680
3656
pentru a-i scuti pe sclavii săi de povara căratului mâncării
07:16
up to the dining room for the people to eat.
134
436360
2776
până sus în sufragerie, unde se lua masa.
07:19
That's not what it was for, it wasn't for the slaves,
135
439160
2496
Dar nu era făcut pentru asta, nu pentru sclavi,
07:21
it was for Thomas Jefferson and his dinner guests,
136
441680
2336
era pentru Thomas Jefferson și invitații săi,
07:24
so they didn't have to see the slave bringing the food up.
137
444040
3096
pentru a nu-i mai vedea pe sclavi aducând mâncarea.
07:27
The food just arrived magically,
138
447160
1576
Alimentele apăreau ca prin magie,
07:28
like it was coming out of a "Start Trek" replicator.
139
448760
3000
de parcă ar fi venit dintr-un replicator din „Star Trek”.
07:32
It's part of an ethos that says,
140
452720
2096
Este parte dintr-o cultură care spune
07:34
human beings are the problem and technology is the solution.
141
454840
4280
că oamenii sunt problema, iar tehnologia este soluția.
07:40
We can't think that way anymore.
142
460680
2056
Nu mai putem gândi astfel acum.
07:42
We have to stop using technology to optimize human beings for the market
143
462760
5296
Trebuie să oprim utilizarea tehnologiei pentru a optimiza oamenii pentru piață
07:48
and start optimizing technology for the human future.
144
468080
5040
și să începem să optimizăm tehnologia pentru viitorul umanității.
07:55
But that's a really hard argument to make these days,
145
475080
2656
Este un argument dificil de explicat în zilele noastre,
07:57
because humans are not popular beings.
146
477760
4056
pentru că oamenii nu sunt ființe populare.
08:01
I talked about this in front of an environmentalist just the other day,
147
481840
3376
Am vorbit despre asta în fața unui ecologist zilele trecute,
08:05
and she said, "Why are you defending humans?
148
485240
2096
și ea a spus: „De ce îi aperi pe oameni?
08:07
Humans destroyed the planet. They deserve to go extinct."
149
487360
2696
Oamenii au distrus planeta și merită să dispară”.
08:10
(Laughter)
150
490080
3456
(Râsete)
08:13
Even our popular media hates humans.
151
493560
2576
Inclusiv media îi urăște pe oameni.
08:16
Watch television,
152
496160
1256
Uitați-vă la TV,
08:17
all the sci-fi shows are about how robots are better and nicer than people.
153
497440
3736
toate programele SF prezintă roboți mai buni și mai amabili decât oamenii.
08:21
Even zombie shows -- what is every zombie show about?
154
501200
2976
Inclusiv show-urile cu zombi: despre ce este vorba în ele?
08:24
Some person, looking at the horizon at some zombie going by,
155
504200
3256
O persoană, privind un zombi care trece spre orizont,
08:27
and they zoom in on the person and you see the person's face,
156
507480
2896
și pe măsură ce observi fața acelei persoane,
08:30
and you know what they're thinking:
157
510400
1736
îți dai seama ce gândește:
08:32
"What's really the difference between that zombie and me?
158
512160
2736
„Care este diferența dintre mine și acel zombi?
08:34
He walks, I walk.
159
514920
1536
El merge, eu merg.
08:36
He eats, I eat.
160
516480
2016
El mănâncă, eu mănânc.
08:38
He kills, I kill."
161
518520
2280
El ucide, eu ucid”.
08:42
But he's a zombie.
162
522360
1536
Dar e un zombi.
08:43
At least you're aware of it.
163
523920
1416
Măcar ești conștient de asta.
08:45
If we are actually having trouble distinguishing ourselves from zombies,
164
525360
3696
Dacă avem probleme în a ne diferenția de zombi,
08:49
we have a pretty big problem going on.
165
529080
2176
înseamnă că avem o mare problemă.
08:51
(Laughter)
166
531280
1216
(Râsete)
08:52
And don't even get me started on the transhumanists.
167
532520
2936
Și nici să nu începeți cu transumaniștii.
08:55
I was on a panel with a transhumanist, and he's going on about the singularity.
168
535480
3816
Eram la o conferință cu un transumanist, și tot vorbea despre singularitate.
08:59
"Oh, the day is going to come really soon when computers are smarter than people.
169
539320
3856
„Vai, va veni curând ziua când computerele vor fi mai inteligente decât oamenii.
09:03
And the only option for people at that point
170
543200
2136
Atunci, singura opțiune pentru umanitate
09:05
is to pass the evolutionary torch to our successor
171
545360
3336
va fi să predea ștafeta evoluționistă succesorilor lor
09:08
and fade into the background.
172
548720
1616
și să dispară ușor în decor.
09:10
Maybe at best, upload your consciousness to a silicon chip.
173
550360
3456
În cel mai bun caz, ne vom încărca conștiința pe un cip de silicon.
09:13
And accept your extinction."
174
553840
1840
Și ne vom accepta extincția.”
09:16
(Laughter)
175
556640
1456
(Râsete)
09:18
And I said, "No, human beings are special.
176
558120
3376
Iar eu am spus: „Nu, oamenii sunt speciali.
09:21
We can embrace ambiguity, we understand paradox,
177
561520
3536
Putem accepta ambiguitatea, înțelegem paradoxul,
09:25
we're conscious, we're weird, we're quirky.
178
565080
2616
suntem conștienți, suntem ciudați, suntem excentrici.
09:27
There should be a place for humans in the digital future."
179
567720
3336
Trebuie să existe un loc pentru oameni în viitorul digital”.
09:31
And he said, "Oh, Rushkoff,
180
571080
1536
Iar el a spus: „Oh, Rushkoff,
09:32
you're just saying that because you're a human."
181
572640
2296
spui asta doar pentru că ești om”.
09:34
(Laughter)
182
574960
1776
(Râsete)
09:36
As if it's hubris.
183
576760
1600
De parcă ar fi o mândrie.
09:39
OK, I'm on "Team Human."
184
579280
2800
Bine, sunt în „echipa umană”.
09:43
That was the original insight of the digital age.
185
583200
3856
Aceea a fost ideea inițială a erei digitale:
09:47
That being human is a team sport,
186
587080
2216
că a fi om este un sport de echipă,
09:49
evolution's a collaborative act.
187
589320
2736
că evoluția este un act de colaborare.
09:52
Even the trees in the forest,
188
592080
1416
Inclusiv copacii din pădure
09:53
they're not all in competition with each other,
189
593520
2216
nu sunt în competiție unii cu ceilalți,
09:55
they're connected with the vast network of roots and mushrooms
190
595760
3216
ci sunt conectați în vasta rețea de rădăcini și fungi
09:59
that let them communicate with one another and pass nutrients back and forth.
191
599000
4536
care le permite să comunice și să-și transmită substanțele nutritive.
10:03
If human beings are the most evolved species,
192
603560
2136
Dacă oamenii sunt cea mai evoluată specie,
10:05
it's because we have the most evolved ways of collaborating and communicating.
193
605720
4136
este pentru că avem cele mai evoluate moduri de colaborare și comunicare.
10:09
We have language.
194
609880
1496
Avem limbajul.
10:11
We have technology.
195
611400
1240
Avem tehnologia.
10:14
It's funny, I used to be the guy who talked about the digital future
196
614120
4576
E amuzant. Înainte eram tipul care vorbea despre viitorul digital
10:18
for people who hadn't yet experienced anything digital.
197
618720
2680
oamenilor care n-au avut niciodată contact cu așa ceva.
10:22
And now I feel like I'm the last guy
198
622200
1816
Acum simt că aș fi ultimul om
10:24
who remembers what life was like before digital technology.
199
624040
2920
care-și amintește cum era viața înainte de era tehnologiei.
10:28
It's not a matter of rejecting the digital or rejecting the technological.
200
628680
4216
Nu e vorba despre respingerea digitizării sau a tehnologiei.
10:32
It's a matter of retrieving the values that we're in danger of leaving behind
201
632920
4096
E vorba despre recuperarea valorilor pe care riscăm să le pierdem
10:37
and then embedding them in the digital infrastructure for the future.
202
637040
3600
și apoi includerea lor în infrastructura digitală a viitorului.
10:41
And that's not rocket science.
203
641880
2296
Și asta nu e ceva prea complicat.
10:44
It's as simple as making a social network
204
644200
2096
E simplu precum crearea unei rețele sociale
10:46
that instead of teaching us to see people as adversaries,
205
646320
3536
care, în loc să ne învețe să-i vedem pe oameni ca adversari,
10:49
it teaches us to see our adversaries as people.
206
649880
3000
ne învață să-i vedem pe adversari ca oameni.
10:54
It means creating an economy that doesn't favor a platform monopoly
207
654240
4296
Înseamnă crearea unei economii care nu favorizează monopolul platformelor
10:58
that wants to extract all the value out of people and places,
208
658560
3336
care vor să extragă toate valorile oamenilor și locurilor,
11:01
but one that promotes the circulation of value through a community
209
661920
3936
ci o economie care promovează circulația valorilor în interiorul comunităților
11:05
and allows us to establish platform cooperatives
210
665880
2416
și permite stabilirea unor cooperative de platforme online
11:08
that distribute ownership as wide as possible.
211
668320
3816
care sunt gestionate de un număr cât mai mare de membri.
11:12
It means building platforms
212
672160
1656
Înseamnă construirea de platforme
11:13
that don't repress our creativity and novelty in the name of prediction
213
673840
4656
care nu reprimă creativitatea și noul în numele predicțiilor,
11:18
but actually promote creativity and novelty,
214
678520
2576
ci promovează creativitatea și noutatea,
11:21
so that we can come up with some of the solutions
215
681120
2336
pentru ca noi să putem veni cu unele soluții
11:23
to actually get ourselves out of the mess that we're in.
216
683480
2680
și a ne scoate din impasul în care ne aflăm.
11:27
No, instead of trying to earn enough money to insulate ourselves
217
687440
3056
Nu, în loc să câștigăm suficienți bani pentru a ne izola
11:30
from the world we're creating,
218
690520
1496
de lumea pe care am creat-o,
11:32
why don't we spend that time and energy making the world a place
219
692040
3056
de ce să nu folosim banii și energia pentru a face lumea
11:35
that we don't feel the need to escape from.
220
695120
2040
un loc din care să nu vrem să evadăm?
11:38
There is no escape, there is only one thing going on here.
221
698000
3200
Nu există scăpare, există doar un lucru ce se petrece aici.
11:42
Please, don't leave.
222
702680
2120
Vă rog, nu plecați!
11:45
Join us.
223
705640
1360
Alăturați-vă nouă!
11:47
We may not be perfect,
224
707800
1296
Nu suntem perfecți,
11:49
but whatever happens, at least you won't be alone.
225
709120
2440
însă, orice s-ar întâmpla, măcar nu veți fi singuri.
11:52
Join "Team Human."
226
712640
1520
Fiți parte din „echipa umană”.
11:55
Find the others.
227
715160
2096
Găsiți-i și pe ceilalți.
11:57
Together, let's make the future that we always wanted.
228
717280
2960
Împreună putem crea viitorul mult dorit.
12:01
Oh, and those tech billionaires who wanted to know
229
721560
2496
Ah, și acei miliardari care voiau să afle
12:04
how to maintain control of their security force after the apocalypse,
230
724080
3256
cum să-și țină sub control forțele de securitate după apocalipsă,
12:07
you know what I told them?
231
727360
1896
știți ce le-am spus?
12:09
"Start treating those people with love and respect right now.
232
729280
4216
„Începeți să tratați oamenii cu iubire și respect chiar acum.
12:13
Maybe you won't have an apocalypse to worry about."
233
733520
2440
Poate că nu va mai avea loc nicio apocalipsă de care să vă temeți”.
12:16
Thank you.
234
736840
1216
Vă mulțumesc!
12:18
(Applause)
235
738080
4440
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7