How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Emanuela Pascari Corector: Bianca-Ioanidia Mirea
00:12
I want you to imagine
0
12960
1200
Vreau să vă imaginați
00:15
walking into a room,
1
15000
1200
că intrați într-o cameră,
00:17
a control room with a bunch of people,
2
17480
2136
o cameră de control cu o grămadă de oameni
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
o sută de oameni, aplecați peste un birou, cu butonașe,
00:23
and that that control room
4
23280
1520
și că acea cameră de comandă
00:25
will shape the thoughts and feelings
5
25680
3696
va contura gândurile și emoțiile
00:29
of a billion people.
6
29400
1240
unui miliard de oameni.
00:32
This might sound like science fiction,
7
32560
1880
Poate vă sună SF,
00:35
but this actually exists
8
35320
2216
dar asta chiar există
00:37
right now, today.
9
37560
1200
acum, azi.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Știu asta pentru că am fost și eu într-una din camerele de comandă.
00:44
I was a design ethicist at Google,
11
44159
2297
Am fost specialist în etica designului la Google,
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
unde am studiat cum poți să ghidezi în mod etic gândurile oamenilor.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Pentru că nu se vorbește despre cum o mână de oameni
00:53
working at a handful of technology companies
14
53480
2536
ce lucrează la câteva companii IT
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
vor ghida, prin alegerilor lor, cum gândesc un miliard de oameni azi.
01:02
Because when you pull out your phone
16
62400
1736
Deoarece când scoateți telefonul —
01:04
and they design how this works or what's on the feed,
17
64160
3096
iar ei proiectează cum funcționează sau ce vă apare în feed,
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
vă sunt alocate mici bucăți de timp în minte.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Dacă vedeți o notificare, deja v-a programat să vă gândiți
01:13
that maybe you didn't intend to have.
20
73680
2040
la ceva la care poate nu v-ați fi gândit.
01:16
If you swipe over that notification,
21
76400
2616
Dacă accesați o notificare,
01:19
it schedules you into spending a little bit of time
22
79040
2381
vă programează să petreceți un pic de timp
01:21
getting sucked into something
23
81445
1381
absorbiți în ceva
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
în care poate nu voiați să vă lăsați absorbit.
01:27
When we talk about technology,
25
87320
1520
Când vorbim despre tehnologie,
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
tindem să vorbim de parcă ar fi o mare de oportunități.
01:32
It could go any direction.
27
92760
1480
Poate duce în orice direcție.
01:35
And I want to get serious for a moment
28
95400
1856
Vreau să fiu un moment serios
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
și să vă spun de ce duce într-o anumită direcție.
01:40
Because it's not evolving randomly.
30
100840
2200
Pentru că nu evoluează aleatoriu.
01:44
There's a hidden goal driving the direction
31
104000
2016
Există un scop ascuns ce determină direcția
01:46
of all of the technology we make,
32
106040
2136
tuturor descoperirilor tehnice,
01:48
and that goal is the race for our attention.
33
108200
2920
iar scopul este cursa după atenție.
01:52
Because every news site,
34
112840
2736
Pentru că fiecare site nou: TED, alegeri, politicieni,
01:55
TED, elections, politicians,
35
115600
2736
01:58
games, even meditation apps
36
118360
1976
jocuri, chiar și aplicații de meditație
02:00
have to compete for one thing,
37
120360
1960
concurează pentru un singur lucru:
02:03
which is our attention,
38
123160
1736
atenția noastră,
02:04
and there's only so much of it.
39
124920
1600
care este limitată.
02:08
And the best way to get people's attention
40
128440
2416
Iar cel mai simplu câștigi atenția oamenilor
02:10
is to know how someone's mind works.
41
130880
2440
dacă știi cum le funcționează mintea.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Există o mulțime de tehnici de convingere
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
pe care le-am învățat la facultate în Laboratorul de tehnologie persuasivă
02:19
to get people's attention.
44
139680
1600
prin care obții atenția oamenilor.
02:21
A simple example is YouTube.
45
141880
1480
Un exemplu simplu e YouTube.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
YouTube vrea să maximizeze timpul petrecut pe site.
02:26
And so what do they do?
47
146960
1200
Deci ce face?
02:28
They autoplay the next video.
48
148840
2280
Dă auto-play următorului clip.
02:31
And let's say that works really well.
49
151760
1816
Și să presupunem că merge bine.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Câștigă un pic mai mult din timpul oamenilor.
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
Păi, dacă ești Netflix, vezi asta și-ți zici:
02:38
well, that's shrinking my market share,
52
158440
1858
„Asta-mi ia din cota de piață,
02:40
so I'm going to autoplay the next episode.
53
160322
2000
așa că dau și eu auto-play următorului episod.”
02:43
But then if you're Facebook,
54
163320
1376
Dar apoi, dacă ești Facebook,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
îți spui: „Asta-mi ia toată cota mea,
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
așa că trebuie să dau auto-play clipurilor din newsfeed
02:49
before waiting for you to click play.
57
169760
1762
fără să aștept să dai play.
02:52
So the internet is not evolving at random.
58
172320
3160
Așadar, internetul nu evoluează aleatoriu.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
Simțim că ne absoarbe într-o astfel de măsură
03:00
is because of this race for attention.
60
180760
2376
pentru că se află în cursă pentru atenție.
03:03
We know where this is going.
61
183160
1416
Știm încotro ne îndreptăm.
03:04
Technology is not neutral,
62
184600
1520
Tehnologia nu este neutră,
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
și e o cursă să ajungi primul la baza trunchiului cerebral,
03:10
of who can go lower to get it.
64
190760
2200
cine poate coborî mai mult câștigă.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Să vă dau exemplul Snapchat-ului.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Dacă nu știți, Snapchat e principalul mijloc prin care
03:20
that teenagers in the United States communicate.
67
200000
2256
comunică azi adolescenții din Statele Unite.
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Deci, dacă sunteți ca mine și comunicați prin SMS,
03:26
Snapchat is that for teenagers,
69
206480
1776
Snapchat e SMS-ul adolescenților,
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
și sunt vreo sută de milioane de utilizatori.
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
Au inventat ceva numit Snapstreaks,
03:33
which shows the number of days in a row
72
213240
1896
ce arată câte zile în șir
03:35
that two people have communicated with each other.
73
215160
2616
comunică doi oameni unul cu celălalt.
03:37
In other words, what they just did
74
217800
1856
Cu alte cuvinte, ce au făcut
03:39
is they gave two people something they don't want to lose.
75
219680
2960
e să le dea oamenilor ceva ce nu vor să piardă.
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
Pentru că dacă ești adolescent și ai vorbit 150 de zile la rând,
03:47
you don't want that to go away.
77
227480
1976
nu vrei să pierzi asta.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Gândiți-vă câte bucățele de timp sunt acaparate din mintea copiilor.
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
Și nu e doar teoretic: când pleacă în vacanță,
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
copiii își dau parolele prietenilor (până la cinci prieteni)
03:59
to keep their Snapstreaks going,
81
239800
2216
ca să le continue Snapstreak-urile
04:02
even when they can't do it.
82
242040
2016
atunci când ei nu o pot face.
04:04
And they have, like, 30 of these things,
83
244080
1936
Și au vreo 30 de Snapstreak-uri,
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
așa că trebuie să primească și să trimită poze, cu pereți,
04:09
or ceilings just to get through their day.
85
249440
2480
cu tavane, doar ca să le treacă ziua.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Deci nici măcar nu au conversații reale.
04:15
We have a temptation to think about this
87
255920
1936
Suntem tentați să ne gândim
04:17
as, oh, they're just using Snapchat
88
257880
2696
că, eh, folosesc și ei Snapchat
04:20
the way we used to gossip on the telephone.
89
260600
2016
așa cum la vârsta lor bârfeam la telefon,
04:22
It's probably OK.
90
262640
1200
deci probabil e OK.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Ei, problema e că în anii '70,
04:26
when you were just gossiping on the telephone,
92
266760
2615
când bârfeai doar la telefon,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
nu existau sute de ingineri de partea cealaltă a ecranului
04:32
who knew exactly how your psychology worked
94
272440
2056
ce știau exact cum vă funcționează psihicul,
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
trăgând sforile ca să vă lege de celălalt.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Acum, dacă asta vă înfurie un pic,
04:42
notice that that thought just comes over you.
97
282680
2576
observați că gândul vă absoarbe.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Și furia e un mod foarte bun de a vă capta atenția,
04:49
because we don't choose outrage.
99
289880
1576
pentru că nu alegi să fii furios.
04:51
It happens to us.
100
291480
1416
Ți se întâmplă.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Și dacă ești newsfeed-ul Facebook,
04:54
whether you'd want to or not,
102
294800
1416
indiferent dacă vrei sau nu,
04:56
you actually benefit when there's outrage.
103
296240
2736
ai de profitat de pe urma furiei.
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
Pentru că furia nu se limitează la a aloca o reacție
05:01
in emotional time, space, for you.
105
301960
2880
în timpul și spațiul tău emoțional.
05:05
We want to share that outrage with other people.
106
305440
2416
Vrei să împărtășești furia cu alții.
05:07
So we want to hit share and say,
107
307880
1576
Îți vine să dai share și să zici:
05:09
"Can you believe the thing that they said?"
108
309480
2040
„Poți să crezi ce-au zis?”
05:12
And so outrage works really well at getting attention,
109
312520
3376
Deci furia merge de minune să capteze atenția,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
și dacă Facebook ar avea de ales între a vă arăta un newsfeed de înfuriat
05:19
and a calm newsfeed,
111
319840
1320
și un newsfeed calm,
05:22
they would want to show you the outrage feed,
112
322120
2136
ar dori să vi-l arate pe cel de înfuriat,
05:24
not because someone consciously chose that,
113
324280
2056
nu pentru că cineva alege conștient asta,
05:26
but because that worked better at getting your attention.
114
326360
2680
ci pentru că asta poate mai bine să vă capteze atenția.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Iar camera de comandă pentru newsfeed nu răspunde în fața noastră.
05:37
It's only accountable to maximizing attention.
116
337040
2296
Răspunde doar de maximizarea atenției.
05:39
It's also accountable,
117
339360
1216
Mai răspunde,
05:40
because of the business model of advertising,
118
340600
2376
din cauza modelului bazat pe publicitate,
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
și în fața oricui plătește mai mult ca să intre în camera de comandă
05:46
and say, "That group over there,
120
346360
1576
și să spună: „Grupul acela,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
vreau să bag gândurile astea în mințile lor.”
05:51
So you can target,
122
351760
1200
Puiteți așadar ținti,
05:54
you can precisely target a lie
123
354040
1936
puteți direcționa cu precizie o minciună
05:56
directly to the people who are most susceptible.
124
356000
2920
direct spre oamenii care sunt cei mai susceptibili.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Și pentru că asta e profitabil, o să fie și mai rău.
06:05
So I'm here today
126
365040
1800
Așa că sunt azi aici
06:08
because the costs are so obvious.
127
368160
2000
pentru că prețul plătit e evident.
06:12
I don't know a more urgent problem than this,
128
372280
2136
Nu știu să existe vreo problemă mai urgentă,
06:14
because this problem is underneath all other problems.
129
374440
3120
pentru că asta e la baza tuturor celorlalte probleme.
06:18
It's not just taking away our agency
130
378720
3176
Nu doar că ne răpește alegerea
06:21
to spend our attention and live the lives that we want,
131
381920
2600
de a ne distribui atenția și a ne trăi viața cum vrem,
06:25
it's changing the way that we have our conversations,
132
385720
3536
ci schimbă modul în care purtăm conversații,
06:29
it's changing our democracy,
133
389280
1736
ne schimbă democrația,
06:31
and it's changing our ability to have the conversations
134
391040
2616
și schimbă abilitatea noastră de a avea conversațiile
06:33
and relationships we want with each other.
135
393680
2000
și relațiile pe care le dorim cu ceilalți.
06:37
And it affects everyone,
136
397160
1776
Și ne afectează pe toți,
06:38
because a billion people have one of these in their pocket.
137
398960
3360
pentru că un miliard de oameni au câte o chestie de-asta în buzunar.
06:45
So how do we fix this?
138
405360
1400
Așadar cum reparăm asta?
06:49
We need to make three radical changes
139
409080
2936
Trebuie să facem trei schimbări radicale
06:52
to technology and to our society.
140
412040
1800
în tehnologia și societatea noastră.
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Prima este să recunoaștem că putem fi convinși.
07:00
Once you start understanding
142
420840
1376
Odată ce-ncepem să înțelegem
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
că mintea poate fi programată să aibă gânduri
07:05
or little blocks of time that you didn't choose,
144
425040
2576
sau bucăți de timp pe care nu noi le-am ales,
07:07
wouldn't we want to use that understanding
145
427640
2056
nu-i așa că ne-am dori să folosim asta
07:09
and protect against the way that that happens?
146
429720
2160
pentru a ne proteja de ce ni se întâmplă?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Cred că avem nevoie să ne vedem într-un mod cu totul nou.
07:15
It's almost like a new period of human history,
148
435920
2216
E ca un fel de nouă eră a istoriei umane,
07:18
like the Enlightenment,
149
438160
1216
ca și Iluminismul,
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
ca o iluminare cu conștientizare de sine,
07:21
that we can be persuaded,
151
441640
2080
să înțelegem că putem fi convinși
07:24
and there might be something we want to protect.
152
444320
2240
și că sunt lucruri pe care vrem să le protejăm.
07:27
The second is we need new models and accountability systems
153
447400
4576
A doua e că avem nevoie de noi modele și noi sisteme de responsabilitate
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
astfel încât pe măsură ce lumea devine mai bună și mai persuasivă —
07:35
because it's only going to get more persuasive --
155
455520
2336
pentru că va fi din ce în ce mai persuasivă,
07:37
that the people in those control rooms
156
457880
1856
oamenii din acele camere de comandă
07:39
are accountable and transparent to what we want.
157
459760
2456
să fie răspunzători și să respecte voința noastră.
07:42
The only form of ethical persuasion that exists
158
462240
2696
Unica formă de persuasiune etică
07:44
is when the goals of the persuader
159
464960
1936
este când scopul celui ce convinge
07:46
are aligned with the goals of the persuadee.
160
466920
2200
coincide cu cel al celui convins.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
Și asta înseamnă o macroanaliză a modelului de afaceri bazat pe reclamă.
07:54
Lastly,
162
474720
1576
În ultimul rând,
07:56
we need a design renaissance,
163
476320
1680
e nevoie de Renașterea designului,
07:59
because once you have this view of human nature,
164
479080
3056
deoarece, odată ce avem această perspectivă a naturii umane,
08:02
that you can steer the timelines of a billion people --
165
482160
2976
cum că puteți direcționa viața unui miliard de oameni,
08:05
just imagine, there's people who have some desire
166
485160
2736
imaginați-vă, există oameni care-și doresc ceva,
08:07
about what they want to do and what they want to be thinking
167
487920
2856
știu ce vor să facă și ce vor să gândească
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
și ce vor să simtă și cum vor să fie informați
08:13
and we're all just tugged into these other directions.
169
493960
2536
și toți suntem trași în alte direcții.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Și există un miliard de oameni trași în aceste direcții.
08:20
Well, imagine an entire design renaissance
171
500240
2056
Ei, imaginați-vă o Renaștere în design
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
ce încearcă să contureze cea mai puternică și precisă
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
cale rapidă de a face ca toate acestea să se întâmple.
08:28
And that would involve two things:
174
508600
1656
Și asta ar implica două lucruri:
08:30
one would be protecting against the timelines
175
510280
2136
unul ar fi să ne protejăm de direcțiile
08:32
that we don't want to be experiencing,
176
512440
1856
pe care nu vrem să le experimentăm,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
de gândurile pe care n-am vrea să le avem,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
ca atunci când apare notificarea, să nu fim complet acaparați,
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
iar al doilea ar fi să ne simțim îndreptățiți să ne trăim viața cum vrem.
08:43
So let me give you a concrete example.
180
523760
1880
Să vă dau un exemplu concret.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Azi, să zicem că prietenul anulează o cină cu tine,
08:48
and you are feeling a little bit lonely.
182
528760
3775
și tu te simți un pic singur.
08:52
And so what do you do in that moment?
183
532559
1817
Ce faci atunci?
08:54
You open up Facebook.
184
534400
1279
Deschizi Facebook.
08:56
And in that moment,
185
536960
1696
Și în acel moment,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
designerii din camera de comandă vor să programeze un singur lucru:
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
să maximizeze timpul pe care-l petreceți pe site.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Acum, imaginați-vă cum ar fi ca acești designeri să creeze un alt timeline,
09:10
that was the easiest way, using all of their data,
189
550560
3496
care ar fi fost calea cea mai simplă, conform datelor de care dispun,
09:14
to actually help you get out with the people that you care about?
190
554080
3096
să vă ajute să ieșiți cu oameni la care țineți?
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Gândiți-vă, ar ușura toată singurătatea din societate
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
dacă asta ar fi ceea ce Facebook ar vrea să ofere oamenilor.
09:26
Or imagine a different conversation.
193
566160
1715
Sau imaginați-vă altă conversație.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Să zicem că vreți să postați ceva foarte controversat pe Facebook,
09:31
which is a really important thing to be able to do,
195
571240
2416
și e foarte important să puteți face asta,
09:33
to talk about controversial topics.
196
573680
1696
să discutați subiecte controversate.
09:35
And right now, when there's that big comment box,
197
575400
2336
Acum că există căsuța pentru comentarii,
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
aproape că vă întreabă:„Ce vrei să scrii?”
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
Cu alte cuvinte, te programează
09:44
you're going to continue to do on the screen.
200
584000
2136
să continuați să faceți lucruri pe site.
09:46
And imagine instead that there was another button there saying,
201
586160
2976
Imaginați-vă că ar exista în schimb un alt buton care ar zice:
09:49
what would be most time well spent for you?
202
589160
2056
`„Cum v-ați petrece cel mai bine timpul?”
09:51
And you click "host a dinner."
203
591240
1576
Și voi alegeți: „să organizez o cină”.
09:52
And right there underneath the item it said,
204
592840
2096
Și exact sub asta ar fi:
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
„Cine vrea să confirme prezența?”
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Și tot ați avea o conversație pe un subiect controversat,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
dar de data asta în locul care vă dă vouă putere,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
și anume la voi acasă, seara, cu niște prieteni
10:06
to talk about it.
209
606760
1200
cu care discutați.
10:09
So imagine we're running, like, a find and replace
210
609000
3160
Imaginați-vă că avem o funcție de „găsește și înlocuiește”
10:13
on all of the timelines that are currently steering us
211
613000
2576
în tot ce ne apare în timeline și ce ne direcționează
10:15
towards more and more screen time persuasively
212
615600
2560
spre a petrece tot mai mult timp online
10:19
and replacing all of those timelines
213
619080
2536
și dacă am înlocui asta
10:21
with what do we want in our lives.
214
621640
1640
cu ceea ce vrem să facem în viață.
10:26
It doesn't have to be this way.
215
626960
1480
Nu e musai să fie așa.
10:30
Instead of handicapping our attention,
216
630360
2256
În loc de a ne handicapa atenția,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
imaginați-vă că am folosi toate informațiile, puterea
10:35
and this new view of human nature
218
635480
1616
și noua viziune asupra naturii umane
10:37
to give us a superhuman ability to focus
219
637120
2856
pentru a obține abilitatea supraomenească de a ne concentra,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
și abilitatea supraomenească de a ne îndrepta atenția spre ce vrem,
10:44
and a superhuman ability to have the conversations
221
644160
2616
și abilitatea supraomenească de a purta discuțiile
10:46
that we need to have for democracy.
222
646800
2000
de care avem nevoie în democrație.
10:51
The most complex challenges in the world
223
651600
2680
Cele mai complexe provocări ale omenirii
10:56
require not just us to use our attention individually.
224
656280
3120
necesită să folosim nu doar atenția individuală,
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
ci atenția tuturor, coordonată.
11:04
Climate change is going to require that a lot of people
226
664440
2816
Modificările climatice necesită ca mulți oameni
11:07
are being able to coordinate their attention
227
667280
2096
să își poată coordona atenția
11:09
in the most empowering way together.
228
669400
1896
în modul cel mai eficient, împreună.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Imaginați-vă că am crea abilitatea supraomenească de a o face.
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
Uneori cele mai stringente și importante probleme ale omenirii
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
nu sunt chestii ipotetice din viitor pe care le-am putea crea în viitor.
11:28
Sometimes the most pressing problems
232
688560
1736
Uneori cele mai stringente probleme
11:30
are the ones that are right underneath our noses,
233
690320
2336
sunt cele care sunt fix sub nasul nostru,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
lucruri care deja direcționează gândurile a miliarde de oameni.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Și poate că în loc să fim entuziasmați de noua realitate augmentată
și realitate virtuală, și toate chestiile super ce s-ar putea întâmpla,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
care vor fi susceptibile și ele cursei pentru atenție,
11:46
if we could fix the race for attention
238
706640
2176
dacă am putea centra cursa pentru atenție
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
pe chestia ce deja e în buzunarul unui miliard de oameni.
11:52
Maybe instead of getting excited
240
712040
1576
Poate în loc să ne entuziasmăm
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
despre cele mai mari și tari aplicații educaționale,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
am putea să reglăm cum mințile copiilor sunt manipulate
12:00
into sending empty messages back and forth.
243
720760
2480
să trimită mesaje fără conținut.
12:04
(Applause)
244
724040
4296
(Aplauze)
12:08
Maybe instead of worrying
245
728360
1256
În loc să ne îngrijorăm
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
depre ipotetica inteligență artificială din viitor
12:13
that are maximizing for one goal,
247
733440
1880
maximizată pentru un singur scop,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
am putea rezolva problema inteligenței artificiale
12:19
that already exists right now,
249
739360
2056
ce există deja,
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
și anume newsfeed-urile centrate pe un singur scop.
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
E ca și cum, în loc să căutăm să colonizăm noi planete,
12:29
we could fix the one that we're already on.
252
749920
2056
am putea avea grijă de cea pe care trăim.
12:32
(Applause)
253
752000
4120
(Aplauze)
12:40
Solving this problem
254
760040
1776
Rezolvarea acestei probleme
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
este infrastructura esențială pentru rezolvarea tuturor problemelor.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Nu există nimic în viața personală ori în problemele colectivității
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
care să nu necesite abilitatea de a ne concentra pe lucrurile la care ținem.
12:55
At the end of our lives,
258
775800
1240
La sfârșitul vieții,
12:58
all we have is our attention and our time.
259
778240
2640
tot ce ne rămâne este atenția și timpul.
13:01
What will be time well spent for ours?
260
781800
1896
Cum ne-am petrece constructiv timpul?
13:03
Thank you.
261
783720
1216
Mulțumesc.
13:04
(Applause)
262
784960
3120
(Aplauze)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, mulțumesc. Mai rămâi un pic aici.
13:20
First of all, thank you.
264
800720
1336
În primul rând, mulțumim.
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
Știu că ți-am cerut să faci prezentarea din scurt,
13:24
and you've had quite a stressful week
266
804880
2216
și ai avut o săptămână stresantă
13:27
getting this thing together, so thank you.
267
807120
2440
pentru a pregăti asta, și-ți mulțumim.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Poate unii din cei ce ascultă ar zice că tu de fapt te plângi de dependență,
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
și că cei ce se lasă absorbiți sunt chiar interesați de subiecte.
13:38
All these design decisions
270
818200
1256
Toate deciziile de design
13:39
have built user content that is fantastically interesting.
271
819480
3096
au conturat un conținut fantastic de interesant.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Lumea e mai interesantă decât oricând.
13:45
What's wrong with that?
273
825040
1256
Ce-o fi rău în asta?
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: Cred că-i foarte interesant.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Ai putea să vezi asta dacă să zicem că ești YouTube, de exemplu,
13:52
you want to always show the more interesting next video.
276
832640
2656
vrei să arăți mereu cel mai interesant video.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Vrei să fii din ce în ce mai bun în a sugera următorul clip,
13:58
but even if you could propose the perfect next video
278
838360
2456
dar chiar și dacă ai putea propune clipul perfect,
14:00
that everyone would want to watch,
279
840840
1656
pe care toți și-ar dori să-l vadă,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
tot ce-ar face ar fi să fie tot mai potrivit în a te ține captiv.
14:05
So what's missing in that equation
281
845880
1656
Deci ce lipsește din ecuație
14:07
is figuring out what our boundaries would be.
282
847560
2136
este să stabilim care ar fi limitele.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Ai vrea ca YouTube să știe câte ceva despre, să zicem, adormire.
14:12
The CEO of Netflix recently said,
284
852960
1616
CEO-ul Netflix a spus de curând:
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
„Marii noștri concurenți sunt Facebook, YouTube și somnul”
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Trebuie deci să recunoaștem că omul este limitat
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
și că avem granițe și dimensiuni în viața noastră
14:24
that we want to be honored and respected,
288
864840
1976
ce ar trebui onorate și respectate,
14:26
and technology could help do that.
289
866840
1816
iar tehnologia ar putea ajuta.
14:28
(Applause)
290
868680
2616
(Aplauze)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: Ai putea spune
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
că o parte a problemei e că avem un model naiv al firii umane?
14:39
So much of this is justified in terms of human preference,
293
879120
2736
Multe se justifică vorbind despre preferințele omenești,
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
pe când avem acești algoritmi ce funcționează excelent
14:44
of optimizing for human preference,
295
884520
1696
pentru optimizarea preferințelor,
14:46
but which preference?
296
886240
1336
dar care preferințe?
14:47
There's the preferences of things that we really care about
297
887600
3496
Putem prefera lucrurile la care ținem cu adevărat,
14:51
when we think about them
298
891120
1376
atunci când ne gândim,
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
și nu preferințele lucrurilor pe care le accesăm din instinct.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Dacă am putea trasa o imagine mai nuanțată a naturii umane în design,
15:00
would that be a step forward?
301
900280
1456
ar fi oare un pas înainte?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Absolut. Adică, cred că acum
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
e ca și cum toată tehnologia întreabă creierul reptilian:
15:07
what's the best way to just impulsively get you to do
304
907280
2496
cum pot mai simplu să te fac să acționezi impulsiv
15:09
the next tiniest thing with your time,
305
909800
2136
în următoarea bucățică din timpul tău?
15:11
instead of asking you in your life
306
911960
1656
în loc să te întrebe pe tine,
15:13
what we would be most time well spent for you?
307
913640
2176
cum ți-ai petrece cel mai constructiv timpul?
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Ce ar fi optim pentru tine, ce ar putea include ceva de mai târziu?
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
Ar fi constructiv pentru tine să-ți petreci ultima zi aici la TED?
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
CA: Deci dacă Facebook, Google și toți ne-ar întreba întâi:
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
„Hei, ai prefera să-ți optimizăm creierul reflectiv
15:28
or your lizard brain? You choose."
312
928280
1656
ori creierul reptilian? Tu alegi!”
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Exact. Asta ar fi o cale. Da.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA: Vorbeai de persuasibilitate, un cuvânt nou, interesant,
15:37
because to me there's two different types of persuadability.
315
937240
2856
pentru că pentru mine există două tipuri de persuasibilitate.
15:40
There's the persuadability that we're trying right now
316
940120
2536
E persuasibilitatea ce o experimentăm chiar acum,
15:42
of reason and thinking and making an argument,
317
942680
2176
ce ține de rațiune și gândire și argumentare,
15:44
but I think you're almost talking about a different kind,
318
944880
2696
dar cred că tu vorbești de un alt tip,
15:47
a more visceral type of persuadability,
319
947590
1906
un tip mai visceral,
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
de a fi persuadat fără a-ți da seama că ți se întămplă.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
TH: Exact. Îmi pasă atât de tare de problema asta pentru că
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
am studiat în Laboratorul de tehnologie persuasivă la Stanford
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
ce-i învăța pe cursanți să recunoască aceste tehnici.
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
Există conferințe și workshopuri ce ne învață căile ascunse
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
de a capta atenția oamenilor și de a le dirija viața.
16:07
And it's because most people don't know that that exists
326
967120
2656
Și tocmai pentru că sunt mulți care nu știu asta,
16:09
that this conversation is so important.
327
969800
1896
e atât de importantă această discuție.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, și eu și tu știm mulți oameni din aceste companii.
16:15
There are actually many here in the room,
329
975520
1976
Mulți sunt chiar în această cameră,
16:17
and I don't know about you, but my experience of them
330
977520
2477
și nu știu de tine, dar din ce știu eu despre ei,
16:20
is that there is no shortage of good intent.
331
980021
2075
nu le lipsesc intențiile bune.
16:22
People want a better world.
332
982120
2176
Oamenii își doresc o lume mai bună.
16:24
They are actually -- they really want it.
333
984320
3520
Ei chiar - chiar și-o doresc.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Și nu cred că tu vrei să spui că ei sunt oameni răi.
16:32
It's a system where there's these unintended consequences
335
992520
3696
E un sistem în care există consecințe nedorite
16:36
that have really got out of control --
336
996240
1856
care au scăpat de sub control
16:38
TH: Of this race for attention.
337
998120
1496
TH: Cursa pentru atenție.
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
E cursa clasică până la bază, când trebuie să captezi atenția,
16:42
and it's so tense.
339
1002840
1216
e foarte intensă.
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
Poți obține mai mult doar dacă mergi mai la bază,
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
mai adânc în furie, mai adânc în emoție,
16:49
to go lower into the lizard brain.
342
1009280
1696
mai adânc în creierul reptilian.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Mulțumim mult că ne ajuți să aflăm mai multe despre asta.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, mulțumesc. TH: Mulțumesc mult.
16:57
(Applause)
345
1017280
2240
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7