How a handful of tech companies control billions of minds every day | Tristan Harris

950,008 views ・ 2017-07-28

TED


Pre spustenie videa dvakrát kliknite na anglické titulky nižšie.

Translator: Marek Bednárik Reviewer: Lenka Abelovská
00:12
I want you to imagine
0
12960
1200
Skúste si predstaviť,
00:15
walking into a room,
1
15000
1200
že vchádzate do miestnosti,
00:17
a control room with a bunch of people,
2
17480
2136
riadiacej miestnosti plnej ľudí,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
stovky ľudí, zhrbených nad stolom s tlačidlami,
00:23
and that that control room
4
23280
1520
a že táto riadiaca miestnosť
00:25
will shape the thoughts and feelings
5
25680
3696
formuje myšlienky a pocity miliardy ľudí.
00:29
of a billion people.
6
29400
1240
00:32
This might sound like science fiction,
7
32560
1880
Znie to možno ako sci-fi,
00:35
but this actually exists
8
35320
2216
lenže toto skutočne existuje,
00:37
right now, today.
9
37560
1200
práve teraz, dnes.
Viem to, pretože som v jednej takejto miestnosti pracoval,
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
00:44
I was a design ethicist at Google,
11
44159
2297
ako etik dizajnu v Google,
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
kde som skúmal, ako eticky ovládať myšlienky ľudí.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Veľa sa totiž nehovorí o tom, ako hŕstka ľudí,
00:53
working at a handful of technology companies
14
53480
2536
ktorí pracujú pre pár technologických firiem,
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
zámerne usmerňuje, čo si dnes myslí miliarda ľudí.
01:02
Because when you pull out your phone
16
62400
1736
Pretože keď vezmete svoj mobil
a oni navrhujú, ako to funguje alebo čo je v príspevkoch,
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
v mysli vám tak naplánujú malé časové bloky.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Keď si všimnete notifikáciu, zahniezdia sa vám v mysli myšlienky,
01:13
that maybe you didn't intend to have.
20
73680
2040
ktoré ste možno nechceli mať.
01:16
If you swipe over that notification,
21
76400
2616
Keď na túto notifikáciu kliknete,
01:19
it schedules you into spending a little bit of time
22
79040
2381
strávite kvôli nej chvíľku svojho času
01:21
getting sucked into something
23
81445
1381
sústredením sa na niečo,
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
do čoho ste sa možno vôbec nemali v úmysle nechať vtiahnuť.
01:27
When we talk about technology,
25
87320
1520
Keď sa bavíme o technológiách,
máme tendenciu hovoriť o nich ako o neobmedzených možnostiach.
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
Môžu ísť akýmkoľvek smerom.
01:35
And I want to get serious for a moment
28
95400
1856
Teraz sa chcem nad tým vážne zamyslieť
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
a vysvetliť, prečo to ide jedným veľmi konkrétnym smerom.
01:40
Because it's not evolving randomly.
30
100840
2200
Pretože tento vývoj nie je náhodný.
Je tu skrytý cieľ, ktorý určuje smer
01:44
There's a hidden goal driving the direction
31
104000
2016
01:46
of all of the technology we make,
32
106040
2136
všetkých technológií, čo vývíjame,
01:48
and that goal is the race for our attention.
33
108200
2920
a týmto cieľom je súboj o našu pozornosť.
01:52
Because every news site,
34
112840
2736
Pretože každý spravodajský web,
01:55
TED, elections, politicians,
35
115600
2736
TED, voľby, politici,
01:58
games, even meditation apps
36
118360
1976
hry a dokonca aj meditačné aplikácie
02:00
have to compete for one thing,
37
120360
1960
musia súťažiť o jedinú vec: našu pozornosť.
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
A tá nie je neobmedzená.
02:08
And the best way to get people's attention
40
128440
2416
A najlepší spôsob, ako ľudí zaujať,
02:10
is to know how someone's mind works.
41
130880
2440
je vedieť, ako funguje ich myseľ.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
A existuje celý rad presvedčovacích techník,
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
ktoré som sa naučil v univerzitnom Laboratóriu presvedčovacích technológií,
02:19
to get people's attention.
44
139680
1600
ako získať ľudskú pozornosť.
02:21
A simple example is YouTube.
45
141880
1480
Jednoduchou ukážkou je YouTube.
YouTube chce, aby ste na ňom strávili čo možno najviac času.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
Čo teda urobia?
02:28
They autoplay the next video.
48
148840
2280
Automaticky prehrajú nasledujúce video.
02:31
And let's say that works really well.
49
151760
1816
A povedzme, že to funguje vážne dobre.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Získajú o trochu viac vášho času.
Ale keď ste Netflix, pozriete sa nato a poviete si:
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
02:38
well, that's shrinking my market share,
52
158440
1858
"Hm, to zmenšuje môj podiel na trhu,
02:40
so I'm going to autoplay the next episode.
53
160322
2000
a tak budem automaticky prehrávať ďalšiu epizódu."
02:43
But then if you're Facebook,
54
163320
1376
Lenže ak ste Facebook,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
uvažujete: "To zmenšuje môj celkový podiel na trhu,
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
tak teraz musím automaticky spúšťať všetky videá na stene,
02:49
before waiting for you to click play.
57
169760
1762
než ich kliknutím spustíte sami."
02:52
So the internet is not evolving at random.
58
172320
3160
Takže internet sa nevyvíja náhodne.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
Dôvod, prečo máme pocit, že nás to takýmto spôsobom vťahuje,
03:00
is because of this race for attention.
60
180760
2376
je tento boj o pozornosť.
03:03
We know where this is going.
61
183160
1416
Vieme, kam to povedie.
03:04
Technology is not neutral,
62
184600
1520
Technológie nie sú neutrálne,
a stáva sa z toho súboj o bunky mozgového kmeňa
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
03:10
of who can go lower to get it.
64
190760
2200
a o to, kto môže ísť hlbšie a získať ich.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Dovoľte mi použiť príklad Snapchatu.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Pokiaľ Snapchat nepoznáte, jedná sa o najobľúbenejší spôsob,
03:20
that teenagers in the United States communicate.
67
200000
2256
akým spolu komunikujú teenageri v USA.
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Takže, pokiaľ ste ako ja a používate na komunikáciu SMS-ky,
03:26
Snapchat is that for teenagers,
69
206480
1776
tak Snapchat je to isté pre teenagerov.
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
A používa ho nejakých sto miliónov detí.
A vývojári prišli s funkciou Snapstreaks,
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
ktorá ukazuje súvislý rad dní,
03:33
which shows the number of days in a row
72
213240
1896
kedy boli spolu dvaja ľudia v kontakte.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
Inými slovami, urobili to,
03:39
is they gave two people something they don't want to lose.
75
219680
2960
že dali dvom ľuďom niečo, o čo nechcú prísť.
Pretože, pokiaľ ste teenager a máte 150 dňový rad,
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
nechcete ho prerušiť.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Pomyslite na tie bloy času, ktoré to načasuje v detských mysliach.
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
A to nie je len teória: Keď deti idú na dovolenku,
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
dajú svoje heslo až piatim ďalším kamarátom,
03:59
to keep their Snapstreaks going,
81
239800
2216
aby im udržovali tieto rady neprerušené,
04:02
even when they can't do it.
82
242040
2016
keď to ony sami nemôžu robiť.
04:04
And they have, like, 30 of these things,
83
244080
1936
A takýchto radov majú pokojne aj 30,
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
a tak strávia celý deň fotením nejakých obrázkov, stien
04:09
or ceilings just to get through their day.
85
249440
2480
alebo stropov, len aby ich udržali.
Takže nejde ani o to, že by viedli skutočné konverzácie.
04:13
So it's not even like they're having real conversations.
86
253200
2696
04:15
We have a temptation to think about this
87
255920
1936
Nás to však zvádza myslileť si:
04:17
as, oh, they're just using Snapchat
88
257880
2696
"Ale veď len používajú Snapchat
04:20
the way we used to gossip on the telephone.
89
260600
2016
rovnako, ako sme my klebetili po telefóne.
04:22
It's probably OK.
90
262640
1200
To je asi v poriadku."
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Ale zabúdame nato, že v sedemdesiatych rokoch,
04:26
when you were just gossiping on the telephone,
92
266760
2615
keď sme my klebetili po telefóne,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
nebola na druhej strane stovka inžinierov, ktorá presne vedela,
04:32
who knew exactly how your psychology worked
94
272440
2056
ako funguje naša psychika, a riadili nás tak,
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
aby sme spojenie nechceli prerušiť.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Pokiaľ vo vás táto myšlienka vyvoláva trochu pobúreniia,
04:42
notice that that thought just comes over you.
97
282680
2576
všimnite si, že na vás pôsobí.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Pobúrenie je tiež naozaj dobrý spôsob, ako získať vašu pozornosť,
04:49
because we don't choose outrage.
99
289880
1576
pretože pobúrenie si nevyberáme, len nás prepadne.
04:51
It happens to us.
100
291480
1416
04:52
And if you're the Facebook newsfeed,
101
292920
1856
A pokiaľ ste príspevkom na Facebooku,
04:54
whether you'd want to or not,
102
294800
1416
tak či chcete, alebo nie, z pobúrenia vlastne ťažíte.
04:56
you actually benefit when there's outrage.
103
296240
2736
Pretože pobúrenie nielen vyvoláva reakciu
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
v emočnom priestore a čase, vo vás.
05:05
We want to share that outrage with other people.
106
305440
2416
Vy toto pobúrenie chcete zdielať s ostatnými.
05:07
So we want to hit share and say,
107
307880
1576
Takže chceme príspevok zdielať
05:09
"Can you believe the thing that they said?"
108
309480
2040
so slovami: "Ako len mohli toto povedať?"
05:12
And so outrage works really well at getting attention,
109
312520
3376
A pobúrenie dokáže upútať našu pozornosť naozaj skvele,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
takže pokiaľ má Facebook na výber medzi zobrazením poburujúcich príspevkov
05:19
and a calm newsfeed,
111
319840
1320
a pokojných príspevkov,
tak si vyberú tie prvé;
05:22
they would want to show you the outrage feed,
112
322120
2136
05:24
not because someone consciously chose that,
113
324280
2056
nie preto, že ich niekto vedome vyberie,
05:26
but because that worked better at getting your attention.
114
326360
2680
ale preto, že tie účinnejšie získajú vašu pozornosť.
A riadiaca miestnosť príspevkov sa nezodpovedá nám.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Cieľom je maximalizácia pozornosti.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
Zodpovedá sa tiež, kvôli obchodnému modelu reklamy,
05:40
because of the business model of advertising,
118
340600
2376
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
každému, kto najviac zaplatí, aby mohol prísť do riadiacej miestnosti
05:46
and say, "That group over there,
120
346360
1576
a povedať: "Chcem naplánovať
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
tieto myšlienky do myslí tamtej skupiny."
05:51
So you can target,
122
351760
1200
Takže môžete zacieliť,
môžete precízne zacieliť lož
05:54
you can precisely target a lie
123
354040
1936
05:56
directly to the people who are most susceptible.
124
356000
2920
priamo na najľahšie ovplyvniteľných ľudí.
A pretože to prináša zisk, bude sa to len zhoršovať.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Takže dnes som tu preto,
06:05
So I'm here today
126
365040
1800
06:08
because the costs are so obvious.
127
368160
2000
že náklady s tým spojené sú také očividné.
Nepoznám naliehavejší problém než tento,
06:12
I don't know a more urgent problem than this,
128
372280
2136
06:14
because this problem is underneath all other problems.
129
374440
3120
pretože tento problém je základom ostatných problémov.
06:18
It's not just taking away our agency
130
378720
3176
Nielenže nás oberá o našu schopnosť nakladať so svojou pozornosťou
06:21
to spend our attention and live the lives that we want,
131
381920
2600
a žiť životy, aké sami chceme;
06:25
it's changing the way that we have our conversations,
132
385720
3536
mení to aj spôsob ako vedieme konverzácie,
06:29
it's changing our democracy,
133
389280
1736
mení to našu demokraciu,
06:31
and it's changing our ability to have the conversations
134
391040
2616
mení to našu schopnosť dialógu
06:33
and relationships we want with each other.
135
393680
2000
a vzájomné vzťahy, ktoré chceme mať.
06:37
And it affects everyone,
136
397160
1776
A ovplyvňuje to každého,
06:38
because a billion people have one of these in their pocket.
137
398960
3360
pretože miliardy ľudí majú niečo takéto (smartfón) vo svojom vrecku.
06:45
So how do we fix this?
138
405360
1400
Takže ako to napravíme?
Musíme spraviť tri radikálne zmeny
06:49
We need to make three radical changes
139
409080
2936
06:52
to technology and to our society.
140
412040
1800
v technológiách a v našej spoločnosti.
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Po prvé si musíme pripustiť, že sme presvedčiteľní.
07:00
Once you start understanding
142
420840
1376
Akonáhle porozumiete, že vaša myseľ
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
môže byť naprogramovaná, aby mala drobné myšlienky,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
alebo malé časové bloky, ktoré ste si nevybrali,
07:07
wouldn't we want to use that understanding
145
427640
2056
nechceli by ste toto poznanie použiť
07:09
and protect against the way that that happens?
146
429720
2160
tak, aby vás pred tým ochránilo?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Myslím si, že sa musíme na seba pozerať od základov novým spôsobom.
07:15
It's almost like a new period of human history,
148
435920
2216
Je to skoro ako nová etapa v ľudskej histórii,
07:18
like the Enlightenment,
149
438160
1216
ako osvietenstvo,
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
ale skôr ako isté osvietenstvo "vedomé si samo seba",
07:21
that we can be persuaded,
151
441640
2080
že môžeme byť nevedome presvedčení
07:24
and there might be something we want to protect.
152
444320
2240
a že by tu mohlo byť niečo, čo chceme chrániť.
07:27
The second is we need new models and accountability systems
153
447400
4576
Po druhé potrebujeme nové modely a systémy zodpovednosti,
pretože ako sa svet zlepšuje v presviedčaní -
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
lebo techniky presviedčania sa budú stále zdokonaľovať -
07:37
that the people in those control rooms
156
457880
1856
tak tí ľudia v tých riadiacich miestnostiach by mali
07:39
are accountable and transparent to what we want.
157
459760
2456
zodpovedne a transparentne sledovať naše záujmy.
07:42
The only form of ethical persuasion that exists
158
462240
2696
Pretože jediná forma etického presviedčania
07:44
is when the goals of the persuader
159
464960
1936
je taká, keď sú ciele presviedčajúceho v súlade s cieľmi presviedčaného.
07:46
are aligned with the goals of the persuadee.
160
466920
2200
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
A to zahŕňa riešenie veľkých vecí ako obchodný model reklamy.
07:54
Lastly,
162
474720
1576
Nakoniec potrebujeme obrodu dizajnu,
07:56
we need a design renaissance,
163
476320
1680
pretože keď už máme tento pohľad na ľudskú povahu,
07:59
because once you have this view of human nature,
164
479080
3056
08:02
that you can steer the timelines of a billion people --
165
482160
2976
že je možné meniť časové preferencie miliardy ľudí,
08:05
just imagine, there's people who have some desire
166
485160
2736
len si predstavte ľudí, ktorí majú nejakú túžbu
08:07
about what they want to do and what they want to be thinking
167
487920
2856
o tom, čo chcú robiť a načo chcú myslieť,
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
čo chcú cítiť a ako chcú byť informovaní,
08:13
and we're all just tugged into these other directions.
169
493960
2536
no všetci budeme ťahaní inými smermi.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Miliarda ľudí bude ťahaná týmito rôznymi smermi.
Takže si predstavte úplnú zmenu dizajnu,
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
ktorá sa pokúša o cielenú organizáciu "dobre stráveného času",
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
dávajúcej ľuďom čo najväčšiu kontrolu nad ich aktivitami.
08:28
And that would involve two things:
174
508600
1656
A to by zahŕňalo dve veci:
08:30
one would be protecting against the timelines
175
510280
2136
Ochranu proti aktivitám, ktoré nechceme zažívať,
08:32
that we don't want to be experiencing,
176
512440
1856
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
proti neželaným myšlienkam,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
takže keď zaznie signál, nemať to upozornenie, čo nás rozptýli.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
Druhá vec by bola uľahčovať nám zažívať aktivity, ktoré sami chceme.
08:43
So let me give you a concrete example.
180
523760
1880
Dovoľte mi uviesť konkrétny príklad.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Povedzme, že dnes váš priateľ s vami zrušil večeru
08:48
and you are feeling a little bit lonely.
182
528760
3775
a vy sa cítite trochu osamelo.
08:52
And so what do you do in that moment?
183
532559
1817
Čo urobíte v takejto chvíli? Otvoríte si Facebook.
08:54
You open up Facebook.
184
534400
1279
08:56
And in that moment,
185
536960
1696
A práve v tomto momente,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
chcú vývojári v riadiacej miestnosti naplánovať presne jednu vec,
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
a tou je maximalizácia času, ktorý strávite na obrazovke.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Namiesto toho si predstavte, že títo vývojári vytvoria iný časový plán,
09:10
that was the easiest way, using all of their data,
189
550560
3496
čo by malo byť úplne jednoduché s dátami, ktoré majú k dispozícii,
09:14
to actually help you get out with the people that you care about?
190
554080
3096
a pomôžu vám vyjsť si s ľuďmi, na ktorých vám záleží.
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Zamyslite sa nad možným zmiernením všetkej tej osamelosti v spoločnosti,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
ak by toto Facebook chcel ľuďom umožniť.
09:26
Or imagine a different conversation.
193
566160
1715
Alebo si predstavte inú situáciu.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Povedzme, že chcete na Facebooku zverejniť niečo veľmi kontroverzné,
09:31
which is a really important thing to be able to do,
195
571240
2416
čo je skutočne veľmi dôležitá možnosť, hovoriť o kontroverzných témach.
09:33
to talk about controversial topics.
196
573680
1696
Teraz, keď je tam ten veľký priestor na komentár,
09:35
And right now, when there's that big comment box,
197
575400
2336
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
priamo sa vám ponúka: "Ktorú klávesu chcete stlačiť?"
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
Inými slovami, plánuje časový sled činností,
09:44
you're going to continue to do on the screen.
200
584000
2136
s ktorými budete na obrazovke pokračovať.
09:46
And imagine instead that there was another button there saying,
201
586160
2976
Predstavte si, že namiesto toho tam bude tlačidlo s otázkou:
09:49
what would be most time well spent for you?
202
589160
2056
"Aký by bol pre vás najlepšie strávený čas?"
09:51
And you click "host a dinner."
203
591240
1576
Vy kliknete: "Usporiadať večeru."
09:52
And right there underneath the item it said,
204
592840
2096
A priamo pod tým bude položka:
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
"Ozvite sa, kto má záujem o večeru."
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Takže stále budete mať konverzáciu o niečom kontroverznom,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
ale na mieste a v čase, ktoré vám vyhovujú,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
čo by bolo v ten večer u vás doma,
10:06
to talk about it.
209
606760
1200
kde sa o tom budete rozprávať s priateľmi.
10:09
So imagine we're running, like, a find and replace
210
609000
3160
Predstavte si, že by sme našli a nahradili
všetky tie veci, čo nás aktuálne presvedčivo smerujú
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
k stále dlhšiemu času strávenému za obrazovkou,
niečím, čo my sami skutočne chceme v našich životoch.
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
10:26
It doesn't have to be this way.
215
626960
1480
Nemusí to byť takto.
Predstavte si, že by sme využili všetky tieto dáta
10:30
Instead of handicapping our attention,
216
630360
2256
10:32
imagine if we used all of this data and all of this power
217
632640
2816
a všetku tú silu, tento nový pohľad na ľudskú povahu,
10:35
and this new view of human nature
218
635480
1616
namiesto na oslabovanie našej pozornosti
10:37
to give us a superhuman ability to focus
219
637120
2856
na vytvorenie nadľudskej schopnosti
sústrediť sa a zamerať svoju pozornosť na to, na čom nám záleží,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
10:44
and a superhuman ability to have the conversations
221
644160
2616
a nadľudskej schopnosti viesť konverzácie,
10:46
that we need to have for democracy.
222
646800
2000
tak potrebné pre demokraciu.
10:51
The most complex challenges in the world
223
651600
2680
Najzložitejšie výzvy na svete
10:56
require not just us to use our attention individually.
224
656280
3120
vyžadujú nielen nás a individuálne využívanie našej pozornosti.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
Vyžadujú spoločné a koordinované využívanie našej pozornosti.
11:04
Climate change is going to require that a lot of people
226
664440
2816
Klimatické zmeny vyžadujú schopnosť veľkého množstva ľudí
11:07
are being able to coordinate their attention
227
667280
2096
koordinovať ich pozornosť najlepším možným spôsobom.
11:09
in the most empowering way together.
228
669400
1896
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Predstavte si stvorenie nadľudskej schopnosti, ktorá to umožní.
Niekedy najpálčivejšie a najdôležitejšie problémy sveta
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
nie sú hypotetické budúce veci, ktoré by sme mohli vytvoriť v budúcnosti.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
Niekedy sú najpálčivejšie problémy
11:30
are the ones that are right underneath our noses,
233
690320
2336
tie, ktoré sú priamo pod naším nosom,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
veci, ktoré už ovládajú miliardy ľudských myslí.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
A tak sa nevzrušujme nad novou rozšírenou realitou,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
virtuálnou realitou a všetkými tými super vecami, čo možno prídu,
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
a ktoré budú náchylné na rovnaký boj o pozornosť,
11:46
if we could fix the race for attention
238
706640
2176
ale radšej riešme samotný boj o pozornosť,
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
čo sa deje v zariadeniach vo vreckách miliardy ľudí.
11:52
Maybe instead of getting excited
240
712040
1576
Možno namiesto nadšenia
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
z nových vzrušujúcich módnych vzdelávacích aplikácií
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
by sme mali riešiť manipuláciu mysle našich detí,
12:00
into sending empty messages back and forth.
243
720760
2480
kvôli ktorej si posielajú hore-dole prázdne správy.
12:04
(Applause)
244
724040
4296
(Potlesk)
12:08
Maybe instead of worrying
245
728360
1256
Možno namiesto obáv
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
z hypotetickej budúcej neovládateľnej umelej inteligencie,
12:13
that are maximizing for one goal,
247
733440
1880
ktorá sa zameria na nesprávny cieľ,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
by sme mali vyriešiť nezvládnutú umelú inteligenciu,
12:19
that already exists right now,
249
739360
2056
ktorá už existuje
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
a nevhodne riadi zobrazovanie príspevkov.
Podobne ako by sme mohli namiesto ponáhľania sa
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
s kolonizovaním nových planét opraviť tú, na ktorej žijeme.
12:32
(Applause)
253
752000
4120
(Potlesk)
Riešenie tohto problému je kritickou
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
infraštruktúrou pre vyriešenie všetkých ostatných problémov.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Nie je nič vo vašom živote alebo v našich spoločných problémoch,
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
čo by nevyžadovalo schopnosť zamerať pozornosť na veci, na ktorých nám záleží.
12:55
At the end of our lives,
258
775800
1240
Napokon nám všetkým ostanú len naša pozornosť a náš čas.
12:58
all we have is our attention and our time.
259
778240
2640
13:01
What will be time well spent for ours?
260
781800
1896
Čo bude znamenať "dobre strávený čas" pre nás?
13:03
Thank you.
261
783720
1216
13:04
(Applause)
262
784960
3120
Ďakujem.
(Potlesk)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, vďaka. Hej, zostaň tu ešte chvíľu.
13:20
First of all, thank you.
264
800720
1336
Predovšetkým ďakujem.
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
Viem, že sme ťa požiadali o túto prednášku na poslednú chvíľu,
13:24
and you've had quite a stressful week
266
804880
2216
a ty si mal dosť stresujúci týždeň
13:27
getting this thing together, so thank you.
267
807120
2440
dávajúc to celé dokopy, takže vďaka.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Niektorí poslucháči by mohli povedať, že to, načo sa sťažuješ, je závislosť
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
a pre tých, ktorí to robia, je to vlastne zaujímavé.
Všetky tie dizajnové prvky užívateľského obsahu
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
sú fantasticky zaujímavé.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Najzaujímavejšie, aké doteraz boli vytvorené.
Tak čo je na tom zlé?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
TH: Myslím, že sú naozaj zaujímavé.
Jeden spôsob, ako nato pozerať, je, napríklad keď ste YouTube,
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
13:52
you want to always show the more interesting next video.
276
832640
2656
chcete vždy ukázať ešte zaujímavejšie nasledujúce video.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Chcete byť lepší a lepší v navrhovaní nasledujúceho videa,
13:58
but even if you could propose the perfect next video
278
838360
2456
ale aj ak by ste mohli navrhnúť perfektné ďalšie video,
14:00
that everyone would want to watch,
279
840840
1656
ktoré by všetci chceli pozerať,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
bol by to len lepší a lepší spôsob, ako vás udržať pred obrazovkou.
14:05
So what's missing in that equation
281
845880
1656
Takže chýba určenie, kde by mali byť naše hranice.
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Mali by ste YouTube dať vedieť, povedzme, niečo o zaspávaní.
14:12
The CEO of Netflix recently said,
284
852960
1616
Šéf Netflixu nedávno povedal:
"Naši najväčší konkurenti sú Facebook, YouTube a spánok."
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Potrebujeme si uvedomiť, že ľudská architektúra je limitovaná
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
a že máme určité hranice alebo dimenzie našich životov,
14:24
that we want to be honored and respected,
288
864840
1976
ktoré chceme ctiť a rešpektovať,
14:26
and technology could help do that.
289
866840
1816
a technológie by nám v tom mali pomáhať.
14:28
(Applause)
290
868680
2616
(Potlesk)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: A mohol by si ukázať,
že tento problém čiastočne spočíva v naivnej predstave o ľudskej povahe?
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
Toľko z toho je odôvodnené ľudskými preferenciami,
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
máme tieto algoritmy, ktoré skvelo optimalizujú preferencie,
14:44
of optimizing for human preference,
295
884520
1696
ale ktoré preferencie?
14:46
but which preference?
296
886240
1336
14:47
There's the preferences of things that we really care about
297
887600
3496
Sú tam preferencie vecí, na ktorých nám záleží,
14:51
when we think about them
298
891120
1376
keď nad nimi rozmýšľame,
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
versus preferencie, na ktoré len inštinktívne klikáme.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Ak by sme mohli vniesť tento detailnejší obraz ľudskej povahy
do každého dizajnu, bol by to krok vpred?
15:00
would that be a step forward?
301
900280
1456
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Určite. Myslím, že v súčasnosti akoby sa naše technológie
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
len pýtali vašich pradávnych inštinktov,
15:07
what's the best way to just impulsively get you to do
304
907280
2496
čo je najlepší spôsob, ako vás donútiť impulzívne
15:09
the next tiniest thing with your time,
305
909800
2136
spraviť nasledujúcu drobnosť s vaším časom,
15:11
instead of asking you in your life
306
911960
1656
namiesto otázky, čo by mohol byť pre vás
15:13
what we would be most time well spent for you?
307
913640
2176
"najlepšie strávený čas".
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Čo by bolo pre vás ideálne, vrátane niečoho neskoršieho,
mohol by byť dobre strávený čas pre vás tu, posledný deň na TED?
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
CA: Takže Facebook a Google a ostatní by sa najprv spýtali:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"Chcete, aby sme optimalizovali
pre váš mysliaci alebo inštinktívny mozog? Vyberte si."
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Správne, to by mohol byť jeden spôsob.
CA: Povedal si presvedčiteľnosť; pre mňa zaujímavé slovo,
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
15:37
because to me there's two different types of persuadability.
315
937240
2856
pretože podľa mňa sú dva typy presvedčiteľnosti.
15:40
There's the persuadability that we're trying right now
316
940120
2536
Je tu presvedčiteľnosť, ktorú skúšame práve teraz,
15:42
of reason and thinking and making an argument,
317
942680
2176
rozumom, rozmýšľaním a argumentovaním,
15:44
but I think you're almost talking about a different kind,
318
944880
2696
ale myslím že ty hovoríš o odlišnom type,
15:47
a more visceral type of persuadability,
319
947590
1906
viac pudovom; o tom, ako byť presvedčený bez toho,
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
aby si vedel, že premýšľaš.
TH: Presne. Na tomto probléme mi veľmi záleží,
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
lebo som študoval v Laboratóriu presvedčovacích technológií
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
na Standforde, kde sa ľudia učia presne tieto techniky.
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
Sú konferencie a workshopy, kde sa učia tieto skryté spôsoby
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
získavania ľudskej pozornosti a organizovania ľudských životov.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
A pretože väčšina netuší, že to existuje,
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
je táto konverzácia tak dôležitá.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, my obaja poznáme veľa ľudí zo všetkých týchto spoločností.
16:15
There are actually many here in the room,
329
975520
1976
Veľa ich je dokonca tu v sále.
16:17
and I don't know about you, but my experience of them
330
977520
2477
Neviem ako ty, ale moje skúsenosti s nimi sú,
že u nich nevidím nedostatok dobrého úmyslu.
16:20
is that there is no shortage of good intent.
331
980021
2075
16:22
People want a better world.
332
982120
2176
Ľudia chcú lepší svet.
16:24
They are actually -- they really want it.
333
984320
3520
Skutočne ho chcú.
A nemyslím si, že by si tvrdil, že sú to zlí ľudia.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
16:32
It's a system where there's these unintended consequences
335
992520
3696
Je to systém, kde sa tieto nezamýšľané následky
16:36
that have really got out of control --
336
996240
1856
vymkli kontrole.
TH: Je to intenzívny súboj o pozornosť
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
s klasickou snahou spoločností znižovať náklady na získanie pozornosti.
16:42
and it's so tense.
339
1002840
1216
Jediný spôsob, ako získať viac, je ísť hlbšie do mozgového kmeňa,
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
isť hlbšie do pobúrenia, hlbšie do emócií,
16:49
to go lower into the lizard brain.
342
1009280
1696
hlbšie do pudového mozgu.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Veľmi ďakujem, že nám všetkým pomáhaš vedieť o tom viac.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Trsitan Harris, ďakujeme. TH: Ďakujem veľmi pekne.
16:57
(Applause)
345
1017280
2240
(Potlesk)
O tomto webe

Táto stránka vám predstaví videá na YouTube, ktoré sú užitočné pri učení angličtiny. Uvidíte lekcie angličtiny, ktoré vedú špičkoví učitelia z celého sveta. Dvojitým kliknutím na anglické titulky zobrazené na stránke každého videa si môžete video odtiaľ prehrať. Titulky sa posúvajú synchronizovane s prehrávaním videa. Ak máte akékoľvek pripomienky alebo požiadavky, kontaktujte nás prostredníctvom tohto kontaktného formulára.

https://forms.gle/WvT1wiN1qDtmnspy7