How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Anastasia Krysa Утверджено: Khrystyna Romashko
00:12
I want you to imagine
0
12960
1200
Я хочу, щоб ви уявили,
як ви заходите до кімнати,
00:15
walking into a room,
1
15000
1200
00:17
a control room with a bunch of people,
2
17480
2136
до диспетчерської із купою людей,
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
сотнями людей, що згорбились над столами із маленькими циферблатами,
00:23
and that that control room
4
23280
1520
і що ця диспетчерська
00:25
will shape the thoughts and feelings
5
25680
3696
може формувати думки та почуття
00:29
of a billion people.
6
29400
1240
мільярдів людей.
00:32
This might sound like science fiction,
7
32560
1880
Це може скидатися на наукову фантастику,
00:35
but this actually exists
8
35320
2216
але таке справді існує
00:37
right now, today.
9
37560
1200
проямо зараз, сьогодні.
Я це знаю, тому що і сам був у одній із цих диспетчерських.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Я був спеціалістом із етики дизайну в Google,
00:44
I was a design ethicist at Google,
11
44159
2297
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
де я вивчав те, як етично можна управляти думками людей.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Ми не говоримо про те, що група людей,
00:53
working at a handful of technology companies
14
53480
2536
яка працює у групі технологічних компаній,
на свій власний розсуд керуватиме тим, про що сьогодні думає мільярд людей.
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
01:02
Because when you pull out your phone
16
62400
1736
Тому, коли ти виймаєш телефон,
а вони моделюють те, як це працює, або що у тебе в стрічці,
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
це планує маленькі відрізки часу у наших думках.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Якщо ти бачиш сповіщення, це спрямовує тебе на думки,
01:13
that maybe you didn't intend to have.
20
73680
2040
яких, можливо, ти не мав наміру мати.
01:16
If you swipe over that notification,
21
76400
2616
Якщо ви проведете пальцем по цьому сповіщенню,
це наміряє вас витратити трішки часу
01:19
it schedules you into spending a little bit of time
22
79040
2381
01:21
getting sucked into something
23
81445
1381
і затягнутись у щось,
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
у що, можливо, у вас не було наміру затягуватись.
Коли ми говоримо про технології,
01:27
When we talk about technology,
25
87320
1520
ми схильні розглядати їх, як безхмарні можливості.
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
Вони можуть піти в будь-якому напрямку.
01:35
And I want to get serious for a moment
28
95400
1856
І я хочу бути зараз серйозним,
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
та пояснити, чому вони йдуть у дуже конкретному напрямку.
01:40
Because it's not evolving randomly.
30
100840
2200
Тому що вони не розвиваються навмання.
Існує прихована мета, що керує напрямком
01:44
There's a hidden goal driving the direction
31
104000
2016
усіх технологій, які ми створюємо,
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
і цією метою є погоня за нашою увагою.
01:52
Because every news site,
34
112840
2736
Тому що кожен новий сайт
01:55
TED, elections, politicians,
35
115600
2736
(TED, вибори, політики,
01:58
games, even meditation apps
36
118360
1976
ігри, навіть додатки для медитації)
02:00
have to compete for one thing,
37
120360
1960
повинен змагатись за одну річ,
якою є наша увага,
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
а її є обмежена кількість.
02:08
And the best way to get people's attention
40
128440
2416
А найкращий спосіб отримати увагу людей -
02:10
is to know how someone's mind works.
41
130880
2440
це знати, як працює чийсь розум.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Існує ціла низка технік переконання,
які я вивчав у коледжі в "Лабораторії технік переконання",
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
02:19
to get people's attention.
44
139680
1600
щоб привернути увагу людей.
02:21
A simple example is YouTube.
45
141880
1480
Простим прикладом є YouTube.
YouTube хоче максимізувати час, який ви проводите на сайті.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
І що ж вони роблять?
02:28
They autoplay the next video.
48
148840
2280
Вони автоматично вмикають наступне відео.
02:31
And let's say that works really well.
49
151760
1816
І треба визнати, це працює справді добре.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Вони отримують трішки більше уваги людей.
Якщо ж ви - Netflix, ви дивитесь і кажете:
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
02:38
well, that's shrinking my market share,
52
158440
1858
це зменшує мою частку на ринку,
02:40
so I'm going to autoplay the next episode.
53
160322
2000
тож я буду автоматично вмикати наступну серію.
02:43
But then if you're Facebook,
54
163320
1376
Але якщо ви - Facebook,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
ви скажете: це забирає всю мою частку на ринку,
тож тепер я мушу автоматично вмикати усі відео у стрічці,
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
не чекаючи, поки ви клікнете на "плей".
02:52
So the internet is not evolving at random.
58
172320
3160
Тож інтернет не розвивається навмання.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
Причиною того, що він нас так затягує,
03:00
is because of this race for attention.
60
180760
2376
є саме погоня за увагою.
Ми знаємо, до чого це все йде.
03:03
We know where this is going.
61
183160
1416
03:04
Technology is not neutral,
62
184600
1520
Технології не є нейтральними,
і це вже стає погонею аж до стовбура головного мозку,
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
03:10
of who can go lower to get it.
64
190760
2200
і за тим, хто зможе пробратися глибше.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Я наведу вам для прикладу Snapchat.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Якщо ви не знали, то Snapchat є найпопулярнішим засобом
комунікації серед підлітків у Сполучених Штатах.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Якщо ви, як і я, користуєтесь текстовими повідомленнями, щоб спілкуватись,
03:26
Snapchat is that for teenagers,
69
206480
1776
то Snapchat є тим же для підлітків,
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
і його користувачів є приблизно 100 мільйонів.
Вони винайшли фішку під назвою Snapstreaks,
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
03:33
which shows the number of days in a row
72
213240
1896
яка показує кількість днів підряд,
коли двоє людей спілкувались один з одним.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
Іншими словами, що вони зробили,
03:39
is they gave two people something they don't want to lose.
75
219680
2960
так це просто дали двом людям щось, що вони не хочуть втрачати.
Тому, якщо ви підліток, і у вас є діалог тривалістю 150 днів підряд,
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
ви не хочете, щоб це просто зникло.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Тож подумайте про маленькі відрізки часу, які виникають через це у думках дітей.
Це не просто теорія: коли дітлахи їдуть на канікули,
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
вони дають свої паролі п'ятьом іншим друзям,
03:59
to keep their Snapstreaks going,
81
239800
2216
щоб ті вели їхні Snapstreaks,
навіть коли вони самі цього не можуть зробити.
04:02
even when they can't do it.
82
242040
2016
І вони мають по 30 таких діалогів,
04:04
And they have, like, 30 of these things,
83
244080
1936
і тому вони мусять робити фотографії просто картинок чи стін
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
04:09
or ceilings just to get through their day.
85
249440
2480
чи стель, просто щоб їм зарахувався день.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Тож, вони, по суті, навіть по-справжньому не розмовляють.
04:15
We have a temptation to think about this
87
255920
1936
Ми схильні думати про це на кшталт:
04:17
as, oh, they're just using Snapchat
88
257880
2696
вони просто використовують Snapchat,
04:20
the way we used to gossip on the telephone.
89
260600
2016
так само, як ми теревенили по телефону.
04:22
It's probably OK.
90
262640
1200
Це, напевно, нормально.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Але прогалина в тому, що у 1970-их,
04:26
when you were just gossiping on the telephone,
92
266760
2615
коли ви просто теревенили по телефону,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
не було сотні інженерів по той бік екрану,
04:32
who knew exactly how your psychology worked
94
272440
2056
які б точно знали, як працює ваша психологія
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
та створювали між вами "подвійне послання".
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Якщо це змушує вас почуватись дещо ображеними,
04:42
notice that that thought just comes over you.
97
282680
2576
зауважте, що ця думка просто охоплює вас.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Образа - це справді хороший спосіб привернути вашу увагу,
04:49
because we don't choose outrage.
99
289880
1576
тому що ми не вибираємо образу.
04:51
It happens to us.
100
291480
1416
Це просто з нами стається.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Якщо ви гортаєте стрічку у Facebook,
04:54
whether you'd want to or not,
102
294800
1416
хочете ви того чи ні,
04:56
you actually benefit when there's outrage.
103
296240
2736
ви насправді виграєте від того, коли є образа.
Тому що образа не просто планує вашу реакцію
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
в емоційному часі та просторі.
05:05
We want to share that outrage with other people.
106
305440
2416
Ми хочемо поділитися цією образою з іншими людьми.
05:07
So we want to hit share and say,
107
307880
1576
Тож ми хочемо натиснути "Поділитися"
05:09
"Can you believe the thing that they said?"
108
309480
2040
та сказати: "Ви можете в це повірити?"
05:12
And so outrage works really well at getting attention,
109
312520
3376
Оскільки образа спрацьовує справді добре і привертає увагу.
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
Тому, якби у Facebook був вибір між тим, щоб показувати вам образливі новини
05:19
and a calm newsfeed,
111
319840
1320
чи нейтральні новини,
то вони б обрали показувати вам образливі новини,
05:22
they would want to show you the outrage feed,
112
322120
2136
05:24
not because someone consciously chose that,
113
324280
2056
і не тому, що хтось це свідомо вибрав,
05:26
but because that worked better at getting your attention.
114
326360
2680
а тому, що це краще працює на привернення вашої уваги.
І відділ контролю новин не відповідальний перед нами.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Він відповідальний за максимізацію уваги.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
Він також відповідальний,
05:40
because of the business model of advertising,
118
340600
2376
через бізнес-модель реклами,
перед будь-ким, хто заплатить більше, щоб власне зайти до відділу контролю
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
05:46
and say, "That group over there,
120
346360
1576
та сказати: "Агов, група отам,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
я хочу вселити людям у голову оці думки."
05:51
So you can target,
122
351760
1200
Тож, можна спрямовувати,
точно спрямовувати брехню
05:54
you can precisely target a lie
123
354040
1936
прямо до людей, які є найбільш вразливі.
05:56
directly to the people who are most susceptible.
124
356000
2920
І через те, що це є прибутковим, буде ставати лише гірше.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Тож сьогодні я тут,
06:05
So I'm here today
126
365040
1800
бо ціна цього є очевидною.
06:08
because the costs are so obvious.
127
368160
2000
06:12
I don't know a more urgent problem than this,
128
372280
2136
Я не знаю проблеми більш нагальної, ніж ця,
06:14
because this problem is underneath all other problems.
129
374440
3120
тому що ця проблема лежить в основі всіх інших проблем.
06:18
It's not just taking away our agency
130
378720
3176
Це лише забирає нашу владу
06:21
to spend our attention and live the lives that we want,
131
381920
2600
витрачати нашу увагу та жити так, як ми хочемо,
06:25
it's changing the way that we have our conversations,
132
385720
3536
це змінює спосіб нашого спілкування,
06:29
it's changing our democracy,
133
389280
1736
це змінює нашу демократію,
це змінює нашу здатність вести розмови
06:31
and it's changing our ability to have the conversations
134
391040
2616
06:33
and relationships we want with each other.
135
393680
2000
та підтримувати відносини так, як ми хочемо.
І це впливає на кожного,
06:37
And it affects everyone,
136
397160
1776
06:38
because a billion people have one of these in their pocket.
137
398960
3360
бо мільярд людей має оце у своїй кишені.
06:45
So how do we fix this?
138
405360
1400
Тож як ми це виправимо?
Нам потрібно впровадити три радикальні зміни
06:49
We need to make three radical changes
139
409080
2936
у технології та у наше суспільство.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
По-перше, нам потрібно визнати, що ми схильні до навіювання.
07:00
Once you start understanding
142
420840
1376
Коли ми почнемо розуміти,
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
що наш розум може бути спрямований на певні думки
або маленькі відрізки часу, які ми не планували,
07:05
or little blocks of time that you didn't choose,
144
425040
2576
07:07
wouldn't we want to use that understanding
145
427640
2056
чи не захочемо ми використати це розуміння
07:09
and protect against the way that that happens?
146
429720
2160
та захистити себе від цього?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Я гадаю, нам потрібно подивитися на себе докорінно по-новому.
07:15
It's almost like a new period of human history,
148
435920
2216
Це майже новий період в історії людства,
як Просвітництво,
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
але це певний вид Просвітництва самоусвідомлення
07:21
that we can be persuaded,
151
441640
2080
в тому, що ми схильні до навіювання,
07:24
and there might be something we want to protect.
152
444320
2240
і що може бути щось, що ми б хотіли захистити.
07:27
The second is we need new models and accountability systems
153
447400
4576
По-друге, нам потрібні нові моделі та системи відповідальності -
оскільки з часом світ стає кращим та все більш схильним до навіювання,
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
і буде ставати лише ще більш схильним, -
07:37
that the people in those control rooms
156
457880
1856
щоб люди у тих відділах контролю
07:39
are accountable and transparent to what we want.
157
459760
2456
були відповідальними та прозорими перед тим, чого ми хочемо.
07:42
The only form of ethical persuasion that exists
158
462240
2696
Єдина існуючи форма етичного переконання -
07:44
is when the goals of the persuader
159
464960
1936
це коли цілі того, хто переконує,
07:46
are aligned with the goals of the persuadee.
160
466920
2200
співпадають із цілями того, кого переконують.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
І це поставить під сумнів солідні речі, такі як бізнес-модель реклами.
07:54
Lastly,
162
474720
1576
І останнє,
07:56
we need a design renaissance,
163
476320
1680
нам потрібне відродження дизайну,
бо коли у вас є таке бачення людської природи,
07:59
because once you have this view of human nature,
164
479080
3056
що ви можете керувати розкладом мільярда людей, -
08:02
that you can steer the timelines of a billion people --
165
482160
2976
лише уявіть, є люди, котрі мають певні бажання
08:05
just imagine, there's people who have some desire
166
485160
2736
08:07
about what they want to do and what they want to be thinking
167
487920
2856
щодо того, що вони хочуть робити та про що вони хочуть думати
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
та що вони хочуть відчувати та як вони хочуть бути проінформовані,
08:13
and we're all just tugged into these other directions.
169
493960
2536
а нас всіх тягнуть в інші напрямки.
І є мільярд людей, яких просто тягнуть у ці всі різні напрямки.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Уявіть відродження дизайну,
08:20
Well, imagine an entire design renaissance
171
500240
2056
ціллю якого було б створення таких розкладів, які б давали можливість
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
проводити час у найбільш ефективний спосіб.
08:28
And that would involve two things:
174
508600
1656
Це включатиме дві речі:
08:30
one would be protecting against the timelines
175
510280
2136
по-перше, це буде захищати нас від розкладів,
08:32
that we don't want to be experiencing,
176
512440
1856
яких ми не хочемо дотримуватись,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
від думок, виникнення яких ми не хочемо,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
тож коли продзвенить цей дзвіночок, щоб він на нас не діяв;
а по-друге, це б давало нам право жити за тими розкладами, за якими ми хочемо.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
Давайте я наведу конкретний приклад.
Припустимо, що сьогодні друг відмінив із вами вечерю,
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
08:48
and you are feeling a little bit lonely.
182
528760
3775
і ви почуваєтесь дещо самотнім.
08:52
And so what do you do in that moment?
183
532559
1817
І що ви робите в цей момент?
08:54
You open up Facebook.
184
534400
1279
Ви відкриваєте Facebook.
08:56
And in that moment,
185
536960
1696
І в цей момент
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
дизайнери у диспетчерській хочуть спланувати лише одну річ,
а саме, як максимізувати час, який ви витратили перед екраном.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
А тепер натомість уявіть, що ті дизайнери створили інший розклад,
09:10
that was the easiest way, using all of their data,
189
550560
3496
використовуючи всі свої дані, який був би найлегшим способом,
який насправді допоміг би вам зустрітись із людьми, які вам дорогі?
09:14
to actually help you get out with the people that you care about?
190
554080
3096
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Лишень подумайте, наскільки б це пом'якшило всю самотність у суспільстві,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
якщо б це був той розклад, який Facebook хотів би зробити можливим для людей.
09:26
Or imagine a different conversation.
193
566160
1715
Або ж уявіть іншу ситуацію.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Скажімо, ви хочете запостити щось дуже суперечливе у Facebook,
09:31
which is a really important thing to be able to do,
195
571240
2416
можливість чого, до речі, є дуже важливою,
09:33
to talk about controversial topics.
196
573680
1696
говорити на суперечливі теми.
09:35
And right now, when there's that big comment box,
197
575400
2336
Зараз, коли з'являється велике віконце для коментаря,
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
воно майже запитує вас, яким відтінком ви хочете друкувати.
Іншими словами, це планує маленькі відрізки часу на речі,
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
через які ви продовжите робити щось на екрані.
09:44
you're going to continue to do on the screen.
200
584000
2136
А уявіть, що натомість там була б інша кнопка, яка б запитувала,
09:46
And imagine instead that there was another button there saying,
201
586160
2976
що було б найкращим способом проведення часу для вас?
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
І ви натискаєте "запросити на вечерю".
09:52
And right there underneath the item it said,
204
592840
2096
І прямо під цим написано:
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
"Хто хоче відповісти на запрошення на вечерю?"
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Таким чином, ви б так само говорили про щось суперечливе,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
але ви б робили це у найбільш сприятливому для вас місці,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
вдома ввечері із кількома друзями, що заскочили в гості,
10:06
to talk about it.
209
606760
1200
щоб про це поговорити.
Тож уявіть, що ми ніби натискаємо "знайти та замінити"
10:09
So imagine we're running, like, a find and replace
210
609000
3160
на всіх графіках, які на даний момент нас скеровують
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
проводити все більше і більше часу перед екраном,
та замінити всі ці графіки
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
тим, що ми справді хочемо у житті.
10:26
It doesn't have to be this way.
215
626960
1480
Так не повинно бути.
10:30
Instead of handicapping our attention,
216
630360
2256
Замість того, щоб переключати нашу увагу,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
уявіть, якби ми використали всю цю інформацію та владу,
10:35
and this new view of human nature
218
635480
1616
і це нове бачення людської природи,
щоб отримати надприродну здібність фокусуватися
10:37
to give us a superhuman ability to focus
219
637120
2856
та надприродну здібність приділяти свою увагу речам, що нам небайдужі,
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
та надприродну здібність вести розмови,
10:44
and a superhuman ability to have the conversations
221
644160
2616
10:46
that we need to have for democracy.
222
646800
2000
які нам потрібно вести заради демократії.
10:51
The most complex challenges in the world
223
651600
2680
Найскладніші виклики у світі
10:56
require not just us to use our attention individually.
224
656280
3120
вимагають від нас не лише використання нашої уваги індивідуально.
Вони вимагають від нас використовувати нашу увагу та разом координувати її.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
11:04
Climate change is going to require that a lot of people
226
664440
2816
Зміна клімату вимагатиме, щоб багато людей
11:07
are being able to coordinate their attention
227
667280
2096
були здатні координувати їхню увагу
11:09
in the most empowering way together.
228
669400
1896
разом у найбільш ефективний спосіб.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
І уявіть, що ми набудемо таку надприродну здібність.
Інколи найбільш нагальні та важливі проблеми у світі -
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
це не якісь гіпотетичні речі, які ми можемо створити у майбутньому.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
Іноді найбільш нагальні проблеми -
11:30
are the ones that are right underneath our noses,
233
690320
2336
це ті, котрі прямо у нас під носом,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
це речі, котрі вже спрямовують думки мільярда людей.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
І, мабуть, замість того, щоб захоплюватися новою доповненою реальністю
і віртуальною реальністю та можливими класними речами,
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
які будуть предметом тієї ж погоні за увагою,
11:46
if we could fix the race for attention
238
706640
2176
нам треба зупинити погоню за увагою
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
через речі, які вже є у кишенях мільярдів людей.
Може, замість захоплення
11:52
Maybe instead of getting excited
240
712040
1576
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
найцікавішими новими класними освітніми додатками
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
нам варто змінити те, як думками дітей вміло маніпулюють
12:00
into sending empty messages back and forth.
243
720760
2480
та змушують їх слати пусті повідомлення туди-сюди.
(Оплески)
12:04
(Applause)
244
724040
4296
Можливо, замість того, щоб хвилюватись
12:08
Maybe instead of worrying
245
728360
1256
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
про гіпотетичні нестримні штучні інтелекти у майбутньому,
12:13
that are maximizing for one goal,
247
733440
1880
які максимізовані задля єдиної мети,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
ми могли б розв'язати проблему нестримного штучного інтелекту,
12:19
that already exists right now,
249
739360
2056
який існує прямо зараз,
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
і це є ті стрічки новин, що збільшуються для єдиної мети.
Це майже те саме, що замість летіти колонізувати нові планети,
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
ми б могли виправити ту, на якій ми вже є.
(Оплески)
12:32
(Applause)
253
752000
4120
Вирішення цієї проблеми
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
є важливою основою для вирішення інших проблем.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Немає нічого у нашому житті або у наших спільних проблемах такого,
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
де б не потрібна була здатність скерувати нашу увагу на те, що нам небайдуже.
12:55
At the end of our lives,
258
775800
1240
І вкінці нашого життя,
12:58
all we have is our attention and our time.
259
778240
2640
все, що у нас є, - це наша увага і наш час.
13:01
What will be time well spent for ours?
260
781800
1896
То що ж буде добре проведеним часом для нас?
13:03
Thank you.
261
783720
1216
Дякую.
13:04
(Applause)
262
784960
3120
(Оплески)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Кріс Андерсон: Трістане, дякую тобі. Залишся ще на секунду.
13:20
First of all, thank you.
264
800720
1336
Перш за все, дякую.
Я знаю, що ми попросили тебе підготувати цю промову за досить короткий час,
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
і у тебе був напружений тиждень,
поки ти готувався, тож дякую тобі.
13:27
getting this thing together, so thank you.
267
807120
2440
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Дехто із слухачів може сказати, що ти нарікаєш на залежність,
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
і для людей, які цим займаються, це справді цікаво.
Всі ці дизайнерські рішення
13:38
All these design decisions
270
818200
1256
13:39
have built user content that is fantastically interesting.
271
819480
3096
створили фантастично цікавий контент для користувача.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Світ зараз набагато цікавіший, ніж він коли-небудь був.
Тож що ж поганого у цьому?
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Трістан Гарріс: Я думаю, це справді цікаво.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Це можна побачити, якщо ви - YouTube, наприклад,
13:52
you want to always show the more interesting next video.
276
832640
2656
то ви завжди захочете показувати цікавіші наступні відео.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Ви хочете ставати все кращими, пропонуючи наступне відео,
але навіть, якщо б ви могли запропонувати бездоганне наступне відео,
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
яке б усі хотіли дивитись,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
то це було б краще лише для того, щоб тримати вас прикутим до екрану.
14:05
So what's missing in that equation
281
845880
1656
У цьому рівнянні не вистачає лиш одного -
14:07
is figuring out what our boundaries would be.
282
847560
2136
це вияснити, де ж буде наша межа.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Ви б хотіли подивитись на YouTube щось про, скажімо, засинання.
14:12
The CEO of Netflix recently said,
284
852960
1616
Керівництво Netflix нещодавно сказало:
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
"Нашими головними конкурентами є Facebook, YouTube та сон."
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Тож нам потрібно визнати, що будова людини є обмеженою
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
і що ми маємо певні межі та простори у нашому житті,
14:24
that we want to be honored and respected,
288
864840
1976
і ми хочемо, щоб їх поважали,
14:26
and technology could help do that.
289
866840
1816
а технології могли б допомогти у цьому.
14:28
(Applause)
290
868680
2616
(Оплески)
14:31
CA: I mean, could you make the case
291
871320
1696
КА: Чи міг би ти обґрунтувати,
що частиною проблеми тут є наша наївна модель людської природи?
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
Багато можна виправдати через вибір людини,
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
де у нас є алгоритми, які чудово працюють
14:44
of optimizing for human preference,
295
884520
1696
та оптимізують вибір людини,
14:46
but which preference?
296
886240
1336
але ж який вибір?
14:47
There's the preferences of things that we really care about
297
887600
3496
Є вибір щодо речей, які нам справді небайдужі,
коли ми про них думаємо,
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
на противагу вибору щодо того, на що ми просто інстинктивно натискаємо.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Якби ми могли включити це більш детальне бачення людської природи у кожен дизайн,
15:00
would that be a step forward?
301
900280
1456
чи було б це кроком вперед?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
ТГ: Безумовно. Я зараз думаю,
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
що це наче всі наші технології, по суті, лише запитують наші інстинкти,
у який спосіб найкраще змусити нас імпульсивно зробити
15:07
what's the best way to just impulsively get you to do
304
907280
2496
15:09
the next tiniest thing with your time,
305
909800
2136
наступну маленьку операцію із вашим часом,
15:11
instead of asking you in your life
306
911960
1656
замість того, щоб спитати вас у житті,
15:13
what we would be most time well spent for you?
307
913640
2176
що буде для вас найкращим проведенням часу?
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Що буде найкращим розкладом, який може включати щось пізніше,
чи буде для вас час добре проведеним тут на TED у останній день?
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
КА: То, якби Facebook та Google та всі інші спершу нас питали:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"Ви хочете, щоб ми оптимізували сайти для вашого мислення
чи для ваших інстинктів? Вам обирати."
15:28
or your lizard brain? You choose."
312
928280
1656
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
ТГ: Вірно. Це був би один із способів.Так.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
КА: Ти сказав "переконування", для мене це цікаве слово,
15:37
because to me there's two different types of persuadability.
315
937240
2856
тому що для мене існує два різні види переконування.
Існує переконування, яке ми випробовуємо прямо зараз,
15:40
There's the persuadability that we're trying right now
316
940120
2536
15:42
of reason and thinking and making an argument,
317
942680
2176
що ґрунтується на підставах, міркуваннях та суперечці,
15:44
but I think you're almost talking about a different kind,
318
944880
2696
але я гадаю, ти говорив про інший вид,
15:47
a more visceral type of persuadability,
319
947590
1906
більш глибинний вид переконування,
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
про те, як бути переконаним, навіть не знаючи, що ти думаєш.
ТГ: Саме так. Причиною, чому мені так небайдужа ця проблема,
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
є те, що я вчився у "Лабораторії технік переконання" у Стенфорді,
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
що навчала [студентів як визначати] саме ці техніки.
Є конференції та семінари, що навчають людей всіх цих прихованих способів,
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
щоб отримати увагу людей чи керувати життями людей.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
І саме тому, що більшість людей не знає, що це існує,
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
тому ця розмова є такою важливою.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
КА: Трістане, ми з тобою обоє знаємо так багато людей із цих компаній.
16:15
There are actually many here in the room,
329
975520
1976
Власне, багато є тут у цій кімнаті,
16:17
and I don't know about you, but my experience of them
330
977520
2477
і я не знаю як щодо тебе, але мій досвід щодо них
показує, що у них немало добрих намірів.
16:20
is that there is no shortage of good intent.
331
980021
2075
Люди хочуть зробити світ кращим.
16:22
People want a better world.
332
982120
2176
16:24
They are actually -- they really want it.
333
984320
3520
Вони справді цього хочуть.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
І я не думаю, що усе, що ти сказав, означає, що це погані люди.
16:32
It's a system where there's these unintended consequences
335
992520
3696
Це система, де ці непередбачувані наслідки
16:36
that have really got out of control --
336
996240
1856
вийшли із-під контролю ...
ТГ: Через цю погоню за увагою.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
Це класична "гонка по нисхідній", коли ти мусиш привернути увагу,
16:42
and it's so tense.
339
1002840
1216
і ця гонка є напруженою.
Єдиний спосіб здобути більше - це спускатися нижче по стовбуру мозку,
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
йти глибше в образу, йти глибше в емоції,
16:49
to go lower into the lizard brain.
342
1009280
1696
йти глибше у інстинкти.
КА: Що ж, дуже дякую, що допоміг нам всім стати трішки мудрішими у цьому питанні.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Трістан Гарріс, дякую. ТГ: Велике спасибі.
16:57
(Applause)
345
1017280
2240
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7