How a handful of tech companies control billions of minds every day | Tristan Harris

947,059 views ・ 2017-07-28

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Morteza Haghani Reviewer: Leila Ataei
00:12
I want you to imagine
0
12960
1200
ازتون می‌خوام تصور کنین
که به اتاقی وارد می‌شین،
00:15
walking into a room,
1
15000
1200
00:17
a control room with a bunch of people,
2
17480
2136
یه اتاق عملیات با یه عده آدم،
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
صد نفر، که روی یه میز با دکمه‌های ریز قوز کردن،
00:23
and that that control room
4
23280
1520
و اینکه اون اتاق عملیات
00:25
will shape the thoughts and feelings
5
25680
3696
اندیشه‌ها و احساسات
00:29
of a billion people.
6
29400
1240
میلیاردها نفر رو شکل می‌ده.
00:32
This might sound like science fiction,
7
32560
1880
این شاید علمی تخیلی به نظر بیاد،
00:35
but this actually exists
8
35320
2216
ولی واقعاً وجود داره
00:37
right now, today.
9
37560
1200
همین الان، امروز.
من می‌دونم چون‌که تو یکی از اون اتاق‌های عملیات بودم.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
من تو گوگل طراح اخلاقیات بودم،
00:44
I was a design ethicist at Google,
11
44159
2297
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
جایی‌که چگونگی هدایت اخلاقی افکار مردم رو مطالعه می‌کردم.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
چون چیزی که درباره‌ش صحبت نمی‌شه اینه که چطوری یه سری آدم
00:53
working at a handful of technology companies
14
53480
2536
که تو یه سری شرکت کار می‌کنن
با انتخاب‌هاشون نحوه‌ی اندیشیدن میلیاردها نفر رو هدایت می‌کنن.
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
01:02
Because when you pull out your phone
16
62400
1736
چون وقتی تلفنتون رو بیرون میارین
اونا هستن که طراحی ‌میکنن چطوری کار کنه یا تو خوراک خبری چی باشه،
01:04
and they design how this works or what's on the feed,
17
64160
3096
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
قطعات کوچک زمانی رو در ذهن ما زمان‌بندی می‌کنه.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
اگه یه اعلان ببینین، زمان‌بندی‌تون می‌کنه که فکرهایی کنین
01:13
that maybe you didn't intend to have.
20
73680
2040
که شاید قصدش رو نداشتین.
01:16
If you swipe over that notification,
21
76400
2616
اگه رو اون اعلان ضربه بزنین،
زمان‌بندی می‌کنه زمانی صرف کنین که
01:19
it schedules you into spending a little bit of time
22
79040
2381
01:21
getting sucked into something
23
81445
1381
وارد یه جریانی بشین
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
که شاید قصد وارد شدن بهش رو نداشتین.
01:27
When we talk about technology,
25
87320
1520
وقتی از فناوری حرف می‌زنیم،
سعی می‌کنیم شبیه یه موقعیت افسانه‌ای به نظر بیاد.
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
به هر جهتی می‌تونه بره.
01:35
And I want to get serious for a moment
28
95400
1856
می‌خوام یه لحظه جدی باشم
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
و بهتون بگم چرا به یه جهت خیلی خاص می‌ره.
01:40
Because it's not evolving randomly.
30
100840
2200
برای اینکه تصادفاً تکامل پیدا نمی‌کنه.
یه هدف نامریی جهت‌گیری همه‌ی
01:44
There's a hidden goal driving the direction
31
104000
2016
فناوری‌هایی که می‌سازیم رو تعیین می‌کنه،
01:46
of all of the technology we make,
32
106040
2136
01:48
and that goal is the race for our attention.
33
108200
2920
و اون هدف رقابت بر سر جلب توجه ماست.
01:52
Because every news site,
34
112840
2736
چون هر وب‌سایت جدید --
01:55
TED, elections, politicians,
35
115600
2736
TED، انتخابات، سیاستمداران،
01:58
games, even meditation apps
36
118360
1976
بازی‌ها، حتی نرم‌افزارهای مدیتیشن --
02:00
have to compete for one thing,
37
120360
1960
باید سر یه چیز رقابت کنن،
که جلب توجه ماست،
02:03
which is our attention,
38
123160
1736
02:04
and there's only so much of it.
39
124920
1600
و خیلی از اون وجود داره.
02:08
And the best way to get people's attention
40
128440
2416
و بهترین راه جلب توجه آدم‌ها
02:10
is to know how someone's mind works.
41
130880
2440
اینه که بدونی ذهنشون چطوری کار می‌کنه.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
و تعداد زیادی روش متقاعد کننده داریم
که تو آزمایشگاه فناوری‌های متقاعد کننده تو دانشگاه یادشون گرفتم
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
02:19
to get people's attention.
44
139680
1600
که چطوری توجه آدم‌ها رو جلب کنم.
02:21
A simple example is YouTube.
45
141880
1480
یه نمونه‌ی ساده یوتیوب هست.
یوتیوب می‌خواد زمانی که شما توش صرف می‌کنین رو بیشتر کنه.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
02:26
And so what do they do?
47
146960
1200
بنابراین چی کار می‌کنه؟
02:28
They autoplay the next video.
48
148840
2280
ویدیوی بعدی رو به صورت خودکار پخش می‌کنه.
02:31
And let's say that works really well.
49
151760
1816
بذارین بگم که خیلی خوب جواب می‌ده.
02:33
They're getting a little bit more of people's time.
50
153600
2416
یه ذره بیشتر وقت مردم رو می‌گیرنه.
خوب اگر نت‌فلیکس باشین، اونو می‌بینین و می‌گین،
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
02:38
well, that's shrinking my market share,
52
158440
1858
خوب، داره سهم منو از بازار کم می‌کنه،
02:40
so I'm going to autoplay the next episode.
53
160322
2000
پس من قسمت بعدی رو خودکار پخش می‌کنم.
02:43
But then if you're Facebook,
54
163320
1376
بعدش اگه فیسبوک باشین،
02:44
you say, that's shrinking all of my market share,
55
164720
2336
میگین اون سهم منو از بازار کم می‌کنه،
پس من کل ویدیوهای خوراک خبری رو خودکار پخش می‌کنم
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
02:49
before waiting for you to click play.
57
169760
1762
قبل اینکه منتظر بشم رو دکمه پخش بزنین
02:52
So the internet is not evolving at random.
58
172320
3160
پس اینترنت تصادفاً تکامل پیدا نمی‌کنه.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
دلیل اینکه به نظر میاد ما رو اینطوری به درون خودش می‌کشه
03:00
is because of this race for attention.
60
180760
2376
برای این رقابت سر جلب توجه ماست.
می‌دونیم به کدوم سمت می‌ره.
03:03
We know where this is going.
61
183160
1416
03:04
Technology is not neutral,
62
184600
1520
فناوری بی‌طرف نیست،
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
و تبدیل به مسابقه‌ای شده بر سر انتهای ساقه‌ی مغز
03:10
of who can go lower to get it.
64
190760
2200
که هر کی پایین‌تر بره بردتش.
03:13
Let me give you an example of Snapchat.
65
193920
2336
بذارین براتون از اسنپ‌چت یه مثال بزنم.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
اگه نمی‌دونستین، اسنپ‌چت راه‌حل شماره‌ یک
ارتباط نوجوانان تو ایالات متحده‌ است.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
پس اگه مثل من هستین و از پیام متنی برای برقراری ارتباط استفاده می‌کنین،
03:26
Snapchat is that for teenagers,
69
206480
1776
اسنپ‌چت برای نوجوانان همونه،
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
و حدوداً صد میلیون نوجوان ازش استفاده می‌کنن.
و یه ویژگی اختراع کردن به اسم اسنپ‌تریک،
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
03:33
which shows the number of days in a row
72
213240
1896
که تعداد روزهای پشت سرهم
که دو نفر با هم ارتباط برقرار کردن رو نشون میده.
03:35
that two people have communicated with each other.
73
215160
2616
03:37
In other words, what they just did
74
217800
1856
به عبارت دیگه، کاری که اونا کردن
03:39
is they gave two people something they don't want to lose.
75
219680
2960
اینه که به دو نفر چیزی دادن که نمی‌خوان از دستش بدن.
چون اگه یه نوجوان باشین، و ۱۵۰ روز پشت سر هم ارتباط داشته باشین،
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
03:47
you don't want that to go away.
77
227480
1976
نمی‌خواین از دستش بدین.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
خوب به قطعات زمانی کوچک که اون تو ذهن کودک زمان‌بندی‌ می‌کنه فکر کنین.
این یه بحث نظری نیست: وقتی بچه‌ها می‌رن تعطیلات،
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
دیده شده که کلمه‌ی عبورشون رو به پنج نفر از دوستاشون می‌دن
03:59
to keep their Snapstreaks going,
81
239800
2216
که اسنپ‌تریک‌هاشون رو ادامه بدن،
حتی وقتی خودشون نمی‌تونن.
04:02
even when they can't do it.
82
242040
2016
اونا حدوداً سی تا ازین چیزا دارن،
04:04
And they have, like, 30 of these things,
83
244080
1936
و خوب باید با عکاسی از تصاویر یا دیوارها
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
04:09
or ceilings just to get through their day.
85
249440
2480
یا سقف‌ها روزشون رو بگذرونن.
04:13
So it's not even like they're having real conversations.
86
253200
2696
حتی مثل یه گفتگوی واقعی هم نیست.
04:15
We have a temptation to think about this
87
255920
1936
ما وسوسه می‌شیم اینطوری فکر کنیم که
04:17
as, oh, they're just using Snapchat
88
257880
2696
اونا فقط دارن اسنپ‌چت استفاده می‌کنن
04:20
the way we used to gossip on the telephone.
89
260600
2016
همونجور که ما هم پشت تلفن دری وری می‌گفتیم.
04:22
It's probably OK.
90
262640
1200
احتمالاً مشکلی نیست.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
خوب چیزی که این ازش بی‌بهره است اینه که
04:26
when you were just gossiping on the telephone,
92
266760
2615
تو دهه‌ی ۷۰ در حالی‌که پشت تلفن دری وری می‌گفتین،
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
صدها مهندس اون طرف صفحه نبودن که
04:32
who knew exactly how your psychology worked
94
272440
2056
دقیقاً بدونن روانشناسی شما چطوریه
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
و شما رو به سمت یه ارتباط دوگانه هدایت کنن.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
حالا، اگه این جریان کمی عصبانی‌تون کرده،
04:42
notice that that thought just comes over you.
97
282680
2576
متوجه شین که این فکر هم داره روتون اثر می‌ذاره.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
عصبانیت یه راه خیلی خوب برای جلب توجه شماست،
04:49
because we don't choose outrage.
99
289880
1576
چون ما عصبانیت رو انتخاب نمی‌کنیم
04:51
It happens to us.
100
291480
1416
برامون اتفاق می‌افته.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
و اگه شما خوراک خبری فیسبوک باشین،
04:54
whether you'd want to or not,
102
294800
1416
بخواید یا نخواید،
04:56
you actually benefit when there's outrage.
103
296240
2736
از بروز عصبانیت بهره می‌برین.
چون عصبانیت فقط یه عکس‌العمل رو زمان‌بندی نمی‌کنه
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
05:01
in emotional time, space, for you.
105
301960
2880
در یک زمان یا مکان هیجانی برای شما.
05:05
We want to share that outrage with other people.
106
305440
2416
ما می‌خوایم اون عصبانیت رو با بقیه به اشتراک بذاریم
05:07
So we want to hit share and say,
107
307880
1576
پس می‌خوایم رو دکمه هم‌رسانی زده
05:09
"Can you believe the thing that they said?"
108
309480
2040
و بگیم: «چیزی که گفتن رو باور می‌کنین؟»
05:12
And so outrage works really well at getting attention,
109
312520
3376
بنابراین عصبانیت راه خیلی خوبی برای جلب توجه هست،
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
جوری‌که اگر فیسبوک بین نمایش خوراک خبری عصبانی و
05:19
and a calm newsfeed,
111
319840
1320
خوراک خبری آرام انتخاب داشت
اونا بهتون خوراک خبری عصبانی رو نشون می‌دادن
05:22
they would want to show you the outrage feed,
112
322120
2136
05:24
not because someone consciously chose that,
113
324280
2056
نه برای این‌که کسی آگاهانه انتخابش کرده،
05:26
but because that worked better at getting your attention.
114
326360
2680
بلکه چون توجهتون رو بهتر جلب می‌کنه.
اتاق عملیات خوراک خبری مسئول پاسخگویی به ما نیست.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
اون فقط مسئول بیشینه کردن توجه هست.
05:37
It's only accountable to maximizing attention.
116
337040
2296
05:39
It's also accountable,
117
339360
1216
همچنین جواب می‌ده،
05:40
because of the business model of advertising,
118
340600
2376
بخاطر مدل کسب و کار آگهی‌ها،
برای هر کسی که بیشتر پول می‌ده تا پاش رو تو اتاق عملیات بذاره و بگه،
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
05:46
and say, "That group over there,
120
346360
1576
«هی گروهی که اونجا هستین،
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
می‌خوام این افکار رو تو ذهن اونا برنامه‌ریزی کنم.»
05:51
So you can target,
122
351760
1200
پس می‌تونین هدف بگیرین،
دقیقا یه دروغ رو مستقیماً به سمت
05:54
you can precisely target a lie
123
354040
1936
مردمی که بیش از همه مستعد پذیرشش هستن نشونه‌گیری کنین.
05:56
directly to the people who are most susceptible.
124
356000
2920
و چون این جریان سودآوره، فقط بدتر خواهد شد.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
بنابراین من امروز اینجام
06:05
So I'm here today
126
365040
1800
چون هزینه‌ها کاملا مشخص هستن.
06:08
because the costs are so obvious.
127
368160
2000
06:12
I don't know a more urgent problem than this,
128
372280
2136
من از این اضطراری‌تر مشکلی نمی‌بینم،
06:14
because this problem is underneath all other problems.
129
374440
3120
چون این مشکل زمینه‌ساز همه‌ی مشکلات دیگه است.
06:18
It's not just taking away our agency
130
378720
3176
فقط نماینده ما نمی‌شه که
06:21
to spend our attention and live the lives that we want,
131
381920
2600
توجهمون رو جلب کنه و زندگی‌ای رو بکنه که ما می‌خوایم،
06:25
it's changing the way that we have our conversations,
132
385720
3536
بلکه روشی که گفتگو می‌کنیم رو تغییر داده،
06:29
it's changing our democracy,
133
389280
1736
دموکراسی‌مون رو تغییر داده،
و قابلیت گفتگو کردن‌ با همدیگه
06:31
and it's changing our ability to have the conversations
134
391040
2616
06:33
and relationships we want with each other.
135
393680
2000
و رابطه داشتن‌مون رو تغییر داده.
روی همه اثر گذاره،
06:37
And it affects everyone,
136
397160
1776
06:38
because a billion people have one of these in their pocket.
137
398960
3360
چون‌که یک میلیارد نفر تو جیبشون از اینا دارن.
06:45
So how do we fix this?
138
405360
1400
خوب چطوری درستش کنیم؟
باید سه تا تغییر بنیادین ایجاد کنیم
06:49
We need to make three radical changes
139
409080
2936
تو فناوری و جامعه‌مون.
06:52
to technology and to our society.
140
412040
1800
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
اول اینکه باید بپذیریم ما مستعد متقاعد شدن هستیم.
07:00
Once you start understanding
142
420840
1376
وقتی شروع کنین به فهم
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
این‌که ذهن شما می‌تونه جوری برنامه‌ریزی بشه که افکاری کوچک
یا قطعات زمانی کوچک خارج از اختیار خودتون داشته باشه
07:05
or little blocks of time that you didn't choose,
144
425040
2576
07:07
wouldn't we want to use that understanding
145
427640
2056
نمی‌خوایم از اون درک استفاده کنیم تا
07:09
and protect against the way that that happens?
146
429720
2160
در مقابل اتفاق افتادنش از خودمون محافظت کنیم؟
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
من به نظرم باید به خودمون یه جور اساساً تازه‌ای نگاه کنیم.
07:15
It's almost like a new period of human history,
148
435920
2216
انگار تو یه دوره جدید از تاریخ بشریت هستیم.
مثل روشن‌فکری،
07:18
like the Enlightenment,
149
438160
1216
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
ولی یه جورایی روشن‌فکری خودآگاهانه،
07:21
that we can be persuaded,
151
441640
2080
که بدونیم می‌تونیم متقاعد شونده باشیم،
07:24
and there might be something we want to protect.
152
444320
2240
و شاید یه چیزی باشه که می‌خوایم ازش محافظت کنیم.
07:27
The second is we need new models and accountability systems
153
447400
4576
دومیش اینه که نیازمند مدل‌ها و سیستم‌های پاسخگویی نوینی هستیم
که جهان جای بهتر و متقاعد کننده‌تری در گذر زمان بشه --
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
07:35
because it's only going to get more persuasive --
155
455520
2336
چون‌که فقط وقتی متقاعد کننده‌تر میشه که --
07:37
that the people in those control rooms
156
457880
1856
اونایی که تو اتاق عملیات هستن
07:39
are accountable and transparent to what we want.
157
459760
2456
در مقابل نیازهای ما پاسخگو و شفاف باشن.
07:42
The only form of ethical persuasion that exists
158
462240
2696
تنها روش اخلاقی موجود برای متقاعد کردن
07:44
is when the goals of the persuader
159
464960
1936
اینه که اهداف متقاعد کننده
07:46
are aligned with the goals of the persuadee.
160
466920
2200
در راستای اهداف متقاعد شونده باشه.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
و این شامل پرسش‌های بزرگه، مثل روش کسب و کار آگهی‌ها.
07:54
Lastly,
162
474720
1576
در پایان،
07:56
we need a design renaissance,
163
476320
1680
نیاز به رنسانس طراحی داریم،
چون وقتی از این دیدگاه به طبیعت انسان نگاه کنین،
07:59
because once you have this view of human nature,
164
479080
3056
که می‌تونین گاه‌نماهای میلیاردها نفر رو هدایت کنین --
08:02
that you can steer the timelines of a billion people --
165
482160
2976
فقط تصور کنین، افرادی هستند که میل دارن
08:05
just imagine, there's people who have some desire
166
485160
2736
08:07
about what they want to do and what they want to be thinking
167
487920
2856
کارهایی که می‌خوان انجام بدن و جوری که می‌خوان فکر کنن
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
و جوری که می‌خوان احساس کنن و جوری که می‌خوان آگاه بشن،
08:13
and we're all just tugged into these other directions.
169
493960
2536
و همه‌ ما به جهات دیگه کشیده می‌شیم.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
و شما میلیاردها نفر دارین که به جهات مختلف هدایت می‌شن.
08:20
Well, imagine an entire design renaissance
171
500240
2056
خوب یه رنسانس طراحی رو تصور کنین
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
که تلاش می‌کنه دقیق‌ترین و توانمندترین
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
راه استفاده بهینه از وقت رو برای اون گاه‌نماها اعمال کنه.
08:28
And that would involve two things:
174
508600
1656
این شامل دو چیز میشه:
08:30
one would be protecting against the timelines
175
510280
2136
یکی محافظت در برابر اون گاه‌نماها
08:32
that we don't want to be experiencing,
176
512440
1856
که نمی‌خوایم تجربه کنیم،
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
افکاری که نمی‌خوایم داشته باشیم،
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
پس وقتی اون زنگ به صدا در میاد، مارو یه جا دیگه نندازه؛
دومیش توانمند کردن ما برای زندگی تو گاه‌نمای مورد علاقه خودمونه.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
08:43
So let me give you a concrete example.
180
523760
1880
بذارین یه مثال ملموس براتون بزنم.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
فرض کنین امروز دوستتون قرار شام شب رو کنسل می‌کنه،
08:48
and you are feeling a little bit lonely.
182
528760
3775
و شما کمی احساس تنهایی می‌کنین.
08:52
And so what do you do in that moment?
183
532559
1817
تو اون لحظه چه کاری می‌کنین؟
08:54
You open up Facebook.
184
534400
1279
فیس‌بوک رو باز می‌کنین.
08:56
And in that moment,
185
536960
1696
و در اون لحظه،
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
طراحان اتاق عملیات فقط می‌خوان یه کار انجام بدن،
این که زمانی که شما صرف صفحه نمایش می‌کنین رو بیشینه کنن.
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
حالا، فرض کنین اون طراحان یه گاه‌نمای متفاوت می‌ساختن
09:10
that was the easiest way, using all of their data,
189
550560
3496
که با استفاده از اون همه اطلاعات کار راحتیه،
که واقعاً بهتون کمک کنه با آدمایی که براتون مهمن برین بیرون؟
09:14
to actually help you get out with the people that you care about?
190
554080
3096
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
فقط فکر کنین، کاهش این همه تنهایی تو جامعه،
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
اگه اون گاه‌نمایی بود که فیس‌بوک می‌خواست امکانش رو برای مردم فراهم کنه.
یا یه گفتگوی دیگه رو تصور کنین.
09:26
Or imagine a different conversation.
193
566160
1715
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
فرض کنیم شما می‌خواستین یه چیز خیلی جنجالی رو فیس‌بوک بنویسین،
09:31
which is a really important thing to be able to do,
195
571240
2416
که البته خیلی مهمه که بتونین این کار رو انجام بدین،
09:33
to talk about controversial topics.
196
573680
1696
توانایی گفتگو درباره موضوعات جنجالی
09:35
And right now, when there's that big comment box,
197
575400
2336
هم‌اکنون، وقتی اون پنجره‌ی نظرات بزرگ اونجاست،
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
تقریبا داره ازتون می‌پرسه، چه کلیدی رو می‌خواین تایپ کنین؟
به بیان دیگه، گاه‌شمار کوچکی از چیزها رو زمان‌بندی می‌کنه
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
که شما قراره روی صفحه انجام بدین.
09:44
you're going to continue to do on the screen.
200
584000
2136
تصور کنین اونجا یه دکمه‌ی دیگه بود که می‌گفت،
09:46
And imagine instead that there was another button there saying,
201
586160
2976
بهترین راه استفاده شما از زمان چیه؟
09:49
what would be most time well spent for you?
202
589160
2056
09:51
And you click "host a dinner."
203
591240
1576
و شما کلیک می‌کردین «میزبانی شام»
09:52
And right there underneath the item it said,
204
592840
2096
و همون‌جا زیر اون گزینه می‌گفت،
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
«کی می‌خواد برای شام رزرو کنه؟»
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
و خوب شما هنوز هم درباره یه موضوع جنجالی گفتگو می‌کردین،
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
ولی در قدرتمندترین جای گاه‌شمارتون،
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
یعنی اون شب تو خونه با تعدادی از دوستان
10:06
to talk about it.
209
606760
1200
تا درباره‌ش صحبت کنین.
تصور کنین داریم یه چیزی مثل یافتن و جایگزین کردن اجرا می‌کنیم،
10:09
So imagine we're running, like, a find and replace
210
609000
3160
تو همه‌ی گاه‌نماهایی که الان ما رو به سمت
10:13
on all of the timelines that are currently steering us
211
613000
2576
10:15
towards more and more screen time persuasively
212
615600
2560
صرف کردن زمان بیشتر برای صفحه نمایش هدایت می‌کنن
و جایگزینی اون‌ها با گاه‌نماهایی که
10:19
and replacing all of those timelines
213
619080
2536
10:21
with what do we want in our lives.
214
621640
1640
می‌خوایم با زندگی‌مون انجام بدیم.
10:26
It doesn't have to be this way.
215
626960
1480
این راهش نیست.
10:30
Instead of handicapping our attention,
216
630360
2256
به جای ایجاد مانع برای جلب توجه،
10:32
imagine if we used all of this data and all of this power
217
632640
2816
تصور کنین اگر از همه این اطلاعات و قدرتشون استفاده می‌کردیم
10:35
and this new view of human nature
218
635480
1616
و این دیدگاه جدید درباره طبیعت بشر
که یه توانایی مافوق بشری برای تمرکز بهمون بده
10:37
to give us a superhuman ability to focus
219
637120
2856
و یه توانایی مافوق بشری برای اینکه توجه ما رو به سمتی جلب کنه که برامون اهمیت داره
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
و یه توانایی مافوق بشری برای گفتگو کردن
10:44
and a superhuman ability to have the conversations
221
644160
2616
10:46
that we need to have for democracy.
222
646800
2000
که لازمه‌ی دموکراسیه.
10:51
The most complex challenges in the world
223
651600
2680
پیچیده‌ترین چالش‌های دنیا
10:56
require not just us to use our attention individually.
224
656280
3120
فقط به توجه فردی ما نیاز ندارن.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
نیازمند این هستن که توجهمون رو در یک راستا با همدیگه هماهنگ کنیم.
11:04
Climate change is going to require that a lot of people
226
664440
2816
تغییرات آب و هوایی نیازمند اینه که خیلی از مردم
11:07
are being able to coordinate their attention
227
667280
2096
بتونن توجهشون رو به توانمندترین شکل ممکن
11:09
in the most empowering way together.
228
669400
1896
با همدیگه هماهنگ کنن.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
تصور کنین یه توانایی مافوق بشر برای انجام این کار بسازیم.
گاهی مهم‌ترین و پرفشارترین مشکلات جهان
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
اون چیزهایی فرضی نیستن که ممکنه تو آینده به‌وجود بیاریم.
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
11:28
Sometimes the most pressing problems
232
688560
1736
گاهی پرفشارترین مشکلات
11:30
are the ones that are right underneath our noses,
233
690320
2336
اونایی هستن که بیخ گوشمون هستن،
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
چیزهایی که همین الان ذهن هزاران نفر رو هدایت می‌کنن.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
به جای این‌که از موضوع واقعیت افزوده هیجان‌زده شیم
و واقعیت مجازی و این چیزهای باحالی که می‌تونن اتفاق بیفتن،
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
که مستعد همون رقابت سر جلب توجه ما هستن،
11:46
if we could fix the race for attention
238
706640
2176
کاش می‌تونستیم رقابت سر جلب توجه رو تو چیزایی
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
که همین الان تو جیب میلیاردها نفر هستن درست کنیم.
شاید جای هیجان‌زدگی از
11:52
Maybe instead of getting excited
240
712040
1576
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
هیجان‌انگیزترین برنامه‌های آموزشی تجملی،
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
بتونیم روشی که ذهن بچه‌هارو جوری دستکاری می‌کنه که
12:00
into sending empty messages back and forth.
243
720760
2480
چپ و راست پیام‌های توخالی بفرستن درست کنیم.
(تشویق حضار)
12:04
(Applause)
244
724040
4296
12:08
Maybe instead of worrying
245
728360
1256
شاید به جای نگرانی
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
درباره‌ی آینده‌ای که توش هوش مصنوعی به راحتی پیروز می‌شه
12:13
that are maximizing for one goal,
247
733440
1880
برای بیشینه کردن یه هدف خاص،
12:16
we could solve the runaway artificial intelligence
248
736680
2656
می‌تونستیم مشکل پیروزی هوش‌مصنوعی‌
12:19
that already exists right now,
249
739360
2056
که همین الان وجود داره رو حل کنیم،
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
همین خوراک‌های خبری که فقط می‌خوان به یه چیز برسن.
مثل این می‌مونه که به جای این‌که دنبال مهاجرت به سیارات جدید باشیم،
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
12:29
we could fix the one that we're already on.
252
749920
2056
به داد همینی که توش زندگی می‌کنیم برسیم.
(تشویق حضار)
12:32
(Applause)
253
752000
4120
حل این مشکل
12:40
Solving this problem
254
760040
1776
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
زیرساخت ضروری حل مشکلات دیگر است.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
هیچ چیز تو زندگی شما یا تو مشکلات مشترکمون نیست که
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
به توانایی‌مون برای معطوف کردن توجهمون به چیزهای با اهمیت مرتبط نباشه.
12:55
At the end of our lives,
258
775800
1240
در پایان زندگی،
12:58
all we have is our attention and our time.
259
778240
2640
تنها چیزی که داریم زمان و توجه‌ ماست.
13:01
What will be time well spent for ours?
260
781800
1896
بهترین استفاده ما از زمان چیه؟
13:03
Thank you.
261
783720
1216
خیلی ممنون.
13:04
(Applause)
262
784960
3120
(تشویق حضار)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
کریس اندرسن: تریستن، ازت ممنونم. هی، یه دقیقه این بالا بمون.
13:20
First of all, thank you.
264
800720
1336
اولاً ازت ممنونم.
می‌دونم خیلی دیر ازت خواستیم که این سخنرانی رو انجام بدی،
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
و هفته‌ی پر استرسی داشتی
که اینو راست و ریس کنی، خیلی ممنون.
13:27
getting this thing together, so thank you.
267
807120
2440
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
بعضی از اونایی که شنیدن، شاید بگن چیزی که ازش ناراضی هستی اعتیاده،
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
و همه‌ی کسانی‌که این کارها رو می‌کنن، خوب براشون جالبه.
13:38
All these design decisions
270
818200
1256
همه‌ی این تصمیمات طراحی
13:39
have built user content that is fantastically interesting.
271
819480
3096
محتوای کاربری‌ رو ساخته که به طور شگفت‌انگیزی جذابه.
13:42
The world's more interesting than it ever has been.
272
822600
2416
جهان در جذاب‌ترین حالت خودش قرار داره.
مشکلش چیه؟
13:45
What's wrong with that?
273
825040
1256
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
تریستن هریس: من فکر می‌کنم که خیلی جذابه.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
یه دیدگاه اینه که اگه شما فقط یوتیوب باشین، مثلا،
13:52
you want to always show the more interesting next video.
276
832640
2656
همیشه می‌خواین ویدیوی جذاب بعدی رو نشون بدین.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
هی می‌خواین در زمینه‌ی پیشنهاد ویدیوی بعدی بهتر و بهتر شین،
13:58
but even if you could propose the perfect next video
278
838360
2456
اما اگر هم بتونین بهترین ویدیو بعدی رو پیشنهاد کنین
14:00
that everyone would want to watch,
279
840840
1656
که همه می‌خوان ببیننش،
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
خیلی بهتر و بهتر خواهد بود اگه شما رو گرفتار صفحه نمایش کنه.
14:05
So what's missing in that equation
281
845880
1656
پس چیزی که از این معادله جا افتاده
اینه که بفهمیم حد و مرزمون کجاست.
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
شما می‌خواین بدونین که یوتیوب چیزی درباره، مثلا، خوابیدن هم می‌دونه.
14:12
The CEO of Netflix recently said,
284
852960
1616
مدیر اجرایی نت‌فلیکس اخیراً گفته،
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
«بزرگترین رقبای ما فیس‌بوک، یوتیوب و خواب هستن!»
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
چیزی که باید بدونیم اینه که معماری انسان محدوده
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
و ما حد و مرزها و ابعاد مشخصی تو زندگی‌مون داریم
14:24
that we want to be honored and respected,
288
864840
1976
که می‌خوایم بهش احترام گذاشته بشه،
14:26
and technology could help do that.
289
866840
1816
و فناوری می‌تونه به این جریان کمک کنه.
14:28
(Applause)
290
868680
2616
(تشویق حضار)
14:31
CA: I mean, could you make the case
291
871320
1696
ک.ا: منظورم اینه که می‌تونی بگی که
بخشی از مشکل اینه که یه مدل نپخته از طبیعت انسان داریم؟
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
خیلی از این مربوط به اولویت‌های بشره،
14:39
So much of this is justified in terms of human preference,
293
879120
2736
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
الگوریتم‌هایی که به دست آوردیم تا کار شگفت‌انگیز
14:44
of optimizing for human preference,
295
884520
1696
بهینه‌سازی اولویت بشر رو انجام بدن،
14:46
but which preference?
296
886240
1336
ولی کدوم اولویت؟
14:47
There's the preferences of things that we really care about
297
887600
3496
اولویت چیزهایی که برامون اهمیت دارن
وقتی بهشون فکر می‌کنیم
14:51
when we think about them
298
891120
1376
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
در مقابل اولویت‌هایی که به طور غریزی روشون کلیک می‌کنیم.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
اگه بتونیم اون تفاوت جزیی تو دیدگاه طبیعت بشر رو به کار ببریم
15:00
would that be a step forward?
301
900280
1456
یه قدم به جلو محسوب می‌شه؟
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
ت.ه: کاملاً. منظورم اینه، فکر می‌کنم الان
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
جوریه که انگار فناوری فقط از اون بخش دوزیست مغز می‌خواد بهترین راهی رو
15:07
what's the best way to just impulsively get you to do
304
907280
2496
پیدا کنه که مجاب شین کاری رو بدون انگیزه قبلی
15:09
the next tiniest thing with your time,
305
909800
2136
با کوچکترین بخش زمانتون انجام بدین،
15:11
instead of asking you in your life
306
911960
1656
به جای این‌که تو زندگی ازتون بخواد
15:13
what we would be most time well spent for you?
307
913640
2176
بهترین راه استفاده از زما‌‌‌ن‌تون چیه؟
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
کامل‌ترین گاه‌نمای شما که شامل یه چیز خیلی جدیدتره،
زمانیه که شما روز قبل به درستی صرف حضور در TED کردین؟
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
ک.ا: پس اینطور که فیس‌بوک و گوگل و بقیه‌شون اولش بهمون می‌گفتن،
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
«آهای، می‌خوای برای بخش بازتابی مغزت بهینه بشیم یا
15:28
or your lizard brain? You choose."
312
928280
1656
بخش دوزیست مغزت؟ خودت انتخاب کن.»
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
ت.ه: آره. اینم یه راهشه. بله.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
ک.ا: تو گفتی قابلیت متقاعد سازی، این برام لغت جالبیه
15:37
because to me there's two different types of persuadability.
315
937240
2856
چون به نظر من دو نوع قابلیت متقاعد سازی داریم.
یه متقاعد سازی که الان داریم انجامش می‌دیم
15:40
There's the persuadability that we're trying right now
316
940120
2536
15:42
of reason and thinking and making an argument,
317
942680
2176
متشکل از منطق و تفکر و مباحثه است،
15:44
but I think you're almost talking about a different kind,
318
944880
2696
ولی تو تقریباً درباره نوع دیگری صحبت می‌کنی،
15:47
a more visceral type of persuadability,
319
947590
1906
نوع شهودی‌تری از متقاعد سازی،
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
متقاعد شدن بدون این‌که حتی بدونی داری فکر می‌کنی.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
ت.ه: دقیقاً. دلیل این‌که این مشکل اینقدر برام مهمه اینه که
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
من تو آزمایشگاه فناوری متقاعد کننده تو استنفورد درس خوندم
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
که دقیقاً همین فنون رو به ملت آموزش می‌داد.
اونجا کنفرانس‌ها و کارگاه‌هایی هستن که همه‌ی راه‌های پنهان
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
جلب توجه مردم و هدایت زندگی اونا رو آموزش میدن.
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
و چون که خیلی از آدم‌ها نمی‌دونن که چنین چیزی وجود داره
16:07
And it's because most people don't know that that exists
326
967120
2656
16:09
that this conversation is so important.
327
969800
1896
این گفتگو اهمیت بسیار زیادی داره.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
ک.ا: تریستن، من و تو، هردوی ما آدم‌های زیادی از این شرکت‌ها رو می‌شناسیم.
16:15
There are actually many here in the room,
329
975520
1976
خیلی‌هاشون الان تو این سالن هستن،
16:17
and I don't know about you, but my experience of them
330
977520
2477
تو رو نمی‌دونم، ولی تجربه‌ای که من ازشون دارم
اینه که نیت خوب کم ندارن.
16:20
is that there is no shortage of good intent.
331
980021
2075
مردم دنیای بهتری می‌خوان.
16:22
People want a better world.
332
982120
2176
16:24
They are actually -- they really want it.
333
984320
3520
واقعاً اینطوریه -- واقعاً می‌خوانش.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
و فکر نمی‌کنم منظورت این باشه که این آدم‌ها اهریمنی هستن.
16:32
It's a system where there's these unintended consequences
335
992520
3696
یه سامانه‌ای وجود داره که این پیامدهای غیرعمدی توشه
16:36
that have really got out of control --
336
996240
1856
و کاملا از دست ما خارج شده --
ت.ه: این رقابت سر جلب توجه.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
یه رقابت بنیادی تا انتهای جایی که جلب توجه کنین،
16:42
and it's so tense.
339
1002840
1216
و خیلی هم شدیده.
تنها راه بیشتر کردنش اینه که بیشتر وارد ساقه‌ی مغز بشیم،
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
عصبانیت بیشتره، هیجانات بیشتره،
16:49
to go lower into the lizard brain.
342
1009280
1696
وارد شدن بیشتر به مغز دوزیستی ما.
ک.ا: ازت ممنونم که بهمون کمک کردی کمی در این باره عاقل‌تر شیم.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
تریستن هریس، ممنون. ت.ه: خیلی ممنونم.
16:57
(Applause)
345
1017280
2240
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7