How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views

2017-07-28 ・ TED


New videos

How a handful of tech companies control billions of minds every day | Tristan Harris

950,120 views ・ 2017-07-28

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Lê Nhung Reviewer: Thu Ha Tran
00:12
I want you to imagine
0
12960
1200
Hãy tưởng tượng
00:15
walking into a room,
1
15000
1200
bạn đang đi vào một căn phòng,
00:17
a control room with a bunch of people,
2
17480
2136
là phòng điều khiển, cùng với một nhóm người
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
một trăm người, quanh một cái bàn với những chiếc điện thoại quay số
00:23
and that that control room
4
23280
1520
và phòng điều khiển đó
00:25
will shape the thoughts and feelings
5
25680
3696
sẽ định hình suy nghĩ và cảm xúc
00:29
of a billion people.
6
29400
1240
của một tỷ người.
00:32
This might sound like science fiction,
7
32560
1880
Điều đó nghe như khoa học viễn tưởng,
00:35
but this actually exists
8
35320
2216
nhưng điều đó thực sự đang tồn tại
00:37
right now, today.
9
37560
1200
ngay hôm nay, ngay lúc này.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Tôi biết vì tôi đã từng là một trong những người ở căn phòng đó.
00:44
I was a design ethicist at Google,
11
44159
2297
Tôi đã là người phác thảo khuôn mẫu tại Google,
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
nơi tôi học làm thế nào bạn hướng ý nghĩ con người theo khuôn mẫu.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Vì chúng tôi không nói về việc làm thế nào mà một nhóm người
00:53
working at a handful of technology companies
14
53480
2536
đang làm việc cho một số công ty công nghệ
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
thông qua lựa chọn của họ để điều khiển suy nghĩ của một tỉ người.
01:02
Because when you pull out your phone
16
62400
1736
Vì khi bạn lấy điện thoại ra
01:04
and they design how this works or what's on the feed,
17
64160
3096
và họ thiết kế việc gì kế tiếp, cái gì sẽ hiện ra,
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
nó lên lịch như một đồng hồ nhỏ trong suy nghĩ của bạn.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Nếu bạn thấy một thông báo, nó khiến bạn có những suy nghĩ
01:13
that maybe you didn't intend to have.
20
73680
2040
mà bạn vốn không muốn có.
01:16
If you swipe over that notification,
21
76400
2616
Nếu bạn bỏ qua những thông báo đó,
01:19
it schedules you into spending a little bit of time
22
79040
2381
nó sẽ đặt lịch cho bạn dùng từng chút thời gian
01:21
getting sucked into something
23
81445
1381
để bị thu hút vào một điều đó
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
mà bạn vốn không muốn bị thu hút vào.
01:27
When we talk about technology,
25
87320
1520
Khi chúng ta nói về công nghệ,
chúng ta có khuynh hướng nói về nó như một chân trời cơ hội,
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
01:32
It could go any direction.
27
92760
1480
có thể đi bất kỳ hướng nào.
01:35
And I want to get serious for a moment
28
95400
1856
Và lúc này tôi muốn nghiêm túc
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
nói với các bạn tại sao nó luôn đi theo một hướng nhất định.
01:40
Because it's not evolving randomly.
30
100840
2200
Vì nó không phát triển một cách ngẫu nhiên.
01:44
There's a hidden goal driving the direction
31
104000
2016
Có một mục tiêu ẩn dẫn dắt hướng đi
01:46
of all of the technology we make,
32
106040
2136
cho tất cả công nghệ chúng tôi tạo ra,
01:48
and that goal is the race for our attention.
33
108200
2920
và mục tiêu đó là cuộc đua giành sự chú ý.
01:52
Because every news site,
34
112840
2736
Vì mọi trang mạng mới--
01:55
TED, elections, politicians,
35
115600
2736
TED, bầu cử, chính khách,
01:58
games, even meditation apps
36
118360
1976
trò chơi, cả những ứng dụng để thiền--
02:00
have to compete for one thing,
37
120360
1960
phải tranh giành một thứ,
02:03
which is our attention,
38
123160
1736
đó là sự chú ý của chúng ta,
02:04
and there's only so much of it.
39
124920
1600
và nó bị giới hạn số lượng.
02:08
And the best way to get people's attention
40
128440
2416
Và cách tốt nhất để có được sự chú ý của mọi người
02:10
is to know how someone's mind works.
41
130880
2440
là biết cách họ tư duy.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
Có một loạt những kỹ thuật thuyết phục
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
mà tôi đã học tại phòng thí nghiệm tên là Phòng Công Nghệ Thuyết Phục
02:19
to get people's attention.
44
139680
1600
để lấy được sự chú ý của mọi người.
02:21
A simple example is YouTube.
45
141880
1480
Ví dụ đơn giản như YouTube.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
YouTube muốn tối đa hoá thời gian bạn sử dụng nó.
02:26
And so what do they do?
47
146960
1200
Và họ sẽ làm gì?
02:28
They autoplay the next video.
48
148840
2280
Họ tự động chuyển sang video kế tiếp.
02:31
And let's say that works really well.
49
151760
1816
Việc này rất có hiệu quả.
02:33
They're getting a little bit more of people's time.
50
153600
2416
Họ có thêm một chút thời gian của người dùng.
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
Nếu bạn là Netflix, bạn nhìn vào đó và nói,
02:38
well, that's shrinking my market share,
52
158440
1858
nó làm giảm thị phần của chúng ta,
02:40
so I'm going to autoplay the next episode.
53
160322
2000
nên ta sẽ tự chuyển sang tập kế tiếp.
02:43
But then if you're Facebook,
54
163320
1376
Nhưng nếu bạn là Facebook,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
bạn nói, nó làm giảm hết thị phần của chúng ta
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
nên ta sẽ phải tự động chạy tất cả các video trên trang chủ
02:49
before waiting for you to click play.
57
169760
1762
mà không cần chờ bạn nhấn nút.
02:52
So the internet is not evolving at random.
58
172320
3160
Do vậy, Internet không phát triển một cách ngẫu nhiên.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
Lí do nó khiến chúng ta thấy như bị "hút cạn" thời gian
03:00
is because of this race for attention.
60
180760
2376
là bởi vì cuộc đua giành sự chú ý này.
03:03
We know where this is going.
61
183160
1416
Chúng tôi biết nó sẽ đi tới đâu.
03:04
Technology is not neutral,
62
184600
1520
Công nghệ không trung tính,
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
và nó trở thành cuộc đua đến tận gốc của tế bào não
03:10
of who can go lower to get it.
64
190760
2200
ai có thể đi sâu hơn để có được nó.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Tôi sẽ lấy một ví dụ về Snapchat.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Nếu bạn không biết,
Snapchat là cách giao tiếp phổ biến nhất của các thiếu niên Mỹ.
03:20
that teenagers in the United States communicate.
67
200000
2256
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Nếu bạn giống tôi, sử dụng tin nhắn thường để trao đổi.
thì Snapchat là thứ tương tự mà các thiếu niên sử dụng,
03:26
Snapchat is that for teenagers,
69
206480
1776
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
có khoảng một trăm triệu người sử dụng nó.
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
Họ đã phát minh một chức năng gọi là Snaptreakes,
03:33
which shows the number of days in a row
72
213240
1896
cho biết số ngày liên tiếp
03:35
that two people have communicated with each other.
73
215160
2616
mà hai người trò chuyện với nhau.
03:37
In other words, what they just did
74
217800
1856
Nói cách khác, điều họ làm
03:39
is they gave two people something they don't want to lose.
75
219680
2960
là cho hai con người một thứ mà họ không muốn mất.
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
Vì nếu bạn là một thiếu niên, và bạn có kỉ lục 150 ngày liên tiếp,
03:47
you don't want that to go away.
77
227480
1976
bạn không muốn làm mất nó.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Hãy nghĩ về một khoảng thời gian đặt lịch cố định trong đầu bọn trẻ.
Đây không phải là lý thuyết: khi bọn trẻ đi nghỉ mát,
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
chúng sẽ đưa mật khẩu cho khoảng năm người bạn khác nhau
03:59
to keep their Snapstreaks going,
81
239800
2216
để giữ kỉ lục Snapstreakes,
04:02
even when they can't do it.
82
242040
2016
ngay cả khi chúng không thể làm điều đó.
04:04
And they have, like, 30 of these things,
83
244080
1936
Và chúng có khoảng 30 thứ như vậy,
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
và phải có những bức hình dù là tranh hay bức tường
04:09
or ceilings just to get through their day.
85
249440
2480
hay trần nhà chỉ để qua ngày.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Do vậy nó sẽ không giống một cuộc trò chuyện thật sự.
04:15
We have a temptation to think about this
87
255920
1936
Chúng ta có xu hướng nghĩ về nó
04:17
as, oh, they're just using Snapchat
88
257880
2696
như, oh, chúng chỉ dùng Snapchat
04:20
the way we used to gossip on the telephone.
89
260600
2016
như cách chúng ta dùng điện thoại để tám chuyện,
04:22
It's probably OK.
90
262640
1200
có thể chấp nhận được.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Nhưng sự khác biệt là vào những năm 1970,
04:26
when you were just gossiping on the telephone,
92
266760
2615
khi bạn chỉ trò chuyện trên điện thoại,
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
lúc đó không có hàng trăm kỹ sư ngồi trước màn hình
04:32
who knew exactly how your psychology worked
94
272440
2056
những người biết chính xác hoạt động tâm lý của bạn
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
và sắp đặt bạn vào mối liên kết với những người khác.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Bây giờ, nếu điều đó đang tạo cho bạn cảm giác bực bội.
04:42
notice that that thought just comes over you.
97
282680
2576
chú ý rằng ý nghĩ đó chỉ thoáng qua bạn.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Sự bực bội này là cách tốt nhất để có được sự chú ý của bạn
04:49
because we don't choose outrage.
99
289880
1576
vì ta không lựa chọn sự bực bội
04:51
It happens to us.
100
291480
1416
mà là nó đang diễn ra với chúng ta,
04:52
And if you're the Facebook newsfeed,
101
292920
1856
và nếu bạn có tin tức Facebook,
04:54
whether you'd want to or not,
102
294800
1416
dù bạn muốn hay không
04:56
you actually benefit when there's outrage.
103
296240
2736
bạn được hưởng lợi khi có sự bực bội.
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
Vì sự bực bội này không chỉ được lên lịch như phản ứng
05:01
in emotional time, space, for you.
105
301960
2880
trong cảm xúc không gian, thời gian của bạn.
05:05
We want to share that outrage with other people.
106
305440
2416
Chúng ta muốn chia sẻ sự phẫn nộ này với những người khác.
05:07
So we want to hit share and say,
107
307880
1576
Và ta muốn chia sẻ và nói,
05:09
"Can you believe the thing that they said?"
108
309480
2040
"Bạn có thể tin những gì họ đã nói không?"
05:12
And so outrage works really well at getting attention,
109
312520
3376
Và sự phẫn nộ rất dễ gây sự chú ý,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
đến mức nếu Facebook có sự lựa chọn giữa việc đưa thông tin gây phẫn nộ
05:19
and a calm newsfeed,
111
319840
1320
hay những tin tức bình yên,
05:22
they would want to show you the outrage feed,
112
322120
2136
họ muốn đưa những tin tức gây phẫn nộ
05:24
not because someone consciously chose that,
113
324280
2056
không chủ đích vì một người nào,
05:26
but because that worked better at getting your attention.
114
326360
2680
nhưng vị việc tạo được sự chú ý sẽ tốt hơn.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Và phòng điều khiển tin tức không thuộc trách nhiệm của chúng tôi.
05:37
It's only accountable to maximizing attention.
116
337040
2296
Nó chỉ chịu trách nhiệm cho sự chú ý lớn nhất.
05:39
It's also accountable,
117
339360
1216
Nó chỉ có trách nhiệm
05:40
because of the business model of advertising,
118
340600
2376
theo một dạng quảng cáo kinh doanh,
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
cho bất kỳ ai trả tiền để đi vào phòng điều khiển
05:46
and say, "That group over there,
120
346360
1576
và nói, "Nhóm kia,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
tôi muốn lên lịch cho những suy nghĩ trong họ".
05:51
So you can target,
122
351760
1200
Và bạn có thể có nhắm tới
05:54
you can precisely target a lie
123
354040
1936
bạn có thể liên tục nhắm tới việc lừa
05:56
directly to the people who are most susceptible.
124
356000
2920
một người nhạy cảm một cách trực tiếp.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Và vì đây là việc sinh lời, nên nó dần trở nên xấu đi.
06:05
So I'm here today
126
365040
1800
Do vậy tôi ở đây hôm nay
06:08
because the costs are so obvious.
127
368160
2000
vì cái giá của nó rất hiển nhiên.
06:12
I don't know a more urgent problem than this,
128
372280
2136
Tôi không biết những vấn đề cấp thiết hơn,
06:14
because this problem is underneath all other problems.
129
374440
3120
vì vấn đề này nằm dưới những vấn đề khác.
06:18
It's not just taking away our agency
130
378720
3176
Nó không chỉ làm mất quyền của chúng ta
06:21
to spend our attention and live the lives that we want,
131
381920
2600
về điều ta quan tâm và sống cuộc sống chúng ta muốn,
06:25
it's changing the way that we have our conversations,
132
385720
3536
nó đang thay đổi cách thức chúng ta trò chuyện,
06:29
it's changing our democracy,
133
389280
1736
nó đang thay đổi chế độ dân chủ,
06:31
and it's changing our ability to have the conversations
134
391040
2616
và nó đang thay đổi khả năng có thể bắt chuyện
06:33
and relationships we want with each other.
135
393680
2000
và mối quan hệ chúng ta muốn có.
06:37
And it affects everyone,
136
397160
1776
Và nó có ảnh hưởng tới mọi người,
06:38
because a billion people have one of these in their pocket.
137
398960
3360
vì hàng tỷ người có mặt trong số những nhóm đặc biệt đó.
06:45
So how do we fix this?
138
405360
1400
Vậy chúng ta thay đổi nó thế nào?
06:49
We need to make three radical changes
139
409080
2936
Chúng ta cần tạo ra ba thay đổi lớn
06:52
to technology and to our society.
140
412040
1800
về công nghệ và xã hội.
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Điều đầu tiên, chúng ta cần hiểu rằng mình dễ bị thuyết phục.
07:00
Once you start understanding
142
420840
1376
Một khi bạn bắt đầu hiểu
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
rằng trí nhớ của bạn có thể được lên lịch cho các suy nghĩ thoáng qua
07:05
or little blocks of time that you didn't choose,
144
425040
2576
hoặc một thời khắc mà bạn không lựa chọn
07:07
wouldn't we want to use that understanding
145
427640
2056
chẳng phải chúng ta muốn dùng điều đó
07:09
and protect against the way that that happens?
146
429720
2160
để bảo vệ chống lại cách mà nó đang diễn ra sao?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Tôi nghĩ ta cần nhìn nhận bản thân theo một cách mới.
07:15
It's almost like a new period of human history,
148
435920
2216
Nó gần như một giai đoạn mới của lịch sử loài người,
07:18
like the Enlightenment,
149
438160
1216
như một sự khai sáng,
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
nhưng thiên về tự khai sáng,
07:21
that we can be persuaded,
151
441640
2080
rằng chúng ta có thể bị thuyết phục,
07:24
and there might be something we want to protect.
152
444320
2240
và có một số điều mà chúng ta muốn bảo vệ.
07:27
The second is we need new models and accountability systems
153
447400
4576
Thứ hai là chúng ta cần một mô hình mới và hệ thống đáng tin cậy
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
để khi thế giới trở nên tốt hơn và có sức thuyết phục theo thời gian hơn-
07:35
because it's only going to get more persuasive --
155
455520
2336
bởi vì nó chỉ ngày càng nhiều sức thuyết phục hơn
07:37
that the people in those control rooms
156
457880
1856
đó là khi những người trong phòng điều khiển
07:39
are accountable and transparent to what we want.
157
459760
2456
đáng tin cậy và minh bạch về những gì chúng ta muốn.
07:42
The only form of ethical persuasion that exists
158
462240
2696
Hình thức thuyết phục duy nhất còn tồn tại
07:44
is when the goals of the persuader
159
464960
1936
là khi mục đích của người thuyết phục
07:46
are aligned with the goals of the persuadee.
160
466920
2200
giống với mục đích của người được thuyết phục.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
Và nó cần đặt câu hỏi lớn về những vấn đề như mô hình kinh doanh hay quảng cáo.
07:54
Lastly,
162
474720
1576
Sau cùng,
07:56
we need a design renaissance,
163
476320
1680
ta cần một thiết kế phục hưng
07:59
because once you have this view of human nature,
164
479080
3056
vì khi bạn đã có cái nhìn tổng thể về bản chất con người,
08:02
that you can steer the timelines of a billion people --
165
482160
2976
bạn có thể điều khiển thời gian của một tỷ người--
08:05
just imagine, there's people who have some desire
166
485160
2736
hãy tưởng tượng, những người có khao khát
08:07
about what they want to do and what they want to be thinking
167
487920
2856
về những họ muốn làm và những gì họ muốn nghĩ
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
và những gì họ đang cảm thấy và cách họ muốn thu nhận tin tức,
08:13
and we're all just tugged into these other directions.
169
493960
2536
và chúng ta lại bị kéo hoàn toàn theo hướng khác.
Và có một tỷ người bị kéo theo các hướng khác.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Hãy nghĩ về một thiết kế phục hưng
08:20
Well, imagine an entire design renaissance
171
500240
2056
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
như một người nhạc trưởng chính xác và có thể truyền sức mạnh
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
điều phối thời gian hiệu quả cho những gì đang diễn ra.
08:28
And that would involve two things:
174
508600
1656
Và điều đó bao gồm hai điều:
08:30
one would be protecting against the timelines
175
510280
2136
một là nó sẽ được bảo vệ chống lại dòng thời gian
08:32
that we don't want to be experiencing,
176
512440
1856
mà chúng ta không muốn trải nghiệm,
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
những suy nghĩ mà ta không muốn nghĩ
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
để khi tiếng "ding" phát ra, nó không làm chúng ta xao lãng
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
và điều thứ hai là sẽ truyền sức mạnh để ta sống theo thời gian mình muốn.
08:43
So let me give you a concrete example.
180
523760
1880
Để tôi cho bạn một ví dụ.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Hôm nay, bạn của bạn huỷ cuộc hẹn ăn tối với bạn,
08:48
and you are feeling a little bit lonely.
182
528760
3775
và bạn sẽ cảm thấy có chút cô đơn.
08:52
And so what do you do in that moment?
183
532559
1817
Và bạn sẽ làm gì vào lúc đó?
08:54
You open up Facebook.
184
534400
1279
Bạn mở Facebook.
08:56
And in that moment,
185
536960
1696
Và trong khoảnh khắc đó,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
người thiết kế trong phòng điều khiển muốn lên lịch một điều duy nhất,
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
đó là kéo dài tối đa thời gian bạn lướt màn hình.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Bây giờ, thay vào đó, tưởng tượng nếu người thiết kế tạo ra dòng thời gian khác
09:10
that was the easiest way, using all of their data,
189
550560
3496
là cách dễ dàng nhất, dùng toàn bộ dữ liệu của họ,
09:14
to actually help you get out with the people that you care about?
190
554080
3096
để chắc chắn giúp cho bạn liên lạc được với người mà bạn quan tâm?
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Hãy nghĩ đến việc làm giảm đi sự cô đơn trong xã hội,
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
nếu đó là dòng thời gian mà Facebook muốn tạo ra cho người dùng.
09:26
Or imagine a different conversation.
193
566160
1715
Hay tưởng tượng một câu chuyện khác.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Ví dụ bạn muốn đưa lên một thông tin mang tính tranh luận cao lên Facebook,
09:31
which is a really important thing to be able to do,
195
571240
2416
nó thật sự quan trọng để làm,
09:33
to talk about controversial topics.
196
573680
1696
nói về các chủ đề gây tranh cãi.
09:35
And right now, when there's that big comment box,
197
575400
2336
Và ngay bây giờ, khi mà nó là một kho bình luận lớn,
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
nó sẽ chỉ hỏi bạn muốn bình luận thế nào?
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
Nói cách khác, nó lên lịch cho một số việc
09:44
you're going to continue to do on the screen.
200
584000
2136
mà bạn sẽ tiếp tục làm trên màn hình.
09:46
And imagine instead that there was another button there saying,
201
586160
2976
Và hãy tưởng tượng rằng có một nút khác hỏi rằng
09:49
what would be most time well spent for you?
202
589160
2056
bạn muốn làm gì nhất lúc này?
09:51
And you click "host a dinner."
203
591240
1576
Và bạn nhấn "mời ăn tối."
09:52
And right there underneath the item it said,
204
592840
2096
Và ngay lập tức sẽ có một lời hồi đáp,
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
"Ai muốn nhận lời mời ăn tối?"
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Và có thể tiếp tục cuộc trò chuyện xoay quanh một chủ đề bàn luận,
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
nhưng địa điểm tốt nhất cho cuộc tranh luận trên timeline của bạn,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
là tại nhà bạn tối hôm đó, tụ tập với một nhóm bạn
10:06
to talk about it.
209
606760
1200
để bàn luận về điều đó.
10:09
So imagine we're running, like, a find and replace
210
609000
3160
Hãy nghĩ rằng chúng ta đang chạy, như đang tìm kiếm và thay thế
tất cả những lời gợi ý trên dòng thời gian
10:13
on all of the timelines that are currently steering us
211
613000
2576
chi phối chúng ta dành ngày càng nhiều thời gian cho nó
10:15
towards more and more screen time persuasively
212
615600
2560
10:19
and replacing all of those timelines
213
619080
2536
và thay thế tất cả dòng thời gian đó
10:21
with what do we want in our lives.
214
621640
1640
với những gì chúng ta muốn cho cuộc sống của mình.
10:26
It doesn't have to be this way.
215
626960
1480
Không nhất thiết phải làm như vậy.
10:30
Instead of handicapping our attention,
216
630360
2256
Thay vì làm giảm sự chú ý của mình,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
tưởng tượng nếu chúng ta dùng tất cả dữ liệu và cả sức lực
10:35
and this new view of human nature
218
635480
1616
và cái nhìn mới về bản chất con người
10:37
to give us a superhuman ability to focus
219
637120
2856
để cho chúng ta một khả năng tập trung cao độ
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
và khả năng siêu phàm để đặt sự chú ý vào cái mà ta quan tâm
10:44
and a superhuman ability to have the conversations
221
644160
2616
và một siêu năng lực để tạo ra các hội thoại cần thiết
10:46
that we need to have for democracy.
222
646800
2000
cho sự dân chủ.
10:51
The most complex challenges in the world
223
651600
2680
Những thử thách phức tạp nhất trên thế giới
10:56
require not just us to use our attention individually.
224
656280
3120
không chỉ yêu cầu sự chú ý của bạn.
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
mà chúng còn yêu cầu tận dụng sự chú ý và hợp tác lẫn nhau.
11:04
Climate change is going to require that a lot of people
226
664440
2816
Biến đổi khí hậu sẽ cần rất nhiều người
11:07
are being able to coordinate their attention
227
667280
2096
có thể tập hợp sự chú ý của họ
11:09
in the most empowering way together.
228
669400
1896
một cách mạnh mẽ nhất có thể.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Và tưởng tượng tạo ra một siêu năng lực có thể làm được điều đó.
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
Thỉnh thoảng, những vấn đề quan trọng và khẩn trương của thế giới
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
không phải một giả thuyết về những gì có thể tạo ra trong tương lai.
Đôi khi những vấn đề cấp bách nhất
11:28
Sometimes the most pressing problems
232
688560
1736
11:30
are the ones that are right underneath our noses,
233
690320
2336
là thứ ngay dưới mũi chúng ta
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
một việc có thể định hướng cho suy nghĩ của một tỷ người.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Và có thể thay vì chú ý vào thực tế mới nổi
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
và thực tế ảo và những thứ thú vị có thể diễn ra,
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
những thứ tham gia vào cuộc đua gây sự chú ý,
11:46
if we could fix the race for attention
238
706640
2176
nếu chúng ta có thể cố định cuộc đua này
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
vào thứ đang có sẵn trong túi của một tỷ người.
11:52
Maybe instead of getting excited
240
712040
1576
Có thể thay vì quan tâm
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
tới những ứng dụng giáo dục mới thú vị
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
chúng ta có thể điều chỉnh cách thức suy nghĩ của trẻ
12:00
into sending empty messages back and forth.
243
720760
2480
về việc vùi đầu vào gửi tin nhắn qua lại.
12:04
(Applause)
244
724040
4296
(Vỗ tay)
12:08
Maybe instead of worrying
245
728360
1256
Có thể thay vì lo lắng
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
cho những giả thiết về cuộc đua trí thông minh nhân tạo trong tương lai
12:13
that are maximizing for one goal,
247
733440
1880
mà được tối ưu hóa cho một mục đích duy nhất,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
chúng ta có thể giải quyết cuộc đua trí thông minh nhân tạo
12:19
that already exists right now,
249
739360
2056
mà hiện tại đang diễn ra,
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
chúng là tin tức được tối ưu hóa chỉ vì một mục đích duy nhất.
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
Thay vì chạy đi xâm chiếm các hành tinh mới,
12:29
we could fix the one that we're already on.
252
749920
2056
thì có thể điều chỉnh hành tinh mình đang sống.
12:32
(Applause)
253
752000
4120
(Vỗ tay)
12:40
Solving this problem
254
760040
1776
Giải quyết vấn đề này
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
là cơ sở quan trọng để giải quyết những vấn đề khác.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Không có gì trong cuộc sống của bạn hay trong những vấn đề của chúng ta
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
mà không yêu cầu đặt sự chú ý vào nơi chúng ta quan tâm.
12:55
At the end of our lives,
258
775800
1240
Vào cuối đời,
12:58
all we have is our attention and our time.
259
778240
2640
tất cả những gì ta có là sự quan tâm và thời gian.
13:01
What will be time well spent for ours?
260
781800
1896
Chúng ta sẽ sử dụng thời gian thế nào cho tốt?
13:03
Thank you.
261
783720
1216
13:04
(Applause)
262
784960
3120
Cảm ơn.
(Vỗ tay)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Triston, cảm ơn bạn. Nào, đứng lại đây một chút.
13:20
First of all, thank you.
264
800720
1336
Đầu tiên, cảm ơn bạn
Tôi biết họ đã yêu cầu bạn phát biểu trong thời gian chuẩn bị rất ngắn
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
13:24
and you've had quite a stressful week
266
804880
2216
và bạn có một tuần rất áp lực để chuẩn bị,
13:27
getting this thing together, so thank you.
267
807120
2440
cảm ơn bạn.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Một vài người nghe muốn nói rằng bạn phàn nàn về sự gây nghiện
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
và những người làm việc này, nó thực sự rất thú vị.
13:38
All these design decisions
270
818200
1256
Tất cả những quyết định
13:39
have built user content that is fantastically interesting.
271
819480
3096
được xây dựng bao hàm những điều thú vị.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Thế giới ngày càng trở nên thú vị hơn.
13:45
What's wrong with that?
273
825040
1256
Điều đó có gì sai?
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: Tôi nghĩ nó thực sự thú vị.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Lấy một ví dụ như bạn đang xem YouTube,
13:52
you want to always show the more interesting next video.
276
832640
2656
bạn luôn muốn xem những video thú vị hơn.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
Bạn muốn có những gợi ý tốt hơn về video tiếp theo
nhưng kể cả khi bạn đưa ra gợi ý hoàn hảo cho những video kế tiếp
13:58
but even if you could propose the perfect next video
278
838360
2456
14:00
that everyone would want to watch,
279
840840
1656
mà ai cũng muốn xem,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
thì nó chỉ giữ bạn dán mắt vào màn hình lâu hơn mà thôi.
Do vậy sai sót của phương trình này
14:05
So what's missing in that equation
281
845880
1656
là tìm ra giới hạn là gì.
14:07
is figuring out what our boundaries would be.
282
847560
2136
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Bạn muốn YouTube biết về, sự buồn ngủ chẳng hạn.
CEO của Netflixx đã nói,
14:12
The CEO of Netflix recently said,
284
852960
1616
"Đối thủ lớn nhất của chúng tôi là Facebook, YouTube và ngủ"
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
Và chúng ta cần nhận ra rằng kiến trúc con người bị giới hạn,
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
có các giới hạn hay kích thước nhất định cho cuộc sống của chúng ta
14:24
that we want to be honored and respected,
288
864840
1976
mà chúng ta muốn giữ vững và tôn trọng
14:26
and technology could help do that.
289
866840
1816
và công nghệ có thể giúp chúng ta làm điều đó.
14:28
(Applause)
290
868680
2616
(Vỗ tay)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: Vậy bạn có thể giải thích trường hợp
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
một phần vấn đề là do chúng ta có bản chất ngây thơ.
14:39
So much of this is justified in terms of human preference,
293
879120
2736
Nó được bào chữa bằng việc con người có những ưu tiên,
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
chúng ta có thuật toán để làm những việc thú vị
14:44
of optimizing for human preference,
295
884520
1696
cho việc tối ưu hóa sự ưu tiên của con người,
14:46
but which preference?
296
886240
1336
nhưng ưu tiên như thế nào?
14:47
There's the preferences of things that we really care about
297
887600
3496
Ưu tiên cho những thứ chúng ta thực sự quan tâm
14:51
when we think about them
298
891120
1376
khi chúng ta nghĩ về chúng
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
so với những ưu tiên mà chúng ta vô tình nhấn chuột vào
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
nếu chúng ta có thể áp dụng cách nghĩ đó về con người vào các bản thiết kế
15:00
would that be a step forward?
301
900280
1456
thì nó có thể là một bước tiến không?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Dĩ nhiên, tôi nghĩ bây giờ
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
tất cả những công nghệ của chúng ta chỉ đơn thuần hỏi bộ não bò sát
15:07
what's the best way to just impulsively get you to do
304
907280
2496
về cách tốt nhất để ngay lập tức áp đặt bạn
15:09
the next tiniest thing with your time,
305
909800
2136
làm những việc tiếp theo
15:11
instead of asking you in your life
306
911960
1656
thay vì hỏi xem trong cuộc sống
15:13
what we would be most time well spent for you?
307
913640
2176
bạn muốn dành thời gian cho việc gì nhất?
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Bạn muốn phân bổ thời gian như thế nào một cách hoàn hảo nhất
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
cho ngày cuối cùng ở TED?
CA: Vậy nếu Facebook và Google và tất cả mọi người đều nói rằng:
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
"Bạn có muốn chúng tôi tối ưu hoá phần não phản xạ của bạn
15:28
or your lizard brain? You choose."
312
928280
1656
hay não bó sát? Bạn hãy chọn đi"
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Đúng. Đó là một cách. Vâng.
CA: Bạn đã nói đến "khả năng thuyết phục", một từ mà tôi thất rất thú vị
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
15:37
because to me there's two different types of persuadability.
315
937240
2856
bởi vì tôi có hai cách thuyết phục khác nhau.
15:40
There's the persuadability that we're trying right now
316
940120
2536
Sự thuyết phục mà chúng ta đang thử bây giờ
15:42
of reason and thinking and making an argument,
317
942680
2176
cho lý do và ý nghĩ và nêu ra sự lý luận
15:44
but I think you're almost talking about a different kind,
318
944880
2696
nhưng tôi nghĩ bạn đang nói về cách khác
15:47
a more visceral type of persuadability,
319
947590
1906
một sự thuyết phục mang tính bản năng nhiều hơn
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
bị thuyết phục mà không cần biết bạn nghĩ gi.
TH: Chính xác. Lý do tôi quan tâm vấn đề này là
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
tôi đã nghiên cứu tại phòng thí nghiệm công nghệ thuyết phục Stanford
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
dạy cách nhận biết những kĩ thuật này.
Những buổi hội thảo và nghiên cứu dạy mọi người con đường tổng quát
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
để có được sự chú ý của con người và bố trí cuộc sống của họ.
16:07
And it's because most people don't know that that exists
326
967120
2656
Và vì hầu hết mọi người không biết điều đó tồn tại
16:09
that this conversation is so important.
327
969800
1896
nên cuộc đối thoại này mới quan trọng.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: Tristan, bạn và tôi, chúng ta đều biết nhiều người từ những công ty này.
16:15
There are actually many here in the room,
329
975520
1976
Thực ra có nhiều người đang có mặt tại đây
16:17
and I don't know about you, but my experience of them
330
977520
2477
và tôi không biết về bạn, nhưng theo kinh nghiệm của tôi
16:20
is that there is no shortage of good intent.
331
980021
2075
là họ không thiếu những ý định tốt.
16:22
People want a better world.
332
982120
2176
Mọi người muốn thế giới tốt hơn.
16:24
They are actually -- they really want it.
333
984320
3520
Họ chắc chắn cũng thật sự muốn như vậy.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Và tôi không nghĩ bạn đang nói họ là những người xấu xa.
16:32
It's a system where there's these unintended consequences
335
992520
3696
Nó là hệ thống mà những hậu quả không mong đợi
16:36
that have really got out of control --
336
996240
1856
thật sự ngoài tầm kiểm soát-
TH: Với cuộc đua giành chú ý.
16:38
TH: Of this race for attention.
337
998120
1496
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
Một cuộc đua cơ bản đến đỉnh cao sự chú ý,
và nó khá căng thẳng.
16:42
and it's so tense.
339
1002840
1216
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
Chỉ có một con đường duy nhất là đi sâu vào não bộ
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
đi sâu vào sự nóng giận, sâu hơn về cảm xúc
16:49
to go lower into the lizard brain.
342
1009280
1696
sâu hơn vào não bò sát.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Cảm ơn bạn rất nhiều đã giúp chúng tôi thông suốt một phần về điều đó.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, cảm ơn bạn. TH: Cảm ơn rất nhiều
16:57
(Applause)
345
1017280
2240
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7