What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Vì sao quyền riêng tư quan trọng?

202,219 views

2013-10-18 ・ TED


New videos

What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: Vì sao quyền riêng tư quan trọng?

202,219 views ・ 2013-10-18

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Hanh Lan Hoang Thi Reviewer: Thanh Nguyen Cong
00:12
I would like to tell you a story
0
12641
2354
Tôi muốn kể 1 câu chuyện
00:14
connecting the notorious privacy incident
1
14995
3176
kết nối 1 sự việc riêng tư rất nổi tiếng
00:18
involving Adam and Eve,
2
18171
2769
giữa Adam và Eve
00:20
and the remarkable shift in the boundaries
3
20940
3446
với sự thay đổi to lớn về giới hạn
00:24
between public and private which has occurred
4
24386
2686
giữa đời sống công cộng và riêng tư
00:27
in the past 10 years.
5
27072
1770
trong 10 năm vừa qua.
00:28
You know the incident.
6
28842
1298
Các bạn đều biết sự việc này.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Một ngày trong Vườn Địa Đàng,
00:33
realize they are naked.
8
33470
1843
Adam và Eve nhận ra họ đang trần truồng.
00:35
They freak out.
9
35313
1500
Cả hai đều bối rối lo sợ.
00:36
And the rest is history.
10
36813
2757
Và phần còn lại là lịch sử.
00:39
Nowadays, Adam and Eve
11
39570
2188
Thời nay, có lẽ Adam và Eve
00:41
would probably act differently.
12
41758
2361
sẽ hành động rất khác.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adam: Đêm qua thật tuyệt vời! Em thích quả táo của anh lol]
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
[@Eve: uhm... em yêu, em có biết quần anh đâu rồi ko?
00:48
We do reveal so much more information
15
48260
2636
Chúng ta tiết lộ nhiều thông tin
00:50
about ourselves online than ever before,
16
50896
3334
về bản thân mình online hơn bao giờ hết
00:54
and so much information about us
17
54230
1704
và rất nhiều thông tin đó
00:55
is being collected by organizations.
18
55934
2224
đang được các tổ chức thu thập.
00:58
Now there is much to gain and benefit
19
58158
3282
Có rất nhiều lợi ích
01:01
from this massive analysis of personal information,
20
61440
2446
từ việc phân tích thông tin cá nhân ở quy mô lớn
01:03
or big data,
21
63886
1946
hay còn gọi là "dữ liệu khổng lồ"
01:05
but there are also complex tradeoffs that come
22
65832
2638
nhưng cũng có những tổn hại phức tạp
01:08
from giving away our privacy.
23
68470
3098
do việc từ bỏ riêng tư cá nhân.
01:11
And my story is about these tradeoffs.
24
71568
4023
Và câu chuyện của tôi là về những tổn hại đó.
01:15
We start with an observation which, in my mind,
25
75591
2584
Chúng ta bắt đầu với một quan sát mà theo tôi
01:18
has become clearer and clearer in the past few years,
26
78175
3327
càng ngày càng trở nên rõ ràng trong vài năm qua
01:21
that any personal information
27
81502
2097
đó là: bất kì thông tin cá nhân nào
01:23
can become sensitive information.
28
83599
2285
cũng có thể trở thành thông tin nhạy cảm.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
Năm 2000, toàn thế giới
01:30
were shot worldwide,
30
90009
1912
chụp khoảng 100 tỷ bức ảnh
01:31
but only a minuscule proportion of them
31
91921
3065
nhưng chỉ có 1 phần rất nhỏ trong đó
01:34
were actually uploaded online.
32
94986
1883
được chia sẻ online.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
Năm 2010, tính riêng trên Facebook, trong 1 tháng
01:40
2.5 billion photos were uploaded,
34
100230
3270
có 2.5 tỷ bức ảnh được chia sẻ online
01:43
most of them identified.
35
103500
1882
và hầu hết đều có tên.
01:45
In the same span of time,
36
105382
1880
Trong cùng thời gian đó,
01:47
computers' ability to recognize people in photos
37
107262
4870
khả năng nhận dạng người qua ảnh của máy tính
01:52
improved by three orders of magnitude.
38
112132
3608
được cải thiện hơn 1000 lần.
01:55
What happens when you combine
39
115740
1882
Chuyện gì sẽ xảy ra
01:57
these technologies together:
40
117622
1501
khi những công nghệ này kết hợp lại?
01:59
increasing availability of facial data;
41
119123
2658
dữ liệu khuôn mặt nhiều lên và sẵn có,
02:01
improving facial recognizing ability by computers;
42
121781
3648
công nghệ nhận dạng ngày càng phát triển,
02:05
but also cloud computing,
43
125429
2182
và cả điện toán đám mây -
02:07
which gives anyone in this theater
44
127611
1888
1 mô hình sẽ mang đến cho bất kì ai trong khán phòng này
02:09
the kind of computational power
45
129499
1560
năng lực máy tính vượt trội
02:11
which a few years ago was only the domain
46
131059
1886
mà mới chỉ vài năm trước
02:12
of three-letter agencies;
47
132945
1782
chỉ các cơ quan chính phủ mới có,
02:14
and ubiquitous computing,
48
134727
1378
và công nghệ tin học rộng khắp
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
làm cho điện thoại di động, cho dù không phải siêu máy tính
02:18
to connect to the Internet
50
138997
1671
vẫn có thể kết nối Internet
02:20
and do there hundreds of thousands
51
140668
2334
và làm hàng trăm nghìn
02:23
of face metrics in a few seconds?
52
143002
2639
phép nhận dạng trong vòng vài giây?
02:25
Well, we conjecture that the result
53
145641
2628
Chúng tôi dự đoán rằng
02:28
of this combination of technologies
54
148269
2064
hậu quả của sự kết hợp các công nghê này
02:30
will be a radical change in our very notions
55
150333
2888
là một thay đổi triệt để trong nhận thức chúng ta
02:33
of privacy and anonymity.
56
153221
2257
về riêng tư cá nhân và sự ẩn danh.
02:35
To test that, we did an experiment
57
155478
1993
Để kiểm tra, chúng tôi làm 1 thí nghiệm
02:37
on Carnegie Mellon University campus.
58
157471
2121
tại trường Đại Học Carnegie Mellon.
02:39
We asked students who were walking by
59
159592
2099
Sinh viên của trường được chọn ngẫu nhiên
02:41
to participate in a study,
60
161691
1779
để tham gia một nghiên cứu.
02:43
and we took a shot with a webcam,
61
163470
2562
Chúng tôi chụp ảnh họ bằng webcam
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
và yêu cầu họ điền vào bảng câu hỏi trên laptop.
02:48
While they were filling out the survey,
63
168814
1979
Trong khi họ trả lời câu hỏi,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
chúng tôi tải những bức ảnh vừa chụp lên 1 đám mây điện toán
02:53
and we started using a facial recognizer
65
173590
1727
và dùng 1 phần mềm nhận dạng khuôn mặt
02:55
to match that shot to a database
66
175317
2405
để kết nối bức ảnh đó với cơ sở dữ liệu
02:57
of some hundreds of thousands of images
67
177722
2393
của hàng trăm ngàn bức ảnh
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
chúng tôi tải về từ vô vàn Facebook cá nhân.
03:03
By the time the subject reached the last page
69
183711
3259
Cho đến lúc các sinh viên trả lời đến trang cuối,
03:06
on the survey, the page had been dynamically updated
70
186970
3347
trang web đã được update liên tục
03:10
with the 10 best matching photos
71
190317
2313
và cho ra 10 bức ảnh gần giống nhất
03:12
which the recognizer had found,
72
192630
2285
mà phần mềm nhận dạng tìm được
03:14
and we asked the subjects to indicate
73
194915
1738
rồi chúng tôi hỏi các sinh viên
03:16
whether he or she found themselves in the photo.
74
196653
4120
họ có thấy mình trong các bức ảnh đó không.
03:20
Do you see the subject?
75
200773
3699
Các bạn có nhận ra người trong bức ảnh không?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Máy tính thì có,
03:27
for one out of three subjects.
77
207317
2149
và nhận dạng thành công 1 trong 3 sinh viên.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
Tức là, có thể bắt đầu với 1 khuôn mặt vô danh
03:32
offline or online, and we can use facial recognition
79
212650
3484
offline hoặc online, rồi dùng công nghê nhận dạng
03:36
to give a name to that anonymous face
80
216134
2360
để tìm ra tên cho khuôn mặt ấy
03:38
thanks to social media data.
81
218494
2108
nhờ vào dữ liệu từ mạng xã hội.
03:40
But a few years back, we did something else.
82
220602
1872
Vài năm trước, chúng tôi làm 1 thí nghiệm khác.
03:42
We started from social media data,
83
222474
1823
Chúng tôi bắt đầu từ dữ liệu trên mạng xã hội.
03:44
we combined it statistically with data
84
224297
3051
rồi kết hợp thống kê với dữ liệu
03:47
from U.S. government social security,
85
227348
2102
từ bảo hiểm xã hội của chính phủ Mỹ
03:49
and we ended up predicting social security numbers,
86
229450
3324
để phỏng đoán số bảo hiểm xã hội của mỗi người -
03:52
which in the United States
87
232774
1512
đó là thông tin hết sức nhạy cảm
03:54
are extremely sensitive information.
88
234286
2040
ở Mỹ.
03:56
Do you see where I'm going with this?
89
236326
2093
Bạn có đoán được tôi muốn dẫn đến cái gì không?
03:58
So if you combine the two studies together,
90
238419
2922
Kết hợp 2 nghiên cứu trên,
04:01
then the question becomes,
91
241341
1512
và câu hỏi trở thành
04:02
can you start from a face and,
92
242853
2720
liệu chúng ta có thể bắt đầu từ 1 khuôn mặt
04:05
using facial recognition, find a name
93
245573
2311
dùng công nghê nhận dạng, tìm ra tên
04:07
and publicly available information
94
247884
2669
và các thông tin công khai khác
04:10
about that name and that person,
95
250553
1932
về cái tên đó và con người đó
04:12
and from that publicly available information
96
252485
2248
rồi từ các thông tin công khai đó
04:14
infer non-publicly available information,
97
254733
2042
suy luận ra các thông tin cá nhân
04:16
much more sensitive ones
98
256775
1606
cực kì nhạy cảm
04:18
which you link back to the face?
99
258381
1492
rồi kết nối chúng với khuôn mặt đó?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
Câu trả lời là: chúng ta làm được, và đã làm thế.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Đương nhiên, độ chính xác giảm dần.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[Tìm ra 27% trong 5 chữ số đầu tiên trong số bảo hiểm xã hội của chủ thể sau 4 lần]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Thật ra, chúng tôi còn viết 1 ứng dụng iPhone
04:29
which uses the phone's internal camera
104
269128
2715
dùng camera của máy
04:31
to take a shot of a subject
105
271843
1600
để chụp ảnh chủ thể
04:33
and then upload it to a cloud
106
273443
1487
rồi tải lên 1 đám mây
04:34
and then do what I just described to you in real time:
107
274930
2662
và làm như những gì tôi đã miêu tả:
04:37
looking for a match, finding public information,
108
277592
2088
tìm kết nối, tìm thông tin công khai,
04:39
trying to infer sensitive information,
109
279680
1730
suy luận các thông tin nhạy cảm
04:41
and then sending back to the phone
110
281410
2591
và gửi lại về máy di động
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
thế là trên ảnh của chủ thể
04:47
an example of augmented reality,
112
287610
1901
sẽ là 1 ví dụ của thực tại tăng cường,
04:49
probably a creepy example of augmented reality.
113
289511
2451
có lẽ là 1 ví dụ lạnh gáy của thực tiễn đã được phóng đại lên.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
Thực ra, chúng tôi không viết ứng dụng này để bán,
04:55
just as a proof of concept.
115
295301
1922
mà chỉ để chứng minh quan điểm của mình.
04:57
In fact, take these technologies
116
297223
2313
Hơn nữa, thử đẩy những công nghệ này
04:59
and push them to their logical extreme.
117
299536
1837
đến mức cực đoan.
05:01
Imagine a future in which strangers around you
118
301373
2719
Tưởng tượng rằng trong tương lai, những người lạ quanh bạn
05:04
will look at you through their Google Glasses
119
304092
2311
sẽ nhìn bạn qua Kính Google
05:06
or, one day, their contact lenses,
120
306403
2307
hoặc 1 ngày nào đó, kính áp tròng,
05:08
and use seven or eight data points about you
121
308710
4020
và dùng 7-8 điểm dữ liệu về bạn
05:12
to infer anything else
122
312730
2582
để suy luận bất kì thông tin gì khác
05:15
which may be known about you.
123
315312
2603
về bạn.
05:17
What will this future without secrets look like?
124
317915
4794
Tương lai không bí mật này sẽ như thế nào?
05:22
And should we care?
125
322709
1964
Và liệu chúng ta có cần quan tâm?
05:24
We may like to believe
126
324673
1891
Chúng ta muốn tin rằng
05:26
that the future with so much wealth of data
127
326564
3040
tương lai với dữ liệu sẵn có như vậy
05:29
would be a future with no more biases,
128
329604
2514
sẽ là một tương lai không có thành kiến.
05:32
but in fact, having so much information
129
332118
3583
Tuy nhiên, sự thật là, có nhiều thông tin hơn
05:35
doesn't mean that we will make decisions
130
335701
2191
không giúp chúng ta quyết định
05:37
which are more objective.
131
337892
1706
một cách khách quan hơn.
05:39
In another experiment, we presented to our subjects
132
339598
2560
Trong một thí nghiệm khác, chúng tôi cung cấp cho chủ thể thông tin
05:42
information about a potential job candidate.
133
342158
2246
về 1 ứng viên tiềm năng cho 1 công việc.
05:44
We included in this information some references
134
344404
3178
Chúng tôi thêm vào 1 vài liên kết
05:47
to some funny, absolutely legal,
135
347582
2646
đến những thông tin khôi hài, hoàn toàn hợp pháp
05:50
but perhaps slightly embarrassing information
136
350228
2465
nhưng có thể hơi đáng xấu hổ
05:52
that the subject had posted online.
137
352693
2020
mà ứng viên này đã chia sẻ online.
05:54
Now interestingly, among our subjects,
138
354713
2366
Điều thú vị là, trong các chủ thể của thí nghiệm này
05:57
some had posted comparable information,
139
357079
3083
có người đã từng chia sẻ thông tin tương tự
06:00
and some had not.
140
360162
2362
và có người chưa từng.
06:02
Which group do you think
141
362524
1949
Các bạn đoán nhóm nào sẽ
06:04
was more likely to judge harshly our subject?
142
364473
4552
đánh giá ứng viên này nghiêm khắc hơn?
06:09
Paradoxically, it was the group
143
369025
1957
Nghịch lí xảy ra: đó là nhóm đã
06:10
who had posted similar information,
144
370982
1733
chia sẻ thông tin tương tự -
06:12
an example of moral dissonance.
145
372715
2942
1 ví dụ về mâu thuẫn đạo đức.
06:15
Now you may be thinking,
146
375657
1750
Bạn có thể nghĩ là
06:17
this does not apply to me,
147
377407
1702
tôi không như vậy,
06:19
because I have nothing to hide.
148
379109
2162
vì tôi chẳng có gì phải giấu giiếm.
06:21
But in fact, privacy is not about
149
381271
2482
Tuy nhiên, riêng tư cá nhân không phải là
06:23
having something negative to hide.
150
383753
3676
có những tiêu cực cần che giấu.
06:27
Imagine that you are the H.R. director
151
387429
2354
Tưởng tượng bạn là giám đốc nhân sự
06:29
of a certain organization, and you receive résumés,
152
389783
2947
của 1 tổ chức, bạn nhận hồ sơ và
06:32
and you decide to find more information about the candidates.
153
392730
2473
muốn tìm hiểu thêm thông tin về các ứng viên.
06:35
Therefore, you Google their names
154
395203
2460
Vì thế, bạn Google tên của họ
06:37
and in a certain universe,
155
397663
2240
và trong 1 trường hợp,
06:39
you find this information.
156
399903
2008
bạn tìm thấy thông tin này.
06:41
Or in a parallel universe, you find this information.
157
401911
4437
Hoặc trong trường hợp khác, bạn thấy thông tin này.
06:46
Do you think that you would be equally likely
158
406348
2717
Bạn có nghĩ rằng bạn sẽ gọi 2 ứng viên này
06:49
to call either candidate for an interview?
159
409065
2803
vào vòng phỏng vấn với xác suất như nhau không?
06:51
If you think so, then you are not
160
411868
2282
Nếu bạn nghĩ vậy, thì bạn không giống
06:54
like the U.S. employers who are, in fact,
161
414150
2582
các nhà tuyển dụng Mỹ, những người
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
đã tham gia thí nghiệm của chúng tôi.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Chúng tôi lập nhiều trang Facebook cá nhân, tạo dựng đặc điểm tính cách
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
và bắt đầu gửi hồ sơ đến các công ty ở Mỹ.
07:06
and we detected, we monitored,
165
426072
1908
Chúng tôi phát hiện, và giám sát xem
07:07
whether they were searching for our candidates,
166
427980
2393
họ có tìm và đánh giá ứng viên
07:10
and whether they were acting on the information
167
430373
1832
dựa vào thông tin trên mạng xã hội
07:12
they found on social media. And they were.
168
432205
1938
và họ đã làm như thế.
07:14
Discrimination was happening through social media
169
434143
2101
Phân biệt đối xử xảy ra qua mạng xã hội
07:16
for equally skilled candidates.
170
436244
3073
đối với các ứng viên có khả năng tương đương.
07:19
Now marketers like us to believe
171
439317
4575
Nhà quảng cáo muốn chúng ta tin rằng
07:23
that all information about us will always
172
443892
2269
thông tin cá nhân sẽ luôn được sử dụng
07:26
be used in a manner which is in our favor.
173
446161
3273
để mang lại lợi ích cho chúng ta.
07:29
But think again. Why should that be always the case?
174
449434
3715
Hãy nghĩ lại. Tại sao luôn luôn như vậy?
07:33
In a movie which came out a few years ago,
175
453149
2664
Trong một bộ phim vài năm trước,
07:35
"Minority Report," a famous scene
176
455813
2553
"Minority Report", 1 cảnh nổi tiếng
07:38
had Tom Cruise walk in a mall
177
458366
2576
có Tom Cruise đi trong siêu thị
07:40
and holographic personalized advertising
178
460942
3776
và biển quảng cáo 3D cá nhân hóa
07:44
would appear around him.
179
464718
1835
hiện ra xung quanh anh ấy.
07:46
Now, that movie is set in 2054,
180
466553
3227
Bộ phim đó được đặt trong bối cảnh năm 2054,
07:49
about 40 years from now,
181
469780
1642
40 năm nữa tính từ bây giờ,
07:51
and as exciting as that technology looks,
182
471422
2908
và cho dù công nghệ đó xem ra đã gây chấn động vô cùng,
07:54
it already vastly underestimates
183
474330
2646
nó vẫn đánh giá quá thấp
07:56
the amount of information that organizations
184
476976
2140
số lượng thông tin về bạn mà các tổ chức
07:59
can gather about you, and how they can use it
185
479116
2483
thu thập được, và cách họ có thể sử dụng nó
08:01
to influence you in a way that you will not even detect.
186
481599
3398
để chi phối bạn mà bạn cũng không phát hiện ra.
08:04
So as an example, this is another experiment
187
484997
2103
Một ví dụ nữa, đây là một thí nghiệm vẫn đang
08:07
actually we are running, not yet completed.
188
487100
2273
trong quá trình, chưa hoàn thành.
08:09
Imagine that an organization has access
189
489373
2319
Tưởng tượng rằng 1 tổ chức có thể truy cập
08:11
to your list of Facebook friends,
190
491692
2056
vào danh sách bạn bè Facebook của bạn,
08:13
and through some kind of algorithm
191
493748
1772
và bằng thuật toán nào đó
08:15
they can detect the two friends that you like the most.
192
495520
3734
có thể tìm ra 2 người bạn mà bạn quý nhất.
08:19
And then they create, in real time,
193
499254
2280
Và họ tạo ra, trong thực tế,
08:21
a facial composite of these two friends.
194
501534
2842
1 khuôn mặt kết hợp 2 người bạn này.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Nhiều nghiên cứu trước chúng tôi đã chỉ ra
08:27
don't recognize any longer even themselves
196
507445
2885
con người không thể nhận ra chính họ
08:30
in facial composites, but they react
197
510330
2462
trong các khuôn mặt tổng hợp này,
08:32
to those composites in a positive manner.
198
512792
2117
nhưng vẫn phản ứng tích cực với chúng.
08:34
So next time you are looking for a certain product,
199
514909
3415
Vậy nên lần tới khi bạn đang tìm mua 1 sản phẩm
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
và có 1 quảng cáo mời bạn mua
08:40
it will not be just a standard spokesperson.
201
520883
2907
đó sẽ không chỉ là một phát ngôn viên bất kì.
08:43
It will be one of your friends,
202
523790
2313
Đó sẽ là 1 người trong số bạn bè của bạn,
08:46
and you will not even know that this is happening.
203
526103
3303
và bạn thậm chí sẽ không biết điều này đang xảy ra.
08:49
Now the problem is that
204
529406
2413
Vấn đề bây giờ là
08:51
the current policy mechanisms we have
205
531819
2519
cơ chế chính sách hiện có
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
để bảo vệ chúng ta khỏi lạm dụng thông tin cá nhân
08:57
are like bringing a knife to a gunfight.
207
537776
2984
chỉ giống như là dao đấu với súng.
09:00
One of these mechanisms is transparency,
208
540760
2913
Một trong những cơ chế đó là sự minh bạch
09:03
telling people what you are going to do with their data.
209
543673
3200
nói rõ bạn sẽ làm gì với thông tin cá nhân của người khác.
09:06
And in principle, that's a very good thing.
210
546873
2106
Trên lý thuyết, đó là điều rất tốt.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Nó là cần thiết, nhưng chưa đủ.
09:12
Transparency can be misdirected.
212
552646
3698
Sự minh bạch có thể lạc lối.
09:16
You can tell people what you are going to do,
213
556344
2104
Bạn có thể nói với mọi người bạn sẽ làm gì
09:18
and then you still nudge them to disclose
214
558448
2232
và vẫn tiếp tục dụ họ nói ra
09:20
arbitrary amounts of personal information.
215
560680
2623
thông tin cá nhân một cách ngẫu nhiên.
09:23
So in yet another experiment, this one with students,
216
563303
2886
Trong một thí nghiệm nữa, lần này với sinh viên
09:26
we asked them to provide information
217
566189
3058
chúng tôi đề nghị họ cung cấp thông tin
09:29
about their campus behavior,
218
569247
1813
về hoạt động trong trường của họ
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
bao gồm cả những câu hỏi nhạy cảm, ví dụ:
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[Bạn đã bao giờ gian lận trong thi cử chưa?]
Với 1 nhóm sinh viên, chúng tôi nói với họ
09:36
"Only other students will see your answers."
222
576921
2841
"Chỉ có các sinh viên khác được xem câu trả lời của bạn."
09:39
To another group of subjects, we told them,
223
579762
1579
Với 1 nhóm khác, chúng tôi nói là
09:41
"Students and faculty will see your answers."
224
581341
3561
"Sinh viên cũng như giáo viên sẽ xem câu trả lời của bạn."
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Minh bạch. Thông báo. Chắc chắn là nó phải hiệu quả,
09:47
in the sense that the first group of subjects
226
587493
1407
vì nhóm đầu tiên tiết lộ thông tin với tỉ lệ
09:48
were much more likely to disclose than the second.
227
588900
2568
cao hơn nhiều so với nhóm thứ hai.
09:51
It makes sense, right?
228
591468
1520
Có lý, phải không?
09:52
But then we added the misdirection.
229
592988
1490
Nhưng chúng tôi thêm vào một chỉ dẫn gây rối
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Chúng tôi thực hiện lại thí nghiệm với 2 nhóm đó
09:57
this time adding a delay
231
597238
2427
lần này thêm vào một khoảng chờ đợi
09:59
between the time we told subjects
232
599665
2935
giữa lúc chúng tôi nói với chủ thể
10:02
how we would use their data
233
602600
2080
cách chúng tôi sử dụng dữ liệu
10:04
and the time we actually started answering the questions.
234
604680
4388
và lúc họ bắt đầu trả lời câu hỏi.
10:09
How long a delay do you think we had to add
235
609068
2561
Bạn nghĩ rằng phải chậm bao lâu
10:11
in order to nullify the inhibitory effect
236
611629
4613
để vô hiệu hóa tác dụng ngăn cản
10:16
of knowing that faculty would see your answers?
237
616242
3411
khi chủ thể biết là giáo viên sẽ xem câu trả lời của họ?
10:19
Ten minutes?
238
619653
1780
10 phút?
10:21
Five minutes?
239
621433
1791
5 phút?
10:23
One minute?
240
623224
1776
1 phút?
10:25
How about 15 seconds?
241
625000
2049
15 giây thì sao?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
15 giây là đủ để cả 2 nhóm
10:29
disclose the same amount of information,
243
629717
1568
tiết lộ lượng thông tin như nhau
10:31
as if the second group now no longer cares
244
631285
2746
như thể là nhóm thứ 2 không quan tâm
10:34
for faculty reading their answers.
245
634031
2656
giáo viên có đọc câu trả lời của họ hay không.
10:36
Now I have to admit that this talk so far
246
636687
3336
Bây giờ tôi phải thừa nhận là cuộc nói chuyện này
10:40
may sound exceedingly gloomy,
247
640023
2480
có vẻ cực kì u ám,
10:42
but that is not my point.
248
642503
1721
nhưng đó không phải là tôi muốn nói.
10:44
In fact, I want to share with you the fact that
249
644224
2699
Thực ra, tôi muốn chia sẻ với các bạn
10:46
there are alternatives.
250
646923
1772
những khả năng khác.
10:48
The way we are doing things now is not the only way
251
648695
2499
Cách chúng ta làm việc hiện giờ không phải
10:51
they can done, and certainly not the best way
252
651194
3037
cách duy nhất, và chắc chắn không phải là cách tốt nhất
10:54
they can be done.
253
654231
2027
để làm điều đó.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Khi ai đó nói với bạn: "Con người không quan tâm đến riêng tư,"
11:00
consider whether the game has been designed
255
660429
2642
hãy nghĩ xem có phải cuộc chơi đã được thiết kế
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
và sắp đặt để họ không thể quan tâm đến riêng tư
11:05
and coming to the realization that these manipulations occur
257
665795
3262
và nhận ra những mánh khóe này
11:09
is already halfway through the process
258
669057
1607
đã là nửa đường trên quá trình
11:10
of being able to protect yourself.
259
670664
2258
bảo vệ bản thân bạn.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Khi ai đó nói rằng sự riêng tư là đối nghịch với
11:16
with the benefits of big data,
261
676632
1849
ích lợi của dữ liệu khổng lồ,
11:18
consider that in the last 20 years,
262
678481
2473
hãy nghĩ xem trong 20 năm qua
11:20
researchers have created technologies
263
680954
1917
nhà nghiên cứu đã tạo ra công nghệ
11:22
to allow virtually any electronic transactions
264
682871
3318
để đảm bảo thanh toán điện tử
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
giữ được quyền riêng tư cá nhân hơn.
11:29
We can browse the Internet anonymously.
266
689938
2555
Chúng ta có thể lướt web ẩn danh
11:32
We can send emails that can only be read
267
692493
2678
gửi emails mà chỉ có người nhận mới đọc được
11:35
by the intended recipient, not even the NSA.
268
695171
3709
còn cả Cục An ninh Quốc gia cũng không đọc được
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Chúng ta thậm chí có thể khai thác dữ liệu mà vẫn bảo đảm riêng tư
11:41
In other words, we can have the benefits of big data
270
701877
3894
Nói cách khác, chúng ta có thể hưởng ích lợi của
11:45
while protecting privacy.
271
705771
2132
dữ liệu khổng lồ mà vẫn bảo đảm riêng tư.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Tất nhiên, những công nghệ này gợi ý
11:51
of cost and revenues
273
711694
1546
một sự chuyển biến về chi phí và thu nhập
11:53
between data holders and data subjects,
274
713240
2107
giữa người nắm giữ dữ liệu và người cung cấp dữ liệu.
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
Đó có lẽ là lí do bạn không biết nhiều về họ.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Và điều này mang tôi quay lại Vườn Địa Đàng.
12:02
There is a second privacy interpretation
277
722506
2780
Có một cách hiểu khác về sự riêng tư
12:05
of the story of the Garden of Eden
278
725286
1809
trong câu chuyện trong Vườn Địa Đàng
12:07
which doesn't have to do with the issue
279
727095
2096
mà không liên quan đến việc
12:09
of Adam and Eve feeling naked
280
729191
2225
Adam và Eve khỏa thân
12:11
and feeling ashamed.
281
731416
2381
và cảm thấy xấu hổ.
12:13
You can find echoes of this interpretation
282
733797
2781
Bạn có thể tìm hiểu về cách hiểu này
12:16
in John Milton's "Paradise Lost."
283
736578
2782
trong cuốn "Paradise Lost" của John Milton.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
Trong Vườn Địa Đàng, Adam and Eve thỏa mãn về vật chất.
12:23
They're happy. They are satisfied.
285
743557
2104
Họ hạnh phúc và hài lòng.
12:25
However, they also lack knowledge
286
745661
2293
Tuy nhiên, họ thiếu hiểu biết
12:27
and self-awareness.
287
747954
1640
và nhận thức về bản thân.
12:29
The moment they eat the aptly named
288
749594
3319
Khoảnh khắc họ ăn
12:32
fruit of knowledge,
289
752913
1293
"trái cây trí tuệ"
12:34
that's when they discover themselves.
290
754206
2605
là lúc họ phát hiện bản thân.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Họ ý thức được bản thân. Họ đạt được quyền tự quyết.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
Cái giá phải trả, tuy nhiên, là rời khỏi khu vườn.
12:43
So privacy, in a way, is both the means
293
763968
3881
Nên sự riêng tư, 1 cách nào đó, vừa là phương tiện
12:47
and the price to pay for freedom.
294
767849
2962
vừa là cái giá của tự do.
12:50
Again, marketers tell us
295
770811
2770
Một lần nữa, nhà quảng cáo nói với chúng ta
12:53
that big data and social media
296
773581
3019
dữ liệu khổng lồ và mạng xã hội
12:56
are not just a paradise of profit for them,
297
776600
2979
không chỉ là thiên đường lợi nhuận cho họ
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
mà còn là Vườn Địa Đàng cho tất cả chúng ta.
13:02
We get free content.
299
782036
1238
Chúng ta được nội dung miễn phí
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
được chơi Angry Birds, nhận ứng dụng nhắm đến chúng ta.
13:06
But in fact, in a few years, organizations
301
786397
2897
Nhưng thực ra, trong vài năm tới, các tổ chức
13:09
will know so much about us,
302
789294
1609
sẽ biết quá nhiều về chúng ta,
13:10
they will be able to infer our desires
303
790903
2710
đến mức có thể suy luận ham muốn của chúng ta
13:13
before we even form them, and perhaps
304
793613
2204
trước cả khi chúng ta có mong muốn đó,
13:15
buy products on our behalf
305
795817
2447
và có lẽ mua sản phẩm hộ chúng ta
13:18
before we even know we need them.
306
798264
2274
trước cả khi chúng ta biết mình cần sản phẩm đó.
13:20
Now there was one English author
307
800538
3237
Có một nhà văn người Anh
13:23
who anticipated this kind of future
308
803775
3045
đã tiên đoán tương lai như thế này
13:26
where we would trade away
309
806820
1405
khi mà chúng ta đánh đổi
13:28
our autonomy and freedom for comfort.
310
808225
3548
quyền tự do tự quyết để lấy sự thoải mái
13:31
Even more so than George Orwell,
311
811773
2161
Thậm chí hơn cả George Orwell,
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
nhà văn đó, đương nhiên, là Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
Trong cuốn "Brave New World", ông tưởng tượng một xã hội
13:39
where technologies that we created
314
819549
2171
nơi những công nghệ chúng ta chế tạo
13:41
originally for freedom
315
821720
1859
vốn để hướng đến tự do
13:43
end up coercing us.
316
823579
2567
cuối cùng lại kìm buộc chúng ta.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Tuy nhiên, trong cuốn sách đó, ông cũng đưa ra
13:50
of that society, similar to the path
318
830937
3438
lối thoát khỏi xã hội như thế, giống như con đường
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
Adam và Eve phải đi để rời khỏi Vườn Địa Đàng.
13:58
In the words of the Savage,
320
838330
2147
Như Savage đã nói,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
chúng ta có thể lấy lại quyền tự quyết và tự do
14:03
although the price to pay is steep.
322
843546
2679
mặc dù cái giá phải trả sẽ rất đắt.
14:06
So I do believe that one of the defining fights
323
846225
5715
Tôi tin rằng, một trong những cuộc chiến điển hình
14:11
of our times will be the fight
324
851940
2563
của thời nay sẽ là cuộc chiến
14:14
for the control over personal information,
325
854503
2387
giành quyền điều khiển thông tin cá nhân
14:16
the fight over whether big data will become a force
326
856890
3507
để quyết định dữ liệu khổng lồ sẽ trở thành
14:20
for freedom,
327
860397
1289
thế lực cho tự do
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
chứ không phải là thế lực ngấm ngầm chi phối chúng ta .
14:26
Right now, many of us
329
866432
2593
Ngay bây giờ, rất nhiều trong số chúng ta
14:29
do not even know that the fight is going on,
330
869025
2753
thậm chí không biết cuộc chiến này đang diễn ra
14:31
but it is, whether you like it or not.
331
871778
2672
nhưng nó đang diễn ra, dù bạn muốn hay không.
14:34
And at the risk of playing the serpent,
332
874450
2804
Và trước nguy cơ đùa với rắn hổ mang,
14:37
I will tell you that the tools for the fight
333
877254
2897
tôi sẽ nói cho bạn biết rằng công cụ cho cuộc chiến
14:40
are here, the awareness of what is going on,
334
880151
3009
là ở ngay đây, trong nhận thức về những gì đang diễn ra
14:43
and in your hands,
335
883160
1355
và ở trong tay bạn,
14:44
just a few clicks away.
336
884515
3740
chỉ cách bạn một vài clicks chuột.
14:48
Thank you.
337
888255
1482
Xin cảm ơn!
14:49
(Applause)
338
889737
4477
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7