How to Avoid Surveillance...With Your Phone | Christopher Soghoian | TED Talks

1,137,057 views

2015-09-14 ・ TED


New videos

How to Avoid Surveillance...With Your Phone | Christopher Soghoian | TED Talks

1,137,057 views ・ 2015-09-14

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Bidel Akbari Reviewer: Leila Ataei
00:13
For more than 100 years,
0
13343
1729
بیشتر از ۱۰۰ سال است،
00:15
the telephone companies have provided wiretapping assistance to governments.
1
15096
4026
که شرکت‌‌های مخابراتی به دولت‌ها برای استراق سمع کردن کمک می‌کنند.
00:19
For much of this time, this assistance was manual.
2
19146
3538
این کمک در اغلب این زمان بصورت دستی (غیر خودکار) بوده.
00:22
Surveillance took place manually and wires were connected by hand.
3
22708
4118
استراق سمع بصورت دستی انجام میشد و کابل‌ها بصورت دستی وصل می‌شدند.
00:26
Calls were recorded to tape.
4
26850
1750
مکالمه‌ها بر روی کاست ضبط می‌شدند.
00:29
But as in so many other industries,
5
29334
2144
اما مثل هر صنعت دیگه‌ای،
00:31
computing has changed everything.
6
31502
1766
علم کامپیوتر همه چیز را در این حوزه هم تغییر داد.
00:33
The telephone companies built surveillance features
7
33725
3023
شرکت‌های مخابراتی امکانات استراق سمع را
00:36
into the very core of their networks.
8
36772
2045
در بطنِ شبکه‌هایشان قرار دادند.
00:39
I want that to sink in for a second:
9
39494
1980
می‌خواهم به این نکته برای چند لحظه توجه کنید تا مطلب جا بیفتد:
00:41
Our telephones and the networks that carry our calls
10
41498
4260
تلفن‌ها و شبکه‌های سرویس دهنده‌ی مخابراتی
00:45
were wired for surveillance first.
11
45782
2373
از اول برای استراق سمع طراحی شده‌اند.
00:48
First and foremost.
12
48179
1403
از ابتدا و در وهله‌ی اول.
00:50
So what that means is that when you're talking to your spouse,
13
50763
3826
این به این معنی‌ست که وقتی شما دارید با همسرتان صحبت می‌کنید،
00:54
your children, a colleague or your doctor on the telephone,
14
54613
4322
یا با فرزندتان، همکارتان یا با دکترتان پای تلفن صحبت می‌کنید،
00:58
someone could be listening.
15
58959
1486
ممکن است یک نفر در حال گوش کردن به مکالمه‌ی شما باشد.
01:00
Now, that someone might be your own government;
16
60901
2565
حالا، آن یک نفر ممکن است دولتِ متبوع خود شما باشد؛
01:03
it could also be another government, a foreign intelligence service,
17
63490
4163
ممکن است از طرف یک کشور دیگر باشد، سازمان اطلاعاتی یک کشور خارجی،
01:07
or a hacker, or a criminal, or a stalker
18
67677
2827
یا یک هَکِر، یک مجرم، یا کسی که شما را برخلاف میل شما دنبال می‌کند
01:10
or any other party that breaks into the surveillance system,
19
70528
3570
یا هر فردی که توانسته به داخل سیستم استراق سمع نفوذ کند،
01:14
that hacks into the surveillance system of the telephone companies.
20
74122
4489
که توانسته به داخل سیستم استراق سمعِ اپراتور تلفن شما نفوذ کند.
01:19
But while the telephone companies have built surveillance as a priority,
21
79834
4522
اما همانطور که اپراتورهای تلفن سیستم استراق سمع را در اولویت اول قرار دادند،
01:24
Silicon Valley companies have not.
22
84380
1816
شرکت‌های «دره‌ی سیلیکون» با اینکار مخالفت کردند.
01:26
And increasingly, over the last couple years,
23
86523
2519
و روز به روز، در طول چند سال گذشته،
01:29
Silicon Valley companies have built strong encryption technology
24
89066
3662
این شرکت‌ها تکنولوژی‌های رمزنگاریِ قدرتمندی را ایجاد کردند
01:32
into their communications products
25
92752
1938
و درون محصولات ارتباطی خودشان قرار دادند
01:34
that makes surveillance extremely difficult.
26
94714
2266
و کار استراق سمع را خیلی دشوار کردند.
01:37
For example, many of you might have an iPhone,
27
97416
2174
برای نمونه، ممکن است خیلی از شماها یکدستگاه آیفون داشته باشید،
01:39
and if you use an iPhone to send a text message
28
99614
2690
اگر شما برای ارسال یک پیامک از آیفون استفاده کنید
01:42
to other people who have an iPhone,
29
102328
2177
و طرف گیرنده‌ی پیامک شما هم از آیفون استفاده کند،
01:44
those text messages cannot easily be wiretapped.
30
104529
3010
فرد دیگری نمی‌تواند آن پیامک‌ها را به سادگی استراق سمع کند و بخواند.
01:47
And in fact, according to Apple,
31
107563
1828
در واقع، با توجه به ادعای شرکت «اپِل»
01:49
they're not able to even see the text messages themselves.
32
109415
2891
حتی خود آنها هم نمی‌توانند به محتویات آن پیامک‌ها دسترسی پیدا کنند.
01:52
Likewise, if you use FaceTime to make an audio call
33
112662
3866
همینطور اگر شما از قابلیت تماس صوتی یا تصویری «فِیس تایم»
01:56
or a video call with one of your friends or loved ones,
34
116552
2611
برای صحبت کردن با دوستان یا عزیزان خودتون استفاده کنید،
01:59
that, too, cannot be easily wiretapped.
35
119187
2129
آنها را هم نمی‌توان به سادگی استراق سمع کرد.
02:01
And it's not just Apple.
36
121340
1545
و فقط هم شرکت «اپِل» نیست که این قابلیت‌ها را پیاده‌سازی کرده.
02:03
WhatsApp, which is now owned by Facebook
37
123315
2352
«واتس اَپ» هم که توسط «فیس بوک» خریداری شد
02:05
and used by hundreds of millions of people around the world,
38
125691
2858
و در حال حاضر توسط میلیونها نفر در سرتاسر جهان مورد استفاده قرار می‌گیرد،
02:08
also has built strong encryption technology into its product,
39
128573
3507
تکنولوژی پیشرفته‌ی از رمزگذاری را داخل محصولات خودش قرار داده،
02:12
which means that people in the Global South can easily communicate
40
132104
3507
به این معنی‌ست که مردم کشورهای در حال توسعه می‌توانند به سادگی با یکدیگر با هم در ارتباط باشند
02:15
without their governments, often authoritarian,
41
135635
2810
بدون اینکه دولت‌ها یا نهاد قدرت
02:18
wiretapping their text messages.
42
138469
1734
بتواند پیامک‌هایشان را استراق سمع کند.
02:21
So, after 100 years of being able to listen to any telephone call --
43
141599
4945
بنابراین بعد از ۱۰۰ سال توانایی در استراق سمع هر مکالمه‌ای که می‌خواستند
02:26
anytime, anywhere --
44
146568
2554
در هر زمان و مکانی
02:29
you might imagine that government officials are not very happy.
45
149146
3131
بنابراین می‌توانید تصور کنید که دولت‌ها از این اتفاق خوشحال نیستند.
02:32
And in fact, that's what's happening.
46
152301
1786
و در واقع همین اتفاق هم دارد می‌افتد.
02:34
Government officials are extremely mad.
47
154111
2219
دولت‌ها بشدت از این موضوع عصبانی هستند.
02:36
And they're not mad because these encryption tools are now available.
48
156354
3875
و دلیل عصبانیت آنها بخاطر این نیست که این تکنولوژی‌های رمزگذاری فراهم شده‌اند.
02:40
What upsets them the most
49
160253
1818
بیشترین چیزی که آنها را آشفته می‌کند
02:42
is that the tech companies have built encryption features into their products
50
162095
4167
این است که شرکت‌ها این تکنولوژی‌های رمزنگاری را در درون محصولات خود قرار داده‌اند
02:46
and turned them on by default.
51
166286
1873
و بصورت پیش‌فرض آنها را فعال کرده‌اند.
02:48
It's the default piece that matters.
52
168547
1970
اینکه بصورت پیش‌فرض فعال هستند خیلی مهم است.
02:50
In short, the tech companies have democratized encryption.
53
170541
3775
بطور خلاصه می‌توان گفت شرکت‌های فعال در زمینه‌ی تکنولوژی، ابزار رمزگذاری را در اختیار همگان قرار داده‌اند.
02:55
And so, government officials like British Prime Minister David Cameron,
54
175165
3797
بنابراین، افراد دولتی مثل دیوید کامرون نخست وزیر انگلستان،
02:58
they believe that all communications -- emails, texts, voice calls --
55
178986
4847
معتقدند که همه‌ی اَشکال ارتباطات مثل ایمیل و پیامک و تماس‌های صوتی
03:03
all of these should be available to governments,
56
183857
2588
باید برای دولت‌ها قابل دیدن و شنیدن باشند،
03:06
and encryption is making that difficult.
57
186469
2102
و تکنولوژی‌های رمزگذاری این کار را برای دولت‌ها مشکل کرده است.
03:09
Now, look -- I'm extremely sympathetic to their point of view.
58
189478
3384
حالا ببینید، من کاملن دیدگاه آنها را درک می‌کنم.
03:12
We live in a dangerous time in a dangerous world,
59
192886
2532
زمانه‌ی بدی است و ما داریم در دنیای خطرناکی زندگی می‌کنیم.
03:15
and there really are bad people out there.
60
195442
2000
و واقعن افراد بدی در این دنیا هستند.
03:17
There are terrorists and other serious national security threats
61
197466
3115
تروریست‌ها و افرادی که برای امنیت ملی خطرساز هستند
03:20
that I suspect we all want the FBI and the NSA to monitor.
62
200605
3977
که فکر می‌کنم همه‌ی ما از اف‌بی‌آی و آژانس امنیت ملی ایالات متحده انتظار داریم آنها را زیر نظر داشته باشد.
03:25
But those surveillance features come at a cost.
63
205345
2703
اما قابلیت‌های استراق سمع هزینه‌هایی با خودشان به همراه می‌آوردند.
03:29
The reason for that is
64
209357
1155
و دلیل آن هم این است که
03:30
that there is no such thing as a terrorist laptop,
65
210536
2486
تروریست‌ها از لپ‌تاپ جداگانه‌ای از آنچه مورد استفاده‌ی دیگران است، استفاده نمی‌کنند
03:33
or a drug dealer's cell phone.
66
213046
1507
همینطور قاچاقچیان مواد مخدر از همان تلفن همراهی استفاده می‌کنند که دیگران هم از همان‌ها استفاده می‌کنند
03:34
We all use the same communications devices.
67
214902
2963
همه‌ی ما از یک نوع دستگاه برای برقراری ارتباط استفاده می‌کنیم.
03:38
What that means is that if the drug dealers' telephone calls
68
218577
3675
این به معنی آن است که اگر بتوان تماس‌های یک قاچاقچی مواد مخدر
03:42
or the terrorists' telephone calls can be intercepted,
69
222276
2545
یا یک تروریست را شنود کرد،
03:44
then so can the rest of ours, too.
70
224845
1996
پس می‌توان تماس‌های همه را شنود کرد.
03:46
And I think we really need to ask:
71
226865
1627
و من فکر می‌کنم باید این پرسش را مطرح کنیم:
03:48
Should a billion people around the world be using devices
72
228516
3127
آیا میلیاردها نفر در سرتاسر جهان باید از دستگاه‌هایی استفاده کنند
03:51
that are wiretap friendly?
73
231667
1419
که استراق سمع کردن از آنها به آسانی مقدور باشد؟
03:55
So the scenario of hacking of surveillance systems that I've described --
74
235407
3748
سناریوی ورود غیرمجاز به سیستم‌های استراق سمع که پیشتر درباره‌ی آن توضیح دادم
03:59
this is not imaginary.
75
239179
2111
خیالی نبود.
04:01
In 2009,
76
241622
1152
در سال ۲۰۰۹،
04:02
the surveillance systems that Google and Microsoft built into their networks --
77
242798
4047
سیستم‌های استراق سمع‌ای که «گوگل» و «مایکروسافت» داخل شبکه‌هایشان تعبیه کرده بودند-
04:06
the systems that they use to respond to lawful surveillance requests
78
246869
3491
همان سیستم‌هایی که برای پاسخ دادن به درخواست‌های شنودِ نهادهای قانونی
04:10
from the police --
79
250384
1166
یا پلیس تعبیه شده بودند--
04:11
those systems were compromised by the Chinese government,
80
251574
2668
توسط دولت چین هَک شد،
04:14
because the Chinese government wanted to figure out
81
254266
2397
چون دولت چین می‌خواست بداند
04:16
which of their own agents the US government was monitoring.
82
256687
2892
دولت ایالات متحده کدامیک از عوامل اطلاعاتی او را زیر نظر دارد.
04:20
By the same token,
83
260269
1271
همینطور،
04:21
in 2004, the surveillance system built into the network
84
261564
3419
در سال ۲۰۰۴ سیستم‌های داخلیِ استراق سمع
04:25
of Vodafone Greece -- Greece's largest telephone company --
85
265007
3174
شرکت مخابراتی «ودافون» یونان که بزرگترین شرکت مخابراتی یونان است
04:28
was compromised by an unknown entity,
86
268205
2579
توسط گروه ناشناخته‌ای هَک شد،
04:30
and that feature, the surveillance feature,
87
270808
2040
و قابلیت شنود و استراق سمع این سیستم،
04:32
was used to wiretap the Greek Prime Minister
88
272872
2278
برای شنود از نخست وزیر
04:35
and members of the Greek cabinet.
89
275174
1719
و اعضای کابینه‌ی یونان قرار گرفت.
04:37
The foreign government or hackers who did that were never caught.
90
277313
3064
دولت خارجی یا هَکرهایی که این کار را انجام داده بودند هیچوقت شناخته نشدند.
04:41
And really, this gets to the very problem with these surveillance features,
91
281955
3697
و در واقع مشکل اصلی قابلیت‌های استراق سمع
04:45
or backdoors.
92
285676
1260
و «درهای مخفی» همین است. [مترجم: «درِ مخفی» در سیستم‌های نرم‌افزاری قابلیت ورود به آن‌ها از یک راه مخفی‌ست که بطور کل باعث پایین آمدن ضریب امنیت سیستم می‌شود]
04:46
When you build a backdoor into a communications network
93
286960
3202
وقتی شما برای یک سیستم ارتباطی یا یک تکنولوژی
04:50
or piece of technology,
94
290186
1301
یک «درِ مخفی» تعبیه می‌کنید،
04:51
you have no way of controlling who's going to go through it.
95
291511
3048
بر روی افرادی که قرار است از آن رفت و آمد کنند کنترلی نخواهید داشت.
04:55
You have no way of controlling
96
295243
1445
بهیچوجه نمی‌توانید بفهمید
04:56
whether it'll be used by your side or the other side,
97
296712
2770
که این قابلیت توسط طرفداران شما استفاده می‌شود یا دشمنان شما
04:59
by good guys, or by bad guys.
98
299506
1911
توسط آدم‌های خوب استفاده می‌شود یا آدم‌های بد.
05:01
And so for that reason, I think that it's better
99
301980
2519
و بخاطر همین من معتقدم بهتر است
05:04
to build networks to be as secure as possible.
100
304523
2652
شبکه‌ها را تا جایی که امکان دارد امن بسازیم.
05:08
Yes, this means that in the future,
101
308271
2409
بله این به این معنی‌ست که در آینده،
05:10
encryption is going to make wiretapping more difficult.
102
310704
2566
تکنولوژی‌های رمزگذاری باعث می‌شوند که استراق سمع دشوار تر شود.
05:13
It means that the police are going to have a tougher time
103
313280
2669
پس پلیس برای به دام انداختن آدم‌های بد
05:15
catching bad guys.
104
315949
1336
به زحمت بیشتری خواهد افتاد.
05:17
But the alternative would mean to live in a world
105
317309
2556
اما اگر اینطور نباشد در دنیایی زندگی خواهیم کرد
05:19
where anyone's calls or anyone's text messages could be surveilled
106
319889
3631
که مجرمان یا سرویس‌های اطلاعاتی خارجی
05:23
by criminals, by stalkers and by foreign intelligence agencies.
107
323544
3726
بتوانند تماس‌های تلفنی و پیامک‌های همه‌ی افراد را شنود کنند.
05:27
And I don't want to live in that kind of world.
108
327294
2312
و من دوست ندارم در چنین دنیایی زندگی کنم.
05:30
And so right now, you probably have the tools
109
330102
2715
در حال حاضر احتمالن شما همین الان ابزارهایی
05:32
to thwart many kinds of government surveillance
110
332841
2318
که می‌توانند از روش‌های مختلف استراق سمع دولتی جلوگیری کنند
05:35
already on your phones and already in your pockets,
111
335183
2983
را روی تلفن‌ها و در جیب‌تان دارید،
05:38
you just might not realize how strong and how secure those tools are,
112
338190
3779
ممکن است هنوز به قدرت و امنیت این ابزارها پی نبرده باشید
05:41
or how weak the other ways you've used to communicate really are.
113
341993
3529
یا ندانید راه‌هایی که تاکنون از آنها استفاده می‌کردید چقدر ضعیف بوده‌اند و ضریب امنیت پایینی داشته‌اند.
05:46
And so, my message to you is this:
114
346737
2127
بنابراین پیام من به شما این است:
05:50
We need to use these tools.
115
350110
1653
ما باید از این ابزارهای جدید استفاده کنیم.
05:52
We need to secure our telephone calls.
116
352239
2304
ما باید تماس‌های تلفنی‌مان را امن کنیم.
05:54
We need to secure our text messages.
117
354567
1849
ما باید پیامک‌هایمان را امن کنیم.
05:56
I want you to use these tools.
118
356950
1652
من از شما می‌خواهم از این ابزارها استفاده کنید.
05:58
I want you to tell your loved ones, I want you to tell your colleagues:
119
358626
3356
من از شما می‌خواهم به عزیزان‌تان و همکاران‌تان بگویید:
06:02
Use these encrypted communications tools.
120
362006
2424
از این ابزارهای ارتباطیِ رمزگذاری شده استفاده کنید.
06:04
Don't just use them because they're cheap and easy,
121
364454
2676
فقط چون ساده و رایگان هستند از آنها استفاده نکنید،
06:07
but use them because they're secure.
122
367154
2004
بلکه چون امن هستند از آنها استفاده کنید.
06:09
Thank you.
123
369182
1255
متشکرم.
06:10
(Applause)
124
370461
3586
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7