How technology can fight extremism and online harassment | Yasmin Green

74,550 views ・ 2018-06-27

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: sam adib Reviewer: sadegh zabihi
00:13
My relationship with the internet reminds me of the setup
0
13131
4411
رابطه‌ام با اینترنت
یک فیلم ترسناکِ کلیشه‌ای را به خاطرم می‌آورد.
00:17
to a clichéd horror movie.
1
17566
1833
00:19
You know, the blissfully happy family moves in to their perfect new home,
2
19867
4386
خانواده خوشحال و سعادتمند به خانۀ جدید بی‌نقصشان می‌روند،
00:24
excited about their perfect future,
3
24277
2281
دربارۀ آیندۀ درخشانشان هیجان‌زده‌اند
00:26
and it's sunny outside and the birds are chirping ...
4
26582
3521
بیرون آفتابی‌ست و پرنده‌ها به آوازخواندن مشغول ...
00:30
And then it gets dark.
5
30857
1839
سپس تاریک می‌شود.
00:32
And there are noises from the attic.
6
32720
2348
و صدایی از زیر شیروانی می‌آید.
00:35
And we realize that that perfect new house isn't so perfect.
7
35092
4345
می‌فهمیم که آن خانۀ جدید بی‌نقص، آنقدرهم بی‌نقص نیست.
00:40
When I started working at Google in 2006,
8
40485
3131
وقتی در سال ۲۰۰۶ کارکردن در گوگل را شروع کردم،
00:43
Facebook was just a two-year-old,
9
43640
1767
فیس‌بوک تنها دو سال داشت،
00:45
and Twitter hadn't yet been born.
10
45431
2012
و توییتر هنوز متولد نشده بود.
00:47
And I was in absolute awe of the internet and all of its promise
11
47848
4410
و من در سایۀ هیبت مطلق اینترنت و تمام وعده‌هایش بودم
00:52
to make us closer
12
52282
1437
که ما را به هم نزدیکتر می‌کند
00:53
and smarter
13
53743
1296
و باهوش‌ترمان می‌کند
00:55
and more free.
14
55063
1214
و آزادترمان می‌کند.
00:57
But as we were doing the inspiring work of building search engines
15
57265
3714
اما همانطور که ما کار الهام‌بخش ساختن موتورهای جست‌وجو،
و سایت‌های انتشار ویدیو و شبکه‌های اجتماعی را انجام می‌دادیم،
01:01
and video-sharing sites and social networks,
16
61003
2886
01:04
criminals, dictators and terrorists were figuring out
17
64907
4304
جنایتکاران، دیکتاتورها و تروریست‌ها فهمیدند که
01:09
how to use those same platforms against us.
18
69235
3202
چگونه از آن پلتفرم‌های مشابه علیه ما استفاده کنند.
01:13
And we didn't have the foresight to stop them.
19
73417
2455
و ما پیش‌بینی نکرده‌بودیم که چطور متوقفشان کنیم.
01:16
Over the last few years, geopolitical forces have come online to wreak havoc.
20
76746
5099
در طول چند سال گذشته، قدرتهای ژئوپولیتیک برای خرابکاری به عرصۀ آنلاین آمدند.
01:21
And in response,
21
81869
1169
و در پاسخ،
01:23
Google supported a few colleagues and me to set up a new group called Jigsaw,
22
83062
4778
گوگل از من و تعدادی همکار برای تأسیس گروه جدیدی به نام Jigsaw پشتیبانی کرد،
01:27
with a mandate to make people safer from threats like violent extremism,
23
87864
4596
با یک تعهد که مردم را در برابر تهدیدهایی مثل افراط گرایی خشن،
01:32
censorship, persecution --
24
92484
2078
سانسور، آزار و شکنجه در امان داریم --
01:35
threats that feel very personal to me because I was born in Iran,
25
95186
4117
تهدیداتی که برای من احساسی بسیار شخصی است چونکه من در ایران به دنیا آمدم،
01:39
and I left in the aftermath of a violent revolution.
26
99327
2929
و پس از یک انقلاب خشن از آنجا خارج شدم.
01:43
But I've come to realize that even if we had all of the resources
27
103525
4346
امّا من متوجّه شدم حتی اگر ما همۀ منابع
01:47
of all of the technology companies in the world,
28
107895
2858
کل کمپانی‌های تکنولوژی در دنیا را در اختیار داشته باشیم
01:51
we'd still fail
29
111595
1230
هنوز شکست خورده‌‌ قلمداد می‌شویم
01:53
if we overlooked one critical ingredient:
30
113586
2948
اگر یک عنصر حیاتی را نادیده بگیریم:
01:57
the human experiences of the victims and perpetrators of those threats.
31
117653
5789
تجربیات انسانی قربانیان و عاملان آن تهدیدات.
02:04
There are many challenges I could talk to you about today.
32
124935
2736
چیزهای چالش‌برانگیز زیادی هستند که امروز می‌توانم درباره‌شان با شما صحبت کنم.
02:07
I'm going to focus on just two.
33
127695
1504
من بر روی تنها دو مورد تمرکز می‌کنم.
02:09
The first is terrorism.
34
129623
2079
اولینش تروریسم است.
02:13
So in order to understand the radicalization process,
35
133563
2557
پس ما برای درک فرایند افراطی‌گری،
02:16
we met with dozens of former members of violent extremist groups.
36
136144
4287
با ده‌ها نفر از اعضای سابق گروه‌های خشن تندرو دیدار کردیم.
02:21
One was a British schoolgirl,
37
141590
2483
یکی از آنها یک دختر مدرسه‌ای انگلیسی بود،
02:25
who had been taken off of a plane at London Heathrow
38
145049
3699
که او را از یک پرواز در فرودگاه هیترو لندن پایین آورده بودند
02:28
as she was trying to make her way to Syria to join ISIS.
39
148772
4692
چرا که می‌خواست خودش را برای پیوستن به داعش به سوریه برساند.
02:34
And she was 13 years old.
40
154281
1931
و او ۱۳ ساله بود.
02:37
So I sat down with her and her father, and I said, "Why?"
41
157792
4625
پس من با او و پدرش نشستم و پرسیدم، «چرا؟»
02:42
And she said,
42
162441
1717
و او گفت:
02:44
"I was looking at pictures of what life is like in Syria,
43
164182
3639
«من عکس‌هایی می‌دیدم از اینکه زندگی در سوریه چه شکلی است،
02:47
and I thought I was going to go and live in the Islamic Disney World."
44
167845
3510
فکر می‌کردم که می‌روم و در دیزنی‌ورلد اسلامی زندگی می‌کنم.»
02:52
That's what she saw in ISIS.
45
172527
2084
این چیزی بود که او در داعش دید.
02:54
She thought she'd meet and marry a jihadi Brad Pitt
46
174635
3492
او فکر می‌کرد که با یک برد پیت جهادی ملاقات و ازدواج می‌کند
02:58
and go shopping in the mall all day and live happily ever after.
47
178151
3058
و هر روز به مرکز خرید می‌رود و بعد از آن به خوشی زندگی می‌کند.
03:02
ISIS understands what drives people,
48
182977
2824
داعش فهمیده که چه‌چیز مردم را تحریک می‌کند،
03:05
and they carefully craft a message for each audience.
49
185825
3544
و آن‌ها با دقت برای هر مخاطب پیامی می‌سازند.
03:11
Just look at how many languages
50
191122
1511
فقط ببینید چه تعداد زبان هست
03:12
they translate their marketing material into.
51
192657
2273
که آن‌ها اطلاعات موردنظرشان را به آن زبان‌ها ترجمه می‌کنند.
03:15
They make pamphlets, radio shows and videos
52
195677
2661
آن‌ها جزوات و برنامه‌های رادیویی و ویدیویی می‌سازند
03:18
in not just English and Arabic,
53
198362
1973
نه فقط به زبان انگلیسی و عربی،
03:20
but German, Russian, French, Turkish, Kurdish,
54
200359
4767
بلکه آلمانی، روسی، فرانسه، ترکی، کُردی،
03:25
Hebrew,
55
205150
1672
عبری،
03:26
Mandarin Chinese.
56
206846
1741
چینی ماندارین.
03:29
I've even seen an ISIS-produced video in sign language.
57
209309
4192
من حتی یک ویدیوی تولیدشدۀ داعش را دیدم که به زبان اشاره بود.
03:34
Just think about that for a second:
58
214605
1884
فقط برای یک لحظه به آن فکر کنید:
03:36
ISIS took the time and made the effort
59
216513
2308
داعش زمان گذاشته و کوشیده
03:38
to ensure their message is reaching the deaf and hard of hearing.
60
218845
3804
تا مطمئن بشود که پیامش حتی به ناشنوا و کم‌شنوا هم می‌رسد.
03:45
It's actually not tech-savviness
61
225143
2144
در واقع آنچه داعش را دلربا و هوش‌ربا می‌کند
03:47
that is the reason why ISIS wins hearts and minds.
62
227311
2595
شایستگی تکنولوژیک آن نیست.
03:49
It's their insight into the prejudices, the vulnerabilities, the desires
63
229930
4163
بلکه بینش داعش به تعصبات، آسیب‌پذیری‌ها و خواسته‌هایی‌ست
03:54
of the people they're trying to reach
64
234117
1774
که مردم می‌کوشند بدان برسند
03:55
that does that.
65
235915
1161
و داعش به آنها این اجازه را می‌دهد.
03:57
That's why it's not enough
66
237718
1429
این نشان می‌دهد چرا برای یک پلتفرم آنلاین
03:59
for the online platforms to focus on removing recruiting material.
67
239171
4239
کافی نیست که تمرکزش را معطوف به حذف اطلاعات جمع‌شده کند.
04:04
If we want to have a shot at building meaningful technology
68
244518
3581
اگر می‌خواهیم که در عرصۀ تکنولوژی تلاش معناداری بکنیم
04:08
that's going to counter radicalization,
69
248123
1874
آن تلاش باید در راه مبارزه با افراطی‌گری باشد،
04:10
we have to start with the human journey at its core.
70
250021
2979
ما بایستی با سفر انسان به درون خود بیاغازیم.
04:13
So we went to Iraq
71
253884
2187
پس ما به عراق رفتیم
04:16
to speak to young men who'd bought into ISIS's promise
72
256095
2831
برای اینکه با مردان جوانی حرف بزنیم که با وعدۀ قهرمانی
04:18
of heroism and righteousness,
73
258950
3191
وعدالت به داعش پیوسته بودند،
04:22
who'd taken up arms to fight for them
74
262165
1847
کسانی که برای داعش مبارزه کردند
04:24
and then who'd defected
75
264036
1338
اما بالاخره آنگاه که وحشیانگی قانون داعش را دیدند
04:25
after they witnessed the brutality of ISIS's rule.
76
265398
3021
فرار کردند.
04:28
And I'm sitting there in this makeshift prison in the north of Iraq
77
268880
3192
خب من در زندان موقتی در شمال عراق نشسته‌ام
04:32
with this 23-year-old who had actually trained as a suicide bomber
78
272096
4550
با این فرد ۲۳ ساله که به عنوان بمب‌گذار انتحاری آموزش دیده بود
04:36
before defecting.
79
276670
1552
پیش از آنکه فرار کند.
04:39
And he says,
80
279080
1158
او گفت:
04:41
"I arrived in Syria full of hope,
81
281119
3220
«سرشار از امید به سوریه رسیدم،
04:44
and immediately, I had two of my prized possessions confiscated:
82
284363
4365
و ناگهان، دو چیز ارزشمندم مصادره شد:
04:48
my passport and my mobile phone."
83
288752
2933
گذرنامه و موبایلم.»
04:52
The symbols of his physical and digital liberty
84
292140
2406
نمادهایی از آزادی فیزیکی و دیجیتالش را
04:54
were taken away from him on arrival.
85
294570
1760
در بدو ورود از او گرفتند.
04:57
And then this is the way he described that moment of loss to me.
86
297248
3510
و این چیزی است که او از لحظۀ ناامیدی‌اش به من گفت.
05:01
He said,
87
301356
1586
گفت:
05:02
"You know in 'Tom and Jerry,'
88
302966
2329
«می‌دونی در تام و جری
05:06
when Jerry wants to escape, and then Tom locks the door
89
306192
3103
اونجایی که جری می‌خواد فرار کنه و تام در رو قفل می‌کنه
05:09
and swallows the key
90
309319
1156
و کلید رو قورت میده
05:10
and you see it bulging out of his throat as it travels down?"
91
310499
3551
و دیدی که کلید از برآمدگی گلوش رد میشه و پایین میره؟»
05:14
And of course, I really could see the image that he was describing,
92
314446
3153
و درسته، من واقعاً می‌توانستم آنچه را که او می‌گفت تصور کنم،
05:17
and I really did connect with the feeling that he was trying to convey,
93
317623
3661
واقعاً می‌توانستم با احساسی که می‌کوشید منتقل کند ارتباط برقرار کنم،
05:21
which was one of doom,
94
321308
2021
که یک عذاب بود،
05:23
when you know there's no way out.
95
323353
1789
وقتی می‌دانی که هیچ راه خروجی نیست.
05:26
And I was wondering:
96
326551
1289
می‌خواستم بدانم:
05:28
What, if anything, could have changed his mind
97
328644
2682
چه می‌شد اگر وقتی می‌خواست خانه را ترک کند
05:31
the day that he left home?
98
331350
1240
چیزی نظر او را عوض می‌کرد؟
05:32
So I asked,
99
332614
1250
پس پرسیدم:
05:33
"If you knew everything that you know now
100
333888
3178
«اگر تو آنچه را که امروز
05:37
about the suffering and the corruption, the brutality --
101
337090
3051
دربارۀ رنج و فساد و وحشیگری می‌دانی --
05:40
that day you left home,
102
340165
1415
همان روز اول که رفتی می‌دانستی،
05:41
would you still have gone?"
103
341604
1679
بازهم می‌رفتی؟»
05:43
And he said, "Yes."
104
343786
1711
و او گفت، «آره.»
05:45
And I thought, "Holy crap, he said 'Yes.'"
105
345846
2282
و فکر کردم، «خدایا، گفت آره.»
05:48
And then he said,
106
348694
1219
بعد گفت:
05:49
"At that point, I was so brainwashed,
107
349937
3001
«آن موقع من شست‌وشوی مغزی شده‌بودم،
05:52
I wasn't taking in any contradictory information.
108
352962
3244
اطلاعاتی را که در تضاد با عقایدم بود نمی‌پذیرفتم.
05:56
I couldn't have been swayed."
109
356744
1555
نمی‌توانستم قانع شوم.»
05:59
"Well, what if you knew everything that you know now
110
359235
2527
«خب اگر شش ماه پیش از آنکه خانه را ترک کنی
06:01
six months before the day that you left?"
111
361786
2098
آنچه را که امروز می‌دانی می‌دانستی چه؟»
06:05
"At that point, I think it probably would have changed my mind."
112
365345
3131
«به گمانم آن موقع ممکن بود که نظرم تغییر کند.»
06:10
Radicalization isn't this yes-or-no choice.
113
370138
3397
افراطی‌گری گزینش بلی‌ یا خیر نیست.
06:14
It's a process, during which people have questions --
114
374007
2977
بلکه یک فرایند است، دورانی که مردم پرسش‌هایی
دربارۀ ایدئولوژی، دین و اوضاع زندگی دارند.
06:17
about ideology, religion, the living conditions.
115
377008
3776
06:20
And they're coming online for answers,
116
380808
2766
و آنها برای رسیدن به پاسخ‌ها آنلاین می‌شوند،
06:23
which is an opportunity to reach them.
117
383598
1917
جاییکه فرصتی برای رسیدن به آنهاست.
06:25
And there are videos online from people who have answers --
118
385905
3014
و ویدیوهای آنلاینی از کسانیکه پاسخ را می‌دانند وجود دارد --
06:28
defectors, for example, telling the story of their journey
119
388943
2876
برای نمونه فراریان از داعش که داستان ورود
06:31
into and out of violence;
120
391843
1583
و خروجشان از خشونت را می‌گویند؛
06:33
stories like the one from that man I met in the Iraqi prison.
121
393450
3487
مشابه داستان آن مردی که من در زندان عراقی دیدم.
06:37
There are locals who've uploaded cell phone footage
122
397914
2590
محلی‌هایی هستند که با تلفن همراه فیلم‌ آپلود کرده‌اند
06:40
of what life is really like in the caliphate under ISIS's rule.
123
400528
3503
از اینکه زندگی تحت قانون خلافت داعش واقعاً چگونه است.
06:44
There are clerics who are sharing peaceful interpretations of Islam.
124
404055
3735
روحانیانی هستند که تفسیرهای صلح‌آمیزی از اسلام را ارائه می‌دهند.
06:48
But you know what?
125
408830
1150
اما می‌دانید؟
این افراد معمولاً توان عرضه‌ و تبلیغاتی را که داعش دارد، ندارند.
06:50
These people don't generally have the marketing prowess of ISIS.
126
410004
3020
06:54
They risk their lives to speak up and confront terrorist propaganda,
127
414049
4532
آنها جانشان را با حرف‌زدن و مقابله‌کردن علیه تبلیغات تروریستی به خطر می‌اندازند.
06:58
and then they tragically don't reach the people
128
418605
2211
اما به شکل غم‌انگیزی حرفشان به گوش مردمی
07:00
who most need to hear from them.
129
420840
1682
که نیاز به شنیدن آن حرفها دارند نمی‌رسد.
07:03
And we wanted to see if technology could change that.
130
423173
2612
و می‌خواستیم ببینیم اگر تکنولوژی بتواند آن را تغییر دهد.
07:06
So in 2016, we partnered with Moonshot CVE
131
426205
4183
پس در سال ۲۰۱۶ ما با Moonshot CVE همکاری کردیم
07:10
to pilot a new approach to countering radicalization
132
430412
3180
تا رهیافتی نو را برای مقابله با افراطی‌گری آزمایش کنیم
07:13
called the "Redirect Method."
133
433616
1780
بنام «روش راهنمایی مجدد.»
07:16
It uses the power of online advertising
134
436453
3012
که از قدرت تبلیغات آنلاین بهره می‌برد
07:19
to bridge the gap between those susceptible to ISIS's messaging
135
439489
4514
تا آن صداهای معتبری را که به روکردن دست داعش مشغولند
07:24
and those credible voices that are debunking that messaging.
136
444027
3760
به آنهایی که دربرابر پیام داعش آسیب‌پذیرند برساند.
07:28
And it works like this:
137
448633
1150
و اینطور کار می‌کند:
07:29
someone looking for extremist material --
138
449807
1961
کسی به دنبال محتوای افراط‌گرایانه می‌گردد --
07:31
say they search for "How do I join ISIS?" --
139
451792
2990
مثلاً کسی «چگونه عضو داعش شوم؟» را جست‌وجو می‌کنند --
07:34
will see an ad appear
140
454806
2476
یک آگهی ظاهر می‌شود
07:37
that invites them to watch a YouTube video of a cleric, of a defector --
141
457306
4882
که دعوتشان می‌کند تا ویدیویی را از یک روحانی یا کسی که از داعش فرار کرده
07:42
someone who has an authentic answer.
142
462212
2310
یا کسی که پاسخی قانع‌کننده داشته باشد، ببینند.
07:44
And that targeting is based not on a profile of who they are,
143
464546
3623
و این دعوت، بر مبنای مشخصات هویتی‌شان نیست،
07:48
but of determining something that's directly relevant
144
468193
3053
بلکه هدف تعیین چیزی کاملاً مرتبط
07:51
to their query or question.
145
471270
1708
با تردید یا پرسششان است.
07:54
During our eight-week pilot in English and Arabic,
146
474122
2842
طی آزمایش هشت‌هفته‌ای‌مان در زبانهای انگلیسی و عربی،
07:56
we reached over 300,000 people
147
476988
3279
به بیش از ۳۰۰٫۰۰۰ نفر که از خود تمایل یا همدلی
08:00
who had expressed an interest in or sympathy towards a jihadi group.
148
480291
5545
به گروه‌های جهادی نشان دادند رسیدیم.
08:06
These people were now watching videos
149
486626
2264
این افراد حالا ویدیوهایی می‌بینند
08:08
that could prevent them from making devastating choices.
150
488914
3340
که می‌تواند مانع از این شود که تصمیمی خانمان‌برانداز بگیرند.
08:13
And because violent extremism isn't confined to any one language,
151
493405
3727
و به‌خاطر اینکه افراطی‌گری خشن محدود به یک زبان،
08:17
religion or ideology,
152
497156
1804
دین یا ایدئولوژی نیست،
08:18
the Redirect Method is now being deployed globally
153
498984
3501
روش راهنمایی مجدد هم‌اکنون بسمت جهانی‌شدن می‌رود
08:22
to protect people being courted online by violent ideologues,
154
502509
3804
تا محافظ مردم باشد که در اینترنت توسط ایدئولوژی‌های خشن، وسوسه نشوند،
08:26
whether they're Islamists, white supremacists
155
506337
2596
خواه آن ایدئولوژی‌ها اسلامگرایان باشند خواه برتری‌پنداران سفیدپوست
08:28
or other violent extremists,
156
508957
2103
یا دیگر افراط‌گرایان خشن.
08:31
with the goal of giving them the chance to hear from someone
157
511084
2873
با این هدف که به آنها شانس شنیدن صحبت فردی را
08:33
on the other side of that journey;
158
513981
2091
که در آن سوی این سفر است بدهیم؛
08:36
to give them the chance to choose a different path.
159
516096
2839
به آنها شانس انتخاب مسیری متفاوت را بدهیم.
08:40
It turns out that often the bad guys are good at exploiting the internet,
160
520749
5980
معلوم می‌شود که اغلب، آدم‌بدها در بهره‌بردن از اینترنت موفق‌اند،
08:46
not because they're some kind of technological geniuses,
161
526753
3744
نه بخاطر اینکه نابغه‌های تکنولوژی‌اند،
08:50
but because they understand what makes people tick.
162
530521
2985
بلکه بخاطراینکه می‌دانند چه چیز افراد را تحریک می‌کند.
08:54
I want to give you a second example:
163
534855
2369
می‌خواهم مثال دوم را به شما بگویم:
08:58
online harassment.
164
538019
1391
مزاحمت آنلاین.
09:00
Online harassers also work to figure out what will resonate
165
540629
3363
مزاحمان آنلاین نیز می‌خواهند بفهمند که چه‌چیز
09:04
with another human being.
166
544016
1615
دیگری را تحریک می‌کند.
09:05
But not to recruit them like ISIS does,
167
545655
3110
امّا نه برای نابودکردنشان، مثل آنچه داعش می‌کند،
09:08
but to cause them pain.
168
548789
1275
بلکه برای رنج‌دادن آنها.
09:11
Imagine this:
169
551259
1342
تصور کن:
09:13
you're a woman,
170
553347
1659
یک زن هستی،
09:15
you're married,
171
555030
1413
متأهلی،
09:16
you have a kid.
172
556467
1154
و یک فرزند داری.
09:18
You post something on social media,
173
558834
1784
مطلبی در رسانه‌های اجتماعی می‌نویسی،
09:20
and in a reply, you're told that you'll be raped,
174
560642
2886
در یک از نظر، نوشته می‌شود که به شما تجاوز خواهد شد.
09:24
that your son will be watching,
175
564577
1560
چیزی که پسرت خواهد دید،
09:26
details of when and where.
176
566825
1856
جزئیات اینکه کِی و کجا.
09:29
In fact, your home address is put online for everyone to see.
177
569148
3143
در واقع، آدرس خانه‌ات برای هرکسی قابل مشاهده است.
09:33
That feels like a pretty real threat.
178
573580
2007
مثل تهدیدی واقعی به نظر می‌آید.
09:37
Do you think you'd go home?
179
577113
1656
به نظرت باید به خانه بروی؟
09:39
Do you think you'd continue doing the thing that you were doing?
180
579999
3048
گمان می‌کنی که باید به کاری که مشغول بودی ادامه بدهی؟
ادامه‌دادن به کار موجب خشم فرد مزاحم می‌شود؟
09:43
Would you continue doing that thing that's irritating your attacker?
181
583071
3220
09:48
Online abuse has been this perverse art
182
588016
3096
آزارگری آنلاین هنر فاسدِ پی‌بردن به این است
09:51
of figuring out what makes people angry,
183
591136
3468
که چه چیز اوقات مردم را تلخ می‌کند،
09:54
what makes people afraid,
184
594628
2132
چه چیز می‌ترساندشان،
09:56
what makes people insecure,
185
596784
1641
چه‌چیز سبب احساس ناامنی در آنها می‌شود،
09:58
and then pushing those pressure points until they're silenced.
186
598449
3067
و پس از پی‌بردن، افزدون فشار تا آنگاه که ساکت‌اند.
10:02
When online harassment goes unchecked,
187
602333
2304
وقتی مزاحمت آنلاین مهار نشود،
10:04
free speech is stifled.
188
604661
1667
آزادی بیان خفه می‌شود.
10:07
And even the people hosting the conversation
189
607196
2127
و حتی اگر افراد گفت‌وگو را میزبانی کنند
10:09
throw up their arms and call it quits,
190
609347
1834
سر آخر تسلیم می‌شوند،
10:11
closing their comment sections and their forums altogether.
191
611205
2957
قسمت نظراتشان را می‌بندند و انجمن‌هایشان را تعطیل می‌کنند.
10:14
That means we're actually losing spaces online
192
614186
2849
که در واقع به این معناست که ما فضاهای آنلاین را
10:17
to meet and exchange ideas.
193
617059
1987
برای ملاقات و تغییر نظرات از دست می‌دهیم.
10:19
And where online spaces remain,
194
619939
2163
و فضاهای آنلاینی که می‌ماند،
10:22
we descend into echo chambers with people who think just like us.
195
622126
4470
ما با افراد همفکرمان به اتاق‌های پژواک سرازیر می‌شویم.
10:27
But that enables the spread of disinformation;
196
627688
2499
امّا این گسترش اطلاعات غلط را موجب می‌شود؛
10:30
that facilitates polarization.
197
630211
2184
که قطبی‌شدن فضا را تسهیل می‌کند.
10:34
What if technology instead could enable empathy at scale?
198
634508
5269
چه می‌شود اگر در عوض تکنولوژی بتواند همدلی را به اندازۀ کافی ایجاد کند؟
10:40
This was the question that motivated our partnership
199
640451
2486
این پرسشی بود که موجب همکاری ما
10:42
with Google's Counter Abuse team,
200
642961
1819
با تیم سوء‌استفاده‌ستیزِ گوگل،
10:44
Wikipedia
201
644804
1178
ویکی‌پدیا
10:46
and newspapers like the New York Times.
202
646006
1934
و روزنامه‌هایی همچون نیویورک‌تایمز شد.
10:47
We wanted to see if we could build machine-learning models
203
647964
2876
می‌خواستیم ببینیم که اگر بتوانیم مدل‌هایی از یادگیری ماشین بسازیم
10:50
that could understand the emotional impact of language.
204
650864
3606
که بتواند اثرگذاری احساسی زبان را بفهمد.
10:55
Could we predict which comments were likely to make someone else leave
205
655062
3610
آیا می‌توانیم پیش‌بینی کنیم که چه نظراتی محتمل‌ترست که موجب شوند
10:58
the online conversation?
206
658696
1374
افراد گفت‌وگوی آنلاین را ترک کنند؟
11:00
And that's no mean feat.
207
660515
3887
و این کار ساده‌ای نیست.
11:04
That's no trivial accomplishment
208
664426
1566
برای هوش مصنوعی دستاورد بی‌اهمیتی نیست
11:06
for AI to be able to do something like that.
209
666016
2563
که بتواند چیزی مثل این را انجام دهد.
11:08
I mean, just consider these two examples of messages
210
668603
3729
منظورم این است که تنها این دو نمونه پیام را
11:12
that could have been sent to me last week.
211
672356
2224
که می‌توانست هفتۀ پیش برای من ارسال شود در نظر بگیرید.
11:15
"Break a leg at TED!"
212
675517
1879
«شکستن یک پا در TED!»
11:17
... and
213
677420
1164
و...
11:18
"I'll break your legs at TED."
214
678608
2126
«من پاهای تو را در TED می‌شکنم.»
11:20
(Laughter)
215
680758
1246
(خنده)
شما انسانید،
11:22
You are human,
216
682028
1513
11:23
that's why that's an obvious difference to you,
217
683565
2210
و همین خاطر تفاوت برای شما واضح است،
11:25
even though the words are pretty much the same.
218
685799
2224
حتی اگر کلمات کاملاً شبیه‌ باشند.
11:28
But for AI, it takes some training to teach the models
219
688047
3079
اما برای هوش مصنوعی، برای آموزش مدل‌ها به تمرین نیاز است
11:31
to recognize that difference.
220
691150
1571
تا این تفاوت را تشخیص دهد.
11:32
The beauty of building AI that can tell the difference
221
692745
3245
زیبایی ساختن هوشی مصنوعی که بتواند تفاوت را بگوید
11:36
is that AI can then scale to the size of the online toxicity phenomenon,
222
696014
5050
این است که می‌تواند میزان مضربودن پدیده‌ را اندازه گیرد،
11:41
and that was our goal in building our technology called Perspective.
223
701088
3287
و آن هدف ما در ساخت تکنولوژی‌مان به نام چشم‌انداز بود.
11:45
With the help of Perspective,
224
705056
1427
به یاری چشم‌انداز،
11:46
the New York Times, for example,
225
706507
1583
برای مثال نیویورک‌تایمز،
11:48
has increased spaces online for conversation.
226
708114
2487
فضاهای آنلاینش برای گفت‌وگو افزایش یافته‌است.
11:51
Before our collaboration,
227
711005
1310
پیش از همکاریمان،
11:52
they only had comments enabled on just 10 percent of their articles.
228
712339
4305
آنها تنها در پای ۱۰ درصد از مقالاتشان نظرات را فعال کرده بودند.
11:57
With the help of machine learning,
229
717495
1644
به یاری یادگیری ماشین،
11:59
they have that number up to 30 percent.
230
719163
1897
آن عدد هم‌اکنون بیش از ۳۰ درصد است.
12:01
So they've tripled it,
231
721084
1156
پس سه برابرش کرده‌اند،
12:02
and we're still just getting started.
232
722264
1917
و ما هنوز تازه شروع کرده‌ایم.
12:04
But this is about way more than just making moderators more efficient.
233
724872
3461
امّا این دربارۀ راهی فراتر از فقط کارآمدکردن مدیریت است.
12:10
Right now I can see you,
234
730076
1850
اکنون می‌توانم شما را ببینم،
12:11
and I can gauge how what I'm saying is landing with you.
235
731950
3294
و می‌توانم اثری را که سخنانم بر شما می‌گذارد بفهمم.
12:16
You don't have that opportunity online.
236
736370
1879
شما این فرصت آنلاین را ندارید.
12:18
Imagine if machine learning could give commenters,
237
738558
3635
تصور کنید اگر یادگیری ماشین بتواند به نظردهندگان،
12:22
as they're typing,
238
742217
1162
آنگاه که تایپ می‌کنند،
12:23
real-time feedback about how their words might land,
239
743403
3347
دربارۀ اثرگذاری واژگان‌شان بازخورد آنی بدهد،
12:27
just like facial expressions do in a face-to-face conversation.
240
747609
3024
مشابه آنچه حالات چهره در یک بحث رو در رو می‌کند.
12:32
Machine learning isn't perfect,
241
752926
1842
یادگیری ماشین بی‌نقص نیست،
12:34
and it still makes plenty of mistakes.
242
754792
2394
و هنوز اشتباهات زیادی دارد.
12:37
But if we can build technology
243
757210
1557
امّا اگر ما بتوانیم تکنولوژیی بسازیم
12:38
that understands the emotional impact of language,
244
758791
3293
که بتواند اثرگذاری عاطفی زبان را درک کند،
12:42
we can build empathy.
245
762108
1460
می‌توانیم همدلی را بسازیم.
12:43
That means that we can have dialogue between people
246
763592
2425
بدین معنا که می‌توانیم میان افراد گفت‌وگو داشته‌باشیم
12:46
with different politics,
247
766041
1816
افرادی با گرایش‌های سیاسی متفاوت،
12:47
different worldviews,
248
767881
1216
جهان‌بینی متفاوت،
12:49
different values.
249
769121
1246
ارزش‌های متفاوت.
12:51
And we can reinvigorate the spaces online that most of us have given up on.
250
771359
4775
و ما می‌توانیم این فضاهای آنلاین را که بسیاری از ما ترکش کرده‌ایم
دوباره بازسازی و تقویت کنیم.
12:57
When people use technology to exploit and harm others,
251
777857
3785
هنگامی که مردم از تکنولوژی
برای بهره برداری و آسیب رساندن به دیگران استفاده می کنند،
13:01
they're preying on our human fears and vulnerabilities.
252
781666
3642
آنها به شکار ترس‌ها و آسیب‌پذیری‌های ما مشغولند.
13:06
If we ever thought that we could build an internet
253
786461
3508
اگر تاکنون فکر کردیم می‌توانیم اینترنتی بسازیم که
13:09
insulated from the dark side of humanity,
254
789993
2578
از سویۀ تاریک انسانیت در امان باشد،
13:12
we were wrong.
255
792595
1184
در اشتباه بودیم.
13:14
If we want today to build technology
256
794361
2270
اگر امروز بخواهیم تکنولوژیی راه بیندازیم
13:16
that can overcome the challenges that we face,
257
796655
3127
که بتواند بر چالش‌های پیش‌رویمان غلبه کند،
13:19
we have to throw our entire selves into understanding the issues
258
799806
4043
بایستی تمام توانمان را برای درک مسائل
13:23
and into building solutions
259
803873
1893
و یافتن راه‌حل‌هایی که به همان‌اندازۀ
13:25
that are as human as the problems they aim to solve.
260
805790
3782
مشکلات انسانی‌اند بکارگیریم.
13:30
Let's make that happen.
261
810071
1513
بیایید عملی‌اش کنیم.
13:31
Thank you.
262
811924
1150
سپاسگزارم.
13:33
(Applause)
263
813098
3277
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7