We're building a dystopia just to make people click on ads | Zeynep Tufekci

738,629 views ・ 2017-11-17

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Muhammad Rajab المدقّق: Hussain Laghabi
00:12
So when people voice fears of artificial intelligence,
0
12760
3536
عندما يعبر الناس عن خوفهم من الذكاء الاصطناعي،
00:16
very often, they invoke images of humanoid robots run amok.
1
16320
3976
فهم في غالب الأحيان يستحضرون صور روبوتات تشبه الإنسان وتجري مسعورة تريد الأذى
00:20
You know? Terminator?
2
20320
1240
كما في فيلم "تيرمينيتور".
00:22
You know, that might be something to consider,
3
22400
2336
هذا قد يكون وارد الحدوث،
00:24
but that's a distant threat.
4
24760
1856
لكن هذا تهديد بعيد.
00:26
Or, we fret about digital surveillance
5
26640
3456
أو نقلق حول المراقبة الرقمية
00:30
with metaphors from the past.
6
30120
1776
بمجازيات من الماضي
00:31
"1984," George Orwell's "1984,"
7
31920
2656
مثل رواية "1984" لـ"جورج أورويل"،
00:34
it's hitting the bestseller lists again.
8
34600
2280
إنها في قائمة الأفضل مبيعاً مرة أخرى.
00:37
It's a great book,
9
37960
1416
إنه كتاب رائع
00:39
but it's not the correct dystopia for the 21st century.
10
39400
3880
لكنه لا يحوي وصف الديستوبيا المناسبة للقرن الحادي والعشرين.
00:44
What we need to fear most
11
44080
1416
أكثر ما يجب أن نخاف منه
00:45
is not what artificial intelligence will do to us on its own,
12
45520
4776
هو ليس ما سوف يفعله بنا الذكاء الاصطناعي من تلقاء نفسه،
00:50
but how the people in power will use artificial intelligence
13
50320
4736
ولكن كيف سيستخدم الناس ذوو السلطة الذكاءَ الاصطناعي
00:55
to control us and to manipulate us
14
55080
2816
ليتحكموا بنا وليتلاعبوا بنا
00:57
in novel, sometimes hidden,
15
57920
3136
بطرق جديدة وأحياناً مخفية
01:01
subtle and unexpected ways.
16
61080
3016
ومفاجئة وغير متوقعة.
01:04
Much of the technology
17
64120
1856
معظم التكنولوجيا
01:06
that threatens our freedom and our dignity in the near-term future
18
66000
4336
التي تهدد حريتنا وكرامتنا في المستقبل القريب
01:10
is being developed by companies
19
70360
1856
يجري تطويرها من قبل شركات
01:12
in the business of capturing and selling our data and our attention
20
72240
4936
تعمل في مجال التقاط وبيع بياناتنا وانتباهنا
01:17
to advertisers and others:
21
77200
2256
لأصحاب الإعلانات وغيرهم:
01:19
Facebook, Google, Amazon,
22
79480
3416
"فيسبوك"، "جوجل"، "أمازون"،
01:22
Alibaba, Tencent.
23
82920
1880
"علي بابا"، "تينسنت".
01:26
Now, artificial intelligence has started bolstering their business as well.
24
86040
5496
لقد قام الذكاء الاصطناعي بدعم عملهم أيضاً
01:31
And it may seem like artificial intelligence
25
91560
2096
وقد يبدو أن الذكاء الاصطناعي
01:33
is just the next thing after online ads.
26
93680
2856
بمثابة الخطوة التقنية التالية بعد الإعلانات على الإنترنت.
01:36
It's not.
27
96560
1216
إنه ليس كذلك.
01:37
It's a jump in category.
28
97800
2456
إنه قفزة في المجال كاملاً
01:40
It's a whole different world,
29
100280
2576
إنه عالمٌ كاملٌ مختلف،
01:42
and it has great potential.
30
102880
2616
ويحمل إمكانات عظيمة.
01:45
It could accelerate our understanding of many areas of study and research.
31
105520
6920
باستطاعته تسريع فهمنا للعديد من مجالات الدراسة والبحث.
01:53
But to paraphrase a famous Hollywood philosopher,
32
113120
3496
لكنني سأعيد صياغة ما قاله فيلسوف هوليوودي شهير،
01:56
"With prodigious potential comes prodigious risk."
33
116640
3640
"مع الإمكانات غير العادية تأتي مخاطر غير عادية."
02:01
Now let's look at a basic fact of our digital lives, online ads.
34
121120
3936
دعونا الآن ننظر إلى حقيقة أساسية في حياتنا الرقمية، الإعلانات على الإنترنت.
02:05
Right? We kind of dismiss them.
35
125080
2896
صحيح؟ نحن نقوم بتجاهلهم نوعاً ما.
02:08
They seem crude, ineffective.
36
128000
1976
تبدو مزعجة جداً وعديمة الفائدة.
02:10
We've all had the experience of being followed on the web
37
130000
4256
جميعنا مررنا بتجربة أن تتم ملاحقتنا على شبكة الويب
02:14
by an ad based on something we searched or read.
38
134280
2776
بواسطة إعلان بناءً على شيء قمنا بالبحث عنه أو قراءته
02:17
You know, you look up a pair of boots
39
137080
1856
تبحثون مثلاً عن زوج من الأحذية.
02:18
and for a week, those boots are following you around everywhere you go.
40
138960
3376
ولمدة أسبوع، هذه الأحذية تقوم باللحاق بكم أينما ذهبتم.
02:22
Even after you succumb and buy them, they're still following you around.
41
142360
3656
حتى بعد ما تخضعون وتشترونهم، لا يزالون يلحقون بكم.
02:26
We're kind of inured to that kind of basic, cheap manipulation.
42
146040
3016
نحن متعودون نوعاً ما على ذلك النوع من التلاعب الرخيص.
02:29
We roll our eyes and we think, "You know what? These things don't work."
43
149080
3400
ننظر بامتعاض ونفكر "أتعلم ماذا؟ هذه الأشياء لا تعمل."
02:33
Except, online,
44
153720
2096
عدا أنه على الإنترنت،
02:35
the digital technologies are not just ads.
45
155840
3600
التقنيات الرقمية ليس مجرد إعلانات فقط.
02:40
Now, to understand that, let's think of a physical world example.
46
160240
3120
لنفهم ذلك، دعونا نفكر بمثال من العالم المحسوس.
02:43
You know how, at the checkout counters at supermarkets, near the cashier,
47
163840
4656
تعرفون كيف عند عدادات الدفع في المتاجر قرب الكاشيير،
02:48
there's candy and gum at the eye level of kids?
48
168520
3480
هناك حلوى وعلكة على مستوى نظر الأطفال؟
02:52
That's designed to make them whine at their parents
49
172800
3496
هذا مصمم ليجعلهم يلحّوا على أهاليهم
02:56
just as the parents are about to sort of check out.
50
176320
3080
في نفس الوقت حيث يقومون بإظهار المشتريات للدفع.
03:00
Now, that's a persuasion architecture.
51
180040
2640
إن هذا يدعى هندسة الإقناع.
03:03
It's not nice, but it kind of works.
52
183160
3096
إنه ليس لطيفاً، لكنه يعمل نوعاً ما.
03:06
That's why you see it in every supermarket.
53
186280
2040
لهذا السبب ترونه في كل متجر.
03:08
Now, in the physical world,
54
188720
1696
الآن، في العالم المحسوس،
03:10
such persuasion architectures are kind of limited,
55
190440
2496
هندسات الإقناع كهذه محدودة نوعاً ما،
03:12
because you can only put so many things by the cashier. Right?
56
192960
4816
لأنك تستطيع أن تضع فقط العديد من الأشياء عند الكاشيير، صحيح؟
03:17
And the candy and gum, it's the same for everyone,
57
197800
4296
والحلوى والعلكة هي نفسها للجميع،
03:22
even though it mostly works
58
202120
1456
حتى ولو كانت غالباً تنجح
03:23
only for people who have whiny little humans beside them.
59
203600
4040
فقط بالنسبة للناس الذين معهم أطفال صغار ملحّون إلى جانبهم.
03:29
In the physical world, we live with those limitations.
60
209160
3920
في العالم المحسوس، نحن نعيش مع هذه الحدود.
03:34
In the digital world, though,
61
214280
1936
لكن في العالم الرقمي،
03:36
persuasion architectures can be built at the scale of billions
62
216240
4320
فهندسات الإقناع يمكن أن تُبنى على مستوى المليارات
03:41
and they can target, infer, understand
63
221840
3856
ويمكنهم أن يستهدفوا ويستنتجوا ويفهموا
03:45
and be deployed at individuals
64
225720
2896
وينتشروا أمام الأفراد
03:48
one by one
65
228640
1216
واحداً واحداً
03:49
by figuring out your weaknesses,
66
229880
2136
باستنتاج نقاط ضعفك،
03:52
and they can be sent to everyone's phone private screen,
67
232040
5616
ويمكن أن يتم إرسالهم إلى شاشة الهاتف الخاصة بأي أحد،
03:57
so it's not visible to us.
68
237680
2256
إذاً فهي ليست مرئية لنا.
03:59
And that's different.
69
239960
1256
وهذا مختلف.
04:01
And that's just one of the basic things that artificial intelligence can do.
70
241240
3576
وهذا فقط واحد من الأمور البسيطة التي يستطيع الذكاء الاصطناعي أن يفعلها.
04:04
Now, let's take an example.
71
244840
1336
والآن دعونا نأخذ مثالاً.
04:06
Let's say you want to sell plane tickets to Vegas. Right?
72
246200
2696
فلنقل أنك تريد أن تبيع تذاكر طيران إلى "فيجاس"، حسناً؟
04:08
So in the old world, you could think of some demographics to target
73
248920
3496
في العالم القديم، يمكنك أن تفكر ببعض المناطق لتستهدفها
04:12
based on experience and what you can guess.
74
252440
2520
بناء على الخبرة وما يمكنك أن تخمنه.
04:15
You might try to advertise to, oh,
75
255560
2816
قد تحاول الإعلان لـ...
04:18
men between the ages of 25 and 35,
76
258400
2496
رجال بين أعمار الـ25 والـ35
04:20
or people who have a high limit on their credit card,
77
260920
3936
أو أشخاص عندهم حد مرتفع للدَّين في بطاقتهم الائتمانية،
04:24
or retired couples. Right?
78
264880
1376
أو أزواج متقاعدين. صحيح؟
04:26
That's what you would do in the past.
79
266280
1816
هذا ما كنتَ لتفعله في الماضي.
04:28
With big data and machine learning,
80
268120
2896
بوجود البيانات الضخمة وتعلّم الآلة،
04:31
that's not how it works anymore.
81
271040
1524
لم يعد الأمر يعمل بهذا الشكل.
04:33
So to imagine that,
82
273320
2176
لذا لنتخيل ذلك...
04:35
think of all the data that Facebook has on you:
83
275520
3856
فكروا في كل البيانات التي يمتلكها "فيسبوك" عنك:
04:39
every status update you ever typed,
84
279400
2536
كل حالة قمت بكتابتها في حياتك،
04:41
every Messenger conversation,
85
281960
2016
كل محادثة في "مسنجر"،
04:44
every place you logged in from,
86
284000
1880
كل مكان سجلت دخولك منه،
04:48
all your photographs that you uploaded there.
87
288400
3176
جميع صورك التي قمت برفعها من ذلك المكان.
04:51
If you start typing something and change your mind and delete it,
88
291600
3776
إذا بدأت بكتابة شيء ثم غيرت رأيك وحذفته،
04:55
Facebook keeps those and analyzes them, too.
89
295400
3200
فإن "فيسبوك" يحتفظ بهذه ويحللها أيضاً.
04:59
Increasingly, it tries to match you with your offline data.
90
299160
3936
بشكل متزايد، فهو يحاول أن يطابق بينك وبين بياناتك خارج الإنترنت.
05:03
It also purchases a lot of data from data brokers.
91
303120
3176
ويقوم أيضاً بشراء الكثير من البيانات من سماسرة البيانات.
05:06
It could be everything from your financial records
92
306320
3416
قد يتضمن ذلك كل شيء ابتداءً من سجلاتك المالية
05:09
to a good chunk of your browsing history.
93
309760
2120
لكم لا بأس فيه من تاريخ تصفحك.
05:12
Right? In the US, such data is routinely collected,
94
312360
5416
صحيح؟ في الولايات المتحدة، بيانات كهذه يتم جمعها بشكل روتيني،
05:17
collated and sold.
95
317800
1960
وتُجمع وتُباع.
05:20
In Europe, they have tougher rules.
96
320320
2440
في "أوروبا" عندهم قوانين أكثر شدة.
05:23
So what happens then is,
97
323680
2200
إذاً ما يحدث عندها هو
05:26
by churning through all that data, these machine-learning algorithms --
98
326920
4016
بمزج جميع البيانات، خوارزميات تعلم الآلة هذه...
05:30
that's why they're called learning algorithms --
99
330960
2896
لهذا السبب تسمى خوارزميات تعلم...
05:33
they learn to understand the characteristics of people
100
333880
4096
إنها تتعلم كيف تفهم مميزات وصفات الناس
05:38
who purchased tickets to Vegas before.
101
338000
2520
الذين اشتروا تذاكر إلى "فيجاس" من قبل.
05:41
When they learn this from existing data,
102
341760
3536
عندما يقوموا بتعلم هذا من بيانات متوفرة،
05:45
they also learn how to apply this to new people.
103
345320
3816
يتعلمون أيضاً كيف يقومون بتطبيق ذلك على الناس الجدد
05:49
So if they're presented with a new person,
104
349160
3056
حيث أنهم إذا واجهوا شخصاً جديداً،
05:52
they can classify whether that person is likely to buy a ticket to Vegas or not.
105
352240
4640
يمكنهم أن يقرروا هل من المحتمل أن يشتري ذلك الشخص تذكرة إلى "فيجاس" أم لا.
05:57
Fine. You're thinking, an offer to buy tickets to Vegas.
106
357720
5456
حسناً. أنتم تقولون إنه عرض لشراء تذكرة إلى "فيجاس".
06:03
I can ignore that.
107
363200
1456
يمكنني أن أتجاهل ذلك.
06:04
But the problem isn't that.
108
364680
2216
لكن ليست هذه هي المشكلة.
06:06
The problem is,
109
366920
1576
المشكلة هي...
06:08
we no longer really understand how these complex algorithms work.
110
368520
4136
نحن لم نعد نفهم حقاً كيف تعمل هذه الخوارزميات المعقدة.
06:12
We don't understand how they're doing this categorization.
111
372680
3456
نحن لا نفهم كيف يقومون بهذا التصنيف.
06:16
It's giant matrices, thousands of rows and columns,
112
376160
4416
إنها مصفوفات عملاقة، آلاف الصفوف والأعمدة
06:20
maybe millions of rows and columns,
113
380600
1960
بل ربما ملايين الصفوف والأعمدة،
06:23
and not the programmers
114
383320
2640
ولا المبرمجين
06:26
and not anybody who looks at it,
115
386760
1680
ولا أي أحد ممن ينظر إليها،
06:29
even if you have all the data,
116
389440
1496
حتى لو توفرت لديك البيانات كلها،
06:30
understands anymore how exactly it's operating
117
390960
4616
يفهم كيف تعمل بالضبط بعد الآن،
06:35
any more than you'd know what I was thinking right now
118
395600
3776
لن تفهموا أكثر مما ستعرفونه عما أفكر الآن
06:39
if you were shown a cross section of my brain.
119
399400
3960
إذا رأيتم مقطعًا عرضيًّا من دماغي.
06:44
It's like we're not programming anymore,
120
404360
2576
الأمر كما لو أننا لم نعد نبرمج بعد الآن،
06:46
we're growing intelligence that we don't truly understand.
121
406960
4400
بل نقوم بتنمية ذكاء نحن لا نفهمه حق الفهم.
06:52
And these things only work if there's an enormous amount of data,
122
412520
3976
وهذه الأشياء تعمل فقط إذا كان هناك كم هائل من البيانات،
06:56
so they also encourage deep surveillance on all of us
123
416520
5096
إذاً هي تقوم أيضاً بتحريض مراقبة عميقة علينا جميعاً
07:01
so that the machine learning algorithms can work.
124
421640
2336
حيث تستطيع خوارزميات تعلّم الآلة أن تعمل.
07:04
That's why Facebook wants to collect all the data it can about you.
125
424000
3176
لهذا السبب يريد "فيسبوك" أن يجمع كل البيانات التي يستطيع جمعها عنك
07:07
The algorithms work better.
126
427200
1576
فالخوارزميات تعمل بشكل أفضل.
07:08
So let's push that Vegas example a bit.
127
428800
2696
دعونا ننسى مثال "فيجاس" لحظة.
07:11
What if the system that we do not understand
128
431520
3680
ماذا لو كان النظام الذي لا نفهمه
07:16
was picking up that it's easier to sell Vegas tickets
129
436200
5136
يقرر أنه من الأسهل أن يبيع تذاكر "فيجاس"
07:21
to people who are bipolar and about to enter the manic phase.
130
441360
3760
للناس المصابين بثنائية القطب وهم على وشك الدخول بمرحلة الجنون.
07:25
Such people tend to become overspenders, compulsive gamblers.
131
445640
4920
أناس كهؤلاء غالباً يكونون مسرفين في الإنفاق أو مقامرين مدمنين...
07:31
They could do this, and you'd have no clue that's what they were picking up on.
132
451280
4456
الخوارزميات قد تفعل ذلك، وأنت لا تملك أدنى فكرة أن هذا ما كانوا يقومون بتصنيفه.
07:35
I gave this example to a bunch of computer scientists once
133
455760
3616
لقد أعطيت هذا المثال لمجموعة من علماء الحاسوب ذات مرة.
07:39
and afterwards, one of them came up to me.
134
459400
2056
وبعد ذلك، جاء إلي واحدٌ منهم.
07:41
He was troubled and he said, "That's why I couldn't publish it."
135
461480
3520
لقد كان مضطرباً وقال : "لهذا السبب لم أستطع نشرها."
07:45
I was like, "Couldn't publish what?"
136
465600
1715
أنا قلت: "لم تستطع نشر ماذا؟"
07:47
He had tried to see whether you can indeed figure out the onset of mania
137
467800
5856
لقد حاول أن يرى فيما إذا كنت ستستطيع استشفاف بداية مس الجنون
07:53
from social media posts before clinical symptoms,
138
473680
3216
من منشورات مواقع التواصل قبل بداية الأعراض المرضية،
07:56
and it had worked,
139
476920
1776
ولقد نجح ذلك،
07:58
and it had worked very well,
140
478720
2056
بل نجح بشكل ممتاز،
08:00
and he had no idea how it worked or what it was picking up on.
141
480800
4880
وهو لم يكن لديه أي فكرة كيف نجح البرنامج أو ما المعلومات التي كان يجمعها.
08:06
Now, the problem isn't solved if he doesn't publish it,
142
486840
4416
الآن، المشكلة لا تُحل إذا لم يقم بنشر المنشور،
08:11
because there are already companies
143
491280
1896
لأنه مسبقاً هناك شركات
08:13
that are developing this kind of technology,
144
493200
2536
تقوم بتطوير هذا النوع من التقنية،
08:15
and a lot of the stuff is just off the shelf.
145
495760
2800
والكثير من ما ينتجونه مأخوذ من الموارد الموجودة ببساطة.
08:19
This is not very difficult anymore.
146
499240
2576
هذا لم يعد شديد الصعوبة بعد الآن.
08:21
Do you ever go on YouTube meaning to watch one video
147
501840
3456
هل جربتم من قبل أن تدخلون "يوتيوب" بنيّة مشاهدة فيديو واحد
08:25
and an hour later you've watched 27?
148
505320
2360
وبعد ساعة تكونون قد شاهدتم 27 فيديو؟
08:28
You know how YouTube has this column on the right
149
508760
2496
تعرفون ذلك العمود على اليمين في "يوتيوب"
08:31
that says, "Up next"
150
511280
2216
الذي اسمه "سيُعرض تالياً"
08:33
and it autoplays something?
151
513520
1816
ويقوم بتشغيل شيء ما تلقائياً؟
08:35
It's an algorithm
152
515360
1216
إنها خوارزمية
08:36
picking what it thinks that you might be interested in
153
516600
3616
تلتقط ما تظن هي أنك قد تكون مهتماً به
08:40
and maybe not find on your own.
154
520240
1536
وما قد لا تجده لوحدك.
08:41
It's not a human editor.
155
521800
1256
هذا ليس بفعل إنسان.
08:43
It's what algorithms do.
156
523080
1416
إنه ما تفعله الخوارزميات.
08:44
It picks up on what you have watched and what people like you have watched,
157
524520
4736
إنها تلتقط الأشياء التي قمت بمشاهدتها والأشياء التي قام أناس مثلك بمشاهدتها،
08:49
and infers that that must be what you're interested in,
158
529280
4216
وتستنتج أن ذلك لا بد أن يكون ما أنت مهتم به،
08:53
what you want more of,
159
533520
1255
وما تريد المزيد منه،
08:54
and just shows you more.
160
534799
1336
ثم يعرض عليك المزيد فحسب.
08:56
It sounds like a benign and useful feature,
161
536159
2201
إنها تبدو ميزة حميدة ومفيدة،
08:59
except when it isn't.
162
539280
1200
إلا عندما تكون غير ذلك.
09:01
So in 2016, I attended rallies of then-candidate Donald Trump
163
541640
6960
ففي عام 2016 حضرت مسيرات للمرشح حينها "دونالد ترمب"
09:09
to study as a scholar the movement supporting him.
164
549840
3336
لأقوم كعالمة بدراسة الحركة الداعمة له.
09:13
I study social movements, so I was studying it, too.
165
553200
3456
أنا أدرس الحركات الاجتماعية، لذا كنت أدرس ذلك أيضاً.
09:16
And then I wanted to write something about one of his rallies,
166
556680
3336
وبعدها أردت أن أكتب شيئاً عن واحدة من تلك المسيرات،
09:20
so I watched it a few times on YouTube.
167
560040
1960
فقمت بمشاهدتها بعض المرات على "يوتيوب".
09:23
YouTube started recommending to me
168
563240
3096
فبدأ "يوتيوب" بترشيح فيديوهات لي
09:26
and autoplaying to me white supremacist videos
169
566360
4256
ويشغل لي تلقائياً فيديوهات عن العنصريين البيض
09:30
in increasing order of extremism.
170
570640
2656
في ترتيب متصاعد من التطرف.
09:33
If I watched one,
171
573320
1816
إذا شاهدت واحداً،
09:35
it served up one even more extreme
172
575160
2976
سينقلني حتى إلى فيديو أكثر تطرفاً
09:38
and autoplayed that one, too.
173
578160
1424
ويقوم بتشغيله تلقائياً أيضاً.
09:40
If you watch Hillary Clinton or Bernie Sanders content,
174
580320
4536
إذا شاهدتم محتوى خاص بـ"هيلارس كلينتون" أو "بيرني ساندرز"،
09:44
YouTube recommends and autoplays conspiracy left,
175
584880
4696
سيقوم "يوتيوب" بترشيح وتشغيل فيديوهات عن اليساريين المتآمرين،
09:49
and it goes downhill from there.
176
589600
1760
وسوف ينحدر من تلك النقطة.
09:52
Well, you might be thinking, this is politics, but it's not.
177
592480
3056
حسناً، ربما تظنون أن هذا يتعلق بالسياسة، لكنه ليس كذلك.
09:55
This isn't about politics.
178
595560
1256
هذا لا يتعلق بالسياسة.
09:56
This is just the algorithm figuring out human behavior.
179
596840
3096
هذه ببساطة فقط الخوارزمية وهي تستنتج السلوك الإنساني.
09:59
I once watched a video about vegetarianism on YouTube
180
599960
4776
مرةً شاهدت فيديو عن النظرية النباتية على "يوتيوب".
10:04
and YouTube recommended and autoplayed a video about being vegan.
181
604760
4936
فقام "يوتيوب" بترشيح وتشغيل فيديو عن كون المرء نباتياَ.
10:09
It's like you're never hardcore enough for YouTube.
182
609720
3016
كما لو أنك لن تكون أبداً شديداً بما يكفي بالنسبة لـ"يوتيوب".
10:12
(Laughter)
183
612760
1576
(ضحك)
10:14
So what's going on?
184
614360
1560
إذاً ما الذي يحدث؟
10:16
Now, YouTube's algorithm is proprietary,
185
616520
3536
إن خوارزمية يوتيوب امتلاكية،
10:20
but here's what I think is going on.
186
620080
2360
لكن إليكم ما أظن أنه يحدث.
10:23
The algorithm has figured out
187
623360
2096
لقد اكتشفت الخوارزمية
10:25
that if you can entice people
188
625480
3696
أنك إذا استطعت أن تجذب الناس
10:29
into thinking that you can show them something more hardcore,
189
629200
3736
لمظنّة أنك تستطيع أن تريهم ما هو أكثر إثارة
10:32
they're more likely to stay on the site
190
632960
2416
فإنهم أكثر احتمالاً أن يبقون على الموقع
10:35
watching video after video going down that rabbit hole
191
635400
4416
يشاهدون فيديو تلو الآخر ويغرقون في رحلة البحث والمشاهدة
10:39
while Google serves them ads.
192
639840
1680
في حين "جوجل" يقدم لهم الإعلانات.
10:43
Now, with nobody minding the ethics of the store,
193
643760
3120
الآن، بعدم وجود أي أحد يأبه إلى أخلاقيات المتجر،
10:47
these sites can profile people
194
647720
4240
هذه المواقع يمكنها أن تأخذ معلومات عن الناس
10:53
who are Jew haters,
195
653680
1920
الذين يكرهون اليهود،
10:56
who think that Jews are parasites
196
656360
2480
الذين يظنون أن اليهود عبارة عن طفيليات
11:00
and who have such explicit anti-Semitic content,
197
660320
4920
والذين لديهم محتوى معادٍ للسامية بصراحة شديدة،
11:06
and let you target them with ads.
198
666080
2000
ويجعلونك تستهدفهم بالإعلانات.
11:09
They can also mobilize algorithms
199
669200
3536
يمكنهم أيضاً أن يحشدوا الخوارزميات
11:12
to find for you look-alike audiences,
200
672760
3136
ليجدوا لك جماهير تشبهك،
11:15
people who do not have such explicit anti-Semitic content on their profile
201
675920
5576
أناس لا يملكون محتوى معادٍ للسامية بشكل صريح على ملفاتهم
11:21
but who the algorithm detects may be susceptible to such messages,
202
681520
6176
لكنهم ممن تكشفهم الخوارزمية على أنهم سريعو التأثر برسائل كهذه،
11:27
and lets you target them with ads, too.
203
687720
1920
وتجعلك تستهدفهم بالإعلانات أيضاً.
11:30
Now, this may sound like an implausible example,
204
690680
2736
قد يبدو هذا مثالاً غير قابل للتصديق،
11:33
but this is real.
205
693440
1320
لكنه حقيقي.
11:35
ProPublica investigated this
206
695480
2136
"بروببليكا" حققت بهذا الشأن
11:37
and found that you can indeed do this on Facebook,
207
697640
3616
ووجدت أنك بالفعل تستطيع فعل ذلك على "فيسبوك"،
11:41
and Facebook helpfully offered up suggestions
208
701280
2416
وقد قام "فيسبوك" بعرض اقتراحات
11:43
on how to broaden that audience.
209
703720
1600
عن كيفية توسيع ذلك الجمهور
11:46
BuzzFeed tried it for Google, and very quickly they found,
210
706720
3016
قام موقع "باز فيد" بتجربة ذلك من أجل "جوجل"، وقد وجدوا بسرعة،
11:49
yep, you can do it on Google, too.
211
709760
1736
أجل، يمكنك فعلها على "جوجل" أيضاً.
11:51
And it wasn't even expensive.
212
711520
1696
ولم تكن تجربة مكلفة حتى.
11:53
The ProPublica reporter spent about 30 dollars
213
713240
4416
شركة "بروببليكا" أنفقت ما يقارب 30 دولار
11:57
to target this category.
214
717680
2240
لتستهدف هذه الفئة.
12:02
So last year, Donald Trump's social media manager disclosed
215
722600
5296
في السنة الماضية، أفصح مدير حسابات مواقع التواصل الخاص بـ"دونالد ترمب"
12:07
that they were using Facebook dark posts to demobilize people,
216
727920
5336
أنهم كانوا يستخدمون المنشورات الظلامية في "فيسبوك" لتسريح الناس من وظائفها،
12:13
not to persuade them,
217
733280
1376
ليس عن طريق إقناعهم بذلك،
12:14
but to convince them not to vote at all.
218
734680
2800
بل بإقناعهم أن لا يقوموا بالتصويت من الأساس.
12:18
And to do that, they targeted specifically,
219
738520
3576
ولفعل ذلك، قاموا على وجه التحديد باستهداف،
12:22
for example, African-American men in key cities like Philadelphia,
220
742120
3896
على سبيل المثال، رجال أمريكيين إفريقيين في مدن رئيسة مثل "فيلادلفيا"،
12:26
and I'm going to read exactly what he said.
221
746040
2456
وسوف أقرأ ما قاله هو بالضبط.
12:28
I'm quoting.
222
748520
1216
أنا أقتبس.
12:29
They were using "nonpublic posts
223
749760
3016
"كانوا يستخدمون منشورات ليست للعامة
12:32
whose viewership the campaign controls
224
752800
2176
والتي تتحكم الحملة بمشاهديها
12:35
so that only the people we want to see it see it.
225
755000
3776
حيث يشاهدها الناس الذين نريدهم أن يشاهدونها فحسب.
12:38
We modeled this.
226
758800
1216
لقد قمنا بتصميم هذا.
12:40
It will dramatically affect her ability to turn these people out."
227
760040
4720
وسيؤثر ذلك بشكل كبير على قدرتها على تجنيد هؤلاء الناس."
12:45
What's in those dark posts?
228
765720
2280
ماذا يوجد في هذه "المنشورات الظلامية"؟
12:48
We have no idea.
229
768480
1656
ليس عندنا أي فكرة.
12:50
Facebook won't tell us.
230
770160
1200
"فيسبوك" لن يخبرنا.
12:52
So Facebook also algorithmically arranges the posts
231
772480
4376
إذاً "فيسبوك" أيضاً يقوم خوارزمياً بترتيب المنشورات
12:56
that your friends put on Facebook, or the pages you follow.
232
776880
3736
التي يضعها أصدقاؤك على "فيسبوك"، أو الصفحات التي تقوم بمتابعتها.
13:00
It doesn't show you everything chronologically.
233
780640
2216
فهو لا يريك كل شيء بالترتيب الزمني.
13:02
It puts the order in the way that the algorithm thinks will entice you
234
782880
4816
بل يصمم الترتيب بالطريقة التي تظن بها الخوارزميات أنها ستجذبك.
13:07
to stay on the site longer.
235
787720
1840
لتبقى على الموقع لفترة أطول.
13:11
Now, so this has a lot of consequences.
236
791040
3376
إذاً لهذا الكثير من العواقب.
13:14
You may be thinking somebody is snubbing you on Facebook.
237
794440
3800
ربما تظن أن أحداً ما يقوم بتجاهلك على "فيسبوك"
13:18
The algorithm may never be showing your post to them.
238
798800
3256
لكن ربما الخوارزمية لا تقوم أبداً بإظهار منشوراتك لهم.
13:22
The algorithm is prioritizing some of them and burying the others.
239
802080
5960
تقوم الخوارزمية بإعطاء الأولوية لبعضهم وبدفن ما تبقى.
13:29
Experiments show
240
809320
1296
تظهر التجارب
13:30
that what the algorithm picks to show you can affect your emotions.
241
810640
4520
أن ما تختار أن تظهره لك الخوارزميات يمكن أن يؤثر على عواطفك.
13:36
But that's not all.
242
816600
1200
لكن هذا ليس كل مافي الأمر.
13:38
It also affects political behavior.
243
818280
2360
بل إنها تؤثر أيضاً على السلوك السياسي.
13:41
So in 2010, in the midterm elections,
244
821360
4656
في عام 2010، في انتخابات منتصف فترة الحكم،
13:46
Facebook did an experiment on 61 million people in the US
245
826040
5896
أجرى "فيسبوك" تجربة على 61 مليون شخص في الولايات المتحدة.
13:51
that was disclosed after the fact.
246
831960
1896
والتي كُشف عنها بعد ما ظهرت الحقيقة.
13:53
So some people were shown, "Today is election day,"
247
833880
3416
حيث ظهر لبعض الناس "اليوم هو يوم الانتخابات،"
13:57
the simpler one,
248
837320
1376
وهو الإعلان الأبسط،
13:58
and some people were shown the one with that tiny tweak
249
838720
3896
وبعض الناس ظهر لهم الإعلان الذي يحتوي تلاعباً خفيفاً
14:02
with those little thumbnails
250
842640
2096
مع تلك الصور الصغيرة
14:04
of your friends who clicked on "I voted."
251
844760
2840
لأصدقائك الذين ضغطوا على "أنا قمت بالتصويت."
14:09
This simple tweak.
252
849000
1400
هذا التلاعب البسيط.
14:11
OK? So the pictures were the only change,
253
851520
4296
حسناً؟ إذاً الصور كانت هي التغيير الوحيد،
14:15
and that post shown just once
254
855840
3256
وذلك المنشور ظهر مرةً واحدة
14:19
turned out an additional 340,000 voters
255
859120
6056
قام بحشد 340,000 مصوتين إضافيين
14:25
in that election,
256
865200
1696
في تلك الحملة الانتخابية،
14:26
according to this research
257
866920
1696
وفقاً لهذا البحث
14:28
as confirmed by the voter rolls.
258
868640
2520
وكما تم تأكيده من قبل قوائم المصوتين.
14:32
A fluke? No.
259
872920
1656
مجرد حظ؟ لا.
14:34
Because in 2012, they repeated the same experiment.
260
874600
5360
لأنهم في عام 2012 أعادوا التجربة ذاتها.
14:40
And that time,
261
880840
1736
وتلك المرة،
14:42
that civic message shown just once
262
882600
3296
تلك الرسالة المدنية ظهرت مرة واحدة
14:45
turned out an additional 270,000 voters.
263
885920
4440
وقامت بحشد 270,000 مصوت إضافي.
14:51
For reference, the 2016 US presidential election
264
891160
5216
لأخذ العلم، الانتخابات الرئاسية في أمريكا لعام 2016
14:56
was decided by about 100,000 votes.
265
896400
3520
شارك فيها حوالي 100,000 صوت.
15:01
Now, Facebook can also very easily infer what your politics are,
266
901360
4736
الآن، يستطيع "فيسبوك" أيضاً بسهولة تامة أن يستنتج آراءك السياسية،
15:06
even if you've never disclosed them on the site.
267
906120
2256
حتى ولو لم تفصح عنها من قبل على الموقع.
15:08
Right? These algorithms can do that quite easily.
268
908400
2520
صحيح؟ هذه الخوارزميات يمكنها فعل ذلك بسهولة تامة.
15:11
What if a platform with that kind of power
269
911960
3896
ماذا لو قررت منصة بذلك النوع من القوة
15:15
decides to turn out supporters of one candidate over the other?
270
915880
5040
أن تجند الداعمين لأحد المرشحين ضد المرشح الآخر؟
15:21
How would we even know about it?
271
921680
2440
كيف سنعرف حتى أن هذا ما قد حدث؟
15:25
Now, we started from someplace seemingly innocuous --
272
925560
4136
لقد بدأنا الحديث من مكان ما لا يظهر أنه مؤذي...
15:29
online adds following us around --
273
929720
2216
إعلانات على الانترنت تتبعنا أينما ذهبنا...
15:31
and we've landed someplace else.
274
931960
1840
ثم وصلنا إلى مكان آخر.
15:35
As a public and as citizens,
275
935480
2456
بصفتنا الشعب وبصفتنا المواطنون،
15:37
we no longer know if we're seeing the same information
276
937960
3416
نحن لم نعد نعرف إذا كنا نرى جميعاً المعلومات نفسها
15:41
or what anybody else is seeing,
277
941400
1480
أو ماذا يرى أي أحد آخر،
15:43
and without a common basis of information,
278
943680
2576
ومن دون أساسيات عامة من المعلومات،
15:46
little by little,
279
946280
1616
شيئاً فشيئاً،
15:47
public debate is becoming impossible,
280
947920
3216
المناظرة العامة تصبح مستحيلة،
15:51
and we're just at the beginning stages of this.
281
951160
2976
ونحن لسنا إلا في المراحل الأولى لذلك.
15:54
These algorithms can quite easily infer
282
954160
3456
هذه الخوارزميات تستطيع بسهولة تامة أن تستنتج
15:57
things like your people's ethnicity,
283
957640
3256
أموراً مثل الأصل العرقي للناس،
16:00
religious and political views, personality traits,
284
960920
2336
آراء سياسية ودينية، والخصال السلوكية،
16:03
intelligence, happiness, use of addictive substances,
285
963280
3376
الذكاء، السعادة، تعاطي المواد المدمنة،
16:06
parental separation, age and genders,
286
966680
3136
إنفصال الوالديَن، العمر والجنس،
16:09
just from Facebook likes.
287
969840
1960
فقط من إعجابات "فيسبوك".
16:13
These algorithms can identify protesters
288
973440
4056
هذه الخوارزميات يمكنها أن تتعرف على المعارضين
16:17
even if their faces are partially concealed.
289
977520
2760
حتى ولو كانت وجوههم مخفية جزئياً.
16:21
These algorithms may be able to detect people's sexual orientation
290
981720
6616
هذه الخوارزميات قد تكون قادرة على اكتشاف الميول الجنسية للناس
16:28
just from their dating profile pictures.
291
988360
3200
فقط من صورهم الشخصية على مواقع المواعدة.
16:33
Now, these are probabilistic guesses,
292
993560
2616
إن هذه تخمينات احتمالية،
16:36
so they're not going to be 100 percent right,
293
996200
2896
لذا فهي لن تكون صحيحة مئة بالمئة،
16:39
but I don't see the powerful resisting the temptation to use these technologies
294
999120
4896
لكنني لا أرى أصحاب السيطرة يقاومون الإغراء لاستخدام هذه التقنيات
16:44
just because there are some false positives,
295
1004040
2176
فقط بسبب وجود بعض الإيجابيات المزيفة،
16:46
which will of course create a whole other layer of problems.
296
1006240
3256
والتي ستخلق بالطبع طبقة أخرى كاملة من المشاكل.
16:49
Imagine what a state can do
297
1009520
2936
تصوروا ماذا تستطيع ولاية أن تفعله
16:52
with the immense amount of data it has on its citizens.
298
1012480
3560
بالكم الهائل من البيانات التي تملكها عن مواطنيها.
16:56
China is already using face detection technology
299
1016680
4776
إن "الصين" تقوم من الآن باستخدام تقنية التحقق من الوجوه
17:01
to identify and arrest people.
300
1021480
2880
للتعرف على الناس واعتقالهم.
17:05
And here's the tragedy:
301
1025280
2136
وهنا تكمن المأساة:
17:07
we're building this infrastructure of surveillance authoritarianism
302
1027440
5536
نحن نبني هذه البنية التحتية من المراقبة الاستبدادية
17:13
merely to get people to click on ads.
303
1033000
2960
فقط لنحمل الناس على أن يضغطوا على الإعلانات.
17:17
And this won't be Orwell's authoritarianism.
304
1037240
2576
وهذا لن يكون الاستبداد الذي تحدث عنه "أورويل".
17:19
This isn't "1984."
305
1039839
1897
نحن لسنا في رواية "1984".
17:21
Now, if authoritarianism is using overt fear to terrorize us,
306
1041760
4576
إذا كان الاستبداد يستخدم الخوف العلني ليقوم بإرهابنا،
17:26
we'll all be scared, but we'll know it,
307
1046359
2897
سنكون جميعنا خائفين، لكننا سنكون على معرفة بالأمر،
17:29
we'll hate it and we'll resist it.
308
1049280
2200
سوف نكره ذلك وسنقوم بمقاومته.
17:32
But if the people in power are using these algorithms
309
1052880
4416
لكن لو كان الناس في السلطة يستخدمون هذه الخوارزميات
17:37
to quietly watch us,
310
1057319
3377
لتقوم بمراقبتنا في الخفاء،
17:40
to judge us and to nudge us,
311
1060720
2080
لتقوم بالحكم علينا والتحكم بنا،
17:43
to predict and identify the troublemakers and the rebels,
312
1063720
4176
لتقوم بالتعرف على وبالتنبؤ بمفتعلي المشاكل والمتمردين،
17:47
to deploy persuasion architectures at scale
313
1067920
3896
لتقوم بنشر هندسة الإقناع على مستوى ضخم
17:51
and to manipulate individuals one by one
314
1071840
4136
ولتتلاعب بالأفراد واحداً تلو الآخر
17:56
using their personal, individual weaknesses and vulnerabilities,
315
1076000
5440
باستخدام نقاط ضعفهم الشخصية ومكامن هشاشتهم،
18:02
and if they're doing it at scale
316
1082720
2200
وإذا كانوا يفعلون ذلك على مستوى ضخم
18:06
through our private screens
317
1086080
1736
عبر شاشاتنا الخاصة
18:07
so that we don't even know
318
1087840
1656
حيث لا نعلم حتى
18:09
what our fellow citizens and neighbors are seeing,
319
1089520
2760
ماذا يرى جيراننا والمواطنون أمثالنا،
18:13
that authoritarianism will envelop us like a spider's web
320
1093560
4816
فذلك الاستبداد سوف يحيط بنا كشبكة عنكبوت
18:18
and we may not even know we're in it.
321
1098400
2480
ونحن قد لا نعرف حتى أننا فيها.
18:22
So Facebook's market capitalization
322
1102440
2936
إذاً رسملة سوق "فيسبوك"
18:25
is approaching half a trillion dollars.
323
1105400
3296
تقترب من نصف تريليون دولار.
18:28
It's because it works great as a persuasion architecture.
324
1108720
3120
هذا لأنها تعمل بشكل ممتاز كهندسة إقناع.
18:33
But the structure of that architecture
325
1113760
2816
لكن بنية هذه الهندسة
18:36
is the same whether you're selling shoes
326
1116600
3216
هي ذاتها سواء كنت تشتري أحذية
18:39
or whether you're selling politics.
327
1119840
2496
أو كنت تبيع السياسة.
18:42
The algorithms do not know the difference.
328
1122360
3120
الخوارزميات لا تعرف الفرق.
18:46
The same algorithms set loose upon us
329
1126240
3296
الخوارزميات نفسها التي يتم إطلاقها علينا
18:49
to make us more pliable for ads
330
1129560
3176
لتجعلنا أكثر خضوعاً للإعلانات
18:52
are also organizing our political, personal and social information flows,
331
1132760
6736
هي أيضاً التي تقوم بتنظيم تدفق معلوماتنا السياسية والشخصية والاجتماعية،
18:59
and that's what's got to change.
332
1139520
1840
وهذا ما يجب أن يتم تغييره.
19:02
Now, don't get me wrong,
333
1142240
2296
والآن لا تسيئوا فهمي،
19:04
we use digital platforms because they provide us with great value.
334
1144560
3680
نحن نستخدم المنصات الرقمية لأنها تزودنا بفائدة كبيرة.
19:09
I use Facebook to keep in touch with friends and family around the world.
335
1149120
3560
أنا أستخدم "فيسبوك" لأبقى على تواصل مع الأصدقاء والعائلة حول العالم.
19:14
I've written about how crucial social media is for social movements.
336
1154000
5776
لقد كتبت عن مدى أهمية شبكات التواصل الاجتماعي في حركاتنا الاجتماعية.
19:19
I have studied how these technologies can be used
337
1159800
3016
لقد درست كيف يمكن أن تُستخدم هذه التقنيات
19:22
to circumvent censorship around the world.
338
1162840
2480
للتحايل على الرقابة حول العالم.
19:27
But it's not that the people who run, you know, Facebook or Google
339
1167280
6416
لكن الأمر ليس أن الناس الذين يديرون الشركات مثل "فيسبوك" و"جوجل"
19:33
are maliciously and deliberately trying
340
1173720
2696
يحاولون بشكل متعمد وضار
19:36
to make the country or the world more polarized
341
1176440
4456
أن يجعلوا من البلد أو العالم أكثر قطبيةً
19:40
and encourage extremism.
342
1180920
1680
ويشجعون على التطرف.
19:43
I read the many well-intentioned statements
343
1183440
3976
لقد قرأت التصاريح العديدة حسنة النية
19:47
that these people put out.
344
1187440
3320
التي يدلي بها هؤلاء الناس.
19:51
But it's not the intent or the statements people in technology make that matter,
345
1191600
6056
لكنها ليست النية أو التصريح الذي تخص الناس في عالم التكنولوجيا هي ما يهم،
19:57
it's the structures and business models they're building.
346
1197680
3560
بل الهياكل ونماذج العمل التي يبنونها.
20:02
And that's the core of the problem.
347
1202360
2096
وهذا هو جوهر المشكلة.
20:04
Either Facebook is a giant con of half a trillion dollars
348
1204480
4720
إما أن "فيسبوك" هو خدعة عملاقة تزن نصف ترليون دولار
20:10
and ads don't work on the site,
349
1210200
1896
والإعلانات لا تعمل على الموقع،
20:12
it doesn't work as a persuasion architecture,
350
1212120
2696
وهي لا تعمل كهندسة إقناع،
20:14
or its power of influence is of great concern.
351
1214840
4120
أو أن قوة التأثير لديه تشكل قلقاً كبيراً،
20:20
It's either one or the other.
352
1220560
1776
إنه إما واحدة أو الأخرى،
20:22
It's similar for Google, too.
353
1222360
1600
والأمر ينطبق على "جوجل" أيضاً.
20:24
So what can we do?
354
1224880
2456
إذاً ما الذي يمكننا فعله؟
20:27
This needs to change.
355
1227360
1936
يجب أن يتغير هذا.
20:29
Now, I can't offer a simple recipe,
356
1229320
2576
وأنا لا يسعني أن أقدم وصفة بسيطة،
20:31
because we need to restructure
357
1231920
2256
لأننا مضطرون لإعادة هيكلة
20:34
the whole way our digital technology operates.
358
1234200
3016
الطريقة التي تعمل بها تقنيتنا الرقمية بكاملها.
20:37
Everything from the way technology is developed
359
1237240
4096
كل شيء ابتداءً من الطريقة التي يتم فيها تطوير التقنية
20:41
to the way the incentives, economic and otherwise,
360
1241360
3856
وصولاً إلى الطريقة حيث المحفزات الاقتصادية وغيرها
20:45
are built into the system.
361
1245240
2280
يتم بناؤها في النظام.
20:48
We have to face and try to deal with
362
1248480
3456
يجب علينا أن نواجه ونحاول التعامل مع
20:51
the lack of transparency created by the proprietary algorithms,
363
1251960
4656
الفقر إلى الشفافية الذي تخلقه الخوارزميات الامتلاكية،
20:56
the structural challenge of machine learning's opacity,
364
1256640
3816
والتحدي الهيكلي في غموض تعلم الآلة،
21:00
all this indiscriminate data that's being collected about us.
365
1260480
3400
كل هذه البيانات التي يتم جمعها عنا بشكل عشوائي.
21:05
We have a big task in front of us.
366
1265000
2520
أمامنا مهمة كبيرة علينا القيام بها.
21:08
We have to mobilize our technology,
367
1268160
2680
يجب علينا أن نحشد تقنيتنا،
21:11
our creativity
368
1271760
1576
وإبداعنا،
21:13
and yes, our politics
369
1273360
1880
وأجل، سياستنا
21:16
so that we can build artificial intelligence
370
1276240
2656
حيث يمكننا أن نبني ذكاءً اصطناعياً
21:18
that supports us in our human goals
371
1278920
3120
يقوم بدعمنا في أهدافنا البشرية
21:22
but that is also constrained by our human values.
372
1282800
3920
لكنه أيضاً مقيّد بقيمنا الإنسانية.
21:27
And I understand this won't be easy.
373
1287600
2160
وأنا أفهم أن هذا لن يكون سهلاً.
21:30
We might not even easily agree on what those terms mean.
374
1290360
3600
نحن قد لا نتفق بسهولة حتى على ما تعنيه هذه المصطلحات.
21:34
But if we take seriously
375
1294920
2400
لكننا لو أخذنا بجدية
21:38
how these systems that we depend on for so much operate,
376
1298240
5976
كيف تعمل هذه الأنظمة التي نعتمد عليها بشدة
21:44
I don't see how we can postpone this conversation anymore.
377
1304240
4120
فأنا لا أرى كيف يسعنا أن نؤجل هذه المحادثة أكثر من ذلك.
21:49
These structures
378
1309200
2536
هذه الهياكل
21:51
are organizing how we function
379
1311760
4096
تقوم بتنظيم كيف نعمل
21:55
and they're controlling
380
1315880
2296
وهي تتحكم
21:58
what we can and we cannot do.
381
1318200
2616
بما يمكننا وما لا يمكننا فعله.
22:00
And many of these ad-financed platforms,
382
1320840
2456
والعديد من هذه المنصات التي تكسب ربحها بالإعلانات،
22:03
they boast that they're free.
383
1323320
1576
تتباهي بأنها مجانية.
22:04
In this context, it means that we are the product that's being sold.
384
1324920
4560
في هذا السياق، هذا يعني أننا نحن المنتج الذي يتم بيعه.
22:10
We need a digital economy
385
1330840
2736
نحن نحتاج اقتصاداً رقمياً
22:13
where our data and our attention
386
1333600
3496
حيث بياناتنا وانتباهنا
22:17
is not for sale to the highest-bidding authoritarian or demagogue.
387
1337120
5080
ليست للبيع من أجل أكثر من يدفع من الاستبداديين أو الدهماويين.
22:23
(Applause)
388
1343160
3800
(تصفيق)
22:30
So to go back to that Hollywood paraphrase,
389
1350480
3256
لذا دعونا نعد إلى تلك العبارة الهوليوودية التي أعدت صياغتها،
22:33
we do want the prodigious potential
390
1353760
3736
نحن نريد بالفعل الإمكانات غير العادية
22:37
of artificial intelligence and digital technology to blossom,
391
1357520
3200
للذكاء الاصطناعي والتقنية الرقمية أن تزدهر،
22:41
but for that, we must face this prodigious menace,
392
1361400
4936
لكن من أجل ذلك، يجب أن نواجه هذا التهديد غير العادي،
22:46
open-eyed and now.
393
1366360
1936
بعيون مفتوحة والآن.
22:48
Thank you.
394
1368320
1216
شكراً لكم.
22:49
(Applause)
395
1369560
4640
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7