How AI Could Hack Democracy | Lawrence Lessig | TED

43,697 views ・ 2024-11-05

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Tarig Abdalla Eltom المدقّق: Hani Eldalees
00:03
So on January 6, 2021
0
3580
5520
في 6 يناير 2021
00:09
my nation suffered a little bit of a democracy heart attack.
1
9140
5360
عانت أمتي من أزمة ديمقراطية
00:15
Thousands of Americans had been told that the election had been stolen,
2
15820
4520
عندما قيل لآلاف الأميركيين أن الانتخابات تم التلاعب بها،
00:20
and tens of thousands of them showed up
3
20380
3320
فظهر عشرات الآلاف منهم في الشوارع
00:23
because they believed the election had been stolen.
4
23740
3920
لأنهم صدقوا أن الانتخابات تم التلاعب بها،
00:29
And indeed, in polling immediately after January 6,
5
29260
3960
وفي الواقع، في استطلاعات للرأي أجريت مباشرة بعد السادس من يناير،
00:33
“The Washington Post” found 70 percent of Republicans believed
6
33220
5160
وجدت صحيفة “واشنطن بوست” أن 70% من الجمهوريين صدقوا
00:38
the election had been stolen,
7
38420
2120
أن الانتخابات تم التلاعب بها،
00:40
and a majority of college-educated Republicans believed
8
40580
5080
وكانت أغلبية الجمهوريين الحاصلين على تعليم جامعي على قناعة
00:45
the election had been stolen.
9
45700
1840
بأن الانتخابات تم التلاعب بها،.
00:47
That was their perception.
10
47580
2240
كان هذا تصورهم.
00:51
And I don't know what the right way to act on that perception is.
11
51140
3560
ولا أعلم ما هي الطريقة الصحيحة للتصرف بناء على هذا التصور،
00:54
They thought the right way was to defend
12
54740
3120
لقد اعتقدوا أنهم يدافعون
00:57
what they thought was a democracy stolen.
13
57900
3680
عن ديمقراطية تتعرض للاعتداء.
01:03
Now, these numbers were astonishing:
14
63220
3040
الأرقام التي كشف عنها الاستطلاع كانت مذهلة:
01:06
30 percent or two thirds of Republicans believing the election was stolen.
15
66260
4320
30 بالمائة أو ثلثا الجمهوريين صدقوا أن الانتخابات تم العبث بها.
01:10
But even more extraordinary are these numbers.
16
70580
3720
ولكن الأكثر غرابة هي هذه الأرقام.
01:15
The fact that in the three years since that astonishing event,
17
75340
6160
في السنوات الثلاث التي مرت منذ ذلك الحدث المذهل،
01:21
the numbers have not changed.
18
81500
2120
لم تتغير الأرقام.
01:24
The same number believe today that the election was stolen
19
84340
3360
يؤمن ذات العدد اليوم أن الانتخابات تم التلاعب بها
01:27
as believed it was stolen three years ago,
20
87740
2200
وهو ذات الاعتقاد منذ ثلاث سنوات،
01:29
despite the fact that we've had investigations
21
89980
2760
على الرغم من حقيقة أننا أجرينا تحقيقات في الأمر،
01:32
and overwhelming evidence that there was no fraud
22
92780
2840
ووصلنا إلى أدلة قاطعة تنفي وجود أي احتيال
01:35
sufficient to ever change even a single state.
23
95660
4120
يكفي لتغيير نتيجة ولاية واحدة
01:39
This is something new.
24
99820
1480
هذا شيء جديد .
01:42
When Richard Nixon went through the Watergate scandal,
25
102020
2840
عندما ظهرت فضيحة ووترجيت في عهد ريتشارد نيكسون،
01:44
as the news was being reported,
26
104900
2160
وبينما كانت أخبار الفضيحة تُذاع،
01:47
Nixon's popularity collapsed not just among Democrats,
27
107100
3840
انهارت شعبية نيكسون ليس فقط بين الديمقراطيين،
01:50
but among independents and Republicans.
28
110980
2360
ولكن أيضًا بين المستقلين والجمهوريين.
01:53
But we're at a stage where it doesn't matter what happens.
29
113980
4240
لكننا الآن في مرحلة لم يعد يهمنا فيها ما يحدث.
01:58
This is Donald Trump's popularity over the course of his administration.
30
118260
4840
هذه هي مؤشرات شعبية دونالد ترامب خلال فترة إدارته.
02:03
Nothing changes.
31
123620
1520
لا شيء يتغير.
02:05
The facts don't matter.
32
125140
2600
الحقائق لا تهم.
02:08
Now I think this truth should bother us a lot.
33
128540
5000
والآن أعتقد أن هذه الحقيقة يجب أن تزعجنا كثيرًا.
02:14
I think we need to develop a kind of paranoia
34
134620
3840
أعتقد أننا بحاجة إلى استشعار الخطر أكثر، إلى نوع من جنون الاضطهاد،
02:18
about what produces this reality.
35
138460
3440
حول ما يسبب هذه الظاهرة.
02:21
A particular paranoia, the paranoia of the hunted.
36
141940
4080
شعور أننا مطاردون أو مراقبون،
02:26
Think of the kids in "The Birds"
37
146340
3080
مثل شعور الأطفال في فيلم “ذا بيردز”
02:29
first realizing that those crows were attacking them,
38
149460
2960
أولاً، أدركوا أن تلك الغربان كانت تهاجمهم،
02:32
or "Black Mirror's" Metalheads,
39
152460
2160
أو ذوي الرؤوس المعدنية في فيلم “بلاك ميرور”،
02:34
when you see these creatures chasing and surrounding you.
40
154660
4240
عندما ترى هذه المخلوقات تطاردك وتحيط بك.
02:38
The point is, we need to recognize
41
158900
1960
ما أقصده هو أننا بحاجة إلى إدراك
02:40
that there is an intelligence out there to get us.
42
160900
6280
أنه يوجد ذكاء هناك، يحاول النيل منا
02:47
Because our perceptions,
43
167780
3640
لأن تصوراتنا،
02:51
our collective perceptions,
44
171460
1960
تصوراتنا الجماعية،
02:53
our collective misimpressions
45
173460
3200
انطباعاتنا الخاطئة الجماعية
02:56
are not accidental.
46
176660
1520
لم تكن حدثًا عارضًا،
02:58
They are expected, they are intended,
47
178780
2160
ما حدث كان متوقعًا. كان مقصودًا
03:00
they are the product of the thing.
48
180940
4000
هو نتائج “للشيء”
03:05
(Laughter)
49
185300
1160
(ضحك)
03:06
OK, I want to be careful introducing the thing.
50
186500
2680
حسنًا، سأكون حذرًا عندما أذكر هذا “الشيء“.
03:10
I'm going to talk a little bit about AI, but I'm not going to slag on AI.
51
190020
3480
سأتحدث قليلاً عن الذكاء الاصطناعي، ولكنني لن أسيء إليه.
03:13
I think AI is the most extraordinary technology
52
193540
3400
أعتقد أن الذكاء الاصطناعي هو أكثر التقنيات المدهشة،
03:16
humanity has ever even conceived of.
53
196980
2680
هو ما لم تتخيل البشرية إطلاقًا أنها قادرة على إنتاجه.
03:19
But I also think it has the potential to end humanity.
54
199700
5320
ولكنني أعتقد أيضًا أنه قد يؤدي أيضًا إلى القضاء على البشرية.
03:25
But I'm not going to slag on AI,
55
205420
1560
لكنني لن أهاجم الذكاء الاصطناعي،
03:27
because I'm pretty sure that our robot overlord
56
207020
2560
لأنني متأكد تمامًا من أن “سيدنا الروبوت”
03:29
is going to be listening to these TED talks someday,
57
209620
2960
سوف يستمع إلى محادثات TED هذه يومًا ما،
03:32
and I don't want to be on the wrong side of the overlord.
58
212620
2760
وأنا لا أريد أن يغضب مني سيدنا الروبوت!.
لذا فإن الذكاء الاصطناعي “أموره طيبة“!.
03:35
So AI is just fine.
59
215420
1360
03:36
I'm not going to talk about this AI first.
60
216820
2000
لن أتحدث عن هذا الذكاء الاصطناعي أولاً.
03:38
I want to instead put AI in a little bit of a perspective,
61
218860
4880
أريد بدلاً من ذلك أن أضعه في منظور مختلف قليلاً،
03:43
because I think that we're too obsessed with the new,
62
223740
4080
لأنني أعتقد أننا مهووسون جدًا بالجديد،
03:47
and we fail to recognize the significance of AI in the old.
63
227860
5280
ونحن نفشل في إدراك أهمية الذكاء الاصطناعي القديم.
03:53
We think about intelligence,
64
233820
1440
نحن نفكر في الذكاء،
03:55
and we're distinguishing between artificial and natural intelligence.
65
235300
3640
ونحن نفرق بين الذكاء الاصطناعي والذكاء الطبيعي.
03:58
And we, of course, as humans,
66
238980
1400
ونحن، بطبيعة الحال، كبشر،
04:00
claim pride of kingdom in the world of natural intelligence.
67
240420
4360
نزعم بأننا على قمة عالم الذكاء الطبيعي.
04:05
And then we build artificial intelligence.
68
245420
2440
ومن ثم نقوم ببناء الذكاء الاصطناعي.
04:07
It's intelligence that we make.
69
247900
1760
هو ذكاءٌ نصنعه نحن.
04:09
But here's the critical point.
70
249700
1600
وهنا تكمن نقطة دقيقة:
04:11
We have already, for a long time,
71
251860
4320
الواقع أننا عشنا مع أنظمة الذكاء الاصطناعي
04:16
lived with systems of artificial intelligence.
72
256220
2720
لفترات طويلة من الزمن
04:18
I don't mean digital AI,
73
258980
2560
لا أقصد هنا الذكاء الاصطناعي الرقمي،
04:21
I mean analog AI.
74
261580
1360
وإنما أقصد الذكاء الاصطناعي “التقليدي“.
04:24
Any entity or institution that we build with a purpose
75
264340
4240
أي كيان أو مؤسسة نبنيها لغرض ما
04:28
that acts instrumentally in the world is in this sense an AI.
76
268620
5040
أي شيء يعمل بشكل فعال في العالم فهو بهذا المعنى ذكاء اصطناعي.
04:34
It is an instrumentally rational entity that's mapping how it should behave,
77
274620
4680
فهو كيان عقلاني منظم يرسم خريطة لكيفية التصرف،
04:39
given the way the world evolves and responds to it.
78
279340
3000
نظراً للطريقة التي يتطور بها العالم ويستجيب لها.
04:42
So think about democracy as an AI.
79
282340
3560
لذا فكر في الديمقراطية باعتبارها ذكاءً اصطناعيًا.
04:46
It has institutions, elections, parliaments, constitutions
80
286300
4000
لديها مؤسسات وانتخابات وبرلمانات ودساتير
04:50
for the purpose of some collective ends.
81
290300
3800
من أجل تحقيق بعض الغايات الجماعية.
04:54
Our Constitution says it's for the common good.
82
294100
3560
يقول دستورنا أن الديمقراطية من أجل الصالح العام.
04:57
So the democracy in our Constitution is an analog artificial intelligence
83
297700
6040
لذا فإن الديمقراطية حسب دستورنا هي ذكاء اصطناعي تقليدي
05:03
devoted to the common good.
84
303780
2040
مخصص للصالح العام.
05:06
Or think about corporations as an AI.
85
306460
3040
أو فكر في الشركات باعتبارها ذكاءًا اصطناعيًا
05:09
They have institutions, boards, management, finance,
86
309540
3040
لديها مؤسسات ومجالس وإدارة وتمويل،
05:12
for the purpose of making money, or at least conceived of narrowly,
87
312620
3640
بغرض جني المال، لو نظرنا لها فقط من هذه الزاوية،
05:16
today, that’s the way it is.
88
316260
1360
اليوم، هكذا هو الحال.
05:17
There corporation is an analog intelligence devoted to maximizing
89
317660
3840
إن هذه الشركة عبارة عن ذكاء تقليدي مخصص لتحقيق أقصى ربحية
05:21
shareholder value.
90
321500
1320
لأسهم الشركة
05:22
These are AIs.
91
322860
1840
هذا الشركات “ذكاءات اصطناعية“.
05:25
They have purposes and objectives sometimes complementing each other.
92
325940
4600
تتكامل أهداف الشركة أحيانًا مع أهداف المجتمع،
05:31
So the purpose of a school bus company
93
331020
2120
كمثال: الغرض من شركة الحافلات المدرسية
05:33
complements the purpose of a school board
94
333140
2280
أنها تكمل غرض مجلس المدرسة،
05:35
to produce school bus transportation in a district.
95
335460
3080
في إنتاج حافلات النقل المدرسية في منطقة ما.
05:38
That's just beautiful.
96
338580
1720
وهذا جميل جدًا.
05:41
But sometimes they're competing.
97
341060
2000
لكن في بعض الأحيان تتقاطع الأهداف،
05:43
The purpose of a government and having a clean environment
98
343660
2720
بينما تهدف الحكومة إلى وجود بيئة نظيفة،
05:46
conflicts with the purpose of a coal company
99
346380
2320
فإن ذلك يتعارض مع غرض شركة الفحم،
05:48
designing to produce electricity
100
348740
2360
المصممة لإنتاج الكهرباء،
05:51
by spewing carbon and soot into the environment.
101
351140
3880
بوقود الفحم الذي يطلق الكربون والسخام في البيئة.
05:55
And when they conflict, we tell ourselves this happy story.
102
355060
3520
وعندما تتقاطع الأهداف، نحكي لأنفسنا هذه القصة السعيدة،
05:59
We tell ourselves the story that democracy is going to stand up
103
359180
3920
نطمئن أنفسنا أن الديمقراطية سوف تنهض
06:03
and discipline that evil corporation.
104
363140
3360
وتأدب تلك الشركة الشريرة الملوثة للبيئة،
06:06
To get the corporation to do the right thing,
105
366500
2120
لإجبارهاعلى الامتثال للوضع الصحيح،
06:08
to do the thing that's in the interest of all of us.
106
368620
3000
أن تفعل الشيء الذي هو في مصلحتنا جميعًا.
06:11
That's our happy story.
107
371660
1240
هذه قصتنا السعيدة
06:12
It's also a fantasy.
108
372940
1760
وطبعًا هي مجرد خيال.
06:15
Because at least in my country,
109
375980
3520
لأنه؛ على الأقل في بلدي،
06:19
corporations are more effective AIs than democracy.
110
379540
5160
الشركات هي أنظمة ذكاء اصطناعي أكثر فعالية من الديمقراطية.
06:25
Think about it a little bit like this.
111
385140
1840
فكر في الأمر بهذه الطريقة قليلا.
06:27
If we think about instrumental rationality along one axis of this graph
112
387020
4120
إذا فكرنا في العقلانية المنظّمة على أحد محاور هذا الرسم البياني
06:31
and time across the other,
113
391140
1520
والزمن عبر المحور الآخر،
06:32
humans, of course, are the first instrumentally rational entity
114
392660
3200
الإنسان، بطبيعة الحال، هو أول كيان عقلاني منظم
06:35
we care about, we're better than cows.
115
395900
2600
نحن نهتم بالعمل، نحن أفضل من الأبقار!.
06:38
Maybe not as good as ants, but the point is,
116
398540
2400
ربما لا نكون منظمين مثل النمل، ولكن القصد هو،
06:40
we're pretty good as individuals
117
400980
3080
أننا جيدون جدًا كأفراد
06:44
figuring out how to do things strategically.
118
404100
3160
نعرف كيف ندبر أمورنا بطريقة استراتيجية.
06:47
And then we built democracy to do that a little bit better,
119
407900
3480
وعليه قمنا ببناء الديمقراطية لتنظيم أمورنا بشكل أفضل قليلاً،
06:51
to act collectively for all of us.
120
411380
1840
ولنستطيع العمل بشكل جماعي، من أجلنا جميعا.
06:53
And that's a more instrumentally rational entity
121
413260
2680
وهذا هو الكيان الجماعي هو الأكثر عقلانية من الناحية العملية،
06:55
than we, individual humans, can be.
122
415940
2320
منا نحن البشر كأفراد متفرقين.
06:58
Then we created corporations.
123
418260
2120
ثم أنشأنا الشركات.
07:01
And it turns out, they have become, at least in corrupted political regimes —
124
421580
3760
وقد اتضح أن الشركات أصبحت، على الأقل في الأنظمة السياسية الفاسدة —
07:05
which, I’ll just submit, my political regime is —
125
425340
2920
والذي سأقوله فقط، هو أن نظامي السياسي هو —
07:08
better than democracy
126
428260
3160
أفضل من الديمقراطية
07:11
in bringing about their objective ends.
127
431460
3640
في تحقيق الأهداف الموضوعية لتلك الشركات.
07:15
Now, of course, in this system,
128
435580
1640
الآن، بالطبع، في هذا النظام،
07:17
each of these layers has an aspiration to control the higher layer.
129
437260
3600
كل طبقة من هذه الطبقات لديها طموح للسيطرة على الطبقة الأعلى.
07:21
So humans try to control democracy through elections.
130
441300
3400
لذلك يحاول البشر السيطرة على الديمقراطية من خلال الانتخابات.
07:24
Democracy tries to control corporations through regulation.
131
444740
3520
تحاول الديمقراطية السيطرة على الشركات من خلال التنظيم.
07:29
But the reality of control is, of course, a little bit different.
132
449020
4080
لكن الواقع بخصوص هذه السيطرة مختلف قليلًا
07:33
In the United States, corporations control democracy
133
453940
2720
في الولايات المتحدة، تسيطر الشركات على الديمقراطية
07:36
through the extraordinary amount of money they pour into elections,
134
456700
3200
من خلال المبالغ الهائلة من المال التي ينفقونها في الانتخابات،
07:39
making our representatives dependent not on us, but on them.
135
459940
3480
مما جعل النواب المنتخبين تابعين للشركات وليس لنا نحن.
07:44
And democracy then controls the humans
136
464340
4680
والديمقراطية تسيطر على البشر
من خلال التمثيل النيابي بالانتخاب،
07:49
by making representation,
137
469060
1200
07:50
not actually representation, corrupting representation.
138
470300
3320
ليس تمثيلًا فعليًا، بل هو تمثيل فاسد.
07:54
Now, this structure, this layer of higher order intelligence
139
474380
4520
الآن، هذا الهيكل، هذه الطبقة من الذكاء من الدرجة الأعلى
07:58
or instrumental rationality might evoke,
140
478940
2760
قد تذكرنا هذه العقلانية المنظمة،
08:01
for those of you who think about AI,
141
481740
2560
والحديث هنا عن الذكاء الاصطناعي،
08:04
a statement by the godfather of AI, Geoffrey Hinton.
142
484300
3320
قد تذكرنا بمقولة للأب الروحي للذكاء الاصطناعي، جيفري هينتون.
08:08
Hinton warns us,
143
488780
1360
حيث يحذرنا هينتون قائلًا:
08:10
"There are a few examples of a more intelligent thing
144
490180
4480
“هناك أمثلة لأشياء أكثر ذكاءً
08:14
being controlled by a less intelligent thing."
145
494660
2480
“تتحكم بها أشياء أقل ذكاءً.”
08:18
Or we could say,
146
498380
1240
أو يمكننا أن نقول،
08:19
a more instrumentally rational thing
147
499660
2640
أشياء أكثر تنظيمًا عقلانيًا،
08:22
being controlled by a less instrumentally rational thing.
148
502340
3360
يتم التحكم بها بواسطة أشياء أقل تنظيمًا عقلانيًا.
08:26
And that is consistent with this picture of AIs.
149
506620
4640
وهذا يتوافق مع صورة الذكاء الاصطناعي هذه.
08:31
And then we add digital AI into this mix.
150
511300
3800
وبعد ذلك نضيف الذكاء الاصطناعي الرقمي إلى هذا المزيج.
08:35
And here too, once again,
151
515100
1240
وهنا أيضا، مرة أخرى،
08:36
we have corporations attempting to control their digital AI.
152
516380
5360
لدينا شركات تحاول السيطرة على الذكاء الاصطناعي الرقمي الخاص بها.
08:43
But the reality of that control is not quite perfect.
153
523020
4400
لكن واقع هذه السيطرة ليس مثاليًا تماما.
08:48
Facebook, in September of 2017,
154
528300
3800
في فيسبوك، في سبتمبر 2017،
08:52
was revealed to have a term in their ad system
155
532140
5800
تم الكشف عن وجود مصطلح في نظام الإعلانات لفيسبوك
08:57
called "Jew Haters."
156
537980
1480
المصطلح هو “كارهو اليهود“.
08:59
You could buy ads targeting Jew haters.
157
539780
3440
فيمكنك شراء إعلانات تستهدف كارهي اليهود.
09:03
Now, nobody in Facebook created that category.
158
543620
3720
فئة كارهي اليهود هذه لم ينشئها أحد في فيسبوك
09:07
There was not a human in Facebook who decided
159
547380
2360
لم يكن ثمة إنسان في فيسبوك أصدر قرارًا بأن:
09:09
"We're going to start targeting Jew haters."
160
549780
2160
“سوف نسوق اعلانات لكارهي اليهود.”
09:11
Its AI created that category
161
551980
3520
هذه الفئة “خلقها” الذكاء الاصطناعي
09:15
because its AI figured Jew haters would be a profitable category
162
555540
3240
لأن الذكاء الاصطناعي لفيسبوك تصور أن كارهي اليهود سيكونون فئة مربحة
09:18
for them to begin to sell ads to,
163
558820
2840
لكي يبدأوا في بيع الإعلانات لهم،
09:21
and the company was, of course, embarrassed
164
561660
2040
شعرت الشركة بالحرج طبعًا،
09:23
that it turned out they didn't actually have control
165
563740
2680
لأنه تبين أنهم ليس لديهم سيطرة فعلية على الآلة
09:26
over the machine that ran their machines that run our lives.
166
566420
4120
التي تدير آلاتهم التي هي تدير حياتنا.
09:30
The real difference in this story, though,
167
570580
2680
الفرق الحقيقي في هذه القصة، مع ذلك،
09:33
is the extraordinary potential
168
573260
3720
هي الإمكانات الهائلة جدًا
09:37
of this instrumentally rational entity
169
577020
3280
لهذا الكيان العقلاني المنظّم،
09:40
versus us.
170
580300
1640
في مقابل إمكانياتنا البشرية.
09:41
This massively better instrumentally rational entity
171
581980
3920
هذا الكيان العقلاني المنظّم، والذي هو الأفضل على الإطلاق،
09:45
versus even corporations and certainly democracies,
172
585940
2960
مقابل إمكانيات الشركات والديمقراطيات بالتأكيد،
09:48
because it's going to be more efficient at achieving its objective than we are.
173
588940
5040
لأنه سيكون أكثر كفاءة في تحقيق أهدافه منّا نحن.
09:54
And here's where we cue the paranoia I began to seed
174
594020
4120
وهذا تحديدًا ما يجب أن يجعلنا نطلق العنان لجنون الاضطهاد،
09:58
because our collective perceptions, our collective misperceptions
175
598180
5800
لأن تصوراتنا الجماعية، وتصوراتنا الخاطئة الجماعية
10:04
are not accidental.
176
604020
1680
ليست عرضية.
10:05
They are expected, intended, the product of this AI.
177
605740
5440
بل مقصودة ومتوقعة كنتاجٍ لهذا الذكاء الاصطناعي.
10:11
We could think of it as the AI perception machine.
178
611180
3680
يمكننا أن نفكر فيه باعتباره آلة الإدراك بالذكاء الاصطناعي.
10:14
We are its targets.
179
614900
2040
نحن أهدافه.
10:19
Now, the first contact we had with this AI,
180
619460
2520
أول اتصال “تجربة” لنا مع هذا الذكاء الاصطناعي،
10:22
as Tristan Harris described it,
181
622020
1800
كما وصفه تريستان هاريس،
10:23
came from social media.
182
623860
2440
جاء من وسائل التواصل الاجتماعي.
10:26
Tristan Harris, who started the Center for Humane Technology,
183
626940
3440
تريستان هاريس، الذي أنشأ مركز التكنولوجيا الإنسانية،
10:30
cofounded it, famous in this extraordinary documentary,
184
630420
3880
وشارك في تأسيسه، واشتهر في هذا الفيلم الوثائقي الاستثنائي،
10:34
"The Social Dilemma,"
185
634300
1200
"المعضلة الاجتماعية"
10:35
before he was famous, he was just an engineer at Google.
186
635540
2880
قبل أن يصبح مشهورًا، كان مجرد مهندس في غوغل.
10:38
And at Google, he was focused on the science of attention
187
638420
3920
وفي غوغل، كان يركز على علم الانتباه،
10:42
using AI to engineer attention,
188
642380
2320
استخدام الذكاء الاصطناعي لهندسة الانتباه،
10:44
to overcome resistance,
189
644740
2800
للتغلب على المقاومة،
10:47
to increase human engagement with the platform
190
647540
3920
لزيادة التفاعل البشري مع منصة غوغل.
10:51
because engagement is the business model.
191
651500
3320
لأن التفاعل هو محور العمل التجاري لغوغل.
10:55
Compare this to, think of it as brain hacking.
192
655660
3440
قارن هذا بـ، فكر فيه باعتباره اختراقًا للعقل.
10:59
We could compare it to what we could call body hacking.
193
659100
2680
يمكننا مقارنته بما يمكن أن نسميه اختراق الجسم.
11:02
This is the exploiting of food science.
194
662100
2560
هذا هو استغلال علم الغذاء.
11:04
Scientists engineer food to exploit our evolution,
195
664700
3920
يقوم العلماء بهندسة الغذاء لاستغلال تطورنا،
11:08
our mix of salt, fat and sugar,
196
668660
1960
عبر مزيج من الملح والدهون والسكر،
11:10
to overcome the natural resistance
197
670620
1760
للتغلب على المقاومة الطبيعية
11:12
so you can't stop eating food.
198
672420
3040
لذلك لا يمكنك التوقف عن تناول الطعام.
11:16
So that they can sell food or sell, "food" more profitably.
199
676300
4400
لكي يتمكنوا من بيع الطعام أو بيع "الطعام" بشكل أكثر ربحية.
11:20
Brain hacking is the same, but focused on attention.
200
680700
2880
اختراق الدماغ مشابه لهذا، ولكن مع التركيز على “الانتباه“.
11:24
It's exploiting evolution.
201
684260
1720
فهو يستغل التطور.
11:26
The fact that we have an irrational response to random rewards,
202
686580
3480
إن حقيقة أن لدينا استجابة غير عقلانية للمكافآت العشوائية،
11:30
or can't stop consuming bottomless pits of content
203
690100
4880
أو لا يمكن التوقف عن استهلاك كميات لا حصر لها من المحتوى
11:35
with the aim to increase engagement,
204
695020
2840
بهدف زيادة التفاعل،
11:37
to sell more ads.
205
697900
1920
لبيع المزيد من الإعلانات.
11:40
And it just so happens, too bad for us,
206
700140
3320
نعم يفعلون ذلك بنا. وهو أمر سيئ جدًا،
11:43
that we engage more
207
703500
2320
كلما تفاعلنا أكثر،
11:45
the more extreme, the more polarizing,
208
705820
2600
زاد التطرف، زاد الانقسام،
11:48
the more hate-filled this content is.
209
708460
3880
كلما زادت الكراهية في هذا المحتوى.
11:52
So that is what we're fed by these AIs.
210
712340
4920
وهذا ما تغذيه عندنا هذه الذكاءات الاصطناعية.
11:58
With the consequence
211
718180
2000
والنتيجة،
12:00
that we produce a people more polarized and ignorant and angry
212
720220
5160
أننا ننتج شعبًا أكثر انقسامًا وجهالة وغضبًا،
12:05
than at any time in democracy's history in America
213
725420
3360
أكثر من أي وقت مضى في تاريخ الديمقراطية في أمريكا،
12:08
since the Civil War
214
728820
1560
منذ الحرب الأهلية.
12:10
and democracy is thereby weakened.
215
730420
2360
وبالتالي تضعف الديمقراطية.
12:13
They give us what we want.
216
733140
2400
إنهم يعطوننا ما نريد.
12:16
What we want makes us into this.
217
736060
4200
ما نريده هو الذي يجعلنا نصل إلى هذا.
12:21
OK, but recognize something really critically important.
218
741140
2720
حسنًا، ولكن يجب أن ندرك شيئًا مهمًا للغاية.
12:23
This is not because AI is so strong.
219
743900
2880
لا يرجع هذا إلى أن الذكاء الاصطناعي قوي جدًا.
12:27
It's because we are so weak.
220
747620
2720
بل لأننا ضعفاء جداً.
12:31
Here's Tristan Harris describing this.
221
751900
1880
وهنا تريستان هاريس يصف هذا الأمر.
12:33
(Video) "We're all looking out for the moment
222
753820
2120
(فيديو) “نحن جميعًا نترقب اللحظة،
12:35
when technology would overwhelm human strengths and intelligence.
223
755940
3480
التي تتغلب فيها التكنولوجيا على قوة الإنسان وذكائه.
12:39
When is it going to cross the singularity,
224
759460
2040
متى سيتغلب منفردًا على البشر كلهم،
12:41
replace our jobs,
225
761540
1160
ويستولى على وظائفهم،
12:42
be smarter than humans?
226
762740
1360
ويكون أذكى منهم..
12:44
But there's this much earlier moment
227
764420
2800
ولكن هناك لحظة أسبق بكثير من هذه،
12:47
when technology exceeds and overwhelms human weaknesses.
228
767260
4320
وهي عندما تتفوق التكنولوجيا وتتغلب على نقاط الضعف البشرية.
12:53
This point being crossed is at the root of addiction, polarization,
229
773900
5080
إن تمكنت من ذلك، فيمكنها استغلالها لجرّنا إلى الإدمان، الانقسامات،
12:59
radicalization, outrage-ification, vanity-ification, the entire thing.
230
779020
3840
التطرف، والغضب، والغرور، كل هذا.
13:04
This is overpowering human nature.
231
784100
2240
ليكون أسوأ استغلال للطبيعة البشرية،
13:06
And this is checkmate on humanity."
232
786940
2800
ولتكون هذه “الضربة القاضية” للبشرية.”
13:10
Lawrence Lessig: So Tristan’s point is we’re always focused
233
790420
2840
لورانس ليسيج: لذا فإن وجهة نظر تريستان هي أننا نركز دائمًا
13:13
on this corner, when AGI comes,
234
793260
3800
في هذه الزاوية، عندما يأتي AGI،
13:17
when it's super intelligent,
235
797100
1720
عندما يكون فائق الذكاء،
13:18
when it's more intelligent than any of us.
236
798860
2440
عندما يكون أكثر ذكاءً من أي واحد منا.
13:21
And that's what we now fear.
237
801300
2200
وأن هذا ما نخشاه الآن.
13:23
Whether we will get there in three years or 20 years,
238
803500
3120
سواء كنا سنصل إلى هناك في غضون ثلاث سنوات أو عشرين عامًا،
13:26
what will happen then?
239
806620
1200
ما الذي سيحدث عندها..
13:27
But his point is, it's actually this place
240
807860
3960
لكن وجهة نظره هي أن هذه النقطة،
13:31
that we must begin to worry,
241
811820
2560
هي حيث يجب أن نبدأ بالقلق،
13:34
because at this place, it can overcome our weaknesses.
242
814420
4400
لأنه في هذه الحالة، يمكنه التغلب على نقاط ضعفنا.
13:39
"The Social Dilemma"
243
819460
1160
فيلم “المعضلة الاجتماعية” أشار إلى جوانب الضعف فينا كأفراد،
13:40
was about the individual weaknesses we have,
244
820660
2320
13:42
not to be able to turn away from our phones,
245
822980
2760
عدم القدرة على الابتعاد عن هواتفنا،
13:45
or to convince our children to turn away from their phones.
246
825780
3640
أو لإقناع أطفالنا بالابتعاد عن هواتفهم.
13:49
But I want you to see that there's also a collective human weakness.
247
829460
4560
ولكن أريدكم أن تروا أن هناك أيضًا ضعفًا إنسانيًا جماعيًا.
13:54
That this technology drives us to disable our capacity to act collectively
248
834540
5160
أن هذه التكنولوجيا تعطل قدرتنا على العمل الجماعي
13:59
in ways that any of us would want.
249
839700
2480
بكل أشكاله
14:02
So we are surrounded individually by these metalheads,
250
842220
4240
لذا فنحن كأفراد محاطون بذوي الرؤوس المعدنية هؤلاء،
14:06
and we are also surrounded as a people
251
846500
3680
ونحن أيضًا محاصرون كشعب
14:10
by these metalheads
252
850180
1200
بذوي الرؤوس المعدنية هؤلاء
14:11
long before AGI is anywhere on the horizon.
253
851420
4400
قبل وقت طويل من ظهور الذكاء الاصطناعي العام في الأفق.
14:15
It overwhelms us.
254
855820
1560
إنه يغلبنا.
14:17
AI gets us to do what it seeks,
255
857700
3680
الذكاء الاصطناعي يجعلنا نفعل ما يسعى إليه،
14:21
which is engagement,
256
861380
2840
وهو التفاعل،
14:24
and we get democracy hacked in return.
257
864260
5320
وما نحصل عليه نحن في المقابل هو اختراق الديمقراطية
14:30
Now, if the first contact that we had gave us that,
258
870180
4520
إن كان اتصالنا الأوليّ مع الذكاء الاصطناعي جلب كل هذه السلبيات،
14:34
if social media circa 2020 gave us that,
259
874740
4400
ما تسببت فيه وسائل التواصل الاجتماعي في عام 2020،
14:39
what's this second contact with AI going to produce?
260
879180
4200
ماذا سيجلب لنا اتصالنا الثاني مع الذكاء الاصطناعي؟
14:43
When AI is capable, not just in figuring out how to target you
261
883900
3880
عندما يكون الذكاء الاصطناعي قادراً، ليس فقط على معرفة كيف يستهدفك،
14:47
with the content it knows will elicit the most reaction
262
887820
3600
مستخدمًا المحتوى الذي يعرف أنه سيثير أكبر قدر من ردود الفعل،
14:51
and engagement from you,
263
891460
1520
والتفاعل من جانبك،
14:53
but can create content
264
893020
2080
ولكن أيضًا عندما يتمكن من إنشاء محتوىً،
14:55
that it knows will react or get you to engage more directly,
265
895140
3720
يعرف أنه سوف يثير ردة فعلك أو يجعلك تتفاعل معه بشكل أكبر،
14:58
whether true or false,
266
898900
2520
سواء كان صحيحا أو خطأ،
15:01
whether slanderous or not.
267
901460
1920
سواء كان افتراءً أم لا.
15:03
What does that contact do?
268
903420
3760
ماذا ستكون نتيجة ذلك الاتصال؟
15:08
I so hate the writers of "Game of Thrones"
269
908580
4840
أنا أكره مؤلفي مسلسل “صراع العروش” كثيرًا
15:13
because their last season,
270
913460
1720
لأنهم في الموسم الأخير،
15:15
they so completely ruined the whole series.
271
915180
3600
“خربطوا” المسلسل كله!.
15:18
(Laughter and applause)
272
918780
2280
(ضحك وتصفيق)
15:21
We can't use memes from "Game of Thrones" anymore.
273
921100
3040
لا نستطيع استخدام ميمات من “صراع العروش” بعد الآن.
15:24
But if we could, I would say winter is coming, friends,
274
924180
4000
لكن لو استطعنا، فسأقول إن الشتاء قادم، يا أصدقائي،
15:28
I'm just going to say it anyway.
275
928220
1560
سأقولها على أية حال.
15:29
Winter is coming, friends.
276
929780
2120
الشتاء قادم يا أصدقائي.
15:32
And these AIs are the source that we have to worry about.
277
932660
6760
وهذه الذكاءات الاصطناعية هي المصدر الذي يجب أن نقلق بشأنه.
15:39
So then, what is to be done?
278
939420
2120
إذن، ماذا ينبغي أن نفعل؟
15:44
Well, you know, if there's a flood, what you do is you turn around and run.
279
944100
4360
حسنًا، كما تعلم، إذا كان هناك فيضان، فإن ما يجب عليك فعله هو أن تستدير وتركض.
15:49
You move.
280
949020
1640
أن تتحرك.
15:50
You move to higher ground or protected ground.
281
950700
3040
وتنتقل إلى أرض مرتفعة أو أرض محمية.
15:55
You find a way to insulate democracy
282
955900
3080
وفي موضوعنا هذا أن تجد طريقة لحماية الديمقراطية،
15:59
or to shelter democracy from AI's force
283
959020
2800
حمايتها من قوة الذكاء الاصطناعي
16:01
or from AI's harmful force.
284
961860
1640
تحديدًا من القوة الضارة للذكاء الاصطناعي.
16:03
And, you know, the law does this in America with juries.
285
963540
4400
و كما تعلمون فإن القانون في أمريكا يفعل هذا من خلال هيئات المحلفين،
16:07
We have juries.
286
967980
1160
لدينا هيئات محلفين،
16:09
They deliberate,
287
969180
1480
يتداولون بشأن القضية،
16:10
but they are protected in the types of information
288
970700
3360
ولديهم حصانة بشأن أنواع المعلومات،
16:14
that they're allowed to hear or talk about or deliberate upon,
289
974100
3960
التي يُسمح لهم بالاستماع أو التحدث أو التداول بشأنها،
16:18
because we know we need to protect them
290
978060
1920
لأننا نعلم أننا بحاجة لحمايتهم
16:20
if they're to reach a judgment that is just.
291
980020
2320
حتى يصلوا بمداولاتهم إلى حكم عادل.
16:22
And democracy reformers, especially across Europe,
292
982380
3760
والمصلحون الديمقراطيون، وخاصة في مختلف أنحاء أوروبا،
16:26
are trying to do this right now.
293
986140
1720
يحاولون القيام بذلك الآن.
16:27
Reformers building citizen assemblies,
294
987860
2920
هؤلاء المصلحون يبنون جمعيات مدنية،
16:30
across Europe mainly, in Japan as well.
295
990780
2760
في جميع أنحاء أوروبا، وفي اليابان أيضًا.
16:33
And the citizen assemblies are these random, representative,
296
993540
4080
والجمعيات المدنية هذه جمعيات متفرقة، مستنيرة تشجع الحوار،
16:37
informed and deliberative bodies
297
997660
2280
تنشط دفاعًا عن قضايا بعينها،
16:39
that take on particular democratic questions
298
999940
4560
قضايا ديمقراطية معينة،
16:44
and address them in a way that could be protected
299
1004540
3720
وتحاول معالجة تلك القضايا بشكل يحميها،
16:48
from this corruption of the AI.
300
1008300
1720
من هذا الفساد في الذكاء الاصطناعي.
16:50
So Iceland was able to craft a constitution out of a process like this.
301
1010020
4280
تمكنت أيسلندا من صياغة دستورها من خلال عملية كهذه.
16:54
Ireland was able to approve gay marriage and deregulation of abortion
302
1014300
4880
وتمكنت أيرلندا من الموافقة على زواج المثليين
وإلغاء القيود التنظيمية على الإجهاض من خلال عملية مثل هذه.
16:59
through a process like this.
303
1019220
1400
17:00
France has addressed climate change
304
1020620
2000
فرنسا تعالج بهذه الطريقة قضية تغير المناخ.
17:02
and also end-of-life decisions.
305
1022660
1480
وكذلك القرارات المتعلقة بإنهاء الحياة.
17:04
And across Germany there are many of these entities
306
1024180
3360
وفي جميع أنحاء ألمانيا يوجد العديد من هذه الكيانات،
17:07
that are boiling up to find ways for a different democratic voice,
307
1027540
5760
وهي في حالة غليان لايجاد صوت ديمقراطي مختلف،
17:13
to find voice.
308
1033340
1360
للعثور على صوت.
17:15
But here's the point.
309
1035620
1400
الشاهد هنا،
17:18
These are extraordinarily hopeful and exciting, no doubt.
310
1038260
3200
هذه الكيانات بلا شك مليئة بالأمل والإثارة بشكل غير عادي،
17:21
But they are not just a good idea.
311
1041460
3840
ولكنها أكثر من مجرد فكرة جيدة.
17:26
They are existential for democracy.
312
1046380
4160
أهميتها من أهمية الديمقراطية.
17:30
They are security for democracy.
313
1050540
2800
إنها الأمن للديمقراطية.
17:33
They are a way to protect us from this AI hacking
314
1053380
4040
إنها طريقة لحمايتنا من اختراق الذكاء الاصطناعي
17:37
that steers against a public will.
315
1057460
3800
الذي يتعارض مع الإرادة الجماعية للناس.
17:42
This is change not just to make democracy better,
316
1062740
3840
هذا التغيير ليس فقط لتحسين الديمقراطية،
17:46
a tweak to just make it a little bit more democratic.
317
1066620
3800
ولا مجرد تعديل لجعلها أكثر ديمقراطية قليلاً.
17:50
It's a change to let democracy survive,
318
1070460
4880
إنه تغيير لإبقاء الديمقراطية على قيد الحياة،
17:55
given what we know technology will become.
319
1075380
4080
نظراً لما نعرفه عن الأضرار المحتملة للتكنولوجيا
18:00
This is a terrifying moment.
320
1080940
1760
هذه لحظة مرعبة.
18:03
It's an exhilarating moment.
321
1083340
1880
إنها لحظة فارقة.
18:06
Long before superintelligence, long before AGI threatens us,
322
1086340
4680
قبل وقت طويل من ظهور الذكاء الفائق،
وقبل وقت طويل من تهديد الذكاء الاصطناعي العام لنا،
18:11
a different AI threatens us.
323
1091060
2680
يوجد ذكاء اصطناعي آخر يهددنا.
18:14
But there is something to do while we still can do something.
324
1094340
4400
يجب أن نفعل شيئًا، طالما لا يزال بإمكاننا أن نفعل.
18:19
We should know enough now
325
1099460
2640
أصبحنا نعرف يقينًا،
18:22
to know we can't trust democracy just now.
326
1102100
3240
أنه لا يمكننا الوثوق بالديمقراطية الآن.
18:25
We should see that we still have time to build something different.
327
1105820
4960
علينا أن ندرك أنه لدينا الوقت لبناء شيء مختلف.
18:30
We should act with the love that makes anything possible,
328
1110780
6840
يجب أن نعمل بالحب، الذي يجعل كل شيء ممكنًا،
18:37
not because we know we will succeed.
329
1117660
3160
ليس لأننا نعلم أننا سننجح.
18:40
I'm pretty sure we won't.
330
1120860
2360
أنا متأكد تمامًا أننا لن ننجح!.
18:45
But because this is what love means.
331
1125860
4720
ولكن لأن هذا هو معنى الحب.
18:51
You do whatever you can,
332
1131860
2280
افعل كل ما بوسعك،
18:54
whatever the odds, for your children,
333
1134180
2480
مهما كانت الصعوبات، من أجل أطفالك،
18:56
for your family, for your country, for humanity
334
1136660
5040
من أجل عائلتك، من أجل بلدك، من أجل الإنسانية
19:01
while there is still time,
335
1141740
2960
طالما لا يزال عندنا وقت،
19:04
while our robot overlord is still just a sci-fi fantasy.
336
1144700
5360
وطالما أن “سيدنا الروبوت” لا يزال مجرد خيال علمي.
19:10
Thank you very much.
337
1150820
1600
شكراً جزيلاً.
19:12
(Applause)
338
1152460
2080
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7