How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

60,892 views ・ 2024-05-01

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Khaled Radwan المدقّق: Hani Eldalees
00:03
When I talk to people about artificial intelligence,
0
3583
3963
عندما أتحدث إلى الناس عن الذكاء الاصطناعي،
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
فإن الشيء الذي أسمعه كثيرًا من غير الخبراء هو “أنا لا أفهم الذكاء الاصطناعي”
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
ولكن عندما أتحدث إلى الخبراء، يحدث شيء مضحك.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
يقولون: “أنا لا أفهم الذكاء الاصطناعي، ولا أي شخص آخر.”
00:21
This is a pretty strange state of affairs.
4
21393
3503
هذه حالة غريبة جدًا.
00:24
Normally, the people building a new technology
5
24896
3295
عادةً ما يفهم الأشخاص الذين يبنون تقنية جديدة
00:28
understand how it works inside and out.
6
28233
2669
كيفية عملها من الداخل والخارج.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
ولكن بالنسبة للذكاء الاصطناعي، وهي تقنية تعيد تشكيل العالم من حولنا بشكل جذري،
00:36
that's not so.
8
36283
1167
فإن الأمر ليس كذلك.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
يعرف الخبراء الكثير عن كيفية بناء أنظمة الذكاء الاصطناعي وتشغيلها، بالطبع.
00:42
But when it comes to how they work on the inside,
10
42455
2503
ولكن عندما يتعلق الأمر بكيفية عملهم من الداخل،
00:45
there are serious limits to how much we know.
11
45000
2877
فهناك حدود جدية لمدى معرفتنا.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
وهذا مهم لأنه بدون فهم عميق للذكاء الاصطناعي،
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
سيكون من الصعب علينا حقًا معرفة ما سيكون قادرًا على القيام به بعد ذلك،
00:56
or even what it can do now.
14
56636
2336
أو حتى ما يمكنه فعله الآن.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
وحقيقة أننا نواجه صعوبة في فهم
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
ما يحدث مع التكنولوجيا والتنبؤ إلى أين ستذهب بعد ذلك،
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
هي واحدة من أكبر العقبات التي نواجهها في معرفة كيفية التحكم في الذكاء الاصطناعي.
01:12
But AI is already all around us,
18
72861
2294
لكن الذكاء الاصطناعي موجود بالفعل حولنا،
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
لذلك لا يمكننا الجلوس والانتظار حتى تصبح الأمور أكثر وضوحًا.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
علينا أن نشق الطريق إلى الأمام على أي حال.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
لقد عملت على قضايا سياسة الذكاء الاصطناعي والحوكمة هذه
01:27
for about eight years,
22
87751
1167
منذ حوالي ثماني سنوات،
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
أولاً في سان فرانسيسكو، والآن في واشنطن العاصمة.
01:32
Along the way, I've gotten an inside look
24
92922
2753
على طول الطريق، ألقيت نظرة من الداخل
01:35
at how governments are working to manage this technology.
25
95717
3754
على كيفية عمل الحكومات لإدارة هذه التكنولوجيا.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
وداخل الصناعة، رأيت شيئًا أو اثنين أيضًا.
01:45
So I'm going to share a couple of ideas
27
105852
3170
لذلك سأشارك بعض الأفكار
01:49
for what our path to governing AI could look like.
28
109022
3629
حول الشكل الذي يمكن أن يبدو عليه طريقنا إلى إدارة الذكاء الاصطناعي.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
لكن أولاً، دعونا نتحدث عن ما يجعل الذكاء الاصطناعي صعبًا للغاية
01:57
and predict.
30
117489
1251
للفهم والتنبؤ.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
يتمثل أحد التحديات الكبيرة في بناء «الذكاء» الاصطناعي
02:03
is that no one can agree on what it actually means
32
123495
3086
في أنه لا يمكن لأحد الاتفاق على ما يعنيه في الواقع
02:06
to be intelligent.
33
126623
1752
أن تكون ذكيًا.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
هذا مكان غريب للتواجد فيه عند بناء تقنية جديدة.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
عندما بدأ الأخوان رايت في تجربة الطائرات،
02:15
they didn't know how to build one,
36
135507
1668
لم يعرفوا كيفية بناء واحدة،
02:17
but everyone knew what it meant to fly.
37
137175
3128
لكن الجميع كانوا يعرفون معنى الطيران.
02:21
With AI on the other hand,
38
141596
1794
مع الذكاء الاصطناعي من ناحية أخرى،
02:23
different experts have completely different intuitions
39
143431
3295
يمتلك الخبراء المختلفون حدسًا مختلفًا تمامًا
02:26
about what lies at the heart of intelligence.
40
146726
2920
حول ما يكمن في صميم الذكاء.
02:29
Is it problem solving?
41
149646
2210
هل هو حل المشكلات؟
02:31
Is it learning and adaptation,
42
151898
2711
هل يتعلق الأمر بالتعلم والتكيف،
02:34
are emotions,
43
154651
1418
هل العواطف،
02:36
or having a physical body somehow involved?
44
156111
3128
أو وجود جسم مادي متورط بطريقة أو بأخرى؟
02:39
We genuinely don't know.
45
159698
1459
نحن حقا لا نعرف.
02:41
But different answers lead to radically different expectations
46
161157
4338
لكن الإجابات المختلفة تؤدي إلى توقعات مختلفة جذريًا
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
حول اتجاه التكنولوجيا ومدى سرعة الوصول إليها.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
مثال على مدى حيرتنا هو الطريقة التي اعتدنا أن نتحدث بها
02:53
about narrow versus general AI.
49
173461
2294
عن الذكاء الاصطناعي الضيق مقابل العام.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
لفترة طويلة، تحدثنا حول دلوين.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
اعتقد الكثير من الناس أننا يجب أن نقسم فقط بين الذكاء الاصطناعي الضيق،
03:03
trained for one specific task,
52
183763
1919
المدرب على مهمة واحدة محددة،
03:05
like recommending the next YouTube video,
53
185724
2669
مثل التوصية بالفيديو التالي على YouTube،
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
مقابل الذكاء الاصطناعي العام، أو الAGI،
03:12
that could do everything a human could do.
55
192272
2586
الذي يمكنه فعل كل شيء يمكن للإنسان القيام به.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
فكرنا في هذا التمييز، الضيق مقابل العام،
03:18
as a core divide between what we could build in practice
57
198778
3963
باعتباره فجوة أساسية بين ما يمكننا بناءه عمليًا
03:22
and what would actually be intelligent.
58
202782
2252
وما يمكن أن يكون ذكيًا بالفعل.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
ولكن قبل عام أو عامين، جاء ChatGPT.
03:31
If you think about it,
60
211541
1543
إذا فكرتم في الأمر،
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
هل هو ذكاء اصطناعي ضيق، مدرب على مهمة واحدة محددة؟
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
أم أنها الذكاء الاصطناعي العام ويمكنها أن تفعل كل ما يمكن للإنسان القيام به؟
03:41
Clearly the answer is neither.
63
221092
1502
من الواضح أن الإجابة ليست كذلك.
03:42
It's certainly general purpose.
64
222635
1919
إنه بالتأكيد غرض عام.
03:44
It can code, write poetry,
65
224554
2920
يمكنه البرمجة وكتابة الشعر
03:47
analyze business problems, help you fix your car.
66
227515
3045
وتحليل مشاكل العمل ومساعدتك في إصلاح سيارتك.
03:51
But it's a far cry from being able to do everything
67
231352
2795
لكن الأمر بعيد كل البعد عن القدرة على القيام بكل شيء
03:54
as well as you or I could do it.
68
234189
2419
كما يمكنك أنت أو أنا القيام بذلك.
03:56
So it turns out this idea of generality
69
236608
2043
لذلك اتضح أن فكرة العمومية هذه
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
لا تبدو في الواقع الخط الفاصل الصحيح
04:01
between intelligent and not.
71
241404
2127
بين الذكاء وغير الذكي.
04:04
And this kind of thing
72
244073
1335
وهذا النوع من الأشياء
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
يمثل تحديًا كبيرًا لمجال الذكاء الاصطناعي بأكمله حالياً.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
ليس لدينا أي اتفاق على ما نحاول بناءه
04:11
or on what the road map looks like from here.
75
251164
2419
أو كيف تبدو خارطة الطريق من هنا.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
نحن لا نفهم بوضوح حتى أنظمة الذكاء الاصطناعي التي لدينا اليوم.
04:18
Why is that?
77
258004
1251
لماذا؟
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
يصف الباحثون أحيانًا الشبكات العصبية العميقة،
04:22
the main kind of AI being built today,
79
262300
2085
النوع الرئيسي من الذكاء الاصطناعي الذي يتم بناؤه اليوم،
04:24
as a black box.
80
264427
1460
بأنها صندوق أسود.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
لكن ما يقصدونه بذلك ليس أنه غامض بطبيعته
04:29
and we have no way of looking inside the box.
82
269974
2711
وليس لدينا طريقة للنظر داخل الصندوق.
04:33
The problem is that when we do look inside,
83
273228
2669
تكمن المشكلة في أننا عندما ننظر إلى الداخل،
04:35
what we find are millions,
84
275939
2335
نجد ملايين أو مليارات
04:38
billions or even trillions of numbers
85
278316
2878
أو حتى تريليونات من الأرقام
04:41
that get added and multiplied together in a particular way.
86
281194
3462
التي يتم إضافتها وضربها معًا بطريقة معينة.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
ما يجعل من الصعب على الخبراء معرفة ما يجري
04:47
is basically just, there are too many numbers,
88
287617
3086
هو في الأساس مجرد أنه هناك عدد كبير جدًا من الأرقام،
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
وليس لدينا حتى الآن طرق جيدة لفصل ما يفعلونه جميعًا.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
هناك ما هو أكثر من ذلك بقليل، ولكن ليس الكثير.
04:58
So how do we govern this technology
91
298545
3003
إذن كيف نتحكم في هذه التكنولوجيا
05:01
that we struggle to understand and predict?
92
301589
2628
التي نكافح لفهمها والتنبؤ بها؟
05:04
I'm going to share two ideas.
93
304717
1502
سوف أشارك فكرتين.
05:06
One for all of us and one for policymakers.
94
306261
3253
واحدة لنا جميعًا وواحدة لصانعي السياسات.
05:10
First, don't be intimidated.
95
310932
2711
أولاً، لا تخف.
05:14
Either by the technology itself
96
314102
2461
إما عن طريق التكنولوجيا نفسها
05:16
or by the people and companies building it.
97
316563
3086
أو من قبل الأشخاص والشركات التي تقوم ببنائها.
05:20
On the technology,
98
320400
1168
فيما يتعلق بالتكنولوجيا،
05:21
AI can be confusing, but it's not magical.
99
321568
2502
يمكن أن يكون الذكاء الاصطناعي مربكًا، لكنه ليس سحريًا.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
هناك بعض أجزاء أنظمة الذكاء الاصطناعي التي نفهمها جيدًا بالفعل،
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
وحتى الأجزاء التي لا نفهمها لن تظل مبهمة إلى الأبد.
05:31
An area of research known as “AI interpretability”
102
331619
3295
لقد حقق مجال البحث المعروف باسم “قابلية تفسير الذكاء الاصطناعي”
05:34
has made quite a lot of progress in the last few years
103
334956
3128
الكثير من التقدم في السنوات القليلة الماضية
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
في فهم ما تفعله كل هذه المليارات من الأرقام.
05:42
One team of researchers, for example,
105
342463
2169
وجد فريق من الباحثين، على سبيل المثال،
05:44
found a way to identify different parts of a neural network
106
344674
3420
طريقة لتحديد الأجزاء المختلفة من الشبكة العصبية
05:48
that they could dial up or dial down
107
348136
2335
التي يمكنهم الاتصال بها أو خفضها
05:50
to make the AI's answers happier or angrier,
108
350513
3754
لجعل إجابات الذكاء الاصطناعي أكثر سعادة أو غضبًا،
05:54
more honest,
109
354309
1418
أكثر صدقا،
05:55
more Machiavellian, and so on.
110
355768
2545
وأكثر مكيافيلية، وما إلى ذلك.
05:58
If we can push forward this kind of research further,
111
358771
2503
إذا استطعنا المضي قدمًا في هذا النوع من البحث،
06:01
then five or 10 years from now,
112
361316
2210
فبعد خمس أو عشر سنوات من الآن،
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
قد يكون لدينا فهم أوضح بكثير لما يحدث
06:06
inside the so-called black box.
114
366571
2669
داخل ما يسمى بالصندوق الأسود.
06:10
And when it comes to those building the technology,
115
370325
2669
وعندما يتعلق الأمر بأولئك الذين يبنون التكنولوجيا،
06:13
technologists sometimes act as though
116
373036
1918
يتصرف التقنيون أحيانًا
06:14
if you're not elbows deep in the technical details,
117
374996
3420
كما لو أنك لا تتعمق في التفاصيل الفنية،
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
فلا يحق لك الحصول على رأي حول ما يجب أن نفعله بها.
06:22
Expertise has its place, of course,
119
382337
2294
للخبرة مكانها بالطبع،
06:24
but history shows us how important it is
120
384672
2169
لكن التاريخ يوضح لنا مدى أهمية
06:26
that the people affected by a new technology
121
386883
3003
أن يلعب الأشخاص المتأثرون بالتكنولوجيا الجديدة دورًا
06:29
get to play a role in shaping how we use it.
122
389886
2753
في تشكيل كيفية استخدامنا لها.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
مثل عمال المصانع في القرن العشرين الذين ناضلوا من أجل سلامة المصنع،
06:37
or the disability advocates
124
397310
2127
أو المدافعين عن الإعاقة
06:39
who made sure the world wide web was accessible.
125
399437
3003
الذين تأكدوا من إمكانية الوصول إلى شبكة الويب العالمية.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
ليس عليك أن تكون عالمًا أو مهندسًا ليكون لك صوت.
06:48
(Applause)
127
408821
4547
(تصفيق)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
ثانياً، نحن بحاجة إلى التركيز على القدرة على التكيف، وليس اليقين.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
تتورط الكثير من المحادثات حول كيفية وضع سياسة للذكاء الاصطناعي
07:02
get bogged down in fights between, on the one side,
130
422919
2711
في معارك، من ناحية،
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
الأشخاص الذين يقولون: “علينا تنظيم الذكاء الاصطناعي بشدة الآن
07:08
because it's so risky."
132
428716
1585
لأنه محفوف بالمخاطر“.
07:10
And on the other side, people saying,
133
430301
1794
وعلى الجانب الآخر، يقول الناس
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
“لكن التنظيم سيقتل الابتكار، وهذه المخاطر مختلقة على أي حال.”
07:16
But the way I see it,
135
436307
1168
لكن من وجهة نظري،
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
لا يقتصر الأمر على مجرد اختيار بين الضغط على الفرامل
07:20
or hitting the gas.
137
440478
1502
أو الضغط على الغاز.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
إذا كنت تقود سيارتك على طريق به تقلبات وانعطافات غير متوقعة،
07:26
then two things that will help you a lot
139
446275
2503
فإن شيئين سيساعدانك كثيرًا
07:28
are having a clear view out the windshield
140
448778
2794
وهما الحصول على رؤية واضحة للزجاج الأمامي
07:31
and an excellent steering system.
141
451614
2419
ونظام توجيه ممتاز.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
في الذكاء الاصطناعي، يعني هذا الحصول على صورة واضحة عن مكان التكنولوجيا
07:39
and where it's going,
143
459080
1627
وأين تتجه،
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
ووضع خطط لما يجب القيام به في سيناريوهات مختلفة.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
وهذا يعني بشكل ملموس أشياء مثل الاستثمار في قدرتنا على قياس
ما يمكن أن تفعله أنظمة الذكاء الاصطناعي.
07:49
what AI systems can do.
146
469132
1877
07:51
This sounds nerdy, but it really matters.
147
471342
3212
هذا يبدو غريبًا، لكنه مهم حقًا.
07:54
Right now, if we want to figure out
148
474595
2044
في الوقت الحالي، إذا أردنا معرفة
07:56
whether an AI can do something concerning,
149
476681
2002
ما إذا كان الذكاء الاصطناعي يمكنه القيام بشيء مثير للقلق،
07:58
like hack critical infrastructure
150
478725
2377
مثل اختراق البنية التحتية الحيوية
08:01
or persuade someone to change their political beliefs,
151
481102
4671
أو إقناع شخص ما بتغيير معتقداته السياسية،
08:05
our methods of measuring that are rudimentary.
152
485773
2544
فإن أساليبنا في القياس بدائية.
08:08
We need better.
153
488317
1210
نحن بحاجة إلى الأفضل.
08:10
We should also be requiring AI companies,
154
490319
2545
يجب علينا أيضًا أن نطلب من شركات الذكاء الاصطناعي،
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
وخاصة الشركات التي تبني أنظمة الذكاء الاصطناعي الأكثر تقدمًا،
08:16
to share information about what they're building,
156
496367
3170
مشاركة المعلومات حول ما تقوم ببنائه،
08:19
what their systems can do
157
499537
1710
وما يمكن أن تفعله أنظمتها
08:21
and how they're managing risks.
158
501289
2127
وكيفية إدارتها للمخاطر.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
ويجب عليهم السماح لمدققي الذكاء الاصطناعي الخارجيين بالتدقيق في عملهم
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
حتى لا تقوم الشركات فقط بتقييم واجباتها المنزلية.
08:33
(Applause)
161
513801
4213
(تصفيق)
08:38
A final example of what this can look like
162
518014
2461
المثال الأخير لما يمكن أن يبدو عليه هذا
08:40
is setting up incident reporting mechanisms,
163
520475
3503
هو إعداد آليات الإبلاغ عن الحوادث،
08:44
so that when things do go wrong in the real world,
164
524020
2753
بحيث عندما تسوء الأمور في العالم الحقيقي،
08:46
we have a way to collect data on what happened
165
526814
2962
تكون لدينا طريقة لجمع البيانات حول ما حدث
08:49
and how we can fix it next time.
166
529817
2002
وكيف يمكننا إصلاحه في المرة القادمة.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
تمامًا مثل البيانات التي نجمعها عن حوادث الطائرات والهجمات الإلكترونية.
08:57
None of these ideas are mine,
168
537158
1668
لا تنتمي أي من هذه الأفكار لي،
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
وقد بدأ بعضها بالفعل في التنفيذ في أماكن مثل بروكسل
09:03
London, even Washington.
170
543372
2128
ولندن وحتى واشنطن.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
لكن السبب في أنني أسلط الضوء على هذه الأفكار،
09:08
measurement, disclosure, incident reporting,
172
548669
4046
القياس، والكشف، والإبلاغ عن الحوادث،
09:12
is that they help us navigate progress in AI
173
552757
2794
هو أنها تساعدنا على التقدم في مجال الذكاء الاصطناعي
09:15
by giving us a clearer view out the windshield.
174
555593
3086
من خلال إعطائنا رؤية أوضح للزجاج الأمامي.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
إذا كان الذكاء الاصطناعي يتقدم بسرعة في اتجاهات خطيرة،
09:22
these policies will help us see that.
176
562475
2377
فستساعدنا هذه السياسات على رؤية ذلك.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
وإذا كان كل شيء يسير بسلاسة، فسيظهرون لنا ذلك أيضًا،
09:28
and we can respond accordingly.
178
568981
2211
ويمكننا الرد وفقًا لذلك.
09:33
What I want to leave you with
179
573569
1502
ما أريد أن أترككم به
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
هو أنه من الصحيح أن هناك الكثير من عدم اليقين
09:39
and disagreement in the field of AI.
181
579742
2961
والخلاف في مجال الذكاء الاصطناعي.
09:42
And that companies are already building and deploying AI
182
582745
4046
وتقوم الشركات بالفعل ببناء ونشر الذكاء الاصطناعي
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
في كل مكان بطرق تؤثر علينا جميعًا.
إذا تُرِكت شركات الذكاء الاصطناعي لأجهزتها الخاصة،
09:52
Left to their own devices,
184
592004
1544
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
فيبدو أن شركات الذكاء الاصطناعي قد تسير في اتجاه مماثل
09:56
to social media companies,
186
596717
1961
لشركات التواصل الاجتماعي،
09:58
spending most of their resources on building web apps
187
598678
2627
حيث تنفق معظم مواردها على إنشاء تطبيقات الويب
10:01
and for users' attention.
188
601305
1836
وجذب انتباه المستخدمين.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
وإفتراضياً، يبدو الأمر وكأنه القوة الهائلة لأنظمة الذكاء الاصطناعي الأكثر تقدمًا
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
قد تظل مركزة في أيدي عدد صغير من الشركات،
10:12
or even a small number of individuals.
191
612567
1918
أو حتى عدد صغير من الأفراد.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
لكن إمكانات الذكاء الاصطناعي تتجاوز ذلك بكثير.
10:18
AI already lets us leap over language barriers
193
618531
2711
يتيح لنا الذكاء الاصطناعي بالفعل تجاوز حواجز اللغة
10:21
and predict protein structures.
194
621284
2252
والتنبؤ بهياكل البروتين.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
يمكن للأنظمة الأكثر تقدمًا إطلاق طاقة اندماج نظيفة وغير محدودة
10:28
or revolutionize how we grow food
196
628082
2503
أو إحداث ثورة في كيفية زراعة الغذاء
10:30
or 1,000 other things.
197
630626
1835
أو 1000 شيء آخر.
10:32
And we each have a voice in what happens.
198
632962
2586
ولكل منا صوت فيما يحدث.
10:35
We're not just data sources,
199
635548
2002
نحن لسنا مجرد مصادر بيانات،
10:37
we are users,
200
637592
2043
نحن مستخدمون،
10:39
we're workers,
201
639635
1502
نحن عمال،
10:41
we're citizens.
202
641137
1209
نحن مواطنون.
10:43
So as tempting as it might be,
203
643514
2961
وبقدر ما قد يكون الأمر مغريًا،
10:46
we can't wait for clarity or expert consensus
204
646475
4672
لا يمكننا انتظار الوضوح أو إجماع الخبراء
10:51
to figure out what we want to happen with AI.
205
651147
3378
لمعرفة ما نريد أن يحدث مع الذكاء الاصطناعي.
10:54
AI is already happening to us.
206
654525
2586
الذكاء الاصطناعي يحدث لنا بالفعل.
10:57
What we can do is put policies in place
207
657737
3211
ما يمكننا فعله هو وضع سياسات
11:00
to give us as clear a picture as we can get
208
660948
2670
لإعطائنا صورة واضحة قدر الإمكان
11:03
of how the technology is changing,
209
663618
2460
عن كيفية تغير التكنولوجيا،
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
ومن ثم يمكننا الدخول إلى الساحة والدفع من أجل المستقبل الذي نريده بالفعل.
11:11
Thank you.
211
671751
1126
شكرًا لكم.
11:12
(Applause)
212
672919
3378
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7