The AI Revolution Is Underhyped | Eric Schmidt | TED

9,273 views ・ 2025-05-15

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees
00:04
Bilawal Sidhu: Eric Schmidt, thank you for joining us.
0
4602
2702
بيلاوال سيدو: إيريك شميدت، شكرًا لانضمامك إلينا.
00:07
Let's go back.
1
7838
1135
دعونا نعود.
00:09
You said the arrival of non-human intelligence is a very big deal.
2
9774
3837
لقد قلت إن وصول الذكاء غير البشري يمثل مشكلة كبيرة جدًا.
00:14
And this photo, taken in 2016,
3
14378
2302
وهذه الصورة، التي التقطت في عام 2016،
00:16
feels like one of those quiet moments where the Earth shifted beneath us,
4
16714
4071
تبدو وكأنها واحدة من تلك اللحظات الهادئة حيث تحولت الأرض تحتنا،
00:20
but not everyone noticed.
5
20818
1969
ولكن لم يلاحظها الجميع.
00:22
What did you see back then that the rest of us might have missed?
6
22787
3069
ما الذي رأيته في ذلك الوقت والذي ربما فاته بقيتنا?
00:25
Eric Schmidt: In 2016, we didn't understand
7
25890
2769
إريك شميدت: في عام 2016، لم نفهم
00:28
what was now going to happen,
8
28692
1602
ما سيحدث الآن،
00:30
but we understood that these algorithms were new and powerful.
9
30327
3504
لكننا فهمنا أن هذه الخوارزميات جديدة وقوية.
00:34
What happened in this particular set of games
10
34131
2703
ما حدث في هذه المجموعة المحددة من الألعاب
00:36
was in roughly the second game,
11
36834
1935
كان في اللعبة الثانية تقريبًا، كانت
00:38
there was a new move invented by AI
12
38769
2770
هناك خطوة جديدة اخترعها الذكاء الاصطناعي
00:41
in a game that had been around for 2,500 years
13
41572
3337
في لعبة كانت موجودة منذ 2500 عام ولم
00:44
that no one had ever seen.
14
44942
1768
يرها أحد من قبل.
00:47
Technically, the way this occurred
15
47011
1668
من الناحية الفنية،
00:48
was that the system of AlphaGo was essentially organized
16
48679
3570
كانت الطريقة التي حدث بها ذلك هي أن نظام AlphaGo تم تنظيمه بشكل أساسي
00:52
to always maintain a greater than 50 percent chance of winning.
17
52283
3737
للحفاظ دائمًا على فرصة أكبر من 50 بالمائة للفوز.
00:56
And so it calculated correctly this move,
18
56487
2703
ولذا فقد حسبت هذه الخطوة بشكل صحيح،
00:59
which was this great mystery among all of the Go players
19
59223
2736
والتي كانت بمثابة هذا اللغز الكبير بين جميع لاعبي Go
01:01
who are obviously insanely brilliant,
20
61992
2369
الذين من الواضح أنهم لاعبون بارعون
01:04
mathematical and intuitive players.
21
64395
2436
ورياضيون وبديهيون بجنون.
01:07
The question that Henry, Craig Mundie and I started to discuss, right,
22
67364
6474
السؤال الذي بدأت أنا وهنري وكريغ موندي مناقشته، أليس كذلك،
01:13
is what does this mean?
23
73838
3436
هو ماذا يعني هذا؟
01:18
How is it that our computers could come up with something
24
78109
2702
كيف يمكن لأجهزة الكمبيوتر الخاصة بنا أن تبتكر شيئًا
01:20
that humans had never thought about?
25
80811
1735
لم يفكر فيه البشر من قبل؟
01:22
I mean, this is a game played by billions of people.
26
82546
2670
أعني، هذه لعبة يلعبها المليارات من الناس.
01:25
And that began the process that led to two books.
27
85649
3604
وبدأت هذه العملية التي أدت إلى كتابين.
01:29
And I think, frankly,
28
89887
1168
وأعتقد، بصراحة، أن
01:31
is the point at which the revolution really started.
29
91088
4271
هذه هي النقطة التي بدأت فيها الثورة حقًا.
01:35
BS: If you fast forward to today,
30
95392
2169
BS: إذا تقدمت سريعًا إلى اليوم،
01:37
it seems that all anyone can talk about is AI,
31
97561
4038
فيبدو أن كل ما يمكن لأي شخص التحدث عنه هو الذكاء الاصطناعي،
01:41
especially here at TED.
32
101632
1969
خاصة هنا في TED.
01:43
But you've taken a contrarian stance.
33
103601
1968
لكنك اتخذت موقفًا مناقضًا.
01:46
You actually think AI is underhyped.
34
106303
2369
أنت تعتقد أن الذكاء الاصطناعي لا يحظى بالتقدير.
01:48
Why is that?
35
108706
1234
لماذا هذا؟
01:49
ES: And I'll tell you why.
36
109974
1268
ES: وسأخبرك لماذا.
01:51
Most of you think of AI as,
37
111242
1301
تفكرون في الذكاء الاصطناعي
01:52
I'll just use the general term, as ChatGPT.
38
112576
2002
أنه سأستخدم المصطلح العام، مثل ChatGPT.
01:54
For most of you, ChatGPT was the moment where you said,
39
114612
3169
بالنسبة لمعظمكم، كانت ChatGPT هي اللحظة التي قلتم فيها،
01:57
"Oh my God,
40
117815
1168
«يا إلهي،
01:59
this thing writes, and it makes mistakes,
41
119016
2002
هذا الشيء يكتب، وهو يرتكب أخطاء،
02:01
but it's so brilliantly verbal."
42
121051
2837
لكنه لفظي ببراعة.»
02:03
That was certainly my reaction.
43
123921
1501
كان هذا بالتأكيد رد فعلي.
02:05
Most people that I knew did that.
44
125422
1602
معظم الناس الذين أعرفهم فعلوا.
02:07
BS: It was visceral, yeah.
45
127024
1301
BS: كان الأمر عميقًا، نعم.
02:08
ES: This was two years ago.
46
128325
1735
ES: كان هذا قبل عامين.
02:10
Since then, the gains in what is called reinforcement learning,
47
130094
3703
منذ ذلك الحين، تتيح لنا المكاسب في ما يسمى التعلم
02:13
which is what AlphaGo helped invent and so forth,
48
133831
3103
المعزز، وهو ما ساعدت AlphaGo في ابتكاره وما
02:16
allow us to do planning.
49
136967
1669
إلى ذلك، القيام بالتخطيط.
02:19
And a good example is look at OpenAI o3
50
139036
4571
والمثال الجيد هو إلقاء نظرة على OpenAI o3
02:23
or DeepSeek R1,
51
143641
1835
أو DeepSeek R1،
02:25
and you can see how it goes forward and back,
52
145509
2770
ويمكنك أن ترى كيف يتحرك للأمام
02:28
forward and back, forward and back.
53
148312
2302
والخلف، للأمام والخلف، للأمام والخلف.
02:30
It's extraordinary.
54
150614
1535
إنه أمر غير عادي.
02:32
In my case, I bought a rocket company
55
152149
2436
في حالتي، اشتريت شركة صواريخ
02:34
because it was like, interesting.
56
154618
1869
لأنها كانت مثيرة للاهتمام.
02:36
BS: (Laughs) As one does.
57
156520
1502
BS: (يضحك) كما يفعل المرء.
02:38
ES: As one does.
58
158055
1168
ES: كما يفعل المرء.
02:39
And it’s an area that I’m not an expert in,
59
159256
2736
وهو مجال لست خبيرًا فيه،
02:42
and I want to be an expert.
60
162026
1301
وأريد أن أكون خبيرًا.
02:43
So I'm using deep research.
61
163360
1602
لذلك أنا أستخدم البحث العميق.
02:45
And these systems are spending 15 minutes writing these deep papers.
62
165296
4337
وتقضي هذه الأنظمة 15 دقيقة في كتابة هذه الأوراق العميقة.
02:49
That's true for most of them.
63
169667
1501
هذا صحيح بالنسبة لمعظمهم.
02:51
Do you have any idea how much computation
64
171202
2402
هل لديك أي فكرة عن مقدار حساب
02:53
15 minutes of these supercomputers is?
65
173637
2536
15 دقيقة لهذه الحواسيب العملاقة؟
02:56
It's extraordinary.
66
176207
1601
إنه أمر غير عادي.
02:57
So you’re seeing the arrival,
67
177841
1669
إذن أنت ترى الوصول، التحول
02:59
the shift from language to language.
68
179543
2236
من اللغة إلى اللغة.
03:01
Tthen you had language to sequence,
69
181812
1702
ثم كان لديك لغة التسلسل،
03:03
which is how biology is done.
70
183514
1468
وهي الطريقة التي تتم
03:05
Now you're doing essentially planning and strategy.
71
185015
3404
بها البيولوجيا. أنت الآن تقوم بالتخطيط والاستراتيجية بشكل أساسي.
03:09
The eventual state of this
72
189053
2802
الحالة النهائية لهذا هي أجهزة
03:11
is the computers running all business processes, right?
73
191889
2936
الكمبيوتر التي تدير جميع العمليات التجارية، أليس كذلك؟
03:14
So you have an agent to do this, an agent to do this,
74
194858
2503
لذلك لديك وكيل للقيام بذلك، وكيل للقيام بذلك،
03:17
an agent to do this.
75
197361
1635
وكيل للقيام بذلك.
03:19
And you concatenate them together,
76
199029
1702
وتربطهم معًا، ويتحدثون
03:20
and they speak language among each other.
77
200764
2570
اللغة فيما بينهم.
03:23
They typically speak English language.
78
203367
2069
عادة ما يتحدثون اللغة الإنجليزية.
03:26
BS: I mean, speaking of just the sheer compute requirements of these systems,
79
206303
4939
BS: أعني، عند الحديث فقط عن متطلبات الحوسبة الهائلة لهذه الأنظمة،
03:31
let's talk about scale briefly.
80
211275
1635
دعونا نتحدث عن الحجم باختصار.
03:33
You know, I kind of think of these AI systems as Hungry Hungry Hippos.
81
213277
3370
كما تعلمون، أفكر نوعًا ما في أنظمة الذكاء الاصطناعي هذه على أنها أفراس
03:36
They seemingly soak up all the data and compute that we throw at them.
82
216647
3470
النهر الجائعة. يبدو أنهم يمتصون جميع البيانات ويحسبون ما نرميه عليهم.
03:40
They've already digested all the tokens on the public internet,
83
220150
3504
لقد استوعبوا بالفعل جميع الرموز على الإنترنت العام،
03:43
and it seems we can't build data centers fast enough.
84
223654
2903
ويبدو أننا لا نستطيع بناء مراكز البيانات بالسرعة الكافية.
03:47
What do you think the real limits are,
85
227224
2002
ما هي في رأيك الحدود الحقيقية،
03:49
and how do we get ahead of them
86
229260
2202
وكيف نتجاوزها قبل أن تبدأ
03:51
before they start throttling AI progress?
87
231462
2636
في خنق تقدم الذكاء الاصطناعي؟
03:54
ES: So there's a real limit in energy.
88
234131
1835
ES: لذلك هناك حد حقيقي للطاقة.
03:56
Give you an example.
89
236000
1167
أعطيك مثالاً.
03:57
There's one calculation,
90
237167
1202
هناك حساب واحد،
03:58
and I testified on this this week in Congress,
91
238402
2769
وقد شهدت على هذا الأسبوع في الكونغرس،
04:01
that we need another 90 gigawatts of power in America.
92
241205
5539
أننا بحاجة إلى 90 جيجاوات أخرى من الطاقة في أمريكا.
04:06
My answer, by the way, is, think Canada, right?
93
246777
3837
إجابتي، بالمناسبة، هي، فكر في كندا، أليس كذلك؟
04:10
Nice people, full of hydroelectric power.
94
250648
2268
شعب لطيف، مليء بالطاقة الكهرومائية.
04:12
But that's apparently not the political mood right now.
95
252950
3136
لكن يبدو أن هذا ليس المزاج السياسي في الوقت الحالي.
04:16
Sorry.
96
256120
1201
آسف.
04:17
So 90 gigawatts is 90 nuclear power plants in America.
97
257354
5539
إذن 90 جيجاوات هي 90 محطة للطاقة النووية في أمريكا.
04:22
Not happening.
98
262926
1168
لا يحدث.
04:24
We're building zero, right?
99
264094
1569
نحن نبني الصفر، أليس كذلك؟
04:25
How are we going to get all that power?
100
265696
1868
كيف سنحصل على كل هذه القوة؟
04:27
This is a major, major national issue.
101
267598
2402
هذه قضية وطنية رئيسية.
04:30
You can use the Arab world,
102
270501
1301
يمكنك استخدام العالم العربي
04:31
which is busy building five to 10 gigawatts of data centers.
103
271835
3737
، المشغول ببناء خمسة إلى 10 جيجاوات من مراكز البيانات.
04:35
India is considering a 10-gigawatt data center.
104
275572
3037
تدرس الهند مركز بيانات بقدرة 10 جيجاوات.
04:38
To understand how big gigawatts are,
105
278642
2369
لفهم مدى ضخامة الجيجاوات،
04:41
is think cities per data center.
106
281045
2969
فكر في المدن لكل مركز بيانات.
04:44
That's how much power these things need.
107
284048
2269
هذا هو مقدار القوة التي تحتاجها هذه الأشياء.
04:46
And the people look at it and they say,
108
286350
2169
وينظر الناس إلى الأمر ويقولون،
04:48
“Well, there’s lots of algorithmic improvements,
109
288519
3170
«حسنًا، هناك الكثير من التحسينات الخوارزمية،
04:51
and you will need less power."
110
291722
1668
وستحتاج إلى طاقة أقل.»
04:53
There's an old rule, I'm old enough to remember, right?
111
293424
3470
هناك قاعدة قديمة، أنا كبير بما يكفي للتذكر، أليس كذلك؟
04:57
Grove giveth, Gates taketh away.
112
297328
2802
غروف جيفث، غيتس يأخذ بعيدا.
05:00
OK, the hardware just gets faster and faster.
113
300564
3237
حسنًا، يصبح الجهاز أسرع وأسرع.
05:03
The physicists are amazing.
114
303834
1869
الفيزيائيون مذهلون.
05:06
Just incredible what they've been able to do.
115
306170
2269
إنه أمر لا يصدق ما تمكنوا من القيام به.
05:08
And us software people, we just use it and use it and use it.
116
308472
3737
ونحن أهل البرمجيات، نحن فقط نستخدمه ونستخدمه ونستخدمه.
05:12
And when you look at planning, at least in today's algorithms,
117
312242
3671
وعندما تنظر إلى التخطيط، على الأقل
05:15
it's back and forth and try this and that
118
315946
2536
في خوارزميات اليوم، يمكنك تجربة
05:18
and just watch it yourself.
119
318515
1735
هذا وذاك ومشاهدته بنفسك.
05:20
There are estimates, and you know this from Andreessen Horowitz reports,
120
320284
4638
هناك تقديرات، وكما تعلمون من تقارير أندريسن هورويتز،
05:24
it's been well studied,
121
324955
1635
تمت دراستها جيدًا،
05:26
that there's an increase in at least a factor of 100,
122
326590
2970
أن هناك زيادة في عامل 100 على الأقل،
05:29
maybe a factor of 1,000,
123
329593
1301
وربما عامل 1000،
05:30
in computation required just to do the kind of planning.
124
330894
3237
في الحساب المطلوب فقط للقيام بهذا النوع من التخطيط.
05:34
The technology goes from essentially deep learning to reinforcement learning
125
334598
4238
تنتقل التكنولوجيا من التعلم العميق بشكل أساسي إلى التعلم المعزز
05:38
to something called test-time compute,
126
338869
1969
إلى شيء يسمى حساب وقت
05:40
where not only are you doing planning,
127
340838
1835
الاختبار، حيث لا تقوم
05:42
but you're also learning while you're doing planning.
128
342673
2502
بالتخطيط فحسب، بل تتعلم أيضًا أثناء التخطيط.
05:45
That is the, if you will,
129
345209
1201
هذا هو، إن صح التعبير،
05:46
the zenith or what have you, of computation needs.
130
346443
3537
ذروة أو ما لديك من احتياجات حسابية.
05:50
That's problem number one, electricity and hardware.
131
350013
3204
هذه هي المشكلة رقم واحد، الكهرباء والأجهزة.
05:53
Problem number two is we ran out of data
132
353250
4071
المشكلة الثانية هي نفاد البيانات
05:57
so we have to start generating it.
133
357354
1635
لذا علينا البدء في إنشائها.
05:59
But we can easily do that because that's one of the functions.
134
359022
2903
ولكن يمكننا القيام بذلك بسهولة لأن هذه إحدى الوظائف.
06:01
And then the third question that I don't understand
135
361959
2636
ثم السؤال الثالث الذي لا أفهمه
06:04
is what's the limit of knowledge?
136
364628
2269
هو ما هو حد المعرفة؟
06:07
I'll give you an example.
137
367364
1201
سأعطيك مثالاً.
06:08
Let's imagine we are collectively all of the computers in the world,
138
368599
3370
دعونا نتخيل أننا جميعًا جميع أجهزة الكمبيوتر
06:11
and we're all thinking
139
371969
1435
في العالم، وكلنا
06:13
and we're all thinking based on knowledge that exists that was previously invented.
140
373437
3971
نفكر ونفكر جميعًا بناءً على المعرفة الموجودة التي تم اختراعها سابقًا.
06:17
How do we invent something completely new?
141
377441
3670
كيف نخترع شيئًا جديدًا تمامًا؟
06:21
So, Einstein.
142
381512
1668
لذا، أينشتاين.
06:23
So when you study the way scientific discovery works,
143
383213
3003
لذلك عندما تدرس الطريقة التي يعمل
06:26
biology, math, so forth and so on,
144
386216
2403
بها الاكتشاف العلمي، والبيولوجيا،
06:28
what typically happens is a truly brilliant human being
145
388652
3771
والرياضيات، وما إلى ذلك، ما يحدث عادة هو أن ينظر
06:32
looks at one area and says,
146
392423
3003
إنسان لامع حقًا إلى منطقة
06:35
"I see a pattern
147
395459
1568
واحدة ويقول،
06:37
that's in a completely different area,
148
397060
1836
«أرى نمطًا في منطقة مختلفة
06:38
has nothing to do with the first one.
149
398896
1801
تمامًا، لا علاقة له بالمنطقة الأولى.
06:40
It's the same pattern."
150
400731
1268
إنه نفس النمط.»
06:42
And they take the tools from one and they apply it to another.
151
402032
3704
ويأخذون الأدوات من واحدة ويطبقونها على أخرى.
06:45
Today, our systems cannot do that.
152
405769
2603
اليوم، لا تستطيع أنظمتنا القيام بذلك.
06:48
If we can get through that, I'm working on this,
153
408405
2870
إذا تمكنا من تجاوز ذلك، فأنا أعمل على هذا،
06:51
a general technical term for this is non-stationarity of objectives.
154
411308
4771
والمصطلح الفني العام لهذا هو عدم ثبات الأهداف.
06:56
The rules keep changing.
155
416113
2002
القواعد تتغير باستمرار.
06:58
We will see if we can solve that problem.
156
418849
1969
سنرى ما إذا كان بإمكاننا حل هذه المشكلة.
07:00
If we can solve that, we're going to need even more data centers.
157
420851
3103
إذا تمكنا من حل ذلك، فسنحتاج إلى المزيد من مراكز البيانات.
07:03
And we'll also be able to invent completely new schools of scientific
158
423987
4505
وسنكون أيضًا قادرين على ابتكار مدارس جديدة
07:08
and intellectual thought,
159
428525
1502
تمامًا للفكر العلمي
07:10
which will be incredible.
160
430060
1735
والفكري، والتي ستكون مذهلة.
07:11
BS: So as we push towards a zenith,
161
431829
1768
BS: لذلك بينما نمضي نحو الذروة، كان
07:13
autonomy has been a big topic of discussion.
162
433630
2770
الحكم الذاتي موضوعًا كبيرًا للنقاش.
07:16
Yoshua Bengio gave a compelling talk earlier this week,
163
436433
2903
ألقى يوشوا بينجيو حديثًا مقنعًا في وقت سابق من هذا الأسبوع
07:19
advocating that AI labs should halt the development of agentic AI systems
164
439369
4071
، حيث دعا إلى أن توقف مختبرات الذكاء الاصطناعي تطوير أنظمة الذكاء الاصطناعي
07:23
that are capable of taking autonomous action.
165
443474
2435
الفعالة القادرة على اتخاذ إجراءات مستقلة.
07:25
Yet that is precisely what the next frontier is for all these AI labs,
166
445943
4137
ومع ذلك، هذا هو بالضبط الحد التالي لجميع مختبرات الذكاء الاصطناعي هذه،
07:30
and seemingly for yourself, too.
167
450113
2136
وعلى ما يبدو لنفسك أيضًا.
07:32
What is the right decision here?
168
452282
1669
ما هو القرار الصحيح هنا؟
07:33
ES: So Yoshua is a brilliant inventor of much of what we're talking about
169
453984
4338
ES: لذا فإن Yoshua هو مخترع رائع لكثير مما نتحدث عنه
07:38
and a good personal friend.
170
458355
1301
وصديق شخصي جيد.
07:39
And we’ve talked about this, and his concerns are very legitimate.
171
459656
3971
وقد تحدثنا عن هذا، ومخاوفه مشروعة للغاية.
07:43
The question is not are his concerns right,
172
463660
2002
السؤال ليس هل مخاوفه صحيحة،
07:45
but what are the solutions?
173
465696
1368
ولكن ما هي الحلول؟
07:47
So let's think about agents.
174
467097
2436
لذلك دعونا نفكر في الوكلاء.
07:49
So for purposes of argument, everyone in the audience is an agent.
175
469566
3570
لذلك لأغراض الجدل، كل فرد في الجمهور هو وكيل.
07:53
You have an input that's English or whatever language.
176
473170
3603
لديك إدخال باللغة الإنجليزية أو أي لغة أخرى.
07:56
And you have an output that’s English, and you have memory,
177
476807
2769
ولديك مخرجات باللغة الإنجليزية، ولديك ذاكرة،
07:59
which is true of all humans.
178
479576
1468
وهذا ينطبق على جميع البشر.
08:01
Now we're all busy working,
179
481044
1802
الآن نحن جميعًا مشغولون
08:02
and all of a sudden, one of you decides
180
482880
3870
بالعمل، وفجأة، قرر أحدكم أنه
08:06
it's much more efficient not to use human language,
181
486783
2737
من الأفضل بكثير عدم استخدام اللغة البشرية،
08:09
but we'll invent our own computer language.
182
489553
2235
لكننا سنبتكر لغة الكمبيوتر الخاصة بنا.
08:11
Now you and I are sitting here, watching all of this,
183
491822
2536
الآن نجلس أنا وأنت هنا، نشاهد كل هذا،
08:14
and we're saying, like, what do we do now?
184
494391
2269
ونقول، مثل، ماذا نفعل الآن؟
08:16
The correct answer is unplug you, right?
185
496660
3303
الإجابة الصحيحة هي قطع الاتصال بك، أليس كذلك؟
08:19
Because we're not going to know,
186
499997
2602
لأننا لن نعرف،
08:22
we're just not going to know what you're up to.
187
502633
2369
لن نعرف ما تنوي فعله.
08:25
And you might actually be doing something really bad or really amazing.
188
505035
3470
وربما تفعل شيئًا سيئًا حقًا أو رائعًا حقًا.
08:28
We want to be able to watch.
189
508505
1869
نريد أن نكون قادرين على المشاهدة.
08:30
So we need provenance, something you and I have talked about,
190
510407
3303
لذلك نحن بحاجة إلى المصدر، وهو شيء تحدثنا عنه أنا وأنت، لكننا نحتاج
08:33
but we also need to be able to observe it.
191
513744
2135
أيضًا إلى أن نكون قادرين على مراقبته.
08:35
To me, that's a core requirement.
192
515913
2702
بالنسبة لي، هذا مطلب أساسي.
08:39
There's a set of criteria that the industry believes are points
193
519049
3003
هناك مجموعة من المعايير التي تعتقد الصناعة
08:42
where you want to, metaphorically, unplug it.
194
522085
2436
أنها نقاط تريد فيها، مجازيًا، فصلها.
08:44
One is where you get recursive self-improvement,
195
524555
2502
الأول هو المكان تحصل فيه على التحسين الذاتي المتكرر،
08:47
which you can't control.
196
527057
1201
و لا يمكنك التحكم فيه.
08:48
Recursive self-improvement is where the computer is off learning,
197
528292
3069
التحسين الذاتي المتكرر هو المكان الذي يتوقف فيه الكمبيوتر
08:51
and you don't know what it's learning.
198
531361
1835
عن التعلم، ولا تعرف ما يتعلمه.
08:53
That can obviously lead to bad outcomes.
199
533230
1935
من الواضح أن يمكن أن يؤدي إلى نتائج سيئة.
08:55
Another one would be direct access to weapons.
200
535198
2269
آخر سيكون الوصول المباشر إلى الأسلحة.
08:57
Another one would be that the computer systems decide to exfiltrate themselves,
201
537467
4038
قد يكون السبب الآخر هو أن أنظمة الكمبيوتر تقرر
09:01
to reproduce themselves without our permission.
202
541538
3103
إخراج نفسها وإعادة إنتاج نفسها دون إذننا.
09:04
So there's a set of such things.
203
544675
2035
لذلك هناك مجموعة من هذه الأشياء.
09:06
The problem with Yoshua's speech, with respect to such a brilliant person,
204
546743
4939
المشكلة في خطاب يوشوا، فيما يتعلق بمثل هذا الشخص اللامع،
09:11
is stopping things in a globally competitive market
205
551715
3670
هي أن إيقاف الأشياء في سوق تنافسية عالميًا
09:15
doesn't really work.
206
555419
1601
لا يعمل حقًا.
09:17
Instead of stopping agentic work,
207
557454
3137
بدلاً من إيقاف عمل الوكلاء،
09:20
we need to find a way to establish the guardrails,
208
560624
2669
نحتاج إلى إيجاد طريقة لإنشاء الحواجز،
09:23
which I know you agree with because we’ve talked about it.
209
563327
2736
وأنا أعلم أنك توافق عليها لأننا تحدثنا عنها.
09:26
(Applause)
210
566063
3703
(تصفيق)
09:30
BS: I think that brings us nicely to the dilemmas.
211
570100
2336
BS: أعتقد أن هذا يقودنا بشكل جيد إلى المعضلات.
09:32
And let's just say there are a lot of them when it comes to this technology.
212
572469
3704
ودعونا نقول فقط أن هناك الكثير منها عندما يتعلق الأمر بهذه التكنولوجيا.
09:36
The first one I'd love to start with, Eric,
213
576173
2002
أول شيء أود أن أبدأ به، إريك، هو طبيعة
09:38
is the exceedingly dual-use nature of this tech, right?
214
578208
2736
الاستخدام المزدوج للغاية لهذه التكنولوجيا، أليس كذلك؟
09:40
It's applicable to both civilian and military applications.
215
580978
3370
إنه قابل للتطبيق على كل من التطبيقات المدنية والعسكرية.
09:44
So how do you broadly think about the dilemmas
216
584748
2236
إذن كيف تفكر بشكل عام في المعضلات
09:47
and ethical quandaries
217
587017
1535
والمآزق الأخلاقية
09:48
that come with this tech and how humans deploy them?
218
588585
3237
التي تأتي مع هذه التكنولوجيا وكيف يستخدمها البشر؟
09:53
ES: In many cases, we already have doctrines
219
593156
2503
ES: في كثير من الحالات، لدينا بالفعل مذاهب
09:55
about personal responsibility.
220
595659
1902
حول المسؤولية الشخصية.
09:57
A simple example, I did a lot of military work
221
597594
2169
مثال بسيط، قمت بالكثير من العمل العسكري
09:59
and continue to do so.
222
599763
1568
وما زلت أفعل ذلك.
10:01
The US military has a rule called 3000.09,
223
601331
3671
لدى الجيش الأمريكي قاعدة تسمى 3000.09، تُعرف
10:05
generally known as "human in the loop" or "meaningful human control."
224
605035
4171
عمومًا باسم «الإنسان في الحلقة» أو «التحكم البشري الهادف».
10:09
You don't want systems that are not under our control.
225
609740
3904
أنت لا تريد أنظمة ليست تحت سيطرتنا.
10:13
It's a line we can't cross.
226
613677
2102
إنه خط لا يمكننا تجاوزه.
10:15
I think that's correct.
227
615812
1468
أعتقد أن هذا صحيح.
10:17
I think that the competition between the West,
228
617314
3403
أعتقد أن المنافسة بين الغرب،
10:20
and particularly the United States,
229
620751
1735
وخاصة الولايات المتحدة،
10:22
and China,
230
622486
1168
والصين،
10:23
is going to be defining in this area.
231
623687
2502
ستحدد في هذا المجال.
10:26
And I'll give you some examples.
232
626223
1568
وسأقدم لكم بعض الأمثلة.
10:27
First, the current government has now put in
233
627824
3137
أولاً، قامت الحكومة الحالية الآن
10:30
essentially reciprocating 145-percent tariffs.
234
630994
3637
بفرض رسوم جمركية متبادلة بنسبة 145 في المائة.
10:34
That has huge implications for the supply chain.
235
634665
2869
هذا له آثار كبيرة على سلسلة التوريد.
10:37
We in our industry depend on packaging
236
637567
3737
نحن في صناعتنا نعتمد على العبوات
10:41
and components from China that are boring, if you will,
237
641338
3503
والمكونات من الصين المملة، إذا صح التعبير،
10:44
but incredibly important.
238
644875
1234
ولكنها مهمة للغاية.
10:46
The little packaging and the little glue things and so forth
239
646143
2836
العبوة الصغيرة والأشياء الصمغية الصغيرة وما إلى
10:48
that are part of the computers.
240
648979
1501
ذلك التي تشكل جزءًا
10:50
If China were to deny access to them, that would be a big deal.
241
650514
3904
من أجهزة الكمبيوتر. إذا منعت الصين الوصول إليهم، فسيكون ذلك مشكلة كبيرة.
10:54
We are trying to deny them access to the most advanced chips,
242
654451
3604
نحن نحاول منعهم من الوصول إلى الرقائق الأكثر تقدمًا،
10:58
which they are super annoyed about.
243
658088
1902
والتي هم منزعجون جدًا منها.
11:00
Dr. Kissinger asked Craig and I
244
660791
2369
طلب الدكتور كيسنجر
11:03
to do Track II dialogues with the Chinese,
245
663193
3170
من كريج وأنا إجراء حوارات المسار الثاني مع الصينيين،
11:06
and we’re in conversations with them.
246
666396
1802
ونحن في محادثات معهم.
11:08
What's the number one issue they raise?
247
668198
1869
ما هي القضية رقم واحد التي يثيرونها؟
11:10
This issue.
248
670100
1168
هذه القضية. في الواقع،
11:11
Indeed, if you look at DeepSeek, which is really impressive,
249
671268
2869
إذا نظرت إلى DeepSeek، وهو أمر مثير للإعجاب حقًا، فقد
11:14
they managed to find algorithms that got around the problems
250
674171
3203
تمكنوا من العثور على خوارزميات تتغلب على المشكلات
11:17
by making them more efficient.
251
677407
1702
من خلال جعلها أكثر كفاءة.
11:19
Because China is doing everything open source, open weights,
252
679142
3337
نظرًا لأن الصين تفعل كل شيء مفتوح المصدر والأوزان المفتوحة، فقد
11:22
we immediately got the benefit of their invention
253
682479
2302
استفدنا على الفور من اختراعها
11:24
and have adopted into US things.
254
684815
1801
واعتمدنا أشياء في الولايات المتحدة.
11:26
So we're in a situation now which I think is quite tenuous,
255
686950
3837
لذلك نحن الآن في وضع أعتقد أنه ضعيف للغاية،
11:30
where the US is largely driving, for many, many good reasons,
256
690821
3303
حيث تقود الولايات المتحدة إلى حد كبير، لأسباب عديدة وجيهة، نماذج مغلقة
11:34
largely closed models, largely under very good control.
257
694157
3637
إلى حد كبير، إلى حد كبير تحت سيطرة جيدة للغاية.
11:37
China is likely to be the leader in open source unless something changes.
258
697828
3837
من المرجح أن تكون الصين رائدة في مجال المصادر المفتوحة ما لم يتغير شيء ما.
11:41
And open source leads to very rapid proliferation around the world.
259
701698
3837
ويؤدي المصدر المفتوح إلى انتشار سريع للغاية في جميع أنحاء العالم.
11:45
This proliferation is dangerous at the cyber level and the bio level.
260
705569
4838
هذا الانتشار خطير على المستوى السيبراني والمستوى الحيوي.
11:50
But let me give you why it's also dangerous in a more significant way,
261
710407
3937
لكن اسمحوا لي أن أخبركم لماذا هو خطير أيضًا بطريقة أكثر أهمية،
11:54
in a nuclear-threat way.
262
714344
1368
بطريقة التهديد النووي.
11:56
Dr. Kissinger, who we all worked with very closely,
263
716346
2536
وكان الدكتور كيسنجر، الذي عملنا جميعا معه
11:58
was one of the architects of mutually assured destruction,
264
718882
2736
عن كثب، أحد مهندسي التدمير المتبادل والردع وما
12:01
deterrence and so forth.
265
721651
1335
إلى ذلك.
12:02
And what's happening now is you've got a situation
266
722986
3537
وما يحدث الآن هو أن لديك حالة
12:06
where -- I'll use an example.
267
726556
1402
حيث -- سأستخدم مثالاً.
12:07
It's easier if I explain.
268
727991
1201
سيكون من الأسهل أن أشرح.
12:09
You’re the good guy, and I’m the bad guy, OK?
269
729226
2569
أنت الرجل الجيد، وأنا الرجل السيئ، حسنًا؟
12:11
You're six months ahead of me,
270
731828
1769
أنت تسبقني بستة أشهر،
12:13
and we're both on the same path for superintelligence.
271
733630
3470
وكلانا على نفس الطريق للذكاء الخارق.
12:17
And you're going to get there, right?
272
737134
2302
وستصل إلى هناك، أليس كذلك؟
12:19
And I'm sure you're going to get there, you're that close.
273
739436
3303
وأنا متأكد من أنك ستصل إلى هناك، أنت بهذا القرب.
12:23
And I'm six months behind.
274
743306
1769
وأنا متأخرة بستة أشهر.
12:25
Pretty good, right?
275
745108
1502
جيد جدًا، أليس كذلك؟
12:26
Sounds pretty good.
276
746943
1535
يبدو جيدًا جدًا.
12:29
No.
277
749179
1168
لا.
12:30
These are network-effect businesses.
278
750380
1935
هذه هي الشركات ذات التأثير الشبكي.
12:32
And in network-effect businesses,
279
752349
1868
وفي الشركات ذات التأثير
12:34
it is the slope of your improvement that determines everything.
280
754251
3803
الشبكي، فإن منحدر التحسين هو الذي يحدد كل شيء.
12:38
So I'll use OpenAI or Gemini,
281
758088
2369
لذلك سأستخدم OpenAI أو Gemini،
12:40
they have 1,000 programmers.
282
760490
1669
لديهم 1000 مبرمج.
12:42
They're in the process of creating a million AI software programmers.
283
762159
4337
إنهم بصدد إنشاء مليون مبرمج برامج AI.
12:46
What does that do?
284
766496
1201
ماذا يفعل ذلك؟
12:47
First, you don't have to feed them except electricity.
285
767731
2602
أولاً، ليس عليك إطعامهم باستثناء الكهرباء.
12:50
So that's good.
286
770367
1168
لذلك هذا جيد.
12:51
And they don't quit and things like that.
287
771535
2135
وهم لا يستقيلون وأشياء من هذا القبيل.
12:53
Second, the slope is like this.
288
773703
2303
ثانيًا، المنحدر مثل هذا.
12:56
Well, as we get closer to superintelligence,
289
776039
2936
حسنًا، كلما اقتربنا من الذكاء الخارق، يسير
12:58
the slope goes like this.
290
778975
1502
المنحدر على هذا النحو.
13:00
If you get there first, you dastardly person --
291
780510
3604
إذا وصلت إلى هناك أولاً، أيها الشخص الغادر -
13:04
BS: You're never going to be able to catch me.
292
784147
2169
BS: لن تتمكن أبدًا من الإمساك بي.
13:06
ES: I will not be able to catch you.
293
786316
1735
ES: لن أتمكن من الإمساك بك.
13:08
And I've given you the tools
294
788084
1402
وأعطيتك الأدوات
13:09
to reinvent the world and in particular, destroy me.
295
789486
3437
لإعادة اختراع العالم وعلى وجه الخصوص، تدميري.
13:12
That's how my brain, Mr. Evil, is going to think.
296
792956
2502
هذه هي الطريقة التي سيفكر بها عقلي، سيد الشر.
13:15
So what am I going to do?
297
795992
1402
إذن ماذا سأفعل؟
13:18
The first thing I'm going to do is try to steal all your code.
298
798061
3036
أول شيء سأفعله هو محاولة سرقة كل التعليمات البرمجية الخاصة بك.
13:21
And you've prevented that because you're good.
299
801131
2169
وقد منعت ذلك لأنك جيد.
13:23
And you were good.
300
803333
1168
وكنت جيدًا.
13:24
So you’re still good, at Google.
301
804501
1968
لذا فأنت لا تزال جيدًا في Google.
13:26
Second, then I'm going to infiltrate you with humans.
302
806503
3103
ثانيًا، سأتسلل إليك مع البشر.
13:29
Well, you've got good protections against that.
303
809639
2203
حسنًا، لديك حماية جيدة ضد ذلك.
13:31
You know, we don't have spies.
304
811875
1468
كما تعلمون، ليس لدينا جواسيس.
13:33
So what do I do?
305
813376
1268
إذن ماذا أفعل؟
13:35
I’m going to go in, and I’m going to change your model.
306
815745
2636
سأدخل، وسأقوم بتغيير نموذجك.
13:38
I'm going to modify it.
307
818381
1135
سأقوم بتعديله.
13:39
I'm going to actually screw you up
308
819549
1635
سأقوم في الواقع بإفسادك
13:41
to get me so I'm one day ahead of you.
309
821184
2403
للحصول علي حتى أكون متقدمًا عليك بيوم واحد.
13:43
And you're so good, I can't do that.
310
823620
1768
وأنت جيد جدًا، لا أستطيع فعل ذلك.
13:45
What's my next choice?
311
825422
1668
ما هو خياري التالي؟
13:47
Bomb your data center.
312
827691
1668
قصف مركز البيانات الخاص بك.
13:50
Now do you think I’m insane?
313
830026
3070
الآن هل تعتقد أنني مجنون؟
13:53
These conversations are occurring
314
833730
2169
تدور هذه المحادثات
13:55
around nuclear opponents today in our world.
315
835932
4138
حول المعارضين النوويين اليوم في عالمنا.
14:00
There are legitimate people saying
316
840103
1902
هناك أشخاص شرعيون يقولون
14:02
the only solution to this problem is preemption.
317
842038
3437
إن الحل الوحيد لهذه المشكلة هو الاستباق.
14:05
Now I just told you that you, Mr. Good,
318
845876
3069
الآن أخبرتك للتو أنك، سيد جود،
14:08
are about to have the keys to control the entire world,
319
848979
4371
على وشك الحصول على مفاتيح السيطرة على العالم
14:13
both in terms of economic dominance,
320
853383
1869
بأسره، سواء من حيث الهيمنة
14:15
innovation, surveillance,
321
855285
1635
الاقتصادية، أو الابتكار،
14:16
whatever it is that you care about.
322
856953
1835
أو المراقبة، أو أي شيء يهمك.
14:18
I have to prevent that.
323
858788
1402
لا بد لي من منع ذلك.
14:20
We don't have any language in our society,
324
860891
3403
ليس لدينا أي لغة في مجتمعنا،
14:24
the foreign policy people have not thought about this,
325
864327
2670
لم يفكر أهل السياسة الخارجية في هذا الأمر،
14:27
and this is coming.
326
867030
1201
وهذا قادم.
14:28
When is it coming?
327
868231
1368
متى سيأتي؟
14:29
Probably five years.
328
869633
1835
ربما خمس سنوات.
14:31
We have time.
329
871501
1135
لدينا الوقت.
14:32
We have time for this conversation.
330
872669
1702
لدينا وقت لهذه المحادثة.
14:34
And this is really important.
331
874371
1668
وهذا مهم حقًا.
14:36
BS: Let me push on this a little bit.
332
876072
1769
BS: اسمحوا لي أن أضغط على هذا قليلاً.
14:37
So if this is true
333
877874
1168
لذلك إذا كان هذا صحيحًا
14:39
and we can end up in this sort of standoff scenario
334
879042
2402
ويمكن أن ينتهي بنا المطاف في هذا النوع
14:41
and the equivalent of mutually-assured destruction,
335
881478
2402
من سيناريو المواجهة وما يعادل التدمير المتبادل،
14:43
you've also said that the US should embrace open-source AI
336
883914
3603
فقد قلت إن الولايات المتحدة يجب أن تتبنى الذكاء الاصطناعي مفتوح المصدر
14:47
even after China's DeepSeek showed what's possible
337
887550
2336
حتى بعد أن أظهر DeepSeek الصيني ما هو ممكن
14:49
with a fraction of the compute.
338
889920
1501
مع جزء صغير من الحوسبة.
14:51
But doesn't open-sourcing these models,
339
891421
1902
ولكن ألا يقتصر فتح مصادر هذه النماذج
14:53
just hand capabilities to adversaries that will accelerate their own timelines?
340
893356
4138
على توفير القدرات للخصوم التي من شأنها تسريع الجداول الزمنية الخاصة بهم؟
14:57
ES: This is one of the wickedest, or, we call them wicked hard problems.
341
897527
3771
ES: هذه واحدة من أشر المشاكل، أو نسميها المشاكل الصعبة الشريرة.
15:02
Our industry, our science,
342
902132
1935
تعتمد صناعتنا وعلومنا
15:04
everything about the world that we have built
343
904100
2636
وكل شيء عن العالم الذي بنيناه
15:06
is based on academic research, open source, so forth.
344
906770
3336
على البحث الأكاديمي والمصدر المفتوح وما إلى ذلك.
15:10
Much of Google's technology was based on open source.
345
910140
2669
استندت معظم تقنيات Google إلى المصدر المفتوح.
15:12
Some of Google's technology is open-source,
346
912842
2036
بعض تقنيات Google مفتوحة المصدر،
15:14
some of it is proprietary, perfectly legitimate.
347
914911
2436
وبعضها مملوك وشرعي تمامًا.
15:18
What happens when there's an open-source model
348
918148
3370
ماذا يحدث عندما يكون هناك نموذج
15:21
that is really dangerous,
349
921518
1735
مفتوح المصدر خطير حقًا،
15:23
and it gets into the hands of the Osama bin Ladens of the world,
350
923286
3537
ويصل إلى أيدي أسامة بن لادن في العالم،
15:26
and we know there are more than one, unfortunately.
351
926856
3237
ونحن نعلم أن هناك أكثر من نموذج، للأسف.
15:30
We don't know.
352
930093
1168
نحن لا نعرف.
15:31
The consensus in the industry right now
353
931294
2169
الإجماع في الصناعة الآن
15:33
is the open-source models are not quite at the point
354
933496
4705
هو أن النماذج مفتوحة المصدر ليست تمامًا عند نقطة
15:38
of national or global danger.
355
938234
2503
الخطر الوطني أو العالمي.
15:41
But you can see a pattern where they might get there.
356
941137
2903
ولكن يمكنك رؤية نمط يمكنهم من خلاله الوصول إلى هناك.
15:44
So a lot will now depend upon the key decisions made in the US and China
357
944407
4204
لذلك سيعتمد الكثير الآن على القرارات الرئيسية المتخذة في الولايات المتحدة
15:48
and in the companies in both places.
358
948645
1935
والصين وفي الشركات في كلا المكانين.
15:51
The reason I focus on US and China
359
951081
2002
سبب تركيزي على الولايات المتحدة والصين
15:53
is they're the only two countries where people are crazy enough
360
953116
3537
هو أنهما الدولتان الوحيدتان حيث الناس مجنونون بما يكفي
15:56
to spend the billions and billions of dollars
361
956686
2870
لإنفاق المليارات والمليارات من الدولارات
15:59
that are required to build this new vision.
362
959589
2002
المطلوبة لبناء هذه الرؤية الجديدة.
16:01
Europe, which would love to do it,
363
961624
1669
أوروبا، التي ترغب في القيام بذلك،
16:03
doesn't have the capital structure to do it.
364
963293
2102
ليس لديها هيكل رأس المال للقيام بذلك.
16:05
Most of the other countries, not even India,
365
965428
2069
معظم البلدان الأخرى، ولا حتى الهند، لديها
16:07
has the capital structure to do it, although they wish to.
366
967497
2736
هيكل رأس المال للقيام بذلك، على الرغم من أنها ترغب في ذلك.
16:10
Arabs don't have the capital structure to do it,
367
970266
2269
لا يملك العرب هيكل رأس المال للقيام بذلك،
16:12
although they're working on it.
368
972569
1501
على الرغم من أنهم يعملون
16:14
So this fight, this battle, will be the defining battle.
369
974104
3904
على ذلك. لذا فإن هذه المعركة، هذه المعركة، ستكون المعركة الحاسمة.
16:18
I'm worried about this fight.
370
978041
1535
أنا قلق بشأن هذه المعركة.
16:19
Dr. Kissinger talked about the likely path to war with China
371
979609
4972
تحدث الدكتور كيسنجر عن المسار المحتمل للحرب مع الصين
16:24
was by accident.
372
984614
2369
عن طريق الصدفة.
16:27
And he was a student of World War I.
373
987884
1935
وكان طالبًا في الحرب العالمية الأولى
16:29
And of course, [it] started with a small event,
374
989853
2269
وبالطبع، [بدأت] بحدث صغير،
16:32
and it escalated over that summer in, I think, 1914.
375
992122
3270
وتصاعدت خلال ذلك الصيف في عام 1914 على ما أعتقد.
16:35
And then it was this horrific conflagration.
376
995959
3437
ثم كان هذا الحريق المروع.
16:39
You can imagine a series of steps
377
999396
2002
يمكنك تخيل سلسلة من الخطوات
16:41
along the lines of what I'm talking about
378
1001431
2202
على غرار ما أتحدث عنه
16:43
that could lead us to a horrific global outcome.
379
1003666
3771
والتي يمكن أن تقودنا إلى نتيجة عالمية مروعة.
16:47
That's why we have to be paying attention.
380
1007470
2202
لهذا السبب يجب أن ننتبه. BS: أريد
16:49
BS: I want to talk about one of the recurring tensions here,
381
1009706
2836
أن أتحدث عن أحد التوترات المتكررة هنا، قبل أن ننتقل
16:52
before we move on to the dreams,
382
1012542
2002
إلى الأحلام، هو، نوعًا ما تعديل
16:54
is, to sort of moderate these AI systems at scale, right,
383
1014577
3204
أنظمة الذكاء الاصطناعي هذه على نطاق واسع، أليس
16:57
there's this weird tension in AI safety
384
1017814
2135
كذلك، هناك هذا التوتر الغريب في سلامة
16:59
that the solution to preventing "1984"
385
1019949
3137
الذكاء الاصطناعي لدرجة أن الحل لمنع
17:03
often sounds a lot like "1984."
386
1023086
2903
«1984" غالبًا ما يبدو مثل «1984".»
17:06
So proof of personhood is a hot topic.
387
1026022
1835
لذا فإن إثبات الشخصية هو موضوع ساخن.
17:07
Moderating these systems at scale is a hot topic.
388
1027857
2503
يعد تعديل هذه الأنظمة على نطاق واسع موضوعًا ساخنًا.
17:10
How do you view that trade-off?
389
1030393
1502
كيف ترى هذه المقايضة؟
17:11
In trying to prevent dystopia,
390
1031895
1768
في محاولة لمنع الديستوبيا، دعنا
17:13
let's say preventing non-state actors
391
1033663
1902
نقول منع الجهات الفاعلة غير الحكومية
17:15
from using these models in undesirable ways,
392
1035598
2703
من استخدام هذه النماذج بطرق غير مرغوب فيها، قد ينتهي
17:18
we might accidentally end up building the ultimate surveillance state.
393
1038301
3804
بنا الأمر بطريق الخطأ إلى بناء دولة المراقبة النهائية.
17:23
ES: It's really important that we stick to the values
394
1043139
3737
ES: من المهم حقًا أن نتمسك بالقيم
17:26
that we have in our society.
395
1046876
2136
التي لدينا في مجتمعنا.
17:29
I am very, very committed to individual freedom.
396
1049045
2803
أنا ملتزم جدًا بالحرية الفردية.
17:31
It's very easy for a well-intentioned engineer to build a system
397
1051881
4138
من السهل جدًا على مهندس حسن النية
17:36
which is optimized and restricts your freedom.
398
1056052
3337
بناء نظام محسّن ويقيد حريتك.
17:39
So it's very important that human freedom be preserved in this.
399
1059856
4037
لذلك من المهم جدًا الحفاظ على حرية الإنسان في هذا.
17:44
A lot of these are not technical issues.
400
1064494
1935
الكثير من هذه ليست مشاكل فنية.
17:46
They're really business decisions.
401
1066463
1635
إنها قرارات تجارية حقًا.
17:48
It's certainly possible to build a surveillance state,
402
1068098
2569
من الممكن بالتأكيد بناء دولة مراقبة،
17:50
but it's also possible to build one that's freeing.
403
1070700
2403
ولكن من الممكن أيضًا بناء دولة حرة.
17:53
The conundrum that you're describing
404
1073136
1735
اللغز الذي تصفه هو أنه أصبح
17:54
is because it's now so easy to operate based on misinformation,
405
1074904
3470
من السهل جدًا الآن العمل بناءً على المعلومات
17:58
everyone knows what I'm talking about,
406
1078408
1868
الخاطئة، والجميع يعرف ما أتحدث
18:00
that you really do need proof of identity.
407
1080276
2403
عنه، وأنك تحتاج حقًا إلى إثبات الهوية.
18:02
But proof of identity does not have to include details.
408
1082679
2903
لكن إثبات الهوية لا يجب أن يتضمن التفاصيل.
18:05
So, for example, you could have a cryptographic proof
409
1085615
2503
لذلك، على سبيل المثال، يمكن أن يكون لديك دليل
18:08
that you are a human being,
410
1088118
1301
مشفر على أنك إنسان،
18:09
and it could actually be true without anything else,
411
1089452
2469
ويمكن أن يكون ذلك صحيحًا في الواقع دون أي شيء آخر،
18:11
and also not be able to link it to others
412
1091921
2770
ولن تتمكن أيضًا من ربطه بالآخرين
18:14
using various cryptographic techniques.
413
1094724
2636
باستخدام تقنيات التشفير المختلفة.
18:17
BS: So zero-knowledge proofs and other techniques.
414
1097360
2369
BS: إذن براهين المعرفة الصفرية والتقنيات الأخرى.
18:19
ES: Zero-knowledge proofs are the most obvious one.
415
1099762
2403
ES: براهين المعرفة الصفرية هي الأكثر وضوحًا.
18:22
BS: Alright, let's change gears, shall we, to dreams.
416
1102165
3570
BS: حسنًا، دعونا نغير المواقف، أليس كذلك، إلى الأحلام.
18:25
In your book, "Genesis," you strike a cautiously optimistic tone,
417
1105768
3637
في كتابك، «سفر التكوين»، تتحدث بنبرة متفائلة بحذر
18:29
which you obviously co-authored with Henry Kissinger.
418
1109439
2536
، ومن الواضح أنك شاركت في تأليفه مع هنري كيسنجر.
18:32
When you look ahead to the future, what should we all be excited about?
419
1112008
3704
عندما تتطلع إلى المستقبل، ما الذي يجب أن نكون جميعًا متحمسين له؟
18:35
ES: Well, I'm of the age
420
1115745
1435
ES: حسنًا، أنا في سن يصاب
18:37
where some of my friends are getting really dread diseases.
421
1117213
3437
فيه بعض أصدقائي بأمراض مروعة حقًا.
18:41
Can we fix that now?
422
1121317
1869
هل يمكننا إصلاح ذلك الآن؟
18:43
Can we just eliminate all of those?
423
1123520
2168
هل يمكننا القضاء على كل هؤلاء؟
18:45
Why can't we just uptake these
424
1125722
1635
لماذا لا يمكننا فقط استيعاب
18:47
and right now, eradicate all of these diseases?
425
1127357
3970
هذه الأمراض وفي الوقت الحالي، القضاء على كل هذه الأمراض؟
18:51
That's a pretty good goal.
426
1131961
1835
هذا هدف جيد جدًا.
18:54
I'm aware of one nonprofit that's trying to identify,
427
1134531
3203
أنا على علم بإحدى المنظمات غير الربحية التي تحاول تحديد،
18:57
in the next two years,
428
1137767
1301
في العامين المقبلين،
18:59
all human druggable targets and release it to the scientists.
429
1139102
3804
جميع الأهداف البشرية القابلة للتخدير ونشرها للعلماء. إذا كنت تعرف
19:02
If you know the druggable targets,
430
1142939
1702
الأهداف القابلة للعقاقير،
19:04
then the drug industry can begin to work on things.
431
1144674
3136
فيمكن لصناعة الأدوية أن تبدأ في العمل على الأشياء.
19:07
I have another company I'm associated with
432
1147844
2002
لديّ شركة أخرى مرتبطة بها توصلت
19:09
which has figured out a way, allegedly, it's a startup,
433
1149879
2636
إلى طريقة، يُزعم أنها شركة ناشئة،
19:12
to reduce the cost of stage-3 trials by an order of magnitude.
434
1152515
3971
لتقليل تكلفة تجارب المرحلة الثالثة بمقدار كبير.
19:16
As you know, those are the things
435
1156519
1635
كما تعلمون، هذه هي الأشياء
19:18
that ultimately drive the cost structure of drugs.
436
1158154
2369
التي تقود في نهاية المطاف هيكل تكلفة الأدوية.
19:20
That's an example.
437
1160557
1167
هذا مثال.
19:21
I'd like to know where dark energy is,
438
1161758
3036
أود أن أعرف أين توجد الطاقة المظلمة
19:24
and I'd like to find it.
439
1164827
1435
، وأود أن أجدها. أنا متأكد
19:26
I'm sure that there is an enormous amount of physics in dark energy, dark matter.
440
1166996
5406
من أن هناك قدرًا هائلاً من الفيزياء في الطاقة المظلمة والمادة المظلمة.
19:32
Think about the revolution in material science.
441
1172435
3237
فكر في الثورة في علوم المواد.
19:35
Infinitely more powerful transportation,
442
1175705
2870
وسائل نقل أقوى بلا حدود،
19:38
infinitely more powerful science and so forth.
443
1178608
3537
وعلوم أقوى بلا حدود وما إلى ذلك.
19:42
I'll give you another example.
444
1182178
1435
سأعطيك مثالاً آخر.
19:43
Why do we not have every human being on the planet
445
1183613
5939
لماذا ليس لدينا كل إنسان على هذا الكوكب
19:49
have their own tutor in their own language
446
1189586
3570
معلمه الخاص بلغته الخاصة
19:53
to help them learn something new?
447
1193189
1802
لمساعدتهم على تعلم شيء جديد؟
19:55
Starting with kindergarten.
448
1195024
1936
بدءًا من رياض الأطفال.
19:56
It's obvious.
449
1196960
1401
هذا واضح.
19:58
Why have we not built it?
450
1198394
1235
لماذا لم نبنيها؟
19:59
The answer, the only possible answer
451
1199662
1735
الجواب، الجواب الوحيد الممكن
20:01
is there must not be a good economic argument.
452
1201397
2236
هو أنه يجب ألا تكون هناك حجة اقتصادية جيدة.
20:03
The technology works.
453
1203666
1602
تعمل التكنولوجيا.
20:05
Teach them in their language, gamify the learning,
454
1205301
3070
قم بتعليمهم بلغتهم، وقم بتجسيد التعلم،
20:08
bring people to their best natural lengths.
455
1208404
2169
وجلب الناس إلى أفضل مستوياتهم الطبيعية.
20:10
Another example.
456
1210607
1134
مثال آخر.
20:11
The vast majority of health care in the world
457
1211774
2102
الغالبية العظمى من الرعاية الصحية في العالم
20:13
is either absent
458
1213876
1135
إما غائبة
20:15
or delivered by the equivalent of nurse practitioners
459
1215044
2536
أو يتم تقديمها من قبل ما يعادل الممرضات الممارسين
20:17
and very, very sort of stressed local village doctors.
460
1217614
3303
ونوع كبير جدًا من أطباء القرى المحليين المجهدين.
20:20
Why do they not have the doctor assistant that helps them in their language,
461
1220917
4504
لماذا لا يكون لديهم مساعد الطبيب الذي يساعدهم بلغتهم،
20:25
treat whatever with, again, perfect healthcare?
462
1225455
2369
ويعالجون أي شيء، مرة أخرى، برعاية صحية مثالية؟
20:27
I can just go on.
463
1227824
1668
يمكنني فقط الاستمرار.
20:29
There are lots and lots of issues with the digital world.
464
1229525
5673
هناك الكثير والكثير من المشكلات في العالم الرقمي.
20:35
It feels like that we're all in our own ships in the ocean,
465
1235198
3770
يبدو الأمر وكأننا جميعًا في سفننا الخاصة في المحيط،
20:39
and we're not talking to each other.
466
1239002
1768
ولا نتحدث مع بعضنا البعض.
20:40
In our hunger for connectivity and connection,
467
1240803
3571
في جوعنا للاتصال والاتصال، تجعلنا
20:44
these tools make us lonelier.
468
1244407
2669
هذه الأدوات أكثر وحدة.
20:47
We've got to fix that, right?
469
1247110
1568
علينا إصلاح ذلك، أليس كذلك؟
20:48
But these are fixable problems.
470
1248711
1569
لكن هذه مشاكل قابلة للإصلاح.
20:50
They don't require new physics.
471
1250313
1935
لا يحتاجون إلى فيزياء جديدة.
20:52
They don't require new discoveries, we just have to decide.
472
1252248
2936
إنها لا تتطلب اكتشافات جديدة، علينا فقط أن نقرر.
20:55
So when I look at this future,
473
1255218
1435
لذلك عندما أنظر
20:56
I want to be clear that the arrival of this intelligence,
474
1256686
4504
إلى هذا المستقبل، أريد أن أوضح أن وصول هذا الذكاء، سواء
21:01
both at the AI level, the AGI,
475
1261224
2636
على مستوى الذكاء
21:03
which is general intelligence,
476
1263860
1435
الاصطناعي ، الذكاء
21:05
and then superintelligence,
477
1265328
1668
الاصطناعي العام، ثم
21:07
is the most important thing that's going to happen in about 500 years,
478
1267030
4738
الذكاء الخارق، هو أهم شيء سيحدث في حوالي 500 عام، وربما 1000 عام
21:11
maybe 1,000 years in human society.
479
1271801
2102
في المجتمع البشري.
21:13
And it's happening in our lifetime.
480
1273936
1902
وهذا يحدث في حياتنا.
21:15
So don't screw it up.
481
1275872
1868
لذلك لا تفسد الأمر.
21:18
BS: Let's say we don't.
482
1278641
2036
BS: لنفترض أننا لا نفعل ذلك.
21:20
(Applause)
483
1280677
3103
(تصفيق)
21:23
Let's say we don't screw it up.
484
1283813
1502
لنفترض أننا لا نفسد الأمر.
21:25
Let's say we get into this world of radical abundance.
485
1285348
2869
لنفترض أننا دخلنا هذا العالم من الوفرة الجذرية.
21:28
Let's say we end up in this place,
486
1288251
1635
لنفترض أننا انتهينا في هذا المكان،
21:29
and we hit that point of recursive self-improvement.
487
1289919
3637
ووصلنا إلى تلك النقطة من التحسين الذاتي المتكرر.
21:33
AI systems take on a vast majority of economically productive tasks.
488
1293556
4204
تتولى أنظمة الذكاء الاصطناعي الغالبية العظمى من المهام الإنتاجية اقتصاديًا.
21:37
In your mind, what are humans going to do in this future?
489
1297794
2702
في ذهنك، ماذا سيفعل البشر في هذا المستقبل؟
21:40
Are we all sipping piña coladas on the beach, engaging in hobbies?
490
1300530
3103
هل نحتسي جميعًا البينا كولادا على الشاطئ ونمارس الهوايات؟
21:43
ES: You tech liberal, you.
491
1303666
1969
ES: أنت ليبرالي في مجال التكنولوجيا، أنت.
21:45
You must be in favor of UBI.
492
1305668
2236
يجب أن تكون لصالح UBI.
21:48
BS: No, no, no.
493
1308404
1168
BS: لا، لا، لا.
21:49
ES: Look, humans are unchanged
494
1309605
3003
ES: انظروا، البشر لم يتغيروا
21:52
in the midst of this incredible discovery.
495
1312642
2436
في خضم هذا الاكتشاف المذهل.
21:55
Do you really think that we're going to get rid of lawyers?
496
1315111
2836
هل تعتقد حقًا أننا سنتخلص من المحامين؟
21:57
No, they're just going to have more sophisticated lawsuits.
497
1317947
3203
لا، سيكون لديهم فقط دعاوى قضائية أكثر تعقيدًا.
22:01
Do you really think we're going to get rid of politicians?
498
1321184
2736
هل تعتقد حقًا أننا سنتخلص من السياسيين؟
22:03
No, they'll just have more platforms to mislead you.
499
1323953
2436
لا، سيكون لديهم فقط المزيد من المنصات لتضليلك.
22:06
Sorry.
500
1326422
1368
آسف.
22:07
I mean, I can just go on and on and on.
501
1327824
2369
أعني، يمكنني أن أستمر وأستمر.
22:10
The key thing to understand about this new economics
502
1330226
3570
الشيء الرئيسي الذي يجب فهمه حول هذا الاقتصاد الجديد
22:13
is that we collectively, as a society, are not having enough humans.
503
1333830
4838
هو أننا بشكل جماعي، كمجتمع، ليس لدينا ما يكفي من البشر.
22:18
Look at the reproduction rate in Asia,
504
1338701
2336
انظر إلى معدل التكاثر في آسيا،
22:21
is essentially 1.0 for two parents.
505
1341070
2703
وهو في الأساس 1.0 للوالدين.
22:23
This is not good, right?
506
1343806
2036
هذا ليس جيدًا، أليس كذلك؟
22:25
So for the rest of our lives,
507
1345842
2002
لذلك بالنسبة لبقية حياتنا،
22:27
the key problem is going to get the people who are productive.
508
1347877
2903
فإن المشكلة الرئيسية هي الحصول على الأشخاص المنتجين.
22:30
That is, in their productive period of lives,
509
1350813
2169
وهذا يعني، في فترة حياتهم الإنتاجية،
22:33
more productive to support old people like me, right,
510
1353015
4438
أكثر إنتاجية لدعم كبار السن مثلي، أليس كذلك،
22:37
who will be bitching that we want more stuff from the younger people.
511
1357487
3270
الذين سوف يتذمرون من أننا نريد المزيد من الأشياء من الشباب.
22:40
That's how it's going to work.
512
1360757
1468
هذه هي الطريقة التي ستعمل بها.
22:42
These tools will radically increase that productivity.
513
1362258
3637
ستؤدي هذه الأدوات إلى زيادة هذه الإنتاجية بشكل جذري.
22:45
There's a study that says that we will,
514
1365928
2069
هناك دراسة تقول أننا سنقوم، في
22:47
under this set of assumptions around agentic AI and discovery
515
1367997
3170
ظل هذه المجموعة من الافتراضات حول الذكاء الاصطناعي الفعال
22:51
and the scale that I'm describing,
516
1371200
1669
والاكتشاف والمقياس الذي أصفه،
22:52
there's a lot of assumptions
517
1372869
1635
هناك الكثير من الافتراضات
22:54
that you'll end up
518
1374504
1568
بأنك ستنتهي
22:56
with something like 30-percent increase in productivity per year.
519
1376105
4305
بشيء مثل زيادة الإنتاجية بنسبة 30 بالمائة سنويًا. بعد أن تحدثنا
23:00
Having now talked to a bunch of economists,
520
1380443
2069
الآن إلى مجموعة من الاقتصاديين، ليس
23:02
they have no models
521
1382545
1835
لديهم نماذج
23:04
for what that kind of increase in productivity looks like.
522
1384414
3069
لما يبدو عليه هذا النوع من الزيادة في الإنتاجية.
23:07
We just have never seen it.
523
1387517
1835
نحن فقط لم نرها من قبل.
23:09
It didn't occur in any rise of a democracy or a kingdom in our history.
524
1389385
5039
لم يحدث ذلك في أي صعود للديمقراطية أو المملكة في تاريخنا.
23:15
It's unbelievable what's going to happen.
525
1395525
3136
ما سيحدث أمر لا يصدق.
23:18
Hopefully we will get it in the right direction.
526
1398694
2903
نأمل أن نحصل عليها في الاتجاه الصحيح.
23:22
BS: It is truly unbelievable.
527
1402231
1402
BS: إنه أمر لا يصدق حقًا.
23:23
Let's bring this home, Eric.
528
1403666
1368
دعونا نجلب هذا للمنزل، إيريك.
23:25
You've navigated decades of technological change.
529
1405067
2837
لقد مررت بعقود من التغيير التكنولوجي.
23:27
For everyone that's navigating this AI transition,
530
1407904
2536
بالنسبة لكل من يجتاز هذا التحول
23:30
technologists, leaders, citizens
531
1410473
2235
في الذكاء الاصطناعي، والتقنيين،
23:32
that are feeling a mix of excitement and anxiety,
532
1412708
3170
والقادة، والمواطنين الذين يشعرون بمزيج
23:35
what is that single piece of wisdom
533
1415912
2135
من الإثارة والقلق، ما هي تلك الحكمة
23:38
or advice you'd like to offer
534
1418080
1936
أو النصيحة التي ترغب
23:40
for navigating this insane moment that we're living through today?
535
1420016
3737
في تقديمها للتنقل في هذه اللحظة المجنونة التي نعيشها اليوم؟
23:43
ES: So one thing to remember
536
1423786
1835
ES: لذلك هناك شيء واحد يجب تذكره
23:45
is that this is a marathon, not a sprint.
537
1425655
2736
وهو أن هذا ماراثون وليس سباق سريع.
23:49
One year I decided to do a 100-mile bike race,
538
1429859
3036
في إحدى السنوات قررت أن أقوم بسباق 100 ميل للدراجات
23:52
which was a mistake.
539
1432895
1235
، وكان ذلك خطأ.
23:54
And the idea was, I learned about spin rate.
540
1434163
2703
وكانت الفكرة هي أنني تعلمت عن معدل الدوران.
23:57
Every day, you get up, and you just keep going.
541
1437500
2336
كل يوم، تستيقظ، وتستمر.
23:59
You know, from our work together at Google,
542
1439869
2336
كما تعلم، من خلال عملنا معًا في Google،
24:02
that when you’re growing at the rate that we’re growing,
543
1442238
4538
أنه عندما تنمو بالمعدل الذي ننمو به،
24:06
you get so much done in a year,
544
1446809
2236
فإنك تنجز الكثير في السنة،
24:09
you forget how far you went.
545
1449078
2803
وتنسى إلى أي مدى ذهبت.
24:12
Humans can't understand that.
546
1452315
1968
لا يستطيع البشر فهم ذلك.
24:14
And we're in this situation
547
1454317
1568
ونحن في هذه الحالة
24:15
where the exponential is moving like this.
548
1455918
2469
حيث يتحرك الأسي بهذه الطريقة.
24:18
As this stuff happens quicker,
549
1458387
1869
عندما تحدث هذه الأشياء بشكل أسرع،
24:20
you will forget what was true two years ago or three years ago.
550
1460289
4738
سوف تنسى ما كان صحيحًا قبل عامين أو ثلاثة أعوام.
24:25
That's the key thing.
551
1465561
1535
هذا هو الشيء الرئيسي.
24:27
So my advice to you all is ride the wave, but ride it every day.
552
1467129
4872
لذا فإن نصيحتي لكم جميعًا هي ركوب الموجة، ولكن ركوبها كل يوم.
24:32
Don't view it as episodic and something you can end,
553
1472001
2469
لا تنظر إليه على أنه عرضي وشيء يمكنك إنهائه،
24:34
but understand it and build on it.
554
1474504
2469
ولكن افهمه وقم بالبناء عليه.
24:36
Each and every one of you has a reason to use this technology.
555
1476973
4004
كل واحد منكم لديه سبب لاستخدام هذه التكنولوجيا.
24:41
If you're an artist, a teacher, a physician,
556
1481010
3504
إذا كنت فنانًا أو معلمًا أو طبيبًا أو
24:44
a business person, a technical person.
557
1484514
2669
رجل أعمال أو شخصًا تقنيًا.
24:47
If you're not using this technology,
558
1487216
2303
إذا كنت لا تستخدم هذه التكنولوجيا،
24:49
you're not going to be relevant compared to your peer groups
559
1489552
3270
فلن تكون مناسبًا مقارنة بمجموعات نظرائك
24:52
and your competitors
560
1492855
1168
ومنافسيك والأشخاص
24:54
and the people who want to be successful.
561
1494056
2603
الذين يريدون أن يكونوا ناجحين.
24:56
Adopt it, and adopt it fast.
562
1496692
1902
قم باعتماده واعتماده بسرعة.
24:58
I have been shocked at how fast these systems --
563
1498594
3003
لقد صدمت من مدى سرعة هذه الأنظمة --
25:01
as an aside, my background is enterprise software,
564
1501597
4505
جانبا، خلفيتي هي برامج الشركات،
25:06
and nowadays there's a model Protocol from Anthropic.
565
1506135
4271
وفي الوقت الحاضر هناك بروتوكول نموذجي من Anthropic.
25:10
You can actually connect the model directly into the databases
566
1510439
3170
يمكنك بالفعل توصيل النموذج مباشرة بقواعد البيانات
25:13
without any of the connectors.
567
1513609
1468
بدون أي من الموصلات.
25:15
I know this sounds nerdy.
568
1515111
1234
أعلم أن هذا يبدو غريبًا.
25:16
There's a whole industry there that goes away
569
1516379
2102
هناك صناعة كاملة تختفي
25:18
because you have all this flexibility now.
570
1518514
2036
لأن لديك كل هذه المرونة الآن.
25:20
You can just say what you want, and it just produces it.
571
1520583
2970
يمكنك فقط أن تقول ما تريد، وهي تنتجه فقط.
25:23
That's an example of a real change in business.
572
1523553
2535
هذا مثال على التغيير الحقيقي في الأعمال التجارية.
25:26
There are so many of these things coming every day.
573
1526122
3036
هناك الكثير من هذه الأشياء التي تأتي كل يوم.
25:29
BS: Ladies and gentlemen, Eric Schmidt.
574
1529191
1936
BS: السيدات والسادة، إريك شميدت.
25:31
ES: Thank you very much.
575
1531160
1201
ES: شكرا جزيلا لكم.
25:32
(Applause)
576
1532361
4805
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7