How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

392,106 views ・ 2024-04-29

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Leen Sattout المدقّق: Khaled Radwan
00:04
Chris Anderson: Demis, so good to have you here.
0
4376
2335
ديميس، من الجيد جدًا وجودك هنا.
00:06
Demis Hassabis: It's fantastic to be here, thanks, Chris.
1
6711
2711
إنه لأمر رائع أن أكون هنا، شكرًا، كريس.
00:09
Now, you told Time Magazine,
2
9422
2128
الآن، أخبرتَ مجلة تايم
00:11
"I want to understand the big questions,
3
11591
2044
«أريد أن أفهم الأسئلة الكبيرة
00:13
the really big ones that you normally go into philosophy or physics
4
13635
3295
الأسئلة الكبيرة حقًا التي عادة ما تدرسها في الفلسفة أو الفيزياء
00:16
if you're interested in them.
5
16972
1793
إذا كنت مهتمًا بها.
00:18
I thought building AI
6
18807
2502
اعتقدت أن بناء الذكاء الاصطناعي
00:21
would be the fastest route to answer some of those questions."
7
21351
3420
سيكون أسرع طريق للإجابة على بعض هذه الأسئلة».
00:25
Why did you think that?
8
25730
1460
لماذا تعتقد ذلك؟
00:27
DH: (Laughs)
9
27232
1293
(يضحك)
00:28
Well, I guess when I was a kid,
10
28567
2210
حسنًا، أعتقد عندما كنت طفلاً،
00:30
my favorite subject was physics,
11
30819
1877
كانت المادة المفضلة لدي هي الفيزياء،
00:32
and I was interested in all the big questions,
12
32696
2752
وكنت مهتمًا بجميع الأسئلة الكبيرة،
00:35
fundamental nature of reality,
13
35490
1960
الطبيعة الأساسية للواقع،
00:37
what is consciousness,
14
37492
1335
وما هو الوعي،
00:38
you know, all the big ones.
15
38827
1752
و كل الأسئلة الكبيرة.
00:40
And usually you go into physics, if you're interested in that.
16
40579
2961
وعادة ما تتجه إلى الفيزياء، لكي تجد الأجوبة إذا كنت مهتمًا بذلك.
00:43
But I read a lot of the great physicists,
17
43540
1960
لكنني قرأت الكثير عن علماء الفيزياء العظماء،
00:45
some of my all-time scientific heroes like Feynman and so on.
18
45542
2961
وبعض أبطالي العلميين على مر العصور مثل فاينمان وما إلى ذلك.
00:48
And I realized, in the last, sort of 20, 30 years,
19
48503
2377
وأدركت، في السنوات العشرين أو الثلاثين الماضية،
00:50
we haven't made much progress
20
50880
1669
أننا لم نحرز تقدمًا كبيرًا
00:52
in understanding some of these fundamental laws.
21
52591
2335
في فهم بعض هذه القوانين الأساسية.
00:54
So I thought, why not build the ultimate tool to help us,
22
54926
4672
لذا فكرت، لماذا لا نبني الأداة النهائية لمساعدتنا،
00:59
which is artificial intelligence.
23
59639
1710
وهي الذكاء الاصطناعي.
01:01
And at the same time,
24
61391
1668
وفي الوقت نفسه،
ربما قد نتمكن من فهم أنفسنا أيضاً،
01:03
we could also maybe better understand ourselves
25
63101
2211
والدماغ بشكل أفضل، من خلال القيام بذلك أيضًا.
01:05
and the brain better, by doing that too.
26
65312
1918
01:07
So not only was it incredible tool,
27
67272
1710
لذلك لم تكن مجرد أداة رائعة فحسب،
01:08
it was also useful for some of the big questions itself.
28
68982
3170
بل كانت مفيدة أيضًا لبعض الأسئلة الكبيرة نفسها.
مثيرة للاهتمام للغاية.
01:12
CA: Super interesting.
29
72152
1209
01:13
So obviously AI can do so many things,
30
73403
2669
من الواضح أن الذكاء الاصطناعي يمكنه القيام بالعديد من الأشياء،
01:16
but I think for this conversation,
31
76072
1669
ولكن بالنسبة لهذه المحادثة،
01:17
I'd love to focus in on this theme of what it might do
32
77782
3754
أود التركيز على موضوع ما يمكن ان يتم فعله
01:21
to unlock the really big questions, the giant scientific breakthroughs,
33
81536
4004
لحل الأسئلة الكبيرة حقًا، والإنجازات العلمية العملاقة،
01:25
because it's been such a theme driving you and your company.
34
85582
3462
لأن هذا الموضوع يحفز كلاً منك وشركتك.
أحد الأشياء الكبيرة التي يمكن للذكاء الاصطناعي القيام بها،
01:29
DH: So I mean, one of the big things AI can do,
35
89044
2794
01:31
and I've always thought about,
36
91880
1460
وكنت أفكر فيها دائمًا،
01:33
is we're getting, you know, even back 20, 30 years ago,
37
93340
3295
هو أننا نحصل، كما تعلمون، حتى قبل 20 أو 30 عامًا،
01:36
the beginning of the internet era and computer era,
38
96676
3087
في بداية عصر الإنترنت وعصر الكمبيوتر،
01:39
the amount of data that was being produced
39
99804
3170
وكمية البيانات التي تم إنتاجها
01:43
and also scientific data,
40
103016
1877
وكذلك البيانات العلمية،
01:44
just too much for the human mind to comprehend in many cases.
41
104934
3671
والتي قد تعد أشياء كثيرة جداً بالنسبة للعقل البشري في كثير من الحالات.
01:48
And I think one of the uses of AI is to find patterns and insights
42
108605
4046
وأعتقد أن أحد استخدامات الذكاء الاصطناعي هو العثور على أنماط ورؤى
01:52
in huge amounts of data and then surface that
43
112692
2169
في كميات هائلة من البيانات
01:54
to the human scientists to make sense of
44
114861
2461
ثم عرض ذلك للعلماء البشريين
01:57
and make new hypotheses and conjectures.
45
117364
2294
لفهم ووضع فرضيات وتخمينات جديدة.
01:59
So it seems to me very compatible with the scientific method.
46
119699
3504
لذلك يبدو لي الأمر متوافقًا جدًا مع المنهج العلمي.
02:03
CA: Right.
47
123203
1334
صحيح.
02:04
But game play has played a huge role in your own journey
48
124579
3128
لكن للألعاب دورًا كبيرًا في رحلتك الخاصة
02:07
in figuring this thing out.
49
127749
1293
في ما يتعلق باكتشاف هذا الشيء.
02:09
Who is this young lad on the left there?
50
129793
2961
من هو هذا الفتى الصغير على اليسار هناك؟
02:12
Who is that?
51
132796
1167
من هذا؟
02:13
DH: So that was me, I think I must have been about around nine years old.
52
133963
3504
هذا أنا، أعتقد أنني كنت في التاسعة من عمري تقريبًا.
02:17
I'm captaining the England Under 11 team,
53
137467
3045
كنت قائد فريق إنجلترا للأطفال تحت ال 11 عامًا،
02:20
and we're playing in a Four Nations tournament,
54
140553
2461
ونلعب في بطولة الأمم الأربعة،
ولهذا السبب جميعنا ارتدينا اللون الأحمر.
02:23
that's why we're all in red.
55
143056
1376
02:24
I think we're playing France, Scotland and Wales, I think it was.
56
144432
3087
أعتقد أننا سنواجه فرنسا واسكتلندا وويلز، أعتقد ذلك.
02:27
CA: That is so weird, because that happened to me too.
57
147519
4546
هذا غريب جدًا، لأن ذلك حدث لي أيضًا.
02:32
In my dreams.
58
152107
1167
في أحلامي.
02:33
(Laughter)
59
153274
1168
(ضحك)
02:34
And it wasn't just chess,
60
154818
3378
ولم تحب لعبة الشطرنج فحسب،
02:38
you loved all kinds of games.
61
158238
1418
لقد أحببت جميع أنواع الألعاب.
02:39
DH: I loved all kinds of games, yeah.
62
159656
1793
أحببت جميع أنواع الألعاب، نعم.
02:41
CA: And when you launched DeepMind,
63
161449
1710
وعندما أطلقت DeepMind،
02:43
pretty quickly, you started having it tackle game play.
64
163159
4088
بسرعة كبيرة، بدأت في جعلها تتضمن اللعب،لماذا؟
02:47
Why?
65
167288
1210
02:48
DH: Well, look, I mean, games actually got me into AI in the first place
66
168498
3420
حسنًا، إن الألعاب هي ما جعلتني شغوفاً بالذكاء الاصطناعي في المقام الأول
02:51
because while we were doing things like,
67
171918
2294
لأنه بينما كنا نفعل أشياء مثل
02:54
we used to go on training camps with the England team and so on.
68
174254
3044
اعتدنا الذهاب إلى معسكرات تدريب مع منتخب إنجلترا وما إلى ذلك.
02:57
And actually back then,
69
177298
1669
وفي الواقع في ذلك الوقت،
02:58
I guess it was in the mid '80s,
70
178967
2711
أعتقد أننا كنا في منتصف الثمانينيات،
03:01
we would use the very early chess computers,
71
181678
2169
كنا نستخدم أجهزة كمبيوتر الشطرنج المبكرة جدًا،
03:03
if you remember them, to train against,
72
183888
2419
إذا كنت تتذكرها، للتدرب ضدها،
03:06
as well as playing against each other.
73
186349
1835
وكذلك اللعب ضد بعضنا البعض.
03:08
And they were big lumps of plastic,
74
188184
1877
وكانت عبارة عن كتل كبيرة من البلاستيك،
03:10
you know, physical boards that you used to,
75
190103
2002
كما تعلمون، الألواح المادية التي اعتدنا عليها،
03:12
some of you remember, used to actually press the squares down
76
192105
3086
ويتذكر البعض منكم، استخدمتها بالفعل للضغط على المربعات للأسفل
03:15
and there were LED lights, came on.
77
195233
1752
وكانت هناك مصابيح LED.
03:17
And I remember actually, not just thinking about the chess,
78
197026
2795
وأتذكر في الواقع، لم أفكر في لعبة الشطرنج فحسب حقيقةً
03:19
I was actually just fascinated by the fact that this lump of plastic,
79
199821
3545
كنت في الواقع مفتونًا بحقيقة أن هذه الكتلة البلاستيكية،
03:23
someone had programmed it to be smart
80
203408
3378
قام شخص ما ببرمجتها لتكون ذكية
03:26
and actually play chess to a really high standard.
81
206828
2669
لتلعب الشطرنج بالفعل على مستوى عالٍ حقًا.
03:29
And I was just amazed by that.
82
209497
1877
وقد اندهشت من ذلك.
03:31
And that got me thinking about thinking.
83
211374
2461
وهذا جعلني أفكر في كيفية التفكير
03:33
And how does the brain come up with these thought processes,
84
213877
3461
وكيفية ابتكار الدماغ لعمليات التفكير هذه،
03:37
these ideas,
85
217380
1168
هذه الأفكار،
03:38
and then maybe how we could mimic that with computers.
86
218548
3337
ومن ثم التفكير بكيفية محاكاة ذلك باستخدام أجهزة الكمبيوتر.
لذا نعم، لقد كان موضوعًا كاملاً لحياتي كلها، حقًا.
03:42
So yeah, it's been a whole theme for my whole life, really.
87
222218
3921
03:46
CA: But you raised all this money to launch DeepMind,
88
226139
3170
لكنك جمعت كل هذه الأموال لإطلاق DeepMind،
03:49
and pretty soon you were using it to do, for example, this.
89
229350
4922
وسرعان ما كنت تستخدمها للقيام بذلك، على سبيل المثال،.
03:55
I mean, this is an odd use of it.
90
235190
1960
أعني، هذا استخدام غريب لها.
03:57
What was going on here?
91
237192
1209
ماذا كان يحدث هنا؟
03:58
DH: Well, we started off with games at the beginning of DeepMind.
92
238443
3086
حسنًا، بدأنا بالألعاب في بداية DeepMind.
04:01
This was back in 2010, so this is from about 10 years ago,
93
241529
2711
كان هذا في عام 2010، لذلك هذا منذ حوالي 10 سنوات،
04:04
it was our first big breakthrough.
94
244240
1710
كان أول إنجاز كبير لنا.
04:05
Because we started off with classic Atari games from the 1970s,
95
245992
3253
نظرًا لأننا بدأنا بألعاب Atari الكلاسيكية من السبعينيات،
04:09
the simplest kind of computer games there are out there.
96
249287
3504
فإن أبسط أنواع ألعاب الكمبيوتر موجودة.
04:12
And one of the reasons we used games is they're very convenient
97
252832
2962
وأحد أسباب استخدامنا للألعاب هو أنها مريحة جدًا
04:15
to test out your ideas and your algorithms.
98
255835
3796
لاختبار أفكارك وخوارزمياتك.
04:19
They're really fast to test.
99
259672
1544
إنهم سريعون حقًا في الاختبار.
04:21
And also, as your systems get more powerful,
100
261674
2711
وأيضًا، عندما تصبح أنظمتك أكثر قوة،
04:24
you can choose harder and harder games.
101
264385
2336
يمكنك اختيار ألعاب أصعب وأصعب.
04:26
And this was actually the first time ever that our machine surprised us,
102
266721
4004
وكانت هذه في الواقع المرة الأولى على الإطلاق التي فاجأتنا فيها آلتنا،
04:30
the first of many times,
103
270767
1293
الأولى من عدة مرات،
04:32
which, it figured out in this game called Breakout,
104
272060
2419
والتي اكتشفت في هذه اللعبة المسماة Breakout،
04:34
that you could send the ball round the back of the wall,
105
274479
2627
أنه يمكنك إرسال الكرة حول الجزء الخلفي من الجدار،
04:37
and actually, it would be much safer way to knock out all the tiles of the wall.
106
277148
3796
وفي الواقع، ستكون طريقة أكثر أمانًا لضرب كل بلاطات الجدار.
04:40
It's a classic Atari game there.
107
280944
1543
إنها لعبة أتاري الكلاسيكية هناك.
04:42
And that was our first real aha moment.
108
282529
1876
وكانت تلك أول لحظة حقيقية لنا.
04:44
CA: So this thing was not programmed to have any strategy.
109
284405
2962
لذلك لم تتم برمجة هذا الشيء ليكون لديه أي استراتيجية.
04:47
It was just told, try and figure out a way of winning.
110
287408
3671
لقد قيل للتو، حاول اكتشاف طريقة للفوز.
04:51
You just move the bat at the bottom and see if you can find a way of winning.
111
291120
3713
ما عليك سوى تحريك المضرب في الأسفل ومعرفة ما إذا كان بإمكانك إيجاد طريقة للفوز.
04:54
DH: It was a real revolution at the time.
112
294833
2002
لقد كانت ثورة حقيقية في ذلك الوقت، كان هذا في عامي 2012 و 2013.
04:56
So this was in 2012, 2013
113
296835
1376
04:58
where we coined these terms "deep reinforcement learning."
114
298211
3337
حيث صاغنا هذه المصطلحات «التعلم المعزز العميق».
05:01
And the key thing about them is that those systems were learning
115
301548
3044
فالشيء الرئيسي عنها هو أن تلك الأنظمة كانت تتعلم
05:04
directly from the pixels, the raw pixels on the screen,
116
304634
2586
مباشرة من وحدات البكسل، وحدات البكسل الخام على الشاشة،
05:07
but they weren't being told anything else.
117
307262
2085
ولكن لم يتم إخبارها بأي شيء آخر.
05:09
So they were being told, maximize the score,
118
309389
2169
لذلك قيل لهم، قم بتعظيم النتيجة،
05:11
here are the pixels on the screen,
119
311558
1668
ها هي وحدات البكسل على الشاشة،
05:13
30,000 pixels.
120
313268
2085
30000 بكسل.
05:15
The system has to make sense on its own from first principles
121
315395
3420
يجب أن يكون النظام منطقيًا من تلقاء نفسه من المبادئ الأولى
05:18
what’s going on, what it’s controlling,
122
318857
1876
لما يحدث، وما يتحكم فيه، وكيفية الحصول على النقاط.
05:20
how to get points.
123
320733
1168
05:21
And that's the other nice thing about using games to begin with.
124
321901
3003
وهذا هو الشيء الجميل الآخر في استخدام الألعاب في البداية.
05:24
They have clear objectives, to win, to get scores.
125
324946
2377
لديهم أهداف واضحة، للفوز، للحصول على الدرجات.
05:27
So you can kind of measure very easily that your systems are improving.
126
327323
3587
لذلك يمكنك بسهولة قياس مدى تحسن أنظمتك.
05:30
CA: But there was a direct line from that to this moment
127
330910
2628
ولكن كان هناك خط مباشر من ذلك إلى هذه اللحظة
05:33
a few years later,
128
333580
1459
بعد بضع سنوات،
05:35
where country of South Korea and many other parts of Asia
129
335081
4129
حيث أصيبت دولة كوريا الجنوبية وأجزاء أخرى كثيرة من آسيا
05:39
and in fact the world went crazy over -- over what?
130
339252
3045
وفي الواقع العالم بالجنون -- لماذا؟
05:42
DH: Yeah, so this was the pinnacle of -- this is in 2016 --
131
342589
3712
DH: نعم، كانت هذه ذروة - وهذا في عام 2016 -
05:46
the pinnacle of our games-playing work,
132
346342
2586
ذروة عملنا في الألعاب،
05:48
where, so we'd done Atari,
133
348970
1793
حيث قمنا بعمل أتاري،
05:50
we'd done some more complicated games.
134
350763
2169
وقمنا ببعض الألعاب الأكثر تعقيدًا.
05:52
And then we reached the pinnacle, which was the game of Go,
135
352974
3295
ثم وصلنا إلى الذروة، وهي لعبة Go،
05:56
which is what they play in Asia instead of chess,
136
356311
2961
وهي ما يلعبونه في آسيا بدلاً من الشطرنج،
05:59
but it's actually more complex than chess.
137
359272
2085
لكنها في الواقع أكثر تعقيدًا من الشطرنج.
06:01
And the actual brute force algorithms
138
361357
4171
ولم تكن خوارزميات القوة الغاشمة الفعلية
06:05
that were used to kind of crack chess were not possible with Go
139
365528
4671
التي تم استخدامها لنوع من لعبة الشطرنج ممكنة مع Go
06:10
because it's a much more pattern-based game,
140
370241
2419
لأنها لعبة تعتمد على الأنماط بشكل أكبر،
06:12
much more intuitive game.
141
372702
1293
وهي لعبة أكثر سهولة.
06:14
So even though Deep Blue beat Garry Kasparov in the '90s,
142
374037
3503
لذلك على الرغم من فوز ديب بلو على غاري كاسباروف في التسعينيات،
06:17
it took another 20 years for our program, AlphaGo,
143
377582
4129
فقد استغرق برنامجنا، AlphaGo ،20 عامًا أخرى
06:21
to beat the world champion at Go.
144
381753
1710
للتغلب على بطل العالم في Go.
06:23
And we always thought,
145
383504
1168
وكنا نعتقد دائمًا،
06:24
myself and the people working on this project for many years,
146
384714
2878
أنا والأشخاص الذين يعملون في هذا المشروع لسنوات عديدة،
06:27
if you could build a system that could beat the world champion at Go,
147
387634
3920
أنه إذا كان بإمكانك بناء نظام يمكنه التغلب على بطل العالم في Go،
06:31
it would have had to have done something very interesting.
148
391596
2711
فسيتعين عليه القيام بشيء مثير للاهتمام للغاية.
06:34
And in this case, what we did with AlphaGo,
149
394349
2043
وفي هذه الحالة، ما فعلناه مع AlphaGo،
06:36
is it basically learned for itself,
150
396392
1710
هو أنه تعلم بشكل أساسي لنفسه،
06:38
by playing millions and millions of games against itself,
151
398102
2711
من خلال لعب الملايين والملايين من الألعاب ضد نفسه،
06:40
ideas about Go, the right strategies.
152
400813
1794
والأفكار حول Go، والاستراتيجيات الصحيحة.
06:42
And in fact invented its own new strategies
153
402607
2461
وفي الواقع ابتكرت استراتيجياتها الجديدة
06:45
that the Go world had never seen before,
154
405068
2002
التي لم يسبق لعالم Go رؤيتها من قبل،
06:47
even though we've played Go for more than,
155
407070
2627
على الرغم من أننا لعبنا Go
06:49
you know, 2,000 years,
156
409697
1460
لأكثر من 2000 عام،
06:51
it's the oldest board game in existence.
157
411199
2753
فهي أقدم لعبة لوحية في الوجود.
لذا، كان الأمر مذهلاً للغاية. لم يقتصر الأمر على الفوز بالمباراة،
06:54
So, you know, it was pretty astounding.
158
414327
1918
06:56
Not only did it win the match,
159
416245
1627
06:57
it also came up with brand new strategies.
160
417872
2836
بل ابتكر أيضًا استراتيجيات جديدة تمامًا.
07:01
CA: And you continued this with a new strategy
161
421125
2169
وقد واصلت هذا باستراتيجية جديدة
07:03
of not even really teaching it anything about Go,
162
423336
2294
تتمثل في عدم تعليمها أي شيء عن Go،
07:05
but just setting up systems
163
425630
1877
ولكن فقط إعداد أنظمة
07:07
that just from first principles would play
164
427548
3254
يمكن استخدامها من المبادئ الأولى فقط
07:10
so that they could teach themselves from scratch, Go or chess.
165
430802
5088
حتى يتمكنوا من تعليم أنفسهم من الصفر أو Go أو الشطرنج.
07:15
Talk about AlphaZero and the amazing thing that happened in chess then.
166
435932
5714
تحدث عن AlphaZero والشيء المدهش الذي حدث في لعبة الشطرنج بعد ذلك.
07:21
DH: So following this, we started with AlphaGo
167
441646
3045
بعد ذلك، بدأنا مع AlphaGo
07:24
by giving it all of the human games that are being played on the internet.
168
444691
3920
من خلال إعطائها جميع الألعاب البشرية التي يتم لعبها على الإنترنت.
07:28
So it started that as a basic starting point for its knowledge.
169
448611
3587
لذلك بدأت ذلك كنقطة انطلاق أساسية لمعرفتها.
07:32
And then we wanted to see what would happen if we started from scratch,
170
452240
3587
ثم أردنا أن نرى ما سيحدث إذا بدأنا من الصفر،
07:35
from literally random play.
171
455868
1669
من اللعب العشوائي حرفيًا.
07:37
So this is what AlphaZero was.
172
457537
1501
إذن هذا ما كان عليه AlphaZero.
07:39
That's why it's the zero in the name,
173
459038
1835
هذا هو السبب في وجود الصفر في الاسم،
07:40
because it started with zero prior knowledge
174
460873
3170
لأنه بدأ بدون أي معرفة مسبقة
07:44
And the reason we did that is because then we would build a system
175
464085
3128
والسبب في قيامنا بذلك هو أننا سنبني نظامًا
07:47
that was more general.
176
467213
1251
أكثر عمومية.
07:48
So AlphaGo could only play Go,
177
468464
1919
لذلك كان بإمكان AlphaGo لعب Go فقط،
07:50
but AlphaZero could play any two-player game,
178
470425
2836
لكن AlphaZero يمكنه لعب أي لعبة ثنائية اللاعبين،
07:53
and it did it by playing initially randomly
179
473302
4088
وقد فعل ذلك من خلال اللعب بشكل عشوائي في البداية
07:57
and then slowly, incrementally improving.
180
477432
1960
ثم ببطء، مع التحسين التدريجي.
07:59
Well, not very slowly, actually, within the course of 24 hours,
181
479434
2961
حسنًا، ليس ببطء شديد، في الواقع، في غضون 24 ساعة،
08:02
going from random to better than world-champion level.
182
482395
3045
الانتقال من المستوى العشوائي إلى مستوى أفضل من مستوى بطل العالم.
وولهذا السبب إن هذا الأمر مذهل جدًا بالنسبة لي.
08:06
CA: And so this is so amazing to me.
183
486315
1752
08:08
So I'm more familiar with chess than with Go.
184
488067
2127
لذلك أنا على دراية بالشطرنج أكثر من Go.
08:10
And for decades,
185
490194
1335
وعلى مدى عقود،
08:11
thousands and thousands of AI experts worked on building
186
491571
3462
عمل الآلاف والآلاف من خبراء الذكاء الاصطناعي على بناء
08:15
incredible chess computers.
187
495033
1334
أجهزة كمبيوتر شطرنج مذهلة.
08:16
Eventually, they got better than humans.
188
496367
2544
في النهاية، أصبحوا أفضل من البشر.
08:18
You had a moment a few years ago,
189
498953
2211
كانت لديك لحظة قبل بضع سنوات،
08:21
where in nine hours,
190
501205
2628
حيث قامت AlphaZero في تسع ساعات
08:23
AlphaZero taught itself to play chess better than any of those systems ever did.
191
503875
6590
بتعليم نفسها لعب الشطرنج بشكل أفضل من أي من هذه الأنظمة على الإطلاق.
08:30
Talk about that.
192
510923
1252
تحدث عن ذلك.
08:32
DH: It was a pretty incredible moment, actually.
193
512175
2294
لقد كانت لحظة رائعة جدًا، في الواقع.
08:34
So we set it going on chess.
194
514510
2211
لذلك شرعنا في لعبة الشطرنج.
وكما قلت، يوجد تاريخ مشترك بين الشطرنج والذكاء الاصطناعي
08:38
And as you said, there's this rich history of chess and AI
195
518056
2752
08:40
where there are these expert systems that have been programmed
196
520808
2920
حيث توجد هذه الأنظمة الخبيرة التي تمت برمجتها
08:43
with these chess ideas, chess algorithms.
197
523770
2294
بأفكار الشطرنج هذه، خوارزميات الشطرنج.
08:46
And you have this amazing, you know,
198
526105
2044
ولديك هذا الشيء المذهل، كما تعلمون،
08:48
I remember this day very clearly, where you sort of sit down with the system
199
528191
3837
أتذكر هذا اليوم بوضوح شديد، حيث تجلس بشكل ما مع النظام الذي
08:52
starting off random, you know, in the morning,
200
532070
2919
يبدأ عشوائيًا، في الصباح،
08:55
you go for a cup of coffee, you come back.
201
535031
2002
تذهب لتناول فنجان من القهوة، وتعود.
08:57
I can still just about beat it by lunchtime, maybe just about.
202
537075
3503
لا يزال بإمكاني التغلب عليه بحلول وقت الغداء، ربما .
09:00
And then you let it go for another four hours.
203
540620
2210
ثم تتركها لمدة أربع ساعات أخرى.
09:02
And by dinner,
204
542830
1168
وبحلول العشاء،
09:03
it's the greatest chess-playing entity that's ever existed.
205
543998
2795
فهي أعظم كيان يلعب الشطرنج على الإطلاق.
09:06
And, you know, it's quite amazing,
206
546834
1669
وكما تعلمون، إنه لأمر مدهش للغاية،
09:08
like, looking at that live on something that you know well,
207
548503
3211
مثل، النظر إلى ذلك مباشرة على شيء تعرفه جيدًا،
09:11
you know, like chess, and you're expert in
208
551714
2044
كما تعلمون، مثل الشطرنج، وأنت خبير في ذلك
09:13
and actually just seeing that in front of your eyes.
209
553800
2460
وفي الواقع مجرد رؤيته أمام عينيك.
09:16
And then you extrapolate to what it could then do in science or something else,
210
556260
3963
ثم تستنبط ما يمكن أن تفعله بعد ذلك في العلوم أو أي شيء آخر،
09:20
which of course, games were only a means to an end.
211
560264
2878
والذي بالطبع، كانت الألعاب مجرد وسيلة لتحقيق غاية.
09:23
They were never the end in themselves.
212
563184
1835
لم تكن أبدًا النهاية في حد ذاتها.
09:25
They were just the training ground for our ideas
213
565019
2461
لقد كانت مجرد ساحة تدريب لأفكارنا
09:27
and to make quick progress in a matter of, you know,
214
567522
2877
ولإحراز تقدم سريع في غضون
09:30
less than five years actually went from Atari to Go.
215
570441
4046
أقل من خمس سنوات مرت فعليًا من Atari إلى Go.
09:34
CA: I mean, this is why people are in awe of AI
216
574529
3295
أعني، هذا هو السبب في أن الناس يشعرون بالرهبة من الذكاء الاصطناعي
09:37
and also kind of terrified by it.
217
577865
2127
وأيضًا يشعرون بالرعب منه.
09:40
I mean, it's not just incremental improvement.
218
580034
2169
أعني، إنه ليس مجرد تحسن تدريجي.
09:42
The fact that in a few hours you can achieve
219
582245
2919
حقيقة أنه في غضون ساعات قليلة يمكنك تحقيق
09:45
what millions of humans over centuries have not been able to achieve.
220
585206
4796
ما لم يتمكن ملايين البشر على مر القرون من تحقيقه.
09:50
That gives you pause for thought.
221
590044
2586
هذا يمنحك وقفة للتفكير.
09:53
DH: It does, I mean, it's a hugely powerful technology.
222
593214
2836
إنها حقيقة الأمر، أعني، إنها تقنية قوية للغاية.
09:56
It's going to be incredibly transformative.
223
596092
2044
ستكون نقلة قوية بشكل لا يصدق.
09:58
And we have to be very thoughtful about how we use that capability.
224
598136
4004
وعلينا أن ندرس بدقة كيفية استخدامنا لهذه القدرة.
10:02
CA: So talk about this use of it because this is again,
225
602181
2586
لذا لنتحدث عن هذا الاستخدام مرةً أخرى،
10:04
this is another extension of the work you've done,
226
604767
3754
لأنه مجرد مجال آخر للعمل الذي قمت به،
10:08
where now you're turning it to something incredibly useful for the world.
227
608563
4129
حيث تقوم الآن بتحويله إلى شيء مفيد للغاية للعالم.
10:12
What are all the letters on the left, and what’s on the right?
228
612733
2920
ما هي جميع الحروف الموجودة على اليسار، وماذا على اليمين؟
10:15
DH: This was always my aim with AI from a kid,
229
615695
4129
كان هذا هدفي دائماً مع الذكاء الاصطناعي منذ طفولتي،
10:19
which is to use it to accelerate scientific discovery.
230
619866
3169
وهدفي هو استخدام الذكاء الاصطناعي لتسريع الاكتشاف العلمي.
10:23
And actually, ever since doing my undergrad at Cambridge,
231
623035
2962
وفي الواقع، منذ دراستي الجامعية في كامبريدج،
ففي أحد الأيام كنت أفكر في هذه المشكلة بالنسبة للذكاء الاصطناعي
10:26
I had this problem in mind one day for AI,
232
626038
2545
10:28
it's called the protein-folding problem.
233
628624
1919
والتي تسمى مشكلة طي البروتين.
10:30
And it's kind of like a 50-year grand challenge in biology.
234
630543
2794
وهو نوع من التحدي الكبير لمدة 50 عامًا في علم الأحياء.
10:33
And it's very simple to explain.
235
633337
1919
ومن السهل جدًا شرح ذلك.
10:35
Proteins are essential to life.
236
635256
2461
البروتينات ضرورية للحياة.
10:38
They're the building blocks of life.
237
638009
1751
إنها اللبنات الأساسية للحياة.
10:39
Everything in your body depends on proteins.
238
639760
2086
كل شيء في جسمك يعتمد على البروتينات.
10:41
A protein is sort of described by its amino acid sequence,
239
641846
5380
يتم وصف البروتين نوعًا ما من خلال تسلسل الأحماض الأمينية الخاص به،
والذي يمكنك التفكير فيه تقريبًا على أنه التسلسل الجيني
10:47
which you can think of as roughly the genetic sequence
240
647226
2544
10:49
describing the protein, so that are the letters.
241
649812
2252
الذي يصف البروتين، هذه هي الأحرف.
10:52
CA: And each of those letters represents in itself a complex molecule?
242
652064
3295
CA: وكل من هذه الحروف يمثل في حد ذاته جزيءًا معقدًا؟
10:55
DH: That's right, each of those letters is an amino acid.
243
655401
2711
DH: هذا صحيح، كل حرف من هذه الأحرف عبارة عن حمض أميني.
10:58
And you can think of them as a kind of string of beads
244
658112
2544
ويمكنك التفكير فيها كنوع من سلسلة الخرز
11:00
there at the bottom, left, right?
245
660698
1919
هناك في الأسفل، اليسار، أليس كذلك؟
11:02
But in nature, in your body or in an animal,
246
662658
3420
ولكن في الطبيعة، في جسمك أو في حيوان،
11:06
this string, a sequence,
247
666078
1794
تتحول هذه السلسلة،
11:07
turns into this beautiful shape on the right.
248
667914
2544
إلى هذا الشكل الجميل على اليمين.
11:10
That's the protein.
249
670458
1209
هذا هو البروتين.
11:11
Those letters describe that shape.
250
671709
2586
هذه الحروف تصف هذا الشكل.
11:14
And that's what it looks like in nature.
251
674295
2294
وهذا ما تبدو عليه في الطبيعة.
11:16
And the important thing about that 3D structure is
252
676589
2502
والشيء المهم في هذا الهيكل ثلاثي الأبعاد
11:19
the 3D structure of the protein goes a long way to telling you
253
679133
3170
هو أن البنية ثلاثية الأبعاد للبروتين تقطع شوطًا طويلاً
11:22
what its function is in the body, what it does.
254
682345
2210
لإخبارك بوظيفته في الجسم، وماذا يفعل.
11:24
And so the protein-folding problem is:
255
684597
2252
وبالتالي فإن مشكلة طي البروتين هي:
11:26
Can you directly predict the 3D structure just from the amino acid sequence?
256
686891
4963
هل يمكنك التنبؤ مباشرة بالبنية ثلاثية الأبعاد فقط من تسلسل الأحماض الأمينية؟
11:31
So literally if you give the machine, the AI system,
257
691854
2544
لذا حرفيًا إذا أعطيت الجهاز، ونظام الذكاء الاصطناعي،
11:34
the letters on the left,
258
694440
1502
والأحرف الموجودة على اليسار،
11:35
can it produce the 3D structure on the right?
259
695983
2253
فهل يمكنه إنتاج البنية ثلاثية الأبعاد على اليمين؟
11:38
And that's what AlphaFold does, our program does.
260
698277
2336
وهذا ما يفعله برنامجنا AlphaFold.
11:40
CA: It's not calculating it from the letters,
261
700613
2169
فلا يتم حسابها من الحروف،
11:42
it's looking at patterns of other folded proteins that are known about
262
702823
4922
إنها تبحث في أنماط البروتينات المطوية الأخرى المعروفة عنها
11:47
and somehow learning from those patterns
263
707745
2628
وتتعلم بطريقة أو بأخرى من تلك الأنماط
11:50
that this may be the way to do this?
264
710414
1752
أن هذه قد تكون الطريقة للقيام بذلك؟
11:52
DH: So when we started this project, actually straight after AlphaGo,
265
712166
3295
لذلك عندما بدأنا هذا المشروع، في الواقع مباشرة بعد AlphaGo،
11:55
I thought we were ready.
266
715503
1168
اعتقدت أننا جاهزون.
11:56
Once we'd cracked Go,
267
716712
1168
بمجرد أن أطلقنا Go،
11:57
I felt we were finally ready after, you know,
268
717880
2711
شعرت أننا جاهزون أخيرًا بعد ما يقرب
12:00
almost 20 years of working on this stuff
269
720591
1919
من 20 عامًا من العمل على هذه الأشياء
12:02
to actually tackle some scientific problems,
270
722551
2586
لمعالجة بعض المشكلات العلمية فعليًا،
12:05
including protein folding.
271
725179
1335
بما في ذلك طي البروتين.
12:06
And what we start with is painstakingly,
272
726514
3044
وما نبدأ به هو بشق الأنفس،
12:09
over the last 40-plus years,
273
729600
1794
على مدى أكثر من 40 عامًا الماضية،
12:11
experimental biologists have pieced together
274
731435
3420
قام علماء الأحياء التجريبية بتجميع
12:14
around 150,000 protein structures
275
734855
2670
حوالي 150,000 بنية بروتينية
12:17
using very complicated, you know, X-ray crystallography techniques
276
737566
3671
باستخدام تقنيات معقدة للغاية في علم البلورات بالأشعة السينية
12:21
and other complicated experimental techniques.
277
741237
2794
وغيرها من التقنيات التجريبية المعقدة.
12:24
And the rule of thumb is
278
744031
2086
والقاعدة الأساسية
12:26
that it takes one PhD student their whole PhD,
279
746117
3628
هي أن الأمر يتطلب من طالب دكتوراه واحد الحصول على درجة الدكتوراه بأكملها،
12:29
so four or five years, to uncover one structure.
280
749787
3420
أي أربع أو خمس سنوات، للكشف عن بنية واحدة.
12:33
But there are 200 million proteins known to nature.
281
753207
2961
ولكن هناك 200 مليون بروتين معروف في الطبيعة.
12:36
So you could just, you know, take forever to do that.
282
756210
3170
لذلك يمكنك أن تستغرق وقتًا طويلاً للقيام بذلك.
12:39
And so we managed to actually fold, using AlphaFold, in one year,
283
759422
4337
وهكذا تمكنا بالفعل، باستخدام AlphaFold، في عام واحد،
12:43
all those 200 million proteins known to science.
284
763801
2419
من طي كل تلك الـ 200 مليون بروتين المعروفة للعلم.
12:46
So that's a billion years of PhD time saved.
285
766262
2711
وهذا يعني توفير مليار سنة من وقت الدكتوراه.
12:49
(Applause)
286
769015
3837
(تصفيق)
12:52
CA: So it's amazing to me just how reliably it works.
287
772893
2503
CA: لذلك من المدهش بالنسبة لي مدى موثوقية عملها.
12:55
I mean, this shows, you know,
288
775396
2669
أعني، هذا يظهر،
12:58
here's the model and you do the experiment.
289
778107
2044
ها هو النموذج وأنت تقوم بالتجربة.
13:00
And sure enough, the protein turns out the same way.
290
780151
3044
ومن المؤكد أن البروتين يظهر بنفس الطريقة.
13:03
Times 200 million.
291
783195
1210
200 مليون مرة.
13:04
DH: And the more deeply you go into proteins,
292
784447
2669
DH: وكلما تعمقت في البروتينات،
13:07
you just start appreciating how exquisite they are.
293
787158
2711
تبدأ في تقدير مدى روعتها.
13:09
I mean, look at how beautiful these proteins are.
294
789910
2294
أعني، انظروا إلى مدى جمال هذه البروتينات.
13:12
And each of these things do a special function in nature.
295
792246
2711
وكل من هذه الأشياء تؤدي وظيفة خاصة في الطبيعة.
13:14
And they're almost like works of art.
296
794957
1794
وهي تشبه الأعمال الفنية تقريبًا.
13:16
And it's still astounds me today that AlphaFold can predict,
297
796751
2836
ولا يزال يذهلني اليوم أن AlphaFold يمكن أن يتنبأ،
13:19
the green is the ground truth, and the blue is the prediction,
298
799587
2961
والأخضر هو الحقيقة الأساسية، والأزرق هو التنبؤ،
13:22
how well it can predict, is to within the width of an atom on average,
299
802548
4254
ومدى قدرته على التنبؤ، هو في حدود عرض الذرة في المتوسط،
13:26
is how accurate the prediction is,
300
806802
2044
هو مدى دقة التنبؤ،
13:28
which is what is needed for biologists to use it,
301
808888
2627
وهو ما يحتاجه علماء الأحياء لاستخدامه،
13:31
and for drug design and for disease understanding,
302
811557
2836
ولتصميم الأدوية وفهم الأمراض،
13:34
which is what AlphaFold unlocks.
303
814435
2502
وهو ما يفتحه AlphaFold.
13:36
CA: You made a surprising decision,
304
816979
1710
CA: لقد اتخذت قرارًا مفاجئًا،
13:38
which was to give away the actual results of your 200 million proteins.
305
818731
5964
وهو التخلي عن النتائج الفعلية لـ 200 مليون بروتين.
13:44
DH: We open-sourced AlphaFold and gave everything away
306
824737
3003
DH: قمنا بفتح مصدر AlphaFold وقدمنا كل شيء
13:47
on a huge database with our wonderful colleagues,
307
827782
2294
في قاعدة بيانات ضخمة مع زملائنا الرائعين، في المعهد الأوروبي للمعلوماتية الحيوية.
13:50
the European Bioinformatics Institute.
308
830117
1835
13:51
(Applause)
309
831952
3170
(تصفيق)
13:55
CA: I mean, you're part of Google.
310
835122
2378
أعني، أنت جزء من جوجل.
13:57
Was there a phone call saying, "Uh, Demis, what did you just do?"
311
837541
3963
هل كانت هناك مكالمة هاتفية تقول، «آه، ديميس، ماذا فعلت للتو؟»
14:01
DH: You know, I'm lucky we have very supportive,
312
841879
2753
كما تعلمون، أنا محظوظ لأن لدينا دعمًا كبيرًا،
14:04
Google's really supportive of science
313
844673
1794
حيث تدعم Google العلم وبشدة
14:06
and understand the benefits this can bring to the world.
314
846509
4337
وتفهم الفوائد التي يمكن أن يجلبها هذا للعالم.
14:10
And, you know, the argument here
315
850888
1543
وكما تعلمون،
14:12
was that we could only ever have even scratched the surface
316
852473
3211
كانت الحجة هنا هي أنه لم يكن بإمكاننا إلا أن نخدش سطح إمكانات
14:15
of the potential of what we could do with this.
317
855726
2211
ما يمكننا فعله بهذا.
14:17
This, you know, maybe like a millionth
318
857937
1877
هذا، ربما مثل جزء من المليون مما يفعله المجتمع العلمي به.
14:19
of what the scientific community is doing with it.
319
859814
2377
14:22
There's over a million and a half biologists around the world
320
862233
3336
هناك أكثر من مليون ونصف عالم أحياء حول العالم
14:25
have used AlphaFold and its predictions.
321
865569
1919
استخدموا AlphaFold وتوقعاته.
14:27
We think that's almost every biologist in the world
322
867530
2419
نعتقد أن كل عالم أحياء في العالم تقريبًا
14:29
is making use of this now, every pharma company.
323
869949
2252
يستفيد من هذا الآن، كل شركة أدوية.
14:32
So we'll never know probably what the full impact of it all is.
324
872243
3086
لذلك لن نعرف أبدًا ما هو التأثير الكامل لكل ذلك.
14:35
CA: But you're continuing this work in a new company
325
875329
2461
CA: لكنك تواصل هذا العمل في شركة جديدة
14:37
that's spinning out of Google called Isomorph.
326
877832
2544
انها من Google تسمى Isomorph.
14:40
DH: Isomorphic.
327
880376
1251
DH: متماثل الشكل.
14:41
CA: Isomorphic.
328
881627
1376
CA: متساوي الشكل.
14:43
Give us just a sense of the vision there.
329
883879
2002
أعطنا مجرد إحساس بالرؤية هناك.
14:45
What's the vision?
330
885881
1168
ما هي الرؤية؟
14:47
DH: AlphaFold is a sort of fundamental biology tool.
331
887091
2961
DH: AlphaFold هو نوع من أدوات البيولوجيا الأساسية.
14:50
Like, what are these 3D structures,
332
890094
2627
مثل، ما هذه الهياكل ثلاثية الأبعاد،
14:52
and then what might they do in nature?
333
892763
2795
ثم ماذا يمكن أن تفعل في الطبيعة؟
14:55
And then if you, you know,
334
895975
1334
ثم إذا كنت، كما تعلمون،
14:57
the reason I thought about this and was so excited about this,
335
897309
2962
السبب الذي جعلني أفكر في هذا الأمر وكنت متحمسًا جدًا له،
15:00
is that this is the beginnings of understanding disease
336
900271
3545
هو أن هذه هي بدايات فهم المرض
15:03
and also maybe helpful for designing drugs.
337
903816
3086
وربما تكون مفيدة أيضًا في تصميم الأدوية.
15:06
So if you know the shape of the protein,
338
906944
2503
لذلك إذا كنت تعرف شكل البروتين،
15:09
and then you can kind of figure out
339
909488
2378
وبعد ذلك يمكنك نوعًا ما معرفة
15:11
which part of the surface of the protein
340
911907
1919
أي جزء من سطح البروتين
15:13
you're going to target with your drug compound.
341
913826
2377
ستستهدفه بمركب الدواء الخاص بك.
15:16
And Isomorphic is extending this work we did in AlphaFold
342
916245
3670
وتقوم شركة Isomorphic بتوسيع هذا العمل الذي قمنا به في AlphaFold
15:19
into the chemistry space,
343
919957
1585
إلى الفضاء الكيميائي،
15:21
where we can design chemical compounds
344
921542
3003
حيث يمكننا تصميم مركبات كيميائية
15:24
that will bind exactly to the right spot on the protein
345
924587
2878
ترتبط تمامًا بالبقعة الصحيحة من البروتين
15:27
and also, importantly, to nothing else in the body.
346
927465
3086
وأيضًا، والأهم من ذلك، بأي شيء آخر في الجسم.
15:30
So it doesn't have any side effects and it's not toxic and so on.
347
930593
4296
لذلك ليس لها أي آثار جانبية وليست سامة وما إلى ذلك.
15:34
And we're building many other AI models,
348
934930
2169
ونحن نبني العديد من نماذج الذكاء الاصطناعي الأخرى،
15:37
sort of sister models to AlphaFold
349
937141
2336
نوع من النماذج الشقيقة لـ AlphaFold
15:39
to help predict,
350
939477
1710
للمساعدة في التنبؤ
15:41
make predictions in chemistry space.
351
941228
2294
في مجال الكيمياء.
15:43
CA: So we can expect to see
352
943564
1293
لذلك يمكننا أن نتوقع
15:44
some pretty dramatic health medicine breakthroughs
353
944899
3128
رؤية بعض الإنجازات الدراماتيكية في الطب الصحي
في السنوات القليلة المقبلة.
15:48
in the coming few years.
354
948027
1209
15:49
DH: I think we'll be able to get down drug discovery
355
949278
2711
أعتقد أننا سنكون قادرين على خفض اكتشاف الأدوية
15:51
from years to maybe months.
356
951989
2127
من سنوات إلى ربما أشهر.
15:54
CA: OK. Demis, I'd like to change direction a bit.
357
954158
2919
حسنًا. ديميس، أود تغيير الاتجاه قليلاً.
15:58
Our mutual friend, Liv Boeree, gave a talk last year at TEDAI
358
958329
3962
ألقت صديقتنا المشتركة، ليف بويري، محاضرة العام الماضي في TEDAI
16:02
that she called the “Moloch Trap.”
359
962291
2044
أطلقت عليها اسم «Moloch Trap».
16:04
The Moloch Trap is a situation
360
964835
1877
مصيدة Moloch هي حالة يمكن فيها
16:06
where organizations,
361
966754
2836
دفع المنظمات
16:09
companies in a competitive situation can be driven to do things
362
969632
5130
والشركات في وضع تنافسي
16:14
that no individual running those companies would by themselves do.
363
974762
4629
للقيام بأشياء لا يمكن لأي فرد يدير هذه الشركات القيام بها بمفرده.
16:19
I was really struck by this talk,
364
979391
2294
لقد أدهشني هذا الحديث حقًا،
16:21
and it's felt, as a sort of layperson observer,
365
981685
3587
وشعرت، كنوع من المراقبين العاديين،
16:25
that the Moloch Trap has been shockingly in effect in the last couple of years.
366
985272
5089
أن مصيدة مولوك كانت سارية بشكل مروع في العامين الماضيين.
16:30
So here you are with DeepMind,
367
990402
2044
إذن ها أنت مع DeepMind،
16:32
sort of pursuing these amazing medical breakthroughs
368
992488
3170
نوعًا ما تسعى وراء هذه الاختراقات الطبية المذهلة
16:35
and scientific breakthroughs,
369
995699
1418
والاختراقات العلمية،
16:37
and then suddenly, kind of out of left field,
370
997117
4004
ثم فجأة، نوعًا ما خارج المجال الأيسر،
16:41
OpenAI with Microsoft releases ChatGPT.
371
1001163
5381
تطلق OpenAI مع مايكروسوفت ChatGPT.
16:46
And the world goes crazy and suddenly goes, “Holy crap, AI is ...”
372
1006585
3879
ويصاب العالم بالجنون وفجأة يقول: «يا إلهي، الذكاء الاصطناعي هو...»
16:50
you know, everyone can use it.
373
1010464
2586
يمكن للجميع استخدامه.
16:54
And there’s a sort of, it felt like the Moloch Trap in action.
374
1014260
4045
وهناك نوع من الشعور وكأنه مصيدة مولوك أثناء العمل.
16:58
I think Microsoft CEO Satya Nadella actually said,
375
1018347
5130
أعتقد أن الرئيس التنفيذي لشركة Microsoft Satya Nadella قال بالفعل،
17:03
"Google is the 800-pound gorilla in the search space.
376
1023477
4838
«Google هي الغوريلا التي تزن 800 رطل في مساحة البحث.
17:08
We wanted to make Google dance."
377
1028357
2836
أردنا أن نجعل Google ترقص.»
17:12
How ...?
378
1032319
1293
كيف...؟
17:14
And it did, Google did dance.
379
1034613
1877
وفعلت ذلك، رقصت غوغل.
17:16
There was a dramatic response.
380
1036490
1960
كانت هناك استجابة مثيرة.
17:18
Your role was changed,
381
1038993
1167
تم تغيير دورك
17:20
you took over the whole Google AI effort.
382
1040160
3879
واستولت على جهود Google AI بأكملها.
17:24
Products were rushed out.
383
1044456
1627
تم إخراج المنتجات بسرعة.
17:27
You know, Gemini, some part amazing, part embarrassing.
384
1047251
3003
Gemini، جزء مذهل، جزء محرج.
17:30
I’m not going to ask you about Gemini because you’ve addressed it elsewhere.
385
1050296
3628
لن أسألك عن Gemini لأنك تناولت الموضوع في مكان آخر.
17:33
But it feels like this was the Moloch Trap happening,
386
1053924
3295
لكن يبدو أن هذا حدث في مصيدة Moloch،
17:37
that you and others were pushed to do stuff
387
1057261
2753
أنه تم دفعك أنت والآخرين للقيام بأشياء
17:40
that you wouldn't have done without this sort of catalyzing competitive thing.
388
1060055
5047
لم تكن لتفعلها بدون هذا النوع من التحفيز التنافسي.
17:45
Meta did something similar as well.
389
1065102
2169
قامت Meta بشيء مماثل أيضًا.
17:47
They rushed out an open-source version of AI,
390
1067313
3336
لقد سارعوا إلى إصدار نسخة مفتوحة المصدر من الذكاء الاصطناعي،
17:50
which is arguably a reckless act in itself.
391
1070691
3295
والذي يمكن القول إنه عمل متهور في حد ذاته.
17:55
This seems terrifying to me.
392
1075613
1459
يبدو هذا مرعبًا بالنسبة لي.
17:57
Is it terrifying?
393
1077072
1835
هل هذا مرعب؟
17:59
DH: Look, it's a complicated topic, of course.
394
1079617
2252
انظر، إنه موضوع معقد بالطبع.
18:01
And, first of all, I mean, there are many things to say about it.
395
1081869
3879
أولاً، هناك أشياء كثيرة يمكن قولها حول هذا الموضوع.
18:05
First of all, we were working on many large language models.
396
1085789
4421
أولاً، كنا نعمل على العديد من نماذج اللغات الكبيرة.
18:10
And in fact, obviously, Google research actually invented Transformers,
397
1090252
3337
وفي الواقع، من الواضح أن أبحاث Google اخترعت بالفعل شركة Transformers،
18:13
as you know,
398
1093589
1168
كما تعلم،
18:14
which was the architecture that allowed all this to be possible,
399
1094798
3045
وهي البنية التي سمحت لكل هذا بأن يكون ممكنًا،
18:17
five, six years ago.
400
1097885
1251
منذ خمس أو ست سنوات.
18:19
And so we had many large models internally.
401
1099178
2669
ولذا كان لدينا العديد من النماذج الكبيرة داخليًا.
18:21
The thing was, I think what the ChatGPT moment did that changed was,
402
1101847
3879
كان الأمر، أعتقد أن ما تغير لحظة ChatGPT
18:25
and fair play to them to do that, was they demonstrated,
403
1105768
3128
واللعب النظيف بالنسبة لهم للقيام بذلك، هو أنهم أظهروا،
18:28
I think somewhat surprisingly to themselves as well,
404
1108937
2795
بشكل مفاجئ إلى حد ما لأنفسهم أيضًا،
18:31
that the public were ready to,
405
1111732
2502
أن الجمهور كان مستعدًا،
18:34
you know, the general public were ready to embrace these systems
406
1114276
3003
كان عامة الناس على استعداد لاحتضان هذه الأنظمة
18:37
and actually find value in these systems.
407
1117279
1960
وإيجاد قيمة في هذه الأنظمة بالفعل.
18:39
Impressive though they are, I guess, when we're working on these systems,
408
1119281
3962
على الرغم من أنها مثيرة للإعجاب، عندما نعمل على هذه الأنظمة،
18:43
mostly you're focusing on the flaws and the things they don't do
409
1123243
3003
إلا أنك تركز في الغالب على العيوب والأشياء التي لا تفعلها
18:46
and hallucinations and things you're all familiar with now.
410
1126288
2836
والهلوسة والأشياء التي تعرفها جميعًا الآن.
18:49
We're thinking, you know,
411
1129124
1377
نحن نفكر،
18:50
would anyone really find that useful given that it does this and that?
412
1130501
3587
هل سيجد أي شخص ذلك مفيدًا حقًا نظرًا لأنه يفعل هذا وذاك؟
18:54
And we would want them to improve those things first,
413
1134129
2503
ونريد منهم تحسين هذه الأشياء أولاً
18:56
before putting them out.
414
1136674
1418
قبل إخمادها.
18:58
But interestingly, it turned out that even with those flaws,
415
1138133
3754
ولكن من المثير للاهتمام أنه اتضح أنه حتى مع هذه العيوب،
19:01
many tens of millions of people still find them very useful.
416
1141929
2919
لا يزال عشرات الملايين من الناس يجدونها مفيدة للغاية.
19:04
And so that was an interesting update on maybe the convergence of products
417
1144848
4922
ولذا كان هذا تحديثًا مثيرًا للاهتمام حول التقارب بين المنتجات
19:09
and the science that actually,
418
1149770
3712
والعلوم التي في الواقع،
19:13
all of these amazing things we've been doing in the lab, so to speak,
419
1153524
3253
كل هذه الأشياء المدهشة التي كنا نقوم بها في المختبر، إن جاز التعبير،
19:16
are actually ready for prime time for general use,
420
1156819
3003
جاهزة بالفعل لوقت الذروة للاستخدام العام،
19:19
beyond the rarefied world of science.
421
1159822
2002
خارج عالم العلوم النادر.
19:21
And I think that's pretty exciting in many ways.
422
1161824
2627
وأعتقد أن هذا مثير جدًا من نواح كثيرة.
19:24
CA: So at the moment, we've got this exciting array of products
423
1164910
2961
في الوقت الحالي، لدينا هذه المجموعة المثيرة من المنتجات
19:27
which we're all enjoying.
424
1167913
1210
التي نستمتع بها جميعًا.
19:29
And, you know, all this generative AI stuff is amazing.
425
1169164
2586
وكما تعلمون، كل هذه الأشياء المولدة للذكاء الاصطناعي مذهلة.
19:31
But let's roll the clock forward a bit.
426
1171750
2086
ولكن دعونا ندحرج الساعة إلى الأمام قليلاً.
19:34
Microsoft and OpenAI are reported to be building
427
1174503
3962
يُقال إن Microsoft و OpenAI تقومان ببناء
19:38
or investing like 100 billion dollars
428
1178507
2336
أو استثمار ما يقرب من 100 مليار دولار
19:40
into an absolute monster database supercomputer
429
1180884
5005
في كمبيوتر عملاق بقاعدة بيانات ضخمة تمامًا
19:45
that can offer compute at orders of magnitude
430
1185889
3212
يمكنه تقديم الحوسبة بأعداد كبيرة
19:49
more than anything we have today.
431
1189143
2544
أكثر من أي شيء لدينا اليوم.
19:52
It takes like five gigawatts of energy to drive this, it's estimated.
432
1192104
3920
ويقدر أن الأمر يتطلب حوالي خمسة جيجاوات من الطاقة لتشغيل هذا.
19:56
That's the energy of New York City to drive a data center.
433
1196066
4254
هذه هي طاقة مدينة نيويورك لقيادة مركز البيانات.
20:00
So we're pumping all this energy into this giant, vast brain.
434
1200612
3420
لذلك نحن نضخ كل هذه الطاقة إلى هذا الدماغ العملاق والواسع.
20:04
Google, I presume is going to match this type of investment, right?
435
1204658
4046
أفترض أن Google ستطابق هذا النوع من الاستثمار، أليس كذلك؟
20:09
DH: Well, I mean, we don't talk about our specific numbers,
436
1209037
2795
DH: حسنًا، أعني، نحن لا نتحدث عن أرقامنا المحددة،
20:11
but you know, I think we're investing more than that over time.
437
1211874
3336
ولكن كما تعلمون، أعتقد أننا نستثمر أكثر من ذلك بمرور الوقت.
20:15
So, and that's one of the reasons
438
1215252
1960
لذلك، وهذا أحد أسباب
20:17
we teamed up with Google back in 2014,
439
1217212
2169
تعاوننا مع Google في عام 2014،
20:19
is kind of we knew that in order to get to AGI,
440
1219381
3921
هو أننا عرفنا نوعًا ما أنه من أجل الوصول إلى الذكاء الاصطناعي العام،
20:23
we would need a lot of compute.
441
1223343
1502
سنحتاج إلى الكثير من الحوسبة.
20:24
And that's what's transpired.
442
1224887
1501
وهذا ما حدث.
20:26
And Google, you know, had and still has the most computers.
443
1226430
3420
وجوجل، كانت ولا تزال تمتلك معظم أجهزة الكمبيوتر.
CA: إذن تقوم الأرض ببناء أجهزة الكمبيوتر العملاقة هذه
20:30
CA: So Earth is building these giant computers
444
1230309
2961
التي ستقوم أساسًا،
20:33
that are going to basically, these giant brains,
445
1233270
2294
هذه العقول العملاقة، بتزويد الكثير من الاقتصاد المستقبلي بالطاقة.
20:35
that are going to power so much of the future economy.
446
1235564
2878
20:38
And it's all by companies that are in competition with each other.
447
1238484
3878
وكل ذلك من قبل الشركات التي تتنافس مع بعضها البعض.
20:42
How will we avoid the situation where someone is getting a lead,
448
1242362
5589
كيف سنتجنب الموقف الذي يحصل فيه شخص ما على زمام المبادرة،
20:47
someone else has got 100 billion dollars invested in their thing.
449
1247993
4213
وقد استثمر شخص آخر 100 مليار دولار في هذا الشيء.
20:52
Isn't someone going to go, "Wait a sec.
450
1252206
2085
ألن يقول أحد، “انتظر لحظة“.
20:54
If we used reinforcement learning here
451
1254333
3378
إذا استخدمنا التعلم المعزز هنا ربما
20:57
to maybe have the AI tweak its own code
452
1257753
2919
لجعل الذكاء الاصطناعي يعدل الكود الخاص به
21:00
and rewrite itself and make it so [powerful],
453
1260714
2252
ويعيد كتابة نفسه وجعله قويًا،
21:03
we might be able to catch up in nine hours over the weekend
454
1263008
3212
فقد نتمكن من تعويض ما يفعلونه في تسع ساعات
خلال عطلة نهاية الأسبوع.
21:06
with what they're doing.
455
1266220
1167
21:07
Roll the dice, dammit, we have no choice.
456
1267429
1960
إرم النرد، اللعنة، ليس لدينا خيار.
21:09
Otherwise we're going to lose a fortune for our shareholders."
457
1269431
2920
وإلا فإننا سنخسر ثروة لمساهمينا».
21:12
How are we going to avoid that?
458
1272351
1835
كيف سنتجنب ذلك؟
21:14
DH: Yeah, well, we must avoid that, of course, clearly.
459
1274228
2627
نعم، يجب أن نتجنب ذلك، بالطبع.
21:16
And my view is that as we get closer to AGI,
460
1276855
3587
وأرى أنه مع اقترابنا من الذكاء الاصطناعي العام،
21:20
we need to collaborate more.
461
1280442
2378
نحتاج إلى المزيد من التعاون.
21:22
And the good news is that most of the scientists involved in these labs
462
1282820
4879
والخبر السار هو أن معظم العلماء المشاركين في هذه المختبرات
21:27
know each other very well.
463
1287741
1376
يعرفون بعضهم البعض جيدًا.
21:29
And we talk to each other a lot at conferences and other things.
464
1289117
3546
ونتحدث مع بعضنا البعض كثيرًا في المؤتمرات وغيرها من الأشياء.
21:32
And this technology is still relatively nascent.
465
1292704
2503
وهذه التكنولوجيا لا تزال وليدة نسبيًا.
21:35
So probably it's OK what's happening at the moment.
466
1295249
2419
لذلك ربما لا بأس بما يحدث في الوقت الحالي.
21:37
But as we get closer to AGI, I think as a society,
467
1297709
4421
ولكن مع اقترابنا من الذكاء الاصطناعي العام،
أعتقد أننا كمجتمع بحاجة إلى البدء في التفكير في أنواع البنيات التي يتم بناؤها.
21:42
we need to start thinking about the types of architectures that get built.
468
1302172
4713
21:46
So I'm very optimistic, of course,
469
1306927
1793
لذلك أنا متفائل جدًا، بالطبع،
21:48
that's why I spent my whole life working on AI and working towards AGI.
470
1308762
4838
لهذا السبب قضيت حياتي كلها في العمل على الذكاء الاصطناعي والعمل من أجله بشكل العام
21:53
But I suspect there are many ways to build the architecture safely, robustly,
471
1313600
6507
لكنني أظن أن هناك العديد من الطرق لبناء البنية بأمان وقوة
22:00
reliably and in an understandable way.
472
1320148
3170
وموثوقية وبطريقة مفهومة.
22:03
And I think there are almost certainly going to be ways of building architectures
473
1323318
3837
وأعتقد أنه ستكون هناك بالتأكيد طرق لبناء الهياكل
الغير آمنة أو المحفوفة بالمخاطر بشكل ما.
22:07
that are unsafe or risky in some form.
474
1327155
1836
22:09
So I see a sort of,
475
1329032
2127
لذلك أرى عنق الزجاجة
22:11
a kind of bottleneck that we have to get humanity through,
476
1331201
3087
التى يتعين علينا أن نجتاز البشرية من خلالها،
22:14
which is building safe architectures as the first types of AGI systems.
477
1334329
6340
وهو بناء بنيات آمنة كأول أنواع أنظمة الذكاء الاصطناعي العام.
22:20
And then after that, we can have a sort of,
478
1340711
2502
وبعد ذلك، يمكن أن يكون لدينا
22:23
a flourishing of many different types of systems
479
1343255
2753
نوع من الازدهار العديد من الأنواع المختلفة من الأنظمة
22:26
that are perhaps sharded off those safe architectures
480
1346049
3712
التي ربما يتم تقسيمها من تلك البنيات الآمنة
22:29
that ideally have some mathematical guarantees
481
1349761
3337
التي تتمتع بشكل مثالي ببعض الضمانات الرياضية
22:33
or at least some practical guarantees around what they do.
482
1353140
3003
أو على الأقل بعض الضمانات العملية حول ما تفعله.
22:36
CA: Do governments have an essential role here
483
1356143
2252
CA: هل تلعب الحكومات دورًا أساسيًا هنا
22:38
to define what a level playing field looks like
484
1358437
2210
لتحديد شكل ساحة اللعب المتكافئة
22:40
and what is absolutely taboo?
485
1360647
1418
وما هو المحظور تمامًا؟
22:42
DH: Yeah, I think it's not just about --
486
1362107
1919
نعم، أعتقد أن الأمر لا يتعلق فقط -
في الواقع أعتقد أن الحكومة والمجتمع المدني والأوساط الأكاديمية
22:44
actually I think government and civil society
487
1364067
2127
22:46
and academia and all parts of society have a critical role to play here
488
1366194
3379
وجميع أجزاء المجتمع لها دور حاسم تلعبه هنا لتشكيل
22:49
to shape, along with industry labs,
489
1369573
2878
بجانب مختبرات الصناعة،
22:52
what that should look like as we get closer to AGI
490
1372451
2711
الشكل الذي يجب أن يبدو عليه ذلك مع اقترابنا من الذكاء الاصطناعي العام
22:55
and the cooperation needed and the collaboration needed,
491
1375203
3546
والتعاون المطلوب والمشاركة المطلوبة،
22:58
to prevent that kind of runaway race dynamic happening.
492
1378749
2669
لمنع حدوث هذا النوع من ديناميكية السباق الجامح.
23:01
CA: OK, well, it sounds like you remain optimistic.
493
1381752
2419
حسنًا، يبدو أنك لا تزال متفائلًا.
23:04
What's this image here?
494
1384171
1168
ما هذه الصورة هنا؟
23:05
DH: That's one of my favorite images, actually.
495
1385380
2461
هذه واحدة من الصور المفضلة لدي، في الواقع.
23:07
I call it, like, the tree of all knowledge.
496
1387841
2044
أسميها شجرة كل المعرفة.
23:09
So, you know, we've been talking a lot about science,
497
1389885
2544
كنا نتحدث كثيرًا عن العلم،
23:12
and a lot of science can be boiled down to
498
1392471
3128
ويمكن تلخيص الكثير من العلوم
23:15
if you imagine all the knowledge that exists in the world
499
1395599
2711
إذا تخيلت كل المعرفة الموجودة في العالم
23:18
as a tree of knowledge,
500
1398310
1543
كشجرة المعرفة،
23:19
and then maybe what we know today as a civilization is some, you know,
501
1399853
4797
ثم ربما ما نعرفه اليوم كحضارة
23:24
small subset of that.
502
1404691
1418
هو مجموعة فرعية صغيرة من ذلك.
23:26
And I see AI as this tool that allows us,
503
1406109
2962
وأرى الذكاء الاصطناعي كأداة تسمح لنا
23:29
as scientists, to explore, potentially, the entire tree one day.
504
1409071
3920
كعلماء، باستكشاف الشجرة بأكملها يومًا ما.
23:33
And we have this idea of root node problems
505
1413033
3503
ولدينا هذه الفكرة عن مشاكل العقدة الجذرية
23:36
that, like AlphaFold, the protein-folding problem,
506
1416578
2336
والتي، مثل AlphaFold،مشكلة طي البروتين،
23:38
where if you could crack them,
507
1418956
1459
حيث إذا كان بإمكانك حلها،
23:40
it unlocks an entire new branch of discovery or new research.
508
1420415
4713
فإنها تفتح فرعًا جديدًا بالكامل من الاكتشافات أو الأبحاث الجديدة.
23:45
And that's what we try and focus on at DeepMind
509
1425629
2252
وهذا ما نحاول التركيز عليه في DeepMind
23:47
and Google DeepMind to crack those.
510
1427923
2377
و Google DeepMind للقضاء عليها.
23:50
And if we get this right, then I think we could be, you know,
511
1430300
3545
وإذا فهمنا هذا بشكل صحيح، فأعتقد أننا يمكن أن نكون، كما تعلمون،
23:53
in this incredible new era of radical abundance,
512
1433887
2711
في هذا العصر الجديد المذهل من الوفرة الجذرية،
23:56
curing all diseases,
513
1436640
1543
وعلاج جميع الأمراض،
23:58
spreading consciousness to the stars.
514
1438225
2210
ونشر الوعي إلى النجوم.
24:01
You know, maximum human flourishing.
515
1441144
1919
أقصى قدر من الازدهار البشري.
24:03
CA: We're out of time,
516
1443063
1168
CA: لقد نفد الوقت،
24:04
but what's the last example of like, in your dreams,
517
1444272
2461
ولكن ما هو المثال الأخير في أحلامك،
24:06
this dream question that you think there is a shot
518
1446733
2962
سؤال الأحلام الذي تعتقد أن هناك فرصة
24:09
that in your lifetime AI might take us to?
519
1449736
2670
قد يأخذنا إليها الذكاء الاصطناعي في حياتك؟
24:12
DH: I mean, once AGI is built,
520
1452447
2294
بمجرد بناء الذكاء الاصطناعي العام،
24:14
what I'd like to use it for is to try and use it to understand
521
1454783
3295
فإن ما أود استخدامه من أجله هو محاولة استخدامه
24:18
the fundamental nature of reality.
522
1458120
2252
لفهم الطبيعة الأساسية للواقع.
24:20
So do experiments at the Planck scale.
523
1460372
2836
وكذلك بإجراء تجارب على مقياس بلانك.
24:23
You know, the smallest possible scale, theoretical scale,
524
1463250
3295
أصغر مقياس ممكن، مقياس نظري،
24:26
which is almost like the resolution of reality.
525
1466586
2253
والذي يشبه تقريبًا دقة الواقع.
24:29
CA: You know, I was brought up religious.
526
1469798
2002
CA: كما تعلمون، لقد نشأت متدينًا.
24:31
And in the Bible, there’s a story about the tree of knowledge
527
1471800
2878
وفي الكتاب المقدس، هناك قصة عن شجرة المعرفة
24:34
that doesn't work out very well.
528
1474720
1543
التي لا تعمل بشكل جيد.
24:36
(Laughter)
529
1476304
1544
(ضحك)
24:37
Is there any scenario
530
1477848
3628
هل هناك أي سيناريو
24:41
where we discover knowledge that the universe says,
531
1481518
5297
نكتشف فيه أن الكون يقول
24:46
"Humans, you may not know that."
532
1486815
2753
«أيها البشر، قد لا تعرفون ذلك»
24:49
DH: Potentially.
533
1489943
1210
DH: من المحتمل.
24:51
I mean, there might be some unknowable things.
534
1491153
2210
قد تكون هناك بعض الأشياء غير المعروفة.
24:53
But I think scientific method is the greatest sort of invention
535
1493363
5089
لكنني أعتقد أن الطريقة العلمية هي أعظم نوع من الاختراعات
24:58
humans have ever come up with.
536
1498493
1460
التي توصل إليها البشر على الإطلاق.
24:59
You know, the enlightenment and scientific discovery.
537
1499995
3545
كما تعلمون، التنوير والاكتشاف العلمي.
25:03
That's what's built this incredible modern civilization around us
538
1503582
3336
هذا ما بنى هذه الحضارة الحديثة المذهلة من حولنا
25:06
and all the tools that we use.
539
1506960
2002
وجميع الأدوات التي نستخدمها.
25:08
So I think it's the best technique we have
540
1508962
2669
لذلك أعتقد أنها أفضل تقنية لدينا
25:11
for understanding the enormity of the universe around us.
541
1511673
3545
لفهم ضخامة الكون من حولنا.
25:15
CA: Well, Demis, you've already changed the world.
542
1515677
2378
حسنًا، ديميس، لقد غيرت العالم بالفعل.
25:18
I think probably everyone here will be cheering you on
543
1518055
3211
أعتقد أنه من المحتمل أن يشجعك الجميع هنا
25:21
in your efforts to ensure that we continue to accelerate
544
1521266
3086
في جهودك لضمان استمرارنا
في التسارع في الاتجاه الصحيح.
25:24
in the right direction.
545
1524352
1252
25:25
DH: Thank you.
546
1525645
1168
DH: شكرا لك.
25:26
CA: Demis Hassabis.
547
1526813
1210
CA: ديميس هاسابيس.
25:28
(Applause)
548
1528065
5338
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7