Can AI Match the Human Brain? | Surya Ganguli | TED

76,477 views ・ 2025-02-21

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Hani Eldalees
00:04
So what the heck happened in the field of AI in the last decade?
0
4335
3170
إذن ما الذي حدث في مجال الذكاء الاصطناعي في العقد الماضي؟
00:07
It's like a strange new type of intelligence
1
7972
2436
إنه مثل نوع جديد غريب من الذكاء
00:10
appeared on our planet.
2
10441
1802
ظهر على كوكبنا.
00:12
But it's not like human intelligence.
3
12276
1869
لكنها ليست مثل الذكاء البشري.
00:14
It has remarkable capabilities,
4
14612
2169
لديها قدرات رائعة،
00:16
but it also makes egregious errors that we never make.
5
16814
2869
ولكنها ترتكب أيضًا أخطاء فظيعة لا نرتكبها أبدًا.
00:20
And it doesn't yet do the deep logical reasoning that we can do.
6
20317
3037
وهي لا تفعل حتى الآن التفكير المنطقي العميق الذي يمكننا القيام به.
00:24
It has a very mysterious surface of both capabilities and fragilities.
7
24221
5272
لها سطح غامض للغاية من حيث القدرات والهشاشة.
00:29
And we understand almost nothing about how it works.
8
29527
2836
ونحن لا نفهم شيئًا تقريبًا عن كيفية عملها.
00:32
I would like a deeper scientific understanding of intelligence.
9
32396
3737
أود الحصول على فهم علمي أعمق للذكاء.
00:37
But to understand AI,
10
37101
1368
ولكن لفهم الذكاء الاصطناعي، من
00:38
it's useful to place it in the historical context
11
38502
2937
المفيد وضعه في السياق التاريخي
00:41
of biological intelligence.
12
41472
2269
للذكاء البيولوجي.
00:43
The story of human intelligence
13
43774
1502
ربما بدأت
00:45
might as well have started with this little critter.
14
45309
2636
قصة الذكاء البشري أيضًا مع هذا المخلوق الصغير.
00:47
It's the last common ancestor of all vertebrates.
15
47978
2736
إنه آخر سلف مشترك لجميع الفقاريات.
00:50
We are all descended from it.
16
50748
1902
نحن جميعًا ننحدر منه.
00:52
It lived about 500 million years ago.
17
52683
2202
لقد عاشت منذ حوالي 500 مليون سنة.
00:55
Then evolution went on to build the brain, which in turn,
18
55586
3403
ثم استمر التطور في بناء الدماغ، والذي بدوره،
00:58
in the space of 500 years from Newton to Einstein,
19
58989
3604
في غضون 500 عام من نيوتن إلى أينشتاين،
01:02
developed the deep math and physics
20
62626
1836
طور الرياضيات والفيزياء العميقة
01:04
required to understand the universe, from quarks to cosmology.
21
64495
4071
المطلوبة لفهم الكون، من الكواركات إلى علم الكونيات.
01:08
And it did this all without consulting ChatGPT.
22
68599
2569
وقد فعلت كل هذا دون استشارة ChatGPT.
01:12
And then, of course, there's the advances of the last decade.
23
72169
3604
ثم، بالطبع، هناك التطورات التي حدثت في العقد الماضي.
01:15
To really understand what just happened in AI,
24
75806
2803
لكي نفهم حقًا ما حدث للتو في الذكاء الاصطناعي،
01:18
we need to combine physics, math,
25
78609
2069
نحتاج إلى الجمع بين الفيزياء والرياضيات
01:20
neuroscience, psychology, computer science and more,
26
80678
3270
وعلم الأعصاب وعلم النفس وعلوم الكمبيوتر والمزيد،
01:23
to develop a new science of intelligence.
27
83948
2836
لتطوير علم جديد للذكاء.
01:26
The science of intelligence
28
86817
1368
يمكن أن يساعدنا
01:28
can simultaneously help us understand biological intelligence
29
88219
3870
علم الذكاء في نفس الوقت على فهم الذكاء
01:32
and create better artificial intelligence.
30
92123
2135
البيولوجي وخلق ذكاء اصطناعي أفضل.
01:34
And we need this science now,
31
94291
2169
ونحن بحاجة إلى هذا العلم الآن،
01:36
because the engineering of intelligence
32
96494
1968
لأن هندسة الذكاء
01:38
has vastly outstripped our ability to understand it.
33
98462
3103
قد تجاوزت إلى حد كبير قدرتنا على فهمها.
01:41
I want to take you on a tour of our work in the science of intelligence
34
101565
3370
أريد أن آخذك في جولة حول عملنا في علم الذكاء
01:44
that addresses five critical areas in which AI can improve --
35
104969
3737
الذي يتناول خمسة مجالات مهمة يمكن للذكاء الاصطناعي تحسينها - كفاءة
01:48
data efficiency, energy efficiency, going beyond evolution,
36
108739
4405
البيانات وكفاءة الطاقة وتجاوز التطور
01:53
explainability and melding minds and machines.
37
113177
3337
وقابلية التفسير ودمج العقول والآلات.
01:56
Let's address these critical gaps one by one.
38
116514
3336
دعونا نعالج هذه الفجوات الحرجة واحدة تلو الأخرى.
02:00
First, data efficiency.
39
120251
1801
أولاً، كفاءة البيانات.
02:02
AI is vastly more data-hungry than humans.
40
122086
3303
الذكاء الاصطناعي متعطش للبيانات أكثر بكثير من البشر.
02:05
For example, we train our language models on the order of one trillion words now.
41
125389
5305
على سبيل المثال، نقوم بتدريب نماذجنا اللغوية في حدود تريليون كلمة الآن.
02:10
Well, how many words do we get?
42
130728
1902
حسنًا، كم عدد الكلمات التي نحصل عليها؟
02:12
Just 100 million.
43
132630
1201
فقط 100 مليون.
02:13
It's that tiny little red dot at the center.
44
133864
2136
إنها تلك النقطة الحمراء الصغيرة في المركز.
02:16
You might not be able to see it.
45
136033
1535
قد لا تتمكن من رؤيتها.
02:18
It would take us 24,000 years to read the rest of the one trillion words.
46
138035
5672
سوف يستغرق الأمر 24000 سنة لقراءة بقية التريليون كلمة.
02:23
OK, now, you might say that's unfair.
47
143707
1902
حسنا، الآن، قد تقول أن هذا غير عادل.
02:25
Sure, AI read for 24,000 human-equivalent years,
48
145609
3537
بالتأكيد، تمت قراءة الذكاء الاصطناعي لمدة 24000 سنة مكافئة للإنسان،
02:29
but humans got 500 million years of vertebrate brain evolution.
49
149180
3269
لكن البشر حصلوا على 500 مليون سنة من تطور دماغ الفقاريات.
02:32
But there's a catch.
50
152850
1535
ولكن هناك مشكلة.
02:34
Your entire legacy of evolution is given to you through your DNA,
51
154418
4571
يتم منحك إرثك الكامل من التطور من خلال الحمض النووي الخاص بك،
02:39
and your DNA is only about 700 megabytes,
52
159023
2469
ويبلغ حجم الحمض النووي لك حوالي 700 ميغا بايت فقط،
02:41
or equivalently, 600 million [words].
53
161525
2202
أو ما يعادله، 600 مليون [كلمة].
02:43
So the combined information we get from learning and evolution
54
163761
3570
لذا فإن المعلومات المجمعة التي نحصل عليها من التعلم والتطور
02:47
is minuscule compared to what AI gets.
55
167364
2203
ضئيلة مقارنة بما يحصل عليه الذكاء الاصطناعي.
02:49
You are all incredibly efficient learning machines.
56
169600
3503
أنتم جميعًا آلات تعليمية فعالة بشكل لا يصدق.
02:53
So how do we bridge the gap between AI and humans?
57
173137
3970
إذن كيف يمكننا سد الفجوة بين الذكاء الاصطناعي والبشر؟
02:57
We started to tackle this problem by revisiting the famous scaling laws.
58
177141
3470
بدأنا في معالجة هذه المشكلة من خلال إعادة النظر في قوانين التحجيم الشهيرة.
03:00
Here's an example of a scaling law,
59
180644
2036
في ما يلي مثال لقانون التحجيم،
03:02
where error falls off as a power law with the amount of training data.
60
182713
4271
حيث يقع الخطأ كقانون قوة مع كمية بيانات التدريب.
03:07
These scaling laws have captured the imagination of industry
61
187017
3604
استحوذت قوانين التوسع هذه على خيال الصناعة
03:10
and motivated significant societal investments
62
190621
2269
وحفزت استثمارات مجتمعية كبيرة
03:12
in energy, compute and data collection.
63
192923
3504
في الطاقة والحوسبة وجمع البيانات.
03:16
But there's a problem.
64
196460
1735
ولكن هناك مشكلة.
03:18
The exponents of these scaling laws are small.
65
198229
2602
إن أسس قوانين التحجيم هذه صغيرة.
03:20
So to reduce the error by a little bit,
66
200864
1902
لذلك لتقليل الخطأ قليلاً، قد
03:22
you might need to ten-x your amount of training data.
67
202800
2736
تحتاج لمضاعفة كمية بيانات التدريب بمقدار عشرة أضعاف.
03:25
This is unsustainable in the long run.
68
205536
2703
هذا غير مستدام على المدى الطويل.
03:28
And even if it leads to improvements in the short run,
69
208272
2602
وحتى لو أدى ذلك إلى تحسينات على المدى القصير،
03:30
there must be a better way.
70
210874
1402
يجب أن تكون هناك طريقة أفضل.
03:33
We developed a theory that explains why these scaling laws are so bad.
71
213110
4037
لقد طورنا نظرية تشرح سبب سوء قوانين القياس هذه.
03:37
The basic idea is that large random datasets are incredibly redundant.
72
217147
3671
الفكرة هي أن مجموعات البيانات العشوائية الكبيرة زائدة عن الحاجة بشكل لا يصدق.
03:40
If you already have billions of data points,
73
220851
2069
إذا كان لديك بالفعل مليارات نقاط البيانات،
03:42
the next data point doesn't tell you much that's new.
74
222920
2536
فإن نقطة البيانات التالية لا تخبرك كثيرًا بما هو جديد.
03:45
But what if you could create a nonredundant dataset,
75
225489
2836
ولكن ماذا لو كان بإمكانك إنشاء مجموعة بيانات غير مكررة،
03:48
where each data point is chosen carefully
76
228359
2135
حيث يتم اختيار كل نقطة بيانات بعناية
03:50
to tell you something new, compared to all the other data points?
77
230527
3204
لإخبارك بشيء جديد، مقارنة بجميع نقاط البيانات الأخرى؟
03:53
We developed theory and algorithms to do just this.
78
233764
4004
قمنا بتطوير النظرية والخوارزميات للقيام بذلك.
03:57
We theoretically predicted and experimentally verified
79
237801
3637
لقد توقعنا نظريًا وتحققنا تجريبيًا من
04:01
that we could bend these bad power laws down to much better exponentials,
80
241438
4205
أنه يمكننا خفض قوانين القوة السيئة هذه إلى أسس أفضل بكثير،
04:05
where adding a few more data points could reduce your error,
81
245676
2869
حيث يمكن أن تؤدي إضافة بضع نقاط بيانات أخرى إلى تقليل خطأك،
04:08
rather than ten-xing the amount of data.
82
248579
2235
بدلاً من مضاعفة كمية البيانات بمقدار عشرة أضعاف.
04:10
So what theory did we use to get this result?
83
250848
2769
إذن ما النظرية التي استخدمناها للحصول على هذه النتيجة؟
04:14
We used ideas from statistical physics, and these are the equations.
84
254485
3236
استخدمنا أفكارًا من الفيزياء الإحصائية، وهذه هي المعادلات.
04:17
Now, for the rest of this entire talk,
85
257755
1868
الآن، لبقية هذا الحديث بأكمله،
04:19
I'm going to go through these equations one by one.
86
259623
2469
سأتطرق إلى هذه المعادلات واحدة تلو الأخرى.
04:22
(Laughter)
87
262092
1101
(ضحك)
04:23
You think I'm joking?
88
263227
1368
هل تعتقد أنني أمزح؟
04:24
And explain them to you.
89
264595
1835
واشرحها لك.
04:26
OK, you're right, I'm joking. I'm not that mean.
90
266430
2736
حسنا، أنت على حق، أنا أمزح. أنا لست بهذا اللئيم.
04:29
But you should have seen the faces of the TED organizers
91
269166
2836
لكن كان يجب أن ترى وجوه منظمي TED
04:32
when I said I was going to do that.
92
272002
2269
عندما قلت إنني سأفعل ذلك.
04:34
Alright, let's move on.
93
274271
1235
حسنا، دعونا نمضي قدما.
04:35
Let's zoom out a little bit,
94
275539
1602
دعونا نتعمق قليلاً،
04:37
and think more generally
95
277174
1201
ونفكر بشكل عام في
04:38
about what it takes to make AI less data-hungry.
96
278375
2569
ما يلزم لجعل الذكاء الاصطناعي أقل تعطشًا للبيانات.
04:40
Imagine if we trained our kids
97
280978
2202
تخيل لو قمنا بتدريب أطفالنا بنفس الطريقة
04:43
the same way we pretrain our large language models,
98
283180
3036
التي نتدرب بها مسبقًا على نماذجنا اللغوية الكبيرة،
04:46
by next-word prediction.
99
286250
1535
من خلال التنبؤ بالكلمة التالية.
04:47
So I'd give my kid a random chunk of the internet and say,
100
287818
2736
لذلك كنت أعطي طفلي جزءًا عشوائيًا من الإنترنت وأقول،
04:50
"By the way, this is the next word."
101
290587
1902
«بالمناسبة، هذه هي الكلمة التالية.»
04:52
I'd give them another random chunk of the internet and say,
102
292523
2836
سأعطيهم جزءًا عشوائيًا آخر من الإنترنت وأقول،
04:55
"This is the next word."
103
295392
1468
«هذه هي الكلمة التالية.»
04:56
If that's all we did,
104
296860
1168
إذا كان كل ما فعلناه،
04:58
it would take our kids 24,000 years to learn anything useful.
105
298062
3036
فسيستغرق أطفالنا 24000 عام لتعلم أي شيء مفيد.
05:01
But we do so much more than that.
106
301131
2203
لكننا نفعل أكثر من ذلك بكثير.
05:03
For example, when I teach my son math,
107
303367
2569
على سبيل المثال، عندما أقوم بتدريس الرياضيات لابني،
05:05
I teach him the algorithm required to solve the problem,
108
305969
3104
أعلمه الخوارزمية المطلوبة لحل المشكلة،
05:09
then he can immediately solve new problems
109
309073
2002
ثم يمكنه على الفور حل المشكلات الجديدة
05:11
and generalize using far less training data than any AI system would do.
110
311108
3937
والتعميم باستخدام بيانات تدريب أقل بكثير من أي نظام ذكاء اصطناعي.
05:15
I don't just throw millions of math problems at him.
111
315079
3303
أنا لا أطرح عليه ملايين المسائل الرياضية فقط.
05:18
So to really make AI more data-efficient,
112
318415
4605
لذلك لجعل الذكاء الاصطناعي أكثر كفاءة في استخدام البيانات،
05:23
we have to go far beyond our current training algorithms
113
323020
2869
علينا أن نتجاوز خوارزميات التدريب الحالية
05:25
and turn machine learning into a new science of machine teaching.
114
325923
5272
ونحول التعلم الآلي إلى علم جديد لتعليم الآلة.
05:31
And neuroscience, psychology and math can really help here.
115
331228
3403
ويمكن أن يساعد علم الأعصاب وعلم النفس والرياضيات حقًا هنا.
05:35
Let's go on to the next big gap, energy efficiency.
116
335366
3403
دعنا ننتقل إلى الفجوة الكبيرة التالية، كفاءة الطاقة.
05:38
Our brains are incredibly efficient.
117
338802
2236
أدمغتنا فعالة بشكل لا يصدق.
05:41
We only consume 20 watts of power.
118
341038
2736
نحن نستهلك 20 واط فقط من الطاقة.
05:43
For reference, our old light bulbs were 100 watts.
119
343807
3437
كمرجع، كانت مصابيحنا القديمة 100 واط.
05:47
So we are all literally dimmer than light bulbs.
120
347277
3404
لذلك نحن جميعًا أكثر خفوتًا حرفيًا من المصابيح الكهربائية.
05:50
(Laughter)
121
350714
1702
(ضحك)
05:52
But what about AI?
122
352416
1168
ماذا عن الذكاء الاصطناعي؟
05:53
Training a large model can consume as much as 10 million watts,
123
353617
3303
يمكن أن يستهلك تدريب نموذج كبير ما يصل إلى 10 ملايين واط،
05:56
and there’s talk of going nuclear to power one-billion-watt data centers.
124
356920
4805
وهناك حديث عن استخدام الطاقة النووية لتشغيل مراكز البيانات بقدرة مليار واط.
06:01
So why is AI so much more energy-hungry than brains?
125
361759
4738
إذن لماذا يتعطش الذكاء الاصطناعي للطاقة أكثر بكثير من العقول؟
06:06
Well, the fault lies in the choice of digital computation itself,
126
366530
3770
حسنًا، يكمن الخطأ في اختيار الحساب الرقمي نفسه،
06:10
where we rely on fast and reliable bit flips
127
370334
3103
حيث نعتمد على تقلبات البت السريعة والموثوقة
06:13
at every intermediate step of the computation.
128
373470
2803
في كل خطوة وسيطة من الحساب.
06:16
Now, the laws of thermodynamics
129
376273
1568
تتطلب قوانين الديناميكا الحرارية
06:17
demand that every fast and reliable bit flip must consume a lot of energy.
130
377875
5839
أن كل انقلاب سريع وموثوق به يجب أن يستهلك الكثير من الطاقة.
06:24
Biology took a very different route.
131
384448
2803
اتخذ علم الأحياء مسارًا مختلفًا تمامًا.
06:27
Biology computes the right answer just in time,
132
387251
3103
يحسب علم الأحياء الإجابة الصحيحة في الوقت المناسب،
06:30
using intermediate steps that are as slow and as unreliable as possible.
133
390387
6240
باستخدام خطوات وسيطة بطيئة وغير موثوقة قدر الإمكان.
06:36
In essence, biology does not rev its engine any more than it needs to.
134
396660
4037
في الأساس، لا تقوم البيولوجيا بإعادة تشغيل محركها أكثر مما تحتاج إليه.
06:41
In addition, biology matches computation to physics much better.
135
401932
4972
بالإضافة إلى ذلك، فإن علم الأحياء يطابق الحساب مع الفيزياء بشكل أفضل.
06:46
Consider, for example, addition.
136
406937
2002
خذ بعين الاعتبار، مثلا الإضافة.
06:48
Our computers add using really complex energy-consuming transistor circuits,
137
408972
6240
تضيف أجهزة الكمبيوتر الخاصة بنا استخدام دوائر ترانزستور معقدة تستهلك الطاقة،
06:55
but neurons just directly add their voltage inputs,
138
415245
3370
لكن الخلايا العصبية تضيف مدخلات الجهد بشكل مباشر،
06:58
because Maxwell's laws of electromagnetism already know how to add voltage.
139
418615
5639
لأن قوانين ماكسويل للكهرومغناطيسية تعرف بالفعل كيفية إضافة الجهد.
07:04
In essence, biology matches its computation
140
424288
3904
في جوهرها، تقوم البيولوجيا
07:08
to the native physics of the universe.
141
428225
3070
بمطابقة حساباتها مع الفيزياء الأصلية للكون.
07:11
So to really build more energy-efficient AI,
142
431328
2803
لذلك لبناء ذكاء اصطناعي أكثر كفاءة في استخدام الطاقة حقًا،
07:14
we need to rethink our entire technology stack,
143
434164
2936
نحتاج إلى إعادة التفكير في مجموعة التكنولوجيا بأكملها،
07:17
from electrons to algorithms,
144
437134
2769
من الإلكترونات إلى الخوارزميات،
07:19
and better match computational dynamics to physical dynamics.
145
439937
4237
ومطابقة الديناميكيات الحسابية بشكل أفضل مع الديناميكيات الفيزيائية.
07:24
For example, what are the fundamental limits
146
444208
3703
على سبيل المثال، ما هي الحدود
07:27
on the speed and accuracy of any given computation,
147
447911
3470
الأساسية لسرعة ودقة أي حساب معين،
07:31
given an energy budget?
148
451381
1735
بالنظر إلى ميزانية الطاقة؟
07:33
And what kinds of electrochemical computers can achieve
149
453150
3337
وما أنواع أجهزة الكمبيوتر الكهروكيميائية التي يمكنها تحقيق
07:36
these fundamental limits?
150
456520
1735
هذه الحدود الأساسية؟
07:38
We recently solved this problem for the computation of sensing,
151
458255
4104
لقد قمنا مؤخرًا بحل هذه المشكلة لحساب الاستشعار،
07:42
which is something that every neuron has to do.
152
462392
2636
وهو أمر يجب على كل خلية عصبية القيام به.
07:45
We were able to find fundamental lower bounds or lower limits on the error
153
465028
4104
تمكنا من العثور على حدود دنيا أساسية أو حدود أقل للخطأ
07:49
as a function of the energy budget.
154
469132
1736
كدالة لميزانية الطاقة.
07:50
That's that red curve.
155
470901
1268
هذا هو المنحنى الأحمر.
07:52
And we were able to find the chemical computers that achieve these limits.
156
472202
3671
وتمكنا من العثور على أجهزة الكمبيوتر الكيميائية التي تحقق هذه الحدود.
07:55
And remarkably, they looked a lot like G-protein coupled receptors,
157
475906
3670
وبشكل ملحوظ، كانت تشبه إلى حد كبير المستقبلات المقترنة ببروتين G،
07:59
which every neuron uses to sense external signals.
158
479610
3837
والتي تستخدمها كل خلية عصبية لاستشعار الإشارات الخارجية.
08:03
So this suggests that biology can achieve amounts of efficiency
159
483480
5472
لذلك يشير هذا إلى أن علم الأحياء يمكن
08:08
that are close to fundamental limits set by the laws of physics itself.
160
488986
4004
أن يحقق كميات من الكفاءة قريبة من الحدود الأساسية وضعتها قوانين الفيزياء نفسها.
08:13
Popping up a level,
161
493023
1268
عند ظهور هذا المستوى،
08:14
neuroscience now gives us the ability to measure not only neural activity,
162
494324
5005
يمنحنا علم الأعصاب الآن القدرة على قياس ليس فقط النشاط العصبي،
08:19
but also energy consumption across, for example, the entire brain of the fly.
163
499363
5305
ولكن أيضًا استهلاك الطاقة عبر، على سبيل المثال، دماغ الذبابة بأكمله.
08:24
The energy consumption is measured through ATP usage,
164
504701
3003
يتم قياس استهلاك الطاقة من خلال استخدام ATP،
08:27
which is the chemical fuel that powers all neurons.
165
507738
3670
وهو الوقود الكيميائي الذي يعمل على تشغيل جميع الخلايا العصبية.
08:31
So now let me ask you a question.
166
511441
1702
لذا اسمحوا لي أن أطرح عليك سؤالاً.
08:33
Let's say in a certain brain region, neural activity goes up.
167
513143
3670
لنفترض أن النشاط العصبي يرتفع في منطقة معينة من الدماغ.
08:36
Does the ATP go up or down?
168
516847
2669
هل يرتفع ATP أم ينخفض؟
08:39
A natural guess would be that the ATP goes down,
169
519983
2303
قد يكون التخمين الطبيعي هو أن ATP ينخفض،
08:42
because neural activity costs energy, so it's got to consume the fuel.
170
522286
3303
لأن النشاط العصبي يكلف الطاقة، لذلك يجب أن يستهلك الوقود.
08:46
We found the exact opposite.
171
526156
2069
وجدنا العكس تمامًا.
08:48
When neural activity goes up,
172
528759
1768
عندما يرتفع النشاط العصبي، يرتفع
08:50
ATP goes up and it stays elevated
173
530561
2602
ATP ويبقى مرتفعًا
08:53
just long enough to power expected future neural activity.
174
533196
3704
لفترة كافية لتشغيل النشاط العصبي المستقبلي المتوقع.
08:56
This suggests that the brain follows a predictive energy allocation principle,
175
536934
4537
يشير هذا إلى أن الدماغ يتبع مبدأ تخصيص الطاقة التنبئي،
09:01
where it can predict how much energy is needed, where and when,
176
541505
4971
حيث يمكنه التنبؤ بكمية الطاقة المطلوبة،
09:06
and it delivers just the right amount of energy at just the right location,
177
546476
4405
وأين ومتى، ويوفر الكمية المناسبة من الطاقة في الموقع المناسب تمامًا،
09:10
for just the right amount of time.
178
550914
2870
لمقدار مناسب من الوقت.
09:14
So clearly, we have a lot to learn from physics, neuroscience and evolution
179
554384
6640
من الواضح أن لدينا الكثير لنتعلمه من الفيزياء وعلم الأعصاب والتطور
09:21
about building more energy-efficient AI.
180
561058
2502
حول بناء ذكاء اصطناعي أكثر كفاءة في استخدام الطاقة.
09:23
But we don't need to be limited by evolution.
181
563594
3236
لكننا لسنا بحاجة إلى أن نكون مقيدين بالتطور.
09:26
We can go beyond evolution,
182
566863
1635
يمكننا تجاوز التطور،
09:28
to co-opt the neural algorithms discovered by evolution,
183
568532
3136
لاستمالة الخوارزميات العصبية التي اكتشفها التطور،
09:31
but implement them in quantum hardware that evolution could never figure out.
184
571702
3970
ولكن تنفيذها في الأجهزة الكمومية التي لا يمكن للتطور اكتشافها أبدًا.
09:36
For example, we can replace neurons with atoms.
185
576840
3837
على سبيل المثال، يمكننا استبدال الخلايا العصبية بالذرات.
09:41
The different firing states of neurons
186
581445
1835
تتوافق حالات إطلاق الخلايا
09:43
correspond to the different electronic states of atoms.
187
583313
3370
العصبية المختلفة مع الحالات الإلكترونية المختلفة للذرات.
09:46
And we can replace synapses with photons.
188
586717
3937
ويمكننا استبدال نقاط الاشتباك العصبي بالفوتونات.
09:50
Just as synapses allow two neurons to communicate,
189
590654
2903
مثلما تسمح نقاط الاشتباك العصبي لخليتين عصبيتين بالتواصل، تسمح
09:53
photons allow two atoms to communicate through photon emission and absorption.
190
593590
5205
الفوتونات لذرتين بالتواصل من خلال انبعاث الفوتون وامتصاصه.
09:58
So what can we build with this?
191
598829
1868
إذن ما الذي يمكننا بناءه بهذا؟
10:01
We can build a quantum associative memory out of atoms and photons.
192
601264
4538
يمكننا بناء ذاكرة ترابطية كمومية من الذرات والفوتونات.
10:05
This is the same memory system
193
605836
1535
هذا هو نفس نظام
10:07
that won John Hopfield his recent Nobel Prize in physics,
194
607371
3503
الذاكرة الذي فاز جون هوبفيلد بجائزة نوبل
10:10
but this time, it's a quantum-mechanical system built of atoms and photons,
195
610907
3671
الأخيرة في الفيزياء، ولكن هذه المرة، إنه نظام ميكانيكي كمي مبني
10:14
and we can analyze its performance
196
614611
1668
من الذرات والفوتونات،
10:16
and show that the quantum dynamics yields enhanced memory capacity,
197
616279
4105
ويمكننا تحليل أدائه وإظهار أن الديناميكيات الكمومية تنتج قدرة
10:20
robustness and recall.
198
620417
2603
ذاكرة معززة وقوة واسترجاع.
10:23
We can also build new types of quantum optimizers built directly out of photons,
199
623053
4504
يمكننا أيضًا بناء أنواع جديدة من محسنات الكم المبنية مباشرة من الفوتونات،
10:27
and we can analyze their energy landscape
200
627591
2069
ويمكننا تحليل مشهد الطاقة الخاص بها
10:29
and explain how they solve optimization problems in fundamentally new ways.
201
629693
4371
وشرح كيفية حلها لمشاكل التحسين بطرق جديدة بشكل أساسي.
10:34
This marriage between neural algorithms and quantum hardware
202
634097
4238
هذا الزواج بين الخوارزميات العصبية والأجهزة الكمومية
10:38
opens up an entirely new field,
203
638368
2303
يفتح مجالًا جديدًا تمامًا،
10:40
which I like to call quantum neuromorphic computing.
204
640704
2636
والذي أحب أن أسميه الحوسبة العصبية الكمومية.
10:44
OK, but let's return to the brain,
205
644274
2369
حسنًا، ولكن دعونا نعود إلى الدماغ،
10:46
where explainable AI can help us understand how it works.
206
646677
2936
حيث يمكن للذكاء الاصطناعي القابل للتفسير أن يساعدنا على فهم كيفية عمله.
10:50
So now, AI allows us to build
207
650847
2603
حتى الآن، يسمح لنا الذكاء الاصطناعي ببناء نماذج دقيقة
10:53
incredibly accurate but complicated models of the brain.
208
653483
3737
للغاية ولكنها معقدة للدماغ.
10:57
So where is this all going?
209
657254
1668
إذن إلى أين يذهب كل هذا؟
10:58
Are we simply replacing something we don't understand, the brain,
210
658955
3104
هل نقوم ببساطة باستبدال شيء لا نفهمه، الدماغ،
11:02
with something else we don't understand, our complex model of it?
211
662092
3503
بشيء آخر لا نفهمه، نموذجنا المعقد له؟
11:05
As scientists, we'd like to have a conceptual understanding
212
665595
2837
كعلماء، نرغب في الحصول على فهم
11:08
of how the brain works,
213
668465
1268
مفاهيمي لكيفية عمل الدماغ،
11:09
not just have a model handed to us.
214
669766
1969
وليس مجرد تسليم نموذج لنا.
11:13
So basically, I'd like to give you
215
673136
3137
لذا في الأساس، أود أن أقدم لكم
11:16
an example of our work on explainable AI, applied to the retina.
216
676273
4805
مثالاً لعملنا على الذكاء الاصطناعي القابل للتفسير، المطبق على شبكية العين.
11:21
So the retina is a multilayered circuit of photoreceptors
217
681111
3036
فشبكية العين عبارة عن دائرة متعددة الطبقات من المستقبلات الضوئية
11:24
going to hidden neurons, going to output neurons.
218
684181
2402
تذهب للخلايا العصبية المخفية، وتنتج خلايا عصبية.
11:26
So how does it work?
219
686616
1602
إذن كيف يعمل؟
11:28
Well, we recently built the world's most accurate model of the retina.
220
688251
3771
حسنًا، قمنا مؤخرًا ببناء النموذج الأكثر دقة في العالم لشبكية العين.
11:32
It could reproduce two decades of experiments on the retina.
221
692022
3770
يمكن أن تعيد إنتاج عقدين من التجارب على شبكية العين.
11:35
So this is fantastic.
222
695826
1334
لذلك هذا رائع.
11:37
We have a digital twin of the retina.
223
697194
2536
لدينا توأم رقمي لشبكية العين.
11:39
But how does the twin work?
224
699763
1668
لكن كيف يعمل التوأم؟
11:41
Why is it designed the way it is?
225
701465
2402
لماذا تم تصميمها بالطريقة التي هي عليها؟
11:43
To make these questions concrete,
226
703900
3070
لجعل هذه الأسئلة ملموسة،
11:47
I'd like to discuss just one
227
707003
1802
أود مناقشة واحدة فقط
11:48
of the two decades of experiments that I mentioned.
228
708839
3069
من عقدين من التجارب التي ذكرتها.
11:51
And we're going to do this experiment on you right now.
229
711942
3069
وسنقوم بهذه التجربة عليك الآن.
11:55
I'd like you to focus on my hand, and I'd like you to track it.
230
715045
3804
أود منك أن تركز على يدي، وأود منك أن تتعقبها.
12:01
OK, great. Let's do that just one more time.
231
721952
3170
حسنا، عظيم. دعونا نفعل ذلك مرة أخرى فقط.
12:08
OK.
232
728058
1134
موافق.
12:09
You might have been slightly surprised when my hand reversed direction.
233
729226
4070
ربما فوجئت قليلاً عندما عكست يدي اتجاهها.
12:13
And you should be surprised,
234
733330
1968
ويجب أن تتفاجأ،
12:15
because my hand just violated Newton's first law of motion,
235
735332
3336
لأن يدي انتهكت للتو قانون نيوتن الأول للحركة،
12:18
which states that objects that are in motion tend to remain in motion.
236
738702
3870
والذي ينص على أن الأجسام المتحركة تميل إلى البقاء في حالة حركة.
12:22
So where in your brain is a violation of Newton's first law first detected?
237
742606
4871
إذن أين في دماغك تم اكتشاف انتهاك لقانون نيوتن الأول لأول مرة؟
12:28
The answer is remarkable. It's in your retina.
238
748111
3671
الجواب رائع. إنه في شبكية عينك.
12:31
There are neurons in your retina that will fire
239
751815
2302
هناك خلايا عصبية في شبكية العين ستنطلق
12:34
if and only if Newton's first law is violated.
240
754151
2769
إذا وفقط إذا تم انتهاك قانون نيوتن الأول.
12:37
So does our model do that?
241
757621
1701
فهل يقوم نموذجنا بذلك؟
12:40
Yes, it does. It reproduces it.
242
760157
2402
نعم، إنها كذلك. إنها تستنسخها.
12:42
But now, there's a puzzle.
243
762592
1268
ولكن الآن، هناك لغز.
12:43
How does the model do it?
244
763894
1868
كيف يقوم النموذج بذلك؟
12:45
Well, we developed methods, explainable AI methods,
245
765796
3903
حسنًا، لقد طورنا طرقًا، وأساليب ذكاء اصطناعي قابلة للتفسير،
12:49
to take any given stimulus that causes a neuron to fire,
246
769733
3870
لأخذ أي محفز معين يتسبب في إطلاق الخلايا العصبية،
12:53
and we carve out the essential subcircuit responsible for that firing,
247
773637
4237
وقمنا بتحديد الدائرة الفرعية الأساسية المسؤولة عن هذا الإطلاق،
12:57
and we explain how it works.
248
777908
2402
ونوضح كيفية عملها.
13:00
We were able to do this not only for Newton's first law violations,
249
780310
3337
لقد تمكنا من القيام بذلك ليس فقط لانتهاكات نيوتن الأولى للقانون،
13:03
but for the two decades of experiments that our model reproduced.
250
783680
3103
ولكن لعقدين من التجارب التي أعاد نموذجنا إنتاجها.
13:07
And so this one model reproduces two decades' worth of neuroscience
251
787317
4805
ولذا فإن هذا النموذج يعيد إنتاج ما قيمته عقدين من علم الأعصاب
13:12
and also makes some new predictions.
252
792122
1735
ويقدم أيضًا بعض التنبؤات الجديدة.
13:15
This opens up a new pathway to accelerating neuroscience discovery
253
795091
3637
هذا يفتح طريقًا جديدًا لتسريع اكتشاف علم الأعصاب
13:18
using AI.
254
798762
1468
باستخدام الذكاء الاصطناعي.
13:20
Basically, build digital twins of the brain,
255
800263
3037
في الأساس، قم ببناء التوائم الرقمية للدماغ،
13:23
and then use explainable AI to understand how they work.
256
803300
3036
ثم استخدم الذكاء الاصطناعي القابل للتفسير لفهم كيفية عملها.
13:26
We're actually engaged in a big effort at Stanford
257
806336
2703
نحن في الواقع منخرطون في جهد كبير في ستانفورد
13:29
to build a digital twin of the entire primate visual system
258
809039
3570
لبناء توأم رقمي للنظام المرئي الرئيسي بأكمله
13:32
and explain how it works.
259
812642
1669
وشرح كيفية عمله.
13:35
But we can go beyond that
260
815278
1569
لكن يمكننا تجاوز ذلك
13:36
and use our digital twins to meld minds and machines,
261
816880
6073
واستخدام التوائم الرقمية لدمج العقول والآلات، من
13:42
by allowing bidirectional communication between them.
262
822986
2870
خلال السماح بالاتصال ثنائي الاتجاه بينهما.
13:45
So imagine a scenario where you have a brain,
263
825889
2836
لذا تخيل سيناريو يكون لديك فيه دماغ،
13:48
you record from it, you build a digital twin.
264
828725
3370
تسجل منه، تبني توأمًا رقميًا.
13:52
Then you use control theory to learn neural activity patterns
265
832128
4171
ثم تستخدم نظرية التحكم لتعلم أنماط النشاط العصبي
13:56
that you can write directly into the digital twin to control it.
266
836299
3137
التي يمكنك كتابتها مباشرة في التوأم الرقمي للتحكم فيها.
14:00
Then, you take those same neural activity patterns
267
840270
2803
ثم تأخذ نفس أنماط النشاط العصبي
14:03
and you write them into the brain to control the brain.
268
843073
3737
وتكتبها في الدماغ للتحكم في الدماغ.
14:06
In essence, we can learn the language of the brain,
269
846843
2770
في الأساس، يمكننا تعلم لغة الدماغ،
14:09
and then speak directly back to it.
270
849646
2202
ثم التحدث إليها مباشرة.
14:12
So we recently carried out this program in mice,
271
852582
3470
لذلك قمنا مؤخرًا بتنفيذ هذا البرنامج على الفئران،
14:16
where we could use AI to read the mind of a mouse.
272
856086
3170
حيث يمكننا استخدام الذكاء الاصطناعي لقراءة عقل الماوس.
14:19
So on the top row, you're seeing images that we actually showed to the mouse,
273
859289
4805
لذا في الصف العلوي، ترى الصور التي عرضناها بالفعل على الماوس،
14:24
and in the bottom row,
274
864127
1535
وفي الصف السفلي،
14:25
you're seeing images that we decoded from the brain of the mouse.
275
865695
3704
ترى الصور التي قمنا بفك تشفيرها من دماغ الماوس.
14:29
Our decoded images are lower-resolution than the actual images,
276
869399
3504
تتميز الصور التي تم فك تشفيرها بدقة أقل من الصور الفعلية،
14:32
but not because our decoders are bad.
277
872936
2102
ولكن ليس لأن أجهزة فك التشفير لدينا سيئة.
14:35
It's because mouse visual resolution is bad.
278
875071
3137
ذلك لأن الدقة البصرية للماوس سيئة.
14:38
So actually, the decoded images
279
878742
1701
في الواقع،
14:40
show you what the world would actually look like
280
880443
3204
تُظهر لك الصور التي تم فك تشفيرها كيف سيبدو العالم فعليًا
14:43
if you were a mouse.
281
883647
1601
إذا كنت فأرًا.
14:46
Now, we can go beyond that.
282
886483
2569
الآن، يمكننا أن نتجاوز ذلك.
14:49
We can now write neural activity patterns into the mouse's brain,
283
889085
4371
يمكننا الآن كتابة أنماط النشاط العصبي في دماغ الفأر،
14:53
so we can make it hallucinate
284
893490
2202
حتى نتمكن من جعله يهلوس
14:55
any particular percept we would like it to hallucinate.
285
895725
2803
بأي تصور معين نود أن يهلوسه.
14:58
And we got so good at this
286
898528
1769
وقد نجحنا في هذا الأمر لدرجة
15:00
that we could make it reliably hallucinate a percept
287
900297
3703
أننا تمكنا من جعله يهلوس الإدراك بشكل موثوق من
15:04
by controlling only 20 neurons in the mouse's brain,
288
904034
2869
خلال التحكم في 20 خلية عصبية فقط في دماغ الفأر،
15:06
by figuring out the right 20 neurons to control.
289
906937
3203
من خلال اكتشاف 20 خلية عصبية مناسبة للتحكم فيها.
15:10
So essentially, we can control what the mouse sees
290
910173
3804
لذلك بشكل أساسي، يمكننا التحكم في ما يراه الماوس
15:14
directly, by writing to its brain.
291
914010
2369
مباشرة، عن طريق الكتابة إلى دماغه.
15:16
The possibilities of bidirectional communication
292
916413
3069
إن إمكانيات الاتصال ثنائي الاتجاه
15:19
between brains and machines are limitless.
293
919516
3370
بين العقول والآلات لا حدود لها.
15:22
To understand, to cure and to augment the brain.
294
922886
4571
لفهم وعلاج وزيادة الدماغ.
15:28
So I hope you'll see that the pursuit of a unified science of intelligence
295
928792
5972
لذلك آمل أن ترى أن السعي وراء علم موحد للذكاء يمتد عبر العقول والآلات
15:34
that spans brains and machines
296
934798
2369
يمكن
15:37
can both help us better understand biological intelligence
297
937200
3437
أن يساعدنا على فهم الذكاء البيولوجي بشكل أفضل
15:40
and help us create more efficient, explainable
298
940637
3470
ويساعدنا على إنشاء ذكاء اصطناعي أكثر كفاءة
15:44
and powerful artificial intelligence.
299
944140
2703
وقابلية للتفسير وقوة.
15:47
But it's important that this pursuit be done out in the open
300
947677
2903
ولكن من المهم أن يتم هذا السعي في العلن
15:50
so the science can be shared with the world,
301
950613
2203
حتى يمكن مشاركة العلم مع العالم،
15:52
and it must be done with a very long time horizon.
302
952849
2769
ويجب أن يتم ذلك في أفق زمني طويل جدًا.
15:55
This makes academia the perfect place to pursue a science of intelligence.
303
955952
4872
هذا يجعل الأوساط الأكاديمية المكان المثالي لمتابعة علم الذكاء.
16:00
In academia, we're free from the tyranny of quarterly earnings reports.
304
960857
4638
في الأوساط الأكاديمية، نحن متحررون من طغيان تقارير الأرباح الفصلية.
16:05
We're free from the censorship of corporate legal departments.
305
965495
3937
نحن متحررون من رقابة الأقسام القانونية للشركات.
16:09
We can be far more interdisciplinary than any one company.
306
969432
4071
يمكننا أن نكون متعددي التخصصات أكثر بكثير من أي شركة واحدة.
16:13
And our very mission is to share what we learn with the world.
307
973536
3737
ومهمتنا هي مشاركة ما نتعلمه مع العالم.
16:17
For all these reasons, we're actually building a new center
308
977307
2836
لكل هذه الأسباب، نحن في الواقع نبني مركزًا
16:20
for the science of intelligence at Stanford.
309
980176
3037
جديدًا لعلوم الذكاء في ستانفورد.
16:23
While there have been incredible advances in industry
310
983246
3670
على الرغم من وجود تطورات مذهلة
16:26
on the engineering of intelligence,
311
986916
1702
في الصناعة فيما يتعلق بهندسة
16:28
now increasingly happening behind closed doors,
312
988651
2837
الذكاء، والتي تحدث الآن بشكل متزايد
16:31
I'm very excited about what the science of intelligence can achieve
313
991521
4238
خلف الأبواب المغلقة، إلا أنني متحمس جدًا لما يمكن أن يحققه
16:35
out in the open.
314
995792
1268
علم الذكاء في العلن.
16:38
You know, in the last century,
315
998395
1468
كما تعلمون، في القرن الماضي،
16:39
one of the greatest intellectual adventures
316
999863
2636
كانت إحدى أعظم المغامرات الفكرية
16:42
lay in humanity peering outwards into the universe
317
1002499
2869
تكمن في نظر البشرية إلى الخارج إلى الكون لفهمه، من الكواركات
16:45
to understand it, from quarks to cosmology.
318
1005368
3971
إلى علم الكونيات.
16:49
I think one of the greatest intellectual adventures of this century
319
1009372
3404
أعتقد أن إحدى أعظم المغامرات الفكرية في هذا القرن
16:52
will lie in humanity peering inwards,
320
1012809
3036
ستكمن في نظر البشرية إلى الداخل،
16:55
both into ourselves and into the AIs that we create,
321
1015845
5039
سواء في أنفسنا أو في الذكاء الاصطناعي الذي نبتكره،
17:00
in order to develop a deeper, new scientific understanding of intelligence.
322
1020917
5105
من أجل تطوير فهم علمي أعمق وجديد للذكاء.
17:06
Thank you.
323
1026489
1201
شكرًا لكم.
17:07
(Applause)
324
1027724
2369
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7