How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

36,262 views ・ 2024-10-22

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Simin Kazemi Reviewer: shirin etebar
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
بزرگ‌ترین رویای من طراحی هوش مصنوعی‌ای است
00:08
that is our friend, you know.
1
8046
1793
که دوست ما باشد. متوجهید؟!
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
اگر سیستم هوش مصنوعی‌ای داشته باشید که به ما کمک کند ریاضیات را درک کنیم،
00:13
you can solve the economy of the world.
3
13802
2085
می‌توانید مشکلات اقتصاد جهان را حل کنید.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
اگر سیستم هوش مصنوعی‌ای داشته باشید که بتواند علوم انسانی را درک کند،
00:19
we can actually solve all of our conflicts.
5
19516
2169
می‌توانیم در واقع تمام اختلافاتمان را حل کنیم.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
من می‌خواهم این سیستم، با توجه به معادلات انیشتین و ماکسول،
00:25
take it and solve new physics, you know.
7
25730
2461
در واقع، این معادلات را بگیرد و مسئله‌های فیزیک جدید را حل کند.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
اگر فیزیک بدانید، می‌توانید مشکل انرژی را حل کنید.
00:32
So you can actually design ways for humans
9
32320
4296
بنابراین در واقع می‌توانید راه‌هایی برای انسان‌ها طراحی کنید
00:36
to be the better versions of themselves.
10
36616
3170
که به نسخه‌های بهتری از خودشان تبدیل شوند.
00:39
I'm Ramin Hasani.
11
39828
1209
من رامین حسنی هستم.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
من هم‌بنیانگذار و مدیرعامل شرکت لیکوئید اِی‌آی هستم.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
لیکوئید اِی‌آی یک شرکت هوش مصنوعی است که بر پایه‌ی فناوری‌ای ساخته شده است
00:48
that I invented back at MIT.
14
48128
2210
که من قبل‌تر در دانشگاه ام‌آی‌تی آن را اختراع کردم
00:50
It’s called “liquid neural networks.”
15
50380
2044
و «شبکه‌های عصبی مایع» نام دارد.
00:52
These are a form of flexible intelligence,
16
52424
2377
این شبکه‌ها نوعی هوش انعطاف‌پذیر هستند،
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
برخلاف سیستم‌های هوش مصنوعی امروزی که اساساً ثابت‌اند.
00:58
So think about your brain.
18
58263
1835
خب، به مغز خودتان فکر کنید.
01:00
You can change your thoughts.
19
60849
1793
می‌توانید افکارتان را تغییر دهید.
01:02
When somebody talks to you,
20
62684
1585
وقتی کسی با شما صحبت می‌کند،
01:04
you can completely change the way you respond.
21
64311
2711
می‌توانید این که چگونه پاسخ می‌دهید را کاملاً تغییر دهید.
شما همیشه مکانیزمی دارید که در سیستم شما، به آن بازخورد می‌گوییم.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
01:11
So basically when you receive information from someone as an input,
23
71109
4296
بنابراین، در اصل وقتی اطلاعاتی را به‌عنوان ورودی از کسی دریافت می‌کنید،
01:15
you basically process that information, and then you reply.
24
75447
3003
در اصل، آن اطلاعات را پردازش می‌کنید و بعد پاسخ می‌دهید.
01:18
For liquid neural networks,
25
78450
1418
برای شبکه‌های عصبی مایع،
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
ما صرفاً آن مکانیزم‌های بازخورد را گرفتیم و آن را به سیستم اضافه کردیم.
01:23
So that means it has the ability of thinking.
27
83872
2794
معنایش این است که این سیستم، توانایی فکرکردن را دارد.
01:27
That property is inspired by nature.
28
87125
2461
این ویژگی از طبیعت الهام گرفته شده است.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
ما به مغز حیوانات نگاهی انداختیم و به‌ویژه
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
به کرم بسیار بسیار کوچکی به نام سی. الگانس.
01:38
The fascinating fact about the brain of the worm
31
98136
2586
نکته‌ی جالب در مورد مغز این کرم
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
این است که ۷۵ درصد از ژنومی که دارد با انسان‌ها مشترک است.
01:45
We have the entire genome mapped.
33
105185
2043
ما نقشه‌ی کل این ژنوم را برداشته‌ایم.
01:47
So we understand a whole lot
34
107812
1794
پس ما چیزهای خیلی زیادی درباره‌ی عملکرد سیستم عصبی آن کرم را هم متوجه شده‌ایم.
01:49
about the functionality of its nervous system as well.
35
109648
3545
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
پس اگر ویژگی‌های سلول‌های این کرم را بفهمید،
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
شاید بتوانیم سیستم‌های هوشمندی بسازیم که به خوبی آن کرم باشند
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
و بعد تکامل یابند و به سیستم‌هایی تبدیلشان کنیم که حتی از انسان‌ها هم بهتر باشند.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
دلیل این که داریم طبیعت را بررسی می‌کنیم این حقیقت است که در حقیقت می‌توانیم
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
با بررسی انواع الگوریتم‌های ممکن که می‌توان طراحی کرد، میانبر بزنیم.
02:16
that you can design.
41
136549
1168
02:17
You can look into nature,
42
137759
1293
می‌توانید به طبیعت نگاه کنید، که به شما به‌نوعی میانبری می‌دهد
02:19
that would give you like, a shortcut
43
139052
1835
02:20
to really faster get into efficient algorithms
44
140929
2335
تا حسابی سریع‌تر به الگوریتم‌های کارآمد برسید
02:23
because nature has done a lot of search,
45
143264
1961
چون طبیعت، زیاد جست‌وجو کرده است،
02:25
billions of years of evolution, right?
46
145266
1877
میلیاردها سال تکامل، درست است؟
02:27
So we learned so much from those principles.
47
147143
2127
پس ما چیزهای زیادی از این اصول آموختیم.
02:29
I just brought a tiny principle from the worm
48
149312
3337
من فقط یک اصل کوچک را از کرم گرفتم
02:32
into artificial neural networks.
49
152691
1543
و به شبکه‌های عصبی مصنوعی آوردم.
02:34
And now they are flexible,
50
154234
1251
حالا این شبکه‌ها انعطاف‌پذیرند،
02:35
and they can solve problems in an explainable way
51
155485
2336
و می‌توانند مشکلات را به روشی توضیح‌پذیر حل کنند که قبلاً ممکن نبود.
02:37
that was not possible before.
52
157821
1418
02:39
AI is becoming very capable, right?
53
159280
2253
هوش مصنوعی دارد بسیار توانمند می‌شود، درست است؟
02:41
The reason why AI is hard to regulate
54
161574
2878
دلیل این که چرا سامان‌دهی هوش مصنوعی دشوار است
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
این است که ما نمی‌توانیم بفهمیم، حتی کسانی که سیستم‌ها را طراحی می‌کنند،
02:48
we don't understand those systems.
56
168415
1626
ما این سیستم‌ها را نمی‌فهمیم.
02:50
They are black boxes.
57
170083
1376
جعبه سیاه هستند.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
با لیکوئید، چون اساساً از ریاضیاتی استفاده می‌کنیم که فهمیدنی است،
02:56
that are understandable,
59
176339
1418
02:57
we have tools to really understand
60
177757
1627
ابزارهایی داریم تا واقعاً بفهمیم
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
و دقیق مشخص کنیم که کدام بخش از سیستم مسئول چه کاری است،
03:03
you're designing white box systems.
62
183430
2043
دارید سیستم‌های جعبه سفید طراحی می‌کنید.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
پس اگر سیستم‌هایی داشته باشید که بتوانید رفتارشان را درک کنید،
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
یعنی حتی اگر آن‌ها را به چیزی بسیار بسیار هوشمند ارتقا دهید،
03:12
you can always have a lot of control over that system
65
192480
3212
همیشه می‌توانید کنترل زیادی روی آن سیستم داشته باشید
03:15
because you understand it.
66
195692
1418
چون آن را می‌فهمید.
03:17
You can never let it go rogue.
67
197110
2085
می‌توانید هرگز اجازه ندهید که سرکش شود.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
پس همه‌ی بحران‌هایی که الان با آن‌ها روبرو هستیم،
03:22
you know, doomsday kind of scenarios,
69
202323
1794
می‌دانید، سناریوهای به‌نوعی آخرالزمانی،
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
همه درباره‌ی ارتقای فناوری‌ای هستند که ما آن را نمی‌فهمیم.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
با لیکوئید، هدف ما این است که مردم را واقعاً آرام کنیم
03:30
and show people that, hey,
72
210957
1460
و به مردم نشان دهیم که: آهای،
03:32
you can have very powerful systems,
73
212459
2502
شما می‌توانید سیستم‌های بسیار قدرتمندی داشته باشید
03:35
that you have a lot of control and visibility
74
215003
2377
که کنترل و دید زیادی بر مکانیسم‌های کاریشان دارید.
03:37
into their working mechanisms.
75
217422
2002
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
موهبت شگرفی است که چیزی [با] ابَرهوش داشته باشید،
03:42
and it can enable a lot of things for us.
77
222886
2544
و این ابَرهوش می‌تواند ما را در چیزهای زیادی توانمند کند.
03:45
But at the same time,
78
225472
1126
اما در عین حال، باید بر آن فناوری کنترل داشته باشیم.
03:46
we need to have control over that technology.
79
226639
2128
زیرا این اولین بار است که ما قرار است فناوری‌ای داشته باشیم
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
که قرار است از مجموع توانایی کل بشریت هم بهتر باشد.
03:52
that is going to be better than all of humanity combined.
81
232020
2711
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7