How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

34,713 views ・ 2024-10-22

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Kseniia Skakun Утверджено: Ilya Rozenberg
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
Моя найсміливіша мрія - створити штучний інтелект,
00:08
that is our friend, you know.
1
8046
1793
який буде нашим другом, розумієте.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Якщо у вас є система ШІ, яка допомагає зрозуміти математику,
00:13
you can solve the economy of the world.
3
13802
2085
ви можете вирішити проблеми світової економіки.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Якщо є система ШІ, яка може розуміти гуманітарні науки,
00:19
we can actually solve all of our conflicts.
5
19516
2169
ми можемо вирішити наші конфлікти.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Я хочу, щоб ця система, враховуючи рівняння Ейнштейна та Максвелла,
00:25
take it and solve new physics, you know.
7
25730
2461
використала їх для рішення нових завдань з фізики.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Якщо ви розумієте фізику, ви можете вирішити енергетичну проблему.
00:32
So you can actually design ways for humans
9
32320
4296
Таким чином, ви дійсно можете зробити так,
00:36
to be the better versions of themselves.
10
36616
3170
щоб людство стало кращим.
00:39
I'm Ramin Hasani.
11
39828
1209
Мене звати Рамін Хасані.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Я співзасновник і генеральний директор Liquid AI.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
Liquid AI - це ШІ-компанія, побудована на основі технології,
00:48
that I invented back at MIT.
14
48128
2210
яку я винайшов ще в МТІ.
00:50
It’s called “liquid neural networks.”
15
50380
2044
Вона називається «рідкі нейронні мережі».
00:52
These are a form of flexible intelligence,
16
52424
2377
Це форма гнучкого інтелекту,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
що відрізняється від сучасних систем ШІ, які здебільшого є фіксованими.
00:58
So think about your brain.
18
58263
1835
Подумайте про свій мозок.
01:00
You can change your thoughts.
19
60849
1793
Ви можете міняти думку.
01:02
When somebody talks to you,
20
62684
1585
Коли хтось розмовляє з вами,
01:04
you can completely change the way you respond.
21
64311
2711
ви можете повністю змінити свою реакцію.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
У вас є механізм, який ми називаємо зворотним зв’язком системи.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Отже, коли ви отримуєте інформацію від когось,
01:15
you basically process that information, and then you reply.
24
75447
3003
ви обробляєте цю інформацію, а потім відповідаєте.
01:18
For liquid neural networks,
25
78450
1418
Для рідких нейронних мереж
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
ми просто взяли ці механізми зворотного зв’язку і додали їх до системи.
01:23
So that means it has the ability of thinking.
27
83872
2794
Отже, це означає, що вона здатна мислити.
01:27
That property is inspired by nature.
28
87125
2461
Ця властивість навіяна природою.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Ми розглянули мозок тварин,
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
зокрема дуже, дуже крихітного хробака «C. elegans»
01:38
The fascinating fact about the brain of the worm
31
98136
2586
Неймовірно те, що мозок цього хробака
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
на 75% схожий з геномом людини.
01:45
We have the entire genome mapped.
33
105185
2043
Ми склали повну картину геному,
01:47
So we understand a whole lot
34
107812
1794
тож ми багато знаємо
01:49
about the functionality of its nervous system as well.
35
109648
3545
про функції його нервової системи.
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Отже, якщо ми розуміємо властивості клітин хробака,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
то можемо створити такі ж хороші інтелектуальні системи, як цей хробак,
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
а потім перетворити їх на системи, які навіть перевершують людину.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
Причина, чому ми вивчаємо природу, полягає в тому, що ми насправді можемо
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
отримати швидкий доступ до вивчення всіх можливих алгоритмів,
02:16
that you can design.
41
136549
1168
які можна розробити.
02:17
You can look into nature,
42
137759
1293
Можна поглянути на природу,
02:19
that would give you like, a shortcut
43
139052
1835
що дає наочний зразок,
02:20
to really faster get into efficient algorithms
44
140929
2335
щоб дійсно швидше отримати ефективні алгоритми,
02:23
because nature has done a lot of search,
45
143264
1961
тому що природа зробила багато дослідів
02:25
billions of years of evolution, right?
46
145266
1877
за мільярди років еволюції, правда?
02:27
So we learned so much from those principles.
47
147143
2127
Ці принципи нас багато чого навчили.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Я щойно взяв крихітний принцип від хробака
02:32
into artificial neural networks.
49
152691
1543
для штучних нейронних мереж.
02:34
And now they are flexible,
50
154234
1251
І тепер вони гнучкі,
02:35
and they can solve problems in an explainable way
51
155485
2336
і можуть вирішувати проблеми зрозумілим способом,
02:37
that was not possible before.
52
157821
1418
що раніше було неможливо.
02:39
AI is becoming very capable, right?
53
159280
2253
AI стає дуже здібним, правда?
02:41
The reason why AI is hard to regulate
54
161574
2878
Причина, чому ШІ важко регулювати,
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
полягає в тому, що навіть розробники
02:48
we don't understand those systems.
56
168415
1626
не розуміють цих систем.
02:50
They are black boxes.
57
170083
1376
Це чорні скриньки.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
У Liquid ми використовуємо математику,
02:56
that are understandable,
59
176339
1418
яку ми розуміємо,
02:57
we have tools to really understand
60
177757
1627
тому маємо інструменти,
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
щоб зрозуміти та точно визначити, яка частина системи за що відповідає,
03:03
you're designing white box systems.
62
183430
2043
ми розробляємо системи білих скриньок.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Отже, якщо у вас є системи, поведінку яких можна зрозуміти,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
це означає, що навіть якщо ви масштабуєте їх у щось дуже, дуже розумне,
03:12
you can always have a lot of control over that system
65
192480
3212
ви завжди матимете значний контроль над системою,
03:15
because you understand it.
66
195692
1418
тому що ви її розумієте.
03:17
You can never let it go rogue.
67
197110
2085
Ви не пустите її на самоплив.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Отже, всі проблеми, з якими ми маємо справу зараз,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
усі ці сценарії судного дня,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
стосуються масштабування технології, яку ми не розуміємо.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Мета Liquid - заспокоїти людей
03:30
and show people that, hey,
72
210957
1460
і сказати їм: “Послухайте,
03:32
you can have very powerful systems,
73
212459
2502
у вас можуть бути дуже потужні системи,
03:35
that you have a lot of control and visibility
74
215003
2377
але ви матимете контроль і розуміння
03:37
into their working mechanisms.
75
217422
2002
їх робочих механізмів“.
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
Мати щось [із] суперінтелектом - це величезний дар,
03:42
and it can enable a lot of things for us.
77
222886
2544
і це може дати нам багато можливостей.
03:45
But at the same time,
78
225472
1126
Але водночас
03:46
we need to have control over that technology.
79
226639
2128
ми повинні контролювати цю технологією.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Тому що це вперше ми матимемо технологію,
03:52
that is going to be better than all of humanity combined.
81
232020
2711
яка буде кращою, ніж усе людство разом узяте.
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7