How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

36,251 views ・ 2024-10-22

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Dario Cecconi Revisore: Gabriella Patricola
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
Il mio sogno più sfrenato è progettare un'intelligenza artificiale
00:08
that is our friend, you know.
1
8046
1793
che sia nostra amica, sapete.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Se hai un’intelligenza artificiale che ci aiuta a capire la matematica,
00:13
you can solve the economy of the world.
3
13802
2085
puoi risolvere l'economia mondiale.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Se disponi di un’intelligenza artificiale che comprende le scienze umanitarie,
00:19
we can actually solve all of our conflicts.
5
19516
2169
possiamo realmente risolvere tutti i nostri conflitti.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Voglio che questo sistema, date le equazioni di Einstein e Maxwell,
00:25
take it and solve new physics, you know.
7
25730
2461
le utilizzi e risolva la nuova fisica, sapete.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Se capisci la fisica, puoi risolvere il problema dell’energia.
00:32
So you can actually design ways for humans
9
32320
4296
Quindi in pratica puoi progettare modi in cui gli umani
00:36
to be the better versions of themselves.
10
36616
3170
possano essere la versione migliore di se stessi.
00:39
I'm Ramin Hasani.
11
39828
1209
Sono Ramin Hasani.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Sono il cofondatore e CEO di Liquid AI.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
La Liquid AI è un’azienda di intelligenza artificiale costruita su una tecnologia
00:48
that I invented back at MIT.
14
48128
2210
che ho inventato al MIT.
00:50
It’s called “liquid neural networks.”
15
50380
2044
Si chiama “liquid neural networks”.
00:52
These are a form of flexible intelligence,
16
52424
2377
Si tratta di una forma di intelligenza flessibile,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
al contrario delle attuali AI che di base sono fisse.
00:58
So think about your brain.
18
58263
1835
Quindi, pensate al vostro cervello.
01:00
You can change your thoughts.
19
60849
1793
Potete cambiare i vostri pensieri.
01:02
When somebody talks to you,
20
62684
1585
Quando qualcuno ti parla,
01:04
you can completely change the way you respond.
21
64311
2711
puoi cambiare completamente il modo in cui rispondi.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Nel tuo sistema hai sempre un meccanismo che chiamiamo feedback.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Quindi, in pratica, quando ricevi informazioni da qualcuno come input,
01:15
you basically process that information, and then you reply.
24
75447
3003
fondamentalmente elabori tali informazioni e poi rispondi.
01:18
For liquid neural networks,
25
78450
1418
Per le liquid neural networks,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
abbiamo solo ottenuto quei meccanismi di feedback e li abbiamo aggiunti al sistema.
01:23
So that means it has the ability of thinking.
27
83872
2794
Quindi significa che ha la capacità di pensare.
01:27
That property is inspired by nature.
28
87125
2461
Quella proprietà è ispirata dalla natura.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Abbiamo esaminato il cervello degli animali e, in particolare,
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
un verme molto, molto piccolo chiamato «C. elegans».
01:38
The fascinating fact about the brain of the worm
31
98136
2586
Il fatto affascinante del cervello del verme
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
è che condivide il 75 percento del genoma umano.
01:45
We have the entire genome mapped.
33
105185
2043
Abbiamo mappato l'intero genoma.
01:47
So we understand a whole lot
34
107812
1794
Quindi capiamo molto anche
01:49
about the functionality of its nervous system as well.
35
109648
3545
sulle funzionalità del suo sistema nervoso.
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Quindi, se comprendiamo le proprietà delle cellule del verme,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
forse possiamo costruire sistemi intelligenti validi tanto quanto il verme
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
per poi evolverli in sistemi migliori persino degli umani.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
Il motivo per cui studiamo la natura è che possiamo realmente esplorare
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
tutti i possibili tipi di algoritmo
02:16
that you can design.
41
136549
1168
che si possono progettare.
02:17
You can look into nature,
42
137759
1293
Se esamini la natura,
02:19
that would give you like, a shortcut
43
139052
1835
questa ti può mostrare delle scorciatoie
02:20
to really faster get into efficient algorithms
44
140929
2335
per accedere più velocemente ad algoritmi efficienti,
02:23
because nature has done a lot of search,
45
143264
1961
perché la natura ha fatto molta ricerca,
02:25
billions of years of evolution, right?
46
145266
1877
miliardi di anni di evoluzione, giusto?
02:27
So we learned so much from those principles.
47
147143
2127
Così abbiamo imparato tanto da quei principi.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Ho solo introdotto un piccolo principio del verme
02:32
into artificial neural networks.
49
152691
1543
nelle reti neurali artificiali.
E ora sono flessibili
02:34
And now they are flexible,
50
154234
1251
02:35
and they can solve problems in an explainable way
51
155485
2336
e possono risolvere problemi in modo spiegabile,
02:37
that was not possible before.
52
157821
1418
cosa che prima non era possibile.
L’intelligenza artificiale sta diventando molto abile, giusto?
02:39
AI is becoming very capable, right?
53
159280
2253
02:41
The reason why AI is hard to regulate
54
161574
2878
Il motivo per cui l’IA è difficile da regolamentare
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
è che non riusciamo a capirla, nemmeno le persone che la progettano,
02:48
we don't understand those systems.
56
168415
1626
noi non capiamo quei sistemi.
02:50
They are black boxes.
57
170083
1376
Sono scatole nere.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Con Liquid, poiché utilizziamo fondamentalmente una matematica
02:56
that are understandable,
59
176339
1418
che è comprensibile,
02:57
we have tools to really understand
60
177757
1627
abbiamo strumenti per capire davvero
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
e individuare quale parte del sistema sia responsabile di cosa,
03:03
you're designing white box systems.
62
183430
2043
stai progettando sistemi a scatola bianca.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Così, se hai dei sistemi di cui sei in grado di comprenderne il comportamento,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
significa che anche se li trasformi in qualcosa di molto, molto intelligente,
03:12
you can always have a lot of control over that system
65
192480
3212
puoi sempre avere molto controllo su quel sistema
03:15
because you understand it.
66
195692
1418
perché lo capisci.
03:17
You can never let it go rogue.
67
197110
2085
Non potrai mai lasciarlo fallire.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Quindi tutte le crisi che stiamo affrontando in questo momento,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
sapete, scenari apocalittici,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
riguardano tutte l’ampliamento di una tecnologia che non comprendiamo.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Con Liquid, il nostro scopo è davvero calmare le persone
03:30
and show people that, hey,
72
210957
1460
e mostrare loro che, ehi,
03:32
you can have very powerful systems,
73
212459
2502
si possono avere sistemi molto potenti,
03:35
that you have a lot of control and visibility
74
215003
2377
su cui si ha molto controllo e trasparenza
03:37
into their working mechanisms.
75
217422
2002
sui loro meccanismi di funzionamento.
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
Il dono di avere qualcosa superintelligente è enorme
03:42
and it can enable a lot of things for us.
77
222886
2544
e può consentirci di fare molte cose.
03:45
But at the same time,
78
225472
1126
Ma allo stesso tempo,
03:46
we need to have control over that technology.
79
226639
2128
dobbiamo avere il controllo su quella tecnologia.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Perché questa sarà la prima volta che avremo una tecnologia
03:52
that is going to be better than all of humanity combined.
81
232020
2711
che sarà migliore di tutta l’umanità messa insieme.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7