How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

34,713 views ・ 2024-10-22

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Margarida Ferreira Revisora: António Ribeiro
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
O meu sonho mais louco é conceber uma inteligência artificial
00:08
that is our friend, you know.
1
8046
1793
que seja nossa amiga.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Se tivermos um sistema de IA que nos ajude a compreender a matemática,
00:13
you can solve the economy of the world.
3
13802
2085
podemos resolver a economia do mundo.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Se tivermos um sistema de IA capaz de compreender as ciências humanitárias,
00:19
we can actually solve all of our conflicts.
5
19516
2169
podemos realmente resolver todos os nossos conflitos.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Quero que este sistema, perante as equações de Einstein e Maxwell,
00:25
take it and solve new physics, you know.
7
25730
2461
pegue nelas e resolva uma nova Física.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Se compreendermos a Física, podemos resolver o problema da energia.
00:32
So you can actually design ways for humans
9
32320
4296
Assim, podemos conceber formas para os seres humanos
00:36
to be the better versions of themselves.
10
36616
3170
serem as melhores versões de si mesmos.
00:39
I'm Ramin Hasani.
11
39828
1209
Chamo-me Ramin Hasani.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Sou cofundador e CEO da Liquid AI.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
A Liquid AI é uma empresa de IA
criada com base numa tecnologia que inventei no MIT.
00:48
that I invented back at MIT.
14
48128
2210
00:50
It’s called “liquid neural networks.”
15
50380
2044
Chama-se “redes neurais líquidas”.
00:52
These are a form of flexible intelligence,
16
52424
2377
Trata-se de uma forma de inteligência flexível,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
em oposição aos atuais sistemas de IA que são fixos, basicamente.
00:58
So think about your brain.
18
58263
1835
Portanto, pensem no nosso cérebro.
01:00
You can change your thoughts.
19
60849
1793
Podemos mudar os nossos pensamentos.
01:02
When somebody talks to you,
20
62684
1585
Quando alguém fala connosco,
01:04
you can completely change the way you respond.
21
64311
2711
podemos mudar completamente a forma como reagimos.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Temos sempre um mecanismo a que chamamos feedback no nosso sistema.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Então, basicamente, quando recebemos informações de alguém como entrada,
01:15
you basically process that information, and then you reply.
24
75447
3003
processamos essas informações e depois respondemos.
01:18
For liquid neural networks,
25
78450
1418
Para as redes neurais líquidas,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
agarrámos simplesmente nesses mecanismos de feedback
e acrescentámo-los ao sistema.
01:23
So that means it has the ability of thinking.
27
83872
2794
Isso significa que ele fica com a capacidade de pensar.
Essa propriedade é inspirada na Natureza.
01:27
That property is inspired by nature.
28
87125
2461
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Analisámos cérebros de animais e, em particular,
de um verme minúsculo chamado C. elegans.
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
01:38
The fascinating fact about the brain of the worm
31
98136
2586
O que há de fascinante no cérebro deste verme
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
é que partilha 75% do genoma que tem com os seres humanos.
Temos todo o genoma mapeado.
01:45
We have the entire genome mapped.
33
105185
2043
01:47
So we understand a whole lot
34
107812
1794
Por isso, compreendemos muita coisa também
01:49
about the functionality of its nervous system as well.
35
109648
3545
sobre a funcionalidade do seu sistema nervoso.
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Portanto, se compreendermos as propriedades das células no verme,
talvez possamos construir sistemas inteligentes
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
que sejam tão bons como o verme
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
e depois fazê-los evoluir para sistemas que sejam melhores do que os humanos.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
A razão por que estamos a estudar a Natureza
é o facto de podermos ter um atalho
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
através da exploração de todo o tipo possível de algoritmos
02:16
that you can design.
41
136549
1168
que podemos conceber.
02:17
You can look into nature,
42
137759
1293
Podemos olhar para a Natureza,
02:19
that would give you like, a shortcut
43
139052
1835
o que nos dará um atalho
02:20
to really faster get into efficient algorithms
44
140929
2335
para entrar muito mais depressa em algoritmos eficazes
02:23
because nature has done a lot of search,
45
143264
1961
porque a Natureza tem feito muita pesquisa,
02:25
billions of years of evolution, right?
46
145266
1877
em milhares de milhões de anos de evolução.
02:27
So we learned so much from those principles.
47
147143
2127
Aprendemos muito com esses princípios.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Acabei de aproveitar um princípio minúsculo do verme
02:32
into artificial neural networks.
49
152691
1543
para as redes neurais artificiais.
02:34
And now they are flexible,
50
154234
1251
E agora elas são flexíveis,
02:35
and they can solve problems in an explainable way
51
155485
2336
e podem resolver problemas de uma forma explicável
02:37
that was not possible before.
52
157821
1418
que dantes não era possível.
02:39
AI is becoming very capable, right?
53
159280
2253
A IA está a tornar-se muito capaz.
02:41
The reason why AI is hard to regulate
54
161574
2878
A razão por que a IA é difícil de regular
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
é porque não conseguimos compreender
— mesmo as pessoas que projetam os sistemas —
02:48
we don't understand those systems.
56
168415
1626
não compreendemos esses sistemas.
02:50
They are black boxes.
57
170083
1376
São caixas pretas.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Com a Liquid, como usamos fundamentalmente a matemática
que é compreensível,
02:56
that are understandable,
59
176339
1418
02:57
we have tools to really understand
60
177757
1627
temos ferramentas para entender e identificar
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
que parte do sistema é responsável pelo quê,
03:03
you're designing white box systems.
62
183430
2043
estamos a projetar sistemas de caixa branca.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Se tivermos sistemas e conseguimos compreender
o comportamento deles,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
isso significa que, mesmo que os ampliemos
para uma coisa muito inteligente,
03:12
you can always have a lot of control over that system
65
192480
3212
podemos sempre ter muito controlo sobre esse sistema
03:15
because you understand it.
66
195692
1418
porque o compreendemos.
03:17
You can never let it go rogue.
67
197110
2085
Nunca podemos deixá-lo ser prejudicial.
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Portanto, todas as crises com que estamos a lidar neste momento,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
tipo cenários do dia do juízo final,
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
têm tudo a ver com ampliar uma tecnologia que não compreendemos.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Com a Liquid, o nosso objetivo é sossegar as pessoas,
03:30
and show people that, hey,
72
210957
1460
é mostrar às pessoas que podemos ter sistemas muito poderosos,
03:32
you can have very powerful systems,
73
212459
2502
onde temos muito controlo e visibilidade
03:35
that you have a lot of control and visibility
74
215003
2377
03:37
into their working mechanisms.
75
217422
2002
quanto aos mecanismos de funcionamento.
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
O dom de ter uma coisa com superinteligência é enorme
03:42
and it can enable a lot of things for us.
77
222886
2544
e pode permitir-nos muitas coisas.
03:45
But at the same time,
78
225472
1126
Mas, ao mesmo tempo,
03:46
we need to have control over that technology.
79
226639
2128
precisamos de ter controlo sobre essa tecnologia.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Porque esta é a primeira vez que vamos ter uma tecnologia
que será melhor do que toda a Humanidade junta.
03:52
that is going to be better than all of humanity combined.
81
232020
2711
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7