How a Worm Could Save Humanity From Bad AI | Ramin Hasani | TED

34,713 views ・ 2024-10-22

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Joao Victor Zanin Ramos Revisor: Wanderley Jesus
00:04
My wildest dream is to design artificial intelligence
0
4960
3086
Meu maior sonho é criar uma inteligência artificial
00:08
that is our friend, you know.
1
8046
1793
que seja nossa amiga, entende.
00:10
If you have an AI system that helps us understand mathematics,
2
10382
3378
Se você tem um sistema de IA que nos ajuda a entender a matemática,
00:13
you can solve the economy of the world.
3
13802
2085
você pode resolver a economia do mundo.
00:15
If you have an AI system that can understand humanitarian sciences,
4
15887
3629
Se você tem um sistema de IA que pode entender as ciências humanas,
00:19
we can actually solve all of our conflicts.
5
19516
2169
podemos realmente resolver todos os nossos conflitos.
00:21
I want this system to, given Einstein’s and Maxwell’s equations,
6
21726
4004
Quero que esse sistema, dadas as equações de Einstein e Maxwell,
00:25
take it and solve new physics, you know.
7
25730
2461
o pegue e resolva uma nova física, sabe.
00:28
If you understand physics, you can solve the energy problem.
8
28650
3629
Se você entende de física, pode resolver o problema de energia.
00:32
So you can actually design ways for humans
9
32320
4296
Então, você pode realmente criar maneiras de os humanos
00:36
to be the better versions of themselves.
10
36616
3170
serem melhores versões de si mesmos.
00:39
I'm Ramin Hasani.
11
39828
1209
Sou Ramin Hasani.
00:41
I’m the cofounder and CEO of Liquid AI.
12
41037
2920
Sou cofundador e CEO da Liquid AI.
00:44
Liquid AI is an AI company built on top of a technology
13
44332
3796
A Liquid AI é uma empresa de IA construída com base em uma tecnologia
00:48
that I invented back at MIT.
14
48128
2210
que eu inventei no MIT.
00:50
It’s called “liquid neural networks.”
15
50380
2044
É chamado de “redes neurais líquidas”.
00:52
These are a form of flexible intelligence,
16
52424
2377
Essas são uma forma de inteligência flexível,
00:54
as opposed to today's AI systems that are fixed, basically.
17
54843
3420
ao contrário dos sistemas atuais de IA que são fixos, basicamente.
00:58
So think about your brain.
18
58263
1835
Então pense no seu cérebro.
01:00
You can change your thoughts.
19
60849
1793
Você pode mudar seus pensamentos.
01:02
When somebody talks to you,
20
62684
1585
Quando alguém fala com você,
01:04
you can completely change the way you respond.
21
64311
2711
você pode mudar completamente a maneira como responde.
01:07
You always have a mechanism that we call feedback in your system.
22
67022
4087
Você sempre tem um mecanismo que chamamos de feedback em seu sistema.
01:11
So basically when you receive information from someone as an input,
23
71109
4296
Então, basicamente, quando você recebe informações de alguém como entrada,
01:15
you basically process that information, and then you reply.
24
75447
3003
você processa essas informações e depois responde.
01:18
For liquid neural networks,
25
78450
1418
Para redes neurais líquidas,
01:19
we simply got those feedback mechanisms, and we added that to the system.
26
79909
3921
simplesmente obtivemos esses mecanismos de feedback e os adicionamos ao sistema.
01:23
So that means it has the ability of thinking.
27
83872
2794
Isso significa que ele tem a capacidade de pensar.
01:27
That property is inspired by nature.
28
87125
2461
Essa propriedade é inspirada na natureza.
01:31
We looked into brains of animals and, in particular,
29
91796
3254
Examinamos cérebros de animais e, em particular,
01:35
a very, very tiny worm called “C. elegans”
30
95050
3044
de um verme muito, muito pequeno chamado “C. elegans”.
01:38
The fascinating fact about the brain of the worm
31
98136
2586
O fato fascinante sobre o cérebro do verme
01:40
is that it shares 75 percent of the genome that it has with humans.
32
100722
4421
é que ele compartilha 75% do genoma que tem com os humanos.
01:45
We have the entire genome mapped.
33
105185
2043
Temos todo o genoma mapeado.
01:47
So we understand a whole lot
34
107812
1794
Portanto, também entendemos muito
01:49
about the functionality of its nervous system as well.
35
109648
3545
sobre a funcionalidade de seu sistema nervoso.
01:53
So if you understand the properties of cells in the worm,
36
113693
4421
Se você entender as propriedades das células do verme,
01:58
maybe we can build intelligent systems that are as good as the worm
37
118156
5672
talvez possamos construir sistemas inteligentes
que sejam tão bons quanto o verme
02:03
and then evolve them into systems that are better than even humans.
38
123870
4463
e depois evoluí-los para sistemas melhores até mesmo do que os humanos.
02:08
The reason why we are studying nature is the fact that we can actually,
39
128792
3545
A razão pela qual estamos estudando a natureza
é o fato de que podemos, na verdade,
02:12
having a shortcut through exploring all the possible kind of algorithms
40
132379
4129
ter um atalho para explorar todos os tipos possíveis de algoritmos
02:16
that you can design.
41
136549
1168
que você pode projetar.
02:17
You can look into nature,
42
137759
1293
Você pode examinar a natureza, isso lhe daria um atalho
02:19
that would give you like, a shortcut
43
139052
1835
02:20
to really faster get into efficient algorithms
44
140929
2335
para obter algoritmos eficientes muito mais rápido,
02:23
because nature has done a lot of search,
45
143264
1961
porque a natureza fez muitas pesquisas, bilhões de anos de evolução, certo?
02:25
billions of years of evolution, right?
46
145266
1877
02:27
So we learned so much from those principles.
47
147143
2127
Então, aprendemos muito com esses princípios.
02:29
I just brought a tiny principle from the worm
48
149312
3337
Acabei de trazer um pequeno princípio do verme
02:32
into artificial neural networks.
49
152691
1543
para as redes neurais artificiais.
02:34
And now they are flexible,
50
154234
1251
E agora eles são flexíveis
02:35
and they can solve problems in an explainable way
51
155485
2336
e podem resolver problemas de uma forma explicável
02:37
that was not possible before.
52
157821
1418
que não era possível antes.
02:39
AI is becoming very capable, right?
53
159280
2253
A IA está se tornando muito capaz, certo?
02:41
The reason why AI is hard to regulate
54
161574
2878
A razão pela qual a IA é difícil de regular
02:44
is because we cannot understand, even the people who design the systems,
55
164494
3879
é porque não entendemos, até as pessoas que projetam os sistemas,
02:48
we don't understand those systems.
56
168415
1626
não entendemos esses sistemas.
02:50
They are black boxes.
57
170083
1376
São caixas pretas.
02:52
With Liquid, because we are fundamentally using mathematics
58
172210
4087
Com o Liquid, como usamos fundamentalmente
uma matemática compreensível,
02:56
that are understandable,
59
176339
1418
02:57
we have tools to really understand
60
177757
1627
temos ferramentas para realmente entender
02:59
and pinpoint which part of the system is responsible for what,
61
179426
4004
e identificar qual parte do sistema é responsável pelo quê,
03:03
you're designing white box systems.
62
183430
2043
você está projetando um sistemas de caixa branca.
03:05
So if you have systems that you can understand their behavior,
63
185473
2920
Então, se você tem sistemas que podem entender o comportamento deles,
03:08
that means even if you scale them into something very, very intelligent,
64
188435
4004
isso significa que mesmo que você
os transforme em algo muito, muito inteligente,
03:12
you can always have a lot of control over that system
65
192480
3212
você sempre pode ter muito controle sobre esse sistema
03:15
because you understand it.
66
195692
1418
porque você o entende.
Você nunca pode deixar que isso se torne nocivo.
03:17
You can never let it go rogue.
67
197110
2085
03:19
So all of the crises we are dealing with right now,
68
199195
3087
Então, todas as crises com as quais lidamos agora,
03:22
you know, doomsday kind of scenarios,
69
202323
1794
por exemplo, cenários do fim do mundo, têm tudo a ver com a dimensão
03:24
is all about scaling a technology that we don't understand.
70
204159
3503
de uma tecnologia que não entendemos.
03:27
With Liquid, our purpose is to really calm people down
71
207704
3211
Com o Liquid, nosso objetivo é realmente acalmar as pessoas
03:30
and show people that, hey,
72
210957
1460
e mostrar às pessoas que, ei,
03:32
you can have very powerful systems,
73
212459
2502
você pode ter sistemas muito poderosos,
03:35
that you have a lot of control and visibility
74
215003
2377
e visibilidade de seus mecanismos de funcionamento.
03:37
into their working mechanisms.
75
217422
2002
03:39
The gift of having something [with] superintelligence is massive,
76
219466
3378
A dádiva de ter algo [com] superinteligência é enorme
03:42
and it can enable a lot of things for us.
77
222886
2544
e pode possibilitar muitas coisas para nós.
03:45
But at the same time,
78
225472
1126
Mas, ao mesmo tempo,
03:46
we need to have control over that technology.
79
226639
2128
precisamos ter controle sobre essa tecnologia.
03:48
Because this is the first time that we’re going to have a technology
80
228767
3211
Porque esta é a primeira vez que teremos uma tecnologia
que será melhor do que toda a humanidade combinada.
03:52
that is going to be better than all of humanity combined.
81
232020
2711
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7