How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Eliana Santos Revisora: Nadia Tira
00:07
In the coming years, artificial intelligence
0
7336
2169
Nos próximos anos, a inteligência artificial
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
provavelmente vai mudar a vossa vida, e possivelmente a do mundo inteiro.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Mas as pessoas têm dificuldade em concordar exatamente como.
00:16
The following are excerpts from an interview
3
16804
2127
Estes são excertos de uma entrevista
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
onde Stuart Russell, professor de ciências da computação e especialista em IA
00:22
helps separate the sense from the nonsense.
5
22435
2586
ajuda a separar o que faz sentido daquilo que não faz.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Há uma grande diferença entre pedir a um ser humano para fazer algo
00:29
and giving that as the objective to an AI system.
7
29067
3461
e dar isso como objetivo a um sistema de IA.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Quando pedem a um ser humano para vos trazer café,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
não significa que esta deva ser a missão da vida dele,
00:37
and nothing else in the universe matters.
10
37742
1960
e que mais nada no universo importa.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Mesmo que tenha de matar toda a gente no Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
para vos arranjar café antes de fechar, deve fazer isso.
00:45
No, that’s not what you mean.
13
45124
1627
Não, não é isso que querem.
00:46
All the other things that we mutually care about,
14
46751
2294
Tudo o resto com que nos preocupamos mutuamente,
00:49
they should factor into your behavior as well.
15
49045
2169
também deve ser considerado no comportamento.
00:51
And the problem with the way we build AI systems now
16
51214
3169
E o problema com a forma como criamos sistemas de IA agora
é que lhes damos um objetivo fixo.
00:54
is we give them a fixed objective.
17
54383
1627
Os algoritmos exigem que especifiquemos tudo no objetivo.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
E se disserem: “Podemos solucionar a acidificação dos oceanos?”
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Poderíamos sofrer uma reação catalítica que faz isso de forma muito eficiente,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
mas consome um quarto do oxigénio na atmosfera,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
o que aparentemente nos faria morrer de forma bastante lenta e desagradável
01:13
over the course of several hours.
23
73986
1752
no decorrer de várias horas.
01:15
So, how do we avoid this problem?
24
75780
3211
Então, como é que evitamos este problema?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Podem dizer para sermos mais cuidadosos ao especificar o objetivo...
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
não se esqueçam do oxigénio atmosférico.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
E depois, claro, algum efeito secundário da reação no oceano
01:29
poisons all the fish.
28
89418
1377
envenena todos os peixes.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Queria dizer para também não matarmos os peixes.
01:33
And then, well, what about the seaweed?
30
93464
1919
E depois, o que acontece às algas?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Não façam nada que mate as algas todas.
01:38
And on and on and on.
32
98344
1210
E por aí adiante.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
E a razão pela qual não temos de fazer isso com humanos é que estes
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
muitas vezes sabem que não sabem tudo aquilo com que nos preocupamos.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Se pedirem a um ser humano para vos trazer café,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
e se estiverem no Hotel George Sand em Paris,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
onde o café custa 13 euros,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
é totalmente razoável voltar atrás, dizer que custa 13 euros,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
e perguntar se o querem mesmo ou se devo ir a outro sítio?
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
E é uma coisa perfeitamente normal de uma pessoa fazer.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Se eu voltar a pintar a vossa casa,
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
não há problema se tirar a canalização e voltar a colocá-la?
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Não pensamos nisto como uma capacidade extremamente sofisticada,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
mas os sistemas de IA não a têm porque como os construímos,
02:19
they have to know the full objective.
45
139719
1793
estes têm de saber o objetivo completo.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Se construirmos sistemas que sabem que não sabem qual é o objetivo,
02:25
then they start to exhibit these behaviors,
47
145474
2586
eles começam a exibir estes comportamentos,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
como pedir permissão antes de eliminarem todo o oxigénio na atmosfera.
02:32
In all these senses, control over the AI system
49
152565
3378
Em todos estes sentidos, o controlo sobre o sistema de IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
vem da incerteza da máquina sobre qual é o verdadeiro objetivo.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
E é quando se constroem máquinas que acreditam com certeza
02:44
that they have the objective,
52
164368
1418
que têm o objetivo,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
é aí que obtêm este tipo de comportamento psicopata.
02:48
And I think we see the same thing in humans.
54
168539
2127
E penso que vemos o mesmo nos seres humanos.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
O que acontece quando IA de objetivos gerais atinge a economia real?
02:55
How do things change? Can we adapt?
56
175379
3587
Como é que as coisas mudam? Podemos adaptar-nos?
02:59
This is a very old point.
57
179175
1835
Esta é uma questão muito antiga.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Surpreendentemente, Aristóteles tem uma passagem onde diz
03:04
look, if we had fully automated weaving machines
59
184597
3045
que se tivéssemos máquinas de tecer totalmente automatizadas
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
e palhetas que pudessem dedilhar a lira e produzir música sem seres humanos,
03:11
then we wouldn’t need any workers.
61
191604
2002
então não precisaríamos de trabalhadores.
03:13
That idea, which I think it was Keynes
62
193814
2878
Essa ideia, que penso que foi Keynes
03:16
who called it technological unemployment in 1930,
63
196692
2836
que a chamou de desemprego tecnológico em 1930,
03:19
is very obvious to people.
64
199528
1919
é muito óbvia para as pessoas.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Elas pensam que se a máquina faz o trabalho,
03:24
then I'm going to be unemployed.
66
204533
1669
então vão ficar desempregadas.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Podem pensar nos armazéns que as empresas operam atualmente
03:29
for e-commerce, they are half automated.
68
209872
2711
para o comércio eletrónico, que são semi-automatizadas.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
A forma como funciona é que um armazém - onde se tem muita coisa amontoada
03:36
all over the place and humans go and rummage around
70
216629
2461
em todos os sítios e os humanos procuram as coisas
03:39
and then bring it back and send it off—
71
219090
1877
e depois trazem-nas e enviam-nas -
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
existe um robô que vai à unidade de prateleiras
03:44
that contains the thing that you need,
73
224553
1919
que contém a coisa que se quer,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
mas o ser humano tem de tirar o objeto do contentor ou da prateleira,
03:50
because that’s still too difficult.
75
230101
1877
porque isso ainda é muito difícil.
03:52
But, at the same time,
76
232019
2002
Mas, ao mesmo tempo,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
fariam um robô que fosse suficientemente apurado para pegar
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
em qualquer objeto numa variedade muito vasta de objetos que podem comprar?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Isso iria, de uma só vez, eliminar 3 ou 4 milhões de empregos?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
Há uma história interessante escrita por E.M. Forster,
04:09
where everyone is entirely machine dependent.
81
249745
3504
onde todos são completamente dependentes de máquinas.
04:13
The story is really about the fact that if you hand over
82
253499
3754
A história é sobre o facto de que se passarmos
04:17
the management of your civilization to machines,
83
257253
2961
a gestão da civilização para as máquinas,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
perdemos o incentivo de a compreender
04:23
or to teach the next generation how to understand it.
85
263718
2544
ou de ensinar a próxima geração a compreendê-la.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Podem ver o “WALL-E” como uma versão moderna,
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
onde todos são enfraquecidos e infantilizados pela máquina,
04:32
and that hasn’t been possible up to now.
88
272893
1961
e isso não foi possível até agora.
04:34
We put a lot of our civilization into books,
89
274854
2419
Pomos muita da nossa civilização em livros,
04:37
but the books can’t run it for us.
90
277273
1626
mas os livros não a gerem por nós.
04:38
And so we always have to teach the next generation.
91
278899
2795
Por isso, temos sempre de ensinar a próxima geração.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Se fizermos as contas, é cerca de 1 bilião de anos humanos a ensinar e aprender
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
e uma cadeia inquebrável que remonta a dezenas de milhares de gerações.
04:50
What happens if that chain breaks?
94
290119
1919
O que acontece se essa cadeia quebrar?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Penso que é algo que temos de compreender à medida que a IA avança.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
A data de chegada exata da IA de objetivos gerais -
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
não é possível identificá-la, não é um dia específico.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Também não é o caso de ser tudo ou nada.
05:04
The impact is going to be increasing.
99
304592
2461
O impacto será crescente.
05:07
So with every advance in AI,
100
307053
2043
Com cada avanço na IA,
05:09
it significantly expands the range of tasks.
101
309096
2962
o leque de tarefas expande-se significativamente.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Nesse sentido, penso que a maioria dos especialistas diz que no fim do século,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
é muitíssimo provável que tenhamos IA de objetivos gerais.
05:20
The median is something around 2045.
104
320733
3754
A média é por volta de 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Estou um pouco mais do lado conservador.
05:26
I think the problem is harder than we think.
106
326489
2085
Acho o problema mais difícil do que pensamos.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Gosto do que John McAfee disse, um dos fundadores da IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
quando lhe fizeram esta pergunta, ele disse entre 5 e 500 anos.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
E penso que vamos precisar de vários Einstein para que isso aconteça.

Original video on YouTube.com
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7