What Is an AI Anyway? | Mustafa Suleyman | TED

1,984,002 views ・ 2024-04-22

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Claudio Chagas
00:04
I want to tell you what I see coming.
0
4292
2586
Eu quero te dizer o que eu vejo chegando.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Tenho a sorte de trabalhar com IA há quase 15 anos.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Quando comecei, descrevê-la como marginal seria um eufemismo.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Os pesquisadores diriam: “Não, não, apenas focamos no aprendizado de máquina”.
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Porque trabalhar com IA era visto como algo fora do comum.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
Em 2010, apenas a simples menção da frase “AGI”,
00:29
artificial general intelligence,
6
29401
2169
artificial general intelligence,
00:31
would get you some seriously strange looks
7
31570
2877
resultaria em alguns olhares estranhos
00:34
and even a cold shoulder.
8
34489
1585
e até mesmo um certo desprezo.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
“Você está realmente construindo a AGI?” as pessoas diriam.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
“Isso não é algo saído da ficção científica?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
As pessoas pensavam que faltavam 50 anos ou 100 anos,
00:45
if it was even possible at all.
12
45500
1919
se é que era possível.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Falar sobre IA era, eu acho, meio embaraçoso.
00:51
People generally thought we were weird.
14
51631
2211
As pessoas nos consideravam estranhos.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Penso que, de alguma maneira, éramos.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
No entanto, logo a IA começou a superar os humanos
00:59
at a whole range of tasks
17
59681
1793
em uma série de tarefas
01:01
that people previously thought were way out of reach.
18
61516
2795
que as pessoas antes achavam que estavam fora de alcance.
01:05
Understanding images,
19
65020
2127
Compreender imagens,
01:07
translating languages,
20
67147
1918
traduzir idiomas,
01:09
transcribing speech,
21
69065
1585
transcrever discursos,
01:10
playing Go and chess
22
70692
2127
jogar Go e xadrez
01:12
and even diagnosing diseases.
23
72861
1918
e até diagnosticar doenças.
01:15
People started waking up to the fact
24
75905
1752
As pessoas começaram a perceber
01:17
that AI was going to have an enormous impact,
25
77657
3462
que a IA teria um impacto enorme
01:21
and they were rightly asking technologists like me
26
81119
2836
e, com razão, estavam fazendo perguntas bem difíceis
01:23
some pretty tough questions.
27
83955
1752
a tecnólogos como eu.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
É verdade que a IA vai resolver a crise climática?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Isso disponibilizará educação personalizada para todos?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Isso significa receberemos renda básica universal
01:35
and we won't have to work anymore?
31
95216
2002
e não precisaremos mais trabalhar?
01:37
Should I be afraid?
32
97218
1544
Eu deveria ter medo?
01:38
What does it mean for weapons and war?
33
98762
2335
O que isso significa para armas e guerra?
01:41
And of course, will China win?
34
101598
1460
E, claro, a China vencerá?
01:43
Are we in a race?
35
103058
1543
Estamos em uma corrida?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Estamos caminhando para um apocalipse de desinformação em massa?
01:49
All good questions.
37
109147
1668
Todas boas perguntas.
01:51
But it was actually a simpler
38
111608
1418
Mas foi uma pergunta
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
mais simples e fundamental que me deixou confuso.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Uma que realmente atinge o cerne do meu trabalho diariamente.
02:03
One morning over breakfast,
41
123620
2044
Certa manhã, durante o café da manhã,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
meu sobrinho Caspian, de seis anos, estava brincando com Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
a IA que criei na minha última empresa, a Inflection.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Com a boca cheia de ovos mexidos,
02:14
he looked at me plain in the face and said,
45
134381
3503
ele me olhou diretamente nos olhos e disse:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“Mas Mustafa, o que é uma IA afinal?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Ele é um garotinho tão sincero, curioso e otimista.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Ele estava conversando com Pi sobre como seria legal se um dia, no futuro,
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
ele pudesse ver dinossauros no zoológico.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
E como ele poderia fazer quantidades infinitas de chocolate em casa.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
E por que Pi ainda não podia jogar I Spy.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
“Bem”, eu disse, “é um software inteligente
02:42
that's read most of the text on the open internet,
53
162075
2461
que lê a maior parte do texto na Internet aberta
02:44
and it can talk to you about anything you want."
54
164577
2419
e pode falar com você sobre o que você quiser”.
02:48
"Right.
55
168540
1168
“Certo.
02:49
So like a person then?"
56
169749
2127
Então, é como uma pessoa?”
02:54
I was stumped.
57
174254
1334
Eu estava perplexo.
02:56
Genuinely left scratching my head.
58
176798
2502
Eu realmente cocei minha cabeça.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Todas as minhas respostas chatas surgiram em minha mente.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“Não, a IA é apenas outra tecnologia de uso geral,
03:07
like printing or steam."
61
187308
1710
assim como a impressão ou vapor”.
03:09
It will be a tool that will augment us
62
189394
2502
Será uma ferramenta que nos aperfeiçoará
03:11
and make us smarter and more productive.
63
191938
2377
e nos fará mais inteligentes e produtivos.
03:14
And when it gets better over time,
64
194649
1960
E quando melhorar com o tempo,
03:16
it'll be like an all-knowing oracle
65
196651
1919
será como um oráculo onisciente
03:18
that will help us solve grand scientific challenges."
66
198611
3087
que nos ajudará a resolver grandes desafios científicos.”
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Sabe, todas essas respostas começaram a parecer, eu acho,
03:25
a little bit defensive.
68
205869
1418
um pouco defensivas.
03:28
And actually better suited to a policy seminar
69
208246
2211
Mais apropriadas em um seminário sobre política
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
do que em um café da manhã com uma criança de seis anos.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
“Por que estou hesitando?” Eu pensei comigo mesmo.
03:37
You know, let's be honest.
72
217839
1960
Você sabe, vamos ser honestos.
03:39
My nephew was asking me a simple question
73
219799
3253
Meu sobrinho me fez uma pergunta simples
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
que aqueles de nós na área de IA raramente discutimos.
03:48
What is it that we are actually creating?
75
228099
2920
O que estamos realmente criando?
03:51
What does it mean to make something totally new,
76
231895
3753
O que significa fazer algo totalmente novo,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
fundamentalmente diferente de qualquer invenção que conhecemos antes?
04:00
It is clear that we are at an inflection point
78
240695
2795
É claro que estamos em um ponto de inflexão
04:03
in the history of humanity.
79
243490
1793
na história da humanidade.
04:06
On our current trajectory,
80
246493
1918
Em nossa trajetória atual,
04:08
we're headed towards the emergence of something
81
248411
2211
estamos caminhando para o surgimento de algo
04:10
that we are all struggling to describe,
82
250663
3170
que todos estamos lutando para descrever,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
mas não podemos controlar o que não entendemos.
04:19
And so the metaphors,
84
259631
1585
Então, as metáforas,
04:21
the mental models,
85
261216
1251
os modelos mentais,
04:22
the names, these all matter
86
262509
2585
os nomes, tudo isso importa
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
se quisermos tirar o máximo proveito da IA e minimizar suas desvantagens.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Como alguém que abraça as possibilidades dessa tecnologia,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
mas que também sempre se preocupou profundamente com sua ética,
04:37
we should, I think,
90
277524
1293
acho que devemos
04:38
be able to easily describe what it is we are building.
91
278817
3044
ser capazes de descrever facilmente o que estamos construindo.
04:41
And that includes the six-year-olds.
92
281861
2002
E isso inclui as crianças de seis anos.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Então, é com esse espírito que ofereço hoje a seguinte metáfora
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
para nos ajudar a tentar lidar com o que esse momento realmente é.
04:52
I think AI should best be understood
95
292539
2627
Acho que a IA deve ser melhor entendida
04:55
as something like a new digital species.
96
295166
4254
como uma nova espécie digital.
05:00
Now, don't take this too literally,
97
300296
2253
Agora, não leve isso ao pé da letra.
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
mas prevejo que a veremos como companheiros digitais,
05:07
new partners in the journeys of all our lives.
99
307220
3295
novos parceiros ao longo das nossas jornadas.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Quer você acredite que isso acontecerá em 10, 20 ou 30 anos,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
esta é, na minha opinião, a a forma mais precisa e honesta
05:19
of describing what's actually coming.
102
319732
2378
de descrever o que realmente está por vir.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
E, acima de tudo, permite que todos se preparem
05:26
and shape what comes next.
104
326614
2711
e imaginem o que vem a seguir.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Entendo que é uma declaração forte,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
e explicarei da melhor forma possível porque estou fazendo isso.
05:36
But first, let me just try to set the context.
107
336291
2961
Mas primeiro, deixe-me tentar definir o contexto.
05:39
From the very first microscopic organisms,
108
339252
2753
A vida na Terra remonta a bilhões de anos,
05:42
life on Earth stretches back billions of years.
109
342046
3462
desde os primeiros organismos microscópicos.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Durante esse tempo, a vida evoluiu e se diversificou.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Então, alguns milhões de anos atrás, algo começou a mudar.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Depois de incontáveis ciclos de crescimento e adaptação,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
um dos ramos da vida começou a usar ferramentas, e se transformou em nós.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Passamos a produzir uma variedade fascinante de ferramentas,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
primeiro lentamente e depois com uma velocidade surpreendente,
06:12
we went from stone axes and fire
116
372577
3670
passamos de machados de pedra e fogo
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
para a linguagem, a escrita e, por fim, as tecnologias industriais.
06:21
One invention unleashed a thousand more.
118
381878
2919
Uma invenção desencadeou mais mil.
06:25
And in time, we became homo technologicus.
119
385173
3712
E com o tempo, viramos homo technologicus.
06:29
Around 80 years ago,
120
389594
1209
Há cerca de 80 anos,
06:30
another new branch of technology began.
121
390803
2545
outro novo ramo da tecnologia começou.
06:33
With the invention of computers,
122
393973
1710
Com a invenção dos computadores,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
rapidamente passamos dos primeiros mainframes e transistores
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
para os smartphones e fones de ouvido de realidade virtual atuais.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Informação, conhecimento, comunicação, computação.
06:47
In this revolution,
126
407570
1418
Nessa revolução,
06:49
creation has exploded like never before.
127
409030
3295
a criação explodiu como nunca antes.
06:53
And now a new wave is upon us.
128
413242
2503
E agora uma nova onda está chegando.
06:55
Artificial intelligence.
129
415787
1668
Inteligência artificial.
06:57
These waves of history are clearly speeding up,
130
417872
2544
Essas ondas da história estão se acelerando,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
pois cada uma é amplificada e acelerada pela anterior.
07:05
And if you look back,
132
425088
1167
E se você refletir,
07:06
it's clear that we are in the fastest
133
426297
2002
fica claro que estamos na onda mais rápida
07:08
and most consequential wave ever.
134
428299
2586
e mais importante de todas.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
As jornadas da humanidade e da tecnologia agora estão profundamente interligadas.
07:16
In just 18 months,
136
436516
1543
Em apenas 18 meses,
07:18
over a billion people have used large language models.
137
438059
3170
mais de um bilhão de pessoas usaram grandes modelos de linguagem.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Testemunhamos um evento marcante após o outro.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Há apenas alguns anos, as pessoas diziam que a IA nunca seria criativa.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
No entanto, a IA agora parece um rio infinito de criatividade,
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
criando poesia, imagens, músicas e vídeos que estimulam a imaginação.
07:39
People said it would never be empathetic.
142
459664
2252
Diziam que ela nunca seria empática.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
No entanto, hoje, milhões de pessoas têm conversas significativas com IAs,
07:47
talking about their hopes and dreams
144
467755
2002
falando sobre suas esperanças e sonhos
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
e ajudando-as a superar desafios emocionais difíceis.
07:53
AIs can now drive cars,
146
473177
2294
As IAs agora podem dirigir carros,
07:55
manage energy grids
147
475513
1543
gerenciar redes de energia
07:57
and even invent new molecules.
148
477056
2252
e até mesmo inventar novas moléculas.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Apenas alguns anos atrás, cada uma dessas hipóteses era impossível.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
E tudo isso é turbinado pelo aumento exponencial de dados
08:09
and computation.
151
489277
1626
e computação.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
No ano passado, Inflection 2.5, nosso último modelo,
08:16
used five billion times more computation
153
496242
4129
usou cinco bilhões de vezes mais computação
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
do que a IA da DeepMind, que venceu os jogos tradicionais da Atari
08:24
just over 10 years ago.
155
504042
1668
há pouco mais de 10 anos.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
São nove ordens de magnitude a mais de computação.
08:30
10x per year,
157
510089
1627
10 vezes por ano,
08:31
every year for almost a decade.
158
511716
3253
todos os anos por quase uma década.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Simultaneamente, o tamanho desses modelos aumentou
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
de milhões de parâmetros para, em seguida, bilhões de parâmetros
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
e, muito em breve, dezenas de trilhões de parâmetros.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Se alguém não fizesse nada além de ler 24 horas por dia durante toda a vida,
08:50
they'd consume eight billion words.
163
530109
3337
consumiria oito bilhões de palavras.
08:53
And of course, that's a lot of words.
164
533488
1835
E, claro, são muitas palavras.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Mas hoje, as IAs mais avançadas consomem mais de oito trilhões de palavras
09:01
in a single month of training.
166
541120
2336
em um único mês de treinamento.
09:03
And all of this is set to continue.
167
543873
1960
E tudo isso está pronto para continuar.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
A longa história tecnológica está agora entrando em uma nova fase.
09:12
So what does this mean in practice?
169
552256
2503
Então, o que isso significa na prática?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Bem, assim como a Internet nos deu o navegador
09:18
and the smartphone gave us apps,
171
558346
2502
e o smartphone nos deu aplicativos,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
o supercomputador baseado em nuvem está inaugurando uma nova era
09:24
of ubiquitous AIs.
173
564936
2502
de IAs onipresentes.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Em breve, tudo será representado por uma interface conversacional.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Ou, dito de outra forma, uma IA pessoal.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
E essas IAs terão um conhecimento infinito
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
e, em breve, serão factualmente precisas e confiáveis.
09:42
They'll have near-perfect IQ.
178
582036
1794
Eles terão um QI quase perfeito.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Eles também terão um QE excepcional.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Eles serão gentis, solidárias e empáticas.
09:53
These elements on their own would be transformational.
181
593089
2836
Esses elementos por si só seriam transformadores.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Imagine se todos tivessem um professor personalizado no bolso
09:59
and access to low-cost medical advice.
183
599720
3003
e acesso a conselhos médicos acessíveis.
10:02
A lawyer and a doctor,
184
602723
1544
Um advogado e um médico,
10:04
a business strategist and coach --
185
604267
1960
um estrategista de negócios e coach --
10:06
all in your pocket 24 hours a day.
186
606269
2252
tudo no seu bolso 24 horas por dia.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Mas tudo começou a mudar quando eles implementam o que eu chamo de QA,
10:13
their “actions quotient.”
188
613693
1668
seu “quociente de ações”.
10:15
This is their ability to actually get stuff done
189
615695
2794
Essa é a capacidade delas de realmente fazer coisas
10:18
in the digital and physical world.
190
618531
2294
no mundo digital e físico.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
E em pouco tempo, não serão apenas as pessoas que terão IAs.
10:24
Strange as it may sound, every organization,
192
624328
2962
Por mais estranho que pareça, todas as organizações,
10:27
from small business to nonprofit to national government,
193
627290
3253
de pequenas empresas a organizações não governamentais e governos.
10:30
each will have their own.
194
630585
1710
cada uma terá a sua própria.
10:32
Every town, building and object
195
632795
2711
Cada cidade, edifício e objeto
10:35
will be represented by a unique interactive persona.
196
635506
3754
será representado por uma personalidade interativa única.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
E esses não serão apenas assistentes mecanicistas.
10:42
They'll be companions, confidants,
198
642221
3754
Eles serão companheiros, confidentes,
10:46
colleagues, friends and partners,
199
646017
2669
colegas, amigos e parceiros,
10:48
as varied and unique as we all are.
200
648728
2627
tão variados e únicos quanto todos nós.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
Nesse ponto, as IAs imitarão os humanos de forma convincente em muitas tarefas.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
E vivenciaremos isso em uma escala muito pessoal.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Uma IA organizando uma reunião comunitária para um vizinho idoso.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Um especialista simpático que ajuda você a entender um diagnóstico difícil.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Mas também vivenciaremos isso em grandes escalas.
11:12
Accelerating scientific discovery,
206
672043
2586
Acelerando a descoberta científica,
11:14
autonomous cars on the roads,
207
674629
2168
carros autônomos nas estradas,
11:16
drones in the skies.
208
676797
1627
drones nos céus.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Elas pedirão a comida e gerenciarão a estação de energia.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Elas vão interagir conosco e, é claro, umas com as outras.
11:26
They'll speak every language,
211
686349
1918
Elas falarão todos os idiomas,
11:28
take in every pattern of sensor data,
212
688267
2836
captarão todos os dados de sensores,
11:31
sights, sounds,
213
691145
2336
imagens, sons,
11:33
streams and streams of information,
214
693481
2377
enxurradas e enxurradas de informação,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
superando em muito o que qualquer um de nós poderia consumir em mil vidas.
11:40
So what is this?
216
700780
1293
Então, o que é isso?
11:42
What are these AIs?
217
702990
2086
O que são essas AIs?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Se quisermos priorizar a segurança acima de tudo,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
para garantir que essa nova onda sempre sirva e amplifique a humanidade,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
precisamos encontrar as metáforas certas para descrever o potencial disso.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Durante anos, nós da comunidade de IA, e eu especificamente,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
tendemos a nos referir a isso apenas como ferramentas.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Mas essa explicação não reflete o que está acontecendo aqui.
12:14
AIs are clearly more dynamic,
224
734730
2503
As IAs são claramente mais dinâmicas,
12:17
more ambiguous, more integrated
225
737233
2753
mais ambíguas, mais integradas
12:19
and more emergent than mere tools,
226
739986
2627
e mais emergentes que meras ferramentas,
12:22
which are entirely subject to human control.
227
742613
2878
que estão inteiramente sujeitas ao controle humano.
12:25
So to contain this wave,
228
745533
2544
Então, para conter essa onda,
12:28
to put human agency at its center
229
748119
3044
colocar a ação humana no centro
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
e mitigar os inevitáveis efeitos não intencionais
12:33
that are likely to arise,
231
753916
1835
que provavelmente surgirão,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
devemos começar a pensar nelas como se fossem um novo tipo de espécie digital.
12:41
Now it's just an analogy,
233
761132
1793
Agora, isso é só uma analogia,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
não é uma descrição literal e não é perfeita.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Para começar, elas claramente não são biológicas em nenhum sentido tradicional,
12:50
but just pause for a moment
236
770141
2377
mas parem por um momento
12:52
and really think about what they already do.
237
772560
2836
e realmente pensem sobre o que elas já fazem.
12:55
They communicate in our languages.
238
775438
2627
Elas se comunicam em nossos idiomas.
12:58
They see what we see.
239
778107
2127
Elas veem o que nós vemos.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Elas consomem quantidades enormes de informações.
13:04
They have memory.
241
784739
1376
Elas têm memória.
13:06
They have personality.
242
786991
1752
Elas têm personalidade.
13:09
They have creativity.
243
789493
1710
Elas têm criatividade.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Elas podem até mesmo raciocinar até certo ponto e formular planos simples.
13:16
They can act autonomously if we allow them.
245
796709
3128
Eles podem agir de forma autônoma se permitirmos.
13:20
And they do all this at levels of sophistication
246
800546
2294
E elas fazem tudo isso em níveis de sofisticação
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
muito além de qualquer coisa que já conhecemos de uma mera ferramenta.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
E assim, dizer que a IA trata principalmente de matemática ou código
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
é como dizer nós os seres humanos somos principalmente carbono e água.
13:37
It's true, but it completely misses the point.
250
817897
3795
Sim, é verdade, mas não aborda o ponto principal.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
E sim, eu entendo, este é um pensamento super intrigante
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
mas acho que essa estrutura ajuda a aprimorar o foco nas questões críticas.
13:52
What are the risks?
253
832745
1585
Quais são os riscos?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Quais são os limites que precisamos impor?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Que tipo de IA queremos criar ou permitir que seja criada?
14:04
This is a story that's still unfolding.
256
844465
2377
Esta é uma história em andamento.
14:06
Nothing should be accepted as a given.
257
846884
2544
Nada deve ser dado como definitivo.
14:09
We all must choose what we create.
258
849428
2544
Todos nós devemos escolher o que criamos.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Quais IAs trazemos para o mundo, ou não.
14:18
These are the questions for all of us here today,
260
858604
2836
Essas são as perguntas para todos nós aqui hoje,
14:21
and all of us alive at this moment.
261
861440
2586
e para todos nós vivos neste momento.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Para mim, os benefícios dessa tecnologia são incrivelmente óbvios
14:28
and they inspire my life's work every single day.
263
868989
3546
e inspiram o trabalho da minha vida todos os dias.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Mas, francamente, eles falarão por si mesmos.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Ao longo dos anos, nunca me esquivei de destacar riscos
14:40
and talking about downsides.
266
880668
1710
e falar sobre desvantagens.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
Pensar dessa maneira nos ajuda a focar nos enormes desafios
14:46
that lie ahead for all of us.
268
886298
1836
que temos pela frente.
14:48
But let's be clear.
269
888843
1418
Mas sejamos claros.
14:50
There is no path to progress
270
890719
2128
Não existe progresso
14:52
where we leave technology behind.
271
892888
2169
se deixarmos a tecnologia para trás.
14:55
The prize for all of civilization is immense.
272
895683
3795
O prêmio para toda a civilização é imenso.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
Precisamos de soluções em saúde e educação, para nossa crise climática.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
E se a IA entregar apenas uma fração de seu potencial,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
a próxima década será a mais produtiva da história da humanidade.
15:13
Here's another way to think about it.
276
913701
2002
Aqui está outra perspectiva.
15:15
In the past,
277
915744
1293
No passado,
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
desbloquear o crescimento econômico geralmente vinha com grandes desvantagens.
15:21
The economy expanded as people discovered new continents
279
921500
3712
A economia cresceu com a descoberta de novos continentes.
15:25
and opened up new frontiers.
280
925254
2002
e abriram novas fronteiras.
15:28
But they colonized populations at the same time.
281
928632
3045
Mas colonizaram populações ao mesmo tempo.
15:32
We built factories,
282
932595
1710
Construímos fábricas,
15:34
but they were grim and dangerous places to work.
283
934305
3044
mas eram lugares sombrios e perigosos para se trabalhar.
15:38
We struck oil,
284
938017
1918
Encontramos petróleo,
15:39
but we polluted the planet.
285
939977
1627
mas poluímos o planeta.
15:42
Now because we are still designing and building AI,
286
942146
3170
Agora, como ainda estamos projetando e construindo a IA,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
temos o potencial e a oportunidade de fazê-lo melhor,
15:49
radically better.
288
949153
1335
radicalmente melhor.
15:51
And today, we're not discovering a new continent
289
951071
2628
E hoje, não estamos descobrindo um novo continente
15:53
and plundering its resources.
290
953741
1918
e saqueando seus recursos.
15:56
We're building one from scratch.
291
956285
1919
Estamos construindo um do zero.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Às vezes, as pessoas dizem que dados ou chips são o novo petróleo do século 21,
16:03
but that's totally the wrong image.
293
963959
2002
mas essa é uma ideia totalmente errada.
16:06
AI is to the mind
294
966587
1919
A IA é para a mente
16:08
what nuclear fusion is to energy.
295
968547
2753
o que a fusão nuclear é para a energia.
16:12
Limitless, abundant,
296
972259
2670
Ilimitada, abundante,
16:14
world-changing.
297
974970
1544
transformadora do mundo.
16:17
And AI really is different,
298
977389
2962
E a IA é realmente diferente,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
e isso significa que temos que pensar nisso de forma criativa e honesta.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Temos que levar nossas analogias e metáforas
16:27
to the very limits
301
987274
1752
ao limite para podermos lidar
16:29
to be able to grapple with what's coming.
302
989068
2252
com o que está por vir.
16:31
Because this is not just another invention.
303
991362
2878
Porque isso não é apenas mais uma invenção.
16:34
AI is itself an infinite inventor.
304
994907
3503
A própria IA é uma inventora infinita.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
E sim, isso é empolgante, promissor, preocupante
16:42
and intriguing all at once.
306
1002164
2044
e intrigante ao mesmo tempo.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Para ser sincero, é muito surreal.
16:47
But step back,
308
1007836
1293
Mas recue um pouco,
16:49
see it on the long view of glacial time,
309
1009171
3462
veja isso no longo prazo da era glacial,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
e essas são realmente as metáforas mais apropriadas que temos hoje.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Desde o início da vida na Terra,
17:00
we've been evolving, changing
312
1020516
2961
estamos evoluindo, mudando
17:03
and then creating everything around us in our human world today.
313
1023477
4171
e criando tudo ao nosso redor em nosso mundo humano hoje.
17:08
And AI isn't something outside of this story.
314
1028232
3003
E a IA não é algo fora dessa história.
17:11
In fact, it's the very opposite.
315
1031569
2961
Na verdade, é exatamente o oposto.
17:15
It's the whole of everything that we have created,
316
1035197
3170
É o conjunto de tudo que criamos,
17:18
distilled down into something that we can all interact with
317
1038367
3545
transformado em algo com o qual todos podemos interagir
17:21
and benefit from.
318
1041912
1377
e nos beneficiar.
17:23
It's a reflection of humanity across time,
319
1043872
3504
É um reflexo da humanidade ao longo do tempo
17:27
and in this sense,
320
1047418
1251
e, nesse sentido,
17:28
it isn't a new species at all.
321
1048711
1918
não é uma espécie nova.
17:31
This is where the metaphors end.
322
1051213
1960
É aqui que as metáforas terminam.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Isso que direi ao Caspian quando perguntar novamente.
17:37
AI isn't separate.
324
1057219
1460
A IA não está separada.
17:39
AI isn't even in some senses, new.
325
1059388
3295
A IA nem mesmo é, em alguns aspectos, algo novo.
17:43
AI is us.
326
1063517
1126
A IA somos nós.
17:45
It's all of us.
327
1065394
1210
Somos todos nós.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
E essa talvez seja a coisa mais promissora e vital de todas
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
que até mesmo uma criança de seis anos pode entender.
17:54
As we build out AI,
330
1074528
1376
Ao desenvolvermos a IA,
17:55
we can and must reflect all that is good,
331
1075946
3545
Devemos refletir sobre tudo o que é bom.
17:59
all that we love,
332
1079533
1126
tudo o que amamos,
18:00
all that is special about humanity:
333
1080701
2753
tudo o que é especial sobre a humanidade:
18:03
our empathy, our kindness,
334
1083495
2169
nossa empatia, nossa gentileza,
18:05
our curiosity and our creativity.
335
1085664
2169
nossa curiosidade e nossa criatividade.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Eu diria que esse é o maior desafio do século 21,
18:14
but also the most wonderful,
337
1094381
2211
mas também a oportunidade mais maravilhosa,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
inspiradora e esperançosa para todos nós.
18:20
Thank you.
339
1100429
1168
Obrigado
18:21
(Applause)
340
1101639
4879
(Aplausos)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Obrigado Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
É uma visão incrível e uma metáfora superpoderosa.
18:32
You're in an amazing position right now.
343
1112066
1960
Você está em uma posição incrível agora.
18:34
I mean, you were connected at the hip
344
1114026
1793
Digo, você está totalmente conectado
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
ao incrível trabalho realizado na OpenAI.
18:38
You’re going to have resources made available,
346
1118614
2169
Você terá recursos disponibilizados,
18:40
there are reports of these giant new data centers,
347
1120824
4046
há relatórios desses novos data centers gigantescos,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 bilhões de dólares investidos e coisas do tipo.
18:48
And a new species can emerge from it.
349
1128082
3837
E uma nova espécie pode emergir disso.
18:52
I mean, in your book,
350
1132294
1502
Quero dizer, em seu livro,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
você foi, além de descrever uma visão otimista incrível,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
você foi muito eloquente sobre os perigos da IA.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Eu só estou curioso, do ponto de vista que você tem agora,
19:04
what is it that most keeps you up at night?
354
1144431
2336
o que mais o mantém acordado à noite?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman: Acho que o grande risco é nos prendermos
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
na armadilha de aversão ao pessimismo.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Nós temos que ter a coragem de enfrentar
19:14
the potential of dark scenarios
358
1154483
1960
o potencial de cenários sombrios
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
para tirar o máximo proveito de todos os benefícios que vemos.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Então, a boa notícia é que, se você olhar para os últimos dois ou três anos,
19:23
there have been very, very few downsides, right?
361
1163325
2961
houve muito, muito poucas desvantagens, certo?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
É muito difícil dizer explicitamente quais danos um LLM causou.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Mas isso não significa que essa será a trajetória
19:34
over the next 10 years.
364
1174503
1168
nos próximos 10 anos.
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Então, se você prestar atenção a algumas capacidades específicas,
19:39
take for example, autonomy.
366
1179174
1835
considere, por exemplo, a autonomia.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
A autonomia é, obviamente, um limite
19:43
over which we increase risk in our society.
368
1183387
2794
que, ao ser rompido, aumenta o risco em nossa sociedade.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
E é algo que devemos seguir muito, muito de perto.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
O outro seria algo como autoaperfeiçoamento cíclico.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Se você permitir que o modelo se autoaperfeiçoe de forma independente,
19:56
update its own code,
372
1196483
1460
atualize seu próprio código,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
explore um ambiente sem supervisão e, você sabe,
20:01
without a human in control to change how it operates,
374
1201321
3295
sem um humano no controle para mudar a forma como ele opera,
20:04
that would obviously be more dangerous.
375
1204616
1919
isso obviamente seria mais perigoso.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Mas acho que ainda estamos um pouco longe disso.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Acho que ainda levará de cinco a dez anos para enfrentarmos isso de fato.
20:12
But it's time to start talking about it now.
378
1212958
2085
Mas já é hora de começar a falar sobre isso.
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
CA: Diferente das espécies biológicas as digitais
20:17
can replicate not in nine months,
380
1217588
2002
podem se replicar não em nove meses,
20:19
but in nine nanoseconds,
381
1219631
1669
mas em nove nanossegundos,
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
e produzir um número indefinido de cópias de si mesma,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
todas com mais poder do que nós em muitos aspectos.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Quero dizer, a possibilidade de efeitos não intencionais parece muito grande.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
E não é verdade que, se um problema acontecer,
20:35
it could happen in an hour?
386
1235689
1919
ele pode acontecer em uma hora?
20:37
MS: No.
387
1237649
1335
MS: Não.
20:38
That is really not true.
388
1238984
1752
Isso realmente não é verdade.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Acho que não há evidências que sugiram isso.
20:42
And I think that, you know,
390
1242863
1585
E eu acho que, você sabe,
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
isso geralmente é chamado de “explosão de inteligência”.
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
E eu acho que seja uma possibilidade teórica, hipotética,
20:51
that we're all kind of curious to explore,
393
1251079
2420
que estamos meio curiosos para explorar,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
mas não há evidências de que estejamos perto de algo assim.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
E acho muito importante escolhermos nossas palavras com muito cuidado.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Você está correto. Essa é uma fraqueza comum na formação das espécies:
21:03
that we will design the capability for self-replication into it
397
1263801
4337
projetarmos a capacidade de autorreplicação nelas
21:08
if people choose to do that.
398
1268180
1668
se as pessoas optarem por fazê-lo.
21:09
And I would actually argue that we should not,
399
1269890
2169
E eu realmente diria que não devemos,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
essa seria uma das capacidades perigosas
21:14
that we should step back from, right?
401
1274269
1835
que deveríamosm evitar, concorda?
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Portanto, não há chance de que isso “surja” acidentalmente.
21:19
I really think that's a very low probability.
403
1279942
2502
Eu acredito que a probabilidade é muito baixa.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Isso acontecerá se os engenheiros projetarem deliberadamente esses recursos.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
E se eles não se esforçarem para projetá-los deliberadamente.
21:30
And so this is the point of being explicit
406
1290160
2294
Portanto, esse é o objetivo de ser claro.
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
e transparente ao tentar introduzir a a segurança desde o design inicial.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Obrigado, sua visão da humanidade injetando nessa coisa nova
21:45
the best parts of ourselves,
409
1305008
1877
as melhores partes de nós mesmos,
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
evitando todas essas tendências biológicas estranhas e
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
horríveis que podemos ter em certas circunstâncias,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
digo, é uma visão muito inspiradora.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
E muito obrigado por vir aqui e compartilhar isso no TED.
21:58
Thank you, good luck.
414
1318355
1210
Obrigado, boa sorte.
21:59
(Applause)
415
1319565
1876
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7