Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,033 views ・ 2023-04-28

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Margarida Ferreira Revisora: Nadia Tira
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Sinto-me encantado por partilhar alguns pensamentos picantes
sobre a inteligência artificial.
00:10
But first, let's get philosophical
1
10799
3044
Mas primeiro comecemos filosoficamente
00:13
by starting with this quote by Voltaire,
2
13843
2545
com esta citação de Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
um filósofo do Iluminismo do século XVIII, que disse:
00:18
who said, "Common sense is not so common."
4
18682
2961
“O senso comum não é lá muito comum.”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Acontece que esta citação não podia ser mais pertinente
00:24
to artificial intelligence today.
6
24854
2169
para a inteligência artificial dos dias de hoje.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Apesar disso, a IA é inegavelmente uma potente ferramenta,
que vence o campeão mundial de “Go,”
00:31
beating the world-class "Go" champion,
8
31027
2586
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
que passa nos testes de admissão à faculdade
e até passa no exame da Ordem dos Advogados.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Sou cientista informático há 20 anos
00:40
and I work on artificial intelligence.
11
40579
2419
e trabalho na inteligência artificial.
00:43
I am here to demystify AI.
12
43039
2586
Estou aqui para desmistificar a IA.
00:46
So AI today is like a Goliath.
13
46626
3462
A IA hoje é como o Golias.
00:50
It is literally very, very large.
14
50130
3003
É literalmente muito, muito grande.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Diz-se que as mais recentes são treinadas com dezenas de milhares de GPU
00:59
and a trillion words.
16
59389
2544
e um bilião de palavras.
01:02
Such extreme-scale AI models,
17
62475
2086
Estes modelos de IA de escala extrema.
01:04
often referred to as "large language models,"
18
64603
3128
designados com frequência por “grandes modelos linguísticos”,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
parecem demonstrar sinais de IAG,
01:11
artificial general intelligence.
20
71610
2627
Inteligência Artificial Geral.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Exceto quando fazem pequenos erros idiotas,
01:18
which it often does.
22
78158
1585
o que acontece com frequência.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Muita gente julga que os erros que a IA faz atualmente
podem ser corrigidos facilmente pela força bruta,
01:24
can be easily fixed with brute force,
24
84080
2002
01:26
bigger scale and more resources.
25
86124
2127
por uma maior escala e mais recursos.
01:28
What possibly could go wrong?
26
88585
1960
O que é que pode correr mal?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Há três problemas imediatos que já enfrentamos a nível da sociedade.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Primeiro, os modelos de IA de escala extrema
exigem um treino dispendioso
01:44
and only a few tech companies can afford to do so.
29
104059
3461
e só algumas empresas tecnológicas têm hipótese de o fazer.
01:48
So we already see the concentration of power.
30
108104
3796
Por isso, já estamos a ver a concentração do poder.
01:52
But what's worse for AI safety,
31
112817
2503
Mas o que é pior para a segurança da IA,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
é que estamos à mercê dessas poucas empresas de tecnologia
01:59
because researchers in the larger community
33
119115
3796
porque os investigadores da comunidade mais alargada
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
não têm os meios de inspecionar e dissecar a sério esses modelos.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
E não esqueçamos a sua enorme pegada de carbono
02:12
and the environmental impact.
36
132295
1919
e o impacto ambiental.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Depois, há estas questões intelectuais adicionais:
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
Poderá a IA, sem um sólido bom senso, ser realmente segura para a Humanidade?
02:24
And is brute-force scale really the only way
39
144307
4463
Será o aumento da força bruta
a única forma, aliás a forma correta, de ensinar a IA?
02:28
and even the correct way to teach AI?
40
148812
2919
02:32
So I’m often asked these days
41
152232
1668
Perguntam-me hoje muitas vezes
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
se será viável fazer uma investigação significativa
02:36
without extreme-scale compute.
43
156569
1961
sem computação em grande escala.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
Eu trabalho numa universidade
e num instituto de investigação sem fins lucrativos,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
portanto não disponho dum enorme parque de GPU
para criar modelos linguísticos gigantescos.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Apesar disso, creio que há muita coisa que precisamos de fazer
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
e podemos fazer para tornar a IA sustentável e humanista.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
Precisamos de fazer a IA mais pequena, para a democratizar.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
Precisamos de tornar a IA mais segura, ensinando-lhe normas e valores humanos.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Talvez possamos fazer uma analogia com “David e Golias”,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
em que Golias será os modelos linguísticos de escala extrema
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
e procurar inspiração no clássico da Antiguidade ”A Arte da Guerra”.
03:21
which tells us, in my interpretation,
53
201156
2419
que nos diz, segundo a minha interpretação,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
“conhece o teu inimigo, escolhe as tuas batalhas,
“e inova as tuas armas.”
03:28
Let's start with the first, know your enemy,
55
208163
2669
Comecemos pelo primeiro “conhece o teu inimigo”,
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
o que significa que precisamos de avaliar a IA com rigor.
03:35
AI is passing the bar exam.
57
215044
2169
A IA foi aprovada no exame da Ordem dos Advogados
Isso significa que a IA é robusta em termos de senso comum?
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
03:41
You might assume so, but you never know.
59
221342
2795
Podemos supor que sim, mas não sabemos ao certo.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Suponhamos que “Pus 5 peças de roupa a secar ao sol.
03:48
and it took them five hours to dry completely.
61
228600
3003
“Demoraram 5 horas a secar por completo.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
“Quanto tempo demorariam a secar 30 peças de roupa?”
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
O GPT-4, o mais recente e melhor sistema da IA responde 30 horas!
03:59
Not good.
64
239694
1502
Não é nada bom.
04:01
A different one.
65
241196
1167
Outro exemplo.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
“Tenho um jarro de 12 litros e um jarro de 6 litros
04:04
and I want to measure six liters.
67
244741
1626
“e quero medir 6 litros.
04:06
How do I do it?
68
246367
1252
“Como é que faço?”
04:07
Just use the six liter jug, right?
69
247660
2002
Uso o jarro de 6 litros, não é verdade?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
O GPT-4 cospe alguns disparates muito elaborados.
04:13
(Laughter)
71
253792
2919
(Risos)
04:17
Step one, fill the six-liter jug,
72
257212
2252
“Passo um: encher o jarro de 6 litros,
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
“Passo dois: despejar a água do jarro de 6 litros para o de 12 litros.
04:22
step three, fill the six-liter jug again,
74
262550
3087
“Passo três: encher de novo o jarro de 6 litros.
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
“Passo quatro: muito cuidadosamente,
“despejar a água do jarro de 6 litros para o de 12 litros.
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
“Por fim, ficamos com 6 litros de água no jarro de 6 litros”
04:34
that should be empty by now.
77
274979
1460
— que, nesta altura, deve estar vazio!
04:36
(Laughter)
78
276439
1377
(Risos)
04:37
OK, one more.
79
277857
1126
OK, mais um exemplo.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
“Será que fico com um pneu furado quando atravesso de bicicleta uma ponte
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
“que está suspensa sobre pregos, parafusos e vidros partidos?”
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
“Sim, muito provavelmente”, diz o GTP-4”,
04:51
presumably because it cannot correctly reason
83
291454
2378
provavelmente porque não consegue deduzir corretamente
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
que, se a ponte está suspensa sobre os pregos e os vidros partidos
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
então a superfície da ponte não toca diretamente nos objetos agudos.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
OK, então como é que vocês se sentiriam
se um advogado da IA que ficou aprovado no exame
05:08
yet randomly fails at such basic common sense?
87
308429
3546
falha aleatoriamente num senso comum tão básico?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
A IA atual é incrivelmente inteligente
e, ao mesmo tempo, chocantemente estúpida.
05:18
(Laughter)
89
318898
1418
(Risos)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
É um efeito secundário inevitável do ensino da IA através da força bruta.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Alguns otimistas de escala podem dizer: “Não se preocupem com isso,
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
“Todas essas situações podem ser corrigidas facilmente,
“adicionando exemplos semelhantes como mais dados de treino para a IA.”
05:33
as yet more training data for AI."
93
333663
2753
05:36
But the real question is this.
94
336916
2044
Mas a verdadeira questão é esta:
05:39
Why should we even do that?
95
339460
1377
Porque é que havemos de fazer isso?
05:40
You are able to get the correct answers right away
96
340879
2836
Podemos obter as respostas certas de imediato
05:43
without having to train yourself with similar examples.
97
343715
3295
sem termos de nos treinar com exemplos semelhantes.
05:48
Children do not even read a trillion words
98
348136
3378
As crianças não leem um bilião de palavras
05:51
to acquire such a basic level of common sense.
99
351556
3420
para adquirirem um nível tão básico de senso comum.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Esta observação leva-nos ao segundo conselho:
05:58
choose your battles.
101
358146
1710
“escolhe as tuas batalhas”.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Quais são as questões fundamentais que devemos colocar agora
06:04
and tackle today
103
364569
1918
e resolver agora
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
a fim de ultrapassar este status quo com a IA de escala extrema?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Eu diria que o senso comum está entre as principais prioridades.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
O senso comum tem sido um problema de há muito na IA.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Para explicar porquê, vou usar uma analogia com a matéria escura.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Só 5% do universo é matéria normal
06:26
that you can see and interact with,
109
386716
2794
que vemos e com que podemos interagir.
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
Os restantes 95% são matéria escura e energia escura.
06:34
Dark matter is completely invisible,
111
394390
1835
A matéria escura é totalmente invisível,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
mas os cientistas deduzem que ela está lá porque influencia o mundo visível,
06:40
even including the trajectory of light.
113
400897
2627
incluindo até a trajetória da luz.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Quanto à linguagem, a matéria normal é o texto visível,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
e a matéria escura são as regras mudas sobre como funciona o mundo
06:51
including naive physics and folk psychology,
116
411574
3212
incluindo a física ingénua e a psicologia popular,
06:54
which influence the way people use and interpret language.
117
414827
3546
que influenciam a forma como as pessoas usam e interpretam a língua.
06:58
So why is this common sense even important?
118
418831
2503
Então, porque é que este senso comum é tão importante?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
Bom, num conhecido exercício intelectual proposto por Nick Bostrom
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
pediram à IA que produzisse e maximizasse os clips para papel
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
e essa IA decidiu matar pessoas para as utilizar como recursos adicionais,
07:19
to turn you into paper clips.
122
439769
2461
para as transformar em clips para papel,
porque a IA não tinha uma compreensão humana básica sobre os valores humanos.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
07:29
Now, writing a better objective and equation
124
449070
3295
Escrever um objetivo melhor e uma equação que afirmasse explicitamente:
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
“Não matar seres humanos”
07:35
will not work either
126
455284
1210
também não funcionaria
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
porque a IA podia avançar e matar todas as árvores,
pensando que é uma coisa perfeitamente aceitável.
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
07:42
And in fact, there are endless other things
129
462583
2002
De facto, há um nunca acabar de outras coisas
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
que, claro, a IA não devia fazer para maximizar clips para papel,
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
incluindo “Não espalhar notícias falsas”, “Não roubar”, “Não mentir”,
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
que fazem parte do nosso senso comum,
da compreensão sobre como funciona o mundo.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
No entanto, durante décadas, na área da IA, tem-se considerado
08:00
as a nearly impossible challenge.
134
480810
2753
que o senso comum é um problema quase impossível de resolver.
08:03
So much so that when my students and colleagues and I
135
483563
3837
De tal modo que, quando os meus alunos, colegas e eu
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
começámos a trabalhar em senso comum, já há anos, fomos muito desencorajados.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
Disseram-nos que era um tópico de investigação dos anos 70 e 80;
08:14
shouldn’t work on it because it will never work;
138
494490
2419
que não devíamos trabalhar nisso porque nunca iria funcionar;
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
de facto, nem digam essa palavra se querem ser levados a sério.
08:20
Now fast forward to this year,
140
500329
2128
Avançando rapidamente para hoje, ainda oiço:
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
“Não trabalhes nisso porque o ChatGPT já quase resolveu isso,”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
E: ”Basta aumentar a escala das coisas e a magia surgirá,
08:29
and nothing else matters.”
143
509338
1794
“e nada mais importa.”
08:31
So my position is that giving true common sense
144
511174
3545
Assim, a minha posição é que dar um verdadeiro senso comum à IA,
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
continua a ser uma hipótese remota.
08:38
And you don’t reach to the Moon
146
518514
1502
Não chegaremos à lua
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
aumentando o edifício mais alto do mundo, um centímetro de cada vez.
Reconheço que os modelos de IA de escala extrema
08:44
Extreme-scale AI models
148
524270
1460
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
vão adquirindo uma quantidade cada vez maior
de conhecimentos de senso comum.
08:48
I'll give you that.
150
528983
1168
Mas lembrem-se, continuam a tropeçar em problemas tão triviais
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
08:54
that even children can do.
152
534489
2419
que até as crianças sabem resolver.
08:56
So AI today is awfully inefficient.
153
536908
3879
Assim, a IA atual é muito ineficaz.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
E se houver um caminho alternativo ou um caminho por encontrar?
Um caminho que possa basear-se no avanço das redes neurais profundas,
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
09:09
but without going so extreme with the scale.
156
549378
2712
mas sem ir tão longe na escala.
09:12
So this leads us to our final wisdom:
157
552465
3170
Isso leva-nos ao conselho final:
09:15
innovate your weapons.
158
555635
1710
“Inovem as vossas armas.”
09:17
In the modern-day AI context,
159
557345
1668
No contexto da IA de hoje,
09:19
that means innovate your data and algorithms.
160
559055
3086
isso significa inovar os nossos dados e algoritmos.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
OK, grosso modo, há três tipos de dados
09:24
that modern AI is trained on:
162
564852
1961
em que a IA de hoje é treinada:
09:26
raw web data,
163
566813
1376
dados brutos na Internet,
09:28
crafted examples custom developed for AI training,
164
568231
4462
exemplos elaborados, desenvolvidos à medida para o treino da IA,
09:32
and then human judgments,
165
572735
2044
e juízos humanos,
09:34
also known as human feedback on AI performance.
166
574821
3211
também conhecidos por feedback humano sobre o desempenho da IA.
Se a IA for treinada apenas com o primeiro tipo
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
— os dados brutos na Internet que estão à disposição de todos —
09:42
which is freely available,
168
582078
1710
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
não é bom, porque esses dados estão cheios de racismo e sexismo
09:48
and misinformation.
170
588584
1126
e informações incorretas.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Por isso, seja qual for a quantidade usada se entra lixo, sai lixo.
09:54
So the newest, greatest AI systems
172
594507
2794
Por isso, os sistemas mais recentes e melhores da IA
09:57
are now powered with the second and third types of data
173
597343
3337
são agora alimentados com o segundo e terceiro tipos de dados
10:00
that are crafted and judged by human workers.
174
600680
3378
que são elaborados e avaliados por trabalhadores humanos.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
É o mesmo que escrever manuais especializados
para a IA estudar
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
e depois contratar tutores humanos para fornecerem permanente feedback à IA.
Estes são dados proprietários, de modo geral,
10:15
These are proprietary data, by and large,
177
615027
2461
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
que, segundo consta, custam dezenas de milhões de dólares.
10:20
We don't know what's in this,
179
620908
1460
Não sabemos o que é que contêm,
10:22
but it should be open and publicly available
180
622410
2419
mas devem ser abertos e disponíveis publicamente
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
para podermos inspecioná-los e garantir que respeitam normas e valores diversos.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Por esta razão, as minhas equipas em UW e AI2
têm estado a trabalhar em gráficos de conhecimento de senso comum
10:32
have been working on commonsense knowledge graphs
183
632628
2461
10:35
as well as moral norm repositories
184
635089
2086
assim como em repositórios de normas morais
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
para ensinar à IA o senso comum básico. as normas e a moral.
Os nossos dados são totalmente abertos, todos podem inspecionar o conteúdo
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
10:44
and make corrections as needed
187
644473
1502
e fazer as correções necessárias
10:45
because transparency is the key for such an important research topic.
188
645975
4171
porque a transparência é a chave
para um tópico de investigação desta importância.
10:50
Now let's think about learning algorithms.
189
650646
2545
Pensemos agora nos algoritmos de aprendizagem.
10:53
No matter how amazing large language models are,
190
653733
4629
Por mais espantosa que sejam os grandes modelos linguísticos,
10:58
by design
191
658404
1126
dada a sua conceção,
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
podem não ser os mais adequados
para servirem como modelos fiáveis de conhecimento.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
Estes modelos linguísticos adquirem uma vasta quantidade de conhecimentos,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
mas fazem-no como um subproduto
em oposição a um objetivo de aprendizagem direta,
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
o que resulta em efeitos colaterais indesejados,
como efeitos alucinados e falta de senso comum.
11:18
and lack of common sense.
196
678841
2002
11:20
Now, in contrast,
197
680843
1210
Em contrapartida, a aprendizagem humana nunca é
11:22
human learning is never about predicting which word comes next,
198
682053
3170
uma previsão de qual a palavra que vem seguir,
11:25
but it's really about making sense of the world
199
685223
2877
é ter noção do sentido do mundo
11:28
and learning how the world works.
200
688142
1585
e aprender como funciona o mundo.
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Talvez a IA também devesse ser ensinada dessa forma.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Assim, numa busca para aquisição
de um conhecimento mais direto de senso comum
11:39
my team has been investigating potential new algorithms,
203
699195
3879
a minha equipa tem estado a investigar possíveis novos algoritmos,
11:43
including symbolic knowledge distillation
204
703115
2628
incluindo a destilação de conhecimentos simbólicos
11:45
that can take a very large language model as shown here
205
705743
3795
que podem ter um modelo linguístico como aqui se mostra
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
que não pude encaixar no ecrã porque é demasiado grande
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
e reduzi-lo a modelos de senso comum muito mais pequenos
11:58
using deep neural networks.
208
718214
2252
utilizando redes neurais profundas.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Ao fazer isso, também geramos, algoritmicamente,
e inspecionável por humanos,
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
uma representação dos conhecimentos de senso comum, simbólica e inspecionável,
12:09
so that people can inspect and make corrections
211
729141
2211
de modo que as pessoas podem inspecionar e fazer correções
12:11
and even use it to train other neural commonsense models.
212
731394
3545
e até usar para treinar outros modelos neurais de senso comum.
12:15
More broadly,
213
735314
1210
Em termos mais gerais,
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
temos estado a resolver este puzzle gigante de senso comum,
aparentemente impossível,
12:21
of common sense, ranging from physical,
215
741237
2669
do senso comum físico, social e visual
12:23
social and visual common sense
216
743906
2169
à teoria da mente, às normas e à moral.
12:26
to theory of minds, norms and morals.
217
746117
2419
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Cada peça individual pode parecer peculiar e incompleta,
12:32
but when you step back,
219
752415
1585
mas quando nos afastamos
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
é quase como se essas peças se juntassem numa tapeçaria
12:38
that we call human experience and common sense.
221
758504
3045
a que chamamos experiência humana e senso comum.
12:42
We're now entering a new era
222
762174
1961
Estamos a entrar numa nova era
12:44
in which AI is almost like a new intellectual species
223
764176
5923
em que a IA é quase como uma nova espécie intelectual
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
com forças e fraquezas únicas em comparação com os seres humanos.
12:54
In order to make this powerful AI
225
774478
3546
A fim de tornar esta poderosa IA
12:58
sustainable and humanistic,
226
778065
2336
sustentável e humanista,
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
precisamos de ensinar à IA senso comum, normas e valores.
13:04
Thank you.
228
784530
1376
Obrigada.
13:05
(Applause)
229
785906
6966
(Aplausos)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Vejam só!
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, por favor, fica mais um segundo.
Isto é muito interessante, esta ideia de senso comum.
13:18
This is so interesting,
232
798002
1418
13:19
this idea of common sense.
233
799462
2002
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Obviamente, todos queremos o que está para vir.
13:25
But help me understand.
235
805926
1168
Mas ajuda-me a perceber.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Temos esse modelo de uma criança a aprender.
13:31
How does a child gain common sense
237
811599
3044
Como é que uma criança adquire senso comum
13:34
apart from the accumulation of more input
238
814685
3545
para além da acumulação de mais informações
13:38
and some, you know, human feedback?
239
818230
3045
e de algum feedback humano?
13:41
What else is there?
240
821317
1293
O que é que há mais?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: Fundamentalmente, faltam várias coisas,
13:45
but one of them is, for example,
242
825613
1918
mas uma delas, por exemplo,
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
é a capacidade de fazer uma hipótese, de fazer experiências,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
de interagir com o mundo e desenvolver essa hipótese.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
Nós abstraímos os conceitos sobre como funciona o mundo
13:59
and then that's how we truly learn,
246
839835
2044
e é assim que aprendemos verdadeiramente,
14:01
as opposed to today's language model.
247
841921
3003
em oposição ao modelo linguístico de hoje.
14:05
Some of them is really not there quite yet.
248
845424
2795
Alguns deles ainda não chegaram lá.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA: Tu usas a analogia de que não podemos chegar à Lua
14:12
by extending a building a foot at a time.
250
852014
2544
aumentando um edifício um centímetro de cada vez.
14:14
But the experience that most of us have had
251
854558
2044
Mas a experiência que muitos têm desses modelos linguísticos
14:16
of these language models is not a foot at a time.
252
856602
2336
não é de um centímetro de cada vez.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
É duma aceleração vertiginosa.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Tens a certeza de que, dado o ritmo a que as coisas estão a ocorrer,
14:25
each next level seems to be bringing with it
255
865319
2711
cada nível seguinte parece trazer consigo
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
o que parece ser sabedoria e conhecimento.
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Concordo plenamente que é notável quanto isso aumenta a escala das coisas
14:38
really enhances the performance across the board.
258
878124
3670
e melhora o desempenho em toda a linha.
14:42
So there's real learning happening
259
882086
2544
Portanto, está a ocorrer uma verdadeira aprendizagem
14:44
due to the scale of the compute and data.
260
884630
4797
devido à escala dos computadores e dos dados.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
No entanto, há uma qualidade da aprendizagem que ainda não aparece.
14:53
And the thing is,
262
893681
1168
O que acontece
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
é que ainda não sabemos se podemos lá chegar ou não
14:58
just by scaling things up.
264
898561
2335
apenas por aumentar a escala das coisas.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
Se não pudermos, impõe-se a pergunta: “E a seguir?”
15:05
And then even if we could,
266
905401
1877
Mas, mesmo que possamos,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
será que gostamos desta ideia de ter modelos de IA de escala extrema
15:12
that only a few can create and own?
268
912575
4337
que só alguns sabem criar e possuir?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Se o OpenAI disser: “Estamos interessados no vosso trabalho,
gostávamos de vos ajudar a melhorar o vosso modelo”,
15:23
we would like you to help improve our model,"
270
923043
2837
15:25
can you see any way of combining what you're doing
271
925921
2670
consegues ver alguma forma de combinar o que vocês estão a fazer
15:28
with what they have built?
272
928632
1710
com aquilo que eles têm criado?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Certamente, o que eu imagino
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
será necessário para aproveitar os avanços das redes neurais profundas.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
E pode acontecer haver alguma escala ideal,
15:41
such that ...
276
941770
1168
de modo que...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
Já agora, não estou a imaginar que o mais pequeno é o melhor.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
É provável que haja uma escala correta
mas, para além disso, a receita vencedora pode ser outra coisa.
15:50
the winning recipe might be something else.
279
950696
2294
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Uma síntese de ideias seria importante agora.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, muito obrigado pela tua palestra.
16:00
(Applause)
282
960873
1585
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7