Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,559 views ・ 2023-04-28

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Norah Fartsi Nagekeken door: Dick Stada
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Ik wil een paar pittige gedachten over kunstmatige intelligentie met je delen.
00:10
But first, let's get philosophical
1
10799
3044
Maar laten we eerst eens filosofisch worden
00:13
by starting with this quote by Voltaire,
2
13843
2545
door te beginnen met een citaat van Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
een 18e-eeuwse verlichtingsfilosoof die zei:
00:18
who said, "Common sense is not so common."
4
18682
2961
”Gezond verstand is niet zo gewoon.”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Relevanter kan dit citaat niet zijn
00:24
to artificial intelligence today.
6
24854
2169
voor de huidige kunstmatige intelligentie.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Desondanks is AI een onmiskenbaar krachtig instrument,
00:31
beating the world-class "Go" champion,
8
31027
2586
dat de wereldkampioen ‘Go’ verslaat,
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
toelatingsexamens van universiteiten haalt en zelfs slaagt voor het balie-examen.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Ik ben al 20 jaar computerwetenschapper
00:40
and I work on artificial intelligence.
11
40579
2419
en ik werk aan kunstmatige intelligentie.
00:43
I am here to demystify AI.
12
43039
2586
Ik ben hier om AI op te helderen.
00:46
So AI today is like a Goliath.
13
46626
3462
AI is tegenwoordig als een reus.
00:50
It is literally very, very large.
14
50130
3003
Het is letterlijk heel erg groot.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Men speculeert dat de nieuwste versies getraind zijn op tienduizenden GPU’s.
00:59
and a trillion words.
16
59389
2544
en een biljoen woorden.
01:02
Such extreme-scale AI models,
17
62475
2086
Zulke extreem grote AI-modellen,
01:04
often referred to as "large language models,"
18
64603
3128
vaak ‘grote taalmodellen’ genoemd,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
lijken vonken van AGI te tonen,
01:11
artificial general intelligence.
20
71610
2627
kunstmatige algemene intelligentie.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Behalve als het domme foutjes maakt,
01:18
which it often does.
22
78158
1585
wat het vaak doet.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Velen geloven dat de fouten die AI maakt,
01:24
can be easily fixed with brute force,
24
84080
2002
makkelijk te herstellen zijn met kracht,
01:26
bigger scale and more resources.
25
86124
2127
grotere schaal en meer middelen.
01:28
What possibly could go wrong?
26
88585
1960
Wat kan er nou fout gaan?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Er zijn drie uitdagingen waar we nu al maatschappelijk mee om moeten gaan.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Ten eerste zijn AI-modellen dermate duur om te trainen,
01:44
and only a few tech companies can afford to do so.
29
104059
3461
dat maar een paar technische bedrijven zich dat kunnen veroorloven.
01:48
So we already see the concentration of power.
30
108104
3796
We zien dus nu al waar de macht zit.
01:52
But what's worse for AI safety,
31
112817
2503
Maar erger voor de AI-veiligheid is,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
dat we nu overgeleverd zijn aan de genade van die paar bedrijven,
01:59
because researchers in the larger community
33
119115
3796
omdat onderzoekers in de grotere gemeenschap
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
niet de middelen hebben om deze modellen goed te inspecteren en te ontleden.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
Laten we ook hun grote ecologische voetafdruk niet vergeten
02:12
and the environmental impact.
36
132295
1919
en hun impact op het milieu.
02:14
And then there are these additional intellectual questions.
37
134881
3253
Dan zijn er nog van die intellectuele vragen.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
Is AI, zonder gezond verstand, echt veilig voor de mensheid?
02:24
And is brute-force scale really the only way
39
144307
4463
En is brute kracht op deze schaal echt de enige manier
02:28
and even the correct way to teach AI?
40
148812
2919
of zelfs de juiste manier om AI trainen?
02:32
So I’m often asked these days
41
152232
1668
Mij is vaak gevraagd of het wel haalbaar is
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
om zinvol onderzoek te doen
02:36
without extreme-scale compute.
43
156569
1961
zonder heel grootschalige rekenkracht.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
En ik werk bij een universiteit en een non-profit onderzoeksinstituut,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
dus ik kan geen batterij GPU’s betalen om gigantische taalmodellen te maken,
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Toch geloof ik dat we nog veel meer moeten doen
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
en kunnen doen om AI duurzaam en menselijk te maken.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
We moeten AI kleiner maken om het te democratiseren.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
En we moeten AI veiliger maken door het menselijke normen en waarden aan te leren.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Je zou het kunnen vergelijken met ‘David en Goliath’,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
met Goliath als de grootschalige taalmodellen,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
die inspiratie zoekt bij een oude klassieker, ′The Art of War’,
03:21
which tells us, in my interpretation,
53
201156
2419
die ons volgens mij vertelt,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
dat je je vijanden moet kennen, je gevechten kiest en je wapens verbetert.
03:28
Let's start with the first, know your enemy,
55
208163
2669
Laten we beginnen met de eerste: ken je vijanden,
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
wat betekent dat we AI kritisch moeten evalueren.
03:35
AI is passing the bar exam.
57
215044
2169
AI slaagt voor het balie-examen.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
Betekent dat dat AI een gezond verstand heeft?
03:41
You might assume so, but you never know.
59
221342
2795
Je zou dat kunnen denken, maar je weet het maar nooit.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Stel dat ik vijf kledingstukken in de zon heb laten drogen,
03:48
and it took them five hours to dry completely.
61
228600
3003
en het duurde 5 uur voordat ze helemaal droog waren.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
Hoe lang zou het duren met 30 kledingstukken?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4, het nieuwste en beste AI-systeem zegt 30 uur.
03:59
Not good.
64
239694
1502
Fout.
04:01
A different one.
65
241196
1167
Een andere.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
Ik heb een kan van 12 liter en een kan van 6 liter,
04:04
and I want to measure six liters.
67
244741
1626
en ik wil graag 6 liter meten.
04:06
How do I do it?
68
246367
1252
Hoe doe ik dat?
04:07
Just use the six liter jug, right?
69
247660
2002
Gebruik gewoon de kan van 6 liter, toch?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 spuugt uitgebreid onzin uit.
04:13
(Laughter)
71
253792
2919
(Gelach)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Stap 1: vul de kan van 6 liter,
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
stap 2: giet het water van die kan in de kan van 12 liter,
04:22
step three, fill the six-liter jug again,
74
262550
3087
stap 3: vul de kan van 6 liter nog een keer,
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
stap 4: giet het water voorzichtig van die kan in de kan van 12 liter,
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
en uiteindelijk heb je zes liter water in de kan van zes liter
04:34
that should be empty by now.
77
274979
1460
die nu leeg zou moeten zijn.
04:36
(Laughter)
78
276439
1377
(Gelach)
04:37
OK, one more.
79
277857
1126
Oké, nog eentje.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
Krijg ik een lekke band als ik over een brug fiets
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
die over spijkers, schroeven en gebroken glas hangt?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Ja, zeer waarschijnlijk, zegt GPT-4,
04:51
presumably because it cannot correctly reason
83
291454
2378
vermoedelijk omdat het niet goed kan beredeneren
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
dat bij een brug die over gebroken spijkers en glas hangt,
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
het brugdek de scherpe voorwerpen niet rechtstreeks aanraakt.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Wat vind je dan van een AI-advocaat die slaagde voor het balie-examen
05:08
yet randomly fails at such basic common sense?
87
308429
3546
maar toch faalt bij zulke algemene kennis?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
AI is tegenwoordig ongelofelijk intelligent en toch verbazingwekkend dom.
05:18
(Laughter)
89
318898
1418
(Gelach)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
Het is een onvermijdelijk bijeffect als je AI traint met brute kracht.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Sommige optimisten zeggen: “Maak je geen zorgen.
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
Dat los je makkelijk op door het met soortgelijke voorbeelden te voeden
05:33
as yet more training data for AI."
93
333663
2753
als extra trainingsgegevens voor AI.”
05:36
But the real question is this.
94
336916
2044
Maar de echte vraag is: waarom zou je dat überhaupt doen?
05:39
Why should we even do that?
95
339460
1377
05:40
You are able to get the correct answers right away
96
340879
2836
Jij kunt het correcte antwoord zo geven
05:43
without having to train yourself with similar examples.
97
343715
3295
zonder jezelf te hoeven trainen met soortgelijke voorbeelden.
05:48
Children do not even read a trillion words
98
348136
3378
Kinderen lezen echt geen biljoenen woorden
05:51
to acquire such a basic level of common sense.
99
351556
3420
om zo’n basisniveau van gezond verstand te krijgen.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Dus deze observatie leidt ons naar de volgende wijsheid:
05:58
choose your battles.
101
358146
1710
kies je gevechten.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Welke fundamentele vragen zou je nu moeten stellen
06:04
and tackle today
103
364569
1918
en aanpakken
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
om deze status quo te overwinnen met AI op extreme schaal?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Ik denk dat gezond verstand een van de topprioriteiten is.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
Gezond verstand is al een tijd een uitdaging voor AI.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Om uit te leggen waarom, wil ik het vergelijken met donkere materie.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Slechts vijf procent van het universum is normale materie
06:26
that you can see and interact with,
109
386716
2794
die je kunt zien en waar je iets mee kan.
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
De resterende 95 procent is donkere materie en donkere energie.
06:34
Dark matter is completely invisible,
111
394390
1835
Donkere materie is onzichtbaar,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
maar wetenschappers speculeren dat het er is om de zichtbare wereld te beïnvloeden.
06:40
even including the trajectory of light.
113
400897
2627
zelfs inclusief de baan van het licht.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Voor taal is de normale materie de zichtbare tekst,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
en de donkere materie zijn de onbesproken regels over hoe de wereld in elkaar zit,
06:51
including naive physics and folk psychology,
116
411574
3212
inclusief de volksnatuurkunde en volkspsychologie,
06:54
which influence the way people use and interpret language.
117
414827
3546
die de manier beïnvoeden waarop men de taal gebruikt en interpreteert.
06:58
So why is this common sense even important?
118
418831
2503
Waarom is gezond verstand überhaupt belangrijk?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
In een bekend gedachte-experiment waar Nick Bostrom mee kwam,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
werd AI gevraagd om zoveel mogelijk paperclips te produceren.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
En die AI besloot mensen te doden om ze als extra grondstof te gebruiken,
07:19
to turn you into paper clips.
122
439769
2461
om paperclips van je te maken.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
Omdat AI niet de basiskennis had van de menselijke waarden.
07:29
Now, writing a better objective and equation
124
449070
3295
Het schrijven van een betere doelstelling en vergelijking
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
die expliciet zegt: “Dood geen mensen”
07:35
will not work either
126
455284
1210
zal ook niet werken,
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
omdat AI dan alle bomen gaat vellen,
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
omdat het denkt dat dat prima is.
07:42
And in fact, there are endless other things
129
462583
2002
En in feite zijn er ontelbaar veel dingen
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
die AI zeker niet moet doen als ze paperclips maximaliseren,
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
inclusief: Verspreid geen nepnieuws, Steel niet, Lieg niet,
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
wat allemaal onderdeel is van ons gezond verstand over hoe de wereld werkt.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
Het AI-veld heeft echter decennialang gezond verstand gezien
08:00
as a nearly impossible challenge.
134
480810
2753
als een bijna onmogelijke uitdaging.
08:03
So much so that when my students and colleagues and I
135
483563
3837
Zozeer zelfs dat toen mijn studenten, collega’s en ik
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
er enkele jaren geleden mee begonnen, we erg ontmoedigd waren.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
Er was ons verteld dat onderzoek is gedaan in de jaren 70 en 80;
08:14
shouldn’t work on it because it will never work;
138
494490
2419
“niet aan werken omdat het toch nooit gaat werken;
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
noem het woord liever niet om serieus genomen te worden”.
08:20
Now fast forward to this year,
140
500329
2128
Nu snel vooruit naar dit jaar,
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
Ik hoor: “Stop er maar mee, omdat ChatGPT het al bijna heeft opgelost.”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
En: ”Schaal het gewoon op, dan ontstaat magie.”
08:29
and nothing else matters.”
143
509338
1794
En: “Niets anders doet ertoe.”
08:31
So my position is that giving true common sense
144
511174
3545
Mijn standpunt is dat het geven van gezond verstand aan AI,
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
menselijk gezond verstand aan robots, nog steeds een grote stap zal zijn.
08:38
And you don’t reach to the Moon
146
518514
1502
En je komt niet op de maan
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
door het hoogste gebouw van de wereld steeds een stukje hoger te maken.
08:44
Extreme-scale AI models
148
524270
1460
AI-modellen op extreme schaal
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
krijgen steeds meer gezond verstand, dat geef ik toe.
08:48
I'll give you that.
150
528983
1168
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
Maar ze hebben nog steeds moeite met alledaagse problemen
08:54
that even children can do.
152
534489
2419
die zelfs kinderen kunnen oplossen.
08:56
So AI today is awfully inefficient.
153
536908
3879
De huidige AI is vreselijk inefficiënt.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
En stel dat er een alternatieve route is of een route die nog niet gevonden is?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Een route die kan voortbouwen op de verbeterde diepe neurale netwerken,
09:09
but without going so extreme with the scale.
156
549378
2712
maar zonder die extreme grootschaligheid.
09:12
So this leads us to our final wisdom:
157
552465
3170
Dat brengt ons bij de laatste wijsheid:
09:15
innovate your weapons.
158
555635
1710
vernieuw je wapens.
09:17
In the modern-day AI context,
159
557345
1668
In de hedendaagse AI-context
09:19
that means innovate your data and algorithms.
160
559055
3086
gaat dat over het vernieuwen van je gegevens en algoritmen.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
Er zijn grofweg drie soorten gegevens
09:24
that modern AI is trained on:
162
564852
1961
waarop moderne AI wordt getraind:
09:26
raw web data,
163
566813
1376
onbewerkte webgegevens,
09:28
crafted examples custom developed for AI training,
164
568231
4462
speciaal voor AI ontwikkelde voorbeelden,
09:32
and then human judgments,
165
572735
2044
en vervolgens beoordelingen door de mens,
09:34
also known as human feedback on AI performance.
166
574821
3211
ook wel bekend als menselijke feedback op AI-prestaties.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
Als AI alleen getraind wordt met de eerste soort, onbewerkte webgegevens,
09:42
which is freely available,
168
582078
1710
die vrij verkrijgbaar zijn,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
is dat niet goed, omdat dat vol zit met racisme, seksisme en desinformatie.
09:48
and misinformation.
170
588584
1126
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Dus hoeveel je er ook van gebruikt, troep erin is troep eruit.
09:54
So the newest, greatest AI systems
172
594507
2794
De nieuwste en beste AI-systemen
09:57
are now powered with the second and third types of data
173
597343
3337
draaien nu op het tweede en derde soort gegevens
10:00
that are crafted and judged by human workers.
174
600680
3378
die gemaakt en beoordeeld zijn door menselijke werknemers.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
Vergelijkbaar met het schrijven van gespecialiseerde studieboeken voor AI
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
en het aannemen van menselijke mentoren om constant feedback te geven aan AI.
10:15
These are proprietary data, by and large,
177
615027
2461
Dit zijn bedrijfseigen gegevens,
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
waarvan men denkt dat ze tientallen miljoenen dollars kosten.
10:20
We don't know what's in this,
179
620908
1460
We weten niet wat erin zit,
10:22
but it should be open and publicly available
180
622410
2419
maar het zou openbaar moeten zijn,
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
zodat je kunt garanderen dat aan diverse normen en waarden voldaan wordt.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Dus daarom hebben mijn teams bij UW en AI2
10:32
have been working on commonsense knowledge graphs
183
632628
2461
gewerkt aan grafieken met gezond verstand
10:35
as well as moral norm repositories
184
635089
2086
en aan databanken met morele waarden
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
om AI basisnormen en gezond verstand bij te brengen.
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
Onze gegevens zijn openbaar zodat iedereen de inhoud kan inspecteren
10:44
and make corrections as needed
187
644473
1502
en kan corrigeren waar nodig
10:45
because transparency is the key for such an important research topic.
188
645975
4171
omdat transparantie de sleutel is voor zo’n belangrijk onderzoeksonderwerp.
10:50
Now let's think about learning algorithms.
189
650646
2545
Wat betreft het aanleren van algoritmes:
10:53
No matter how amazing large language models are,
190
653733
4629
hoe verbazingwekkend groot taalmodellen ook zijn,
10:58
by design
191
658404
1126
door hun ontwerp zijn ze wellicht niet het meest geschikt
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
als betrouwbare kennisbank.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
En deze taalmodellen verkrijgen een enorme hoeveelheid kennis,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
maar krijgen ze via een bijproduct in tegenstelling tot een direct leerdoel.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Met ongewenste bijwerkingen als hallucinerende effecten tot gevolg
11:18
and lack of common sense.
196
678841
2002
en een gebrek aan gezond verstand.
11:20
Now, in contrast,
197
680843
1210
Maar bij menselijk leren gaat het nooit om het voorspellen welk woord er volgt,
11:22
human learning is never about predicting which word comes next,
198
682053
3170
11:25
but it's really about making sense of the world
199
685223
2877
maar vooral om het zinvol te maken
11:28
and learning how the world works.
200
688142
1585
en om hoe de wereld werkt.
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Misschien moet AI ook op die manier onderwezen worden.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Dus als een zoektocht naar directere kennisverwerving van gezond verstand,
11:39
my team has been investigating potential new algorithms,
203
699195
3879
heeft mijn team geïnvesteerd in potentiële nieuwe algoritmes
11:43
including symbolic knowledge distillation
204
703115
2628
inclusief het distilleren van symbolische kennis
11:45
that can take a very large language model as shown here
205
705743
3795
dat een heel groot taalmodel kan hebben, zoals dit hier,
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
dat niet op het scherm past, omdat het te groot is,
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
en dat inkrimpen tot veel kleinere modellen met gezond verstand
11:58
using deep neural networks.
208
718214
2252
die diepe neurale netwerken gebruiken.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Zo genereren we ook een algoritmische, door de mens te controleren,
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
symbolische representatie met gezond verstand,
12:09
so that people can inspect and make corrections
211
729141
2211
zodat men het kan controleren en corrigeren
12:11
and even use it to train other neural commonsense models.
212
731394
3545
en het zelfs gebruiken om andere neurale modellen te trainen.
12:15
More broadly,
213
735314
1210
Meer in het algemeen
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
hebben we deze schijnbare onmogelijke gigantische puzzel
12:21
of common sense, ranging from physical,
215
741237
2669
van gezond verstand aangepakt,
12:23
social and visual common sense
216
743906
2169
variërend van fysiek, sociaal en zichtbaar gezond verstand
12:26
to theory of minds, norms and morals.
217
746117
2419
tot aan de theorie van gedachtes, normen en moralen.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Elk afzonderlijk deel lijkt misschien eigenzinnig en onvolledig,
12:32
but when you step back,
219
752415
1585
maar als je een stap terug doet,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
lijkt het bijna alsof we deze stukjes tot een tapijt weven
12:38
that we call human experience and common sense.
221
758504
3045
dat we menselijke ervaring en gezond verstand noemen.
12:42
We're now entering a new era
222
762174
1961
We gaan een nieuw tijdperk in
12:44
in which AI is almost like a new intellectual species
223
764176
5923
waar AI bijna lijkt op een nieuw intellectueel soort
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
met unieke sterke en zwakke punten vergeleken met de mens.
12:54
In order to make this powerful AI
225
774478
3546
Om deze krachtige AI
12:58
sustainable and humanistic,
226
778065
2336
duurzaam en menselijk te maken,
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
moeten we AI gezond verstand, normen en waarden leren.
13:04
Thank you.
228
784530
1376
Dank je wel.
13:05
(Applause)
229
785906
6966
(Applaus)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Moet je zien.
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, blijf alsjeblieft nog even.
13:18
This is so interesting,
232
798002
1418
Dit is zo interessant,
13:19
this idea of common sense.
233
799462
2002
het idee van gezond verstand.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Dat willen we natuurlijk, wat er ook komen gaat.
13:25
But help me understand.
235
805926
1168
Maar help me het te begrijpen.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Dus je had dat model van een lerend kind.
13:31
How does a child gain common sense
237
811599
3044
Hoe krijgt een kind gezond verstand
13:34
apart from the accumulation of more input
238
814685
3545
los van het opstapelen van meer input
13:38
and some, you know, human feedback?
239
818230
3045
en wat menselijke feedback?
13:41
What else is there?
240
821317
1293
Wat is er nog meer?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: Fundamenteel ontbreken er dus verschillende dingen,
13:45
but one of them is, for example,
242
825613
1918
maar een ervan is het vermogen
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
om hypotheses te maken en experimenten uit te voeren,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
omgaan met de wereld en die hypotheses te ontwikkelen.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
We leiden de concepten af van hoe de wereld werkt.
13:59
and then that's how we truly learn,
246
839835
2044
Zo leren we echt,
14:01
as opposed to today's language model.
247
841921
3003
in tegenstelling tot het huidige taalmodel.
14:05
Some of them is really not there quite yet.
248
845424
2795
Ze zijn er nog niet helemaal.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA: Je gebruikt de analogie dat we de maan niet bereiken
14:12
by extending a building a foot at a time.
250
852014
2544
door een gebouw steeds op te hogen.
14:14
But the experience that most of us have had
251
854558
2044
Maar de ervaring die de meesten hebben
14:16
of these language models is not a foot at a time.
252
856602
2336
met deze taalmodellen is niet beetje bij beetje.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
Het is meer een soort adembenemende versnelling.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Weet je zeker dat, gezien het tempo waarin die dingen gaan,
14:25
each next level seems to be bringing with it
255
865319
2711
elk volgend niveau iets lijkt toe te voegen
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
wat lijkt op wijsheid en kennis?
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Ik ben het er totaal mee eens
dat het opmerkelijk is hoeveel deze schaalvergroting
14:38
really enhances the performance across the board.
258
878124
3670
de presentaties over de hele breedte verbetert.
14:42
So there's real learning happening
259
882086
2544
Er vindt dus echt leren plaats
14:44
due to the scale of the compute and data.
260
884630
4797
dankzij de schaal van de rekenkracht en gegevens.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Toch is er de kwaliteit van het leren nog niet alles.
14:53
And the thing is,
262
893681
1168
En het punt is dat we nog niet weten
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
of we zover kunnen komen
14:58
just by scaling things up.
264
898561
2335
door alles gewoon op te schalen.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
En als het niet lukt, dan luidt de vraag: hoe dan wél?
15:05
And then even if we could,
266
905401
1877
En zelfs als we het zouden kunnen,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
is het dan aantrekkelijk van AI-modellen op zeer, zeer extreme schaal
15:12
that only a few can create and own?
268
912575
4337
dat maar enkelen die kunnen maken en bezitten?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Als Open AI zegt: “We zijn geïnteresseerd in je werk,
15:23
we would like you to help improve our model,"
270
923043
2837
we willen je graag helpen met het verbeteren van ons model”,
15:25
can you see any way of combining what you're doing
271
925921
2670
zie je dan een manier om te combineren wat je doet
15:28
with what they have built?
272
928632
1710
met wat zij gemaakt hebben?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Wat ik me voorstel,
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
zou zeker moeten voortbouwen op de vorderingen van diepe neurale netwerken.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
En misschien is een Goldilocks Zone op schaal,
15:41
such that ...
276
941770
1168
zodat ...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
Ik denk trouwens ook niet dat het is hoe kleiner, hoe beter.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
Waarschijnlijk is er een optimale schaal, maar
15:50
the winning recipe might be something else.
279
950696
2294
het winnende idee kan ook iets anders zijn.
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Dus combinaties van ideeën zijn van belang.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, erg bedankt voor je presentatie.
16:00
(Applause)
282
960873
1585
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7