Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Marleen Laschet
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Ik kom praten over een gebrek aan intuïtie
00:15
that many of us suffer from.
1
15240
1600
waar velen van ons aan lijden.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Het is eigenlijk een gebrek om een bepaald soort gevaar aan te voelen.
00:21
I'm going to describe a scenario
3
21360
1736
Ik ga een scenario beschrijven
00:23
that I think is both terrifying
4
23120
3256
dat volgens mij zowel angstaanjagend
00:26
and likely to occur,
5
26400
1760
als waarschijnlijk is,
00:28
and that's not a good combination,
6
28840
1656
en dat is geen goede combinatie,
00:30
as it turns out.
7
30520
1536
zoals zal blijken.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Toch, in plaats van bang te zijn,
vinden de meesten van jullie dat eerder cool.
00:34
that what I'm talking about is kind of cool.
9
34560
2080
00:37
I'm going to describe how the gains we make
10
37200
2976
Ik ga uitleggen waarom de vooruitgang die we boeken
00:40
in artificial intelligence
11
40200
1776
in artificiële intelligentie, AI,
ons uiteindelijk zou kunnen vernietigen.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Ik vind het erg moeilijk om te zien hoe AI ons niet zal vernietigen
00:47
or inspire us to destroy ourselves.
14
47280
1680
of ons inspireren om onszelf te vernietigen.
00:49
And yet if you're anything like me,
15
49400
1856
Als je een beetje als ik bent,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
vind je het toch leuk om over deze dingen na te denken.
00:53
And that response is part of the problem.
17
53960
3376
Dat antwoord is een deel van het probleem.
00:57
OK? That response should worry you.
18
57360
1720
Dat antwoord zou je moeten verontrusten.
00:59
And if I were to convince you in this talk
19
59920
2656
Als ik er jullie in deze talk van zou overtuigen
01:02
that we were likely to suffer a global famine,
20
62600
3416
dat we wellicht op een wereldwijde hongersnood afstevenen,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
door klimaatverandering of een andere ramp,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
en dat jullie kleinkinderen of hun kleinkinderen,
01:12
are very likely to live like this,
23
72560
1800
zeer waarschijnlijk zo'n leven zouden leiden,
01:15
you wouldn't think,
24
75200
1200
zou je niet denken,
01:17
"Interesting.
25
77440
1336
"Interessant.
01:18
I like this TED Talk."
26
78800
1200
Leuke TED Talk."
01:21
Famine isn't fun.
27
81200
1520
Hongersnood is niet leuk.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Daarentegen is doodgaan door sciencefiction wel leuk.
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
Eén van de dingen die me het meest zorgen baren
over de huidige ontwikkeling van AI
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
is dat we niet in staat lijken om de juiste emotionele reactie op te wekken
01:35
to the dangers that lie ahead.
31
95320
1816
op de gevaren die op ons afkomen.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Ik voel deze reactie ook niet, en ik geef nog wel deze talk.
01:42
It's as though we stand before two doors.
33
102120
2696
Het is alsof we ​​voor twee deuren staan.
01:44
Behind door number one,
34
104840
1256
Achter deur nummer één
houden we op met het maken van steeds intelligentere machines.
01:46
we stop making progress in building intelligent machines.
35
106120
3296
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Onze computerhardware en -software
stopt gewoon met beter worden, om wat voor reden dan ook.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Denk er even over na waarom dit zou kunnen gebeuren.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Omdat intelligentie en automatisering zo waardevol zijn,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
zullen we doorgaan met onze technologie te verbeteren als we enigszins kunnen.
02:05
What could stop us from doing this?
40
125200
1667
Wat kan ons tegenhouden?
02:07
A full-scale nuclear war?
41
127800
1800
Een mondiale nucleaire oorlog?
02:11
A global pandemic?
42
131000
1560
Een wereldwijde pandemie?
02:14
An asteroid impact?
43
134320
1320
Een asteroïde-inslag?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber president van de Verenigde Staten?
(Gelach)
02:20
(Laughter)
45
140240
2280
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Het gaat om iets dat onze huidige beschaving zou moeten vernietigen.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Je moet je voorstellen hoe erg het zou moeten zijn
02:33
to prevent us from making improvements in our technology
48
153680
3336
om ons tegen te houden onze technologie te verbeteren,
02:37
permanently,
49
157040
1216
blijvend,
02:38
generation after generation.
50
158280
2016
generatie na generatie.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Bijna per definitie is dit het ergste
02:42
that's ever happened in human history.
52
162480
2016
dat ooit gebeurd is in de menselijke geschiedenis.
02:44
So the only alternative,
53
164520
1296
Het enige alternatief
02:45
and this is what lies behind door number two,
54
165840
2336
is wat er achter deur nummer twee ligt,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
namelijk dat we doorgaan met onze intelligente machines
02:51
year after year after year.
56
171360
1600
jaar na jaar na jaar te verbeteren.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Op een bepaald moment zullen we machines bouwen die slimmer zijn dan wij,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
en zodra we machines hebben die slimmer zijn dan wij,
03:00
they will begin to improve themselves.
59
180720
1976
gaan ze zichzelf verder verbeteren.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Dan lopen we het risico op wat de wiskundige IJ Good
03:05
an "intelligence explosion,"
61
185480
1776
een 'intelligentie-explosie' noemde:
03:07
that the process could get away from us.
62
187280
2000
dat het proces niet meer te beheersen valt.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Daarvan werd vaak, zoals hier, een karikatuur gemaakt:
03:12
as a fear that armies of malicious robots
64
192960
3216
de angst dat legers van kwaadaardige robots
03:16
will attack us.
65
196200
1256
ons zouden aanvallen.
03:17
But that isn't the most likely scenario.
66
197480
2696
Maar dat is niet het meest waarschijnlijke scenario.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Het is niet zo dat onze machines spontaan boosaardig zullen worden.
03:25
The concern is really that we will build machines
68
205080
2616
Het probleem is eigenlijk dat we machines gaan bouwen
03:27
that are so much more competent than we are
69
207720
2056
die zo veel competenter zijn dan wij
03:29
that the slightest divergence between their goals and our own
70
209800
3776
dat het geringste verschil tussen hun doelen en de onze
03:33
could destroy us.
71
213600
1200
ons einde kan betekenen.
03:35
Just think about how we relate to ants.
72
215960
2080
Denk maar aan hoe we ons verhouden tot mieren.
03:38
We don't hate them.
73
218600
1656
We haten ze niet.
03:40
We don't go out of our way to harm them.
74
220280
2056
We zijn er niet op uit om ze kwaad te doen.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
We nemen soms zelfs de moeite om ze niet te schaden.
03:44
We step over them on the sidewalk.
76
224760
2016
We stappen over hen op de stoep.
03:46
But whenever their presence
77
226800
2136
Maar wanneer hun aanwezigheid
03:48
seriously conflicts with one of our goals,
78
228960
2496
serieus in strijd is met één van onze doeleinden,
03:51
let's say when constructing a building like this one,
79
231480
2477
laten we zeggen bij de bouw van een gebouw als dit,
03:53
we annihilate them without a qualm.
80
233981
1960
vernietigen we ze zonder er bij stil te staan.
03:56
The concern is that we will one day build machines
81
236480
2936
Het probleem is dat we op een dag machines gaan bouwen
03:59
that, whether they're conscious or not,
82
239440
2736
die, bewust of niet,
04:02
could treat us with similar disregard.
83
242200
2000
ons met gelijkaardige onverschilligheid gaan behandelen.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Ik vermoed dat dit voor velen van jullie wat vergezocht lijkt.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Ik wed dat er zijn die er aan twijfelen
of superintelligente AI überhaupt mogelijk is,
04:15
much less inevitable.
86
255720
1656
laat staan onvermijdelijk.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Maar dan moet je de fout vinden in één van de volgende veronderstellingen.
04:21
And there are only three of them.
88
261044
1572
Er zijn er slechts drie.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Intelligentie is een kwestie van informatieverwerking in fysische systemen.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Eigenlijk is dit iets meer dan een veronderstelling.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
We hebben al beperkte intelligentie ingebouwd in onze machines
04:35
and many of these machines perform
92
275440
2016
en veel van die machines werken al
04:37
at a level of superhuman intelligence already.
93
277480
2640
op een bovenmenselijk niveau van intelligentie.
04:40
And we know that mere matter
94
280840
2576
We weten dat loutere materie
aanleiding kan geven tot wat 'algemene intelligentie' wordt genoemd,
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
het vermogen om flexibel te denken op meerdere domeinen,
04:49
because our brains have managed it. Right?
97
289760
3136
omdat onze hersenen dat kunnen.
04:52
I mean, there's just atoms in here,
98
292920
3936
Ik bedoel, er zijn hier alleen maar atomen
04:56
and as long as we continue to build systems of atoms
99
296880
4496
en zolang we systemen van atomen blijven bouwen
05:01
that display more and more intelligent behavior,
100
301400
2696
die steeds intelligenter gedrag gaan vertonen,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
zullen we uiteindelijk, tenzij iets ons tegenhoudt,
05:06
we will eventually build general intelligence
102
306680
3376
algemene intelligentie creëren
05:10
into our machines.
103
310080
1296
in onze machines.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Het maakt niet uit hoe snel we vooruitgaan,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
want elke vooruitgang brengt ons dichter bij het eindpunt.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Vergeet de wet van Moore, exponentiële vooruitgang is niet nodig.
05:22
We just need to keep going.
107
322080
1600
We hoeven alleen maar door te gaan.
05:25
The second assumption is that we will keep going.
108
325480
2920
De tweede veronderstelling is dat we zullen blijven doorgaan.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
We zullen onze intelligente machines blijven verbeteren.
05:33
And given the value of intelligence --
110
333000
4376
En gezien de waarde van intelligentie --
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
ik bedoel, intelligentie is ofwel de bron van alles wat we waarderen
05:40
or we need it to safeguard everything we value.
112
340960
2776
of ze moet alles beschermen wat we waarderen.
05:43
It is our most valuable resource.
113
343760
2256
Het is ons waardevolste hulpmiddel.
05:46
So we want to do this.
114
346040
1536
Dus we willen dit doen.
05:47
We have problems that we desperately need to solve.
115
347600
3336
We hebben problemen die we nodig moeten oplossen.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
We willen ziektes als Alzheimer en kanker genezen.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
We willen economische systemen begrijpen en onze klimaatwetenschap verbeteren.
05:58
So we will do this, if we can.
118
358920
2256
Dus zullen we dit doen, als we kunnen.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
De trein is al vertrokken en er is geen houden aan.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Tot slot staan we waarschijnlijk niet op een piek van intelligentie,
06:11
or anywhere near it, likely.
121
371360
1800
of ook maar ergens in de buurt ervan.
06:13
And this really is the crucial insight.
122
373640
1896
En dit is echt het cruciale inzicht.
06:15
This is what makes our situation so precarious,
123
375560
2416
Dit maakt onze situatie zo precair
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
en dit maakt onze intuïties over de risico's zo onbetrouwbaar.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Beschouw de slimste mens die ooit heeft geleefd.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Op bijna ieders lijstje staat hier John von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Ik bedoel, de indruk die von Neumann maakte op de mensen om hem heen,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
inclusief de grootste wiskundigen en fysici van zijn tijd,
06:37
is fairly well-documented.
129
397520
1936
is redelijk goed gedocumenteerd.
06:39
If only half the stories about him are half true,
130
399480
3776
Als slechts de helft van de verhalen over hem half waar zijn,
06:43
there's no question
131
403280
1216
dan kan het niet anders
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
dan dat hij één van de slimste mensen ooit was.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Bekijk dit spectrum van intelligentie eens.
06:50
Here we have John von Neumann.
134
410320
1429
Hier hebben we John von Neumann.
06:53
And then we have you and me.
135
413560
1334
En dan hebben we jou en mij.
06:56
And then we have a chicken.
136
416120
1296
En dan hebben we een kip.
06:57
(Laughter)
137
417440
1936
(Gelach)
06:59
Sorry, a chicken.
138
419400
1216
Sorry, een kip.
07:00
(Laughter)
139
420640
1256
(Gelach)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Ik moet dit gesprek niet deprimerender maken dan nodig.
07:05
(Laughter)
141
425680
1600
(Gelach)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Het lijkt echter uiterst waarschijnlijk dat het spectrum van intelligentie
07:11
extends much further than we currently conceive,
143
431840
3120
veel verder reikt dan we op dit moment beseffen.
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
Als we machines bouwen die intelligenter zijn dan wij,
07:19
they will very likely explore this spectrum
145
439120
2296
gaan ze hoogstwaarschijnlijk dit spectrum verkennen
07:21
in ways that we can't imagine,
146
441440
1856
op een onvoorstelbare manier
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
en ons onvoorstelbaar overtreffen.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Het is belangrijk te beseffen dat dit al waar is voor de snelheid alleen.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Stel dat we zojuist een superintelligente AI hadden gemaakt
07:36
that was no smarter than your average team of researchers
150
456440
3456
die niet slimmer was dan een gemiddeld team van onderzoekers
07:39
at Stanford or MIT.
151
459920
2296
aan Stanford en MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Elektronische schakelingen werken ongeveer een miljoen keer sneller
07:45
than biochemical ones,
153
465240
1256
dan biochemische.
07:46
so this machine should think about a million times faster
154
466520
3136
Dus zou deze machine ongeveer een miljoen keer sneller moeten denken
07:49
than the minds that built it.
155
469680
1816
dan de geesten die ze ontwierpen.
07:51
So you set it running for a week,
156
471520
1656
Laat ze één week lopen
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
en ze zal voor 20 000 jaar intellectuele arbeid op menselijk niveau uitvoeren,
07:58
week after week after week.
158
478400
1960
week na week na week.
08:01
How could we even understand, much less constrain,
159
481640
3096
Hoe kunnen we een verstand dat dit soort vooruitgang maakt
08:04
a mind making this sort of progress?
160
484760
2280
nog begrijpen, laat staan ​​beheersen?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Wat, eerlijk gezegd, ook nog verontrustend is:
08:11
is that, imagine the best case scenario.
162
491000
4976
stel je even het beste scenario voor.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Veronderstel dat we een superintelligente AI ontwerpen
08:20
that has no safety concerns.
164
500200
1376
die absoluut veilig is.
08:21
We have the perfect design the first time around.
165
501600
3256
We vinden gelijk het perfecte ontwerp.
08:24
It's as though we've been handed an oracle
166
504880
2216
Het is alsof we een orakel hebben gekregen
08:27
that behaves exactly as intended.
167
507120
2016
dat ​​zich precies zoals bedoeld gedraagt.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Deze machine zou het perfecte arbeidsbesparende apparaat zijn.
08:33
It can design the machine that can build the machine
169
513680
2429
Het kan de machine ontwerpen die de machine kan bouwen
08:36
that can do any physical work,
170
516133
1763
die elk fysiek werk aankan,
08:37
powered by sunlight,
171
517920
1456
aangedreven door zonlicht,
08:39
more or less for the cost of raw materials.
172
519400
2696
min of meer voor de kosten van de grondstoffen.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Gedaan met alle menselijk geploeter!
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Maar ook het einde van de meeste intellectuele arbeid.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Wat gaan apen zoals wij in deze omstandigheden doen?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Nou ja, we zouden vrij zijn om frisbee te spelen en elkaar massages te geven.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Gooi er nog wat LSD en rare kleren tegenaan
09:00
and the whole world could be like Burning Man.
178
540720
2176
en de hele wereld wordt één groot Burning Man-festival.
09:02
(Laughter)
179
542920
1640
(Gelach)
09:06
Now, that might sound pretty good,
180
546320
2000
Nu klinkt dat misschien best goed,
09:09
but ask yourself what would happen
181
549280
2376
maar vraag jezelf eens af wat er zou gebeuren
09:11
under our current economic and political order?
182
551680
2736
onder onze huidige economische en politieke orde.
09:14
It seems likely that we would witness
183
554440
2416
Het lijkt waarschijnlijk dat we getuige zouden zijn
09:16
a level of wealth inequality and unemployment
184
556880
4136
van een niveau van ongelijke verdeling van rijkdom en werkloosheid
09:21
that we have never seen before.
185
561040
1496
die we nooit eerder hebben gezien.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Zonder bereidheid om deze nieuwe rijkdom
09:25
to the service of all humanity,
187
565200
1480
onmiddellijk met iedereen te delen,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
zullen enkele biljonairs de covers van onze zakenmagazines sieren
09:31
while the rest of the world would be free to starve.
189
571280
2440
terwijl de rest van de wereld vrij zou zijn om te verhongeren.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Wat zouden de Russen of de Chinezen doen
09:36
if they heard that some company in Silicon Valley
191
576640
2616
als ze hoorden dat een bedrijf in Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
op het punt stond een superintelligente AI te maken?
09:42
This machine would be capable of waging war,
193
582040
2856
Deze machine zou in staat zijn tot het voeren van oorlog,
09:44
whether terrestrial or cyber,
194
584920
2216
hetzij op aarde of in cyberspace,
09:47
with unprecedented power.
195
587160
1680
met ongekende kracht.
09:50
This is a winner-take-all scenario.
196
590120
1856
Dit is een winnaar-pakt-alles-scenario.
09:52
To be six months ahead of the competition here
197
592000
3136
Zes maanden voorsprong op de concurrentie
09:55
is to be 500,000 years ahead,
198
595160
2776
komt overeen met 500 000 jaar voorsprong,
09:57
at a minimum.
199
597960
1496
op z'n minst.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Dus het lijkt erop dat zelfs louter geruchten van dit soort doorbraak
10:04
could cause our species to go berserk.
201
604240
2376
ertoe kunnen leiden dat het mensdom wild zal worden.
10:06
Now, one of the most frightening things,
202
606640
2896
Eén van de meest angstaanjagende dingen,
10:09
in my view, at this moment,
203
609560
2776
naar mijn mening,
10:12
are the kinds of things that AI researchers say
204
612360
4296
zijn het soort dingen die AI-onderzoekers zeggen
10:16
when they want to be reassuring.
205
616680
1560
wanneer ze ons gerust willen stellen.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
Waar we ons vooral geen zorgen over moeten maken, is tijd.
10:22
This is all a long way off, don't you know.
207
622480
2056
Dit is nog allemaal ver weg, weet je.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Waarschijnlijk nog 50 of 100 jaar weg.
10:27
One researcher has said,
209
627720
1256
Eén onderzoeker heeft gezegd:
10:29
"Worrying about AI safety
210
629000
1576
"Piekeren over AI-veiligheid
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
is net als je zorgen maken over overbevolking op Mars."
10:34
This is the Silicon Valley version
212
634116
1620
Dit is de Silicon Valley-versie
10:35
of "don't worry your pretty little head about it."
213
635760
2376
van 'breek er je mooie hoofdje niet over'.
10:38
(Laughter)
214
638160
1336
(Gelach)
10:39
No one seems to notice
215
639520
1896
Niemand lijkt te merken
10:41
that referencing the time horizon
216
641440
2616
dat verwijzen naar de tijdshorizon
een totale 'non sequitur' is, een onjuist gevolg.
10:44
is a total non sequitur.
217
644080
2576
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Als intelligentie alleen maar een kwestie van informatieverwerking is,
10:49
and we continue to improve our machines,
219
649960
2656
en we onze machines maar blijven verbeteren,
10:52
we will produce some form of superintelligence.
220
652640
2880
zullen we een bepaalde vorm van superintelligentie produceren.
10:56
And we have no idea how long it will take us
221
656320
3656
We hebben geen idee hoe lang het zal duren
11:00
to create the conditions to do that safely.
222
660000
2400
om de voorwaarden te creëren om dat veilig te doen.
11:04
Let me say that again.
223
664200
1296
Ik zeg het nog eens.
11:05
We have no idea how long it will take us
224
665520
3816
We hebben geen idee hoe lang het zal duren
11:09
to create the conditions to do that safely.
225
669360
2240
om de voorwaarden te creëren om dat veilig te doen.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Mocht het je nog niet zijn opgevallen: 50 jaar is niet meer wat ooit was.
11:16
This is 50 years in months.
227
676400
2456
Dit is 50 jaar in maanden.
11:18
This is how long we've had the iPhone.
228
678880
1840
Zo lang hebben we de iPhone al.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Dit is hoe lang 'The Simpsons' al op televisie zijn.
11:24
Fifty years is not that much time
230
684680
2376
Vijftig jaar is niet zo heel veel tijd
om één van de grootste uitdagingen aan te pakken
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
waarmee het mensdom ooit zal worden geconfronteerd.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
We lijken er niet in te slagen om de juiste emotionele reactie te hebben
11:35
to what we have every reason to believe is coming.
233
695680
2696
op iets waarvan we alle reden hebben te geloven dat het komt.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
De computerwetenschapper Stuart Russell heeft hier een mooie analogie.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Hij zei, stel je voor dat we een bericht van een buitenaardse beschaving ontvangen,
11:47
which read:
236
707320
1696
dat luidt:
11:49
"People of Earth,
237
709040
1536
"Mensen van de Aarde,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
binnen 50 jaar komen we naar jullie planeet.
11:53
Get ready."
239
713800
1576
Hou je gereed."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
En dan gewoon de maanden aftellen tot aan de landing van het moederschip?
11:59
We would feel a little more urgency than we do.
241
719680
3000
We zouden een beetje meer urgentie voelen dan we nu doen.
12:04
Another reason we're told not to worry
242
724680
1856
Waarom we ons ook geen zorgen zouden hoeven maken,
12:06
is that these machines can't help but share our values
243
726560
3016
is dat deze machines sowieso onze waarden delen,
12:09
because they will be literally extensions of ourselves.
244
729600
2616
omdat ze letterlijk uitbreidingen van onszelf zullen zijn.
12:12
They'll be grafted onto our brains,
245
732240
1816
Ze zullen worden geënt op onze hersenen,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
en wij zullen in wezen hun limbisch systeem worden.
12:17
Now take a moment to consider
247
737120
1416
Overweeg even
12:18
that the safest and only prudent path forward,
248
738560
3176
dat de veiligste en enige verstandige weg vooruit,
12:21
recommended,
249
741760
1336
de aanbevolen weg,
12:23
is to implant this technology directly into our brains.
250
743120
2800
is om deze technologie direct in onze hersenen te implanteren.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Dit kan in feite de veiligste en enige voorzichtige weg vooruit zijn,
12:30
but usually one's safety concerns about a technology
252
750000
3056
maar meestal moet iemand zich toch volkomen veilig voelen bij een technologie
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
voordat hij ze in zijn hoofd steekt.
12:36
(Laughter)
254
756760
2016
(Gelach)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Het dieperliggende probleem is dat superintelligente AI op zich bouwen
12:44
seems likely to be easier
256
764160
1736
waarschijnlijk gemakkelijker lijkt
12:45
than building superintelligent AI
257
765920
1856
dan superintelligente AI bouwen
12:47
and having the completed neuroscience
258
767800
1776
én de neurowetenschappen voltooien
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
die ons toelaten onze geest er naadloos mee te integreren.
12:52
And given that the companies and governments doing this work
260
772800
3176
Gezien het feit dat de bedrijven en overheden die dit werk doen
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
waarschijnlijk denken met een race bezig te zijn,
12:59
given that to win this race is to win the world,
262
779680
3256
en omdat deze race winnen neerkomt op de wereld winnen,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
gesteld dat je hem niet direct vernietigt,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
dan lijkt het waarschijnlijk dat alles wat gemakkelijker is,
13:08
will get done first.
265
788080
1200
voorrang zal krijgen.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Ik heb helaas geen andere oplossing voor dit probleem
13:13
apart from recommending that more of us think about it.
267
793440
2616
dan de aanbeveling dat we er over moeten gaan nadenken.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Ik denk aan iets als een Manhattan Project
13:18
on the topic of artificial intelligence.
269
798480
2016
over kunstmatige intelligentie.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Niet om het te bouwen, want dat gaan we sowieso doen,
13:23
but to understand how to avoid an arms race
271
803280
3336
maar om te begrijpen hoe een wapenwedloop te voorkomen
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
en het zo te bouwen dat het onze belangen dient.
13:30
When you're talking about superintelligent AI
273
810160
2136
Als je over superintelligente AI praat
13:32
that can make changes to itself,
274
812320
2256
die zichzelf kan aanpassen,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
lijkt het erop dat we maar één kans hebben
om de beginvoorwaarden goed te krijgen
13:39
and even then we will need to absorb
276
819240
2056
en zelfs dan zullen we moeten leren omgaan
13:41
the economic and political consequences of getting them right.
277
821320
3040
met de economische en politieke gevolgen van die goede beginvoorwaarden.
13:45
But the moment we admit
278
825760
2056
Maar zodra we toegeven
13:47
that information processing is the source of intelligence,
279
827840
4000
dat informatieverwerking de bron van intelligentie is,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
dat een geschikt computersysteem aan de basis van intelligentie ligt,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
en we toegeven dat we deze systemen onafgebroken zullen blijven verbeteren,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
en dat de kennishorizon waarschijnlijk veel verder reikt
14:07
what we currently know,
283
847760
1200
dan we nu weten,
14:10
then we have to admit
284
850120
1216
dan moeten we toegeven
14:11
that we are in the process of building some sort of god.
285
851360
2640
dat we bezig zijn een soort god te maken.
14:15
Now would be a good time
286
855400
1576
Daarom moeten we er nu voor zorgen
14:17
to make sure it's a god we can live with.
287
857000
1953
dat het een god is waarmee we kunnen leven.
14:20
Thank you very much.
288
860120
1536
Dankjewel.
14:21
(Applause)
289
861680
5093
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7