How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Axel Saffran
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Na 13,8 miljard jaar kosmische geschiedenis
is ons universum wakker geworden
00:17
our universe has woken up
1
17200
2096
00:19
and become aware of itself.
2
19320
1520
en zich bewust geworden van zichzelf.
00:21
From a small blue planet,
3
21480
1936
Vanuit een kleine blauwe planeet
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
begonnen kleine, bewuste delen van ons universum naar de kosmos te staren
00:27
with telescopes,
5
27600
1376
en ontdekten met telescopen iets dat nederig maakt.
00:29
discovering something humbling.
6
29000
1480
00:31
We've discovered that our universe is vastly grander
7
31320
2896
We ontdekten dat ons universum veel, veel groter was
00:34
than our ancestors imagined
8
34240
1336
dan onze voorouders dachten
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
en dat het leven een bijna onmerkbaar kleine verstoring lijkt te zijn
00:39
on an otherwise dead universe.
10
39880
1720
in een verder doods universum.
00:42
But we've also discovered something inspiring,
11
42320
3016
Maar we ontdekten ook iets inspirerends,
00:45
which is that the technology we're developing has the potential
12
45360
2976
namelijk dat onze technologie het leven
00:48
to help life flourish like never before,
13
48360
2856
kon laten floreren als nooit tevoren,
00:51
not just for centuries but for billions of years,
14
51240
3096
niet alleen voor eeuwen, maar voor miljarden jaren
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
en niet alleen op aarde, maar in een groot deel van deze geweldige kosmos.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Ik denk aan dat eerste leven als ‘Leven 1.0’
01:03
because it was really dumb,
17
63040
1376
want het was echt dom,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
zoals bacteriën, niet in staat om tijdens de levensduur iets te leren.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Ik zie ons mensen als ‘Leven 2.0’ omdat we kunnen leren,
01:12
which we in nerdy, geek speak,
20
72160
1496
wat wij in computerjargon
01:13
might think of as installing new software into our brains,
21
73680
3216
zouden zien als het installeren van nieuwe software in onze hersenen,
01:16
like languages and job skills.
22
76920
2120
zaken als talen en beroepsvaardigheden.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
‘Het leven 3.0’ kan dan zijn software, maar ook zijn hardware ontwerpen.
01:24
of course doesn't exist yet.
24
84000
1656
Natuurlijk bestaat dat nog niet.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Maar misschien heeft onze technologie ons toch al ‘Leven 2.1’ bezorgd
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
met onze kunstknieën, pacemakers en cochleaire implantaten.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Laten we eens een kijkje nemen op onze relatie met technologie, oké?
01:38
As an example,
28
98800
1216
Bijvoorbeeld:
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
de Apollo 11-maanmissie was zowel succesvol als inspirerend,
waaruit blijkt dat wanneer wij mensen verstandig gebruik maken van technologie,
01:45
showing that when we humans use technology wisely,
30
105360
3016
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
we dingen kunnen verwezenlijken waarvan onze voorouders slechts konden dromen.
01:52
But there's an even more inspiring journey
32
112360
2976
Maar er is een nog inspirerender reis
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
aangedreven door iets dat machtiger is dan raketmotoren,
01:59
where the passengers aren't just three astronauts
34
119200
2336
waar de passagiers niet slechts drie astronauten
02:01
but all of humanity.
35
121560
1776
maar de hele mensheid is.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Laten we praten over onze gezamenlijke reis naar een toekomst
02:06
with artificial intelligence.
37
126320
2000
met kunstmatige intelligentie.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Mijn vriend Jaan Tallinn wijst er graag op dat net als bij raketten
02:13
it's not enough to make our technology powerful.
39
133520
3160
het niet genoeg is om onze technologie krachtiger te maken.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
We moeten ook uitvinden, als we ze echt willen,
02:20
how to steer it
41
140759
1416
hoe ze te sturen
02:22
and where we want to go with it.
42
142199
1681
en waar we ermee naartoe willen.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Laten we daar eens over praten in verband met kunstmatige intelligentie:
02:28
the power, the steering and the destination.
44
148440
3056
de kracht, de besturing en de bestemming.
02:31
Let's start with the power.
45
151520
1286
Laten we beginnen met de kracht.
02:33
I define intelligence very inclusively --
46
153600
3096
Ik definieer intelligentie zeer inclusief --
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
gewoon als ons vermogen om complexe doelen te bereiken,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
want ik wil zowel biologische als kunstmatige intelligentie erin opnemen.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
En ik wil af van het domme koolstof-chauvinisme
02:48
that you can only be smart if you're made of meat.
50
168960
2360
dat je alleen slim kunt zijn als je gemaakt bent van vlees.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Het is echt verbazingwekkend hoe de kracht van KI onlangs is gegroeid.
02:57
Just think about it.
52
177080
1256
Denk er gewoon over na.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Nog niet zo lang geleden konden robots niet lopen.
03:03
Now, they can do backflips.
54
183040
1720
Nu maken ze achterwaartse salto’s.
03:06
Not long ago,
55
186080
1816
Niet lang geleden
03:07
we didn't have self-driving cars.
56
187920
1760
hadden we geen zelfrijdende auto's.
03:10
Now, we have self-flying rockets.
57
190920
2480
Nu hebben we zelfvliegende raketten.
03:15
Not long ago,
58
195960
1416
Niet lang geleden
03:17
AI couldn't do face recognition.
59
197400
2616
kon KI geen gezichten herkennen.
03:20
Now, AI can generate fake faces
60
200040
2976
Nu kan KI nepgezichten genereren
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
en je gezicht dingen laten zeggen die je nooit hebt gezegd.
03:28
Not long ago,
62
208400
1576
Niet lang geleden
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
kon KI niet van ons winnen bij het Go-spel.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Dan absorbeerde Googles DeepMind AlphaZero KI
3.000 jaar van menselijke Go-games
03:37
and Go wisdom,
65
217520
1256
en Go-wijsheid,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
negeerde het allemaal
en werd de beste speler ter wereld door simpelweg tegen zichzelf te spelen.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
De indrukwekkendste prestatie was hier niet dat het menselijke gamers versloeg,
03:47
but that it crushed human AI researchers
68
227520
2576
maar dat het menselijke Kl-onderzoekers versloeg
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
die tientallen jaren hadden besteed aan het ontwerpen van spelsoftware.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
En AlphaZero verpletterde menselijke KI-onderzoekers
niet alleen in Go, maar zelfs bij schaken,
03:58
which we have been working on since 1950.
71
238880
2480
waar we al sinds 1950 aan hadden gewerkt.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Al die geweldige recente vooruitgang in KI roept echter de vraag op:
04:07
How far will it go?
73
247280
1560
hoe ver zal het gaan?
04:09
I like to think about this question
74
249800
1696
Ik denk graag na over deze vraag
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
in termen van dit abstracte landschap van taken,
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
waar de hoogte aangeeft in hoeverre KI elke taak kan uitvoeren
04:18
at human level,
77
258000
1216
op menselijk niveau,
04:19
and the sea level represents what AI can do today.
78
259240
2760
en de zeespiegel vertegenwoordigt wat KI vandaag kan doen.
De zeespiegel stijgt naarmate KI beter wordt,
04:23
The sea level is rising as AI improves,
79
263120
2056
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
wat dit taaklandschap doet lijken op een opwarmende aarde.
Kies dus geen job aan de kust uit --
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
04:33
(Laughter)
82
273399
1257
(Gelach)
04:34
which will soon be automated and disrupted.
83
274680
2856
waar je binnenkort automatisatie en jobverlies kan verwachten.
04:37
But there's a much bigger question as well.
84
277560
2976
Maar er is een nog veel grotere vraag.
04:40
How high will the water end up rising?
85
280560
1810
Hoe hoog zal het water uiteindelijk stijgen?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Zal uiteindelijk alles onderlopen
04:47
matching human intelligence at all tasks.
87
287840
2496
en menselijke intelligentie voor alle taken evenaren?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Dit is de definitie van kunstmatige algemene intelligentie:
04:54
AGI,
89
294120
1296
KAI.
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
Dat is vanaf het begin de heilige graal van het KI-onderzoek.
Sommige mensen zeggen:
04:59
By this definition, people who say,
91
299000
1776
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Ach, sommige banen zullen mensen altijd beter kunnen dan machines."
05:04
are simply saying that we'll never get AGI.
93
304240
2920
Die zeggen in feite dat we nooit KAI zullen krijgen.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Natuurlijk kunnen we nog steeds zorgen voor een aantal menselijke banen
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
of voor mensen zingeving en inkomen regelen zonder baan,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
maar KAI zal in ieder geval het leven zoals wij dat kennen transformeren
05:18
with humans no longer being the most intelligent.
97
318160
2736
met de mens niet langer als de meest intelligente.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Als het waterpeil KAI zal bereiken,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
dan zal verdere vooruitgang van KI
meestal niet door mensen, maar door KI zelf gebeuren.
05:29
which means that there's a possibility
100
329960
1856
Dat houdt de mogelijkheid in
05:31
that further AI progress could be way faster
101
331840
2336
dat verdere KI-vooruitgang veel sneller kan gaan
05:34
than the typical human research and development timescale of years,
102
334200
3376
dan door typisch menselijk onderzoek en ontwikkelingsduren van jaren,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
met de omstreden mogelijkheid van een intelligentie-explosie
05:41
where recursively self-improving AI
104
341640
2296
waarbij de recursieve zelfverbetering van KI
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
snel de menselijke intelligentie ver achter zich laat
05:47
creating what's known as superintelligence.
106
347400
2440
en superintelligentie creëert.
05:51
Alright, reality check:
107
351800
2280
Oké, even toetsen aan de werkelijkheid:
05:55
Are we going to get AGI any time soon?
108
355120
2440
staat KAI er snel aan te komen?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Enkele beroemde KI-onderzoekers, zoals Rodney Brooks,
06:01
think it won't happen for hundreds of years.
110
361080
2496
denken dat het niet voor de eerste honderden jaren is.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Maar anderen, zoals de oprichter van Google DeepMind, Demis Hassabis,
06:07
are more optimistic
112
367520
1256
zijn optimistischer
06:08
and are working to try to make it happen much sooner.
113
368800
2576
en werken eraan om het veel sneller te laten gebeuren.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Recente onderzoeken hebben aangetoond dat de meeste KI-onderzoekers
06:14
actually share Demis's optimism,
115
374720
2856
eigenlijk Demis's optimisme delen.
06:17
expecting that we will get AGI within decades,
116
377600
3080
Ze verwachten KAI binnen enkele tientallen jaren,
06:21
so within the lifetime of many of us,
117
381640
2256
dus nog tijdens het leven van velen van ons.
06:23
which begs the question -- and then what?
118
383920
1960
Wat de vraag oproept: en dan?
06:27
What do we want the role of humans to be
119
387040
2216
Welke rol krijgt de mens toebedeeld
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
als machines alles beter en goedkoper dan wij gaan kunnen doen?
06:35
The way I see it, we face a choice.
121
395000
2000
Zoals ik het zie, staan ​​we voor een keuze.
Een optie is achteroverleunen:
06:38
One option is to be complacent.
122
398000
1576
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
"Ach, we bouwen alleen machines die alles beter kunnen dan wij
06:43
and not worry about the consequences.
124
403400
1816
en maken ons verder geen zorgen.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Kom nu, als we technologie bouwen die alle mensen overbodig maakt,
06:48
what could possibly go wrong?"
126
408520
2096
wat zou er dan mis kunnen gaan?"
06:50
(Laughter)
127
410640
1656
(Gelach)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Maar ik denk dat dat beschamend stom zou zijn.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Ik denk dat we ambitieuzer moeten zijn -- in de geest van TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Laten we een echt inspirerende hightech toekomst voor ogen houden
en proberen daar naartoe te sturen.
07:03
and try to steer towards it.
131
423120
1400
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Dit brengt ons bij het tweede deel van onze raketmetafoor: de besturing.
07:09
We're making AI more powerful,
133
429280
1896
We maken KI krachtiger,
07:11
but how can we steer towards a future
134
431200
3816
maar hoe sturen we naar een toekomst
waar KI de mensheid helpt bloeien in plaats van in problemen te geraken?
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
07:18
To help with this,
136
438760
1256
Daarvoor richtte ik mede het 'Toekomst van het Leven Instituut' op.
07:20
I cofounded the Future of Life Institute.
137
440040
1976
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
Een kleine non-profit voor heilzame technologie.
07:24
and our goal is simply for the future of life to exist
139
444840
2736
Ons doel is gewoon om het leven in stand te houden
07:27
and to be as inspiring as possible.
140
447600
2056
en het zo inspirerend mogelijk te laten zijn.
07:29
You know, I love technology.
141
449680
3176
Want ik hou van technologie.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
Technologie is de reden waarom het nu beter is dan in de steentijd.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Ik ben optimistisch voor een inspirerende hightechtoekomst ...
07:41
if -- and this is a big if --
144
461680
1456
als -- een grote als --
07:43
if we win the wisdom race --
145
463160
2456
als we de wijsheidsrace winnen,
07:45
the race between the growing power of our technology
146
465640
2856
de race tussen de groeiende macht van onze technologie
07:48
and the growing wisdom with which we manage it.
147
468520
2200
en de groeiende wijsheid waarmee wij ermee omgaan.
Maar dit vraagt om een ​​verandering van strategie
07:51
But this is going to require a change of strategy
148
471240
2296
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
want onze oude strategie bestond uit het leren van fouten.
07:57
We invented fire,
150
477280
1536
We vonden het vuur uit,
07:58
screwed up a bunch of times --
151
478840
1536
-- en verbrandden ons wel eens --
08:00
invented the fire extinguisher.
152
480400
1816
maar we vonden de brandblusser uit.
08:02
(Laughter)
153
482240
1336
(Gelach)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
De auto was ook niet al te veilig --
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
maar dan kwamen verkeerslichten, gordel en airbag.
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
Met krachtiger technologie zoals nucleaire wapens en KAI
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
is leren van fouten een slechte strategie,
vind je niet?
08:16
don't you think?
158
496000
1216
(Gelach)
08:17
(Laughter)
159
497240
1016
Veel beter is het om proactief te zijn in plaats van reactief:
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
08:20
plan ahead and get things right the first time
161
500880
2296
vooruit plannen en alles gelijk goed doen.
08:23
because that might be the only time we'll get.
162
503200
2496
Het is misschien de enige kans die we krijgen.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Dat is grappig, soms zeggen mensen tegen mij:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, psst, praat niet zo.
08:30
That's Luddite scaremongering."
165
510840
1720
Dat is bangmakerij voor techniek."
08:34
But it's not scaremongering.
166
514040
1536
Maar het is geen bangmakerij.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Aan het MIT heten we dat veiligheidstechniek.
08:39
Think about it:
168
519200
1216
Denk eens:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
voordat NASA begon met de Apollo 11-missie
08:42
they systematically thought through everything that could go wrong
170
522680
3136
gingen ze systematisch na wat er mis kon gaan
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
als ze mensen bovenop explosieve brandstoftanks zetten
08:48
and launch them somewhere where no one could help them.
172
528240
2616
en ze stuurden naar waar niemand ze nog kon helpen.
08:50
And there was a lot that could go wrong.
173
530880
1936
En er kon veel misgaan.
08:52
Was that scaremongering?
174
532840
1480
Was dat bangmakerij?
08:55
No.
175
535159
1217
Nee.
Het was precies de veiligheidstechniek
08:56
That's was precisely the safety engineering
176
536400
2016
08:58
that ensured the success of the mission,
177
538440
1936
die instond voor het succes van de missie,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
en dat is precies de strategie die we volgens mij nodig hebben met KAI.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Denk na over wat er mis kan gaan om ervoor te zorgen dat het goed gaat.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
In deze geest organiseerden we conferenties en brachten we
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
toonaangevende KI-onderzoekers en andere denkers samen
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
om te bespreken hoe de wijsheid te ontwikkelen om KI heilzaam te houden.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
Onze laatste conferentie was vorig jaar in Asilomar in Californië
09:21
and produced this list of 23 principles
184
561160
3056
en gaf ons deze lijst van 23 principes
die sindsdien is ondertekend door meer dan 1000 KI-onderzoekers
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
en de belangrijkste industriële leiders.
09:27
and key industry leaders,
186
567160
1296
09:28
and I want to tell you about three of these principles.
187
568480
3176
Ik wil jullie wat vertellen over drie van deze principes.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Eén is dat we geen wapenwedloop en dodelijke autonome wapens willen.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
Alle wetenschap kan mensen ofwel op nieuwe manieren helpen
of op nieuwe manieren schaden.
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Zo worden bijvoorbeeld biologie en scheikunde liever gebruikt
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
voor nieuwe geneesmiddelen of nieuwe geneeswijzen
dan voor nieuwe manieren om mensen te doden,
09:51
because biologists and chemists pushed hard --
193
591520
2176
omdat biologen en chemici hard aandrongen
09:53
and successfully --
194
593720
1256
-- en met succes --
op een verbod op biologische en chemische wapens.
09:55
for bans on biological and chemical weapons.
195
595000
2176
09:57
And in the same spirit,
196
597200
1256
In dezelfde geest willen de meeste
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
KI-onderzoekers dodelijke autonome wapens brandmerken en verbieden.
10:03
Another Asilomar AI principle
198
603600
1816
Een ander Asilomar KI-principe
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
is dat we door KI veroorzaakte inkomensongelijkheid moeten inperken.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Als we met KI de economische koek dramatisch kunnen laten groeien,
10:13
and we still can't figure out how to divide this pie
201
613640
2456
maar niet kunnen achterhalen hoe de taart zo te verdelen
10:16
so that everyone is better off,
202
616120
1576
dat iedereen beter af is,
10:17
then shame on us.
203
617720
1256
moeten we beschaamd zijn.
10:19
(Applause)
204
619000
4096
(Applaus)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Oké, steek je hand op als je computer ooit is gecrasht.
10:27
(Laughter)
206
627480
1256
(Gelach)
10:28
Wow, that's a lot of hands.
207
628760
1656
Wauw, dat zijn veel handen.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Nou, dan zul je wel het principe waarderen
10:32
that we should invest much more in AI safety research,
209
632640
3136
dat we veel meer moeten investeren in veiligheidsonderzoek voor KI.
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
Als we KI verantwoordelijk maken voor meer beslissingen en infrastructuur,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
moeten we uitvissen hoe we de huidige foutgevoelige en hackbare computers
10:43
into robust AI systems that we can really trust,
212
643120
2416
kunnen omvormen tot robuuste, betrouwbare KI-systemen.
10:45
because otherwise,
213
645560
1216
Anders hapert die geweldige technologie en brengt ze ons schade toe
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
10:49
or get hacked and be turned against us.
215
649640
1976
of wordt ze gehackt en tegen ons gekeerd.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Dit werk voor veilige KI moet ook zorgen dat KI overeenstemt met onze waarden,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
omdat de echte dreiging van KAI niet kwaadaardigheid is,
11:00
like in silly Hollywood movies,
218
660200
1656
zoals in domme Hollywood-films,
11:01
but competence --
219
661880
1736
maar competentie,
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
waarbij KAI eigen doelstellingen gaat nastreven die niet de onze zijn.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Toen wij mensen de West-Afrikaanse zwarte neushoorn tot uitsterven dreven,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
deden we dat toch niet omdat we allemaal boze neushoornhaters waren, hè?
11:15
We did it because we were smarter than them
223
675760
2056
We deden het omdat wij slimmer waren dan zij
11:17
and our goals weren't aligned with theirs.
224
677840
2576
en onze doelen zijn niet overeenkwamen met de hunne.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Maar KAI is per definitie slimmer dan ons.
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
Om te vermijden dat ons hetzelfde overkomt als die neushoorns
11:26
if we create AGI,
227
686720
1976
bij het creëren van KAI,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
moeten we erachter zien te komen hoe machines onze doelen kunnen begrijpen
11:32
adopt our goals and retain our goals.
229
692920
3160
en onze doelen overnemen en aanhouden.
11:37
And whose goals should these be, anyway?
230
697320
2856
En wiens doelstellingen moeten dat dan worden?
11:40
Which goals should they be?
231
700200
1896
Welke doelen moeten dat zijn?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Dat brengt ons bij het derde deel van onze raketmetafoor: de bestemming.
11:47
We're making AI more powerful,
233
707160
1856
We maken KI krachtiger,
proberen te achterhalen hoe het te sturen,
11:49
trying to figure out how to steer it,
234
709040
1816
11:50
but where do we want to go with it?
235
710880
1680
maar waar willen we naartoe?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Dat is de hete brij waar iedereen omheen draait
11:57
not even here at TED --
237
717440
1856
-- zelfs hier bij TED --
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
omdat we zo gefixeerd zijn op de KI-uitdagingen op korte termijn.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Kijk, onze soort probeert KAI te bouwen
12:08
motivated by curiosity and economics,
240
728760
3496
uit nieuwsgierigheid en economie,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
maar op wat voor toekomstige maatschappij hopen we als het lukt?
12:16
We did an opinion poll on this recently,
242
736680
1936
We hielden onlangs een opiniepeiling hierover
12:18
and I was struck to see
243
738640
1216
en het verbaasde me
12:19
that most people actually want us to build superintelligence:
244
739880
2896
dat de meeste mensen een superintelligentie willen,
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
die op alle vlakken enorm veel slimmer is dan wijzelf.
Ze vonden bijna allemaal dat we ambitieus moeten zijn
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
en het leven moesten helpen verspreiden in de kosmos,
12:30
and help life spread into the cosmos,
247
750560
2016
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
maar er was veel minder overeenstemming over wie of wat de baas moest zijn.
12:37
And I was actually quite amused
249
757120
1736
Ik vond het erg grappig
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
dat een aantal mensen koos voor 'alleen de machines'.
12:42
(Laughter)
251
762360
1696
(Gelach)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
Er was volstrekt geen overeenstemming over de rol van de mens hierin,
12:47
even at the most basic level,
253
767960
1976
zelfs op het meest basale niveau,
12:49
so let's take a closer look at possible futures
254
769960
2816
dus laten we eens kijken naar mogelijke toekomsten
12:52
that we might choose to steer toward, alright?
255
772800
2736
om naartoe te willen, oké?
12:55
So don't get me wrong here.
256
775560
1336
Begrijp me niet verkeerd.
12:56
I'm not talking about space travel,
257
776920
2056
Ik heb het niet over ruimtereizen,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
slechts over de metaforische reis van de mensheid naar de toekomst.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Een mogelijkheid waar sommige van mijn KI-collega’s van houden,
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
is om superintelligentie te bouwen en onder menselijke controle te houden,
13:10
like an enslaved god,
261
790080
1736
als een tot slaaf gemaakte god,
13:11
disconnected from the internet
262
791840
1576
losgekoppeld van het internet
13:13
and used to create unimaginable technology and wealth
263
793440
3256
en gebruikt om onvoorstelbare technologie en welvaart te creëren
13:16
for whoever controls it.
264
796720
1240
voor wie het controleert.
13:18
But Lord Acton warned us
265
798800
1456
Maar Lord Acton waarschuwde ons
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
dat macht corrumpeert en absolute macht absoluut corrumpeert.
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
Wellicht zijn wij mensen dus misschien gewoon niet slim genoeg,
of wijs genoeg, beter gezegd,
13:28
or wise enough rather,
268
808000
1536
13:29
to handle this much power.
269
809560
1240
om zoveel macht te beheren.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Afgezien van wat morele scrupules
13:34
about enslaving superior minds,
271
814200
2296
over het tot slaaf maken van superieure geesten,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
zou de superintelligentie ons misschien te slim af kunnen zijn,
13:40
break out and take over.
273
820520
2240
gaan rebelleren en de boel overnemen.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Maar sommige collega's zouden het prima vinden dat KI het zou overnemen
13:47
and even causing human extinction,
275
827000
2296
en zelfs menselijk uitsterven veroorzaken,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
zolang we voelen dat de KI's onze waardige nakomelingen zijn,
13:52
like our children.
277
832920
1736
net als onze kinderen.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Hoe zouden we weten dat KI's zich zouden vereenzelvigen met onze beste waarden
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
en geen onbewuste zombies zijn die ons erin tuinden om ze te antropomorfiseren?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
En hebben de mensen die géén menselijk uitsterven willen
14:07
have a say in the matter, too?
281
847600
1440
hier niets over te zeggen?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Als je niet van een van deze twee hightech-opties houdt,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
is het belangrijk om te onthouden dat lowtech zelfmoord is
14:16
from a cosmic perspective,
284
856800
1256
vanuit kosmisch perspectief,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
want als we technisch gaan stilstaan,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
is het niet de vraag of de mensheid zal uitsterven,
maar of dat zal gebeuren
14:23
merely whether we're going to get taken out
287
863440
2016
door de volgende dodelijke asteroïde, supervulkaan,
14:25
by the next killer asteroid, supervolcano
288
865480
2136
14:27
or some other problem that better technology could have solved.
289
867640
3096
of een ander probleem dat betere technologie had opgelost.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Hoe zit met het onderste uit de kan willen ...
14:34
with AGI that's not enslaved
291
874360
1840
met KAI die geen slaaf is,
maar ons goed behandelt, omdat haar waarden ook de onze zijn?
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Daar komt Eliezer Yudkowsky’s ‘vriendelijke KI’ op neer
14:44
and if we can do this, it could be awesome.
294
884520
2680
en als dit ons lukt, zou het geweldig kunnen zijn.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Het kon niet alleen een einde maken aan negatieve ervaringen zoals ziekte,
armoede, criminaliteit en ander lijden,
14:52
crime and other suffering,
296
892680
1456
14:54
but it could also give us the freedom to choose
297
894160
2816
maar ze kan ons ook de vrijheid geven om te kiezen
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
uit een fantastische nieuwe diversiteit aan positieve ervaringen,
15:01
basically making us the masters of our own destiny.
299
901080
3160
waardoor wij in principe de meesters van ons eigen lot zouden worden.
15:06
So in summary,
300
906280
1376
Samengevat:
15:07
our situation with technology is complicated,
301
907680
3096
onze verhouding met technologie is ingewikkeld,
15:10
but the big picture is rather simple.
302
910800
2416
maar het grote plaatje is vrij simpel.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
De meeste KI-onderzoekers verwachten KAI binnen decennia,
15:16
and if we just bumble into this unprepared,
304
916720
3136
en als we er gewoon onvoorbereid in duikelen,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
zal het waarschijnlijk de grootste fout in de menselijke geschiedenis zijn.
15:23
let's face it.
306
923240
1416
Laten we eerlijk zijn.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Het zou kunnen leiden tot een wrede, wereldwijde dictatuur
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
met ongekende ongelijkheid, controle en lijden.
15:30
and maybe even human extinction.
309
930840
1976
Misschien zelfs tot menselijk uitsterven.
15:32
But if we steer carefully,
310
932840
2320
Maar als we goed sturen,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
zou het kunnen uitmonden
in een fantastische toekomst waar iedereen beter af is:
15:39
the poor are richer, the rich are richer,
312
939960
2376
de armen rijker, de rijken rijker,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
iedereen gezond en vrij om zijn dromen uit te leven.
15:47
Now, hang on.
314
947000
1536
Nog even volhouden.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Wil je een toekomst die politiek rechts of links is?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Wil je een vrome samenleving met strikte morele regels
15:56
or do you an hedonistic free-for-all,
317
956040
1816
of wil je hedonistische vrijheid voor iedereen,
15:57
more like Burning Man 24/7?
318
957880
2216
de hele dag feest?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Wil je prachtige stranden, bossen en meren
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
of wil je wat atomen met computers herschikken
om virtuele ervaringen mogelijk te maken?
16:06
enabling virtual experiences?
321
966000
1715
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Met vriendelijke KI zouden we al deze samenlevingen kunnen bouwen
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
en mensen de vrijheid geven om te kiezen in welke ze willen wonen.
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
We werden niet langer beperkt door onze intelligentie,
16:17
merely by the laws of physics.
325
977280
1456
enkel de wetten van de fysica.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
De middelen en ruimte hiervoor zouden daarom astronomisch zijn --
16:23
literally.
327
983400
1320
letterlijk.
16:25
So here's our choice.
328
985320
1200
Dus is hier onze keuze.
16:27
We can either be complacent about our future,
329
987880
2320
We kunnen zelfgenoegzaam zijn over onze toekomst,
16:31
taking as an article of blind faith
330
991440
2656
in blind vertrouwen
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
dat elke nieuwe technologie gegarandeerd heilzaam is
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
en dat steeds weer als een mantra blijven herhalen
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
terwijl we als een stuurloos schip naar onze eigen aftakeling drijven.
16:46
Or we can be ambitious --
334
1006920
1880
Of we kunnen ambitieus zijn:
16:49
thinking hard about how to steer our technology
335
1009840
2456
hard nadenken hoe onze technologie te sturen
16:52
and where we want to go with it
336
1012320
1936
en waar we ermee naartoe willen
16:54
to create the age of amazement.
337
1014280
1760
om een wonderbaarlijk tijdperk te creëren.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
We zijn hier allemaal ter ere van dat wonderbaarlijke tijdperk
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
en de essentie daarvan moet niet liggen in 'overweldigd worden',
17:05
but empowered by our technology.
340
1025240
2616
maar in 'geweldig worden' door onze technologie.
17:07
Thank you.
341
1027880
1376
Dank je.
17:09
(Applause)
342
1029280
3080
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7