Ray Kurzweil: Get ready for hybrid thinking

529,292 views ・ 2014-06-02

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Christel Foncke
00:12
Let me tell you a story.
0
12988
2316
Ik vertel jullie een 200 miljoen jaar oud verhaal:
00:15
It goes back 200 million years.
1
15304
1799
het verhaal van de neocortex,
00:17
It's a story of the neocortex,
2
17103
1984
00:19
which means "new rind."
3
19087
1974
wat 'nieuwe schil’ betekent.
00:21
So in these early mammals,
4
21061
2431
Deze vroege zoogdieren
00:23
because only mammals have a neocortex,
5
23492
2055
- alleen zoogdieren hebben een neocortex -
00:25
rodent-like creatures.
6
25547
1664
waren knaagdierachtige wezens.
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
Het was iets als een postzegel,
en net zo dun,
00:30
and was a thin covering around
8
30790
1439
een dun laagje rond de hersenen
00:32
their walnut-sized brain,
9
32229
2264
ter grootte van een walnoot.
00:34
but it was capable of a new type of thinking.
10
34493
3701
Maar het kon op een nieuwe manier denken.
00:38
Rather than the fixed behaviors
11
38194
1567
In plaats van het vaste gedrag
00:39
that non-mammalian animals have,
12
39761
1992
van niet-zoogdieren
00:41
it could invent new behaviors.
13
41753
2692
kon het nieuw gedrag bedenken.
00:44
So a mouse is escaping a predator,
14
44445
2553
Als een muis aan een roofdier ontsnapt
00:46
its path is blocked,
15
46998
1540
en het pad geblokkeerd is,
00:48
it'll try to invent a new solution.
16
48538
2129
zal ze een ​​nieuwe oplossing verzinnen.
00:50
That may work, it may not,
17
50667
1266
Dat werkt wel of niet,
00:51
but if it does, it will remember that
18
51933
1910
maar als het werkt, zal ze het zich herinneren
00:53
and have a new behavior,
19
53843
1292
en een nieuw gedrag vertonen
00:55
and that can actually spread virally
20
55135
1457
dat zich viraal kan verspreiden
00:56
through the rest of the community.
21
56592
2195
door de rest van de gemeenschap.
00:58
Another mouse watching this could say,
22
58787
1609
Andere muizen kijken het af en zeggen,
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
"He, rond die rots lopen is slim."
01:03
and it could adopt a new behavior as well.
24
63100
3725
en ze gaan het ook doen.
01:06
Non-mammalian animals
25
66825
1717
Niet-zoogdieren
01:08
couldn't do any of those things.
26
68542
1713
kunnen dat niet.
01:10
They had fixed behaviors.
27
70255
1215
Hun gedrag ligt vast.
01:11
Now they could learn a new behavior
28
71470
1331
Ze kunnen nieuw gedrag leren
01:12
but not in the course of one lifetime.
29
72801
2576
maar niet tijdens één leven.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
Misschien in wel duizend levens
01:17
it could evolve a new fixed behavior.
31
77144
3330
kan een nieuw vast gedrag evolueren.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
200 miljoen jaar geleden was dat oké.
01:23
The environment changed very slowly.
33
83851
1981
De omgeving veranderde heel langzaam.
01:25
It could take 10,000 years for there to be
34
85832
1554
Het kon 10.000 jaar duren voor er
01:27
a significant environmental change,
35
87386
2092
significante veranderingen optraden in het milieu.
01:29
and during that period of time
36
89478
1382
Gedurende die periode
01:30
it would evolve a new behavior.
37
90860
2929
kon zich een nieuw gedrag ontwikkelen.
01:33
Now that went along fine,
38
93789
1521
Dat ging prima,
01:35
but then something happened.
39
95310
1704
maar toen gebeurde er iets.
01:37
Sixty-five million years ago,
40
97014
2246
Vijfenzestig miljoen jaar geleden
01:39
there was a sudden, violent change to the environment.
41
99260
2615
gebeurde er een verwoestende milieu-impact.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
We noemen het de Krijt-massaextinctie.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
Toen stierven de dinosaurussen uit,
01:47
that's when 75 percent of the
44
107673
3449
en daarbij nog eens 75 procent
01:51
animal and plant species went extinct,
45
111122
2746
van alle dier- en plantensoorten.
01:53
and that's when mammals
46
113868
1745
Toen namen de zoogdieren
01:55
overtook their ecological niche,
47
115613
2152
hun ecologische niches over.
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
Mocht de evolutie kunnen denken, zou ze zeggen:
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
"Hmm, die neocortex is best goed spul,
02:03
and it began to grow it.
50
123444
1793
we gaan die wat laten groeien.”
02:05
And mammals got bigger,
51
125237
1342
De zoogdieren werden groter,
02:06
their brains got bigger at an even faster pace,
52
126579
2915
ook hun hersenen in een nog sneller tempo,
02:09
and the neocortex got bigger even faster than that
53
129494
3807
en de neocortex werd zelfs nog sneller groter
02:13
and developed these distinctive ridges and folds
54
133301
2929
en ontwikkelde de karakteristieke ribbels en plooien
02:16
basically to increase its surface area.
55
136230
2881
om de oppervlakte ervan te vergroten.
02:19
If you took the human neocortex
56
139111
1819
Als je de menselijke neocortex uitspreidt,
02:20
and stretched it out,
57
140930
1301
is hij ongeveer zo groot als een servet,
02:22
it's about the size of a table napkin,
58
142231
1713
02:23
and it's still a thin structure.
59
143944
1306
en nog steeds erg dun.
02:25
It's about the thickness of a table napkin.
60
145250
1980
Ongeveer de dikte van een servet.
02:27
But it has so many convolutions and ridges
61
147230
2497
Maar hij heeft zo veel windingen en ribbels
02:29
it's now 80 percent of our brain,
62
149727
3075
dat hij nu 80 procent van onze hersenen beslaat.
02:32
and that's where we do our thinking,
63
152802
2461
Het is waar we denken,
02:35
and it's the great sublimator.
64
155263
1761
en het is de grote sublimator.
We hebben nog steeds die oude hersenen
02:37
We still have that old brain
65
157024
1114
02:38
that provides our basic drives and motivations,
66
158138
2764
voor onze oerdriften en motivaties.
02:40
but I may have a drive for conquest,
67
160902
2716
Ik kan geneigd zijn om op verovering uit te gaan,
02:43
and that'll be sublimated by the neocortex
68
163618
2715
maar de neocortex kan dat sublimeren
02:46
into writing a poem or inventing an app
69
166333
2909
tot het schrijven van een gedicht, het uitvinden van een app
02:49
or giving a TED Talk,
70
169242
1509
of het geven van een TED-talk,
02:50
and it's really the neocortex that's where
71
170751
3622
In de neocortex gebeurt het.
02:54
the action is.
72
174373
1968
Vijftig jaar geleden schreef ik een paper
02:56
Fifty years ago, I wrote a paper
73
176341
1717
over hoe ik dacht dat de hersenen werkten.
02:58
describing how I thought the brain worked,
74
178058
1918
02:59
and I described it as a series of modules.
75
179976
3199
Ik beschreef het als een reeks modules.
03:03
Each module could do things with a pattern.
76
183175
2128
Elke module kan iets doen met een patroon.
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
Ze kan een patroon leren, zich een patroon herinneren.
03:08
It could implement a pattern.
78
188049
1407
Ze kan een patroon uitvoeren.
03:09
And these modules were organized in hierarchies,
79
189456
2679
Deze modules werden in hiërarchieën georganiseerd,
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
en we creëerden deze hiërarchie door ons eigen denken.
03:15
And there was actually very little to go on
81
195089
3333
50 jaar geleden had je eigenlijk heel weinig houvast.
03:18
50 years ago.
82
198422
1562
Het bracht me in contact met president Johnson.
03:19
It led me to meet President Johnson.
83
199984
2115
03:22
I've been thinking about this for 50 years,
84
202099
2173
Ik heb er 50 jaar over zitten nadenken,
03:24
and a year and a half ago I came out with the book
85
204272
2828
en anderhalf jaar geleden kwam ik met het boek:
"Hoe maak je een Verstand.”
03:27
"How To Create A Mind,"
86
207100
1265
03:28
which has the same thesis,
87
208365
1613
Hetzelfde thema,
03:29
but now there's a plethora of evidence.
88
209978
2812
maar nu met een overvloed aan bewijs.
03:32
The amount of data we're getting about the brain
89
212790
1814
De hoeveelheid data over de hersenen
03:34
from neuroscience is doubling every year.
90
214604
2203
via de neurowetenschappen verdubbelt elk jaar.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
De ruimtelijke resolutie van allerlei soorten hersenscanning
03:39
is doubling every year.
92
219461
2285
verdubbelt elk jaar.
03:41
We can now see inside a living brain
93
221746
1717
We kunnen nu in een levend brein kijken
03:43
and see individual interneural connections
94
223463
2870
en individuele interneurale aansluitingen
03:46
connecting in real time, firing in real time.
95
226333
2703
in real time zien ontstaan en vuren.
03:49
We can see your brain create your thoughts.
96
229036
2419
We zien hoe je hersenen gedachten maken
03:51
We can see your thoughts create your brain,
97
231455
1575
en gedachten je hersenen maken.
03:53
which is really key to how it works.
98
233030
1999
Dat is echt de sleutel tot hoe het werkt.
03:55
So let me describe briefly how it works.
99
235029
2219
Laat ik dat in het kort beschrijven.
03:57
I've actually counted these modules.
100
237248
2275
Ik heb deze modules echt geteld.
03:59
We have about 300 million of them,
101
239523
2046
We hebben er ongeveer 300 miljoen van,
04:01
and we create them in these hierarchies.
102
241569
2229
en we maken ze in dit soort hiërarchieën.
04:03
I'll give you a simple example.
103
243798
2082
Ik zal jullie een eenvoudig voorbeeld geven.
04:05
I've got a bunch of modules
104
245880
2805
Ik heb een heleboel modules
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
die de dwarsstreep van een letter ​​A kunnen herkennen.
04:12
and that's all they care about.
106
252088
1914
Dat is het enige waar ze om geven.
04:14
A beautiful song can play,
107
254002
1578
Er kan een mooi liedje spelen
04:15
a pretty girl could walk by,
108
255580
1434
of een mooi meisje voorbijlopen,
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
het laat ze koud, maar die dwarsstreep zien ze wel.
04:19
they get very excited and they say "crossbar,"
110
259860
3021
Enthousiast zeggen ze: ”Dwarsstreep!"
04:22
and they put out a high probability
111
262881
2112
en ze steken een grote waarschijnlijkheid
04:24
on their output axon.
112
264993
1634
op hun output-axon.
04:26
That goes to the next level,
113
266627
1333
Dat gaat naar het volgende niveau,
04:27
and these layers are organized in conceptual levels.
114
267960
2750
waar alles georganiseerd is in conceptuele niveaus,
04:30
Each is more abstract than the next one,
115
270710
1856
elk abstracter dan het volgende.
04:32
so the next one might say "capital A."
116
272566
2418
Het volgende zou kunnen zeggen: ”Hoofdletter A".
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
Op een nog hoger niveau kan dat ”Apple" worden.
04:37
Information flows down also.
118
277875
2167
Informatie stroomt ook terug.
Als de apple-herkenner A-P-P-L heeft gezien,
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
zal hij bij zichzelf denken: ”Hmm, daar zal wel een E achter komen” ,
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
een signaal terugsturen naar alle E-herkenners
04:48
saying, "Be on the lookout for an E,
122
288761
1619
en zeggen: ”Kijk uit naar een E,
04:50
I think one might be coming."
123
290380
1556
die kan eraan komen.”
04:51
The E recognizers will lower their threshold
124
291936
2843
De E-herkenners zullen hun drempel verlagen
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
en een slordige E gaan zien.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
Normaal gesproken zou je zo niet denken,
04:58
but we're expecting an E, it's good enough,
127
298214
2009
maar we verwachten een E, het is goed genoeg,
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
en ja, ik zag een E, en dan zegt de apple-herkenner: "Apple!"
05:02
"Yeah, I've seen an Apple."
129
302040
1728
05:03
Go up another five levels,
130
303768
1746
Ga nog eens vijf niveaus omhoog,
05:05
and you're now at a pretty high level
131
305514
1353
en je zit op een vrij hoog niveau
05:06
of this hierarchy,
132
306867
1569
van deze hiërarchie
05:08
and stretch down into the different senses,
133
308436
2353
en dan weer omlaag naar de verschillende zintuigen,
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
en je hebt een module die een bepaalde structuur ziet,
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
een bepaalde stemkwaliteit hoort, een bepaald parfum ruikt,
05:16
and will say, "My wife has entered the room."
136
316288
2513
en zegt: ”Mijn vrouw is net de kamer binnengekomen."
05:18
Go up another 10 levels, and now you're at
137
318801
1895
Nog eens 10 niveaus, en je zit
05:20
a very high level.
138
320696
1160
op een zeer hoog niveau,
05:21
You're probably in the frontal cortex,
139
321856
1937
waarschijnlijk in de frontale cortex,
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
met modules die zeggen: ”Dat was ironisch.
05:27
That's funny. She's pretty."
141
327560
2370
Dat is grappig. Ze is mooi.”
05:29
You might think that those are more sophisticated,
142
329930
2105
Je zou kunnen denken dat die meer verfijnd zijn,
05:32
but actually what's more complicated
143
332035
1506
maar in feite is de hiërarchie eronder ingewikkelder.
05:33
is the hierarchy beneath them.
144
333541
2669
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
Een 16-jarig meisje onderging een hersenoperatie.
05:38
and she was conscious because the surgeons
146
338830
2051
Ze was bij bewustzijn omdat de chirurgen met haar wilden praten.
05:40
wanted to talk to her.
147
340881
1537
05:42
You can do that because there's no pain receptors
148
342418
1822
Dat gaat omdat er geen pijnreceptoren zijn in de hersenen.
05:44
in the brain.
149
344240
1038
05:45
And whenever they stimulated particular,
150
345278
1800
Toen ze bepaalde zeer kleine punten in haar neocortex stimuleerden,
05:47
very small points on her neocortex,
151
347078
2463
05:49
shown here in red, she would laugh.
152
349541
2665
- hier in rood weergegeven – lachte ze.
In eerste instantie dachten ze dat ze een soort lachreflex uitlokten,
05:52
So at first they thought they were triggering
153
352206
1440
05:53
some kind of laugh reflex,
154
353646
1720
05:55
but no, they quickly realized they had found
155
355366
2519
maar nee, ze beseften snel dat ze in haar neocortex
05:57
the points in her neocortex that detect humor,
156
357885
3044
de punten hadden gevonden die humor detecteren.
06:00
and she just found everything hilarious
157
360929
1969
Ze vond alles hilarisch
06:02
whenever they stimulated these points.
158
362898
2437
als ze deze punten stimuleerden.
06:05
"You guys are so funny just standing around,"
159
365335
1925
"Jullie staan er zo grappig bij,"
06:07
was the typical comment,
160
367260
1738
was de typische reactie,
06:08
and they weren't funny,
161
368998
2302
en ze waren helemaal niet grappig,
06:11
not while doing surgery.
162
371300
3247
zeker niet terwijl ze met een operatie bezig waren.
06:14
So how are we doing today?
163
374547
4830
Hoe zit het nu vandaag?
06:19
Well, computers are actually beginning to master
164
379377
3054
Computers beginnen menselijke taal te beheersen
06:22
human language with techniques
165
382431
2001
met technieken die lijken op die van de neocortex.
06:24
that are similar to the neocortex.
166
384432
2867
06:27
I actually described the algorithm,
167
387299
1514
Ik beschreef het algoritme,
06:28
which is similar to something called
168
388813
2054
dat vergelijkbaar is met een zogenaamd
06:30
a hierarchical hidden Markov model,
169
390867
2233
hiërarchisch verborgen Markov model,
06:33
something I've worked on since the '90s.
170
393100
3241
iets waar ik sinds de jaren 90 aan heb gewerkt.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"Jeopardy” is een veelomvattend spel met natuurlijke taal,
06:39
and Watson got a higher score
172
399579
1892
en Watson kreeg een hogere score
06:41
than the best two players combined.
173
401471
2000
dan de beste twee spelers samen.
06:43
It got this query correct:
174
403471
2499
Hij beantwoordde deze vraag correct:
06:45
"A long, tiresome speech
175
405970
2085
"Een lange, vermoeiende toespraak door een schuimige taarttopping,”
06:48
delivered by a frothy pie topping,"
176
408055
2152
en hij reageerde prompt: "Wat is een meringue harangue (tirade)?"
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
Jennings en de andere man hadden dat niet.
06:55
It's a pretty sophisticated example of
179
415638
1926
Het is een vrij geavanceerd voorbeeld
06:57
computers actually understanding human language,
180
417564
1914
van hoe computers menselijke taal begrijpen.
06:59
and it actually got its knowledge by reading
181
419478
1652
Hij verkreeg zijn kennis door het lezen
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
van Wikipedia en andere encyclopedieën.
07:04
Five to 10 years from now,
183
424915
2133
5 tot 10 jaar na nu
07:07
search engines will actually be based on
184
427048
2184
zullen zoekmachines niet alleen
07:09
not just looking for combinations of words and links
185
429232
2794
op zoek gaan naar combinaties van woorden en verbanden,
07:12
but actually understanding,
186
432026
1914
maar echt begrijpen wat er staat
07:13
reading for understanding the billions of pages
187
433940
2411
op de miljarden pagina's van het web en in boeken.
07:16
on the web and in books.
188
436351
2733
Je bent op wandel,
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
Google springt tevoorschijn
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
en zegt: ”Weet je, Mary, vorige maand was je bezorgd
07:24
to me a month ago that your glutathione supplement
191
444781
3019
dat je glutathionsupplement
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
niet voorbij de bloed- hersenbarrière geraakte.
Net 13 seconden geleden bracht nieuw onderzoek aan het licht
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
07:32
that shows a whole new approach to that
194
452624
1711
dat er een geheel nieuwe manier is
07:34
and a new way to take glutathione.
195
454335
1993
om glutathion in te nemen.
07:36
Let me summarize it for you."
196
456328
2562
Laat het me voor je samenvatten.”
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
Binnen twintig jaar hebben we nanobots.
07:42
because another exponential trend
198
462574
1627
De technologie wordt exponentieel geminiaturiseerd.
07:44
is the shrinking of technology.
199
464201
1615
07:45
They'll go into our brain
200
465816
2370
Ze zullen via de haarvaten
07:48
through the capillaries
201
468186
1703
in onze hersenen geraken
07:49
and basically connect our neocortex
202
469889
2477
en onze neocortex verbinden
07:52
to a synthetic neocortex in the cloud
203
472366
3185
met een synthetische neocortex in de cloud
07:55
providing an extension of our neocortex.
204
475551
3591
en zo een uitbreiding zijn van onze neocortex.
07:59
Now today, I mean,
205
479142
1578
Vandaag, bedoel ik,
08:00
you have a computer in your phone,
206
480720
1530
heb je een computer in je telefoon,
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
maar als je even 10.000 computers nodig hebt
08:05
to do a complex search,
208
485004
1495
voor een ​​complex onderzoek,
08:06
you can access that for a second or two in the cloud.
209
486499
3396
kan dat even in de cloud.
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
Heb je in de jaren na 2030 wat extra neocortex nodig,
08:12
you'll be able to connect to that in the cloud
211
492990
2273
dan kan dat rechtstreeks vanuit je hersenen naar de cloud.
08:15
directly from your brain.
212
495263
1648
08:16
So I'm walking along and I say,
213
496911
1543
Bij het rondlopen zeg ik:
08:18
"Oh, there's Chris Anderson.
214
498454
1363
"Ach, daar komt Chris Anderson aangelopen.
08:19
He's coming my way.
215
499817
1525
08:21
I'd better think of something clever to say.
216
501342
2335
Ik kan maar beter iets slims bedenken.
08:23
I've got three seconds.
217
503677
1524
Ik heb 3 seconden.
08:25
My 300 million modules in my neocortex
218
505201
3097
Mijn 300 miljoen modules in mijn neocortex kunnen dat niet.
08:28
isn't going to cut it.
219
508298
1240
Ik heb er een miljard meer nodig.”
08:29
I need a billion more."
220
509538
1246
08:30
I'll be able to access that in the cloud.
221
510784
3323
In de cloud gaat dat kunnen.
08:34
And our thinking, then, will be a hybrid
222
514107
2812
Ons denken zal een hybride zijn
08:36
of biological and non-biological thinking,
223
516919
3522
van biologisch en niet-biologisch denken,
08:40
but the non-biological portion
224
520441
1898
maar het niet-biologische gedeelte
08:42
is subject to my law of accelerating returns.
225
522339
2682
is onderworpen aan mijn wet van versnellende opbrengsten.
08:45
It will grow exponentially.
226
525021
2239
Het zal exponentieel groeien.
08:47
And remember what happens
227
527260
2016
Denk aan wat er gebeurde
08:49
the last time we expanded our neocortex?
228
529276
2645
vorige keer dat wij onze neocortex uitbreidden.
08:51
That was two million years ago
229
531921
1426
Dat was twee miljoen jaar geleden
08:53
when we became humanoids
230
533347
1236
toen we mensachtigen werden
08:54
and developed these large foreheads.
231
534583
1594
met die grote voorhoofden.
08:56
Other primates have a slanted brow.
232
536177
2583
Andere primaten hebben een schuin voorhoofd.
08:58
They don't have the frontal cortex.
233
538760
1745
Ze hebben geen frontale cortex.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
Maar de frontale cortex is niet echt kwalitatief verschillend.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
Het is een kwantitatieve uitbreiding van de neocortex,
09:06
but that additional quantity of thinking
236
546933
2703
maar die extra hoeveelheid denkvermogen
09:09
was the enabling factor for us to take
237
549636
1779
was de sleutelfactor om ons
09:11
a qualitative leap and invent language
238
551415
3346
een kwalitatieve sprong te laten maken. We vonden taal,
09:14
and art and science and technology
239
554761
1967
kunst, wetenschap, technologie
09:16
and TED conferences.
240
556728
1454
en TED-conferenties uit.
09:18
No other species has done that.
241
558182
2131
Geen enkele andere diersoort heeft dat ooit gedaan.
09:20
And so, over the next few decades,
242
560313
2075
In de komende decennia
09:22
we're going to do it again.
243
562388
1760
gaan we het weer doen.
09:24
We're going to again expand our neocortex,
244
564148
2274
We gaan onze neocortex weer uitbreiden,
09:26
only this time we won't be limited
245
566422
1756
alleen zullen we dit keer niet worden beperkt
09:28
by a fixed architecture of enclosure.
246
568178
4280
door een vaste architectuur van behuizing.
09:32
It'll be expanded without limit.
247
572458
3304
Hij zal zonder beperking worden uitgebreid.
09:35
That additional quantity will again
248
575762
2243
Die extra hoeveelheid zal opnieuw
09:38
be the enabling factor for another qualitative leap
249
578005
3005
de sleutelfactor zijn voor een kwalitatieve sprong
09:41
in culture and technology.
250
581010
1635
in cultuur en technologie.
09:42
Thank you very much.
251
582645
2054
Heel hartelijk bedankt.
09:44
(Applause)
252
584699
3086
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7