Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Préparez-vous à la réflexion hybride

529,292 views ・ 2014-06-02

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Chiara Pecoraro Relecteur: Elisabeth Buffard
00:12
Let me tell you a story.
0
12988
2316
Laissez-moi vous raconter une histoire,
00:15
It goes back 200 million years.
1
15304
1799
qui se passe il y a 200 millions d'années.
00:17
It's a story of the neocortex,
2
17103
1984
C'est l'histoire du néocortex.
00:19
which means "new rind."
3
19087
1974
Ce qui signifie « nouvelle écorce ».
00:21
So in these early mammals,
4
21061
2431
Chez les mammifères primitifs,
00:23
because only mammals have a neocortex,
5
23492
2055
car seuls les mammifères ont un néocortex,
00:25
rodent-like creatures.
6
25547
1664
des créatures proches des rongeurs,
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
il était de la taille et de l'épaisseur d'un timbre poste
00:30
and was a thin covering around
8
30790
1439
et formait une fine pellicule autour
00:32
their walnut-sized brain,
9
32229
2264
de leur cerveau pas plus gros qu'une noix,
00:34
but it was capable of a new type of thinking.
10
34493
3701
mais il était capable d'une nouvelle façon de réfléchir.
00:38
Rather than the fixed behaviors
11
38194
1567
Plutôt que les comportements prédéfinis des animaux autres que les mammifères,
00:39
that non-mammalian animals have,
12
39761
1992
00:41
it could invent new behaviors.
13
41753
2692
il pouvait inventer de nouveaux comportements.
00:44
So a mouse is escaping a predator,
14
44445
2553
Par exemple, une souris fuit un prédateur,
00:46
its path is blocked,
15
46998
1540
sa voie est bloquée, elle va essayer d'inventer une nouvelle solution.
00:48
it'll try to invent a new solution.
16
48538
2129
00:50
That may work, it may not,
17
50667
1266
Ça peut marcher ou pas, mais si c'est le cas,
00:51
but if it does, it will remember that
18
51933
1910
00:53
and have a new behavior,
19
53843
1292
elle s'en souviendra et adoptera un nouveau comportement,
00:55
and that can actually spread virally
20
55135
1457
qui pourra alors se propager tel un virus au reste de la communauté.
00:56
through the rest of the community.
21
56592
2195
00:58
Another mouse watching this could say,
22
58787
1609
Une autre souris en l'observant pourrait se dire,
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
« Contourner cette pierre, c'était assez futé. »
01:03
and it could adopt a new behavior as well.
24
63100
3725
et pourrait adopter un nouveau comportement elle aussi.
01:06
Non-mammalian animals
25
66825
1717
Les animaux autres que les mammifères ne pouvaient pas faire ce genre de choses.
01:08
couldn't do any of those things.
26
68542
1713
01:10
They had fixed behaviors.
27
70255
1215
Ils avaient des comportements prédéfinis. Ils pourraient en apprendre un nouveau,
01:11
Now they could learn a new behavior
28
71470
1331
01:12
but not in the course of one lifetime.
29
72801
2576
mais leur vie est trop courte pour ça.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
Au cours d'un millier de vies,
01:17
it could evolve a new fixed behavior.
31
77144
3330
il pourrait développer un nouveau comportement prédéfini.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
Ça fonctionnait bien il y a 200 millions d'années,
01:23
The environment changed very slowly.
33
83851
1981
l'environnement changeait très lentement.
01:25
It could take 10,000 years for there to be
34
85832
1554
Ça pouvait prendre 10 000 ans
01:27
a significant environmental change,
35
87386
2092
pour qu'un important changement environnemental ait lieu,
01:29
and during that period of time
36
89478
1382
01:30
it would evolve a new behavior.
37
90860
2929
pendant ce temps-là, l'animal aurait évolué vers un nouveau comportement.
01:33
Now that went along fine,
38
93789
1521
Ça fonctionnait bien,
01:35
but then something happened.
39
95310
1704
mais alors quelque chose arriva.
01:37
Sixty-five million years ago,
40
97014
2246
Il y a 65 millions d'années,
01:39
there was a sudden, violent change to the environment.
41
99260
2615
il y eut un changement soudain et violent de l'environnement.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
On l'appelle l'extinction du Crétacé-Tertiaire.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
C'est à ce moment que les dinosaures ont disparu,
01:47
that's when 75 percent of the
44
107673
3449
où 75% des espèces d'animaux et de plantes ont disparu
01:51
animal and plant species went extinct,
45
111122
2746
01:53
and that's when mammals
46
113868
1745
et c'est aussi là que les mammifères
01:55
overtook their ecological niche,
47
115613
2152
ont dépassé leur niche écologique,
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
et si j'anthropomorphise, l'évolution biologique se dit alors :
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
« Le néocortex, c'est assez chouette. »
02:03
and it began to grow it.
50
123444
1793
et commença alors à le faire grossir.
02:05
And mammals got bigger,
51
125237
1342
Alors les mammifères ont grandi
02:06
their brains got bigger at an even faster pace,
52
126579
2915
leurs cerveaux ont grossi à un rythme encore plus rapide,
02:09
and the neocortex got bigger even faster than that
53
129494
3807
et le néocortex a grossi encore plus vite
02:13
and developed these distinctive ridges and folds
54
133301
2929
et a développé ces stries et ces plis qui lui sont propres
02:16
basically to increase its surface area.
55
136230
2881
pour étendre sa surface essentiellement.
02:19
If you took the human neocortex
56
139111
1819
Si vous preniez un néocortex humain
02:20
and stretched it out,
57
140930
1301
et l'étiriez au maximum, il est environ de la taille d'une serviette de table
02:22
it's about the size of a table napkin,
58
142231
1713
02:23
and it's still a thin structure.
59
143944
1306
tout en restant fin. Environ de l'épaisseur d'une serviette de table.
02:25
It's about the thickness of a table napkin.
60
145250
1980
02:27
But it has so many convolutions and ridges
61
147230
2497
Mais il a tant de circonvolutions et de stries
02:29
it's now 80 percent of our brain,
62
149727
3075
qu'il représente à présent 80% de notre cerveau,
02:32
and that's where we do our thinking,
63
152802
2461
et c'est dans cette partie que nous réfléchissons,
02:35
and it's the great sublimator.
64
155263
1761
c'est le grand transcendeur.
02:37
We still have that old brain
65
157024
1114
On a toujours notre vieux cerveau
02:38
that provides our basic drives and motivations,
66
158138
2764
qui nous fournit nos pulsions et nos motivations primitifs,
02:40
but I may have a drive for conquest,
67
160902
2716
mais si j'ai une volonté de conquête,
02:43
and that'll be sublimated by the neocortex
68
163618
2715
cette dernière va être exprimée par le néocortex
02:46
into writing a poem or inventing an app
69
166333
2909
dans la rédaction d'un poème ou l'invention d'une application
02:49
or giving a TED Talk,
70
169242
1509
ou encore dans la réalisation d'un TED Talk,
02:50
and it's really the neocortex that's where
71
170751
3622
et c'est vraiment là, dans le néocortex,
02:54
the action is.
72
174373
1968
que l'action se passe.
02:56
Fifty years ago, I wrote a paper
73
176341
1717
Il y a 50 ans, j'ai écrit un article
02:58
describing how I thought the brain worked,
74
178058
1918
décrivant comment je pensais que le cerveau fonctionnait,
02:59
and I described it as a series of modules.
75
179976
3199
et je le décrivais comme une série de modules.
03:03
Each module could do things with a pattern.
76
183175
2128
Chaque module pouvait faire des choses selon un modèle,
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
et aussi apprendre un modèle, s'en rappeler, et l'implémenter.
03:08
It could implement a pattern.
78
188049
1407
03:09
And these modules were organized in hierarchies,
79
189456
2679
Et ces modules s'organisaient selon une hiérarchie,
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
nous créions cette hiérarchie avec notre réflexion.
03:15
And there was actually very little to go on
81
195089
3333
on n'en savait peu là-dessus il y a 50 ans.
03:18
50 years ago.
82
198422
1562
03:19
It led me to meet President Johnson.
83
199984
2115
Ça m'a conduit à rencontrer le président Johnson.
03:22
I've been thinking about this for 50 years,
84
202099
2173
J'y ai réfléchi depuis 50 ans,
03:24
and a year and a half ago I came out with the book
85
204272
2828
et il y a un an et demi je publiais le livre
03:27
"How To Create A Mind,"
86
207100
1265
"How to Create a Mind" (Comment créer un esprit)
03:28
which has the same thesis,
87
208365
1613
qui soutient la même théorie,
03:29
but now there's a plethora of evidence.
88
209978
2812
mais à l'heure actuelle il y a pléthore de preuves.
03:32
The amount of data we're getting about the brain
89
212790
1814
La quantité de données concernant le cerveau
03:34
from neuroscience is doubling every year.
90
214604
2203
qui nous vient des neurosiences double chaque année.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
La résolution du scanner cérébral
03:39
is doubling every year.
92
219461
2285
double elle aussi chaque année.
03:41
We can now see inside a living brain
93
221746
1717
Nous pouvons observer l'intérieur d'un cerveau vivant
03:43
and see individual interneural connections
94
223463
2870
et ainsi voir ses connections neurologiques
03:46
connecting in real time, firing in real time.
95
226333
2703
se faire et s'activer en temps réel.
03:49
We can see your brain create your thoughts.
96
229036
2419
Nous pouvons voir votre cerveau créer vos pensées.
03:51
We can see your thoughts create your brain,
97
231455
1575
Nous pouvons voir vos pensées créer votre cerveau,
03:53
which is really key to how it works.
98
233030
1999
ce qui est essentiel pour expliquer son fonctionnement.
03:55
So let me describe briefly how it works.
99
235029
2219
Laissez-moi vous le décrire simplement.
03:57
I've actually counted these modules.
100
237248
2275
J'ai en réalité compté ces modules.
03:59
We have about 300 million of them,
101
239523
2046
Nous en avons environ 300 millions,
04:01
and we create them in these hierarchies.
102
241569
2229
et nous les créons en hiérarchies.
04:03
I'll give you a simple example.
103
243798
2082
Je vais vous donner un exemple simple.
04:05
I've got a bunch of modules
104
245880
2805
J'ai un ensemble de modules
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
qui reconnaisse la barre horizontale de la lettre A,
04:12
and that's all they care about.
106
252088
1914
et c'est tout ce dont ils s'occupent.
04:14
A beautiful song can play,
107
254002
1578
On peut diffuser une jolie chanson, une jolie fille peut passer devant vous,
04:15
a pretty girl could walk by,
108
255580
1434
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
ils n'en ont rien à faire, mais s'ils rencontrent la barre de la A
04:19
they get very excited and they say "crossbar,"
110
259860
3021
ils deviennent alors très actifs et disent 'barre',
04:22
and they put out a high probability
111
262881
2112
et placent alors une importante probabilité
04:24
on their output axon.
112
264993
1634
sur leur axone de sortie.
04:26
That goes to the next level,
113
266627
1333
On passe au niveau suivant,
04:27
and these layers are organized in conceptual levels.
114
267960
2750
et ces couches sont organisées en différents niveaux conceptuels,
04:30
Each is more abstract than the next one,
115
270710
1856
chacun plus abstrait que le suivant. Le suivant pourrait alors dire "A",
04:32
so the next one might say "capital A."
116
272566
2418
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
le message va au niveau supérieur qui pourrait dire "Apple" (pomme)
04:37
Information flows down also.
118
277875
2167
L'information va aussi dans le sens inverse.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
Si le détecteur d'APPLE voit A-P-P-L, il va alors se dire :
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
« Je pense que la prochaine lettre sera probablement un E »
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
et enverra alors signal aux détecteurs de E, leur disant :
04:48
saying, "Be on the lookout for an E,
122
288761
1619
« soyez prêts à trouver un E, je pense qu'il y en a un qui arrive. »
04:50
I think one might be coming."
123
290380
1556
04:51
The E recognizers will lower their threshold
124
291936
2843
Les détecteurs de E vont alors baisser leur seuil
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
et même si le symbole est approximatif, le prendront pour un E.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
« D'ordinaire ce n'est pas le cas, mais ici on attend un E,
04:58
but we're expecting an E, it's good enough,
127
298214
2009
donc c'est bon. Oui, je vois un E. », ensuite le détecteur d'APPLE dit :
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
05:02
"Yeah, I've seen an Apple."
129
302040
1728
« Oui, j'ai bien vu APPLE ».
05:03
Go up another five levels,
130
303768
1746
L'information monte encore de cinq niveaux,
05:05
and you're now at a pretty high level
131
305514
1353
et là on est assez haut dans la hiérarchie,
05:06
of this hierarchy,
132
306867
1569
05:08
and stretch down into the different senses,
133
308436
2353
et tiraillé entre les différents sens.
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
Vous avez un module qui reconnaît un tissu
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
est réceptif à une voix, sent un parfum,
05:16
and will say, "My wife has entered the room."
136
316288
2513
et va alors dire : « ma femme est entrée dans la pièce ».
05:18
Go up another 10 levels, and now you're at
137
318801
1895
Dix niveaux plus hauts,
05:20
a very high level.
138
320696
1160
et là vous êtes à un très haut niveau. probablement dans le cortex frontal,
05:21
You're probably in the frontal cortex,
139
321856
1937
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
et vous aurez des modules qui disent : « C'était ironique.
05:27
That's funny. She's pretty."
141
327560
2370
C'est drôle. Elle est jolie. »
05:29
You might think that those are more sophisticated,
142
329930
2105
Vous pourriez penser que c'est plus sophistiqué,
05:32
but actually what's more complicated
143
332035
1506
mais en fait, le plus compliqué, c'est la hiérarchie sous-jacente.
05:33
is the hierarchy beneath them.
144
333541
2669
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
Une jeune fille de 16 ans qui était opérée du cerveau,
05:38
and she was conscious because the surgeons
146
338830
2051
elle restait consciente car le chirurgien
05:40
wanted to talk to her.
147
340881
1537
voulait maintenir le dialogue avec elle.
05:42
You can do that because there's no pain receptors
148
342418
1822
C'est possible car il n'y a pas de récepteur de douleur dans le cerveau.
05:44
in the brain.
149
344240
1038
05:45
And whenever they stimulated particular,
150
345278
1800
Et lorsqu'ils stimulaient des points très particuliers dans son néocortex,
05:47
very small points on her neocortex,
151
347078
2463
05:49
shown here in red, she would laugh.
152
349541
2665
représentés ici en rouge, elle se mettait à rire.
05:52
So at first they thought they were triggering
153
352206
1440
Au début, ils pensaient qu'ils déclenchaient un réflexe du rire,
05:53
some kind of laugh reflex,
154
353646
1720
05:55
but no, they quickly realized they had found
155
355366
2519
mais ils ont vite découvert qu'ils avaient trouvé
05:57
the points in her neocortex that detect humor,
156
357885
3044
le point de son néocortex qui détecte l'humour,
06:00
and she just found everything hilarious
157
360929
1969
et elle trouvait alors absolument tout hilarant
06:02
whenever they stimulated these points.
158
362898
2437
dès qu'ils stimulaient ces points.
06:05
"You guys are so funny just standing around,"
159
365335
1925
Elle répétait :
« Vous êtes tellement drôles tous debout autour de moi »
06:07
was the typical comment,
160
367260
1738
06:08
and they weren't funny,
161
368998
2302
alors qu'ils n'étaient pas drôles,
06:11
not while doing surgery.
162
371300
3247
du moins pas pendant l'opération.
06:14
So how are we doing today?
163
374547
4830
Alors, où en sommes-nous ajourd'hui ?
06:19
Well, computers are actually beginning to master
164
379377
3054
Eh bien, les ordinateurs commencent à maîtriser
06:22
human language with techniques
165
382431
2001
les langues grâce à des techniques similaires à celles du néocortex.
06:24
that are similar to the neocortex.
166
384432
2867
06:27
I actually described the algorithm,
167
387299
1514
J'ai décrit l'algorithme,
06:28
which is similar to something called
168
388813
2054
qui est similaire à un système appelé
06:30
a hierarchical hidden Markov model,
169
390867
2233
modèle hiérarchique de Markov caché,
06:33
something I've worked on since the '90s.
170
393100
3241
ce sur quoi je travaille depuis les années 90.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
Jeopardy est un jeu télévisé portant sur le langage,
06:39
and Watson got a higher score
172
399579
1892
et Watson a obtenu un score plus important que les deux autres réunis.
06:41
than the best two players combined.
173
401471
2000
06:43
It got this query correct:
174
403471
2499
Il a répondu correctement à cette question :
06:45
"A long, tiresome speech
175
405970
2085
« Un long et ennuyeux discours énoncé
06:48
delivered by a frothy pie topping,"
176
408055
2152
par un mousseux nappage de tarte », et il répondit rapidement :
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
« Comment nomme-t-on une diatribe de meringue ? »
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
Jennings et l'autre joueur n'ont pas compris.
06:55
It's a pretty sophisticated example of
179
415638
1926
C'est un exemple précis de la façon
06:57
computers actually understanding human language,
180
417564
1914
dont les ordinateurs comprennent le langage humain,
06:59
and it actually got its knowledge by reading
181
419478
1652
et ils l'apprennent en fait en lisant Wikipedia
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
et de plusieurs autres encyclopédies.
07:04
Five to 10 years from now,
183
424915
2133
D'ici 5 à 10 ans,
07:07
search engines will actually be based on
184
427048
2184
les moteurs de recherche se baseront non seulement
07:09
not just looking for combinations of words and links
185
429232
2794
sur les combinaisons de mots et de liens,
07:12
but actually understanding,
186
432026
1914
mais bien sur leur compréhension.
07:13
reading for understanding the billions of pages
187
433940
2411
D'où la lecture de milliards de pages
07:16
on the web and in books.
188
436351
2733
sur internet comme dans des livres.
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
Donc vous vous baladerez et alors Google s'affichera et vous dira :
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
« Mary, il y a un mois vous m'avez exprimé votre préoccupation
07:24
to me a month ago that your glutathione supplement
191
444781
3019
concernant votre complément en glutathion
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
qui ne passait pas la barrière hématoméningée.
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
Eh bien une nouvelle recherche vient d'être publiée il y a 13 secondes
07:32
that shows a whole new approach to that
194
452624
1711
décrivant une toute nouvelle approche,
07:34
and a new way to take glutathione.
195
454335
1993
une nouvelle façon d'assimiler le gluthation.
07:36
Let me summarize it for you."
196
456328
2562
Lassez-moi vous en faire un résumé."
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
D'ici 20 ans, nous aurons des nano-robots,
07:42
because another exponential trend
198
462574
1627
car une des nouvelles tendances à forte évolution
07:44
is the shrinking of technology.
199
464201
1615
est la miniaturisation de la technologie.
07:45
They'll go into our brain
200
465816
2370
Ils entreront dans notre cerveau
07:48
through the capillaries
201
468186
1703
à travers nos vaisseaux capillaires
07:49
and basically connect our neocortex
202
469889
2477
et connecteront simplement notre néocortex
07:52
to a synthetic neocortex in the cloud
203
472366
3185
à un néocortex synthétique dans le cloud,
07:55
providing an extension of our neocortex.
204
475551
3591
nous en fournissant ainsi une extension.
07:59
Now today, I mean,
205
479142
1578
A l'heure actuelle,
08:00
you have a computer in your phone,
206
480720
1530
vous avez un ordinateur dans votre téléphone,
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
mais si vous avez besoin de 10 000 ordinateurs pour quelques secondes
08:05
to do a complex search,
208
485004
1495
pour faire une recherche complexe, vous pouvez y avoir accès dans le cloud.
08:06
you can access that for a second or two in the cloud.
209
486499
3396
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
Dans les années 2030, si vous avez besoin d'une extension de néocortex,
08:12
you'll be able to connect to that in the cloud
211
492990
2273
vous pourrez vous y connecter via le cloud
08:15
directly from your brain.
212
495263
1648
directement depuis votre cerveau.
08:16
So I'm walking along and I say,
213
496911
1543
Imaginons que je me balade et je me dis,
08:18
"Oh, there's Chris Anderson.
214
498454
1363
« Oh, je vais croiser Chris Anderson, il vient vers moi.
08:19
He's coming my way.
215
499817
1525
08:21
I'd better think of something clever to say.
216
501342
2335
Il faut que je trouve quelque chose d'intelligent à dire...
08:23
I've got three seconds.
217
503677
1524
J'ai trois secondes pour ça.
08:25
My 300 million modules in my neocortex
218
505201
3097
Les 300 millions de modules de mon néocortex
08:28
isn't going to cut it.
219
508298
1240
ne seront pas suffisants.
08:29
I need a billion more."
220
509538
1246
J'en ai besoin d'un milliard de plus. »
08:30
I'll be able to access that in the cloud.
221
510784
3323
Je serai alors capable d'y accéder via le cloud.
08:34
And our thinking, then, will be a hybrid
222
514107
2812
Alors nous disposerons d'un système de pensée hybride
08:36
of biological and non-biological thinking,
223
516919
3522
fonctionnant sur des composants biologiques et non biologiques,
08:40
but the non-biological portion
224
520441
1898
mais la partie non-biologique
08:42
is subject to my law of accelerating returns.
225
522339
2682
est sujette à ma loi du retour accéléré.
08:45
It will grow exponentially.
226
525021
2239
Elle va grandir de manière exponentielle.
08:47
And remember what happens
227
527260
2016
Souvenez-vous alors ce qu'il s'est passé il y a deux millions d'années
08:49
the last time we expanded our neocortex?
228
529276
2645
la dernière fois que nous avons agrandi notre néocortex,
08:51
That was two million years ago
229
531921
1426
08:53
when we became humanoids
230
533347
1236
lorsque nous sommes devenus des humanoïdes et reçu ce grand front.
08:54
and developed these large foreheads.
231
534583
1594
08:56
Other primates have a slanted brow.
232
536177
2583
Les autres primates ont des sourcils inclinés.
08:58
They don't have the frontal cortex.
233
538760
1745
Ils n'ont pas de cortex frontal.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
Mais le cortex frontal n'est pas vraiment différent qualitativement parlant.
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
C'est une expansion en taille du néocortex,
09:06
but that additional quantity of thinking
236
546933
2703
mais cette quantité additionnelle de capacité de réflexion
09:09
was the enabling factor for us to take
237
549636
1779
nous a permis alors de prendre
09:11
a qualitative leap and invent language
238
551415
3346
une longueur d'avance et de créer le langage
09:14
and art and science and technology
239
554761
1967
ainsi que l'art et la technologie
09:16
and TED conferences.
240
556728
1454
et les conférences TED.
09:18
No other species has done that.
241
558182
2131
Aucune autre espèce n'a fait ça.
09:20
And so, over the next few decades,
242
560313
2075
Par conséquent, au cours des prochaines décénnies,
09:22
we're going to do it again.
243
562388
1760
nous allons répéter ça.
09:24
We're going to again expand our neocortex,
244
564148
2274
Nous allons à nouveau agrandir notre néocortex,
09:26
only this time we won't be limited
245
566422
1756
seulement cette fois, nous ne serons pas limités
09:28
by a fixed architecture of enclosure.
246
568178
4280
à un contenu fixe.
09:32
It'll be expanded without limit.
247
572458
3304
Il pourra grossir sans limite.
09:35
That additional quantity will again
248
575762
2243
Cette quantité additionnelle sera à nouveau
09:38
be the enabling factor for another qualitative leap
249
578005
3005
le facteur nous permettant un gigantesque progrès
09:41
in culture and technology.
250
581010
1635
dans les domaines de la culture et de la technologie.
09:42
Thank you very much.
251
582645
2054
Merci beaucoup.
09:44
(Applause)
252
584699
3086
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7