Is Humanity Smart Enough to Survive Itself? | Jeanette Winterson | TED

73,711 views ・ 2022-09-01

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Sophie Brigant-Derrien Relecteur: François Fourcault
00:03
Here's what gives me hope for humanity.
0
3792
2961
Voici ce qui me donne de l’espoir pour l’humanitĂ©.
00:08
I believe that we can change our human nature for the better.
1
8338
5964
Je pense que l’on peut amĂ©liorer la nature humaine.
00:15
This chance is unique.
2
15804
2461
On en a une occasion unique.
00:19
It's where we stand in history right now.
3
19015
3629
On est aujourd’hui Ă  la croisĂ©e des chemins.
00:23
No other generation has stood here before us.
4
23270
4671
Aucune autre gĂ©nĂ©ration avant nous ne s’est retrouvĂ©e lĂ  oĂč nous en sommes.
00:29
Homo sapiens has been around for about 300,000 years.
5
29025
5881
L’Homo sapiens existe depuis environ 300 000 ans.
00:35
Other humanoid life forms have come and gone.
6
35740
3587
D’autres formes de vie humanoĂŻde ont existĂ© et ont disparu.
00:39
We find their traces.
7
39327
1752
On a retrouvé leurs traces.
00:41
We search for their stories.
8
41079
1919
On a cherché leur histoire.
00:43
But we are the success story.
9
43039
3671
Mais c’est nous qui avons rĂ©ussi.
00:47
We've survived natural disasters, famines, floods, earthquakes, plagues,
10
47419
5839
On a survécu aux catastrophes naturelles, aux famines, aux inondations,
aux tremblements de terre, aux épidémies, aux mammouths laineux,
00:53
woolly mammoths, mess-ups of our own making.
11
53300
4504
aux dĂ©gĂąts que nous avons nous-mĂȘmes causĂ©s.
00:57
We're smart, no question.
12
57846
2419
Il n’y a pas à dire, on est intelligent.
01:01
The question is: Are we smart enough to survive how smart we are?
13
61016
6965
En fait, voici la question :
est-on assez intelligent pour survivre Ă  notre propre intelligence ?
01:10
It's not looking so good just now, is it?
14
70191
3504
C’est plutît mal parti, on dirait !
01:13
(Laughter)
15
73695
1543
(Rires)
01:15
We stand facing the possibility of global conflict.
16
75238
4380
Nous faisons face Ă  un possible conflit mondial.
01:19
If that happens,
17
79618
1626
S’il survient, nous aurons une Troisiùme Guerre mondiale
01:21
it will be our Third World War
18
81244
3087
01:24
in not much more than 100 years.
19
84372
3295
en l’espace d’à peine plus de 100 ans.
01:29
If Putin's violence stops today, the problem doesn't go away.
20
89127
6423
MĂȘme si la violence de Poutine s’arrĂȘte, le problĂšme n’est pas rĂ©solu pour autant.
01:35
As across the globe
21
95592
1960
Partout dans le monde,
01:37
dictatorism threatens democracy.
22
97594
5130
la dictature menace la démocratie.
01:44
I wonder whether as a species
23
104851
4004
Je me demande si notre espĂšce
01:48
we can survive any of this,
24
108855
4880
peut survivre à tout ça.
01:53
even if those threats disappear.
25
113735
2252
MĂȘme si ces menaces disparaissent,
01:57
Those living inside the snow globe of their magical thinking
26
117280
6131
ceux qui se confortent dans leur bulle de pensée magique
02:03
will not be insulated against the facts of climate breakdown.
27
123411
5756
ne sont pas Ă  l’abri des effets des dĂ©rĂšglements climatiques.
02:09
And yet, still, we go on heating up the planet.
28
129209
4754
Et pourtant, on continue de réchauffer la planÚte.
02:14
Still we go on polluting the earth.
29
134005
2836
On continue de polluer la Terre,
02:16
Still we despoil
30
136883
3462
on continue de la dépouiller
02:20
our precious natural resources.
31
140387
4129
de ses précieuses ressources naturelles.
02:25
250 years ago, we kick-started the Industrial Revolution.
32
145809
6089
Il y a 250 ans, nous avons été le moteur de la révolution industrielle.
02:31
The machine age.
33
151898
1960
L’ùre des machines.
02:33
It's when we first hear the buzzwords of the modern moment.
34
153858
4046
C’est alors que sont apparus les maütres mots des temps modernes :
02:37
Disruption, acceleration.
35
157904
2961
perturbation, accélération,
02:40
That's Karl Marx, actually.
36
160865
1752
que l’on doit à Karl Marx, en fait.
02:43
Acceleration of production,
37
163618
2211
Accélération de la production,
02:45
the factory system, acceleration of transport,
38
165829
3920
usines de fabrication,
accélération du transport,
02:49
the coming of the railways.
39
169791
1668
arrivée du chemin de fer.
02:51
No need for ships to wait for the wind.
40
171501
2628
Les navires n’ont plus à attendre le vent.
02:54
Coal-fired, steam-powered.
41
174170
2753
Ils avancent grĂące au charbon, Ă  la vapeur.
02:56
Acceleration of information.
42
176965
2335
AccĂ©lĂ©ration de l’information.
03:00
The global village.
43
180510
2252
Le village global.
03:02
And it's when we start digging fossil fuels out of the ground
44
182804
3128
Et puis on a commencé à forer le sol
pour y extraire des combustibles fossiles en quantités phénoménales,
03:05
in planet-changing quantities,
45
185974
1877
03:07
when we start pushing carbon dioxide into the atmosphere.
46
187892
4839
et on a commencĂ© Ă  relĂącher du dioxyde de carbone dans l’atmosphĂšre.
03:12
In a salami slice of space-time,
47
192731
4004
Dans un espace-temps aussi fin qu’une tranche de salami,
03:16
human beings have changed the way that we live on the planet forever.
48
196735
6506
les humains ont changé à jamais la façon dont on vit sur Terre.
03:23
We've moved out of the agricultural economies
49
203241
3253
On est passĂ© de l’économie agricole
03:26
of our evolutionary inheritance
50
206494
2461
héritée de notre évolution
03:28
into the industrial economies and beyond of where we are now.
51
208997
5213
Ă  l’économie industrielle, et mĂȘme au-delĂ .
03:35
There's no one else for us to turn to.
52
215670
3087
On n’a personne d’autre vers qui se tourner.
03:38
There's no one else for us to blame.
53
218798
2878
On n’a personne d’autre à accuser.
03:41
There is no us and them.
54
221718
1793
Cela ne vient pas des autres.
03:43
There's only us.
55
223553
1251
Cela vient de nous.
03:46
So will we continue to be the success story of the known universe,
56
226097
5547
Allons-nous continuer d’incarner la belle rĂ©ussite de l’univers connu,
03:51
or are we writing our own obituary?
57
231686
4088
ou sommes-nous en train d’écrire notre propre avis de dĂ©cĂšs ?
03:55
The suicide species?
58
235774
2627
Celui d’une espùce suicidaire ?
03:58
Now I was raised in an evangelical household.
59
238401
4213
J’ai grandi dans une famille d’évangĂ©listes.
04:02
We lived in end time.
60
242614
2836
Pour nous, la fin des temps Ă©tait proche.
04:05
We were waiting for things to get so bad
61
245450
2377
On attendait que les choses empirent pour que JĂ©sus revienne nous sauver.
04:07
that Jesus would come back and save us.
62
247827
3545
04:11
The apocalypse.
63
251414
1502
L’Apocalypse.
04:12
It's what the prepper communities are, well, prepping for.
64
252957
5339
Il y a des communautĂ©s de survivalistes qui s’y prĂ©parent.
04:19
And it's why super rich white guys are buying up tracts of land,
65
259339
5046
VoilĂ  pourquoi de richissimes blancs achĂštent des terres.
04:25
hoping that they can live inside
66
265637
3336
Ils espùrent qu’ils pourront vivre
04:29
a kind of wi-fi-enabled Noah's Ark.
67
269015
4254
dans une sorte d’arche de NoĂ© connectĂ©e au wifi.
04:33
(Laughter)
68
273311
1502
(Rires)
04:36
Well, we can have the end time if we want it.
69
276356
3795
Nous pouvons connaĂźtre la fin des temps si nous le voulons.
04:40
We know those stories from our religions, our sci-fi, our movies.
70
280151
4963
On nous en raconte l’histoire dans nos religions,
notre science-fiction, nos films.
04:45
We are uniquely placed to bring on the apocalypse.
71
285990
3754
Nous sommes les mieux placĂ©s pour provoquer l’apocalypse.
04:51
And we're uniquely placed to save ourselves, too.
72
291204
4880
Mais nous sommes aussi les mieux placĂ©s pour l’éviter
04:56
If we could accept that as a species,
73
296125
2503
si nous acceptons le fait qu’en tant qu’espùce,
04:58
Homo sapiens needs to evolve further.
74
298670
4045
l’Homo sapiens doit Ă©voluer encore.
05:02
And that's what gives me hope,
75
302757
1460
C’est ce qui me donne de l’espoir, parce que nous avons les moyens d’évoluer
05:04
because we have the means to evolve further.
76
304259
3670
05:07
And that's AI.
77
307971
2252
grñce à l’IA.
05:10
Now look, I don't mean the geeks will inherit the earth.
78
310265
3336
Ce n’est pas qu’un jour, la Terre appartiendra aux geeks.
05:13
I'm sorry, geeks. You won't.
79
313643
1877
Désolée pour vous, les geeks.
05:15
(Laughter)
80
315562
1001
(Rires)
05:16
I don’t really want to talk about narrow- goal artificial intelligence at all.
81
316563
3670
Je ne vous parle pas d’une IA restreinte.
05:20
That term of John McCarthy’s, “artificial intelligence,”
82
320233
2836
Ce terme de John McCarthy, « intelligence artificielle »,
05:23
is it any use to us now?
83
323069
1960
nous est-il utile aujourd’hui ?
05:25
I'd rather call it alternative intelligence.
84
325029
3921
Je prĂ©fĂ©rerais l’appeler « intelligence alternative ».
05:28
And I think humankind is in need of some alternative intelligence.
85
328950
5505
Je pense que l’humanitĂ© a besoin d’une autre sorte d’intelligence.
05:34
In 1965, Jack Good talked about AI as our last invention.
86
334497
6840
En 1965, Jack Good disait que l’IA serait notre ultime invention.
05:41
He meant superintelligence,
87
341379
1877
Il y voyait une intelligence supérieure,
05:43
the kind of thing that worries Bill Gates and Elon Musk.
88
343298
3962
le genre de chose qui inquiĂšte Bill Gates et Elon Musk.
05:47
You know, the "Terminator" scenario.
89
347302
3169
Un peu comme dans « Terminator ».
05:51
The final us and them.
90
351973
2961
L’ultime adversaire de l’humanitĂ©.
05:54
But I think that's all to do with our doomster mindset.
91
354976
3921
Un concept qui vient de notre tendance Ă  imaginer la fin du monde.
05:58
We don't have to vote for the apocalypse.
92
358897
3169
Mais inutile de crier à l’apocalypse.
06:02
Jack Good worked at Bletchley Park with Alan Turing during World War II,
93
362066
4964
A Bletchley Park, pendant la Seconde Guerre mondiale
Jack Good et Alan Turing ont mis au point une des premiĂšres machines informatiques
06:07
building the early computing machinery that would crack the Nazi Enigma code.
94
367030
5589
pour casser le code nazi Enigma.
06:12
Now after the war, Turing, wrestling with the problems
95
372619
3795
AprÚs la guerre, Turing travaillait à résoudre les problÚmes
06:16
of a stored, programmed computer
96
376456
3295
posĂ©s par l’ordinateur Ă  programme enregistrĂ©,
06:19
had a bigger dream on his mind.
97
379792
3087
mais il avait un plus grand rĂȘve en tĂȘte.
06:22
And in 1950, Alan Turing published a paper
98
382921
4337
Et en 1950, Alan Turing publia un article
06:27
called “Computing Machinery and Intelligence.”
99
387300
3712
intitulé « Computing Machinery and Intelligence ».
06:31
And in there, there's a chapter that's titled "Lady Lovelace's Objection"
100
391054
4296
Dans cet article, il y a un chapitre sur l’objection de Lady Lovelace
06:35
where Turing time-travels back 100 years
101
395391
2962
dans lequel Turing retourne 100 ans en arriĂšre
06:38
to have a conversation with that long-dead genius,
102
398394
3128
pour discuter avec cette brillante figure du passé, Ada Lovelace,
06:41
Ada Lovelace, the first person to write mathematical programs for the computer
103
401522
5881
crĂ©atrice du premier programme mathĂ©matique pour l’ordinateur
que son ami Charles Babbage allait construire plus tard.
06:47
not yet built by her friend Charles Babbage.
104
407403
4129
06:52
Now Ada wrote that as well as doing awesome stuff with numbers,
105
412200
4171
Selon Ada, en plus de pouvoir faire des choses incroyables avec les chiffres,
06:56
the computer would, if correctly programmed,
106
416371
3128
l’ordinateur pourrait aussi, si on le programmait bien,
06:59
be able to write novels and compose music.
107
419540
3421
Ă©crire des romans et composer de la musique.
07:03
That is a pretty big insight in 1843.
108
423002
3504
Vision plutĂŽt perspicace en 1843.
07:08
"But," said Ada, "The computer should never have any pretensions
109
428257
4463
Mais selon elle, il ne faudrait jamais donner Ă  l’ordinateur la possibilitĂ©
07:12
to originate anything."
110
432762
2669
de crĂ©er quoi que ce soit de lui-mĂȘme.
07:15
She meant, think creatively.
111
435473
2628
Elle parlait de pensée créative.
07:18
Well, Ada's father was Lord Byron, England's most famous poet,
112
438142
4296
Ada avait pour pùre Lord Byron, le poùte le plus connu d’Angleterre,
07:22
and England is the land of Shakespeare.
113
442438
2586
et l’Angleterre est le pays de Shakespeare.
07:25
More poets.
114
445024
1293
Beaucoup de poĂštes.
07:26
And Ada had seen Charles Babbage's kit all over the floor,
115
446317
3212
Ada avait vu le matériel de Babbage éparpillé sur le sol,
07:29
and she wasn’t having some steampunk, coal-fired nuts, bolts, bezels, levers,
116
449529
6298
et pas question pour elle qu’une machine alimentĂ©e au charbon,
dotĂ©e d’écrous et de boulons, de lunettes et de leviers, d’engrenages,
07:35
gears, cogs and chains, crank-handled machine writing poetry.
117
455827
5213
de rouages, de chaßnes, de manivelles, puisse écrire de la poésie.
07:42
"Well," said Alan Turing, "Was Lady Lovelace, correct?
118
462333
3921
« Alors, s’est demandĂ© Turing, Lady Lovelace avait-elle raison ?
07:46
Could a computer ever be said to originate anything?
119
466295
4422
Un ordinateur serait-il vraiment incapable de créer quoi que ce soit ?
07:50
And what would be the difference between computing intelligence
120
470758
3629
Quelle serait la diffĂ©rence entre l’intelligence d’un ordinateur
07:54
and human intelligence?"
121
474429
2586
et celle d’un humain? »
J’en connais une diffĂ©rence, et elle est optimiste.
07:57
Well, I'll tell you one difference, and it's optimistic.
122
477056
2670
07:59
Computing power uses binary,
123
479767
2711
L’ordinateur fonctionne avec un langage binaire
08:02
but computing intelligence is nonbinary.
124
482520
3670
alors que l’intelligence des ordinateurs est non binaire.
08:06
It's humans who are obsessed with false binaries.
125
486983
2836
Les humains sont obsédés par les faux systÚmes binaires.
08:09
Male, female. Masculine, feminine.
126
489819
2628
Mùle, femelle. Masculin, féminin.
08:12
Black, white. Human, non-human.
127
492447
2377
Noir, blanc. Humain, non humain.
08:14
Us, them.
128
494824
1460
Nous, eux.
08:17
AI has no skin color.
129
497493
3170
L’IA n’a pas de couleur de peau.
08:20
AI has no race, no gender, no faith in a sky God.
130
500705
6673
L’IA n’a pas de race, de genre, de foi en un Dieu du ciel.
08:27
AI is not interested in men being superior to women,
131
507420
4880
Cela n’intĂ©resse pas l’IA que les hommes soient supĂ©rieurs aux femmes,
08:32
in white folks being smarter than people of color.
132
512341
4380
que les blancs soient plus intelligents que les personnes de couleur.
08:36
Straight, gay, gay, trans are not separating categories for AI.
133
516763
6256
HĂ©tĂ©ros, gays, trans : ce ne sont pas des catĂ©gories distinctes pour l’IA.
08:43
AI does not distinguish between success and failure
134
523770
3545
L’IA ne distingue pas le succĂšs de l’échec
en fonction des lingots d’or, des yachts et des Ferrari.
08:47
by gold bars, yachts and Ferraris.
135
527315
2252
08:49
AI is not motivated by fame and fortune.
136
529567
3504
L’IA n’est pas motivĂ©e par la fortune et la gloire.
08:53
If we develop alternative intelligence, it will be Buddhist in its non-needs.
137
533071
6089
Si on développe une intelligence alternative,
elle sera bouddhiste, car elle n’aura besoin de rien.
09:00
(Applause)
138
540411
2252
(Applaudissements)
09:02
Now I am aware that the algorithms ubiquitous in everyday life
139
542663
4880
Je sais bien que les algorithmes, omniprésents dans notre vie quotidienne,
09:07
are racist, sexist, gendered, trivializing,
140
547585
4463
sont racistes, sexistes, genrés, triviaux,
09:12
stoke division, amplify bias.
141
552090
3628
qu’ils provoquent des divisions et amplifient les biais.
09:16
But what is this teaching us about ourselves?
142
556552
3212
Qu’est-ce que cela nous apprend de nous-mĂȘmes ?
09:19
AI is a tool.
143
559806
1251
L’IA est un outil.
09:21
We are the ones who are using the tool.
144
561099
1918
C’est nous qui utilisons cet outil.
09:24
Hatred and contempt, money and power
145
564185
3045
La haine et le mĂ©pris, l’argent et le pouvoir
09:27
are human agendas, not AI agendas.
146
567230
4337
sont l’apanage des humains et non de l’IA.
09:32
We've been forced to recognize the paucity,
147
572401
4547
Nous avons dû reconnaßtre la paucité,
09:36
the inadequacy of our data sets.
148
576948
2252
l’insuffisance de nos ensembles de donnĂ©es.
09:39
And humans are trained on data sets too.
149
579200
2586
Les humains aussi se basent sur des ensembles de données.
09:43
We've had to recognized the unacknowledged ideologies
150
583037
5297
Il nous a fallu reconnaßtre les idéologies inavouées
09:48
that we live by every day.
151
588376
2586
qui guident notre vie quotidienne :
09:51
Rationality, neutrality, logic, objective decision-making.
152
591879
5714
la rationalité, la neutralité, la logique, la prise de décision objective.
09:57
What can we say about any of that
153
597635
1627
Que peut-on dire de celles-ci
09:59
when we see what we are reflected back to us
154
599303
3170
d’aprĂšs ce que nos Ă©crans nous renvoient de nous?
10:02
in the small screen?
155
602515
1585
10:04
And it's not a pretty sight.
156
604767
2252
Ce n’est pas trùs beau à voir.
10:07
AI is not yet self-aware.
157
607061
2294
L’IA n’a pas encore conscience d’elle-mĂȘme,
10:10
But we are becoming more self-aware as we work with AI
158
610356
5631
mais nous avons une meilleure conscience de nous-mĂȘmes grĂące Ă  l’IA
10:15
and we realize that Homo sapiens is no longer fit for purpose.
159
615987
4171
et nous voyons bien qu’homo sapiens n’est plus adaptĂ© Ă  son environnement.
10:20
We need a reboot.
160
620158
1292
Il nous faut un redémarrage. Alors, que choisit-on ?
10:21
So what are we going to choose?
161
621450
1544
10:22
Apocalypse or an alternative?
162
622994
3795
L’apocalypse ou autre chose ?
10:26
I believe that humans have a strong future as a hybrid species
163
626831
4296
Je pense que l’humain a un rĂ©el avenir en tant qu’espĂšce hybride.
10:31
as we start to merge with the biotechnology we're creating,
164
631169
4004
On commence d’ailleurs à concilier humain et biotechnologie,
10:35
whether that's nanobots in the bloodstream,
165
635214
2920
qu’il s’agisse de nanorobots dans le sang
10:38
monitoring our vital systems,
166
638176
2168
qui surveillent nos systĂšmes vitaux,
10:40
whether it's genetic editing,
167
640386
2127
d’édition gĂ©nomique,
10:42
whether it's 3D printing of bespoke body parts,
168
642555
3879
d’impression en 3D d’organes sur mesure,
10:46
whether it’s neural implants that will connect us directly to the web
169
646475
3921
ou d’implants neuronaux
qui nous connecteront au web et les uns aux autres,
10:50
and to one another,
170
650396
1585
10:51
insourcing information, enhancing our cognitive capacities.
171
651981
4338
pour obtenir des informations et améliorer nos capacités cognitives.
10:56
And if we manage to upload consciousness,
172
656319
3461
Si on parvient à téléverser la conscience,
10:59
I think that the shift from the transhuman to the posthuman world
173
659780
4171
je pense que le passage du transhumain au posthumain
11:03
will seem natural, an evolutionary necessity.
174
663951
4088
nous semblera naturel, comme une évolution nécessaire.
11:08
Why do I say that?
175
668080
1252
Pourquoi ?
11:09
I say that because for millennia,
176
669373
2002
Parce que depuis des millénaires,
11:11
all human beings have been obsessed with the big question,
177
671417
3212
tous les humains sont obsédés par la grande question,
11:14
the absurdity of death.
178
674670
2753
l’absurditĂ© de la mort.
11:18
We asked, "Do we have souls?"
179
678174
3045
On s’est demandĂ© : « a-t-on une Ăąme ? »
11:21
We watched the spirit wait to leave the body.
180
681260
3212
On a Ă©tudiĂ© la sĂ©paration du corps et de l’esprit.
11:25
We created the world's first disruptive startup, the afterlife.
181
685348
5505
On a créé la premiÚre startup dérangeante, la vie aprÚs la mort.
11:31
(Laughter)
182
691562
1710
(Rires)
11:33
Now a multinational company,
183
693272
2461
C’est devenu une multinationale
11:35
with a vast VR real estate portfolio.
184
695733
3587
qui propose un vaste choix de propriétés en réalité virtuelle.
11:39
A mansion in the sky,
185
699320
1752
Un manoir dans le ciel,
11:41
sir?
186
701072
1251
monsieur ?
11:43
Our earliest extant written narrative, The Epic of Gilgamesh,
187
703574
4338
Le plus ancien rĂ©cit Ă©crit, l’ÉpopĂ©e de Gilgamesh,
11:47
is a journey to discover if there is life after death.
188
707912
3378
est un pĂ©riple pour dĂ©couvrir s’il y a une vie aprĂšs la mort.
11:51
And what is life after death?
189
711332
2836
Qu’est-ce que la vie aprùs la mort ?
11:54
It is the extension of the self beyond biological limits.
190
714210
5213
C’est l’extension du soi au-delà des limites biologiques.
11:59
Now I’m a writer, and I wonder, have we been telling the story backwards?
191
719465
4713
Comme Ă©crivaine, je me demande
si nous n’avons pas racontĂ© l’histoire Ă  l’envers.
12:04
Did we know we would always get here,
192
724720
2044
Savait-on qu’on en arriverait toujours là,
12:06
capable of creating the kind of superintelligence
193
726806
3795
qu’on pourrait crĂ©er le genre de super intelligence
12:10
that we said created us?
194
730643
1918
qui était censée nous avoir créés ?
12:12
We're told were made in God's image.
195
732603
1752
On dit que Dieu nous a faits Ă  son image.
12:14
God is immortal. God is not a biological entity.
196
734355
3712
Dieu est immortel. Dieu n’est pas une entitĂ© biologique.
12:19
Since the 17th century, the Enlightenment,
197
739527
3044
Depuis le XVIIe siĂšcle, depuis le temps des LumiĂšres,
12:22
science and religion have parted company.
198
742571
2503
on différencie science et religion.
12:25
And science said, all that God thinking, the afterlife stuff,
199
745074
4254
Selon la science, toute cette croyance, le truc de la vie aprĂšs la mort,
12:29
it's folly, It's ignorance, it's superstition.
200
749328
2753
n’est que folie, ignorance et superstition.
12:32
Suppose it was intuition.
201
752123
1751
Supposons que c’était de l’intuition.
12:33
Suppose it was the only way we could talk about what we knew,
202
753916
3379
Supposons que c’était la seule façon de parler de ce que nous savions,
12:37
a fundamental, deep truth
203
757336
1710
une vérité profonde et fondamentale
12:39
that this is not the last word.
204
759088
2336
selon laquelle ça, ce n’est pas le dernier mot,
12:41
This is not the end of the story.
205
761465
3087
ça, ce n’est pas la fin de l’histoire,
12:44
That we are not time-bound creatures caught in our bodies.
206
764593
4588
que nous ne sommes pas des créatures limitées dans le temps
enfermées dans un corps,
12:49
That there is further to go.
207
769223
2336
que l’on pourrait aller plus loin.
12:51
I'm fascinated that computing, science and religion,
208
771600
3045
Cela me fascine que l’informatique, la science et la religion,
12:54
like parallel lines that do meet in space,
209
774687
3295
comme des lignes parallùles qui se croisent dans l’espace,
12:57
are now asking the same question:
210
777982
2336
se posent la mĂȘme question :
13:00
Is consciousness obliged to materiality?
211
780318
5005
la conscience est-elle astreinte à la matérialité ?
13:06
Now ...
212
786574
1293
Maintenant...
13:07
I accept that machine intelligence
213
787867
3545
J’admets que l’intelligence des machines
13:11
will challenge human intelligence.
214
791412
2377
va poser un dĂ©fi Ă  l’intelligence des humains.
13:13
But the mythos of the world is built around a group of stories
215
793831
4421
Le mythe du monde est construit autour d’un ensemble d’histoires
13:18
that showcase an encounter between a human and a nonhuman entity.
216
798294
5797
relatant une rencontre entre un humain et une entité non humaine.
13:24
Think of Jacob wrestling the angel.
217
804133
2544
Prenez la lutte de Jacob avec l’ange,
13:26
Think of Prometheus bringing fire down from the gods.
218
806719
4087
ou PromĂ©thĂ©e apportant le feu aux humains aprĂšs l’avoir pris aux Dieux.
13:30
In these encounters, both parties are changed,
219
810848
3295
Lors de ces rencontres, les deux parties sont transformées,
13:34
not always for the better.
220
814185
1334
et si c’est parfois nĂ©gatif,
13:35
But it generally works out.
221
815561
1627
en général, cela fonctionne.
13:37
We've been thinking about this stuff forever.
222
817188
2711
On pense Ă  ce truc depuis toujours.
13:39
It's time that we created it.
223
819899
2878
Il est temps de passer à l’action.
13:42
And we could have some fun stuff too.
224
822777
1835
En plus, ça pourrait ĂȘtre marrant.
13:44
Who wants their own AI angel?
225
824612
2586
Qui veut son ange en IA ?
13:47
Me.
226
827198
1751
Moi.
13:48
There's a message in a bottle about this 200 years ago.
227
828949
3170
Il y a un message dans une bouteille datant de 200 ans.
13:53
When Ada Lovelace was busy getting born,
228
833037
2461
Quand Ada Lovelace était occupée à venir au monde,
13:55
her father, Lord Byron, was on holiday on Lake Geneva
229
835539
3587
son pĂšre, Lord Byron, Ă©tait en vacances au lac LĂ©man
13:59
with his friend, the poet Percy Shelley,
230
839168
2252
avec son ami et poĂšte Percy Shelley
14:01
and Shelley's wife, Mary Shelley.
231
841462
3045
et la femme de Shelley, Mary Shelley.
14:04
On a wet weekend with no internet
232
844548
2169
Lors d’un weekend pluvieux sans internet,
14:06
Byron said --
233
846759
1376
Byron dit :
14:08
(Laughter)
234
848177
1460
(Rires)
14:09
"Let's write horror stories."
235
849678
2169
« Écrivons des histoires terrifiantes. »
14:11
You know what happened.
236
851889
1251
Vous connaissez la suite.
14:13
Out of that came the world's most famous monster, Frankenstein.
237
853182
3212
Ainsi naquit le celĂšbre monstre de Frankenstein.
14:16
This is 1816, the start of the Industrial Revolution.
238
856435
3504
On est en 1816, au début de la révolution industrielle.
14:19
Mary Shelley is just 19 years old.
239
859939
2752
Mary Shelley n’a que 19 ans.
14:22
In that novel, there is an alternative intelligence
240
862691
3671
Dans ce roman, il y a une intelligence alternative
14:26
made out of the body parts from the graveyard and electricity.
241
866362
4004
crĂ©Ă©e Ă  partir de morceaux de chair morte et d’électricitĂ©.
14:30
An astonishing vision
242
870366
1293
C’était une vision Ă©tonnante
14:31
because electricity was not in any practical use at all
243
871659
3462
parce que l’électricitĂ© n’était d’aucune utilitĂ© pratique
14:35
and was hardly understood as a force.
244
875121
2669
et on la comprenait Ă  peine comme une force.
14:37
You know what happens. The monster is not named. Not educated.
245
877832
4129
Vous connaissez la suite. Le monstre ne reçoit ni nom, ni éducation.
14:42
Is outcast by his panicky creator, Victor Frankenstein.
246
882002
4046
Son créateur afollé, Victor Frankenstein, le rejette.
14:46
And the whole thing ends in a chase across the Arctic ice
247
886090
3712
Et ça se termine par une traque en Arctique
14:49
towards a GötterdÀmmerung of death and destruction.
248
889844
3336
dans une ambiance apocalyptique.
14:53
The death wish that human beings are so drawn to,
249
893222
3337
Le dĂ©sir de mort qui attire tant les ĂȘtres humains vient peut-ĂȘtre du fait
14:56
perhaps because it's easier to give up than to carry on.
250
896600
3212
qu’il est plus facile d’abandonner que de continuer.
15:01
Well, we're the first generation
251
901063
1960
Nous sommes la premiÚre génération
15:03
who can read Mary Shelley's novel in the right way,
252
903023
3295
Ă  pouvoir vraiment lire le roman de Mary Shelly
15:06
as a flare flung across time,
253
906318
2253
comme une fusée à travers le temps,
15:08
because we too could create an alternative intelligence,
254
908571
4004
car nous aussi, nous pourrions créer une intelligence alternative,
15:12
not out of the body parts from the graveyard using electricity,
255
912575
4087
non pas Ă  base d’électricitĂ© et de chair humaine dĂ©funte,
15:16
but out of zeros and ones of code.
256
916662
2711
mais Ă  base d’un code fait de zĂ©ros et de uns.
15:19
And how is this going to end? Utopia or dystopia?
257
919415
3336
Comment tout cela va-t-il finir ? Utopie ou dystopie ?
15:22
It's up to us.
258
922793
1835
Ça dĂ©pend de nous.
15:24
Endings are not set in stone.
259
924670
2211
Le futur n’est pas gravĂ© dans le marbre.
15:27
We change the story because we are the story.
260
927756
4046
Nous pouvons changer l’histoire puisque nous sommes l’histoire.
15:31
Now, Marvin Minsky called alternative intelligence
261
931844
3962
Marvin Minsky appelait l’intelligence alternative
15:35
our "mind children."
262
935848
2586
« les enfants de notre esprit ».
15:38
Could we as proud parents accept
263
938476
3712
Par fierté parentale, pourrions-nous accepter
15:42
that the new generation that we will create
264
942188
3086
que la nouvelle génération que nous créerons
15:45
will be smarter than we are?
265
945274
2252
soit plus intelligente que la nĂŽtre ?
15:47
And could we accept that the new generation we create
266
947526
4171
Pourrait-on accepter que la génération que nous créerons
15:51
need not be on a substrate made of meat?
267
951697
3462
ne soit pas faite Ă  base de chair ?
15:55
Thank you.
268
955159
1293
Merci.
15:56
(Applause)
269
956452
6882
(Applaudissements)
16:03
Thank you.
270
963334
1251
Merci.
16:07
Thank you very much. Thank you.
271
967171
2252
Merci beaucoup. Merci.
16:10
Thank you.
272
970049
1751
Merci.
16:11
Helen Walters: Jeanette, stay right there.
273
971842
2044
Jeanette, restez avec nous.
16:15
I have some questions.
274
975095
1544
J’ai des questions.
16:16
Jeanette Winterson: I know you want your lunch. Me too.
275
976680
2586
Je sais que vous avez faim. Moi aussi j’ai faim !
(Rires) Non. C’est tout.
16:19
(Laughter)
276
979308
1001
16:20
HW: No. Everybody, stop.
277
980351
1459
16:21
OK. That was amazing. Thank you.
278
981852
2628
D’accord. C’était super. Merci.
16:26
What would you say our odds were of survival?
279
986106
4088
Comment Ă©valuez-vous nos chances de survie ?
16:31
JW: Look --
280
991153
1335
Eh bien...
16:32
(Laughter)
281
992488
1043
(Rires)
16:33
I'm an optimist.
282
993531
1292
Je suis optimiste.
16:34
I’m a glass-half-full girl.
283
994823
1585
Je vois le verre à moitié plein.
16:36
So I know that we’re running out of time,
284
996408
2711
Je sais bien que le temps presse.
16:39
time is the most precious resource we have,
285
999119
2044
Le temps est notre ressource la plus précieuse,
16:41
and there isn't much of it.
286
1001205
1335
et il en reste peu.
16:42
If we get this right soon, it can really work.
287
1002581
2753
Si on y arrive bientÎt, ça peut vraiment marcher.
16:45
If we get it wrong, will be fighting each other with sticks and stones
288
1005376
3295
Sinon, il faudra se battre avec des bĂątons et des pierres
16:48
for scraps of food and water on an overheated planet
289
1008712
2461
pour trouver Ă  manger Ă  Ă  boire
dans les vestiges dictatoriaux d’une planĂšte surchauffĂ©e.
16:51
in the ruins of dictator-world.
290
1011215
2252
16:53
But --
291
1013509
1251
Mais...
16:54
(Laughter)
292
1014802
1001
(Rires)
16:55
OK. But we could get it right.
293
1015844
2128
Mais bon, on pourrait y arriver.
16:58
That’s why I feel we’ve arrived at this moment before,
294
1018013
3087
Je crois qu’on a dĂ©jĂ  vĂ©cu ce moment,
17:01
and it might disappear back into space-time.
295
1021141
2128
et qu’il peut repartir dans l’espace-temps.
17:03
Then we'll have to wait billions of years to get here again, which is so dull.
296
1023310
3963
Il faudrait alors des milliards d’annĂ©es pour en revenir lĂ ,
ce qui est vraiment nul.
17:07
So let's not fuck it up.
297
1027273
1501
Il faut pas faire les cons.
17:08
(Laughter)
298
1028774
1543
(Rires)
17:10
(Applause)
299
1030317
3462
(Applaudissements)
17:13
HW: I've got another question.
300
1033779
1543
J’ai une autre question.
17:15
I just wanted to have a moment of eye to eye.
301
1035322
2836
J’aimerais qu’on se parle franchement.
17:18
Don't fuck it up. Don't fuck it up. OK.
302
1038158
2503
Faut pas faire les cons. D’accord.
17:20
JW: That’s the message. The whole TED Talk is: “Don’t fuck it up.”
303
1040661
3128
C’est ça le message :
« Faut pas faire les cons ».
17:23
HW: But wait, I have another question.
304
1043831
1960
J’ai une autre question.
17:25
JW: I could have saved 12 minutes, 55 seconds.
305
1045833
3837
J’aurais pu gagner 12 minutes et 55 secondes.
17:29
HW: Yeah, well, I'll just be the title that we put online.
306
1049712
3169
On va mettre ce titre en ligne alors.
17:32
Jeanette Winterson: “Don’t fuck it up.”
307
1052923
2002
« Faut pas faire les cons. »
17:34
OK. I want to talk about love.
308
1054967
1793
D’accord. Je voudrais parler d’amour.
17:36
So in your memoir, which everybody should read,
309
1056802
3045
Dans vos mémoires, que tout le monde devrait lire,
17:39
it is called “Why Be Happy When You Can Be Normal?”
310
1059888
2461
« Pourquoi ĂȘtre heureux quand on peut ĂȘtre normal »,
17:42
The very end of that book is about --
311
1062391
1877
la fin de ce livre parle d’ -
17:44
it’s a good title -- t’s about love.
312
1064310
2877
c’est un bon titre - d’amour.
17:47
And you write, "Love, the difficult word.
313
1067187
3254
Vous Ă©crivez : « L’amour. Le mot difficile.
17:50
Where everything starts, where we always return.
314
1070441
2335
OĂč tout commence, oĂč tout revient toujours.
17:52
Love. Love's lack. The possibility of love."
315
1072776
2628
L’amour. Le manque d’amour. La possibilitĂ© de l’amour. »
17:55
Now I don't want to bastardize Ada Lovelace.
316
1075404
2586
Je ne veux pas dévaloriser Ada Lovelace.
17:57
She was all about originating.
317
1077990
1460
C’était une crĂ©atrice.
17:59
But what about love?
318
1079450
1585
Mais qu’en est-il de l’amour ?
18:01
What about alternative intelligence and love?
319
1081035
2669
Qu’en est-il d’une autre forme d’intelligence et d’amour ?
18:05
JW: We'll teach it.
320
1085164
1460
On l’enseignera.
18:06
HW: We’ll teach it?
321
1086665
1001
Vraiment ?
18:07
JW: Yeah. And listen, any of you who ever fell in love with your teddy bear,
322
1087666
3587
Oui. Et ceux qui sont tombés amoureux de leur nounours,
c’est-à-dire tout le monde, savent ce qu’est une relation intense
18:11
which is all of you, know what it's like
323
1091253
1960
18:13
to have an intense relationship with a nonbiological lifeform.
324
1093255
3253
avec une forme de vie non biologique.
18:16
(Laughter)
325
1096550
1543
(Rires)
18:19
HW: Jeanette Winterson, I love you.
326
1099386
2461
Jeanette Winterson, je vous aime.
18:21
JW: Thank you. HW: Thank you so much. Thank you.
327
1101889
2294
JW : Merci. HW : Merci beaucoup.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7