Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

284,020 views ・ 2023-07-11

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Claire Ghyselen Relecteur: eric vautier
00:04
Since 2001, I have been working on what we would now call
0
4334
3503
Depuis 2001, je travaille sur ce que l’on pourrait appeler
00:07
the problem of aligning artificial general intelligence:
1
7879
3629
le problĂšme d’alignement de l’intelligence gĂ©nĂ©rale artificielle :
00:11
how to shape the preferences and behavior
2
11550
2085
comment former les préférences et les comportements
00:13
of a powerful artificial mind such that it does not kill everyone.
3
13677
4838
d’esprits artificiels puissants sans qu’ils ne tuent tout le monde.
00:19
I more or less founded the field two decades ago,
4
19224
3128
J’ai plus ou moins fondĂ© la discipline il y a 20 ans,
00:22
when nobody else considered it rewarding enough to work on.
5
22352
2794
quand personne ne trouvait cela suffisamment valorisant.
00:25
I tried to get this very important project started early
6
25146
2711
J’ai voulu dĂ©marrer ce projet tĂŽt
00:27
so we'd be in less of a drastic rush later.
7
27899
2544
pour ne pas devoir agir dans l’urgence plus tard.
00:31
I consider myself to have failed.
8
31069
2044
Je crains avoir échoué.
00:33
(Laughter)
9
33154
1001
(Rires)
00:34
Nobody understands how modern AI systems do what they do.
10
34197
3337
Personne ne comprend comment les IA actuelles font ce qu’elles font.
00:37
They are giant, inscrutable matrices of floating point numbers
11
37576
2961
Ce sont des matrices de géantes et impénétrables de nombres flottants
00:40
that we nudge in the direction of better performance
12
40579
2460
que l’on pousse vers de meilleures performances
00:43
until they inexplicably start working.
13
43039
2044
jusqu’à ce que ça marche.
00:45
At some point, the companies rushing headlong to scale AI
14
45083
3378
Les entreprises se précipitent pour les démultiplier
00:48
will cough out something that's smarter than humanity.
15
48461
2670
et finiront par sortir une IA plus intelligente que nous.
00:51
Nobody knows how to calculate when that will happen.
16
51131
2544
Personne ne sait comment estimer quand ça arrivera.
00:53
My wild guess is that it will happen after zero to two more breakthroughs
17
53675
3712
Je parie que cela arrivera dans zéro ou deux nouvelles avancées
00:57
the size of transformers.
18
57429
1710
Ă©quivalentes aux transformers.
00:59
What happens if we build something smarter than us
19
59139
2335
Que se passera-t-il si nous développons quelque chose de plus intelligent
01:01
that we understand that poorly?
20
61516
2377
sans bien le comprendre.
01:03
Some people find it obvious that building something smarter than us
21
63935
3170
Pour certains, c’est Ă©vident qu’une chose plus intelligente que nous
01:07
that we don't understand might go badly.
22
67105
2294
mais que l’on ne comprend pas pourrait mal tourner.
01:09
Others come in with a very wide range of hopeful thoughts
23
69441
3879
D’autres imaginent avec optimisme une grande variĂ©tĂ© de scĂ©narios
01:13
about how it might possibly go well.
24
73361
2044
sur comment cela pourrait bien tourner.
01:16
Even if I had 20 minutes for this talk and months to prepare it,
25
76281
3337
MĂȘme avec 20 minutes de talk et des mois de prĂ©paration,
01:19
I would not be able to refute all the ways people find to imagine
26
79659
3087
ce serait impossible de réfuter tous les scénarios positifs
01:22
that things might go well.
27
82746
1710
imaginés par les gens.
01:24
But I will say that there is no standard scientific consensus
28
84456
4546
Mais je dis qu’il n’y a aucun consensus scientifique harmonisĂ©
01:29
for how things will go well.
29
89044
1668
sur des perspectives positives.
01:30
There is no hope that has been widely persuasive
30
90712
2252
Il n’y a aucun espoir vraiment convaincant
01:33
and stood up to skeptical examination.
31
93006
1877
qui ait résisté au scepticisme.
01:35
There is nothing resembling a real engineering plan for us surviving
32
95592
4421
Il n’y a quoi que ce soit qui ressemble de prùs à un plan de survie
01:40
that I could critique.
33
100013
1710
sur lequel donner un avis.
01:41
This is not a good place in which to find ourselves.
34
101765
2752
Ce n’est pas une situation idĂ©ale.
01:44
If I had more time,
35
104517
1210
Avec plus de temps,
01:45
I'd try to tell you about the predictable reasons
36
105727
2294
je vous expliquerais les raisons prévisibles
qui font que le paradigme actuel ne marchera pas
01:48
why the current paradigm will not work
37
108063
1960
01:50
to build a superintelligence that likes you
38
110065
2460
pour construire une super IA qui nous aimera,
01:52
or is friends with you, or that just follows orders.
39
112567
3378
qui sera amicale ou qui sera soumise.
01:56
Why, if you press "thumbs up" when humans think that things went right
40
116613
4379
Quand on clique sur le pouce relevĂ© quand les humains pensent que c’est bien,
02:01
or "thumbs down" when another AI system thinks that they went wrong,
41
121034
3712
mais le pouce vers le bas quand un autre systùme d’IA pense que ce n’est pas bon,
02:04
you do not get a mind that wants nice things
42
124788
3503
pourquoi n’obtient-on pas un esprit qui souhaite des choses bonnes
02:08
in a way that generalizes well outside the training distribution
43
128291
4004
de façon Ă  se gĂ©nĂ©raliser avec fluiditĂ© hors de la distribution d’apprentissage
02:12
to where the AI is smarter than the trainers.
44
132337
2461
oĂč une IA est plus intelligente que ses formateurs ?
02:15
You can search for "Yudkowsky list of lethalities" for more.
45
135674
5130
Faites une recherche sur « Liste létale de Yudkowsky », pour en savoir plus.
02:20
(Laughter)
46
140804
1793
(Rires)
02:22
But to worry, you do not need to believe me
47
142597
2169
Mais il n’est pas indispensable de me croire pour ĂȘtre inquiet
02:24
about exact predictions of exact disasters.
48
144808
2878
des catastrophes prévisibles.
02:27
You just need to expect that things are not going to work great
49
147727
2962
Il suffit de penser que les choses ne se passeront pas super bien
02:30
on the first really serious, really critical try
50
150730
3045
dÚs la premiÚre tentative critique et vraiment sérieuse
02:33
because an AI system smart enough to be truly dangerous
51
153817
3503
car un systĂšme d’IA suffisamment intelligent pour ĂȘtre vraiment dangereux
02:37
was meaningfully different from AI systems stupider than that.
52
157362
3503
sera fondamentalement diffĂ©rent d’une IA plus stupide.
02:40
My prediction is that this ends up with us facing down something smarter than us
53
160907
5005
Mes prévisions sont que cela finira avec une chose plus intelligente que nous
02:45
that does not want what we want,
54
165954
1752
qui ne veut pas ce que nous voulons,
02:47
that does not want anything we recognize as valuable or meaningful.
55
167706
4170
qui ne veut rien de ce qui a de la valeur ou du sens Ă  nos yeux.
02:52
I cannot predict exactly how a conflict between humanity and a smarter AI would go
56
172252
4588
J’ignore quel serait le dĂ©roulement d’un conflit entre l’humanitĂ©
et une IA plus intelligente qu’elle,
02:56
for the same reason I can't predict exactly how you would lose a chess game
57
176881
3838
pour la mĂȘme raison qu’il est impossible de prĂ©dire comment perdre aux Ă©checs
03:00
to one of the current top AI chess programs, let's say Stockfish.
58
180760
3671
contre un des meilleurs programmes IA de jeu d’échecs, par exemple Stockfish.
03:04
If I could predict exactly where Stockfish could move,
59
184973
3545
Si je pouvais prédire exactement quels mouvements Stockfish va faire,
03:08
I could play chess that well myself.
60
188560
2544
je jouerais aussi bien aux Ă©checs que lui.
03:11
I can't predict exactly how you'll lose to Stockfish,
61
191146
2502
Donc, j’ignore comment on va perdre contre Stockfish,
03:13
but I can predict who wins the game.
62
193648
2044
mais je peux nĂ©anmoins prĂ©dire l’issue du jeu.
03:16
I do not expect something actually smart to attack us with marching robot armies
63
196401
4421
Je ne pense pas qu’une machine intelligente va nous attaquer
avec une armée de robots aux yeux rouges,
03:20
with glowing red eyes
64
200864
1543
03:22
where there could be a fun movie about us fighting them.
65
202407
3086
ce qui ferait un trĂšs bon film sur notre combat contre eux.
03:25
I expect an actually smarter and uncaring entity
66
205535
2502
Je pense qu’une entitĂ© plus intelligente et insensible
03:28
will figure out strategies and technologies
67
208079
2002
trouvera des stratégies et des technologies
03:30
that can kill us quickly and reliably and then kill us.
68
210123
3545
pour nous tuer rapidement et efficacement avant de nous exterminer.
03:34
I am not saying that the problem of aligning superintelligence
69
214461
2919
Je ne dis pas que le problùme d’aligner une super-intelligence
03:37
is unsolvable in principle.
70
217422
1710
est insoluble en théorie.
03:39
I expect we could figure it out with unlimited time and unlimited retries,
71
219174
4879
Avec un temps et des essais infinis, on pourrait certes trouver une solution,
03:44
which the usual process of science assumes that we have.
72
224095
3796
ce que le processus scientifique assume que nous avons aujourd’hui.
03:48
The problem here is the part where we don't get to say,
73
228308
2836
Le problĂšme est en partie dĂ» au fait qu’on ne pourra pas dire :
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
« Ho, flĂ»te ! Ça n’a pas marchĂ©.
03:53
That clever idea that used to work on earlier systems
75
233521
3837
Cette idée géniale fonctionnait pourtant sur des systÚmes plus anciens,
03:57
sure broke down when the AI got smarter, smarter than us.”
76
237358
3504
mais a failli quand l’IA est devenue plus beaucoup intelligente que nous. »
04:01
We do not get to learn from our mistakes and try again
77
241571
2544
On n’aura plus l’occasion d’apprendre de nos erreurs et de rĂ©essayer
04:04
because everyone is already dead.
78
244157
1960
car on sera tous morts.
04:07
It is a large ask
79
247076
2586
C’est une tñche gigantesque
04:09
to get an unprecedented scientific and engineering challenge
80
249704
3003
d’obtenir un rĂ©sultat correct au premier essai
d’un dĂ©fi scientifiquement et technologiquement aussi complexe.
04:12
correct on the first critical try.
81
252707
2002
04:15
Humanity is not approaching this issue with remotely
82
255084
3045
L’humanitĂ© n’aborde pas ce problĂšme
04:18
the level of seriousness that would be required.
83
258171
2711
avec le niveau de sérieux requis, et de loin.
04:20
Some of the people leading these efforts
84
260924
1918
Certains de ceux Ă  la tĂȘte de ces efforts
04:22
have spent the last decade not denying
85
262884
2502
n’ont pas niĂ© ces 10 derniĂšres annĂ©es
04:25
that creating a superintelligence might kill everyone,
86
265386
2920
que créer une super-intelligence pourrait nous tuer tous,
04:28
but joking about it.
87
268306
1376
mais ils ont tourné ça en dérision.
04:30
We are very far behind.
88
270183
1877
On est trĂšs en retard.
04:32
This is not a gap we can overcome in six months,
89
272101
2294
Ce n’est pas un Ă©cart que l’on pourra rattraper en six mois, les eussions-nous.
04:34
given a six-month moratorium.
90
274437
1919
04:36
If we actually try to do this in real life,
91
276689
2503
Si on tente vraiment cela dans la vraie vie,
04:39
we are all going to die.
92
279234
1668
on va tous mourir.
04:41
People say to me at this point, what's your ask?
93
281402
2586
À ce stade, on me demande souvent ce que je souhaite.
04:44
I do not have any realistic plan,
94
284697
1627
Je n’ai pas de plan rĂ©aliste,
04:46
which is why I spent the last two decades
95
286324
1960
c’est pour ça que j’ai consacrĂ© ces 20 derniĂšres annĂ©es
04:48
trying and failing to end up anywhere but here.
96
288326
2586
toujours en vain, Ă  essayer d’ĂȘtre entendu, sauf ici.
04:51
My best bad take is that we need an international coalition
97
291913
3670
Mon pire scĂ©nario est que nous avons besoin d’une coalition internationale
04:55
banning large AI training runs,
98
295625
2252
pour bannir de grands projets d’apprentissage des IA,
04:57
including extreme and extraordinary measures
99
297877
3379
dont des mesures extrĂȘmes et extraordinaires
05:01
to have that ban be actually and universally effective,
100
301256
3253
pour que ce moratoire soit réellement et universellement efficace,
05:04
like tracking all GPU sales,
101
304509
2377
comme un systÚme de traçage des ventes des GPU,
05:06
monitoring all the data centers,
102
306928
2127
la surveillance de tous les centres de données,
05:09
being willing to risk a shooting conflict between nations
103
309055
2711
la détermination à risquer un conflit armé entre des nations
05:11
in order to destroy an unmonitored data center
104
311808
2711
pour détruire un centre de données non surveillé,
05:14
in a non-signatory country.
105
314561
1793
dans un pays non-signataire.
05:17
I say this, not expecting that to actually happen.
106
317480
3170
Je dis cela sans trop d’espoir.
05:21
I say this expecting that we all just die.
107
321109
2919
Je dis cela en m’attendant à ce que nous mourrions tous.
05:24
But it is not my place to just decide on my own
108
324779
3295
Mais qui serais-je devant le choix de l’humanitĂ© de mourir,
05:28
that humanity will choose to die,
109
328074
2211
05:30
to the point of not bothering to warn anyone.
110
330326
2461
si je ne faisais pas tout pour l’avertir ?
05:33
I have heard that people outside the tech industry
111
333204
2336
Des gens extĂ©rieurs Ă  l’industrie technologique
05:35
are getting this point faster than people inside it.
112
335582
2627
aboutiraient Ă  la conclusion plus rapidement que ceux du domaine.
05:38
Maybe humanity wakes up one morning and decides to live.
113
338251
3712
L’humanitĂ© se rĂ©veillera peut-ĂȘtre un matin en dĂ©cidant de vivre.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
Merci d’avoir Ă©coutĂ© mon mini talk.
05:45
(Laughter)
115
345049
1585
(Rires)
05:46
(Applause and cheers)
116
346676
6965
(Applaudissements et acclamations)
05:56
Chris Anderson: So, Eliezer, thank you for coming and giving that.
117
356102
4421
Chris Anderson : Eliezer, merci d’ĂȘtre venu et pour votre message.
06:00
It seems like what you're raising the alarm about is that like,
118
360523
3962
On dirait que vous sonnez l’alarme sur le fait
06:04
for this to happen, for an AI to basically destroy humanity,
119
364527
3962
que pour que ça arrive, pour qu’une IA dĂ©truise l’humanitĂ©,
06:08
it has to break out, escape controls of the internet and, you know,
120
368489
5172
elle doit se libĂ©rer, Ă©chapper Ă  tout contrĂŽle de l’Internet
06:13
start commanding actual real-world resources.
121
373661
2920
et commencer Ă  contrĂŽler les ressources du vrai monde.
06:16
You say you can't predict how that will happen,
122
376581
2210
Vous ne pouvez pas prédire quand cela surviendra,
06:18
but just paint one or two possibilities.
123
378833
3462
mais vous esquissez deux possibles.
06:22
Eliezer Yudkowsky: OK, so why is this hard?
124
382337
2794
Eliezer Yudkowsky : Pourquoi est-ce si difficile ?
06:25
First, because you can't predict exactly where a smarter chess program will move.
125
385131
3837
Parce qu’on ne peut pas savoir quel mouvement un programme d’échecs va faire.
06:28
Maybe even more importantly than that,
126
388968
1877
Mais plus important encore,
06:30
imagine sending the design for an air conditioner
127
390887
2794
imaginez envoyer le plan d’un climatiseur au 11e siùcle.
06:33
back to the 11th century.
128
393723
1877
06:35
Even if they -- if it’s enough detail for them to build it,
129
395642
3128
MĂȘme si le plan est suffisamment dĂ©taillĂ© pour le fabriquer,
06:38
they will be surprised when cold air comes out
130
398811
2753
les gens seront surpris de sentir l’air frais sortir de la machine
06:41
because the air conditioner will use the temperature-pressure relation
131
401564
3670
car elle est fondée sur la relation entre la température et la pression
06:45
and they don't know about that law of nature.
132
405276
2461
et ils ignorent tout de cette loi de la nature.
06:47
So if you want me to sketch what a superintelligence might do,
133
407779
4629
Pour esquisser ce qu’une super-intelligence pourrait faire,
06:52
I can go deeper and deeper into places
134
412450
2336
je dois creuser toujours plus loin dans des domaines
06:54
where we think there are predictable technological advancements
135
414827
2962
oĂč l’on pense qu’il y aura des avancĂ©es technologiques prĂ©visibles,
06:57
that we haven't figured out yet.
136
417789
1626
mais dont on ignore tout.
06:59
And as I go deeper, it will get harder and harder to follow.
137
419415
2836
Et plus je creuserai, plus ce sera difficile de me suivre.
07:02
It could be super persuasive.
138
422251
1961
Ça pourrait ĂȘtre super convaincant.
07:04
That's relatively easy to understand.
139
424253
1877
C’est assez simple de comprendre.
07:06
We do not understand exactly how the brain works,
140
426130
2545
On ne comprend pas bien le fonctionnement du cerveau.
07:08
so it's a great place to exploit laws of nature that we do not know about.
141
428716
3504
C’est un bel endroit pour explorer les lois de la nature
qu’il nous reste Ă  dĂ©couvrir.
07:12
Rules of the environment,
142
432261
1502
L’environnement : inventer des nouvelles technologies qui vont plus loin.
07:13
invent new technologies beyond that.
143
433805
2669
07:16
Can you build a synthetic virus that gives humans a cold
144
436808
3879
Est-il possible de crĂ©er un virus synthĂ©tique de la grippe pour l’homme
07:20
and then a bit of neurological change and they're easier to persuade?
145
440728
4213
et qui apporte un peu de changement neurologique facilitant la persuasion ?
07:24
Can you build your own synthetic biology,
146
444941
3336
Pourra-t-on synthétiser sa propre biologie,
07:28
synthetic cyborgs?
147
448319
1585
des cyborgs synthétiques ?
07:29
Can you blow straight past that
148
449946
2044
Peut-on dépasser cela rapidement
07:31
to covalently bonded equivalents of biology,
149
451990
4004
pour atteindre des Ă©quivalents biologiques par liaison covalente ?
07:36
where instead of proteins that fold up and are held together by static cling,
150
456035
3754
Au lieu de protéines qui se structurent et tiennent ensemble statiquement,
07:39
you've got things that go down much sharper potential energy gradients
151
459789
3378
on obtiendrait des choses avec un potentiel énergétique plus grand
07:43
and are bonded together?
152
463209
1376
et qui sont liées ?
07:44
People have done advanced design work about this sort of thing
153
464585
3546
On a fait des avancées dans la conception de ce genre de choses,
07:48
for artificial red blood cells that could hold 100 times as much oxygen
154
468172
3879
par exemple, des globules rouges artificiels
capables d’absorber 100 fois plus d’oxygùne
07:52
if they were using tiny sapphire vessels to store the oxygen.
155
472093
3754
s’ils utilisent un petit vaisseau en saphir pour emmagasiner l’oxygùne.
07:55
There's lots and lots of room above biology,
156
475888
2586
La biologie est un terreau hyper fertile,
07:58
but it gets harder and harder to understand.
157
478474
2211
mais de plus en plus compliqué à comprendre.
08:01
CA: So what I hear you saying
158
481519
1543
CA : Ce que vous dites, en fait,
08:03
is that these terrifying possibilities there
159
483104
2294
c’est qu’il y a des possibles terrifiants
08:05
but your real guess is that AIs will work out something more devious than that.
160
485440
5130
mais que l’IA, selon vous, trouvera quelque chose d’encore plus tordu.
08:10
Is that really a likely pathway in your mind?
161
490570
3837
Est-ce votre fil de pensées ?
08:14
EY: Which part?
162
494407
1168
EY : Quelle partie ? Que l’IA est plus intelligente que moi ? Absolument.
08:15
That they're smarter than I am? Absolutely.
163
495616
2002
08:17
CA: Not that they're smarter,
164
497660
1418
CA : Non, le fait qu’elle voudrait aller dans une autre direction.
08:19
but why would they want to go in that direction?
165
499078
3045
08:22
Like, AIs don't have our feelings of sort of envy and jealousy and anger
166
502123
5422
Les IA ne partagent pas nos sentiments d’envie, de jalousie et de colùre,
08:27
and so forth.
167
507587
1168
par exemple.
08:28
So why might they go in that direction?
168
508755
2460
Alors, pourquoi iraient-elles dans cette direction-lĂ  ?
08:31
EY: Because it's convergently implied by almost any of the strange,
169
511215
4296
EY : L’implication convergente par presque toutes les choses Ă©tranges
08:35
inscrutable things that they might end up wanting
170
515511
3379
et impĂ©nĂ©trables qu’elles pourraient vouloir,
08:38
as a result of gradient descent
171
518931
1710
fruits de leur Ă©volution graduelle interne
08:40
on these "thumbs up" and "thumbs down" things internally.
172
520683
2711
suscitée par les pouces vers le haut ou vers le bas.
08:44
If all you want is to make tiny little molecular squiggles
173
524604
3920
Si on se limite à vouloir fabriquer des petits gribouillis moléculaires,
08:48
or that's like, one component of what you want,
174
528566
2461
ou un seul composant de ce que l’on veut,
08:51
but it's a component that never saturates, you just want more and more of it,
175
531069
3628
mais qui ne saturerait jamais et dont on voudrait toujours davantage,
08:54
the same way that we would want more and more galaxies filled with life
176
534697
3337
à l’image de notre vƓu de voir toujours plus de galaxies avec la vie
08:58
and people living happily ever after.
177
538034
1793
et des gens heureux Ă  jamais.
08:59
Anything that just keeps going,
178
539869
1627
Tout ce qui se perpétue sans fin
09:01
you just want to use more and more material for that,
179
541537
3045
et pour lequel on voudrait utiliser toujours plus de matériau pour ça,
09:04
that could kill everyone on Earth as a side effect.
180
544624
2669
et qui pourrait tuer l’humanitĂ© par effet secondaire
09:07
It could kill us because it doesn't want us making other superintelligences
181
547293
3545
car elle ne veut pas que nous crĂ©ions d’autres super-intelligences
09:10
to compete with it.
182
550880
1168
qui la détrÎneraient.
09:12
It could kill us because it's using up all the chemical energy on earth
183
552048
4379
Ou parce qu’elle consommerait toute l’énergie chimique de la Terre
09:16
and we contain some chemical potential energy.
184
556469
2586
et nous faisons partie de ce réservoir chimique énergétique.
09:19
CA: So some people in the AI world worry that your views are strong enough
185
559055
6256
CA : Des personnes du monde de l’IA craignent
que votre point de vue soit suffisamment puissant,
ou extrĂȘme, affirmeront-elles,
09:25
and they would say extreme enough
186
565311
1585
09:26
that you're willing to advocate extreme responses to it.
187
566896
3170
pour que vous dĂ©fendiez des rĂ©actions tout aussi extrĂȘmes.
09:30
And therefore, they worry that you could be, you know,
188
570066
3462
Et donc, ils craignent que vous puissiez devenir,
09:33
in one sense, a very destructive figure.
189
573528
1918
d’une certaine maniùre, un personnage destructeur.
09:35
Do you draw the line yourself in terms of the measures
190
575488
3170
Avez-vous défini une limite en termes de mesures
09:38
that we should take to stop this happening?
191
578699
2753
que nous devrions prendre pour empĂȘcher un tel avenir sombre ?
09:41
Or is actually anything justifiable to stop
192
581494
3253
Ou bien n’importe quoi est-il permis pour empĂȘcher
09:44
the scenarios you're talking about happening?
193
584747
2211
les scénarios que vous envisagez ?
09:47
EY: I don't think that "anything" works.
194
587834
3253
EY : Je ne pense pas que « n’importe quoi » fonctionnera.
09:51
I think that this takes state actors
195
591087
4379
Je pense que cela nĂ©cessitera des États
09:55
and international agreements
196
595508
2753
et des accords internationaux.
09:58
and all international agreements by their nature,
197
598302
3254
Or tout accord international, par définition,
10:01
tend to ultimately be backed by force
198
601556
1876
a tendance Ă  ĂȘtre soutenu par une force
10:03
on the signatory countries and on the non-signatory countries,
199
603474
3379
des pays signataires et non-signataires qui est elle-mĂȘme une mesure plus extrĂȘme.
10:06
which is a more extreme measure.
200
606894
1794
10:09
I have not proposed that individuals run out and use violence,
201
609856
2961
Je ne suggùre pas de sortir dans la rue et d’avoir recours à la violence
10:12
and I think that the killer argument for that is that it would not work.
202
612859
4337
et la bonne raison pour ça est que ce serait inadapté.
10:18
CA: Well, you are definitely not the only person to propose
203
618489
2961
CA : Vous n’ĂȘtes certainement pas le seul Ă  suggĂ©rer
10:21
that what we need is some kind of international reckoning here
204
621450
4004
que nous ayons besoin d’une prise de conscience internationale
10:25
on how to manage this going forward.
205
625496
2044
sur la gestion de l’évolution de ces technologies.
10:27
Thank you so much for coming here to TED, Eliezer.
206
627540
2419
Merci de nous avoir rejoints, Eliezer.
10:30
(Applause)
207
630001
2085
(Applaudissements)
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7