Is Humanity Smart Enough to Survive Itself? | Jeanette Winterson | TED

73,392 views ・ 2022-09-01

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Giulia Scolozzi Revisore: Gabriella Patricola
00:03
Here's what gives me hope for humanity.
0
3792
2961
Ecco cosa mi dà speranza per l’umanità.
00:08
I believe that we can change our human nature for the better.
1
8338
5964
Credo che possiamo cambiare la nostra natura umana in meglio.
00:15
This chance is unique.
2
15804
2461
Questa occasione è unica.
00:19
It's where we stand in history right now.
3
19015
3629
Determina dove ci collochiamo nella storia, proprio adesso.
00:23
No other generation has stood here before us.
4
23270
4671
Nessun’altra generazione si è ritrovata a questo punto, prima di noi.
00:29
Homo sapiens has been around for about 300,000 years.
5
29025
5881
L’homo sapiens è stato in circolazione per circa 300.000 anni.
00:35
Other humanoid life forms have come and gone.
6
35740
3587
Altre forme di vita umanoide sono andate e venute.
00:39
We find their traces.
7
39327
1752
Ne abbiamo trovato le tracce.
00:41
We search for their stories.
8
41079
1919
Ne abbiamo ricostruito la storia.
00:43
But we are the success story.
9
43039
3671
Ma siamo noi la storia di successo.
00:47
We've survived natural disasters, famines, floods, earthquakes, plagues,
10
47419
5839
Siamo sopravvissuti a disastri naturali,
carestie, alluvioni, terremoti, epidemie, mammut lanosi,
00:53
woolly mammoths, mess-ups of our own making.
11
53300
4504
e casini di nostra creazione.
00:57
We're smart, no question.
12
57846
2419
Siamo intelligenti, senza dubbio.
01:01
The question is: Are we smart enough to survive how smart we are?
13
61016
6965
Il punto è: siamo abbastanza intelligenti da sopravvivere alla nostra intelligenza?
01:10
It's not looking so good just now, is it?
14
70191
3504
Non sembra promettere tanto bene al momento, giusto?
01:13
(Laughter)
15
73695
1543
(Risate)
01:15
We stand facing the possibility of global conflict.
16
75238
4380
Ci ritroviamo di fronte alla possibilità di un conflitto mondiale.
01:19
If that happens,
17
79618
1626
Se si concretizzerà,
01:21
it will be our Third World War
18
81244
3087
sarà la nostra Terza Guerra Mondiale
01:24
in not much more than 100 years.
19
84372
3295
in poco più di 100 anni.
01:29
If Putin's violence stops today, the problem doesn't go away.
20
89127
6423
Se la violenza di Putin si fermasse oggi, il problema non svanirebbe.
01:35
As across the globe
21
95592
1960
D’altronde in tutto il globo
01:37
dictatorism threatens democracy.
22
97594
5130
l’autoritarismo minaccia la democrazia.
01:44
I wonder whether as a species
23
104851
4004
Mi chiedo se come specie
01:48
we can survive any of this,
24
108855
4880
possiamo sopravvivere a tutto questo.
01:53
even if those threats disappear.
25
113735
2252
Anche laddove quelle minacce sparissero.
01:57
Those living inside the snow globe of their magical thinking
26
117280
6131
Quelli che vivono nella bolla di cristallo creata dal loro pensiero magico
02:03
will not be insulated against the facts of climate breakdown.
27
123411
5756
non saranno protetti dalla realtà del cambiamento climatico.
02:09
And yet, still, we go on heating up the planet.
28
129209
4754
Eppure, ancora continuiamo a surriscaldare il pianeta.
02:14
Still we go on polluting the earth.
29
134005
2836
Ancora continuiamo a inquinare la terra.
02:16
Still we despoil
30
136883
3462
Ancora continuiamo a depredare
02:20
our precious natural resources.
31
140387
4129
le nostre preziose risorse naturali.
02:25
250 years ago, we kick-started the Industrial Revolution.
32
145809
6089
250 anni fa, abbiamo messo in moto la Rivoluzione Industriale.
02:31
The machine age.
33
151898
1960
L’età della macchina.
02:33
It's when we first hear the buzzwords of the modern moment.
34
153858
4046
È stato allora che abbiamo sentito le parole tanto in voga in epoca moderna.
02:37
Disruption, acceleration.
35
157904
2961
Distruzione. Accelerazione.
02:40
That's Karl Marx, actually.
36
160865
1752
Questo è Karl Marx, in realtà.
02:43
Acceleration of production,
37
163618
2211
Accelerazione della produzione: il sistema di fabbrica.
02:45
the factory system, acceleration of transport,
38
165829
3920
Accelerazione dei trasporti: l’avvento delle ferrovie.
02:49
the coming of the railways.
39
169791
1668
02:51
No need for ships to wait for the wind.
40
171501
2628
Niente più necessità di navi in attesa del vento,
02:54
Coal-fired, steam-powered.
41
174170
2753
ma alimentazione a carbone e trazione a vapore.
02:56
Acceleration of information.
42
176965
2335
Acelerazione dell’informazione:
03:00
The global village.
43
180510
2252
il villaggio globale.
03:02
And it's when we start digging fossil fuels out of the ground
44
182804
3128
Ed è quando abbiamo iniziato a scavare per estrarre combustibili fossili
03:05
in planet-changing quantities,
45
185974
1877
in quantità lesive per il pianeta,
03:07
when we start pushing carbon dioxide into the atmosphere.
46
187892
4839
quando abbiamo iniziato a rilasciare diossido di carbonio nell’atmosfera,
03:12
In a salami slice of space-time,
47
192731
4004
che in un finestra ristrettissima di spazio-tempo,
03:16
human beings have changed the way that we live on the planet forever.
48
196735
6506
gli esseri umani hanno mutato il modo di vivere su questo pianeta per sempre.
03:23
We've moved out of the agricultural economies
49
203241
3253
Abbiamo superato le economie agricole,
03:26
of our evolutionary inheritance
50
206494
2461
frutto della nostra eredità evolutiva,
03:28
into the industrial economies and beyond of where we are now.
51
208997
5213
e siamo entrati nell’economia industriale e oltre, fin dove siamo ora.
03:35
There's no one else for us to turn to.
52
215670
3087
Non c’è nessun altro a cui rivolgerci.
03:38
There's no one else for us to blame.
53
218798
2878
Non c’è nessun altro da biasimare.
03:41
There is no us and them.
54
221718
1793
Non c’è un noi e un loro.
03:43
There's only us.
55
223553
1251
C’è solo un noi.
03:46
So will we continue to be the success story of the known universe,
56
226097
5547
Vorremo continuare a essere la storia di successo dell’universo conosciuto,
03:51
or are we writing our own obituary?
57
231686
4088
o stiamo già scrivendo il nostro necrologio?
03:55
The suicide species?
58
235774
2627
La specie suicida.
03:58
Now I was raised in an evangelical household.
59
238401
4213
Ora, io sono stata cresciuta in una famiglia evangelica.
04:02
We lived in end time.
60
242614
2836
Abbiamo vissuto nel “tempo della fine”.
04:05
We were waiting for things to get so bad
61
245450
2377
Aspettavamo che le cose si mettessero talmente male
04:07
that Jesus would come back and save us.
62
247827
3545
che Gesù sarebbe tornato per salvarci.
04:11
The apocalypse.
63
251414
1502
L’apocalisse.
04:12
It's what the prepper communities are, well, prepping for.
64
252957
5339
È quello a cui le comunità prepper si preparano, diciamo.
04:19
And it's why super rich white guys are buying up tracts of land,
65
259339
5046
È il motivo per cui dei ricconi bianchi stanno acquistando distese di terra,
04:25
hoping that they can live inside
66
265637
3336
sperando di poter vivere
dentro una specie di Arca di Noe dotata di wi-fi.
04:29
a kind of wi-fi-enabled Noah's Ark.
67
269015
4254
04:33
(Laughter)
68
273311
1502
(Risate)
04:36
Well, we can have the end time if we want it.
69
276356
3795
Possiamo avere la nostra fine dei giorni, se proprio lo vogliamo.
04:40
We know those stories from our religions, our sci-fi, our movies.
70
280151
4963
Sappiamo come. Ce l’hanno insegnato le religioni, la fantascienza, i film.
04:45
We are uniquely placed to bring on the apocalypse.
71
285990
3754
Siamo gli unici in grado di provocare l’apocalisse.
04:51
And we're uniquely placed to save ourselves, too.
72
291204
4880
Ma siamo anche gli unici in grado di salvarci,
04:56
If we could accept that as a species,
73
296125
2503
se riusciamo ad accettare che, come specie,
04:58
Homo sapiens needs to evolve further.
74
298670
4045
l’homo sapiens dovrà evolversi ulteriormente.
05:02
And that's what gives me hope,
75
302757
1460
E questo mi infonde speranza,
05:04
because we have the means to evolve further.
76
304259
3670
perché abbiamo i mezzi per evolverci ancora.
05:07
And that's AI.
77
307971
2252
E parlo di Intelligenza Artificiale.
05:10
Now look, I don't mean the geeks will inherit the earth.
78
310265
3336
Ora, non intendo dire che i nerd erediteranno il pianeta.
05:13
I'm sorry, geeks. You won't.
79
313643
1877
Mi dispiace, nerd. Non succederà.
05:15
(Laughter)
80
315562
1001
(Risate)
05:16
I don’t really want to talk about narrow- goal artificial intelligence at all.
81
316563
3670
Non voglio parlare dell’obiettivo a breve termine dell’IA.
05:20
That term of John McCarthy’s, “artificial intelligence,”
82
320233
2836
Il termine “intelligenza artificiale”, coniato da John McCarthy,
05:23
is it any use to us now?
83
323069
1960
ci è di qualche utilità ora?
05:25
I'd rather call it alternative intelligence.
84
325029
3921
Io preferirei chiamarla piuttosto intelligenza alternativa.
05:28
And I think humankind is in need of some alternative intelligence.
85
328950
5505
E penso che il genere umano sia in cerca di una qualche intelligenza alternativa.
05:34
In 1965, Jack Good talked about AI as our last invention.
86
334497
6840
Nel 1965, Jack Good parlò dell’IA come della nostra ultima invenzione.
05:41
He meant superintelligence,
87
341379
1877
Lui intendeva la superintelligenza,
05:43
the kind of thing that worries Bill Gates and Elon Musk.
88
343298
3962
quel tipo di cosa che allarma Bill Gates e Elon Musk.
05:47
You know, the "Terminator" scenario.
89
347302
3169
Sapete, una quadro alla “Terminator”.
05:51
The final us and them.
90
351973
2961
Il “noi e loro” definitivo.
05:54
But I think that's all to do with our doomster mindset.
91
354976
3921
Ecco, credo che quello abbia a che fare con la nostra mentalità catastrofista.
05:58
We don't have to vote for the apocalypse.
92
358897
3169
Non dobbiamo scegliere l’apocalisse per forza.
06:02
Jack Good worked at Bletchley Park with Alan Turing during World War II,
93
362066
4964
Jack Good lavorava a Bletchley Park con Alan Turing
durante la Seconda Guerra Mondiale,
06:07
building the early computing machinery that would crack the Nazi Enigma code.
94
367030
5589
sviluppando la prima macchina informatica
che avrebbe decifrato il codice Enigma dei nazisti.
06:12
Now after the war, Turing, wrestling with the problems
95
372619
3795
Dopo la fine della guerra, Turing,
alle prese con i problemi di un computer programmato a nastro magnetico,
06:16
of a stored, programmed computer
96
376456
3295
06:19
had a bigger dream on his mind.
97
379792
3087
aveva in mente un sogno più grande.
06:22
And in 1950, Alan Turing published a paper
98
382921
4337
E nel 1950, Alan Turing pubblicò un articolo scientifico
06:27
called “Computing Machinery and Intelligence.”
99
387300
3712
intitolato ”Computing Machinery and Intelligence”.
06:31
And in there, there's a chapter that's titled "Lady Lovelace's Objection"
100
391054
4296
Lì c’è un capitolo, dal titolo “L’Obiezione di Lady Lovelace”,
06:35
where Turing time-travels back 100 years
101
395391
2962
in cui Turing viaggia indietro nel tempo, a 100 anni fa
06:38
to have a conversation with that long-dead genius,
102
398394
3128
per intrattenere una conversazione con la luminare da lungo scomparsa,
06:41
Ada Lovelace, the first person to write mathematical programs for the computer
103
401522
5881
Ada Lovelace, la prima persona ad aver scritto programmi matematici
per il computer non ancora messo a punto dall’amico Charles Babbage.
06:47
not yet built by her friend Charles Babbage.
104
407403
4129
06:52
Now Ada wrote that as well as doing awesome stuff with numbers,
105
412200
4171
Ada scrisse che oltre a fare cose incredibili coi numeri,
06:56
the computer would, if correctly programmed,
106
416371
3128
se programmato correttamente, il computer sarebbe stato
06:59
be able to write novels and compose music.
107
419540
3421
in grado di scrivere romanzi e comporre musica.
07:03
That is a pretty big insight in 1843.
108
423002
3504
Era una prospettiva niente male per essere il 1843.
07:08
"But," said Ada, "The computer should never have any pretensions
109
428257
4463
“Ma,” disse Ada, “il computer non dovrà mai avere alcuna pretesa
07:12
to originate anything."
110
432762
2669
di dare origine a nulla.”
07:15
She meant, think creatively.
111
435473
2628
Intendeva come processo creativo autonomo.
07:18
Well, Ada's father was Lord Byron, England's most famous poet,
112
438142
4296
Il padre di Ada era Lord Byron, il poeta più famoso d’Inghilterra.
07:22
and England is the land of Shakespeare.
113
442438
2586
E l’Inghilterra è anche la patria di Shakespeare.
07:25
More poets.
114
445024
1293
E altri poeti.
07:26
And Ada had seen Charles Babbage's kit all over the floor,
115
446317
3212
Ada aveva visto il kit di Babbage sparpagliato sul pavimento,
07:29
and she wasn’t having some steampunk, coal-fired nuts, bolts, bezels, levers,
116
449529
6298
e non aveva avuto una visione steampunk di una macchina a manovella,
alimentata a pepite di carbone, fatta di bulloni, cornici, leve,
07:35
gears, cogs and chains, crank-handled machine writing poetry.
117
455827
5213
ingranaggi e catene in grado di creare poesie.
07:42
"Well," said Alan Turing, "Was Lady Lovelace, correct?
118
462333
3921
“Bene”, disse Alan Turing, “quindi Lady Lovelace aveva ragione?”
07:46
Could a computer ever be said to originate anything?
119
466295
4422
Si potrebbe mai ritenere un computer in grado generare qualunque cosa?
07:50
And what would be the difference between computing intelligence
120
470758
3629
Quindi quale sarebbe la differenza tra intelligenza computazionale
07:54
and human intelligence?"
121
474429
2586
e intelligenza umana?
07:57
Well, I'll tell you one difference, and it's optimistic.
122
477056
2670
Vi presento una differenza, abbastanza ottimistica.
07:59
Computing power uses binary,
123
479767
2711
La potenza di calcolo informatico utilizza il codice binario,
08:02
but computing intelligence is nonbinary.
124
482520
3670
ma l’intelligenza informatica no, è non-binaria.
08:06
It's humans who are obsessed with false binaries.
125
486983
2836
Sono gli umani, quelli ossessionati da false opposizioni binarie.
08:09
Male, female. Masculine, feminine.
126
489819
2628
Maschio, femmina. Maschile, femminile.
08:12
Black, white. Human, non-human.
127
492447
2377
Bianco, nero. Umano, non umano.
08:14
Us, them.
128
494824
1460
Noi, loro.
08:17
AI has no skin color.
129
497493
3170
L’IA non ha colore della pelle.
08:20
AI has no race, no gender, no faith in a sky God.
130
500705
6673
Non ha razza, né genere. Non ha fede in un dio del cielo.
08:27
AI is not interested in men being superior to women,
131
507420
4880
L’IA non ha interessamento in una superiorità dell’uomo sulla donna,
08:32
in white folks being smarter than people of color.
132
512341
4380
né nell’idea che i bianchi siano più intelligenti dei neri.
08:36
Straight, gay, gay, trans are not separating categories for AI.
133
516763
6256
Etero, gay, trans non sono categorie a sé per l’Intelligenza Artificiale.
08:43
AI does not distinguish between success and failure
134
523770
3545
L’intelligenza Artificiale non distingue il successo dal fallimento
08:47
by gold bars, yachts and Ferraris.
135
527315
2252
misurando lingotti d’oro, yatch e Ferrari.
08:49
AI is not motivated by fame and fortune.
136
529567
3504
L’IA non è mossa da fama e fortuna.
08:53
If we develop alternative intelligence, it will be Buddhist in its non-needs.
137
533071
6089
Se creassimo un’intelligenza alternativa, sarebbe buddista nel suo non-attaccamento.
09:00
(Applause)
138
540411
2252
(Applausi)
09:02
Now I am aware that the algorithms ubiquitous in everyday life
139
542663
4880
Ora, sono consapevole che gli algoritmi onnipresenti nella vita di tutti i giorni
09:07
are racist, sexist, gendered, trivializing,
140
547585
4463
siano razzisti, sessisti, genderizzati, banalizzanti,
09:12
stoke division, amplify bias.
141
552090
3628
e che alimentano la divisione e radicalizzano la polarizzazione.
09:16
But what is this teaching us about ourselves?
142
556552
3212
Ma questo cosa ci insegna riguardo a noi stessi?
09:19
AI is a tool.
143
559806
1251
L’IA è uno strumento.
09:21
We are the ones who are using the tool.
144
561099
1918
E siamo noi a usarlo.
09:24
Hatred and contempt, money and power
145
564185
3045
Odio e disprezzo, denaro e potere sono specialità nostre,
09:27
are human agendas, not AI agendas.
146
567230
4337
non dell’Intelligenza Artificiale.
09:32
We've been forced to recognize the paucity,
147
572401
4547
Siamo stati costretti a riconoscere la carenza,
09:36
the inadequacy of our data sets.
148
576948
2252
la fallacia della nostra raccolta dati.
09:39
And humans are trained on data sets too.
149
579200
2586
Eppure gli umani sono preparati per raccogliere dati.
09:43
We've had to recognized the unacknowledged ideologies
150
583037
5297
Abbiamo dovuto riconoscere le ideologie misconociute
09:48
that we live by every day.
151
588376
2586
a cui ci rifacciamo ogni giorno.
09:51
Rationality, neutrality, logic, objective decision-making.
152
591879
5714
Razionalità, neutralità, logica, obiettività decisionale.
09:57
What can we say about any of that
153
597635
1627
Che possiamo dire su tutto questo
09:59
when we see what we are reflected back to us
154
599303
3170
quando scorgiamo il riflesso di ciò che siamo
10:02
in the small screen?
155
602515
1585
su un piccolo schermo
10:04
And it's not a pretty sight.
156
604767
2252
e notiamo che non è un bello spettacolo?
10:07
AI is not yet self-aware.
157
607061
2294
L’IA non è ancora autocosciente.
10:10
But we are becoming more self-aware as we work with AI
158
610356
5631
Ma noi stiamo diventando più autocoscienti grazie all’IA,
10:15
and we realize that Homo sapiens is no longer fit for purpose.
159
615987
4171
realizzando così che l’homo sapiens non è più adeguato allo scopo.
10:20
We need a reboot.
160
620158
1292
Ci serve un nuova versione.
10:21
So what are we going to choose?
161
621450
1544
E allora cosa sceglieremo, l’apocalisse o un’alternativa?
10:22
Apocalypse or an alternative?
162
622994
3795
10:26
I believe that humans have a strong future as a hybrid species
163
626831
4296
Io credo che gli umani abbiano un futuro stabile come specie ibrida,
10:31
as we start to merge with the biotechnology we're creating,
164
631169
4004
mentre cominciamo a fonderci con le biotecnologie che stiamo creando,
10:35
whether that's nanobots in the bloodstream,
165
635214
2920
sia che si tratti di nanorobot in circolo nel flusso sanguigno,
10:38
monitoring our vital systems,
166
638176
2168
che monitorano i nostri sistemi vitali,
10:40
whether it's genetic editing,
167
640386
2127
o di editing genetico.
10:42
whether it's 3D printing of bespoke body parts,
168
642555
3879
Sia che si tratti di stampa 3D di parti del corpo su misura,
10:46
whether it’s neural implants that will connect us directly to the web
169
646475
3921
o di impianti neurali che permetteranno di connetterci alla rete e l’un l’altro,
10:50
and to one another,
170
650396
1585
10:51
insourcing information, enhancing our cognitive capacities.
171
651981
4338
immagazzinando informazioni e potenziando le nostre capacità cognitive.
10:56
And if we manage to upload consciousness,
172
656319
3461
E se riusciamo a caricare in rete la nostra coscienza,
10:59
I think that the shift from the transhuman to the posthuman world
173
659780
4171
Io penso che il passaggio dal mondo transumano a quello postumano
11:03
will seem natural, an evolutionary necessity.
174
663951
4088
apparirà naturale, una necessità evolutiva.
11:08
Why do I say that?
175
668080
1252
Come faccio a dirlo?
11:09
I say that because for millennia,
176
669373
2002
Perché per millenni,
11:11
all human beings have been obsessed with the big question,
177
671417
3212
tutti gli umani sono stati ossessionati dal grande dilemma,
11:14
the absurdity of death.
178
674670
2753
l’assurdità della morte.
11:18
We asked, "Do we have souls?"
179
678174
3045
Ci siamo chiesti: “Abbiamo un’anima?”
11:21
We watched the spirit wait to leave the body.
180
681260
3212
Abbiamo vegliato lo spirito in attesa che lasciasse il corpo.
11:25
We created the world's first disruptive startup, the afterlife.
181
685348
5505
Abbiamo creato la prima startup innovativa al mondo:
l’aldilà.
11:31
(Laughter)
182
691562
1710
(Risate)
11:33
Now a multinational company,
183
693272
2461
Ora è diventata una multinazionale,
11:35
with a vast VR real estate portfolio.
184
695733
3587
con un enorme portfolio immobiliare virtuale.
11:39
A mansion in the sky,
185
699320
1752
Una villa tra le nuvole.
11:41
sir?
186
701072
1251
11:43
Our earliest extant written narrative, The Epic of Gilgamesh,
187
703574
4338
La nostra primissina opera letteraria in forma scritta, L’Epopea di Gilgamesh,
11:47
is a journey to discover if there is life after death.
188
707912
3378
è un viaggio alla ricerca di un’ipotetica vita dopo la morte.
11:51
And what is life after death?
189
711332
2836
Ma cos’è questa vita dopo la morte?
11:54
It is the extension of the self beyond biological limits.
190
714210
5213
È l’estensione dell’essere oltre ogni limite biologico.
11:59
Now I’m a writer, and I wonder, have we been telling the story backwards?
191
719465
4713
Ora io sono una scrittrice e mi chiedo, abbiamo raccontato la storia all’indietro?
12:04
Did we know we would always get here,
192
724720
2044
Sapevamo da sempre che saremmo arrivati qui,
12:06
capable of creating the kind of superintelligence
193
726806
3795
in grado di creare il tipo di superintelligenza
12:10
that we said created us?
194
730643
1918
che reputiamo abbia creato noi?
12:12
We're told were made in God's image.
195
732603
1752
Dicono siamo stati creati a immagine di Dio.
12:14
God is immortal. God is not a biological entity.
196
734355
3712
Dio è eterno. Dio non è un’entita biologica.
12:19
Since the 17th century, the Enlightenment,
197
739527
3044
A partire dall’Illuminismo,
12:22
science and religion have parted company.
198
742571
2503
scienza e religione hanno preso strade separate.
12:25
And science said, all that God thinking, the afterlife stuff,
199
745074
4254
La scienza ha sostenuto che il giudizio divino, tutta quella faccenda sull’aldilà,
12:29
it's folly, It's ignorance, it's superstition.
200
749328
2753
fosse follia, ignoranza, superstizione.
12:32
Suppose it was intuition.
201
752123
1751
Ma mettiamo fosse un’intuizione.
12:33
Suppose it was the only way we could talk about what we knew,
202
753916
3379
Mettiamo fosse l’unico modo per parlare di qualcosa che conoscevamo,
12:37
a fundamental, deep truth
203
757336
1710
una profonda verità fondamentale,
12:39
that this is not the last word.
204
759088
2336
e che questa non è la conclusione.
12:41
This is not the end of the story.
205
761465
3087
Che questa non è la fine della storia.
12:44
That we are not time-bound creatures caught in our bodies.
206
764593
4588
Che non siamo creature mortali intrappolate nel nostro corpo.
12:49
That there is further to go.
207
769223
2336
Che c’è altro da vedere.
12:51
I'm fascinated that computing, science and religion,
208
771600
3045
Mi affascina che informatica, scienza e religione
12:54
like parallel lines that do meet in space,
209
774687
3295
come rette parallele che si incontrano eccome nello spazio,
12:57
are now asking the same question:
210
777982
2336
ora si stiano ponendo la stessa domanda:
13:00
Is consciousness obliged to materiality?
211
780318
5005
la coscienza è legata a una materialità?
13:06
Now ...
212
786574
1293
Ora,
13:07
I accept that machine intelligence
213
787867
3545
accetto che l’intelligenza delle macchine sfiderà l’intelligenza degli umani.
13:11
will challenge human intelligence.
214
791412
2377
13:13
But the mythos of the world is built around a group of stories
215
793831
4421
Ma il mito del mondo è costruito attorno a una serie di storie
13:18
that showcase an encounter between a human and a nonhuman entity.
216
798294
5797
che presentano uno scontro tra un’entità umana e una non umana.
13:24
Think of Jacob wrestling the angel.
217
804133
2544
Pensate a Giacobbe, che lotta con l’Angelo.
13:26
Think of Prometheus bringing fire down from the gods.
218
806719
4087
Pensate a Prometeo, che ruba il fuoco agli Dèi.
13:30
In these encounters, both parties are changed,
219
810848
3295
Durante questi scontri, ambo le parti vengono trasformate,
13:34
not always for the better.
220
814185
1334
non sempre in meglio.
13:35
But it generally works out.
221
815561
1627
Ma di solito accade.
13:37
We've been thinking about this stuff forever.
222
817188
2711
Abbiamo pensato a queste cose da sempre.
13:39
It's time that we created it.
223
819899
2878
Ora è tempo di realizzarle.
13:42
And we could have some fun stuff too.
224
822777
1835
Magari potremo avere anche cose simpatiche.
13:44
Who wants their own AI angel?
225
824612
2586
Chi vuole il suo angelo artificiale custode?
13:47
Me.
226
827198
1751
Io.
13:48
There's a message in a bottle about this 200 years ago.
227
828949
3170
C’è un messaggio in una bottiglia su questo risalente a 200 anni fa.
13:53
When Ada Lovelace was busy getting born,
228
833037
2461
Quando Ada Lovelace era impegnata a venire al mondo,
13:55
her father, Lord Byron, was on holiday on Lake Geneva
229
835539
3587
suo padre, Lord Byron, era in vacanza sul Lago di Ginevra
13:59
with his friend, the poet Percy Shelley,
230
839168
2252
col suo amico, il poeta Percy Shelley,
14:01
and Shelley's wife, Mary Shelley.
231
841462
3045
e la moglie di Shelley, Mary.
14:04
On a wet weekend with no internet
232
844548
2169
Durante un weekend uggioso senza internet,
14:06
Byron said --
233
846759
1376
Byron disse:
14:08
(Laughter)
234
848177
1460
(Risate)
14:09
"Let's write horror stories."
235
849678
2169
“Scriviamo qualche storia horror.”
14:11
You know what happened.
236
851889
1251
Conoscete il resto.
14:13
Out of that came the world's most famous monster, Frankenstein.
237
853182
3212
È lì che nacque il mostro più famoso al mondo, Frankenstein.
14:16
This is 1816, the start of the Industrial Revolution.
238
856435
3504
Siamo nel 1816, l’inizio della Rivoluzione Industriale.
14:19
Mary Shelley is just 19 years old.
239
859939
2752
Mary Shelley aveva solo 19 anni.
14:22
In that novel, there is an alternative intelligence
240
862691
3671
In quel romanzo, c’è un esempio di intelligenza alternativa,
14:26
made out of the body parts from the graveyard and electricity.
241
866362
4004
fatta di pezzi di cadaveri presi da un cimitero ed elettricità.
14:30
An astonishing vision
242
870366
1293
Un’idea sbalorditiva
14:31
because electricity was not in any practical use at all
243
871659
3462
perché l’elettricità non era affatto in uso per usi pratici specifici
14:35
and was hardly understood as a force.
244
875121
2669
ed era a malapena riconosciuta come una forza.
14:37
You know what happens. The monster is not named. Not educated.
245
877832
4129
Conoscete la trama della storia. Il mostro non ha nome, né istruzione.
14:42
Is outcast by his panicky creator, Victor Frankenstein.
246
882002
4046
È abbandonato dal suo creatore terrorizzato, Victor Frankenstein.
14:46
And the whole thing ends in a chase across the Arctic ice
247
886090
3712
E tutta la vicenda culmina con una caccia tra i ghiacci artici,
14:49
towards a Götterdämmerung of death and destruction.
248
889844
3336
in un Armageddon di morte e distruzione.
14:53
The death wish that human beings are so drawn to,
249
893222
3337
Il desiderio di morte da cui gli umani sono così attratti
14:56
perhaps because it's easier to give up than to carry on.
250
896600
3212
dipende forse dall’idea che è più facile arrendersi, che tirare avanti.
15:01
Well, we're the first generation
251
901063
1960
Noi siamo la prima generazione
15:03
who can read Mary Shelley's novel in the right way,
252
903023
3295
che può leggere il romanzo di Mary Shelley nel modo giusto,
15:06
as a flare flung across time,
253
906318
2253
come un segnale che attraversa il tempo,
15:08
because we too could create an alternative intelligence,
254
908571
4004
perché anche noi potremmo creare un’intelligenza alternativa,
15:12
not out of the body parts from the graveyard using electricity,
255
912575
4087
non da resti umani in decomposizione o servendoci dell’elettricità,
15:16
but out of zeros and ones of code.
256
916662
2711
ma con i zero e gli uno del codice.
15:19
And how is this going to end? Utopia or dystopia?
257
919415
3336
E come andrà a finire? Sarà utopia o distopia?
15:22
It's up to us.
258
922793
1835
Questo sta a noi.
15:24
Endings are not set in stone.
259
924670
2211
I finali non sono scolpiti nella pietra.
15:27
We change the story because we are the story.
260
927756
4046
Noi cambiamo la storia perchè noi siamo la storia.
15:31
Now, Marvin Minsky called alternative intelligence
261
931844
3962
Ora, Marvin Minsky ha chiamato l’intelligenza alternativa
15:35
our "mind children."
262
935848
2586
i “figli della nostra mente”.
15:38
Could we as proud parents accept
263
938476
3712
Potremmo noi, da fieri genitori, accettare
15:42
that the new generation that we will create
264
942188
3086
che la nuova generazione, quella che creeremo,
15:45
will be smarter than we are?
265
945274
2252
sarà più intelligente di quanto lo siamo noi?
15:47
And could we accept that the new generation we create
266
947526
4171
E potremmo accettare che quella stessa nuova generazione
15:51
need not be on a substrate made of meat?
267
951697
3462
non dovrà necessariamente svilupparsi su un substrato fatto di carne?
15:55
Thank you.
268
955159
1293
Vi ringrazio.
15:56
(Applause)
269
956452
6882
(Applausi)
16:03
Thank you.
270
963334
1251
Grazie.
16:07
Thank you very much. Thank you.
271
967171
2252
Grazie mille. Grazie.
16:10
Thank you.
272
970049
1751
Vi ringrazio.
16:11
Helen Walters: Jeanette, stay right there.
273
971842
2044
Helen Walters: Jeanette, resta pure qui.
16:15
I have some questions.
274
975095
1544
Ho alcune domande.
16:16
Jeanette Winterson: I know you want your lunch. Me too.
275
976680
2586
Jeanette Winterson: So che volete il vostro pranzo. Anch’io.
16:19
(Laughter)
276
979308
1001
(Risate) HW: No, restate ancora.
16:20
HW: No. Everybody, stop.
277
980351
1459
16:21
OK. That was amazing. Thank you.
278
981852
2628
Ok, è stato incredibile. Ti ringrazio.
16:26
What would you say our odds were of survival?
279
986106
4088
Cosa diresti sulle nostre probabilità di sopravvivenza?
16:31
JW: Look --
280
991153
1335
JW: Ascolta...
16:32
(Laughter)
281
992488
1043
(Risate)
16:33
I'm an optimist.
282
993531
1292
Sono un’ottimista. Sono una ragazza dal bicchiere mezzo pieno.
16:34
I’m a glass-half-full girl.
283
994823
1585
16:36
So I know that we’re running out of time,
284
996408
2711
Ma so che il tempo sta finendo.
Il tempo è la risorsa più preziosa che abbiamo
16:39
time is the most precious resource we have,
285
999119
2044
16:41
and there isn't much of it.
286
1001205
1335
e non ce n’è poi tanto.
16:42
If we get this right soon, it can really work.
287
1002581
2753
Se lo capiamo in fretta, può davvero funzionare.
16:45
If we get it wrong, will be fighting each other with sticks and stones
288
1005376
3295
Al contrario, ci ritroveremo a combattere con bastoni e pietre
16:48
for scraps of food and water on an overheated planet
289
1008712
2461
per qualche briciola di cibo e goccia d’acqua
su un pianeta surriscaldato tra le rovine di un mondo tirannico.
16:51
in the ruins of dictator-world.
290
1011215
2252
16:53
But --
291
1013509
1251
Però...
16:54
(Laughter)
292
1014802
1001
(Risate)
16:55
OK. But we could get it right.
293
1015844
2128
Ok. Però possiamo fare la cosa giusta.
È per questo che sento che siamo già passati da questo punto,
16:58
That’s why I feel we’ve arrived at this moment before,
294
1018013
3087
e potremmo sparire di nuovo nello spazio-tempo.
17:01
and it might disappear back into space-time.
295
1021141
2128
17:03
Then we'll have to wait billions of years to get here again, which is so dull.
296
1023310
3963
Poi dovremo aspettare miliardi di anni per ritornare, il che sarebbe una rottura.
17:07
So let's not fuck it up.
297
1027273
1501
Per cui non facciamo cretinate.
17:08
(Laughter)
298
1028774
1543
(Risate)
17:10
(Applause)
299
1030317
3462
(Applausi)
17:13
HW: I've got another question.
300
1033779
1543
HW: Ho un’altra domanda.
17:15
I just wanted to have a moment of eye to eye.
301
1035322
2836
Volevo avere giusto un confronto a quattr’occhi.
17:18
Don't fuck it up. Don't fuck it up. OK.
302
1038158
2503
Non facciamo cretinate. Ok.
17:20
JW: That’s the message. The whole TED Talk is: “Don’t fuck it up.”
303
1040661
3128
JW: È il messaggio di tutto l’evento: “Non facciamo cretinate.”
17:23
HW: But wait, I have another question.
304
1043831
1960
HW: Aspetta però, ho un’altra domanda.
17:25
JW: I could have saved 12 minutes, 55 seconds.
305
1045833
3837
JW: Avrei risparmiato 12 minuti e 55 secondi.
17:29
HW: Yeah, well, I'll just be the title that we put online.
306
1049712
3169
HW: Sì, be’ allora sarà il titolo con cui lo pubblicheremo online.
17:32
Jeanette Winterson: “Don’t fuck it up.”
307
1052923
2002
JW: “Non facciamo cretinate.”
17:34
OK. I want to talk about love.
308
1054967
1793
HW: Vorrei parlare di amore.
17:36
So in your memoir, which everybody should read,
309
1056802
3045
Nella tua autobiografia, che tutti dovrebbero leggere,
17:39
it is called “Why Be Happy When You Can Be Normal?”
310
1059888
2461
“Perché essere felice quando puoi essere normale?”
17:42
The very end of that book is about --
311
1062391
1877
L’ultimissima parte del libro...
17:44
it’s a good title -- t’s about love.
312
1064310
2877
è un bel titolo.
La fine parla d’amore.
17:47
And you write, "Love, the difficult word.
313
1067187
3254
E qui scrivi: ”L’amore. La parola difficile.
17:50
Where everything starts, where we always return.
314
1070441
2335
Dove tutto comincia, dove sempre noi ritorniamo.
17:52
Love. Love's lack. The possibility of love."
315
1072776
2628
L’amore. La mancanza d’amore. La possibilità di amare.”
17:55
Now I don't want to bastardize Ada Lovelace.
316
1075404
2586
Ora, non voglio contaminare Ada Lovelace,
17:57
She was all about originating.
317
1077990
1460
che tanto teneva all’originalità.
17:59
But what about love?
318
1079450
1585
Ma che mi dici dell’amore?
18:01
What about alternative intelligence and love?
319
1081035
2669
Che ruolo avrà l’amore nell’intelligenza alternativa?
18:05
JW: We'll teach it.
320
1085164
1460
JW: Lo insegneremo.
18:06
HW: We’ll teach it?
321
1086665
1001
HW: Lo faremo?
18:07
JW: Yeah. And listen, any of you who ever fell in love with your teddy bear,
322
1087666
3587
JW: Certo. Chi tra voi si sia innamorato del proprio orsetto,
cioè tutti quanti,
18:11
which is all of you, know what it's like
323
1091253
1960
sa che vuol dire avere una forte relazione con una forma di vita non biologica.
18:13
to have an intense relationship with a nonbiological lifeform.
324
1093255
3253
18:16
(Laughter)
325
1096550
1543
(Risate)
18:19
HW: Jeanette Winterson, I love you.
326
1099386
2461
HW: Jeanette Winterson, io ti adoro.
18:21
JW: Thank you. HW: Thank you so much. Thank you.
327
1101889
2294
JW: Ti ringrazio. HW: Grazie a te. Grazie tante.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7