How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

419,491 views

2024-04-29 ・ TED


New videos

How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

419,491 views ・ 2024-04-29

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Matteo Casarin Revisore: Maria Pericleous
00:04
Chris Anderson: Demis, so good to have you here.
0
4376
2335
CHRIS ANDERSON: Demis, è bello averti qui.
00:06
Demis Hassabis: It's fantastic to be here, thanks, Chris.
1
6711
2711
DEMIS HASSABIS: È fantastico. Grazie, Chris.
CA: Hai raccontato a Time Magazine:
00:09
Now, you told Time Magazine,
2
9422
2128
00:11
"I want to understand the big questions,
3
11591
2044
«Voglio rispondere alle grandi, grandissime domande,
00:13
the really big ones that you normally go into philosophy or physics
4
13635
3295
quelle che, approfondendole, sfociano nella filosofia o nella fisica.
00:16
if you're interested in them.
5
16972
1793
00:18
I thought building AI
6
18807
2502
Ho pensato che sviluppare l’IA
00:21
would be the fastest route to answer some of those questions."
7
21351
3420
fosse la strada più breve per rispondere ad alcune di queste domande.»
00:25
Why did you think that?
8
25730
1460
Come ti è venuto in mente?
00:27
DH: (Laughs)
9
27232
1293
DH: (Ride)
00:28
Well, I guess when I was a kid,
10
28567
2210
Forse perché da piccolo la mia materia preferita era la fisica,
00:30
my favorite subject was physics,
11
30819
1877
00:32
and I was interested in all the big questions,
12
32696
2752
ed ero interessato a tutte le grandi domande:
00:35
fundamental nature of reality,
13
35490
1960
la natura fondamentale della realtà, cos’è la coscienza.
00:37
what is consciousness,
14
37492
1335
00:38
you know, all the big ones.
15
38827
1752
Insomma, le grandi domande.
00:40
And usually you go into physics, if you're interested in that.
16
40579
2961
E di solito questo interesse sfocia nella fisica.
00:43
But I read a lot of the great physicists,
17
43540
1960
Ma leggendo molti grandi fisici
00:45
some of my all-time scientific heroes like Feynman and so on.
18
45542
2961
– alcuni dei miei eroi della scienza, come Feynman –
00:48
And I realized, in the last, sort of 20, 30 years,
19
48503
2377
mi resi conto che negli ultimi 20 o 30 anni
00:50
we haven't made much progress
20
50880
1669
non avevamo fatto grandi progressi
00:52
in understanding some of these fundamental laws.
21
52591
2335
nella comprensione di queste leggi fondamentali.
00:54
So I thought, why not build the ultimate tool to help us,
22
54926
4672
Quindi pensai che servisse l’aiuto di uno strumento definitivo,
00:59
which is artificial intelligence.
23
59639
1710
ovvero l’intelligenza artificiale.
01:01
And at the same time,
24
61391
1668
E contemporaneamente
01:03
we could also maybe better understand ourselves
25
63101
2211
forse riusciremmo a capire meglio noi stessi e il nostro cervello.
01:05
and the brain better, by doing that too.
26
65312
1918
Uno strumento incredibile,
01:07
So not only was it incredible tool,
27
67272
1710
01:08
it was also useful for some of the big questions itself.
28
68982
3170
utile anche per rispondere ad alcune grandi domande.
01:12
CA: Super interesting.
29
72152
1209
CA: Molto interessante.
01:13
So obviously AI can do so many things,
30
73403
2669
Ovviamente l’IA può fare moltissime cose
01:16
but I think for this conversation,
31
76072
1669
ma vorrei che la conversazione si concentrasse su questo aspetto,
01:17
I'd love to focus in on this theme of what it might do
32
77782
3754
su come potrebbe rispondere alle grandi domande,
01:21
to unlock the really big questions, the giant scientific breakthroughs,
33
81536
4004
sui grandi progressi scientifici,
01:25
because it's been such a theme driving you and your company.
34
85582
3462
perché è un tema importante per te e la tua azienda.
01:29
DH: So I mean, one of the big things AI can do,
35
89044
2794
DH: Ho sempre pensato che l’IA potesse essere determinante.
01:31
and I've always thought about,
36
91880
1460
01:33
is we're getting, you know, even back 20, 30 years ago,
37
93340
3295
Nel corso degli ultimi 20 o 30 anni,
01:36
the beginning of the internet era and computer era,
38
96676
3087
con l’inizio dell’era informatica e di Internet,
01:39
the amount of data that was being produced
39
99804
3170
la quantità di dati prodotta
– anche dati scientifici –
01:43
and also scientific data,
40
103016
1877
01:44
just too much for the human mind to comprehend in many cases.
41
104934
3671
in molti casi è semplicemente fuori portata per la mente umana.
01:48
And I think one of the uses of AI is to find patterns and insights
42
108605
4046
E penso che uno degli usi dell’IA sia trovare schemi e insight
01:52
in huge amounts of data and then surface that
43
112692
2169
in enormi quantità di dati da trasmettere agli scienziati
01:54
to the human scientists to make sense of
44
114861
2461
che li interpreteranno, formulando nuove ipotesi e congetture.
01:57
and make new hypotheses and conjectures.
45
117364
2294
01:59
So it seems to me very compatible with the scientific method.
46
119699
3504
Mi sembra un approccio compatibile col metodo scientifico.
02:03
CA: Right.
47
123203
1334
CA: È vero.
02:04
But game play has played a huge role in your own journey
48
124579
3128
E ci sei riuscito anche grazie al contributo determinante del gioco.
02:07
in figuring this thing out.
49
127749
1293
02:09
Who is this young lad on the left there?
50
129793
2961
Chi è quel ragazzino a sinistra?
02:12
Who is that?
51
132796
1167
02:13
DH: So that was me, I think I must have been about around nine years old.
52
133963
3504
DH: Sono io, a circa nove anni.
02:17
I'm captaining the England Under 11 team,
53
137467
3045
Ero il capitano della squadra inglese under 11.
02:20
and we're playing in a Four Nations tournament,
54
140553
2461
Era un torneo del Quattro Nazioni, per quello siamo vestiti di rosso.
02:23
that's why we're all in red.
55
143056
1376
02:24
I think we're playing France, Scotland and Wales, I think it was.
56
144432
3087
Credo che stessimo affrontando Francia, Scozia e Galles.
02:27
CA: That is so weird, because that happened to me too.
57
147519
4546
CA: È stranissimo, perché è successo anche a me!
02:32
In my dreams.
58
152107
1167
Nei miei sogni.
02:33
(Laughter)
59
153274
1168
(Risate)
02:34
And it wasn't just chess,
60
154818
3378
E non c’erano solo gli scacchi, amavi ogni genere di gioco.
02:38
you loved all kinds of games.
61
158238
1418
02:39
DH: I loved all kinds of games, yeah.
62
159656
1793
DH: Proprio così.
CA: E quando hai lanciato DeepMind,
02:41
CA: And when you launched DeepMind,
63
161449
1710
02:43
pretty quickly, you started having it tackle game play.
64
163159
4088
poco dopo...
lo hai sottoposto ai giochi, perché?
02:47
Why?
65
167288
1210
02:48
DH: Well, look, I mean, games actually got me into AI in the first place
66
168498
3420
DH: In realtà sono stati proprio i giochi a farmi conoscere l’IA
02:51
because while we were doing things like,
67
171918
2294
perché in occasioni del genere
02:54
we used to go on training camps with the England team and so on.
68
174254
3044
facevamo dei ritiri con la nazionale inglese.
02:57
And actually back then,
69
177298
1669
E infatti all’epoca, credo fosse la metà degli anni ’80,
02:58
I guess it was in the mid '80s,
70
178967
2711
03:01
we would use the very early chess computers,
71
181678
2169
usavamo i primissimi computer scacchistici – forse li ricordi –
03:03
if you remember them, to train against,
72
183888
2419
come allenamento e per giocare l’uno contro l’altro.
03:06
as well as playing against each other.
73
186349
1835
Erano delle grosse scacchiere di plastica – forse ve le ricordate –
03:08
And they were big lumps of plastic,
74
188184
1877
03:10
you know, physical boards that you used to,
75
190103
2002
03:12
some of you remember, used to actually press the squares down
76
192105
3086
dove si premevano le caselle e si accendevano dei LED.
03:15
and there were LED lights, came on.
77
195233
1752
E mi ricordo che non pensavo solo agli scacchi.
03:17
And I remember actually, not just thinking about the chess,
78
197026
2795
03:19
I was actually just fascinated by the fact that this lump of plastic,
79
199821
3545
Ero affascinato dal fatto che quel pezzo di plastica
03:23
someone had programmed it to be smart
80
203408
3378
fosse stato programmato per essere intelligente
03:26
and actually play chess to a really high standard.
81
206828
2669
e giocare a scacchi a livelli altissimi.
03:29
And I was just amazed by that.
82
209497
1877
Ero sbalordito.
03:31
And that got me thinking about thinking.
83
211374
2461
Mi aveva portato a ragionare sull’atto del ragionare
03:33
And how does the brain come up with these thought processes,
84
213877
3461
e su come fa il cervello ad elaborare i processi mentali, le idee,
03:37
these ideas,
85
217380
1168
03:38
and then maybe how we could mimic that with computers.
86
218548
3337
e come potremmo imitarlo con i computer.
03:42
So yeah, it's been a whole theme for my whole life, really.
87
222218
3921
Quindi sì, è un tema che mi accompagna da tutta la vita.
03:46
CA: But you raised all this money to launch DeepMind,
88
226139
3170
CA: Hai raccolto tantissimi soldi per lanciare DeepMind
03:49
and pretty soon you were using it to do, for example, this.
89
229350
4922
e li hai subito investiti, ad esempio, per cose del genere.
03:55
I mean, this is an odd use of it.
90
235190
1960
Non me lo sarei aspettato: cosa stavate facendo?
03:57
What was going on here?
91
237192
1209
03:58
DH: Well, we started off with games at the beginning of DeepMind.
92
238443
3086
DH: I giochi sono stati l’inizio di Deep Mind.
Erano gli anni ’10, un decennio fa, la prima grande svolta.
04:01
This was back in 2010, so this is from about 10 years ago,
93
241529
2711
04:04
it was our first big breakthrough.
94
244240
1710
Abbiamo iniziato con i classici giochi per Atari degli anni ’70,
04:05
Because we started off with classic Atari games from the 1970s,
95
245992
3253
04:09
the simplest kind of computer games there are out there.
96
249287
3504
i giochi per computer più semplici in circolazione.
04:12
And one of the reasons we used games is they're very convenient
97
252832
2962
Uno dei motivi è che i videogiochi sono l’ideale
04:15
to test out your ideas and your algorithms.
98
255835
3796
per testare idee e algoritmi.
04:19
They're really fast to test.
99
259672
1544
Sono rapidissimi da testare.
04:21
And also, as your systems get more powerful,
100
261674
2711
Inoltre, con il potenziamento dei sistemi,
04:24
you can choose harder and harder games.
101
264385
2336
si può passare a giochi sempre più difficili.
04:26
And this was actually the first time ever that our machine surprised us,
102
266721
4004
E qui la nostra macchina ci ha sorpreso per la prima volta,
04:30
the first of many times,
103
270767
1293
la prima di molte.
04:32
which, it figured out in this game called Breakout,
104
272060
2419
Ha capito che in “Breakout” si può mandare la palla dietro al muro
04:34
that you could send the ball round the back of the wall,
105
274479
2627
e che era il modo più efficace per eliminare i mattoni del muro.
04:37
and actually, it would be much safer way to knock out all the tiles of the wall.
106
277148
3796
04:40
It's a classic Atari game there.
107
280944
1543
È un classico gioco per Atari
ed è stato il nostro primo vero momento “eureka!“
04:42
And that was our first real aha moment.
108
282529
1876
04:44
CA: So this thing was not programmed to have any strategy.
109
284405
2962
CA: Quindi la sua programmazione era priva di strategia.
04:47
It was just told, try and figure out a way of winning.
110
287408
3671
Le avete solo detto: «Cerca di capire come vincere.»
04:51
You just move the bat at the bottom and see if you can find a way of winning.
111
291120
3713
«Muovi la mazza e vedi se capisci come vincere.»
04:54
DH: It was a real revolution at the time.
112
294833
2002
DH: È stata una vera rivoluzione, si parla del 2012 o del 2013,
04:56
So this was in 2012, 2013
113
296835
1376
quando abbiamo coniato termini come ”apprendimento per rinforzo profondo”.
04:58
where we coined these terms "deep reinforcement learning."
114
298211
3337
05:01
And the key thing about them is that those systems were learning
115
301548
3044
Il punto chiave è che quei sistemi imparavano direttamente dai pixel,
05:04
directly from the pixels, the raw pixels on the screen,
116
304634
2586
dai pixel grezzi sullo schermo, senza che gli dicessimo altro.
05:07
but they weren't being told anything else.
117
307262
2085
05:09
So they were being told, maximize the score,
118
309389
2169
Gli dicevamo di massimizzare il punteggio
05:11
here are the pixels on the screen,
119
311558
1668
sfruttando i pixel a schermo, 30.000 pixel.
05:13
30,000 pixels.
120
313268
2085
05:15
The system has to make sense on its own from first principles
121
315395
3420
Il sistema doveva farsi un’idea partendo dalle regole di base:
05:18
what’s going on, what it’s controlling,
122
318857
1876
cosa succede, cosa controlla, come fare punti.
05:20
how to get points.
123
320733
1168
05:21
And that's the other nice thing about using games to begin with.
124
321901
3003
È un altro vantaggio dell’iniziare dai giochi.
Hanno obiettivi chiari – vincere, fare punti –
05:24
They have clear objectives, to win, to get scores.
125
324946
2377
05:27
So you can kind of measure very easily that your systems are improving.
126
327323
3587
quindi è facilissimo misurare il miglioramento dei sistemi.
05:30
CA: But there was a direct line from that to this moment
127
330910
2628
CA: C’è un filo diretto che ci lega ad un momento,
05:33
a few years later,
128
333580
1459
qualche anno dopo,
05:35
where country of South Korea and many other parts of Asia
129
335081
4129
in cui la Corea del Sud e molte altre zone dell’Asia
05:39
and in fact the world went crazy over -- over what?
130
339252
3045
– e di fatto il mondo – impazzirono per cosa?
05:42
DH: Yeah, so this was the pinnacle of -- this is in 2016 --
131
342589
3712
DH: Sì, è stato il culmine – siamo nel 2016 –
05:46
the pinnacle of our games-playing work,
132
346342
2586
del nostro lavoro nel campo dei giochi.
05:48
where, so we'd done Atari,
133
348970
1793
Dopo aver finito con gli Atari e dopo aver finito giochi più complessi,
05:50
we'd done some more complicated games.
134
350763
2169
05:52
And then we reached the pinnacle, which was the game of Go,
135
352974
3295
avevamo raggiunto la cima con il gioco Go,
05:56
which is what they play in Asia instead of chess,
136
356311
2961
il corrispettivo asiatico agli scacchi
05:59
but it's actually more complex than chess.
137
359272
2085
anche se molto più complesso.
06:01
And the actual brute force algorithms
138
361357
4171
Gli algoritmi di forza bruta
06:05
that were used to kind of crack chess were not possible with Go
139
365528
4671
usati per “risolvere” gli scacchi non erano efficaci per Go
06:10
because it's a much more pattern-based game,
140
370241
2419
perché è un gioco molto più intuitivo e basato sugli schemi.
06:12
much more intuitive game.
141
372702
1293
06:14
So even though Deep Blue beat Garry Kasparov in the '90s,
142
374037
3503
Quindi, mentre Deep Blue ha battuto Garry Kasparov negli anni ’90,
06:17
it took another 20 years for our program, AlphaGo,
143
377582
4129
sono dovuti passare altri venti anni
prima che il nostro programma, AlphaGo, battesse il campione del mondo di Go.
06:21
to beat the world champion at Go.
144
381753
1710
06:23
And we always thought,
145
383504
1168
Noi che abbiamo lavorato per anni a questo progetto, abbiamo sempre pensato
06:24
myself and the people working on this project for many years,
146
384714
2878
06:27
if you could build a system that could beat the world champion at Go,
147
387634
3920
che un sistema capace di battere il campione del mondo di Go
06:31
it would have had to have done something very interesting.
148
391596
2711
avrebbe avuto capacità fuori dal comune.
In questo caso, AlphaGo ha di fatto imparato da solo
06:34
And in this case, what we did with AlphaGo,
149
394349
2043
06:36
is it basically learned for itself,
150
396392
1710
giocando milioni di partite contro se stesso,
06:38
by playing millions and millions of games against itself,
151
398102
2711
06:40
ideas about Go, the right strategies.
152
400813
1794
i concetti e le migliori strategie per il Go.
06:42
And in fact invented its own new strategies
153
402607
2461
E infatti ha inventato strategie proprie
06:45
that the Go world had never seen before,
154
405068
2002
inedite nel mondo del Go,
06:47
even though we've played Go for more than,
155
407070
2627
nonostante il Go sia giocato da più di 2.000 anni.
06:49
you know, 2,000 years,
156
409697
1460
06:51
it's the oldest board game in existence.
157
411199
2753
È il gioco da tavolo più antico ancora esistente.
06:54
So, you know, it was pretty astounding.
158
414327
1918
Quindi è stato sbalorditivo: non solo ha vinto delle partite,
06:56
Not only did it win the match,
159
416245
1627
06:57
it also came up with brand new strategies.
160
417872
2836
ha anche ideato nuove strategie.
07:01
CA: And you continued this with a new strategy
161
421125
2169
CA: E hai continuato con una nuova strategia
07:03
of not even really teaching it anything about Go,
162
423336
2294
che non prevedeva l’insegnamento del Go ma solo l’implementazione di sistemi
07:05
but just setting up systems
163
425630
1877
07:07
that just from first principles would play
164
427548
3254
che, partendo da principi di base,
07:10
so that they could teach themselves from scratch, Go or chess.
165
430802
5088
imparassero da soli e da zero a giocare a Go o a scacchi.
07:15
Talk about AlphaZero and the amazing thing that happened in chess then.
166
435932
5714
Parlaci allora di AlphaZero e della cosa incredibile accaduta con gli scacchi.
07:21
DH: So following this, we started with AlphaGo
167
441646
3045
DH: Il passo successivo è stato partire da AlphaGo
07:24
by giving it all of the human games that are being played on the internet.
168
444691
3920
e dargli tutti i giochi umani giocati su Internet.
07:28
So it started that as a basic starting point for its knowledge.
169
448611
3587
Fungevano da base per il suo bagaglio di conoscenze.
07:32
And then we wanted to see what would happen if we started from scratch,
170
452240
3587
E poi abbiamo voluto vedere cosa accadeva partendo da zero,
07:35
from literally random play.
171
455868
1669
giocando letteralmente a caso.
07:37
So this is what AlphaZero was.
172
457537
1501
Questo era AlphaZero, il perché dello “zero” nel nome:
07:39
That's why it's the zero in the name,
173
459038
1835
07:40
because it started with zero prior knowledge
174
460873
3170
perché aveva cominciato senza conoscenze pregresse.
07:44
And the reason we did that is because then we would build a system
175
464085
3128
Lo scopo era costruire un sistema più generale.
07:47
that was more general.
176
467213
1251
07:48
So AlphaGo could only play Go,
177
468464
1919
AlphaGo sapeva giocare solo a Go,
07:50
but AlphaZero could play any two-player game,
178
470425
2836
ma AlphaZero poteva giocare a qualsiasi gioco a due giocatori
07:53
and it did it by playing initially randomly
179
473302
4088
e lo faceva iniziando a giocare in modo casuale
07:57
and then slowly, incrementally improving.
180
477432
1960
migliorando lentamente, sempre di più.
07:59
Well, not very slowly, actually, within the course of 24 hours,
181
479434
2961
Beh, non così lentamente, in realtà nel giro di 24 ore
08:02
going from random to better than world-champion level.
182
482395
3045
è passato dal giocare a casaccio a battere il campione del mondo.
08:06
CA: And so this is so amazing to me.
183
486315
1752
CA: È veramente incredibile.
08:08
So I'm more familiar with chess than with Go.
184
488067
2127
Conosco più gli scacchi che il Go,
08:10
And for decades,
185
490194
1335
e per decenni migliaia di esperti di IA
08:11
thousands and thousands of AI experts worked on building
186
491571
3462
hanno lavorato ai computer scacchistici
08:15
incredible chess computers.
187
495033
1334
08:16
Eventually, they got better than humans.
188
496367
2544
che alla fine sono diventati più bravi degli umani.
08:18
You had a moment a few years ago,
189
498953
2211
Poi c’è stato un momento, pochi anni fa,
08:21
where in nine hours,
190
501205
2628
in cui, in nove ore,
08:23
AlphaZero taught itself to play chess better than any of those systems ever did.
191
503875
6590
AlphaZero ha imparato da solo a giocare a scacchi
meglio di qualsiasi altro sistema mai esistito.
08:30
Talk about that.
192
510923
1252
Parlacene.
08:32
DH: It was a pretty incredible moment, actually.
193
512175
2294
DH: In effetti è stato incredibile.
08:34
So we set it going on chess.
194
514510
2211
Lo avevamo impostato sugli scacchi.
Come hai detto, c’è una lunga storia tra gli scacchi e l’IA
08:38
And as you said, there's this rich history of chess and AI
195
518056
2752
08:40
where there are these expert systems that have been programmed
196
520808
2920
dove i sistemi venivano programmati con concetti e algoritmi scacchistici.
08:43
with these chess ideas, chess algorithms.
197
523770
2294
08:46
And you have this amazing, you know,
198
526105
2044
E poi succede che… sai, ricordo benissimo quel giorno.
08:48
I remember this day very clearly, where you sort of sit down with the system
199
528191
3837
Ti siedi ad osservare i sistemi,
08:52
starting off random, you know, in the morning,
200
532070
2919
è mattina, inizia tutto casualmente,
08:55
you go for a cup of coffee, you come back.
201
535031
2002
vai a prendere un caffè e torni.
All’ora di pranzo forse riesco ancora a batterlo.
08:57
I can still just about beat it by lunchtime, maybe just about.
202
537075
3503
09:00
And then you let it go for another four hours.
203
540620
2210
Lo lasci fare per altre quattro ore e per l’ora di cena
09:02
And by dinner,
204
542830
1168
09:03
it's the greatest chess-playing entity that's ever existed.
205
543998
2795
è la più grande entità scacchistica che sia mai esistita.
09:06
And, you know, it's quite amazing,
206
546834
1669
È davvero incredibile
09:08
like, looking at that live on something that you know well,
207
548503
3211
vederlo accadere in tempo reale su qualcosa che conosci bene,
09:11
you know, like chess, and you're expert in
208
551714
2044
di cui sei esperto, come gli scacchi,
09:13
and actually just seeing that in front of your eyes.
209
553800
2460
vederlo accadere davanti ai tuoi occhi.
09:16
And then you extrapolate to what it could then do in science or something else,
210
556260
3963
E poi ipotizzi ciò che potrebbe fare per la scienza o altro ancora,
09:20
which of course, games were only a means to an end.
211
560264
2878
perché ovviamente i giochi erano solo un mezzo per un fine.
09:23
They were never the end in themselves.
212
563184
1835
Non sono mai stati un fine in sé,
erano solo il campo di addestramento per le nostre idee
09:25
They were just the training ground for our ideas
213
565019
2461
09:27
and to make quick progress in a matter of, you know,
214
567522
2877
e per fare rapidi progressi nel giro di…
09:30
less than five years actually went from Atari to Go.
215
570441
4046
Sono passati meno di cinque anni tra gli Atari e il Go.
09:34
CA: I mean, this is why people are in awe of AI
216
574529
3295
CA: È per questo che le persone sono sbalordite dall’IA
09:37
and also kind of terrified by it.
217
577865
2127
e anche un po’ terrorizzate.
09:40
I mean, it's not just incremental improvement.
218
580034
2169
Dal miglioramento incrementale e dal fatto che nel giro di poche ore
09:42
The fact that in a few hours you can achieve
219
582245
2919
può realizzare quello che milioni di umani
09:45
what millions of humans over centuries have not been able to achieve.
220
585206
4796
per secoli non sono stati in grado di realizzare.
09:50
That gives you pause for thought.
221
590044
2586
È qualcosa su cui fermarsi a riflettere.
09:53
DH: It does, I mean, it's a hugely powerful technology.
222
593214
2836
DH: Sì, è una tecnologia estremamente potente,
09:56
It's going to be incredibly transformative.
223
596092
2044
porterà un grandissimo cambiamento
09:58
And we have to be very thoughtful about how we use that capability.
224
598136
4004
e dobbiamo riflettere bene su come usare tale capacità.
10:02
CA: So talk about this use of it because this is again,
225
602181
2586
CA: Parliamo allora di come la usate.
10:04
this is another extension of the work you've done,
226
604767
3754
Questa è un’altra ramificazione del vostro lavoro,
10:08
where now you're turning it to something incredibly useful for the world.
227
608563
4129
la state trasformando in qualcosa di estremamente utile per tutti.
10:12
What are all the letters on the left, and what’s on the right?
228
612733
2920
Cosa sono le lettere a sinistra e cosa vediamo a destra?
10:15
DH: This was always my aim with AI from a kid,
229
615695
4129
DH: Questo è stato il mio obiettivo con l’IA fin da bambino,
10:19
which is to use it to accelerate scientific discovery.
230
619866
3169
ovvero utilizzarla per accelerare la ricerca scientifica.
10:23
And actually, ever since doing my undergrad at Cambridge,
231
623035
2962
E sin dalla mia laurea a Cambridge
10:26
I had this problem in mind one day for AI,
232
626038
2545
avevo tenuto in serbo questo problema per l’IA.
10:28
it's called the protein-folding problem.
233
628624
1919
È il ripiegamento delle proteine,
10:30
And it's kind of like a 50-year grand challenge in biology.
234
630543
2794
una sfida negli ultimi 50 anni nel campo della biologia.
10:33
And it's very simple to explain.
235
633337
1919
È molto semplice da spiegare.
10:35
Proteins are essential to life.
236
635256
2461
Le proteine sono essenziali per la vita, sono i suoi elementi costitutivi.
10:38
They're the building blocks of life.
237
638009
1751
10:39
Everything in your body depends on proteins.
238
639760
2086
Nel vostro corpo tutto dipende dalle proteine.
10:41
A protein is sort of described by its amino acid sequence,
239
641846
5380
Una proteina è descritta da una sequenza di amminoacidi,
10:47
which you can think of as roughly the genetic sequence
240
647226
2544
una “sequenza genetica” che descrive la proteina, ovvero quelle lettere.
10:49
describing the protein, so that are the letters.
241
649812
2252
10:52
CA: And each of those letters represents in itself a complex molecule?
242
652064
3295
CA: E ognuna di quelle lettere rappresenta una molecola complessa?
10:55
DH: That's right, each of those letters is an amino acid.
243
655401
2711
DH: Esatto, ognuna di esse è un amminoacido.
Potete immaginarle come fili di perle, che vedete in basso a sinistra.
10:58
And you can think of them as a kind of string of beads
244
658112
2544
11:00
there at the bottom, left, right?
245
660698
1919
11:02
But in nature, in your body or in an animal,
246
662658
3420
Ma in natura, nel vostro corpo o in quello di un animale,
11:06
this string, a sequence,
247
666078
1794
questo filo, questa sequenza,
11:07
turns into this beautiful shape on the right.
248
667914
2544
diventa la bellissima forma che vedete a destra.
11:10
That's the protein.
249
670458
1209
Quella è la proteina, le lettere ne descrivono la forma.
11:11
Those letters describe that shape.
250
671709
2586
11:14
And that's what it looks like in nature.
251
674295
2294
Ed è così che appare in natura.
11:16
And the important thing about that 3D structure is
252
676589
2502
La cosa importante della struttura 3D di una proteina
11:19
the 3D structure of the protein goes a long way to telling you
253
679133
3170
è che dice molto sulla sua funzione, su cosa fa nel vostro corpo.
11:22
what its function is in the body, what it does.
254
682345
2210
11:24
And so the protein-folding problem is:
255
684597
2252
Il problema del ripiegamento delle proteine è:
11:26
Can you directly predict the 3D structure just from the amino acid sequence?
256
686891
4963
è possibile prevedere la struttura 3D dalla sola sequenza degli amminoacidi?
11:31
So literally if you give the machine, the AI system,
257
691854
2544
Dando alla macchina, al sistema IA, le lettere a sinistra,
11:34
the letters on the left,
258
694440
1502
11:35
can it produce the 3D structure on the right?
259
695983
2253
si può produrre la struttura 3D a destra?
11:38
And that's what AlphaFold does, our program does.
260
698277
2336
Ed è quello che fa il programma AlphaFold.
11:40
CA: It's not calculating it from the letters,
261
700613
2169
CA: Non lo calcola partendo dalla lettere
11:42
it's looking at patterns of other folded proteins that are known about
262
702823
4922
ma osserva i pattern di altre proteine ripiegate che conosciamo.
11:47
and somehow learning from those patterns
263
707745
2628
Imparare da quei pattern potrebbe essere la soluzione?
11:50
that this may be the way to do this?
264
710414
1752
DH: Quando abbiamo iniziato questo progetto, subito dopo AlphaGo,
11:52
DH: So when we started this project, actually straight after AlphaGo,
265
712166
3295
pensavo che fossimo pronti.
11:55
I thought we were ready.
266
715503
1168
11:56
Once we'd cracked Go,
267
716712
1168
Una volta risolto Go, sentivo che eravamo finalmente pronti
11:57
I felt we were finally ready after, you know,
268
717880
2711
– dopo quasi 20 anni di lavoro su questa materia –
12:00
almost 20 years of working on this stuff
269
720591
1919
12:02
to actually tackle some scientific problems,
270
722551
2586
per affrontare dei problemi scientifici, compreso il ripiegamento delle proteine.
12:05
including protein folding.
271
725179
1335
12:06
And what we start with is painstakingly,
272
726514
3044
Siamo partiti da un lavoro scrupoloso durato oltre 40 anni,
12:09
over the last 40-plus years,
273
729600
1794
12:11
experimental biologists have pieced together
274
731435
3420
quello dei biologi sperimentali che hanno ricostruito
12:14
around 150,000 protein structures
275
734855
2670
circa 150 mila strutture proteiche
12:17
using very complicated, you know, X-ray crystallography techniques
276
737566
3671
tramite la complicatissima tecnica della cristallografia a raggi X
12:21
and other complicated experimental techniques.
277
741237
2794
e altre tecniche sperimentali altrettanto complicate.
E la regola generale
12:24
And the rule of thumb is
278
744031
2086
12:26
that it takes one PhD student their whole PhD,
279
746117
3628
prevede che uno studente impieghi l’intero dottorato
12:29
so four or five years, to uncover one structure.
280
749787
3420
– quindi quattro o cinque anni – per scoprire una struttura.
12:33
But there are 200 million proteins known to nature.
281
753207
2961
Peccato che ci siano 200 milioni di proteine conosciute in natura,
12:36
So you could just, you know, take forever to do that.
282
756210
3170
e che quindi consista in un lavoro senza fine.
12:39
And so we managed to actually fold, using AlphaFold, in one year,
283
759422
4337
Ma in un anno, usando AlphaFold, siamo riusciti a ripiegare
12:43
all those 200 million proteins known to science.
284
763801
2419
tutte le 200 milioni di proteine note alla scienza.
12:46
So that's a billion years of PhD time saved.
285
766262
2711
Abbiamo risparmiato un miliardo di anni di dottorato.
12:49
(Applause)
286
769015
3837
(Applausi)
12:52
CA: So it's amazing to me just how reliably it works.
287
772893
2503
CA: Mi stupisce la sua affidabilità.
12:55
I mean, this shows, you know,
288
775396
2669
Dimostra che, dato un modello, si può partire con l’esperimento.
12:58
here's the model and you do the experiment.
289
778107
2044
13:00
And sure enough, the protein turns out the same way.
290
780151
3044
E le proteine si rivelano corrette, 200 milioni di volte.
13:03
Times 200 million.
291
783195
1210
13:04
DH: And the more deeply you go into proteins,
292
784447
2669
DH: E più si comprendono le proteine,
13:07
you just start appreciating how exquisite they are.
293
787158
2711
più si riesce ad apprezzarne l’eleganza.
13:09
I mean, look at how beautiful these proteins are.
294
789910
2294
Guardate quanto sono belle.
In natura ognuna di esse ha una precisa funzione.
13:12
And each of these things do a special function in nature.
295
792246
2711
13:14
And they're almost like works of art.
296
794957
1794
Sembrano delle opere d’arte.
13:16
And it's still astounds me today that AlphaFold can predict,
297
796751
2836
E tuttora le capacità predittive di AlphaFold mi sbalordiscono.
13:19
the green is the ground truth, and the blue is the prediction,
298
799587
2961
In verde vedete la struttura reale, in blu la previsione.
13:22
how well it can predict, is to within the width of an atom on average,
299
802548
4254
In media la tolleranza della previsione è pari al diametro di un atomo.
13:26
is how accurate the prediction is,
300
806802
2044
Questa è l’accuratezza delle previsioni,
13:28
which is what is needed for biologists to use it,
301
808888
2627
ed è necessaria per l’uso che ne fanno i biologi,
13:31
and for drug design and for disease understanding,
302
811557
2836
la progettazione di farmaci e lo studio delle malattie.
13:34
which is what AlphaFold unlocks.
303
814435
2502
Ecco cosa permette AlphaFold.
13:36
CA: You made a surprising decision,
304
816979
1710
CA: Hai preso una decisione sorprendente,
13:38
which was to give away the actual results of your 200 million proteins.
305
818731
5964
ovvero rendere pubblici i risultati sui 200 milioni di proteine.
13:44
DH: We open-sourced AlphaFold and gave everything away
306
824737
3003
DH: Abbiamo reso open source AlphaFold e distribuito tutto
13:47
on a huge database with our wonderful colleagues,
307
827782
2294
su un enorme database con i meravigliosi colleghi
13:50
the European Bioinformatics Institute.
308
830117
1835
dello European Bioinformatics Institute.
13:51
(Applause)
309
831952
3170
(Applausi)
13:55
CA: I mean, you're part of Google.
310
835122
2378
CA: Però fate parte di Google.
13:57
Was there a phone call saying, "Uh, Demis, what did you just do?"
311
837541
3963
C’è stata una telefonata del tipo: «Demis, cos’è che avete fatto?»
14:01
DH: You know, I'm lucky we have very supportive,
312
841879
2753
DH: Fortunatamente abbiamo un grande supporto,
14:04
Google's really supportive of science
313
844673
1794
Google supporta davvero la scienza
14:06
and understand the benefits this can bring to the world.
314
846509
4337
e sa quali sono i benefici che può donare al mondo.
14:10
And, you know, the argument here
315
850888
1543
E questo dimostra
14:12
was that we could only ever have even scratched the surface
316
852473
3211
che potremmo aver solo intravisto il potenziale di questo strumento.
14:15
of the potential of what we could do with this.
317
855726
2211
14:17
This, you know, maybe like a millionth
318
857937
1877
È forse un milionesimo di quello che potrebbe dare alla comunità scientifica.
14:19
of what the scientific community is doing with it.
319
859814
2377
14:22
There's over a million and a half biologists around the world
320
862233
3336
Nel mondo, oltre un milione e mezzo di biologi hanno utilizzato AlphaFold.
14:25
have used AlphaFold and its predictions.
321
865569
1919
Pensiamo che quasi tutti i biologi del mondo lo stiano usando,
14:27
We think that's almost every biologist in the world
322
867530
2419
14:29
is making use of this now, every pharma company.
323
869949
2252
tutte le aziende farmaceutiche.
Probabilmente non sapremo mai che impatto ha avuto.
14:32
So we'll never know probably what the full impact of it all is.
324
872243
3086
14:35
CA: But you're continuing this work in a new company
325
875329
2461
CA: Stai proseguendo il lavoro in una società spin-off di Google
14:37
that's spinning out of Google called Isomorph.
326
877832
2544
chiamata “Isomorph”.
14:40
DH: Isomorphic.
327
880376
1251
DH: “Isomorphic”. CA: Isomorphic.
14:41
CA: Isomorphic.
328
881627
1376
14:43
Give us just a sense of the vision there.
329
883879
2002
Raccontaci la sua visione.
14:45
What's the vision?
330
885881
1168
DH: AlphaFold è una sorta di strumento base per la biologia.
14:47
DH: AlphaFold is a sort of fundamental biology tool.
331
887091
2961
14:50
Like, what are these 3D structures,
332
890094
2627
“Cosa sono queste strutture 3D
14:52
and then what might they do in nature?
333
892763
2795
e quale potrebbe essere la loro funzione in natura?”
14:55
And then if you, you know,
334
895975
1334
La ragione del mio entusiasmo nei confronti di questo progetto
14:57
the reason I thought about this and was so excited about this,
335
897309
2962
15:00
is that this is the beginnings of understanding disease
336
900271
3545
è la possibilità di iniziare a comprendere le malattie
15:03
and also maybe helpful for designing drugs.
337
903816
3086
e l’aiuto che potrebbe dare nella progettazione dei farmaci.
15:06
So if you know the shape of the protein,
338
906944
2503
Se si conosce la forma di una proteina,
15:09
and then you can kind of figure out
339
909488
2378
è possibile capire quale parte della superficie della proteina
15:11
which part of the surface of the protein
340
911907
1919
15:13
you're going to target with your drug compound.
341
913826
2377
fungerà da bersaglio per il farmaco.
15:16
And Isomorphic is extending this work we did in AlphaFold
342
916245
3670
Isomorphic porta il lavoro di AlphaFold nel dominio della chimica,
15:19
into the chemistry space,
343
919957
1585
15:21
where we can design chemical compounds
344
921542
3003
dove progettiamo composti chimici
15:24
that will bind exactly to the right spot on the protein
345
924587
2878
che si legheranno ad un punto preciso della proteina
15:27
and also, importantly, to nothing else in the body.
346
927465
3086
senza coinvolgere, ed è importante, altre parti del corpo.
15:30
So it doesn't have any side effects and it's not toxic and so on.
347
930593
4296
Quindi saranno atossici, privi di effetti collaterali e così via.
15:34
And we're building many other AI models,
348
934930
2169
E stiamo creando molti altri modelli di IA
15:37
sort of sister models to AlphaFold
349
937141
2336
– dei modelli gemelli di AlphaFold –
15:39
to help predict,
350
939477
1710
utili a fare previsioni nel dominio della chimica.
15:41
make predictions in chemistry space.
351
941228
2294
15:43
CA: So we can expect to see
352
943564
1293
CA: Quindi possiamo aspettarci
15:44
some pretty dramatic health medicine breakthroughs
353
944899
3128
grandi progressi nel campo della medicina nei prossimi anni.
15:48
in the coming few years.
354
948027
1209
15:49
DH: I think we'll be able to get down drug discovery
355
949278
2711
DH: Penso che la scoperta di nuovi farmaci richiederà mesi e non anni.
15:51
from years to maybe months.
356
951989
2127
15:54
CA: OK. Demis, I'd like to change direction a bit.
357
954158
2919
CA: Ok.
Demis, vorrei cambiare argomento.
15:58
Our mutual friend, Liv Boeree, gave a talk last year at TEDAI
358
958329
3962
Una nostra amica comune, Liv Boeree, è intervenuta al TEDAI dell’anno scorso
16:02
that she called the “Moloch Trap.”
359
962291
2044
con un talk dedicato alla “trappola del Moloch”.
16:04
The Moloch Trap is a situation
360
964835
1877
La trappola di Moloch è una situazione per cui…
16:06
where organizations,
361
966754
2836
organizzazioni e aziende in un contesto competitivo
16:09
companies in a competitive situation can be driven to do things
362
969632
5130
possono essere spinte a fare cose
16:14
that no individual running those companies would by themselves do.
363
974762
4629
che le singole persone alla loro guida non oserebbero mai fare.
16:19
I was really struck by this talk,
364
979391
2294
L’intervento mi ha colpito moltissimo,
16:21
and it's felt, as a sort of layperson observer,
365
981685
3587
e, da osservatore profano, ho avuto l’impressione
16:25
that the Moloch Trap has been shockingly in effect in the last couple of years.
366
985272
5089
che la trappola del Moloch sia stata onnipresente negli ultimi due anni.
16:30
So here you are with DeepMind,
367
990402
2044
Ci siete voi di DeepMind,
16:32
sort of pursuing these amazing medical breakthroughs
368
992488
3170
che mirate a compiere grandi progressi nella scienza e nella medicina.
16:35
and scientific breakthroughs,
369
995699
1418
E poi, all’improvviso, in modo abbastanza inaspettato,
16:37
and then suddenly, kind of out of left field,
370
997117
4004
16:41
OpenAI with Microsoft releases ChatGPT.
371
1001163
5381
OpenAI insieme a Microsoft rilascia ChatGPT.
16:46
And the world goes crazy and suddenly goes, “Holy crap, AI is ...”
372
1006585
3879
E all’improvviso il mondo impazzisce: «Santo cielo, l’IA è…»
16:50
you know, everyone can use it.
373
1010464
2586
e all’improvviso tutti possono usarla.
16:54
And there’s a sort of, it felt like the Moloch Trap in action.
374
1014260
4045
C’è una sorta di…
È la trappola del Moloch.
16:58
I think Microsoft CEO Satya Nadella actually said,
375
1018347
5130
Mi pare che il CEO di Microsoft, Satya Nadella, abbia detto:
17:03
"Google is the 800-pound gorilla in the search space.
376
1023477
4838
«Nel campo della ricerca, Google è il gorilla dominante.
17:08
We wanted to make Google dance."
377
1028357
2836
Volevamo farlo ballare un po’.»
17:12
How ...?
378
1032319
1293
Come...?
17:14
And it did, Google did dance.
379
1034613
1877
E così è stato, Google ha ballato, ha reagito con decisione.
17:16
There was a dramatic response.
380
1036490
1960
17:18
Your role was changed,
381
1038993
1167
Hai cambiato ruolo, diventando il capo di tutta Google AI.
17:20
you took over the whole Google AI effort.
382
1040160
3879
17:24
Products were rushed out.
383
1044456
1627
I prodotti sono usciti in fretta.
17:27
You know, Gemini, some part amazing, part embarrassing.
384
1047251
3003
Come Gemini, in parte meravigliosa, in parte imbarazzante.
17:30
I’m not going to ask you about Gemini because you’ve addressed it elsewhere.
385
1050296
3628
Non ti chiederò di Gemini perché ne hai parlato altrove.
17:33
But it feels like this was the Moloch Trap happening,
386
1053924
3295
Sembra proprio che la trappola del Moloch
17:37
that you and others were pushed to do stuff
387
1057261
2753
vi abbia spinto a fare delle cose
17:40
that you wouldn't have done without this sort of catalyzing competitive thing.
388
1060055
5047
che non avreste fatto senza questa…
sorta di catalizzatore competitivo.
17:45
Meta did something similar as well.
389
1065102
2169
Anche Meta ha fatto qualcosa di simile.
17:47
They rushed out an open-source version of AI,
390
1067313
3336
Hanno lanciato in fretta un’IA open source,
17:50
which is arguably a reckless act in itself.
391
1070691
3295
probabilmente un atto avventato di per sé.
17:55
This seems terrifying to me.
392
1075613
1459
Mi sembra terrificante, ma lo è davvero?
17:57
Is it terrifying?
393
1077072
1835
17:59
DH: Look, it's a complicated topic, of course.
394
1079617
2252
DH: Ovviamente è un argomento complesso,
18:01
And, first of all, I mean, there are many things to say about it.
395
1081869
3879
partendo dal fatto che ci sono molte cose da dire.
18:05
First of all, we were working on many large language models.
396
1085789
4421
Innanzitutto, stavamo lavorando su molti modelli linguistici di grandi dimensioni.
18:10
And in fact, obviously, Google research actually invented Transformers,
397
1090252
3337
Come sapete, la ricerca di Google ha portato ai trasformatori
18:13
as you know,
398
1093589
1168
18:14
which was the architecture that allowed all this to be possible,
399
1094798
3045
– l’architettura che ha reso possibile tutto questo –
18:17
five, six years ago.
400
1097885
1251
cinque o sei anni fa.
18:19
And so we had many large models internally.
401
1099178
2669
E così abbiamo sviluppato vari grandi modelli.
18:21
The thing was, I think what the ChatGPT moment did that changed was,
402
1101847
3879
Il punto è che con ChatGPT c’è stato un cambiamento,
18:25
and fair play to them to do that, was they demonstrated,
403
1105768
3128
e bisogna render loro merito perché hanno dimostrato
18:28
I think somewhat surprisingly to themselves as well,
404
1108937
2795
– credo con loro stessa sorpresa –
18:31
that the public were ready to,
405
1111732
2502
che il pubblico era pronto,
18:34
you know, the general public were ready to embrace these systems
406
1114276
3003
che il pubblico generale era pronto ad adottare e apprezzare questi sistemi.
18:37
and actually find value in these systems.
407
1117279
1960
Per quanto siano impressionanti, quando lavoriamo su questi sistemi
18:39
Impressive though they are, I guess, when we're working on these systems,
408
1119281
3962
18:43
mostly you're focusing on the flaws and the things they don't do
409
1123243
3003
ci concentriamo sui difetti, sulle cose che non riescono a fare,
18:46
and hallucinations and things you're all familiar with now.
410
1126288
2836
sulle allucinazioni e sugli aspetti che ormai conoscete.
Ci chiediamo se tutte quelle capacità saranno davvero utili a qualcuno.
18:49
We're thinking, you know,
411
1129124
1377
18:50
would anyone really find that useful given that it does this and that?
412
1130501
3587
18:54
And we would want them to improve those things first,
413
1134129
2503
E ci assicuriamo di migliorarle, prima di rilasciare il tutto.
18:56
before putting them out.
414
1136674
1418
18:58
But interestingly, it turned out that even with those flaws,
415
1138133
3754
Ma, curiosamente, abbiamo visto che nonostante quei difetti
19:01
many tens of millions of people still find them very useful.
416
1141929
2919
decine di milioni di persone li trovano utilissimi.
19:04
And so that was an interesting update on maybe the convergence of products
417
1144848
4922
Abbiamo quindi assistito ad una nuova
ed interessante convergenza tra scienza e prodotto,
19:09
and the science that actually,
418
1149770
3712
dove tutte queste cose straordinarie che sviluppiamo nei laboratori
19:13
all of these amazing things we've been doing in the lab, so to speak,
419
1153524
3253
19:16
are actually ready for prime time for general use,
420
1156819
3003
sono pronte per l’uso nel grande pubblico,
19:19
beyond the rarefied world of science.
421
1159822
2002
oltre il ristretto mondo della scienza.
19:21
And I think that's pretty exciting in many ways.
422
1161824
2627
Credo sia entusiasmante per molti aspetti.
19:24
CA: So at the moment, we've got this exciting array of products
423
1164910
2961
CA: E infatti al momento disponiamo di un’entusiasmante gamma di prodotti,
19:27
which we're all enjoying.
424
1167913
1210
19:29
And, you know, all this generative AI stuff is amazing.
425
1169164
2586
e tutta l’IA generativa è straordinaria.
19:31
But let's roll the clock forward a bit.
426
1171750
2086
Ma spostiamo un po’ avanti l’orologio.
19:34
Microsoft and OpenAI are reported to be building
427
1174503
3962
Si dice che Microsoft e OpenAI stiano costruendo
19:38
or investing like 100 billion dollars
428
1178507
2336
o investendo qualcosa come 100 miliardi di dollari
19:40
into an absolute monster database supercomputer
429
1180884
5005
in un portentoso database supercomputer
19:45
that can offer compute at orders of magnitude
430
1185889
3212
con una capacità di calcolo superiore di vari ordini di grandezza
19:49
more than anything we have today.
431
1189143
2544
a qualsiasi cosa oggi esistente.
19:52
It takes like five gigawatts of energy to drive this, it's estimated.
432
1192104
3920
Si stima che per alimentarlo servano circa 5 gigawatt:
19:56
That's the energy of New York City to drive a data center.
433
1196066
4254
l’energia di New York City per alimentare un data center.
20:00
So we're pumping all this energy into this giant, vast brain.
434
1200612
3420
Tutta questa energia viene riversata in un un cervello gigantesco.
20:04
Google, I presume is going to match this type of investment, right?
435
1204658
4046
Immagino che Google farà investimenti analoghi, giusto?
20:09
DH: Well, I mean, we don't talk about our specific numbers,
436
1209037
2795
DH: Non parliamo mai di cifre precise,
20:11
but you know, I think we're investing more than that over time.
437
1211874
3336
ma penso che nel corso del tempo investiremo anche di più.
20:15
So, and that's one of the reasons
438
1215252
1960
Ed è uno dei motivi per cui ci siamo uniti a Google nel 2014.
20:17
we teamed up with Google back in 2014,
439
1217212
2169
20:19
is kind of we knew that in order to get to AGI,
440
1219381
3921
Sapevamo che sviluppare un’AGI richiede molta potenza di calcolo.
20:23
we would need a lot of compute.
441
1223343
1502
20:24
And that's what's transpired.
442
1224887
1501
Ed è quello che è successo.
20:26
And Google, you know, had and still has the most computers.
443
1226430
3420
Google aveva ed ha ancora la maggior parte dei computer.
CA: Quindi stiamo costruendo questi computer giganteschi,
20:30
CA: So Earth is building these giant computers
444
1230309
2961
20:33
that are going to basically, these giant brains,
445
1233270
2294
cervelli giganteschi che saranno alla base di gran parte dell’economia futura.
20:35
that are going to power so much of the future economy.
446
1235564
2878
20:38
And it's all by companies that are in competition with each other.
447
1238484
3878
Ed è tutto in mano ad aziende in competizione tra loro.
20:42
How will we avoid the situation where someone is getting a lead,
448
1242362
5589
Come possiamo evitare uno scenario in cui qualcuno è in vantaggio
20:47
someone else has got 100 billion dollars invested in their thing.
449
1247993
4213
e qualcun altro ottiene 100 miliardi di dollari di investimenti.
20:52
Isn't someone going to go, "Wait a sec.
450
1252206
2085
Prima o poi qualcuno dirà: «Un attimo, se usassimo l’apprendimento per rinforzo
20:54
If we used reinforcement learning here
451
1254333
3378
20:57
to maybe have the AI tweak its own code
452
1257753
2919
consentendo all’IA di modificare il suo stesso codice
21:00
and rewrite itself and make it so [powerful],
453
1260714
2252
e di riscrivere se stessa diventando più potente,
21:03
we might be able to catch up in nine hours over the weekend
454
1263008
3212
colmeremmo il ritardo in nove ore, entro il fine settimana.
21:06
with what they're doing.
455
1266220
1167
Dobbiamo rischiare, non abbiamo scelta,
21:07
Roll the dice, dammit, we have no choice.
456
1267429
1960
21:09
Otherwise we're going to lose a fortune for our shareholders."
457
1269431
2920
altrimenti ci costerà una fortuna in azioni.»
Come possiamo evitarlo?
21:12
How are we going to avoid that?
458
1272351
1835
21:14
DH: Yeah, well, we must avoid that, of course, clearly.
459
1274228
2627
DH: Chiaramente non deve accadere.
21:16
And my view is that as we get closer to AGI,
460
1276855
3587
La mia opinione è che, man mano che ci avviciniamo all’AGI,
21:20
we need to collaborate more.
461
1280442
2378
serve collaborare di più.
21:22
And the good news is that most of the scientists involved in these labs
462
1282820
4879
La buona notizia è che la maggior parte degli scienziati di questi laboratori
21:27
know each other very well.
463
1287741
1376
si conoscono molto bene
21:29
And we talk to each other a lot at conferences and other things.
464
1289117
3546
e si parlano molto durante le conferenze e in altre occasioni.
21:32
And this technology is still relatively nascent.
465
1292704
2503
Ed è una tecnologia relativamente nuova,
21:35
So probably it's OK what's happening at the moment.
466
1295249
2419
quindi credo che per ora vada bene così.
21:37
But as we get closer to AGI, I think as a society,
467
1297709
4421
Ma man mano che ci avviciniamo all’AGI, pensando come società,
21:42
we need to start thinking about the types of architectures that get built.
468
1302172
4713
dobbiamo iniziare a pensare ai tipi di architettura da costruire.
21:46
So I'm very optimistic, of course,
469
1306927
1793
Ovviamente sono molto ottimista,
21:48
that's why I spent my whole life working on AI and working towards AGI.
470
1308762
4838
è per questo che lavoro da sempre sull’IA e in prospettiva sull’AGI,
21:53
But I suspect there are many ways to build the architecture safely, robustly,
471
1313600
6507
ma immagino che esistano molti modi per costruire un’architettura
sicura, robusta, affidabile e comprensibile.
22:00
reliably and in an understandable way.
472
1320148
3170
22:03
And I think there are almost certainly going to be ways of building architectures
473
1323318
3837
E penso che quasi sicuramente si potranno costruire architetture
per certi versi pericolose o rischiose.
22:07
that are unsafe or risky in some form.
474
1327155
1836
Credo che dovremo condurre l’umanità attraverso un collo di bottiglia,
22:09
So I see a sort of,
475
1329032
2127
22:11
a kind of bottleneck that we have to get humanity through,
476
1331201
3087
22:14
which is building safe architectures as the first types of AGI systems.
477
1334329
6340
facendo in modo che i primi sistemi AGI
siano architetture sicure.
22:20
And then after that, we can have a sort of,
478
1340711
2502
Dopodiché, potremo avere una sorta di proliferazione
22:23
a flourishing of many different types of systems
479
1343255
2753
di vari tipi di sistemi derivanti da quelle architetture sicure
22:26
that are perhaps sharded off those safe architectures
480
1346049
3712
22:29
that ideally have some mathematical guarantees
481
1349761
3337
che idealmente offrono garanzie matematiche
22:33
or at least some practical guarantees around what they do.
482
1353140
3003
o quantomeno garanzie pratiche riguardo ciò che fanno.
22:36
CA: Do governments have an essential role here
483
1356143
2252
CA: I governi hanno un ruolo essenziale
22:38
to define what a level playing field looks like
484
1358437
2210
nel definire cos’è assolutamente vietato in una competizione alla pari?
22:40
and what is absolutely taboo?
485
1360647
1418
DH: Penso che non si tratti solo di…
22:42
DH: Yeah, I think it's not just about --
486
1362107
1919
Penso che governo, società civile, mondo accademico
22:44
actually I think government and civil society
487
1364067
2127
22:46
and academia and all parts of society have a critical role to play here
488
1366194
3379
e tutta la società abbiano un ruolo fondamentale
nel plasmare, insieme ai laboratori del settore,
22:49
to shape, along with industry labs,
489
1369573
2878
22:52
what that should look like as we get closer to AGI
490
1372451
2711
questa competizione man mano che ci avviciniamo all’AGI,
22:55
and the cooperation needed and the collaboration needed,
491
1375203
3546
oltre alla cooperazione e alla collaborazione necessarie
22:58
to prevent that kind of runaway race dynamic happening.
492
1378749
2669
per prevenire la dinamica della corsa sfrenata.
23:01
CA: OK, well, it sounds like you remain optimistic.
493
1381752
2419
CA: Beh, sembri comunque ottimista. Cosa vediamo in questa immagine?
23:04
What's this image here?
494
1384171
1168
23:05
DH: That's one of my favorite images, actually.
495
1385380
2461
DH: In effetti è una delle mie immagini preferite.
23:07
I call it, like, the tree of all knowledge.
496
1387841
2044
La chiamo “l’albero della conoscenza”.
23:09
So, you know, we've been talking a lot about science,
497
1389885
2544
Abbiamo parlato molto di scienza,
23:12
and a lot of science can be boiled down to
498
1392471
3128
e se spesso la scienza può essere condensata
23:15
if you imagine all the knowledge that exists in the world
499
1395599
2711
nell’immagine di un albero della conoscenza globale,
23:18
as a tree of knowledge,
500
1398310
1543
23:19
and then maybe what we know today as a civilization is some, you know,
501
1399853
4797
allora forse tutto ciò che sappiamo oggi, come civiltà,
ne è un piccolo sottoinsieme.
23:24
small subset of that.
502
1404691
1418
23:26
And I see AI as this tool that allows us,
503
1406109
2962
E vedo l’IA come uno strumento che ci consentirà, come scienziati,
23:29
as scientists, to explore, potentially, the entire tree one day.
504
1409071
3920
di esplorare, un giorno, potenzialmente, l’intero albero.
Abbiamo questo concetto dei “problemi del nodo radice”
23:33
And we have this idea of root node problems
505
1413033
3503
23:36
that, like AlphaFold, the protein-folding problem,
506
1416578
2336
– come AlphaFold e il ripiegamento delle proteine –
23:38
where if you could crack them,
507
1418956
1459
che, se risolti,
23:40
it unlocks an entire new branch of discovery or new research.
508
1420415
4713
sbloccheranno un intero nuovo ramo di scoperte e ricerche.
23:45
And that's what we try and focus on at DeepMind
509
1425629
2252
È su questo che cerchiamo di concentrarci noi di Deep Mind e Google DeepMind.
23:47
and Google DeepMind to crack those.
510
1427923
2377
23:50
And if we get this right, then I think we could be, you know,
511
1430300
3545
E se ci riuscissimo penso che potremmo entrare
23:53
in this incredible new era of radical abundance,
512
1433887
2711
in un’incredibile, nuova era di grande abbondanza,
23:56
curing all diseases,
513
1436640
1543
di cura di tutte le malattie e di estrema diffusione della conoscenza.
23:58
spreading consciousness to the stars.
514
1438225
2210
24:01
You know, maximum human flourishing.
515
1441144
1919
L’apice della prosperità umana.
24:03
CA: We're out of time,
516
1443063
1168
CA: Il tempo è scaduto, ma ti chiedo se hai un sogno,
24:04
but what's the last example of like, in your dreams,
517
1444272
2461
24:06
this dream question that you think there is a shot
518
1446733
2962
facendo una profezia, riguardo ad un possibile traguardo
24:09
that in your lifetime AI might take us to?
519
1449736
2670
a cui potrebbe condurci l’IA nel corso della tua vita.
24:12
DH: I mean, once AGI is built,
520
1452447
2294
DH: Una volta creata l’AGI,
24:14
what I'd like to use it for is to try and use it to understand
521
1454783
3295
vorrei provare ad usarla per comprendere
24:18
the fundamental nature of reality.
522
1458120
2252
la natura fondamentale della realtà.
24:20
So do experiments at the Planck scale.
523
1460372
2836
Fare esperimenti nella scala di Planck,
24:23
You know, the smallest possible scale, theoretical scale,
524
1463250
3295
la più piccola scala teoricamente possibile,
24:26
which is almost like the resolution of reality.
525
1466586
2253
che è quasi come il confine ultimo della realtà.
24:29
CA: You know, I was brought up religious.
526
1469798
2002
CA: Sai, sono cresciuto in un ambiente religioso
24:31
And in the Bible, there’s a story about the tree of knowledge
527
1471800
2878
e nella Bibbia c’è la storia dell’albero della conoscenza
24:34
that doesn't work out very well.
528
1474720
1543
e non finisce benissimo.
24:36
(Laughter)
529
1476304
1544
(Risate)
24:37
Is there any scenario
530
1477848
3628
Può esserci uno scenario in cui…
24:41
where we discover knowledge that the universe says,
531
1481518
5297
di fronte alla nostra conoscenza, l’Universo ci dice:
24:46
"Humans, you may not know that."
532
1486815
2753
«Umani, questo va al di là della vostra comprensione.»
24:49
DH: Potentially.
533
1489943
1210
DH: Potenzialmente potrebbe esserci qualcosa di inconoscibile,
24:51
I mean, there might be some unknowable things.
534
1491153
2210
24:53
But I think scientific method is the greatest sort of invention
535
1493363
5089
ma penso che il metodo scientifico
sia la più grande “invenzione” nella storia dell’umanità.
24:58
humans have ever come up with.
536
1498493
1460
24:59
You know, the enlightenment and scientific discovery.
537
1499995
3545
Ha portato all’illuminismo e alla ricerca scientifica.
25:03
That's what's built this incredible modern civilization around us
538
1503582
3336
È alla base della straordinaria civiltà moderna in cui viviamo
25:06
and all the tools that we use.
539
1506960
2002
e degli strumenti che usiamo.
25:08
So I think it's the best technique we have
540
1508962
2669
Quindi penso che sia la tecnica migliore che abbiamo
25:11
for understanding the enormity of the universe around us.
541
1511673
3545
per comprendere l’enormità dell’Universo che ci circonda.
25:15
CA: Well, Demis, you've already changed the world.
542
1515677
2378
CA: Demis, hai già cambiato il mondo.
Penso che tutti i presenti ti sosterranno
25:18
I think probably everyone here will be cheering you on
543
1518055
3211
25:21
in your efforts to ensure that we continue to accelerate
544
1521266
3086
nello sforzo volto a garantire che l’accelerazione continui
25:24
in the right direction.
545
1524352
1252
nella giusta direzione.
25:25
DH: Thank you.
546
1525645
1168
DH: Grazie.
25:26
CA: Demis Hassabis.
547
1526813
1210
CA: Demis Hassabis.
(Applausi)
25:28
(Applause)
548
1528065
5338
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7