How AI Is Unlocking the Secrets of Nature and the Universe | Demis Hassabis | TED

434,322 views ・ 2024-04-29

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Reka Lorinczy Lektor: Peter Pallos
00:04
Chris Anderson: Demis, so good to have you here.
0
4376
2335
Chris Anderson: Demis, örülök, hogy itt vagy.
00:06
Demis Hassabis: It's fantastic to be here, thanks, Chris.
1
6711
2711
Demis Hassabis: Fantasztikus itt lenni, köszönöm, Chris.
00:09
Now, you told Time Magazine,
2
9422
2128
Azt mondtad a Time Magazine-nak:
00:11
"I want to understand the big questions,
3
11591
2044
„Szeretném megérteni a nagy kérdéseket,
00:13
the really big ones that you normally go into philosophy or physics
4
13635
3295
amelyeket általában filozófiával vagy fizikával foglalkozók
00:16
if you're interested in them.
5
16972
1793
tesznek fel maguknak.
00:18
I thought building AI
6
18807
2502
Azt hittem, az MI létrehozása adja
00:21
would be the fastest route to answer some of those questions."
7
21351
3420
a leggyorsabb választ rájuk.”
00:25
Why did you think that?
8
25730
1460
Miért gondoltad ezt?
00:27
DH: (Laughs)
9
27232
1293
DH: (Nevet)
00:28
Well, I guess when I was a kid,
10
28567
2210
Gyerekkoromban
00:30
my favorite subject was physics,
11
30819
1877
a fizika volt a kedvenc tantárgyam,
00:32
and I was interested in all the big questions,
12
32696
2752
és foglalkoztattak a világ nagy dolgai,
00:35
fundamental nature of reality,
13
35490
1960
a valóság alaptermészete,
00:37
what is consciousness,
14
37492
1335
mi a tudatosság,
00:38
you know, all the big ones.
15
38827
1752
hasonló a nagy kérdések.
00:40
And usually you go into physics, if you're interested in that.
16
40579
2961
Ezekre főleg a fizikában keressük a válaszokat, ha érdekelnek.
00:43
But I read a lot of the great physicists,
17
43540
1960
Nagyszerű fizikusoktól olvastam,
00:45
some of my all-time scientific heroes like Feynman and so on.
18
45542
2961
az örök idők tudományos hősei közül pl. Feynmantól stb.
00:48
And I realized, in the last, sort of 20, 30 years,
19
48503
2377
Rájöttem, hogy az elmúlt 20–30 évben
00:50
we haven't made much progress
20
50880
1669
alig léptünk előre
00:52
in understanding some of these fundamental laws.
21
52591
2335
ezen alapvető törvények megértésében.
00:54
So I thought, why not build the ultimate tool to help us,
22
54926
4672
Arra gondoltam, miért ne hozzuk létre segítségül a legjobb eszközt:
00:59
which is artificial intelligence.
23
59639
1710
a mesterséges intelligenciát, azaz MI-t.
01:01
And at the same time,
24
61391
1668
Ugyanakkor talán
01:03
we could also maybe better understand ourselves
25
63101
2211
jobban megérthetnénk magunkat
01:05
and the brain better, by doing that too.
26
65312
1918
és az agyat is, ha létrehozzuk.
01:07
So not only was it incredible tool,
27
67272
1710
Tehát nemcsak hihetetlen eszköz volt,
01:08
it was also useful for some of the big questions itself.
28
68982
3170
néhány nagy kérdéshez is hasznos volt.
01:12
CA: Super interesting.
29
72152
1209
CA: Remek gondolat!
01:13
So obviously AI can do so many things,
30
73403
2669
Az MI nyilván sok mindenre képes,
01:16
but I think for this conversation,
31
76072
1669
de beszélgetésünkben
01:17
I'd love to focus in on this theme of what it might do
32
77782
3754
szeretnék arra a témára összpontosítani, hogy mit tehet
01:21
to unlock the really big questions, the giant scientific breakthroughs,
33
81536
4004
az igazán nagy kérdések feltárásában, az óriási tudományos áttörésekben,
01:25
because it's been such a theme driving you and your company.
34
85582
3462
mert neked és cégednek ez a vezérgondolatod.
01:29
DH: So I mean, one of the big things AI can do,
35
89044
2794
DH: Ez az MI egyik nagy áttörése.
01:31
and I've always thought about,
36
91880
1460
Mindig foglalkoztatott,
01:33
is we're getting, you know, even back 20, 30 years ago,
37
93340
3295
már 20–30 évvel ezelőtt,
01:36
the beginning of the internet era and computer era,
38
96676
3087
az internet és a számítógépek korszakának kezdetén is,
01:39
the amount of data that was being produced
39
99804
3170
hogy az előállított és kapott tudományos adatok mennyisége
01:43
and also scientific data,
40
103016
1877
túl sokat ahhoz, hogy az emberi elme megértse.
01:44
just too much for the human mind to comprehend in many cases.
41
104934
3671
Az MI egyik felhasználása, hogy mintákat és lényeget találjon
01:48
And I think one of the uses of AI is to find patterns and insights
42
108605
4046
01:52
in huge amounts of data and then surface that
43
112692
2169
hatalmas mennyiségű adatban, majd felfedje ezt a tudósoknak,
01:54
to the human scientists to make sense of
44
114861
2461
hogy értelmet találjanak benne,
01:57
and make new hypotheses and conjectures.
45
117364
2294
és új hipotéziseket és sejtéseket alkossanak.
01:59
So it seems to me very compatible with the scientific method.
46
119699
3504
Teljesen összeegyeztethetőnek tűnik a tudományos módszerrel.
02:03
CA: Right.
47
123203
1334
CA: Rendben.
02:04
But game play has played a huge role in your own journey
48
124579
3128
A számítógépes játékok szeretete
segített neked ezt kitalálni.
02:07
in figuring this thing out.
49
127749
1293
02:09
Who is this young lad on the left there?
50
129793
2961
Ki ez a kis srác a bal oldalon?
02:12
Who is that?
51
132796
1167
Ki lehet ő?
02:13
DH: So that was me, I think I must have been about around nine years old.
52
133963
3504
DH: Ez voltam én, kb. kilencéves lehettem.
02:17
I'm captaining the England Under 11 team,
53
137467
3045
Én voltam az angol 11 év alattiak csapatkapitánya,
02:20
and we're playing in a Four Nations tournament,
54
140553
2461
és Négy Nemzet bajnokságon játszunk,
ezért vagyunk mindannyian pirosban.
02:23
that's why we're all in red.
55
143056
1376
02:24
I think we're playing France, Scotland and Wales, I think it was.
56
144432
3087
Franciaország, Skócia és Wales játszott, úgy emlékszem.
02:27
CA: That is so weird, because that happened to me too.
57
147519
4546
CA: Ez annyira furcsa, mert velem is ez történt.
02:32
In my dreams.
58
152107
1167
Álmaimban.
02:33
(Laughter)
59
153274
1168
(Nevetés)
02:34
And it wasn't just chess,
60
154818
3378
Nem csak sakkoztál,
02:38
you loved all kinds of games.
61
158238
1418
imádtál mindenféle játékot.
02:39
DH: I loved all kinds of games, yeah.
62
159656
1793
DH: Imádtam mindenféle játékot, igen.
02:41
CA: And when you launched DeepMind,
63
161449
1710
CA: Amikor elindítottad a DeepMind-ot,
02:43
pretty quickly, you started having it tackle game play.
64
163159
4088
elég gyorsan elkezdtél játékokkal foglalkozni.
02:47
Why?
65
167288
1210
Miért?
02:48
DH: Well, look, I mean, games actually got me into AI in the first place
66
168498
3420
DH: A mérkőzések elsősorban az MI-hez vezettek,
02:51
because while we were doing things like,
67
171918
2294
mert foglalkozásaink közben,
02:54
we used to go on training camps with the England team and so on.
68
174254
3044
pl. edzőtáborokban az angol csapattal stb.
02:57
And actually back then,
69
177298
1669
azokban a régi időkben,
02:58
I guess it was in the mid '80s,
70
178967
2711
azt hiszem, a 80-as évek közepén
03:01
we would use the very early chess computers,
71
181678
2169
használtuk a korai sakkszámítógépeket,
03:03
if you remember them, to train against,
72
183888
2419
ha még emlékszel, azzal edzettünk,
03:06
as well as playing against each other.
73
186349
1835
és egymás ellen is játszottunk.
03:08
And they were big lumps of plastic,
74
188184
1877
Nagy műanyag szerkezetek voltak,
03:10
you know, physical boards that you used to,
75
190103
2002
fizikai táblák, néhányan emlékeztek,
03:12
some of you remember, used to actually press the squares down
76
192105
3086
hogy a négyzeteket lenyomtunk,
03:15
and there were LED lights, came on.
77
195233
1752
és LED-es lámpák kigyulladtak.
03:17
And I remember actually, not just thinking about the chess,
78
197026
2795
Emlékszem, hogy nemcsak a sakk foglalkoztatott,
03:19
I was actually just fascinated by the fact that this lump of plastic,
79
199821
3545
hanem lenyűgözött az a tény is, hogy ezt a csomó műanyagdarabot
03:23
someone had programmed it to be smart
80
203408
3378
valaki úgy programozta, hogy okos legyen,
03:26
and actually play chess to a really high standard.
81
206828
2669
és egészen magas színvonalon sakkozzon.
03:29
And I was just amazed by that.
82
209497
1877
Magával ragadott.
03:31
And that got me thinking about thinking.
83
211374
2461
Ettől elgondolkodtam a gondolkodáson.
03:33
And how does the brain come up with these thought processes,
84
213877
3461
Hogyan alakulnak ki az agyban a gondolkodási folyamatok
03:37
these ideas,
85
217380
1168
ezekkel az ötletekkel,
03:38
and then maybe how we could mimic that with computers.
86
218548
3337
és hogyan tudnánk utánozni ezt számítógépekkel.
03:42
So yeah, it's been a whole theme for my whole life, really.
87
222218
3921
Életre szóló teljes téma.
03:46
CA: But you raised all this money to launch DeepMind,
88
226139
3170
CA: De a pénzt a DeepMind elindításához gyűjtötted össze,
03:49
and pretty soon you were using it to do, for example, this.
89
229350
4922
és hamarosan pl. erre használtad.
03:55
I mean, this is an odd use of it.
90
235190
1960
Ez furcsa felhasználás.
03:57
What was going on here?
91
237192
1209
Mi történt ekkor?
03:58
DH: Well, we started off with games at the beginning of DeepMind.
92
238443
3086
DH: A DeepMind-ot játékokkal indítottuk.
04:01
This was back in 2010, so this is from about 10 years ago,
93
241529
2711
Ez 2010-ben történt, kb. 10 éve,
04:04
it was our first big breakthrough.
94
244240
1710
ez volt az első nagy áttörésünk.
04:05
Because we started off with classic Atari games from the 1970s,
95
245992
3253
Mivel az 1970-es évek klasszikus Atari játékaival kezdtük,
04:09
the simplest kind of computer games there are out there.
96
249287
3504
a legegyszerűbb számítógépes játékok már elterjedtek.
04:12
And one of the reasons we used games is they're very convenient
97
252832
2962
A játékok használatának egyik oka,
04:15
to test out your ideas and your algorithms.
98
255835
3796
hogy nagyon kényelmesen tesztelhettük ötleteinket és algoritmusainkat.
04:19
They're really fast to test.
99
259672
1544
Rendkívül gyorsan tesztelhetők.
04:21
And also, as your systems get more powerful,
100
261674
2711
Amint a rendszereink megerősödnek,
04:24
you can choose harder and harder games.
101
264385
2336
egyre nehezebb játékokat választhatunk.
04:26
And this was actually the first time ever that our machine surprised us,
102
266721
4004
Ez volt az első alkalom, hogy a gépünk meglepett,
04:30
the first of many times,
103
270767
1293
először a sok közül,
04:32
which, it figured out in this game called Breakout,
104
272060
2419
amint ebben a Breakout nevű játékban rájött,
04:34
that you could send the ball round the back of the wall,
105
274479
2627
hogy a labdát a fal mögé is lehet küldeni,
04:37
and actually, it would be much safer way to knock out all the tiles of the wall.
106
277148
3796
és sokkal biztonságosabb lenne így kiütni a fal összes csempéjét.
04:40
It's a classic Atari game there.
107
280944
1543
Ez ott a klasszikus Atari játék.
04:42
And that was our first real aha moment.
108
282529
1876
Ez volt az első igazi aha-pillanatunk.
04:44
CA: So this thing was not programmed to have any strategy.
109
284405
2962
CA: Tehát ezt nem stratégiának programoztátok.
04:47
It was just told, try and figure out a way of winning.
110
287408
3671
Az utasítás annyi volt, hogy valahogy győzzön.
04:51
You just move the bat at the bottom and see if you can find a way of winning.
111
291120
3713
Csak mozgattad a karokat, aztán vártad, lehet-e nyerni.
04:54
DH: It was a real revolution at the time.
112
294833
2002
DH: Abban az időben igazi forradalom volt.
04:56
So this was in 2012, 2013
113
296835
1376
2012–13-ban alkottunk meg
04:58
where we coined these terms "deep reinforcement learning."
114
298211
3337
az efféle kifejezéseket: „mély megerősítő tanulás”.
05:01
And the key thing about them is that those systems were learning
115
301548
3044
A rendszerek lényege,
hogy közvetlenül a pixelekből, a képernyőn lévő nyers pixelekből tanultak,
05:04
directly from the pixels, the raw pixels on the screen,
116
304634
2586
de semmi mást nem adtunk meg nekik.
05:07
but they weren't being told anything else.
117
307262
2085
Az utasítás úgy szólt, hogy maximalizálják az eredményt.
05:09
So they were being told, maximize the score,
118
309389
2169
05:11
here are the pixels on the screen,
119
311558
1668
A képernyőn megjelenik
05:13
30,000 pixels.
120
313268
2085
30 000 pixel.
05:15
The system has to make sense on its own from first principles
121
315395
3420
A rendszernek az első képlettől önállóan kell értelmeznie,
05:18
what’s going on, what it’s controlling,
122
318857
1876
hogy mi zajlik, mit irányít,
05:20
how to get points.
123
320733
1168
hogyan lehet pontokat szerezni.
05:21
And that's the other nice thing about using games to begin with.
124
321901
3003
Ez a másik előnye, ha játékból indulunk ki.
05:24
They have clear objectives, to win, to get scores.
125
324946
2377
Világos céljaik vannak: nyerni, pontokat szerezni.
05:27
So you can kind of measure very easily that your systems are improving.
126
327323
3587
Így egészen könnyen mérhető, hogy a rendszereink javulnak-e.
05:30
CA: But there was a direct line from that to this moment
127
330910
2628
CA: Innen egyenes út vezetett
05:33
a few years later,
128
333580
1459
a néhány évvel későbbi pillanatig,
05:35
where country of South Korea and many other parts of Asia
129
335081
4129
amikor Dél-Korea és Ázsia sok más része
05:39
and in fact the world went crazy over -- over what?
130
339252
3045
és valójában a világ megőrült, miért is?
05:42
DH: Yeah, so this was the pinnacle of -- this is in 2016 --
131
342589
3712
DH: Igen, 2016-ban ez volt
05:46
the pinnacle of our games-playing work,
132
346342
2586
a játéktervező munkánk csúcsa,
05:48
where, so we'd done Atari,
133
348970
1793
ekkor készült el az Atari,
05:50
we'd done some more complicated games.
134
350763
2169
és még pár bonyolultabb játék.
05:52
And then we reached the pinnacle, which was the game of Go,
135
352974
3295
Aztán elértük a csúcsot, amely a gojáték volt,
05:56
which is what they play in Asia instead of chess,
136
356311
2961
amit Ázsiában sakk helyett játszanak,
05:59
but it's actually more complex than chess.
137
359272
2085
de bonyolultabb, mint a sakk.
06:01
And the actual brute force algorithms
138
361357
4171
A nyers erő algoritmusok,
06:05
that were used to kind of crack chess were not possible with Go
139
365528
4671
amelyeket a sakk feltöréséhez használtak, nem váltak be a gojátéknál,
06:10
because it's a much more pattern-based game,
140
370241
2419
mert sokkal több lehetséges mintázat van,
06:12
much more intuitive game.
141
372702
1293
sokkal egyedibb játék.
06:14
So even though Deep Blue beat Garry Kasparov in the '90s,
142
374037
3503
Bár a Deep Blue a 90-es években legyőzte Garry Kaszparovot,
06:17
it took another 20 years for our program, AlphaGo,
143
377582
4129
még 20 évbe telt, mire programunk, az AlphaGo
06:21
to beat the world champion at Go.
144
381753
1710
legyőzte a govilágbajnokot.
06:23
And we always thought,
145
383504
1168
Mindig azt gondoltuk
06:24
myself and the people working on this project for many years,
146
384714
2878
sok éven át a projekten dolgozó kollégáimmal,
06:27
if you could build a system that could beat the world champion at Go,
147
387634
3920
hogy ha olyan rendszert tudunk építeni, amely legyőzi a govilágbajnokot,
06:31
it would have had to have done something very interesting.
148
391596
2711
akkor valami világraszólót alkottunk.
06:34
And in this case, what we did with AlphaGo,
149
394349
2043
Megalkottuk az AlphaGo-t,
06:36
is it basically learned for itself,
150
396392
1710
amelyik aztán önfejlesztéssel
06:38
by playing millions and millions of games against itself,
151
398102
2711
és sok millió játékkal önmaga ellen
06:40
ideas about Go, the right strategies.
152
400813
1794
ötleteket gyűjtött a góról, kialakította a megfelelő stratégiáit.
06:42
And in fact invented its own new strategies
153
402607
2461
Feltalálta saját új stratégiáit,
06:45
that the Go world had never seen before,
154
405068
2002
amelyeket a govilág nem ismert,
06:47
even though we've played Go for more than,
155
407070
2627
annak ellenére,
06:49
you know, 2,000 years,
156
409697
1460
hogy több mint 2000 éve játsszuk a gót,
06:51
it's the oldest board game in existence.
157
411199
2753
ez a legrégebbi társasjáték.
Eléggé megdöbbentő volt.
06:54
So, you know, it was pretty astounding.
158
414327
1918
06:56
Not only did it win the match,
159
416245
1627
Nemcsak megnyerte a meccset,
06:57
it also came up with brand new strategies.
160
417872
2836
hanem vadonatúj stratégiákat is kitalált.
07:01
CA: And you continued this with a new strategy
161
421125
2169
CA: Új stratégiával folytattátok,
07:03
of not even really teaching it anything about Go,
162
423336
2294
nem tanítottatok semmit a góról,
07:05
but just setting up systems
163
425630
1877
hanem csak alapszabályokat adtatok meg,
07:07
that just from first principles would play
164
427548
3254
hogy a semmiből tanuljanak meg
07:10
so that they could teach themselves from scratch, Go or chess.
165
430802
5088
gót játszani vagy sakkozni.
07:15
Talk about AlphaZero and the amazing thing that happened in chess then.
166
435932
5714
Mesélj az AlphaZeróról és a sakk akkori bámulatos világáról.
07:21
DH: So following this, we started with AlphaGo
167
441646
3045
DH: Ezt követően az AlphaGo-val úgy kezdtük,
07:24
by giving it all of the human games that are being played on the internet.
168
444691
3920
hogy megadtuk az összes emberi internetes játékot.
07:28
So it started that as a basic starting point for its knowledge.
169
448611
3587
Ez volt az induló tudásbázisa.
07:32
And then we wanted to see what would happen if we started from scratch,
170
452240
3587
Aztán látni akartuk, mi történik, ha az alapoktól indulunk,
07:35
from literally random play.
171
455868
1669
szó szerint véletlenszerű játékból.
07:37
So this is what AlphaZero was.
172
457537
1501
Ez volt az AlphaZero.
07:39
That's why it's the zero in the name,
173
459038
1835
Ezért van a zéró a névben,
07:40
because it started with zero prior knowledge
174
460873
3170
mert zéró előzetes ismerettel indult.
07:44
And the reason we did that is because then we would build a system
175
464085
3128
Az volt a szándékunk,
hogy általánosabb rendszert hozzunk létre.
07:47
that was more general.
176
467213
1251
07:48
So AlphaGo could only play Go,
177
468464
1919
Tehát az AlphaGo csak gót játszhatott,
07:50
but AlphaZero could play any two-player game,
178
470425
2836
de az AlphaZero már bármilyen kétfős játékot.
07:53
and it did it by playing initially randomly
179
473302
4088
Kezdetben véletlenszerűen játszott,
07:57
and then slowly, incrementally improving.
180
477432
1960
majd fokozatosan javította önmagát.
07:59
Well, not very slowly, actually, within the course of 24 hours,
181
479434
2961
Nem túl lassan, 24 órán belül
08:02
going from random to better than world-champion level.
182
482395
3045
a véletlenszerűtől haladtunk a világbajnokinál jobb szintre.
08:06
CA: And so this is so amazing to me.
183
486315
1752
CA: Ez annyira elképesztő!
08:08
So I'm more familiar with chess than with Go.
184
488067
2127
Jobban ismerem a sakkot, mint a gót.
08:10
And for decades,
185
490194
1335
Évtizedekig MI szakértők ezrei dolgoztak
08:11
thousands and thousands of AI experts worked on building
186
491571
3462
hihetetlen sakkszámítógépek létrehozásán.
08:15
incredible chess computers.
187
495033
1334
08:16
Eventually, they got better than humans.
188
496367
2544
Végül jobbak lettek, mint az emberek.
08:18
You had a moment a few years ago,
189
498953
2211
Néhány évvel ezelőtt volt egy pillanat,
08:21
where in nine hours,
190
501205
2628
amikor kilenc óra alatt
08:23
AlphaZero taught itself to play chess better than any of those systems ever did.
191
503875
6590
az AlphaZero jobban megtanította magát sakkozni, mint bármelyik előző rendszer.
08:30
Talk about that.
192
510923
1252
Beszélj erről!
08:32
DH: It was a pretty incredible moment, actually.
193
512175
2294
DH: Igazából eléggé hihetetlen pillanat volt.
08:34
So we set it going on chess.
194
514510
2211
Sakkra állítottuk be.
08:38
And as you said, there's this rich history of chess and AI
195
518056
2752
Ahogy említetted, a sakknak és a MI-nek gazdag története van,
08:40
where there are these expert systems that have been programmed
196
520808
2920
ahol vannak szakértői rendszerek,
08:43
with these chess ideas, chess algorithms.
197
523770
2294
amelyeket sakk-ötletekkel, sakk-algoritmusokkal programoztak.
08:46
And you have this amazing, you know,
198
526105
2044
Hihetetlenül hangzik,
08:48
I remember this day very clearly, where you sort of sit down with the system
199
528191
3837
de világosan emlékszem erre a napra, amikor leültem reggel
08:52
starting off random, you know, in the morning,
200
532070
2919
a véletlenszerűen induló rendszerrel,
08:55
you go for a cup of coffee, you come back.
201
535031
2002
kávészünetet tartottam, még mindig győztem.
08:57
I can still just about beat it by lunchtime, maybe just about.
202
537075
3503
Ebédidőre már csak majdnem.
09:00
And then you let it go for another four hours.
203
540620
2210
Aztán ismét eltelt négy óra.
09:02
And by dinner,
204
542830
1168
Vacsoraidőre kész volt
09:03
it's the greatest chess-playing entity that's ever existed.
205
543998
2795
a legnagyobb sakkjátékos, amely valaha létezett.
09:06
And, you know, it's quite amazing,
206
546834
1669
Eléggé elképesztő élőben megfigyelni
09:08
like, looking at that live on something that you know well,
207
548503
3211
valami jól ismert játékot,
09:11
you know, like chess, and you're expert in
208
551714
2044
pl. a sakkot, amelyben szakértők vagyunk,
09:13
and actually just seeing that in front of your eyes.
209
553800
2460
és valójában a szemed előtt bontakozik ki.
09:16
And then you extrapolate to what it could then do in science or something else,
210
556260
3963
Aztán extrapolálunk, hogy mit tehetne a tudományban vagy valami másban,
09:20
which of course, games were only a means to an end.
211
560264
2878
a játékok persze csak a cél elérésének eszközei voltak.
09:23
They were never the end in themselves.
212
563184
1835
Önmagukban soha nem jelentették a célt.
09:25
They were just the training ground for our ideas
213
565019
2461
Csak az ötleteink kiképző területe volt,
09:27
and to make quick progress in a matter of, you know,
214
567522
2877
hogy gyorsan haladjunk,
09:30
less than five years actually went from Atari to Go.
215
570441
4046
kevesebb mint öt év telt el az Atari és a go között.
09:34
CA: I mean, this is why people are in awe of AI
216
574529
3295
CA: Ezért félünk az MI-től,
09:37
and also kind of terrified by it.
217
577865
2127
és rémülnek meg tőle.
09:40
I mean, it's not just incremental improvement.
218
580034
2169
Ez nem csak fokozatos javulás.
09:42
The fact that in a few hours you can achieve
219
582245
2919
Néhány óra alatt elérhető az,
09:45
what millions of humans over centuries have not been able to achieve.
220
585206
4796
amire embermilliók évszázadok alatt képtelenek voltak.
09:50
That gives you pause for thought.
221
590044
2586
Ettől megáll az eszünk!
09:53
DH: It does, I mean, it's a hugely powerful technology.
222
593214
2836
DH: Igen, ez rendkívül erős technológia.
09:56
It's going to be incredibly transformative.
223
596092
2044
Hihetetlenül átalakító lesz.
09:58
And we have to be very thoughtful about how we use that capability.
224
598136
4004
Megfontoltan kell használjuk ezt a képességét.
10:02
CA: So talk about this use of it because this is again,
225
602181
2586
CA: Beszélj a felhasználásáról,
10:04
this is another extension of the work you've done,
226
604767
3754
mert ez munkátok újabb kibővítése,
10:08
where now you're turning it to something incredibly useful for the world.
227
608563
4129
ahol most valamit hihetetlenül hasznossá alakítasz a világnak.
10:12
What are all the letters on the left, and what’s on the right?
228
612733
2920
Mit jelentenek a bal és a jobb oldali betűk?
10:15
DH: This was always my aim with AI from a kid,
229
615695
4129
DH: Gyerekkoromtól az MI-vel mindig az volt a célom,
10:19
which is to use it to accelerate scientific discovery.
230
619866
3169
hogy tudományos felfedezések felgyorsítására használjuk.
10:23
And actually, ever since doing my undergrad at Cambridge,
231
623035
2962
Cambridge-i diplomám megszerzése óta
10:26
I had this problem in mind one day for AI,
232
626038
2545
mindennap foglalkoztatott az MI-vel kapcsolatban
10:28
it's called the protein-folding problem.
233
628624
1919
az ún. fehérjehajtogatási probléma.
10:30
And it's kind of like a 50-year grand challenge in biology.
234
630543
2794
Ez 50 éves nagy kihívás a biológiában.
10:33
And it's very simple to explain.
235
633337
1919
Roppant egyszerű megmagyarázni.
10:35
Proteins are essential to life.
236
635256
2461
A fehérjék nélkülözhetetlenek az élethez.
10:38
They're the building blocks of life.
237
638009
1751
Ők az élet építőkövei.
10:39
Everything in your body depends on proteins.
238
639760
2086
A testben minden a fehérjéktől függ.
10:41
A protein is sort of described by its amino acid sequence,
239
641846
5380
A fehérjét az aminosav-szekvenciája írja le,
10:47
which you can think of as roughly the genetic sequence
240
647226
2544
amelyet nagyjából a fehérjét leíró genetikai szekvenciának tekinthetünk.
10:49
describing the protein, so that are the letters.
241
649812
2252
A betűkkel ezeket jelöljük.
10:52
CA: And each of those letters represents in itself a complex molecule?
242
652064
3295
CA: E betűk mindegyike összetett molekulát jelöl?
10:55
DH: That's right, each of those letters is an amino acid.
243
655401
2711
DH: Így van, a betűk mindegyike aminosav.
10:58
And you can think of them as a kind of string of beads
244
658112
2544
Úgy képzeld el őket, mint egy gyöngyfűzért;
11:00
there at the bottom, left, right?
245
660698
1919
ott alul, balra, látod?
11:02
But in nature, in your body or in an animal,
246
662658
3420
De a természetben, a testedben vagy egy állatban
11:06
this string, a sequence,
247
666078
1794
ez a gyöngysor, a szekvencia
11:07
turns into this beautiful shape on the right.
248
667914
2544
a jobb oldalon látható gyönyörű alakot ölti.
11:10
That's the protein.
249
670458
1209
Ez a fehérje.
11:11
Those letters describe that shape.
250
671709
2586
A betűk a formáját írják le.
11:14
And that's what it looks like in nature.
251
674295
2294
Így néz ki a természetben.
11:16
And the important thing about that 3D structure is
252
676589
2502
A 3D szerkezet lényege,
11:19
the 3D structure of the protein goes a long way to telling you
253
679133
3170
hogy a fehérje 3D-s szerkezete megmondja,
11:22
what its function is in the body, what it does.
254
682345
2210
mi a funkciója a testben, mit csinál.
11:24
And so the protein-folding problem is:
255
684597
2252
Tehát a fehérjehajtogatási probléma a következő:
11:26
Can you directly predict the 3D structure just from the amino acid sequence?
256
686891
4963
Meg tudjuk-e jósolni a 3D szerkezetet közvetlenül az aminosav-szekvenciából?
11:31
So literally if you give the machine, the AI system,
257
691854
2544
Tehát ha megadjuk a gépnek, az MI rendszernek
11:34
the letters on the left,
258
694440
1502
a bal oldali betűket,
11:35
can it produce the 3D structure on the right?
259
695983
2253
képes lesz-e létrehozni a jobb oldali 3D szerkezetet?
11:38
And that's what AlphaFold does, our program does.
260
698277
2336
Az AlphaFold programunk ezt tudja.
11:40
CA: It's not calculating it from the letters,
261
700613
2169
CA: Nem a betűkből számítja ki,
11:42
it's looking at patterns of other folded proteins that are known about
262
702823
4922
hanem más ismert hajtogatott fehérjék mintáit vizsgálja meg,
11:47
and somehow learning from those patterns
263
707745
2628
és ezekből a mintákból tanulja,
11:50
that this may be the way to do this?
264
710414
1752
ez lehet a módszere?
11:52
DH: So when we started this project, actually straight after AlphaGo,
265
712166
3295
DH: Amikor közvetlenül az AlphaGo után elkezdtük a projektet,
11:55
I thought we were ready.
266
715503
1168
azt hittem, készen állunk.
11:56
Once we'd cracked Go,
267
716712
1168
Miután megoldottuk a gót,
11:57
I felt we were finally ready after, you know,
268
717880
2711
úgy éreztem, végre készen állunk,
12:00
almost 20 years of working on this stuff
269
720591
1919
miután majdnem 20 évig ezen a kérdésen dolgoztunk,
12:02
to actually tackle some scientific problems,
270
722551
2586
hogy tudományos problémával foglalkozzunk,
12:05
including protein folding.
271
725179
1335
a fehérjehajtogatással is.
12:06
And what we start with is painstakingly,
272
726514
3044
Szorgalmas munkával kezdtük,
12:09
over the last 40-plus years,
273
729600
1794
az elmúlt több mint 40 évben
12:11
experimental biologists have pieced together
274
731435
3420
kísérleti biológusok
12:14
around 150,000 protein structures
275
734855
2670
kb. 150 000 fehérjeszerkezetet állítottak össze
12:17
using very complicated, you know, X-ray crystallography techniques
276
737566
3671
nagyon bonyolult röntgen- krisztallográfiai technikákkal
12:21
and other complicated experimental techniques.
277
741237
2794
és egyéb bonyolult kísérleti technikákkal.
12:24
And the rule of thumb is
278
744031
2086
Az általános szabály az,
12:26
that it takes one PhD student their whole PhD,
279
746117
3628
hogy egy doktorandusz teljes PhD-jét,
12:29
so four or five years, to uncover one structure.
280
749787
3420
vagyis négy-öt évet vesz igénybe, hogy feltárjon egy szerkezetet.
12:33
But there are 200 million proteins known to nature.
281
753207
2961
De a természetben 200 millió fehérje ismert.
12:36
So you could just, you know, take forever to do that.
282
756210
3170
Ez örök feladatnak tűnt.
12:39
And so we managed to actually fold, using AlphaFold, in one year,
283
759422
4337
Nekünk sikerült az AlphaFold használatával egy év alatt összehajtani
12:43
all those 200 million proteins known to science.
284
763801
2419
mind a 200 millió tudományosan ismert fehérjét.
12:46
So that's a billion years of PhD time saved.
285
766262
2711
Tehát ez egymilliárd év PhD időt takarított meg.
12:49
(Applause)
286
769015
3837
(Taps)
12:52
CA: So it's amazing to me just how reliably it works.
287
772893
2503
CA: Lenyűgöz, hogy mennyire megbízhatóan működik.
12:55
I mean, this shows, you know,
288
775396
2669
Ebből látjuk,
hogy a modell készen áll, csak kísérletezzünk vele!
12:58
here's the model and you do the experiment.
289
778107
2044
13:00
And sure enough, the protein turns out the same way.
290
780151
3044
Biztos, hogy a fehérje ugyanígy alakul ki.
13:03
Times 200 million.
291
783195
1210
200 milliószor.
13:04
DH: And the more deeply you go into proteins,
292
784447
2669
DH: És minél mélyebben belemerülünk a fehérjékbe,
13:07
you just start appreciating how exquisite they are.
293
787158
2711
elkezdjük értékelni, milyen finomak.
13:09
I mean, look at how beautiful these proteins are.
294
789910
2294
Nézd meg, milyen szépek ezek a fehérjék.
13:12
And each of these things do a special function in nature.
295
792246
2711
Mindegyik különleges funkciót tölt be a természetben.
13:14
And they're almost like works of art.
296
794957
1794
Szinte műalkotások.
13:16
And it's still astounds me today that AlphaFold can predict,
297
796751
2836
Ma is elámulok, hogy az AlphaFold remekül képes megjósolni –
13:19
the green is the ground truth, and the blue is the prediction,
298
799587
2961
a zöld az alapigazság, a kék pedig az előrejelzés –,
13:22
how well it can predict, is to within the width of an atom on average,
299
802548
4254
hogy az atom átlagos szélességén belül van-e,
13:26
is how accurate the prediction is,
300
806802
2044
mennyire pontos az előrejelzés.
13:28
which is what is needed for biologists to use it,
301
808888
2627
A biológusoknak ez kell
13:31
and for drug design and for disease understanding,
302
811557
2836
a gyógyszertervezéshez és a betegségek megértéséhez,
13:34
which is what AlphaFold unlocks.
303
814435
2502
amit az AlphaFold feltár.
13:36
CA: You made a surprising decision,
304
816979
1710
CA: Meglepő döntést hoztál:
13:38
which was to give away the actual results of your 200 million proteins.
305
818731
5964
szabadon elérhetővé tetted 200 millió fehérje tényleges eredményeit.
13:44
DH: We open-sourced AlphaFold and gave everything away
306
824737
3003
DH: Nyílt forráskódúvá tettük az AlphaFold-ot.
13:47
on a huge database with our wonderful colleagues,
307
827782
2294
Mindent hatalmas adatbázisba adtunk át
az Európai Bioinformatikai Intézetben dolgozó csodálatos kollégáinknak.
13:50
the European Bioinformatics Institute.
308
830117
1835
13:51
(Applause)
309
831952
3170
(Taps)
13:55
CA: I mean, you're part of Google.
310
835122
2378
CA: A Google része vagy.
13:57
Was there a phone call saying, "Uh, Demis, what did you just do?"
311
837541
3963
Felhívtak telefonon: „Szia, Demis, éppen mit csináltál?”
14:01
DH: You know, I'm lucky we have very supportive,
312
841879
2753
DH: Szerencsés vagyok, mert a Google
14:04
Google's really supportive of science
313
844673
1794
valóban támogatja a tudományt,
14:06
and understand the benefits this can bring to the world.
314
846509
4337
és megértik, milyen előnyökkel járhat ez a világnak.
14:10
And, you know, the argument here
315
850888
1543
Az az érdemi része ennek,
14:12
was that we could only ever have even scratched the surface
316
852473
3211
soha a közelében sem jártunk a lehetőségnek,
14:15
of the potential of what we could do with this.
317
855726
2211
amelyre ezzel képesek vagyunk.
14:17
This, you know, maybe like a millionth
318
857937
1877
Ez talán milliomod része annak,
14:19
of what the scientific community is doing with it.
319
859814
2377
amit a tudományos közösség elér vele.
14:22
There's over a million and a half biologists around the world
320
862233
3336
Világszerte több mint másfél millió biológus használta az AlphaFoldot
14:25
have used AlphaFold and its predictions.
321
865569
1919
és az előrejelzéseit.
14:27
We think that's almost every biologist in the world
322
867530
2419
Valószínűleg a világ szinte minden biológusa
14:29
is making use of this now, every pharma company.
323
869949
2252
és gyógyszergyártója használja.
14:32
So we'll never know probably what the full impact of it all is.
324
872243
3086
Valószínűleg soha nem fogjuk tudni, mi az egésznek a teljes hatása.
14:35
CA: But you're continuing this work in a new company
325
875329
2461
CA: De a munkát új cégnél folytatod,
14:37
that's spinning out of Google called Isomorph.
326
877832
2544
amely a Google-ból indul ki, Isomorph néven.
14:40
DH: Isomorphic.
327
880376
1251
DH: Isomorphic.
14:41
CA: Isomorphic.
328
881627
1376
CA: Isomorphic.
14:43
Give us just a sense of the vision there.
329
883879
2002
Magyarázd el az ottani munka tartalmát!
14:45
What's the vision?
330
885881
1168
Mi az elképzelésed?
14:47
DH: AlphaFold is a sort of fundamental biology tool.
331
887091
2961
DH: Az AlphaFold alapvető biológiai eszköz.
14:50
Like, what are these 3D structures,
332
890094
2627
Mik ezek a 3D struktúrák,
14:52
and then what might they do in nature?
333
892763
2795
és akkor mit tehetnek a természetben?
14:55
And then if you, you know,
334
895975
1334
Ami engem igazán lázba hozott,
14:57
the reason I thought about this and was so excited about this,
335
897309
2962
ezért gondoltam rá,
15:00
is that this is the beginnings of understanding disease
336
900271
3545
mert ez a betegségek megértésének kezdete,
15:03
and also maybe helpful for designing drugs.
337
903816
3086
és talán hasznos lehet a gyógyszertervezésben is.
15:06
So if you know the shape of the protein,
338
906944
2503
Tehát, ha ismerjük a fehérje alakját,
15:09
and then you can kind of figure out
339
909488
2378
akkor rájöhetünk,
15:11
which part of the surface of the protein
340
911907
1919
hogy a fehérje felszínének melyik részét
15:13
you're going to target with your drug compound.
341
913826
2377
célozzuk meg a gyógyszervegyületünkkel.
15:16
And Isomorphic is extending this work we did in AlphaFold
342
916245
3670
Az Isomorphic pedig kiterjeszti az AlphaFold-ban végzett munkát
15:19
into the chemistry space,
343
919957
1585
a kémiai térbe,
15:21
where we can design chemical compounds
344
921542
3003
ahol olyan kémiai vegyületeket tervezhetünk,
15:24
that will bind exactly to the right spot on the protein
345
924587
2878
amelyek a fehérje pontosan megfelelő helyéhez kötődnek,
15:27
and also, importantly, to nothing else in the body.
346
927465
3086
és ami a legfontosabb, semmi máshoz a testben.
15:30
So it doesn't have any side effects and it's not toxic and so on.
347
930593
4296
Nincs mellékhatása, és nem mérgező és így tovább.
15:34
And we're building many other AI models,
348
934930
2169
Több MI modellt építünk,
15:37
sort of sister models to AlphaFold
349
937141
2336
AlphaFold testvérmodelleket,
15:39
to help predict,
350
939477
1710
hogy segítsünk megjósolni,
15:41
make predictions in chemistry space.
351
941228
2294
előrejelzéseket készíteni a kémiai térben.
15:43
CA: So we can expect to see
352
943564
1293
CA: Tehát számíthatunk néhány
15:44
some pretty dramatic health medicine breakthroughs
353
944899
3128
elég drámai egészségügyi áttörésre
az elkövetkező néhány évben.
15:48
in the coming few years.
354
948027
1209
15:49
DH: I think we'll be able to get down drug discovery
355
949278
2711
DH: Azt hiszem, képesek leszünk évekről hónapokra csökkenteni
15:51
from years to maybe months.
356
951989
2127
a gyógyszerfeltalálás idejét.
15:54
CA: OK. Demis, I'd like to change direction a bit.
357
954158
2919
CA: Demis, szeretnék kissé témát váltani.
15:58
Our mutual friend, Liv Boeree, gave a talk last year at TEDAI
358
958329
3962
Közös barátunk, Liv Boeree tavaly beszédet tartott a TEDAI-on,
16:02
that she called the “Moloch Trap.”
359
962291
2044
„Moloch-csapda” címmel.
16:04
The Moloch Trap is a situation
360
964835
1877
A Moloch-csapda olyan helyzet,
16:06
where organizations,
361
966754
2836
amikor versenyhelyzetben lévő szervezeteket,
16:09
companies in a competitive situation can be driven to do things
362
969632
5130
vállalatokat arra lehet ösztönözni, hogy olyasmiket tegyenek,
16:14
that no individual running those companies would by themselves do.
363
974762
4629
amiket az ilyen cégeket működtető egyének saját maguk meg sem tennének.
16:19
I was really struck by this talk,
364
979391
2294
Nagyon megdöbbentett a beszéde,
16:21
and it's felt, as a sort of layperson observer,
365
981685
3587
és laikus megfigyelőként úgy éreztem,
16:25
that the Moloch Trap has been shockingly in effect in the last couple of years.
366
985272
5089
hogy a Moloch-csapda megdöbbentően érvényben volt az elmúlt pár évben.
16:30
So here you are with DeepMind,
367
990402
2044
Tehát itt vagy a DeepMind-dal,
16:32
sort of pursuing these amazing medical breakthroughs
368
992488
3170
hajtod ezeket a csodálatos orvosi
16:35
and scientific breakthroughs,
369
995699
1418
és tudományos áttöréseket,
16:37
and then suddenly, kind of out of left field,
370
997117
4004
aztán hirtelen balról bevágódik
16:41
OpenAI with Microsoft releases ChatGPT.
371
1001163
5381
az OpenAI a Microsofttal, kiadja a ChatGPT-t.
16:46
And the world goes crazy and suddenly goes, “Holy crap, AI is ...”
372
1006585
3879
A világ megőrül, és hirtelen azt mondja: „Te jó ég! Az MI-t...”
16:50
you know, everyone can use it.
373
1010464
2586
Mindenki használhatja!
16:54
And there’s a sort of, it felt like the Moloch Trap in action.
374
1014260
4045
Úgy éreztem, mintha a Moloch-csapda működne.
16:58
I think Microsoft CEO Satya Nadella actually said,
375
1018347
5130
Satya Nadella, a Microsoft vezérigazgatója azt mondta:
17:03
"Google is the 800-pound gorilla in the search space.
376
1023477
4838
„A Google a 400 kilós gorilla a keresőtérben.
17:08
We wanted to make Google dance."
377
1028357
2836
Rá akarjuk beszélni, a Google-t, hogy táncoljon.”
17:12
How ...?
378
1032319
1293
Hogyan...?
17:14
And it did, Google did dance.
379
1034613
1877
Végül megtette, a Google táncolt.
17:16
There was a dramatic response.
380
1036490
1960
Drámai válasz érkezett.
17:18
Your role was changed,
381
1038993
1167
A szereped megváltozott,
17:20
you took over the whole Google AI effort.
382
1040160
3879
átvetted a Google MI teljes erőfeszítését.
17:24
Products were rushed out.
383
1044456
1627
A termékeket sürgették.
17:27
You know, Gemini, some part amazing, part embarrassing.
384
1047251
3003
A Gemini valami csodálatos, részben kínos.
17:30
I’m not going to ask you about Gemini because you’ve addressed it elsewhere.
385
1050296
3628
Nem fogok a Geminiről kérdezni, mert máshol is foglalkoztál vele.
17:33
But it feels like this was the Moloch Trap happening,
386
1053924
3295
Talán a Moloch-csapda volt az,
hogy téged és másokat olyan dolgokra kényszerítettek,
17:37
that you and others were pushed to do stuff
387
1057261
2753
17:40
that you wouldn't have done without this sort of catalyzing competitive thing.
388
1060055
5047
amelyeket nem tettetek volna ilyen katalizáló versengés nélkül.
17:45
Meta did something similar as well.
389
1065102
2169
A Meta is valami hasonlót tett.
17:47
They rushed out an open-source version of AI,
390
1067313
3336
Hirtelen kiadták az MI nyílt forráskódú verzióját,
17:50
which is arguably a reckless act in itself.
391
1070691
3295
ami önmagában vitathatatlanul meggondolatlan cselekedet.
17:55
This seems terrifying to me.
392
1075613
1459
Ez engem megrémiszt.
17:57
Is it terrifying?
393
1077072
1835
Szerinted is az?
17:59
DH: Look, it's a complicated topic, of course.
394
1079617
2252
DH: Ez bonyolult téma.
18:01
And, first of all, I mean, there are many things to say about it.
395
1081869
3879
Sok mindent el kell mondani róla.
18:05
First of all, we were working on many large language models.
396
1085789
4421
Először is, sok nagy nyelvi modellen dolgoztunk.
18:10
And in fact, obviously, Google research actually invented Transformers,
397
1090252
3337
Tény, hogy a Google kutatása feltalálta a Transformerst,
18:13
as you know,
398
1093589
1168
ez volt az az architektúra,
18:14
which was the architecture that allowed all this to be possible,
399
1094798
3045
amely lehetővé tette, hogy mindez megvalósuljon
18:17
five, six years ago.
400
1097885
1251
öt-hat évvel ezelőtt.
18:19
And so we had many large models internally.
401
1099178
2669
Sok nagy belső modellünk volt.
18:21
The thing was, I think what the ChatGPT moment did that changed was,
402
1101847
3879
A ChatGPT megjelenése változást hozott,
18:25
and fair play to them to do that, was they demonstrated,
403
1105768
3128
méltányos, hogy megtették, bizonyítani akartak,
18:28
I think somewhat surprisingly to themselves as well,
404
1108937
2795
kissé meglepő módon maguknak is,
18:31
that the public were ready to,
405
1111732
2502
hogy a nyilvánosság készen áll rá,
18:34
you know, the general public were ready to embrace these systems
406
1114276
3003
hogy a nagyközönség kész volt elfogadni ezeket a rendszereket,
18:37
and actually find value in these systems.
407
1117279
1960
és értéket találni bennük.
Lenyűgöző e rendszereken dolgoznunk,
18:39
Impressive though they are, I guess, when we're working on these systems,
408
1119281
3962
leginkább a hibákra és arra összpontosítunk, amit nem csinálnak,
18:43
mostly you're focusing on the flaws and the things they don't do
409
1123243
3003
18:46
and hallucinations and things you're all familiar with now.
410
1126288
2836
hallucinációkra és olyasmikre, amiket mindannyian ismertek.
18:49
We're thinking, you know,
411
1129124
1377
Arra gondoltunk,
18:50
would anyone really find that useful given that it does this and that?
412
1130501
3587
akad valaki, aki hasznosnak találná, mert ezt és azt teszi?
18:54
And we would want them to improve those things first,
413
1134129
2503
Szeretnénk, ha előbb javítanának ezeket a dolgokon,
18:56
before putting them out.
414
1136674
1418
mielőtt kiadjuk őket.
18:58
But interestingly, it turned out that even with those flaws,
415
1138133
3754
De érdekes módon kiderült, hogy még a hibákkal együtt is
19:01
many tens of millions of people still find them very useful.
416
1141929
2919
sok tízmillióan találják nagyon hasznosnak.
19:04
And so that was an interesting update on maybe the convergence of products
417
1144848
4922
Ez érdekes értesülés volt a termékek és a tudomány konvergenciájáról,
19:09
and the science that actually,
418
1149770
3712
hogy mindezek a csodálatos dolgok,
19:13
all of these amazing things we've been doing in the lab, so to speak,
419
1153524
3253
amelyeket a laborban hoztunk létre,
19:16
are actually ready for prime time for general use,
420
1156819
3003
tényleg készen állnak az általános használatra
19:19
beyond the rarefied world of science.
421
1159822
2002
a tudomány titokzatos világán túl is.
19:21
And I think that's pretty exciting in many ways.
422
1161824
2627
Ez sok szempontból nagyon izgalmas.
19:24
CA: So at the moment, we've got this exciting array of products
423
1164910
2961
CA: Jelenleg izgalmas termékválasztékunk van,
19:27
which we're all enjoying.
424
1167913
1210
amelyet mindannyian élvezünk.
19:29
And, you know, all this generative AI stuff is amazing.
425
1169164
2586
Az általános MI dolog csodálatos.
19:31
But let's roll the clock forward a bit.
426
1171750
2086
De tekerjük előre kicsit az időt.
19:34
Microsoft and OpenAI are reported to be building
427
1174503
3962
A Microsoft és az OpenAI a jelentések szerint
19:38
or investing like 100 billion dollars
428
1178507
2336
mintegy 100 milliárd dollárt fektet be
19:40
into an absolute monster database supercomputer
429
1180884
5005
egy abszolút gigantikus adatbázis-szuperszámítógépbe,
19:45
that can offer compute at orders of magnitude
430
1185889
3212
amely nagyságrenddel többet tud kínálni,
19:49
more than anything we have today.
431
1189143
2544
mint bármi mai létező.
19:52
It takes like five gigawatts of energy to drive this, it's estimated.
432
1192104
3920
Becslések szerint öt gigawatt energia kell a működtetéséhez.
19:56
That's the energy of New York City to drive a data center.
433
1196066
4254
Ez New York nagyságrendű energia egy adatközpont működtetéséhez.
20:00
So we're pumping all this energy into this giant, vast brain.
434
1200612
3420
Ennyi energiát pumpálunk az óriási agyba.
20:04
Google, I presume is going to match this type of investment, right?
435
1204658
4046
Feltételezem, hogy a Google megfelel ilyen típusú befektetéseknek.
20:09
DH: Well, I mean, we don't talk about our specific numbers,
436
1209037
2795
DH: Nem a konkrét számainkról beszélünk,
20:11
but you know, I think we're investing more than that over time.
437
1211874
3336
de idővel ennél többet fektetünk be.
20:15
So, and that's one of the reasons
438
1215252
1960
Ez az egyik oka annak, hogy 2014-ben
20:17
we teamed up with Google back in 2014,
439
1217212
2169
együttműködtünk a Google-lal,
20:19
is kind of we knew that in order to get to AGI,
440
1219381
3921
sejtettük, hogy az AGI-hoz jussunk,
20:23
we would need a lot of compute.
441
1223343
1502
sok számításra lesz szükségünk.
20:24
And that's what's transpired.
442
1224887
1501
Ez így is alakult.
20:26
And Google, you know, had and still has the most computers.
443
1226430
3420
A Google-nak, volt és még mindig a legtöbb számítógépe van.
20:30
CA: So Earth is building these giant computers
444
1230309
2961
CA: A Föld óriási számítógépeket épít,
20:33
that are going to basically, these giant brains,
445
1233270
2294
ezek az óriási agyak fogják működtetni
20:35
that are going to power so much of the future economy.
446
1235564
2878
a jövő gazdaságának nagy részét.
20:38
And it's all by companies that are in competition with each other.
447
1238484
3878
Ezt egymással versengő vállalatok teszik.
20:42
How will we avoid the situation where someone is getting a lead,
448
1242362
5589
Hogyan kerüljük el azt a helyzetet, amikor valaki vezető helyzetbe jutva
20:47
someone else has got 100 billion dollars invested in their thing.
449
1247993
4213
a más dolgába fektet be 100 milliárd dollárt?
20:52
Isn't someone going to go, "Wait a sec.
450
1252206
2085
Nem fogják azt mondani:: „Várj egy percet.
20:54
If we used reinforcement learning here
451
1254333
3378
Ha itt a megerősítő tanulást használnánk,
20:57
to maybe have the AI tweak its own code
452
1257753
2919
hogy az MI módosítsa a saját kódját,
21:00
and rewrite itself and make it so [powerful],
453
1260714
2252
és újraírja magát, és olyan erőssé tesszük,
21:03
we might be able to catch up in nine hours over the weekend
454
1263008
3212
hogy a hétvégére kilenc óra múlva
képesek leszünk utolérni őket.
21:06
with what they're doing.
455
1266220
1167
21:07
Roll the dice, dammit, we have no choice.
456
1267429
1960
Kockáztassunk, a fenébe, nincs más választásunk!
21:09
Otherwise we're going to lose a fortune for our shareholders."
457
1269431
2920
Másképp elveszítjük a részvényeseink vagyonát.”
21:12
How are we going to avoid that?
458
1272351
1835
Hogyan fogjuk ezt elkerülni?
21:14
DH: Yeah, well, we must avoid that, of course, clearly.
459
1274228
2627
DH: Ezt nyilván el kell kerülnünk.
21:16
And my view is that as we get closer to AGI,
460
1276855
3587
Ahogy közelebb kerülünk az AGI-hez,
21:20
we need to collaborate more.
461
1280442
2378
jobban együtt kell működjünk.
21:22
And the good news is that most of the scientists involved in these labs
462
1282820
4879
A jó hír az, hogy a laborokban munkálkodó tudósok zöme
21:27
know each other very well.
463
1287741
1376
nagyon jól ismeri egymást.
21:29
And we talk to each other a lot at conferences and other things.
464
1289117
3546
Sokat beszélünk egymással konferenciákon és máskor.
21:32
And this technology is still relatively nascent.
465
1292704
2503
Ez a technológia még mindig viszonylag kialakulóban van.
21:35
So probably it's OK what's happening at the moment.
466
1295249
2419
Valószínűleg rendben van, ami jelenleg történik.
21:37
But as we get closer to AGI, I think as a society,
467
1297709
4421
De ahogy közelebb kerülünk az AGI-hez,
21:42
we need to start thinking about the types of architectures that get built.
468
1302172
4713
társadalomként el kell gondolkodnunk a felépülő architektúrák típusairól.
21:46
So I'm very optimistic, of course,
469
1306927
1793
Természetesen egészen optimista vagyok,
21:48
that's why I spent my whole life working on AI and working towards AGI.
470
1308762
4838
ezért dolgoztam egész életemben az MI-n és az AGI-n.
21:53
But I suspect there are many ways to build the architecture safely, robustly,
471
1313600
6507
De gyanítom, hogy sokféleképpen lehet biztonságosan, robusztusan,
22:00
reliably and in an understandable way.
472
1320148
3170
megbízhatóan és érthető módon építeni.
22:03
And I think there are almost certainly going to be ways of building architectures
473
1323318
3837
Szinte biztosan lesznek szerkezetépítő módszerek,
amelyek valamiért nem biztonságosak vagy kockázatosak.
22:07
that are unsafe or risky in some form.
474
1327155
1836
22:09
So I see a sort of,
475
1329032
2127
Szűk keresztmetszeten
22:11
a kind of bottleneck that we have to get humanity through,
476
1331201
3087
kell átjuttatnunk az emberiséget,
22:14
which is building safe architectures as the first types of AGI systems.
477
1334329
6340
amely biztonságos első típusú AGI-rendszer architektúrákat épít.
22:20
And then after that, we can have a sort of,
478
1340711
2502
Aztán tanúi lehetünk
többféle rendszer virágzásának,
22:23
a flourishing of many different types of systems
479
1343255
2753
de talán megválunk azoktól a biztonságos architektúráktól,
22:26
that are perhaps sharded off those safe architectures
480
1346049
3712
amelyek működésükhöz ideális esetben
22:29
that ideally have some mathematical guarantees
481
1349761
3337
matematikai vagy legalábbis gyakorlati garanciát nyújtottak.
22:33
or at least some practical guarantees around what they do.
482
1353140
3003
22:36
CA: Do governments have an essential role here
483
1356143
2252
CA: Vajon alapvető szerepük van a kormányoknak,
22:38
to define what a level playing field looks like
484
1358437
2210
hogy meghatározzák az egyenlő versenyfeltételeket,
22:40
and what is absolutely taboo?
485
1360647
1418
és azt, mi abszolút tabu?
22:42
DH: Yeah, I think it's not just about --
486
1362107
1919
DH: Ez nem csak arról szól...
22:44
actually I think government and civil society
487
1364067
2127
A kormánynak, a civil társadalomnak,
22:46
and academia and all parts of society have a critical role to play here
488
1366194
3379
az akadémiai köröknek és az egész társadalomnak fontos szerepe van abban,
22:49
to shape, along with industry labs,
489
1369573
2878
hogy az ipari laborokkal együtt meghatározzák,
22:52
what that should look like as we get closer to AGI
490
1372451
2711
hogy vezessük be az AGI-t,
22:55
and the cooperation needed and the collaboration needed,
491
1375203
3546
mindezt összefogva és együttműködve,
22:58
to prevent that kind of runaway race dynamic happening.
492
1378749
2669
hogy megakadályozzuk az elszabaduló versenydinamikát.
23:01
CA: OK, well, it sounds like you remain optimistic.
493
1381752
2419
CA: Úgy hangzik, hogy optimista maradsz.
23:04
What's this image here?
494
1384171
1168
Mi ez a kép itt?
23:05
DH: That's one of my favorite images, actually.
495
1385380
2461
DH: Ez az egyik kedvenc képem.
23:07
I call it, like, the tree of all knowledge.
496
1387841
2044
A mindentudás fájának nevezem.
23:09
So, you know, we've been talking a lot about science,
497
1389885
2544
Sokat beszéltünk a tudományról,
23:12
and a lot of science can be boiled down to
498
1392471
3128
és sok tudományt leszűkíthetünk,
23:15
if you imagine all the knowledge that exists in the world
499
1395599
2711
ha a világban létező összes tudást
23:18
as a tree of knowledge,
500
1398310
1543
a tudás fájaként képzeljük el,
23:19
and then maybe what we know today as a civilization is some, you know,
501
1399853
4797
és talán azt, amit ma civilizációként ismerünk,
23:24
small subset of that.
502
1404691
1418
az ennek kis részhalmaza.
23:26
And I see AI as this tool that allows us,
503
1406109
2962
Az MI-t úgy látom, mint azt az eszközt, amely lehetővé teszi
23:29
as scientists, to explore, potentially, the entire tree one day.
504
1409071
3920
nekünk tudósoknak, hogy egy nap felfedezzük az egész fát.
23:33
And we have this idea of root node problems
505
1413033
3503
Vannak gyökércsomópont- probléma ismereteink, –
23:36
that, like AlphaFold, the protein-folding problem,
506
1416578
2336
mint például az AlphaFold, a fehérjehajtogatási probléma –,
23:38
where if you could crack them,
507
1418956
1459
amelyeket ha megoldunk,
23:40
it unlocks an entire new branch of discovery or new research.
508
1420415
4713
a felfedezés vagy új kutatás teljesen új ágát nyitja meg.
23:45
And that's what we try and focus on at DeepMind
509
1425629
2252
Erre próbálunk összpontosítani a DeepMind-nál
23:47
and Google DeepMind to crack those.
510
1427923
2377
és a Google DeepMind-nál, hogy ezeket feltörjük.
23:50
And if we get this right, then I think we could be, you know,
511
1430300
3545
Ha ez sikerül, akkor hihetetlen
23:53
in this incredible new era of radical abundance,
512
1433887
2711
radikális bőségben élhetünk,
23:56
curing all diseases,
513
1436640
1543
meggyógyítjuk az összes betegséget,
23:58
spreading consciousness to the stars.
514
1438225
2210
és a tudatosságot a csillagokig terjeszthetjük.
24:01
You know, maximum human flourishing.
515
1441144
1919
Maximális emberi jólétet jelent.
24:03
CA: We're out of time,
516
1443063
1168
CA: Elfogyott az időnk,
24:04
but what's the last example of like, in your dreams,
517
1444272
2461
de mi az utolsó álompéldád, áhított kérdésed,
24:06
this dream question that you think there is a shot
518
1446733
2962
amelyre szerinted van esély,
24:09
that in your lifetime AI might take us to?
519
1449736
2670
ahova az MI elvezethet minket még életünk során?
24:12
DH: I mean, once AGI is built,
520
1452447
2294
DH: Amint az AGI kiépül,
24:14
what I'd like to use it for is to try and use it to understand
521
1454783
3295
megpróbálom használni
24:18
the fundamental nature of reality.
522
1458120
2252
a valóság alapvető természetének megértésére.
24:20
So do experiments at the Planck scale.
523
1460372
2836
Tehát végezzen kísérleteket Planck-skálán.
24:23
You know, the smallest possible scale, theoretical scale,
524
1463250
3295
Ez a lehető legkisebb skála, elméleti skála,
24:26
which is almost like the resolution of reality.
525
1466586
2253
amely majdnem olyan, mint a valóság felbontása.
24:29
CA: You know, I was brought up religious.
526
1469798
2002
CA: Vallásosan nevelkedtem.
24:31
And in the Bible, there’s a story about the tree of knowledge
527
1471800
2878
A Bibliában a tudás fájáról van egy történet,
24:34
that doesn't work out very well.
528
1474720
1543
amely nem túl jól alakult.
24:36
(Laughter)
529
1476304
1544
(Nevetés)
24:37
Is there any scenario
530
1477848
3628
Van-e olyan forgatókönyv,
24:41
where we discover knowledge that the universe says,
531
1481518
5297
amikor felfedezzük a tudást, de az univerzum azt mondja:
24:46
"Humans, you may not know that."
532
1486815
2753
„Emberek, ezt talán nem tudjátok.”
24:49
DH: Potentially.
533
1489943
1210
DH: Lehetséges.
24:51
I mean, there might be some unknowable things.
534
1491153
2210
Lehet, hogy vannak megismerhetetlen dolgok.
24:53
But I think scientific method is the greatest sort of invention
535
1493363
5089
De a tudományos módszer
a valaha létezett legnagyobb emberi találmány.
24:58
humans have ever come up with.
536
1498493
1460
24:59
You know, the enlightenment and scientific discovery.
537
1499995
3545
A felvilágosodás és a tudományos felfedezés
25:03
That's what's built this incredible modern civilization around us
538
1503582
3336
építette fel körülöttünk a hihetetlen modern civilizációt
25:06
and all the tools that we use.
539
1506960
2002
és az összes eszközt, amelyet használunk.
25:08
So I think it's the best technique we have
540
1508962
2669
Úgy gondolom, hogy ez a legjobb technika
25:11
for understanding the enormity of the universe around us.
541
1511673
3545
a körülöttünk lévő univerzum hatalmasságának megértéséhez.
25:15
CA: Well, Demis, you've already changed the world.
542
1515677
2378
CA: Demis, te már megváltoztattad a világot.
25:18
I think probably everyone here will be cheering you on
543
1518055
3211
Itt mindenki csodálja erőfeszítésed,
25:21
in your efforts to ensure that we continue to accelerate
544
1521266
3086
hogy továbbra is a helyes irányba gyorsuljunk.
25:24
in the right direction.
545
1524352
1252
25:25
DH: Thank you.
546
1525645
1168
DH: Köszönöm.
25:26
CA: Demis Hassabis.
547
1526813
1210
CA: Demis Hassabis.
25:28
(Applause)
548
1528065
5338
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7