Can we build AI without losing control over it? | Sam Harris

3,794,879 views ・ 2016-10-19

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Rita Hajnal Lektor: Reka Lorinczy
00:13
I'm going to talk about a failure of intuition
0
13000
2216
A hibás előérzetekről fogok beszélni,
00:15
that many of us suffer from.
1
15240
1600
amitől oly sokan szenvedünk.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Valóban hibás egy bizonyos fajta veszély felismerése.
00:21
I'm going to describe a scenario
3
21360
1736
Felvázolok egy forgatókönyvet,
00:23
that I think is both terrifying
4
23120
3256
amelyről úgy gondolom egyszerre ijesztő,
00:26
and likely to occur,
5
26400
1760
és bekövetkezése egyben valószínűsíthető,
00:28
and that's not a good combination,
6
28840
1656
és ez a kettő együtt nem jó kombináció,
00:30
as it turns out.
7
30520
1536
ahogy az bebizonyosodik majd.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Ennek ellenére a többségetek az ijedtség helyett úgy érzi majd,
00:34
that what I'm talking about is kind of cool.
9
34560
2080
hogy amiről beszélek, egy menő dolog.
00:37
I'm going to describe how the gains we make
10
37200
2976
El fogom magyarázni,
hogy a mesterséges intelligencia fejlődése
00:40
in artificial intelligence
11
40200
1776
00:42
could ultimately destroy us.
12
42000
1776
miként semmisíthet meg bennünket.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Úgy vélem, nehezebb felismerni, hogyan nem pusztítanak el minket,
00:47
or inspire us to destroy ourselves.
14
47280
1680
vagy buzdítanak minket önmagunk elpusztítására.
00:49
And yet if you're anything like me,
15
49400
1856
De ha kicsit is hasonlítasz rám,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
rájössz majd, mennyire vicces dolog ezeken elmélkedni.
00:53
And that response is part of the problem.
17
53960
3376
És ez a fajta reakció szintén a probléma része.
00:57
OK? That response should worry you.
18
57360
1720
Értitek ugye? A reakció miatt aggódnotok kellene.
00:59
And if I were to convince you in this talk
19
59920
2656
Ha az előadással meg tudlak győzni benneteket,
01:02
that we were likely to suffer a global famine,
20
62600
3416
hogy a globális éhínség várhatóan bekövetkezik majd,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
klímaváltozás vagy más katasztrófa hatására,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
és hogy az unokátokra, vagy az ő unokáikra
01:12
are very likely to live like this,
23
72560
1800
nagy valószínűséggel hasonló élet vár,
01:15
you wouldn't think,
24
75200
1200
magatokban nem gondolnátok:
01:17
"Interesting.
25
77440
1336
"Érdekes.
01:18
I like this TED Talk."
26
78800
1200
Tetszik ez a TED előadás."
01:21
Famine isn't fun.
27
81200
1520
Az éhínség nem vicc.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
A tudományos-fantasztikum általi halál ezzel ellentétben vicces,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
de ami engem aggaszt leginkább, a MI jelenlegi állapotát illetően,
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
hogy képtelenek vagyunk az előttünk álló veszélyekhez
01:35
to the dangers that lie ahead.
31
95320
1816
megfelelő érzelmi reakciót párosítani.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Képtelen vagyok irányítani a reakciót, pedig én tartom az előadást.
01:42
It's as though we stand before two doors.
33
102120
2696
Olyan, mintha két ajtó előtt állnánk.
01:44
Behind door number one,
34
104840
1256
Az egyes számú ajtó mögött
01:46
we stop making progress in building intelligent machines.
35
106120
3296
leállunk az intelligens gépek fejlesztésével.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Valamilyen okból a hardverek és szoftverek fejlesztése leáll.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Egy percre kérlek, gondoljatok bele, miért történne ilyesmi.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Tudván, mekkora érték rejlik az intelligenciában és automatizálásban,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
ha mód van rá, folytatni fogjuk a technológiai fejlesztéseket.
02:05
What could stop us from doing this?
40
125200
1667
Mi állhatna az utunkba?
02:07
A full-scale nuclear war?
41
127800
1800
Egy mindent elsöprő nukleáris háború?
02:11
A global pandemic?
42
131000
1560
Egy globális járvány?
02:14
An asteroid impact?
43
134320
1320
Egy aszteroida becsapódása?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Biebert megválasztják elnöknek?
02:20
(Laughter)
45
140240
2280
(Nevetés)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Bármi legyen is, az általunk ismert civilizációt kellene megsemmisítse.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Képzeld el, mennyire borzasztónak kellene lennie ahhoz,
02:33
to prevent us from making improvements in our technology
48
153680
3336
hogy leálljunk a technológiai fejlesztésekkel,
02:37
permanently,
49
157040
1216
egyik nemzedék a másik után,
02:38
generation after generation.
50
158280
2016
mindörökre.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Fogalmazhatnánk úgy is, hogy ez a legrosszabb,
02:42
that's ever happened in human history.
52
162480
2016
ami valaha történhet az emberiség történelmében.
02:44
So the only alternative,
53
164520
1296
Így az egyetlen alternatíva,
02:45
and this is what lies behind door number two,
54
165840
2336
és ez rejlik a kettes számú ajtó mögött,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
hogy folytatjuk az intelligens gépek fejlesztését,
02:51
year after year after year.
56
171360
1600
egyik évről a másikra.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
És elérkezünk a ponthoz, amikor nálunk okosabb gépeket hozunk létre.
02:58
and once we have machines that are smarter than we are,
58
178080
2616
És amint létrehoztuk a minket meghaladó okos gépeket,
03:00
they will begin to improve themselves.
59
180720
1976
megkezdik majd önmaguk fejlesztését.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
És ezzel megkockáztatjuk azt, amit IJ Good matematikus
03:05
an "intelligence explosion,"
61
185480
1776
úgy hívott: "intelligencia-robbanás".
03:07
that the process could get away from us.
62
187280
2000
Amikor a fejlődésük kicsúszik a kezünk közül.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Sokszor kifigurázzák, mint én is itt,
03:12
as a fear that armies of malicious robots
64
192960
3216
miként rettegünk a rosszindulatú robotok
03:16
will attack us.
65
196200
1256
támadásától.
03:17
But that isn't the most likely scenario.
66
197480
2696
De nem ez a legvalószínűbb forgatókönyv.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
A gépek nem fognak egyik pillanatról a másikra gonosszá válni.
03:25
The concern is really that we will build machines
68
205080
2616
A valós aggály abban rejlik, hogy olyan gépeket hozunk létre,
03:27
that are so much more competent than we are
69
207720
2056
melyek meghaladják a mi képességeinket,
03:29
that the slightest divergence between their goals and our own
70
209800
3776
és a legapróbb összeférhetetlenség az ő és saját céljaink között
03:33
could destroy us.
71
213600
1200
a végünket jelentheti.
03:35
Just think about how we relate to ants.
72
215960
2080
Csak gondoljatok bele, mi hogyan viszonyulunk a hangyákhoz.
03:38
We don't hate them.
73
218600
1656
Nem utáljuk őket.
03:40
We don't go out of our way to harm them.
74
220280
2056
Nem akarjuk szándékosan bántalmazni őket.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Sőt, néha megóvásukra áldozatokat is hozunk értük.
03:44
We step over them on the sidewalk.
76
224760
2016
Kikerüljük őket a járdán.
03:46
But whenever their presence
77
226800
2136
De amint összeütközik a jelenlétük
03:48
seriously conflicts with one of our goals,
78
228960
2496
a céljaink megvalósításával,
03:51
let's say when constructing a building like this one,
79
231480
2477
mint például egy ilyen épület felhúzásakor,
03:53
we annihilate them without a qualm.
80
233981
1960
szemrebbenés nélkül kiírtjuk valamennyit.
03:56
The concern is that we will one day build machines
81
236480
2936
A gond az, hogy egy napon olyan gépeket hozunk létre,
03:59
that, whether they're conscious or not,
82
239440
2736
amelyek, akár tudatosak akár nem,
04:02
could treat us with similar disregard.
83
242200
2000
hasonlóképpen viszonyulnak majd hozzánk.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Gondolom, ez sokatok számára, elképzelhetetlennek tűnik.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Fogadni mernék, hogy egyesek a MI lehetőségét is megkérdőjelezik,
04:15
much less inevitable.
86
255720
1656
mintsem elkerülhetetlennek véljék.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
De akkor valami mégsem stimmel a következő feltevésekkel.
04:21
And there are only three of them.
88
261044
1572
Amiből mindössze csak három van.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Az intelligencia a fizikai rendszerekben feldolgozott információból származik.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Tulajdonképpen, ez kicsivel több puszta feltevésnél.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
A közvetlen intelligenciát már beépítettük a gépeinkbe,
04:35
and many of these machines perform
92
275440
2016
mely gépek többsége már most
04:37
at a level of superhuman intelligence already.
93
277480
2640
emberfeletti teljesítményekre képes.
04:40
And we know that mere matter
94
280840
2576
Azt is tudjuk, hogy az anyag önmagában
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
életre tudja hívni az úgynevezett "alap intelligenciát,"
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
a különböző tartományokon belüli rugalmas gondolkodás képességét,
04:49
because our brains have managed it. Right?
97
289760
3136
hiszen saját agyunk is képes volt rá, nem igaz?
04:52
I mean, there's just atoms in here,
98
292920
3936
Mivel itt legbelül csak atomok vannak,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
és amíg atomokból álló rendszereket építünk,
05:01
that display more and more intelligent behavior,
100
301400
2696
melyek egyre intelligensebb viselkedést mutatnak,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
akkor egyszer, hacsak nem lépünk közbe,
05:06
we will eventually build general intelligence
102
306680
3376
akkor egyszer megépítjük az alap intelligenciával
05:10
into our machines.
103
310080
1296
rendelkező gépeket.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Mindennél fontosabb azonban felismerni, hogy a fejlődés üteme lényegtelen,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
mert a fejlődés önmagában elegendő ahhoz, hogy célba érjünk.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Nincs szükségünk Moore-törvényre, sem exponenciális növekedésre.
05:22
We just need to keep going.
107
322080
1600
Csak haladnunk kell tovább.
05:25
The second assumption is that we will keep going.
108
325480
2920
A második feltevés, hogy haladunk tovább.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Egyre intelligensebb gépeket hozunk létre.
05:33
And given the value of intelligence --
110
333000
4376
És ami az intelligencia értékét illeti --
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
az intelligencia, vagy a forrása a számunkra értékesnek,
05:40
or we need it to safeguard everything we value.
112
340960
2776
vagy megóvja számunkra mindazt, amit értékesnek tartunk.
05:43
It is our most valuable resource.
113
343760
2256
Az egyik legértékesebb erőforrásunk.
05:46
So we want to do this.
114
346040
1536
Szóval megakarjuk alkotni.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Vannak problémák, melyeket haladéktalanul meg kell oldanunk.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Meg akarjuk gyógyítani az Alzheimert, a rákot és hasonló betegségeket.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Érteni akarjuk a gazdasági rendszereket. Javítani akarjuk a klímaismereteinket.
05:58
So we will do this, if we can.
118
358920
2256
Amint mód van rá, megtesszük ezeket.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
A vonat már elhagyta az állomást, és nincs fék, amit behúzhatnánk.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Végül is nem vagyunk az intelligencia tetőfokán,
06:11
or anywhere near it, likely.
121
371360
1800
de még csak a közelében sem járunk.
06:13
And this really is the crucial insight.
122
373640
1896
És ez itt a lényeges momentum.
06:15
This is what makes our situation so precarious,
123
375560
2416
Ez teszi a helyzetünket különösen bizonytalanná,
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
és pont ezért megbízhatatlanok a veszélyhez fűződő előérzeteink.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Képzeljük el a valaha élt legokosabb embert.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Minden bizonnyal Neumann János szerepel mindenki listáján.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Ahogy Neumann hatni tudott a körülötte lévő emberekre,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
többek között minden idők legjobb matematikusaira és fizikusaira,
06:37
is fairly well-documented.
129
397520
1936
annak bárki utánajárhat.
06:39
If only half the stories about him are half true,
130
399480
3776
Ha a róla szóló történeteknek csak a fele is igaz,
06:43
there's no question
131
403280
1216
akkor kétségkívül
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
ő a világon valaha élt legokosabb ember.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Képzeljük el az intelligencia tartományát.
06:50
Here we have John von Neumann.
134
410320
1429
Itt van Neumann János.
06:53
And then we have you and me.
135
413560
1334
És itt vagytok ti és én.
06:56
And then we have a chicken.
136
416120
1296
Itt pedig egy csirke.
06:57
(Laughter)
137
417440
1936
(Nevetés)
06:59
Sorry, a chicken.
138
419400
1216
Elnézést, egy kiscsirke.
07:00
(Laughter)
139
420640
1256
(Nevetés)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Nem akarom ezt a beszédet még lesújtóbbá tenni.
07:05
(Laughter)
141
425680
1600
(Nevetés)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Valószínűsíthető, hogy az intelligencia tartománya
07:11
extends much further than we currently conceive,
143
431840
3120
sokkalta tágabb, mint ahogy azt gondolnánk,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
és ha magunknál intelligensebb gépeket építünk,
akkor azok valószínűleg olyan területeket tárnak fel,
07:19
they will very likely explore this spectrum
145
439120
2296
07:21
in ways that we can't imagine,
146
441440
1856
melyeket elképzelni sem tudunk,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
és ott múlnak felül minket, ahol nem is sejtjük.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Fontos belátni, hogy ez pusztán a sebességet tekintve már igaz.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Ugye? Mi lenne, ha olyan szuperintelligens MI-t hoznánk létre,
07:36
that was no smarter than your average team of researchers
150
456440
3456
ami semmivel sem okosabb egy hétköznapi kutatócsoportnál
07:39
at Stanford or MIT.
151
459920
2296
az MIT-n vagy a Stanford Egyetemen.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Az elektronikus áramkörök milliószor gyorsabban működnek,
07:45
than biochemical ones,
153
465240
1256
mint a biokémiaiak,
07:46
so this machine should think about a million times faster
154
466520
3136
ezért ez a gép milliószor gyorsabb gondolkodásra lesz képes,
07:49
than the minds that built it.
155
469680
1816
mind azok az elmék, akik ezt létrehozták.
07:51
So you set it running for a week,
156
471520
1656
Szóval életre kelted, és alig egy hét alatt
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
20 000 évnyi emberi szellemi munkát végez el.
07:58
week after week after week.
158
478400
1960
És ezt hétről hétre megismétli.
08:01
How could we even understand, much less constrain,
159
481640
3096
Képtelenség felfogni, nemhogy kordában tartani
08:04
a mind making this sort of progress?
160
484760
2280
egy elmét, ami ilyen mértékű fejlődésre képes.
08:08
The other thing that's worrying, frankly,
161
488840
2136
A másik, ami aggodalomra ad okot, őszintén szólva,
08:11
is that, imagine the best case scenario.
162
491000
4976
ez a legjobb, ami megtörténhet velünk.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Képzeljük el, hogy olyan szuperintelligens MI-t alkotunk,
08:20
that has no safety concerns.
164
500200
1376
ami nem rejt biztonsági kockázatokat.
08:21
We have the perfect design the first time around.
165
501600
3256
Rögtön, elsőre létrehozzuk a legtökéletesebb változatát.
08:24
It's as though we've been handed an oracle
166
504880
2216
Mintha kezünkbe kapnánk a mindentudást,
08:27
that behaves exactly as intended.
167
507120
2016
ami pont úgy működik, ahogy kell.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Ez a gép lenne a leghatékonyabb munkaerő-helyettesítő berendezés.
08:33
It can design the machine that can build the machine
169
513680
2429
Létrehozná a gépet, amely létrehozná azt a gépet,
amely bármilyen fizikai munkát elvégez,
08:36
that can do any physical work,
170
516133
1763
08:37
powered by sunlight,
171
517920
1456
napenergia hajtja,
08:39
more or less for the cost of raw materials.
172
519400
2696
és költségét csak az anyagköltség okozza.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Az emberi robotolás végéről beszélünk.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
De ez egyben a szellemi munka végét is jelenti.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Vajon ilyen esetben mit tennének a hozzánk hasonló emberszabásúak?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Nos, bármikor frizbizhetnénk, vagy masszírozhatnánk egymást.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Jöhet egy kis LSD, pár extravagáns ruhadarab,
09:00
and the whole world could be like Burning Man.
178
540720
2176
és az egész világ Burning Manné változhatna.
09:02
(Laughter)
179
542920
1640
(Nevetés)
09:06
Now, that might sound pretty good,
180
546320
2000
Ez tényleg jó mókának hangzik,
09:09
but ask yourself what would happen
181
549280
2376
de tegyétek fel magatoknak a kérdést,
09:11
under our current economic and political order?
182
551680
2736
hogy mi történne a jelenlegi gazdasági és politika rendszerekkel.
09:14
It seems likely that we would witness
183
554440
2416
Azt hiszem, szemtanúi lehetnénk
09:16
a level of wealth inequality and unemployment
184
556880
4136
egy soha nem látott mértékű
jóléti aránytalanságnak és munkanélküliségnek.
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Hacsak nem állítanánk ezt az újfajta jólétet
09:25
to the service of all humanity,
187
565200
1480
az emberiség szolgálatába,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
akkor pár milliárdos villogna az üzleti magazinok címlapján,
09:31
while the rest of the world would be free to starve.
189
571280
2440
miközben a világ többi része éhen pusztulna.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Vajon mit tennének az oroszok vagy a kínaiak,
09:36
if they heard that some company in Silicon Valley
191
576640
2616
ha megtudnák, hogy az egyik Szilícium-völgyben lévő cég
09:39
was about to deploy a superintelligent AI?
192
579280
2736
bevetni készül a szuperintelligens MI-t?
09:42
This machine would be capable of waging war,
193
582040
2856
Ez a gép a hadviselésre is képes lenne,
09:44
whether terrestrial or cyber,
194
584920
2216
akár földön, akár a kibertérben,
09:47
with unprecedented power.
195
587160
1680
soha nem tapasztalt erőfölénnyel.
09:50
This is a winner-take-all scenario.
196
590120
1856
Ez a győztes-mindent-visz forgatókönyv.
09:52
To be six months ahead of the competition here
197
592000
3136
Ezt a versenyt hat hónappal beelőzni,
09:55
is to be 500,000 years ahead,
198
595160
2776
minimum
09:57
at a minimum.
199
597960
1496
500 000 év szükséges.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Ezért már az ilyen áttörésről szóló leghalványabb pletyka is
10:04
could cause our species to go berserk.
201
604240
2376
fajunk totális megvadulásába torkollhat.
10:06
Now, one of the most frightening things,
202
606640
2896
A legijesztőbb dolog azonban
10:09
in my view, at this moment,
203
609560
2776
- az én meglátásom szerint - jelen pillanatban az,
10:12
are the kinds of things that AI researchers say
204
612360
4296
amit az MI-kutatók mondogatnak,
10:16
when they want to be reassuring.
205
616680
1560
amikor meg akarnak nyugtatni minket.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
Az aggodalmakra adott leggyakoribb válaszuk az idő.
10:22
This is all a long way off, don't you know.
207
622480
2056
Annyira messze van még, hát nem tudjátok.
10:24
This is probably 50 or 100 years away.
208
624560
2440
50 vagy 100 év is eltelik addig.
10:27
One researcher has said,
209
627720
1256
Az egyik kutató szerint:
10:29
"Worrying about AI safety
210
629000
1576
"A MI biztonsága miatt aggódni olyan,
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
mintha a túlnépesedés miatt aggódnánk a Marson."
10:34
This is the Silicon Valley version
212
634116
1620
Ez a szilícium-völgyi változata annak,
10:35
of "don't worry your pretty little head about it."
213
635760
2376
hogy "ne törd ezen a szép kis buksidat".
10:38
(Laughter)
214
638160
1336
(Nevetés)
10:39
No one seems to notice
215
639520
1896
Senkinek nem tűnik fel,
10:41
that referencing the time horizon
216
641440
2616
hogy az időhorizontra való hivatkozás,
10:44
is a total non sequitur.
217
644080
2576
totál nem passzol a képbe.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Ha az intelligencia csupán az információ feldolgozásából áll,
10:49
and we continue to improve our machines,
219
649960
2656
és mi folytatjuk a gépek fejlesztését,
10:52
we will produce some form of superintelligence.
220
652640
2880
akkor létre fogunk hozni valamiféle szuperintelligenciát.
10:56
And we have no idea how long it will take us
221
656320
3656
És fogalmunk sincs mennyi időbe telik majd megteremteni
11:00
to create the conditions to do that safely.
222
660000
2400
a biztonságos kivitelezés feltételeit.
11:04
Let me say that again.
223
664200
1296
Hadd ismételjem meg:
11:05
We have no idea how long it will take us
224
665520
3816
Fogalmunk sincs mennyi időbe telik majd megteremteni
11:09
to create the conditions to do that safely.
225
669360
2240
a biztonságos kivitelezés feltételeit.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Ha nem tűnt volna fel, az elmúlt 50 év sem olyan, mint az előzőek.
11:16
This is 50 years in months.
227
676400
2456
Ez az 50 év hónapokra bontva.
11:18
This is how long we've had the iPhone.
228
678880
1840
Ilyen régóta létezik az iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Ilyen régóta megy a tévében a "Simpson család".
11:24
Fifty years is not that much time
230
684680
2376
50 év nem egy hosszú idő,
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
hogy elérkezzünk fajunk egyik legnagyobb kihívásához.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Ismétlem: képtelenek vagyunk megfelelő érzelmi reakcióval kezelni,
11:35
to what we have every reason to believe is coming.
233
695680
2696
ami minden kétséget kizáróan előttünk áll.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Stuart Russell számítógéptudósnak van egy szép analógiája.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Azt mondta: Képzeljük el, hogy kapunk egy üzenetet egy idegen civilizációtól,
11:47
which read:
236
707320
1696
amiben ez áll:
11:49
"People of Earth,
237
709040
1536
"Földi népség,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
50 év múlva érkezünk.
11:53
Get ready."
239
713800
1576
Készüljetek fel!"
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Elkezdenénk visszaszámlálni, amíg meg nem érkezik az anyahajó?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Sokkal sürgetőbbnek éreznénk, mint most.
12:04
Another reason we're told not to worry
242
724680
1856
Az aggodalmakra adott másik válasz,
12:06
is that these machines can't help but share our values
243
726560
3016
hogy ezek a gépek osztják a mi nézeteinket,
12:09
because they will be literally extensions of ourselves.
244
729600
2616
mivel ők a mi saját kiterjesztéseink.
12:12
They'll be grafted onto our brains,
245
732240
1816
Az agyunkba lesznek ültetve,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
aminek folytán limbikus rendszerükké válunk.
12:17
Now take a moment to consider
247
737120
1416
Egyetlen pillanatra gondoljunk csak bele,
12:18
that the safest and only prudent path forward,
248
738560
3176
azt javasolják,
12:21
recommended,
249
741760
1336
hogy az egyetlen biztonságos és megbízható módszer az,
12:23
is to implant this technology directly into our brains.
250
743120
2800
ha ezt a technológiát közvetlenül az agyunkba ültetjük be.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Nos, lehet, hogy az egyetlen biztonságos és megbízható módszer,
12:30
but usually one's safety concerns about a technology
252
750000
3056
de a technológiák biztonsági kockázatait
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
alaposan tesztelni kéne, mielőtt bármit bárki fejébe ültetnék.
12:36
(Laughter)
254
756760
2016
(Nevetés)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
A mélyebb probléma az, hogy egy szuperintelligens MI létrehozása,
már önmagában is egyszerűbbnek bizonyul,
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
mint létrehozni a szuperintelligens MI-t,
12:47
and having the completed neuroscience
258
767800
1776
és megalkotni hozzá a szükséges idegtudományt,
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
amely lehetővé teszi a saját elménkkel való gond nélküli összekapcsolását.
12:52
And given that the companies and governments doing this work
260
772800
3176
És mivel az ezen dolgozó vállalatok és kormányok
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
vetélytársként tekintenek egymásra,
12:59
given that to win this race is to win the world,
262
779680
3256
mondván, hogy a verseny győzelme egyben a világ feletti győzelem is,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
hacsak nem rombolják le a következő pillanatban,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
akkor valószínűleg a könnyebb megoldás
13:08
will get done first.
265
788080
1200
fog előbb megvalósulni.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Nos, sajnos a problémára nem tudom a megoldást.
13:13
apart from recommending that more of us think about it.
267
793440
2616
Csak javasolni tudom, hogy minél többen gondolkodjunk el ezen.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Úgy vélem, szükségünk lenne a mesterséges intelligencia
13:18
on the topic of artificial intelligence.
269
798480
2016
Manhattan-projektjére.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Nem a megépítéséhez, mert azt hiszem, ez elkerülhetetlen,
13:23
but to understand how to avoid an arms race
271
803280
3336
hanem hogy megértsük, hogyan kerüljük el a fegyverkezési versenyt,
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
és hozzuk létre úgy, hogy összhangban legyen az érdekeinkkel.
13:30
When you're talking about superintelligent AI
273
810160
2136
Ha szuperintelligens MI-ról beszélünk,
13:32
that can make changes to itself,
274
812320
2256
amely önmaga megváltoztatására is képes,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
akkor egyetlen esélyünk van a kezdeti feltételek helyes meghatározására,
13:39
and even then we will need to absorb
276
819240
2056
és még akkor is szükség lesz az ezzel járó
13:41
the economic and political consequences of getting them right.
277
821320
3040
gazdasági és politikai következmények elfogadására.
13:45
But the moment we admit
278
825760
2056
És amint elfogadjuk,
13:47
that information processing is the source of intelligence,
279
827840
4000
hogy az intelligencia forrása az információ feldolgozásában rejlik,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
és hogy az intelligencia alapja egy megfelelő számítógépes rendszer,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
és elfogadjuk, hogy ezeket a rendszereket folyamatosan fejleszteni fogjuk,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
és hogy a megismerés horizontja messze meghaladja
14:07
what we currently know,
283
847760
1200
jelenlegi tudásunkat,
14:10
then we have to admit
284
850120
1216
akkor be kell majd látnunk,
14:11
that we are in the process of building some sort of god.
285
851360
2640
hogy valamiféle isten megalkotása felé haladunk.
14:15
Now would be a good time
286
855400
1576
Most van itt a pillanat,
14:17
to make sure it's a god we can live with.
287
857000
1953
hogy olyan istent alkossunk, amellyel együtt is tudunk élni.
14:20
Thank you very much.
288
860120
1536
Nagyon köszönöm.
14:21
(Applause)
289
861680
5093
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7