Can we build AI without losing control over it? | Sam Harris

3,792,802 views ・ 2016-10-19

TED


Pre spustenie videa dvakrát kliknite na anglické titulky nižšie.

Translator: Marek Bednárik Reviewer: Linda Magáthová
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Budem hovoriť o zlyhaní intuície,
00:15
that many of us suffer from.
1
15240
1600
ktorým trpí mnoho z nás.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Vlastne ide o zlyhanie odhalenia určitého druhu nebezpečia.
00:21
I'm going to describe a scenario
3
21360
1736
Popíšem vám situáciu,
00:23
that I think is both terrifying
4
23120
3256
o ktorej si myslím, že je desivá
00:26
and likely to occur,
5
26400
1760
a zároveň pravdepodobná,
00:28
and that's not a good combination,
6
28840
1656
čo, ako vieme,
00:30
as it turns out.
7
30520
1536
nie je dobrá kombinácia.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
A aj tak, mnohí z vás nebudú vystrašení, ale budú
00:34
that what I'm talking about is kind of cool.
9
34560
2080
si myslieť, že to, o čom hovorím, je cool.
00:37
I'm going to describe how the gains we make
10
37200
2976
Budem hovoriť o tom, ako nás pokrok,
00:40
in artificial intelligence
11
40200
1776
ktorý dosahujeme v umelej inteligencii,
00:42
could ultimately destroy us.
12
42000
1776
môže nakoniec úplne zničiť.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
A vskutku si myslím, že je ťažké nevidieť, že nás zničí, alebo nás
00:47
or inspire us to destroy ourselves.
14
47280
1680
inšpiruje, aby sme sa zničili sami.
00:49
And yet if you're anything like me,
15
49400
1856
A pokiaľ ste ako ja,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
je pre vás zábavou zamýšľať sa nad tým.
00:53
And that response is part of the problem.
17
53960
3376
Naše reakcie sú súčasťou toho problému.
00:57
OK? That response should worry you.
18
57360
1720
Tieto reakcie by vás mali trápiť.
00:59
And if I were to convince you in this talk
19
59920
2656
Ak by som vás teraz presvedčoval,
01:02
that we were likely to suffer a global famine,
20
62600
3416
že ľudstvo pravdepodobne zasiahne globálny hladomor,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
buď kvôli klimatickým zmenám, alebo z dôvodu inej katastrofy,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
a že vaše vnúčatá a ich vnúčatá
01:12
are very likely to live like this,
23
72560
1800
budú pravdepodobne žiť takto,
01:15
you wouldn't think,
24
75200
1200
určite si nepomyslíte,
01:17
"Interesting.
25
77440
1336
"Zaujímavé.
01:18
I like this TED Talk."
26
78800
1200
To je pekná prednáška."
01:21
Famine isn't fun.
27
81200
1520
Hladomor nie je zábava.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Na druhú stranu, smrť v sci-fi zábavná je,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
jedna z vecí, ktorá ma na vývoji umelej inteligencie trápi najviac, je, že nie sme
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
schopní primerane emocionálne reagovať
01:35
to the dangers that lie ahead.
31
95320
1816
na nebezpečie, ktoré leží pred nami.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Ja sám nie som toho schopný a sám o tom teraz prednášam.
01:42
It's as though we stand before two doors.
33
102120
2696
Pomyslite si, že stojíme pred dvoma dvermi.
01:44
Behind door number one,
34
104840
1256
Za dvermi číslo jedna
01:46
we stop making progress in building intelligent machines.
35
106120
3296
zastavíme vývoj a budovanie inteligentných strojov.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Počítačový software a hardware sa prosto z nejakého dôvodu prestane vylepšovať.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Zastavme sa na chvíľu a premýšľajme, prečo by toto mohlo nastať.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
S ohľadom nato, akým prínosom inteligencia a automatizácia pre nás je,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
budeme technológie stále zlepšovať, pokiaľ toho budeme vôbec schopní.
02:05
What could stop us from doing this?
40
125200
1667
Čo by nás mohlo v tomto zastaviť?
02:07
A full-scale nuclear war?
41
127800
1800
Celosvetová nukleárna vojna?
02:11
A global pandemic?
42
131000
1560
Globálna pandémia?
02:14
An asteroid impact?
43
134320
1320
Dopad asteroidu?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber prezidentom USA?
02:20
(Laughter)
45
140240
2280
(smiech)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Ide o to, že by našu súčasnú civilizáciu, tak ako ju poznáme, muselo niečo zničiť.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Predstavte si, ako zlé by to muselo byť,
02:33
to prevent us from making improvements in our technology
48
153680
3336
aby sme neboli schopní ďalej vylepšovať naše technológie,
02:37
permanently,
49
157040
1216
neustále,
02:38
generation after generation.
50
158280
2016
generáciu za generáciou.
02:40
Almost by definition, this is the worst thing
51
160320
2136
V zásade je to tá najhoršia vec,
02:42
that's ever happened in human history.
52
162480
2016
aká by mohla v ľudských dejinách nastať.
02:44
So the only alternative,
53
164520
1296
Takže jedinou alternatívou,
02:45
and this is what lies behind door number two,
54
165840
2336
ktorá je za dvermi číslo dva,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
je pokračovať v zdokonaľovaní našich inteligentných strojov,
02:51
year after year after year.
56
171360
1600
postupne rok za rokom.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
A v určitom okamžiku postavíme stroje, ktoré budú chytrejšie než my sami,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
a keď budeme mať stroje, ktoré budú chytrejšie od nás,
03:00
they will begin to improve themselves.
59
180720
1976
tak sa začnú zdokonaľovať samy.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
A v tom okamihu hrozí situácia, ktorú matematik I.J.Good
03:05
an "intelligence explosion,"
61
185480
1776
nazval "inteligenčná explózia,"
03:07
that the process could get away from us.
62
187280
2000
a vtedy by sa to mohlo vymknúť z rúk.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Ako vidíte napríklad tu, táto téma sa často karikuje,
03:12
as a fear that armies of malicious robots
64
192960
3216
ako obava z armád zlých robotov,
03:16
will attack us.
65
196200
1256
ktoré na nás zaútočia.
03:17
But that isn't the most likely scenario.
66
197480
2696
Ale toto nie je najpravdepodobnejší scenár.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Nie je to tak, že by stroje zrazu začali byť zlé.
03:25
The concern is really that we will build machines
68
205080
2616
Problém je v tom, že vytvoríme stroje,
03:27
that are so much more competent than we are
69
207720
2056
ktoré budú oveľa schopnejšie než sme my,
03:29
that the slightest divergence between their goals and our own
70
209800
3776
takže aj tá najjemnejšia odchýlka medzi ich a našimi cieľmi,
03:33
could destroy us.
71
213600
1200
by nás mohla zničiť.
03:35
Just think about how we relate to ants.
72
215960
2080
Zamyslite sa, ako sa chováme k mravcom.
03:38
We don't hate them.
73
218600
1656
Nemáme nič proti nim.
03:40
We don't go out of our way to harm them.
74
220280
2056
Neubližujeme im cielene.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Dokonca občas znesieme bolesť a neubližujeme im.
03:44
We step over them on the sidewalk.
76
224760
2016
Prekračujeme ich na chodníku.
03:46
But whenever their presence
77
226800
2136
Ale kedykoľvek je ich prítomnosť
03:48
seriously conflicts with one of our goals,
78
228960
2496
vo vážnom konflikte s našimi cieľmi,
03:51
let's say when constructing a building like this one,
79
231480
2477
povedzme, keď staviame budovu ako táto,
03:53
we annihilate them without a qualm.
80
233981
1960
tak ich bez mihnutia oka zničíme.
03:56
The concern is that we will one day build machines
81
236480
2936
Obávam sa, že jedného dňa vytvoríme stroje,
03:59
that, whether they're conscious or not,
82
239440
2736
ktoré, vedome alebo nevedome, budú s nami
04:02
could treat us with similar disregard.
83
242200
2000
zachádzať s podobnou ľahostajnosťou.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Mnohím z vás to príde pritiahnuté za vlasy.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Vsadím sa, že mnohí z vás pochybujú, že super inteligentné stroje sú možné,
04:15
much less inevitable.
86
255720
1656
tobôž, že by to nevyhnutne nastalo.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Potom však musíte nájsť niečo nesprávne v nasledujúcich predpokladoch.
04:21
And there are only three of them.
88
261044
1572
A v podstate sú len tri.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Inteligencia je výsledkom spracovania informácie v hmotných systémoch.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Vlastne, toto je trochu viac než len predpoklad.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Do strojov sme už obmedzenú inteligenciu zabudovali
04:35
and many of these machines perform
92
275440
2016
a veľa z týchto strojov už pracuje
04:37
at a level of superhuman intelligence already.
93
277480
2640
na úrovni super inteligentných ľudí.
04:40
And we know that mere matter
94
280840
2576
A vieme, že bežná hmota
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
môže byť vznikom takzvanej "všeobecnej inteligencie",
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
teda schopnosti flexibilne myslieť naprieč rôznymi oblasťami,
04:49
because our brains have managed it. Right?
97
289760
3136
pretože naše mozgy to už dokázali, však?
04:52
I mean, there's just atoms in here,
98
292920
3936
Mám na mysli, že naše mozgy sa skladajú len z atómov,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
a pokiaľ budeme pokračovať v budovaní systémov z atómov,
05:01
that display more and more intelligent behavior,
100
301400
2696
ktoré vykazujú čoraz inteligentnejšie správanie,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
tak nakoniec, pokiaľ nás niečo nezastaví,
05:06
we will eventually build general intelligence
102
306680
3376
zabudujeme všeobecnú inteligenciu
05:10
into our machines.
103
310080
1296
do našich strojov.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Kľúčové je si uvedomiť, že na rýchlosti pokroku nezáleží,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
pretože k dosiahnutiu cieľa stačí akékoľvek tempo.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Nepotrebujeme Mooreov zákon, nie je nutný exponenciálny vývoj.
05:22
We just need to keep going.
107
322080
1600
Jednoducho stačí pokračovať.
05:25
The second assumption is that we will keep going.
108
325480
2920
Druhým predpokladom je, že budeme pokračovať.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Budeme naďalej zlepšovať naše inteligentné stroje.
05:33
And given the value of intelligence --
110
333000
4376
A keďže inteligencia je pre nás dôležitá -
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
mám na mysli, že inteligencia je buď zdrojom všetkého, čo si ceníme,
05:40
or we need it to safeguard everything we value.
112
340960
2776
alebo ju potrebujeme na ochranu všetkého, čo si ceníme.
05:43
It is our most valuable resource.
113
343760
2256
Je to náš najhodnotnejší zdroj.
05:46
So we want to do this.
114
346040
1536
Takže v tom chceme pokračovať.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Máme problémy, ktoré zúfalo musíme vyriešiť.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Chceme liečiť choroby ako Alzheimer a rakovina.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Chceme porozumieť ekonomickým systémom. Chceme zlepšiť náš klimatický výskum.
05:58
So we will do this, if we can.
118
358920
2256
Takže, pokiaľ to pôjde, budeme pokračovať.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Tento vlak je už rozbehnutý a nejde ho zastaviť.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
A, nakoniec, my nestojíme na vrchole inteligencie a pravdepodobne
06:11
or anywhere near it, likely.
121
371360
1800
ani niekde blízko vrcholu.
06:13
And this really is the crucial insight.
122
373640
1896
Toto je skutočne kľúčový pohľad.
06:15
This is what makes our situation so precarious,
123
375560
2416
To je dôvod, prečo je naša situácia taká prekérna,
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
a dôvod, prečo je naša intuícia taká nespoľahlivá pri posudzovaní rizík.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Vezmite si trebárs najmúdrejšiu osobu, ktorá kedy žila.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Takmer každý by do najužšieho výberu zaradil Johna von Neumanna.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
To, akým dojmom pôsobil van Neumann na ľudí okolo seba,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
medzi ktorých patrili najlepší matematici a fyzici tej doby,
06:37
is fairly well-documented.
129
397520
1936
je veľmi dobre zdokumentované.
06:39
If only half the stories about him are half true,
130
399480
3776
Ak by len polovica historiek o ňom bola aspoň z polovice pravdivá,
06:43
there's no question
131
403280
1216
tak nie je pochýb,
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
že patril medzi najmúdrejších ľudí v histórii.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Takže zvážme spektrum inteligencie.
06:50
Here we have John von Neumann.
134
410320
1429
Tu máme John von Neumanna.
06:53
And then we have you and me.
135
413560
1334
A tu ste vy a ja.
06:56
And then we have a chicken.
136
416120
1296
A tu máme kura.
06:57
(Laughter)
137
417440
1936
(smiech)
06:59
Sorry, a chicken.
138
419400
1216
Pardon, kura.
07:00
(Laughter)
139
420640
1256
(smiech)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Nie je dôvod, aby bola táto prednáška depresívnejšia, než je nutné.
07:05
(Laughter)
141
425680
1600
(smiech)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Zdá sa nanajvýš pravdepodobné, že rozsah inteligencie
07:11
extends much further than we currently conceive,
143
431840
3120
je oveľa širší, než ako ho v súčasnosti vnímame,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
a keď postavíme stroje, ktoré budú inteligentnejšie než sme my,
07:19
they will very likely explore this spectrum
145
439120
2296
tak budú veľmi pravdepodobne skúmať to spektrum
07:21
in ways that we can't imagine,
146
441440
1856
spôsobom, ktorý si nevieme predstaviť,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
a presiahnu nás spôsobom, ktorý si nevieme predstaviť.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
A je dôležité rozoznať, že je tomu tak už vďaka samotnej rýchlosti.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Predstavte si, že sme vytvorili super inteligentnú umelú inteligenciu (AI),
07:36
that was no smarter than your average team of researchers
150
456440
3456
ktorá je rovnako chytrá ako priemerný tím vedcov
07:39
at Stanford or MIT.
151
459920
2296
na Stanforde alebo MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Lenže elektronické obvody fungujú asi miliónkrát rýchlejšie
07:45
than biochemical ones,
153
465240
1256
než biochemické,
07:46
so this machine should think about a million times faster
154
466520
3136
takže, takýto stroj by mohol myslieť asi miliónkrát rýchlejšie
07:49
than the minds that built it.
155
469680
1816
ako myseľ, ktorá ho zostrojila.
07:51
So you set it running for a week,
156
471520
1656
Takže, keď ho spustíte na týždeň,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
tak vykoná rovnakú intelektuálnu prácu, ktorá by ľuďom trvala 20 000 rokov,
07:58
week after week after week.
158
478400
1960
týždeň za týždňom.
08:01
How could we even understand, much less constrain,
159
481640
3096
Ako by sme vôbec mohli pochopiť, či snáď nejako obmedziť
08:04
a mind making this sort of progress?
160
484760
2280
myseľ schopnú takéhoto pokroku?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Úprimne, je tu ďalšia znepokojivá vec -
08:11
is that, imagine the best case scenario.
162
491000
4976
predstavte si najlepší možný scenár.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Predstavte si, že sa nám podarí navrhnúť super inteligentnú AI, ktorá nebude mať
08:20
that has no safety concerns.
164
500200
1376
žiadne bezpečnostné hrozby.
08:21
We have the perfect design the first time around.
165
501600
3256
Budeme mať perfektnú verziu hneď na prvý pokus.
08:24
It's as though we've been handed an oracle
166
504880
2216
Ako keby sa naplnila veštba a všetko
08:27
that behaves exactly as intended.
167
507120
2016
by fungovalo, tak ako bolo zamýšľané.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Takýto stroj by ľuďom perfektne uľahčoval prácu.
08:33
It can design the machine that can build the machine
169
513680
2429
Dokázal by navrhnúť stroj, ktorý by zostrojil stroje,
08:36
that can do any physical work,
170
516133
1763
čo vykonajú akúkoľvek fyzickú prácu,
08:37
powered by sunlight,
171
517920
1456
napájané slnečným žiarením,
08:39
more or less for the cost of raw materials.
172
519400
2696
viac-menej za cenu vstupných materiálov.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Takže, hovoríme o konci ľudskej driny.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Hovoríme taktiež o konci väčšiny intelektuálnej práce.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Ale čo by také opice ako sme my robili za takýchto okolností?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
No, mali by sme čas hrať Frisbee a vzájomne sa masírovať.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Pridali by sme nejaké to LSD a pochybné oblečenie
09:00
and the whole world could be like Burning Man.
178
540720
2176
a celý svet by mohol byť ako "Burning Man".
09:02
(Laughter)
179
542920
1640
(smiech)
09:06
Now, that might sound pretty good,
180
546320
2000
Teraz, aj keď to znie lákavo,
09:09
but ask yourself what would happen
181
549280
2376
ale spýtajte sa sami seba, čo by mohlo nastať,
09:11
under our current economic and political order?
182
551680
2736
keby ekonomika a politika fungovali tak ako dnes?
09:14
It seems likely that we would witness
183
554440
2416
Zdá sa pravdepodobné, že by sme boli svedkami
09:16
a level of wealth inequality and unemployment
184
556880
4136
takej sociálnej nerovnosti a nezamestnanosti,
09:21
that we have never seen before.
185
561040
1496
ako nikdy predtým.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Absencia ochoty poskytnúť toto nové bohatstvo
09:25
to the service of all humanity,
187
565200
1480
do služieb celého ľudstva.
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
Niekoľko miliardárov by zdobilo titulky obchodných magazínov,
09:31
while the rest of the world would be free to starve.
189
571280
2440
zatiaľčo zbytok sveta by pokojne hladoval.
09:34
And what would the Russians or the Chinese do
190
574320
2296
A čo by urobili Rusi a Číňania, ak by sa
09:36
if they heard that some company in Silicon Valley
191
576640
2616
dozvedeli, že nejaká spoločnosť v Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
sa chystá nasadiť super inteligentnú AI?
09:42
This machine would be capable of waging war,
193
582040
2856
Takýto stroj by bol schopný viesť vojnu,
09:44
whether terrestrial or cyber,
194
584920
2216
či už pozemnú alebo kybernetickú
09:47
with unprecedented power.
195
587160
1680
s nebývalou silou.
09:50
This is a winner-take-all scenario.
196
590120
1856
To je scenár, kde víťaz berie všetko.
09:52
To be six months ahead of the competition here
197
592000
3136
Šesťmesačný náskok pred konkurenciou
09:55
is to be 500,000 years ahead,
198
595160
2776
by znamenal minimálne náskok
09:57
at a minimum.
199
597960
1496
500 000 rokov.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Zdá sa, že číre fámy o prelome v tejto oblasti
10:04
could cause our species to go berserk.
201
604240
2376
by nás mohli priviesť k nepríčetnosti.
10:06
Now, one of the most frightening things,
202
606640
2896
Jedna z najdesivejších vecí
10:09
in my view, at this moment,
203
609560
2776
v tejto chvíli z môjho pohľadu
10:12
are the kinds of things that AI researchers say
204
612360
4296
je to, čo hovoria vedci, ktorí vyvíjajú umelú inteligenciu,
10:16
when they want to be reassuring.
205
616680
1560
keď nás chcú upokojiť.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
Najčastejším dôvodom, prečo sa vraj nemáme obávať, je čas.
10:22
This is all a long way off, don't you know.
207
622480
2056
Toto všetko je ešte ďaleko, všakže.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Ešte to potrvá pravdepodobne 50 alebo 100 rokov.
10:27
One researcher has said,
209
627720
1256
Jeden výskumník povedal:
10:29
"Worrying about AI safety
210
629000
1576
"Obávať sa bezpečnosti AI
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
je ako báť sa preľudnenia Marsu."
10:34
This is the Silicon Valley version
212
634116
1620
Toto je je verzia Silicon Valley:
10:35
of "don't worry your pretty little head about it."
213
635760
2376
"Nechaj to koňovi, ten má väčšiu hlavu."
10:38
(Laughter)
214
638160
1336
(smiech)
10:39
No one seems to notice
215
639520
1896
Zdá sa, že nikto nezaznamenal,
10:41
that referencing the time horizon
216
641440
2616
že odvolávať sa na časový horizont
10:44
is a total non sequitur.
217
644080
2576
je totálne nelogické.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Ak je inteligencia len spôsob spracovania informácií
10:49
and we continue to improve our machines,
219
649960
2656
a my budeme pokračovať v zlepšovaní našich strojov,
10:52
we will produce some form of superintelligence.
220
652640
2880
tak vytvoríme nejakú formu super inteligencie.
10:56
And we have no idea how long it will take us
221
656320
3656
A nemáme poňatia, ako dlho nám bude trvať,
11:00
to create the conditions to do that safely.
222
660000
2400
než ju vytvoríme za bezpečných podmienok.
11:04
Let me say that again.
223
664200
1296
Poviem to ešte raz.
11:05
We have no idea how long it will take us
224
665520
3816
Nemáme poňatia, ako dlho nám bude trvať,
11:09
to create the conditions to do that safely.
225
669360
2240
než ju vytvoríme za bezpečných podmienok.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
A možno ste si nevšimli, že 50 rokov už nie je to, čo bývalo.
11:16
This is 50 years in months.
227
676400
2456
Toto je 50 rokov v mesiacoch.
11:18
This is how long we've had the iPhone.
228
678880
1840
Takto dlho máme iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Takto dlho sa vysielajú Simpsonovci.
11:24
Fifty years is not that much time
230
684680
2376
50 rokov nie je tak veľa času,
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
aby si náš druh poradil s najväčšou výzvou, pred ktorou kedy stál.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Ešte raz - zdá sa, že nemáme primeranú emocionálnu odpoveď
11:35
to what we have every reason to believe is coming.
233
695680
2696
na niečo, čo podľa všetkého nastane.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Počítačový vedec Stuart Russell má nato peknú analógiu.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Povedal, predstavte si, že dostaneme správu od mimozemskej civilizácie,
11:47
which read:
236
707320
1696
v ktorej bude:
11:49
"People of Earth,
237
709040
1536
"Pozemšťania,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
za 50 rokov dorazíme na vašu planétu.
11:53
Get ready."
239
713800
1576
Pripravte sa."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
A teraz budeme len počítať mesiace do pristátia mimozemskej lode?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Asi by sme cítili trochu viac naliehavosti ako teraz.
12:04
Another reason we're told not to worry
242
724680
1856
Ďalší dôvod, prečo sa nemáme obávať, je,
12:06
is that these machines can't help but share our values
243
726560
3016
že týmto strojom nezostane nič iné, len zdieľať naše hodnoty,
12:09
because they will be literally extensions of ourselves.
244
729600
2616
pretože budú doslovne naším vlastným rozšírením.
12:12
They'll be grafted onto our brains,
245
732240
1816
Budú zabudované do našich mozgov
12:14
and we'll essentially become their limbic systems.
246
734080
2360
a my budeme v podstate ich limbickým systémom.
12:17
Now take a moment to consider
247
737120
1416
Zamyslite sa a zvážte,
12:18
that the safest and only prudent path forward,
248
738560
3176
že tou najbezpečnejšou a jedinou rozvážnou cestou,
12:21
recommended,
249
741760
1336
ktorá sa odporúča,
12:23
is to implant this technology directly into our brains.
250
743120
2800
je nasadiť tieto technológie priamo do našich mozgov.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Fakticky, ona to môže byť najbezpečnejšia a jediná rozvážna cesta vpred,
12:30
but usually one's safety concerns about a technology
252
750000
3056
ale zvyčajne je dobré obávať sa bezpečnosti technológií,
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
pretože by to malo byť celkom dobre vyladené, než si to vložíte do hlavy.
12:36
(Laughter)
254
756760
2016
(smiech)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Hlbším problémom je, že budovanie samotnej super inteligentnej AI sa zdá byť
12:44
seems likely to be easier
256
764160
1736
pravdepodobne jednoduchšie,
12:45
than building superintelligent AI
257
765920
1856
než budovanie super inteligentnej AI
12:47
and having the completed neuroscience
258
767800
1776
a mať vyriešenú neurovedu, ktorá nám
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
dovolí bezproblémovú integráciu našich myslí s ňou.
12:52
And given that the companies and governments doing this work
260
772800
3176
A keďže firmy a vlády, ktoré sa na tom podieľajú,
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
to pravdepodobne vnímajú ako závod so všetkými ostatnými,
12:59
given that to win this race is to win the world,
262
779680
3256
pretože vyhrať tento závod znamená dobyť svet,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
za predpokladu, že ho hneď vzápätí nezničíte,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
tak potom je pravdepodobné, že to, čo bude jednoduchšie,
13:08
will get done first.
265
788080
1200
sa urobí ako prvé.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Bohužiaľ, teraz nemám riešenie tohto problému,
13:13
apart from recommending that more of us think about it.
267
793440
2616
okrem odporúčania, že by sme o tom mali viac premýšľať.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Myslím, že je nutné niečo ako "Manhattan Projekt"
13:18
on the topic of artificial intelligence.
269
798480
2016
na tému umelej inteligencie.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Nie ako ju vytvoriť, pretože si myslím, že to nevyhnutne
13:23
but to understand how to avoid an arms race
271
803280
3336
nastane, ale v pochopení ako sa vyhnúť závodom v zbrojení
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
a ako ju vytvoriť spôsobom, ktorý je v súlade s našimi záujmami.
13:30
When you're talking about superintelligent AI
273
810160
2136
Keď hovoríme o super inteligentnej AI,
13:32
that can make changes to itself,
274
812320
2256
ktorá dokáže meniť samu seba,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
tak sa zdá, že máme len jednu šancu, ako nastaviť východiskové podmienky správne,
13:39
and even then we will need to absorb
276
819240
2056
a aj vtedy budeme musieť tlmiť
13:41
the economic and political consequences of getting them right.
277
821320
3040
ekonomické a politické následky.
13:45
But the moment we admit
278
825760
2056
Ale vo chvíli, keď pripustíme,
13:47
that information processing is the source of intelligence,
279
827840
4000
že spracovanie informácií je zdrojom inteligencie,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
že nejaký vhodný počítačový systém je to, čo môže byť základom inteligencie,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
a keď pripustíme, že budeme tieto systémy neustále zdokonaľovať,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
a keď pripustíme, že horizont poznania veľmi pravdepodobne prekročí to,
14:07
what we currently know,
283
847760
1200
čo v súčasnosti vieme,
14:10
then we have to admit
284
850120
1216
tak si musíme pripustiť,
14:11
that we are in the process of building some sort of god.
285
851360
2640
že sme v procese budovania istého druhu boha.
14:15
Now would be a good time
286
855400
1576
Teraz by bolo dobré sa uistiť,
14:17
to make sure it's a god we can live with.
287
857000
1953
že to bude boh, s ktorým budeme môcť žiť.
14:20
Thank you very much.
288
860120
1536
Ďakujem veľmi pekne.
14:21
(Applause)
289
861680
5093
(potlesk)
O tomto webe

Táto stránka vám predstaví videá na YouTube, ktoré sú užitočné pri učení angličtiny. Uvidíte lekcie angličtiny, ktoré vedú špičkoví učitelia z celého sveta. Dvojitým kliknutím na anglické titulky zobrazené na stránke každého videa si môžete video odtiaľ prehrať. Titulky sa posúvajú synchronizovane s prehrávaním videa. Ak máte akékoľvek pripomienky alebo požiadavky, kontaktujte nás prostredníctvom tohto kontaktného formulára.

https://forms.gle/WvT1wiN1qDtmnspy7