Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Lorena Ciutacu Corector: Mirel-Gabriel Alexa
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Voi vorbi despre o greșeală de intuiție
00:15
that many of us suffer from.
1
15240
1600
de care mulți dintre noi suferim.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
E greșeala de a detecta un anumit tip de pericol.
00:21
I'm going to describe a scenario
3
21360
1736
Voi descrie un scenariu
00:23
that I think is both terrifying
4
23120
3256
care cred că e înfricoșător
00:26
and likely to occur,
5
26400
1760
și probabil să se întâmple,
00:28
and that's not a good combination,
6
28840
1656
iar asta nu e o combinație bună
00:30
as it turns out.
7
30520
1536
după cum se pare.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Totuși, în loc să fiți speriați, majoritatea dintre voi
00:34
that what I'm talking about is kind of cool.
9
34560
2080
vor considera că e interesant.
00:37
I'm going to describe how the gains we make
10
37200
2976
Voi descrie cum progresele pe care le facem
00:40
in artificial intelligence
11
40200
1776
în inteligența artificială (IA)
ne-ar putea distruge în final.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
De fapt, cred că e foarte greu să vedem cum nu ne vor distruge
00:47
or inspire us to destroy ourselves.
14
47280
1680
sau să ne inspire să ne distrugem.
00:49
And yet if you're anything like me,
15
49400
1856
Dar dacă sunteți ca mine,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
veți crede că e amuzant să te gândești la astfel de lucruri.
00:53
And that response is part of the problem.
17
53960
3376
Acest răspuns e parte din problemă.
00:57
OK? That response should worry you.
18
57360
1720
Această reacție ar trebui să vă îngrijoreze.
00:59
And if I were to convince you in this talk
19
59920
2656
Dacă v-aș convinge cu discursul meu
01:02
that we were likely to suffer a global famine,
20
62600
3416
că ar fi probabil să suferim o foamete globală,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
fie din cauza schimbării climatice ori a altei catastrofe,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
și că nepoții voștri sau nepoții lor
01:12
are very likely to live like this,
23
72560
1800
foarte probabil vor trăi așa,
01:15
you wouldn't think,
24
75200
1200
nu v-ați gândi:
01:17
"Interesting.
25
77440
1336
„Interesant.
01:18
I like this TED Talk."
26
78800
1200
Îmi place discursul ăsta.”
01:21
Famine isn't fun.
27
81200
1520
Foametea nu e amuzantă.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Moartea cauzată de science-fiction, pe de altă parte, e amuzantă,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
iar ce mă îngrijorează cel mai mult despre dezvoltarea IA în prezent
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
e că părem incapabili să avem o reacție emoțională adecvată
01:35
to the dangers that lie ahead.
31
95320
1816
pentru pericolului din fața noastră.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Eu nu pot avea un răspuns adecvat, și țin acest discurs.
01:42
It's as though we stand before two doors.
33
102120
2696
E ca și cum am avea două uși în față.
01:44
Behind door number one,
34
104840
1256
În spatele primei uși
01:46
we stop making progress in building intelligent machines.
35
106120
3296
încetăm să progresăm în construirea mașinăriilor inteligente.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Software-ul și hardware-ul nu se mai îmbunătățesc.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Acum gândiți-vă de ce s-ar întâmpla asta.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Știind cât de importante sunt inteligența și automatizarea,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
vom continua să îmbunătățim tehnologia cât putem.
02:05
What could stop us from doing this?
40
125200
1667
Ce ne-ar opri să facem asta?
02:07
A full-scale nuclear war?
41
127800
1800
Un război nuclear la scară mare?
02:11
A global pandemic?
42
131000
1560
O pandemie globală?
02:14
An asteroid impact?
43
134320
1320
Un impact cu un asteroid?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber devenind președintele SUA?
02:20
(Laughter)
45
140240
2280
(Râsete)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Ideea e că ceva ar trebui să distrugă civilizația pe care o știm noi.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Imaginați-vă cât de rău ar trebui să fie
02:33
to prevent us from making improvements in our technology
48
153680
3336
încât să ne împiedice să mai facem îmbunătățiri în tehnologie
02:37
permanently,
49
157040
1216
permanent,
02:38
generation after generation.
50
158280
2016
generație după generație.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Aproape prin definiție, ăsta e cel mai rău lucru
02:42
that's ever happened in human history.
52
162480
2016
care s-a întâmplat în istoria umană.
02:44
So the only alternative,
53
164520
1296
Deci singura alternativă,
02:45
and this is what lies behind door number two,
54
165840
2336
și asta e după a doua ușă,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
e să îmbunătățim în continuare mașinăriile inteligente
02:51
year after year after year.
56
171360
1600
an după an după an.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
La un moment dat, vom construi mașinării mai inteligente decât noi
02:58
and once we have machines that are smarter than we are,
58
178080
2616
și odată ce avem mașinării mai inteligente decât noi,
03:00
they will begin to improve themselves.
59
180720
1976
ele vor începe să se îmbunătățească.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Apoi există riscul numit de matematicianul IJ Good
03:05
an "intelligence explosion,"
61
185480
1776
o „explozie de inteligență”,
03:07
that the process could get away from us.
62
187280
2000
procesul ne-ar putea scăpa de sub control.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Scenariul ăsta e caricaturizat adesea
03:12
as a fear that armies of malicious robots
64
192960
3216
ca o frică față de o armată de roboți răzbunători
03:16
will attack us.
65
196200
1256
care ne vor ataca.
03:17
But that isn't the most likely scenario.
66
197480
2696
Dar nu ăsta e scenariul cel mai probabil.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Mașinăriile noastre nu vor deveni brusc răzbunătoare.
03:25
The concern is really that we will build machines
68
205080
2616
Îngrijorarea e că vom construi mașinării
03:27
that are so much more competent than we are
69
207720
2056
care sunt mult mai competente decât noi
03:29
that the slightest divergence between their goals and our own
70
209800
3776
astfel că cea mai mică divergență între scopurile lor și ale noastre
03:33
could destroy us.
71
213600
1200
ne-ar putea distruge.
03:35
Just think about how we relate to ants.
72
215960
2080
Gândiți-vă cum ne purtăm cu furnicile.
03:38
We don't hate them.
73
218600
1656
Nu le urâm.
03:40
We don't go out of our way to harm them.
74
220280
2056
Nu ne străduim să le rănim.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
De fapt, uneori ne străduim să nu le rănim.
03:44
We step over them on the sidewalk.
76
224760
2016
Le ocolim pe trotuar.
03:46
But whenever their presence
77
226800
2136
Dar oricând prezența lor
03:48
seriously conflicts with one of our goals,
78
228960
2496
intră în conflict cu un scop de-al nostru,
03:51
let's say when constructing a building like this one,
79
231480
2477
să zicem să construim o clădire ca asta,
03:53
we annihilate them without a qualm.
80
233981
1960
le anihilăm fără remușcări.
03:56
The concern is that we will one day build machines
81
236480
2936
Îngrijorarea e că într-o zi vom construi mașinării
03:59
that, whether they're conscious or not,
82
239440
2736
care, conștiente sau nu,
04:02
could treat us with similar disregard.
83
242200
2000
ne-ar putea trata cu o nepăsare asemănătoare.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Cred că asta vi se pare exagerat,
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
pariez că unii dintre voi se îndoiesc că IA superinteligentă e posibilă,
04:15
much less inevitable.
86
255720
1656
cu atât mai puțin inevitabilă.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Dar atunci trebuie să găsiți ceva greșit în una din următoarele presupuneri.
04:21
And there are only three of them.
88
261044
1572
Sunt doar trei.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Inteligența e o problemă de procesare a informației în sisteme fizice.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
De fapt, asta e mai mult decât o presupunere.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Deja am construit inteligență îngustă în mașinăriile noastre
04:35
and many of these machines perform
92
275440
2016
și multe dintre ele funcționează deja
04:37
at a level of superhuman intelligence already.
93
277480
2640
la un nivel de inteligență suprauman.
04:40
And we know that mere matter
94
280840
2576
Știm că simpla materie
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
poate da naștere așa-numitei „inteligență generală”,
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
o abilitate de a gândi flexibil în diverse domenii
04:49
because our brains have managed it. Right?
97
289760
3136
deoarece creierele noastre sunt capabile de asta. Corect?
04:52
I mean, there's just atoms in here,
98
292920
3936
Sunt doar atomi aici
04:56
and as long as we continue to build systems of atoms
99
296880
4496
și atâta vreme cât continuăm să construim sisteme de atomi
05:01
that display more and more intelligent behavior,
100
301400
2696
care prezintă comportament din ce în ce mai inteligent,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
într-un final, dacă nu suntem întrerupți,
05:06
we will eventually build general intelligence
102
306680
3376
vom construi inteligență generală
05:10
into our machines.
103
310080
1296
în mașinăriile noastre.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
E crucial să realizăm că rata progresului nu contează
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
deoarece orice progres e îndeajuns să ne aducă la capăt de drum.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Nu ne trebuie legea lui Moore să continuăm, nici progres exponențial.
05:22
We just need to keep going.
107
322080
1600
Trebuie doar să continuăm.
05:25
The second assumption is that we will keep going.
108
325480
2920
A doua presupunere e că vom continua.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Vom continua să îmbunătățim mașinăriile inteligente.
05:33
And given the value of intelligence --
110
333000
4376
Dată fiind valoarea inteligenței --
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
inteligența fie e sursa a tot ce valorăm,
05:40
or we need it to safeguard everything we value.
112
340960
2776
fie ne trebuie ca să protejăm tot ce prețuim.
05:43
It is our most valuable resource.
113
343760
2256
E resursa noastră cea mai prețioasă.
05:46
So we want to do this.
114
346040
1536
Deci asta vrem să facem.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Avem probleme pe care trebuie să le rezolvăm urgent.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Vrem să vindecăm boli ca Alzheimer și cancer.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Vrem să înțelegem sisteme economice. Vrem să îmbunătățim știința climatică.
05:58
So we will do this, if we can.
118
358920
2256
Vom face asta dacă putem.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Trenul a plecat deja din stație și nu are frâne.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
În final, nu stăm în vârful inteligenței
06:11
or anywhere near it, likely.
121
371360
1800
sau oriunde lângă el.
06:13
And this really is the crucial insight.
122
373640
1896
Asta e o informație crucială.
06:15
This is what makes our situation so precarious,
123
375560
2416
Asta ne face situația atât de precară
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
și de aceea nu ne putem baza pe intuițiile noastre despre risc.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Acum gândiți-vă la persoana cea mai deșteaptă.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
În topul tuturor e John von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Impresia pe care a lăsat-o von Neumann celor din jurul său,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
inclusiv celor mai mari matematicieni și fizicieni,
06:37
is fairly well-documented.
129
397520
1936
e bine documentată.
06:39
If only half the stories about him are half true,
130
399480
3776
Dacă doar jumătate din poveștile despre el sunt pe jumătate adevărate,
06:43
there's no question
131
403280
1216
nu încape îndoială
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
că e unul din cei mai deștepți oameni vreodată.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Gândiți-vă la spectrul inteligenței.
06:50
Here we have John von Neumann.
134
410320
1429
Îl avem pe John von Neumann,
06:53
And then we have you and me.
135
413560
1334
apoi suntem eu și voi,
06:56
And then we have a chicken.
136
416120
1296
apoi o găină.
06:57
(Laughter)
137
417440
1936
(Râsete)
06:59
Sorry, a chicken.
138
419400
1216
Scuze, o găină.
07:00
(Laughter)
139
420640
1256
(Râsete)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Nu e nevoie să fac discursul mai deprimant decât e deja.
07:05
(Laughter)
141
425680
1600
(Râsete)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
E copleșitor de probabil că spectrul inteligenței
07:11
extends much further than we currently conceive,
143
431840
3120
se extinde mult după cât putem noi percepe
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
și dacă construim mașinării mai inteligente decât noi,
07:19
they will very likely explore this spectrum
145
439120
2296
probabil vor explora acest spectru
07:21
in ways that we can't imagine,
146
441440
1856
în moduri pe care nu le putem imagina
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
și ne depășesc în moduri inimaginabile.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
E important să recunoaștem că e adevărat în virtutea vitezei.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Imaginați-vă dacă am construi o IA superinteligentă
07:36
that was no smarter than your average team of researchers
150
456440
3456
care n-ar fi mai inteligentă decât echipa medie de cercetători
07:39
at Stanford or MIT.
151
459920
2296
de la Stanford sau MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Circuitele electronice funcționează de un milion de ori mai rapid
07:45
than biochemical ones,
153
465240
1256
decât cele biochimice,
07:46
so this machine should think about a million times faster
154
466520
3136
deci mașinăria ar trebui să gândească de un milion de ori mai rapid
07:49
than the minds that built it.
155
469680
1816
decât mințile care au construit-o.
07:51
So you set it running for a week,
156
471520
1656
Dacă o pornești pentru o săptămână
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
va face 20.000 de ani de muncă intelectuală la nivel uman,
07:58
week after week after week.
158
478400
1960
săptămână după săptămână.
08:01
How could we even understand, much less constrain,
159
481640
3096
Cum am putea să înțelegem, darămite să constrângem
08:04
a mind making this sort of progress?
160
484760
2280
o minte care face astfel de progrese?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Celălalt lucru îngrijorător e următorul:
08:11
is that, imagine the best case scenario.
162
491000
4976
imaginați-vă cel mai bun scenariu posibil.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Imaginați-vă că dăm peste un design de IA superinteligentă
care nu are probleme de siguranță.
08:20
that has no safety concerns.
164
500200
1376
08:21
We have the perfect design the first time around.
165
501600
3256
Avem designul perfect din prima încercare.
08:24
It's as though we've been handed an oracle
166
504880
2216
E ca și cum ne-ar fi dat un oracol
08:27
that behaves exactly as intended.
167
507120
2016
care se comportă așa cum vrem.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Această mașinărie ar fi aparatul perfect de economisire a forței de muncă.
08:33
It can design the machine that can build the machine
169
513680
2429
Poate crea mașinăria care poate construi mașinăria
08:36
that can do any physical work,
170
516133
1763
care poate face orice muncă fizică,
08:37
powered by sunlight,
171
517920
1456
folosind energie solară,
08:39
more or less for the cost of raw materials.
172
519400
2696
aproape la costul materiilor prime.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Vorbim despre sfârșitul corvoadei umane.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
E și despre sfârșitul majorității muncii intelectuale.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Ce ar face maimuțe ca noi în aceste circumstanțe?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Am fi liberi să jucăm frisbee și să ne facem masaje.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Adăugați niște LSD și niște haine ciudate
09:00
and the whole world could be like Burning Man.
178
540720
2176
și toată lumea ar putea fi ca la Burning Man.
09:02
(Laughter)
179
542920
1640
(Râsete)
09:06
Now, that might sound pretty good,
180
546320
2000
Asta sună destul de bine,
09:09
but ask yourself what would happen
181
549280
2376
dar întrebați-vă ce s-ar întâmpla
09:11
under our current economic and political order?
182
551680
2736
în ordinea economică și politică actuală?
09:14
It seems likely that we would witness
183
554440
2416
Pare probabil că vom fi martorii
09:16
a level of wealth inequality and unemployment
184
556880
4136
unui nivel de inegalitate de avere și șomaj nemaivăzut.
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Fără voința de a pune această nouă avere
09:25
to the service of all humanity,
187
565200
1480
în serviciul umanității,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
câțiva miliardari ar zâmbi pe copertele revistelor de afaceri
09:31
while the rest of the world would be free to starve.
189
571280
2440
în timp ce restul lumii ar muri de foame.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Și ce ar face rușii sau chinezii
09:36
if they heard that some company in Silicon Valley
191
576640
2616
dacă ar auzi că o companie din Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
ar fi pe cale să lanseze o IA superinteligentă?
09:42
This machine would be capable of waging war,
193
582040
2856
Această mașinărie ar fi capabilă să ducă un război,
09:44
whether terrestrial or cyber,
194
584920
2216
terestru sau cibernetic,
09:47
with unprecedented power.
195
587160
1680
cu o putere nemaivăzută.
E un scenariu în care câștigătorul ia tot.
09:50
This is a winner-take-all scenario.
196
590120
1856
09:52
To be six months ahead of the competition here
197
592000
3136
Să fii cu șase luni înaintea competiției
09:55
is to be 500,000 years ahead,
198
595160
2776
înseamnă să fii cu 500.000 de ani înainte,
09:57
at a minimum.
199
597960
1496
cel puțin.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Se pare că doar zvonurile despre acest fel de descoperire
10:04
could cause our species to go berserk.
201
604240
2376
ar putea să înnebunească specia noastră.
10:06
Now, one of the most frightening things,
202
606640
2896
Unul din cele mai înfricoșătoare lucruri
10:09
in my view, at this moment,
203
609560
2776
în acest moment, după părerea mea,
10:12
are the kinds of things that AI researchers say
204
612360
4296
sunt lucrurile pe care le spun cercetătorii IA
10:16
when they want to be reassuring.
205
616680
1560
când vor să ne liniștească.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
Cel mai comun motiv să nu ne îngrijorăm e timpul.
10:22
This is all a long way off, don't you know.
207
622480
2056
Se va întâmpla peste mult timp.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Probabil peste 50 sau 100 de ani.
10:27
One researcher has said,
209
627720
1256
Un cercetător a spus:
10:29
"Worrying about AI safety
210
629000
1576
„Să vă îngrijorați din cauza IA
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
e ca și cum v-ați îngrijora de suprapopulare pe Marte.”
10:34
This is the Silicon Valley version
212
634116
1620
Asta e versiunea de Silicon Valley
10:35
of "don't worry your pretty little head about it."
213
635760
2376
de „nu-ți bate căpșorul cu asta”.
10:38
(Laughter)
214
638160
1336
(Râsete)
10:39
No one seems to notice
215
639520
1896
Nimeni nu pare să observe
10:41
that referencing the time horizon
216
641440
2616
că referința la acea perioadă de timp
10:44
is a total non sequitur.
217
644080
2576
nu e logică.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Dacă inteligența e doar o problemă de procesare a informației
10:49
and we continue to improve our machines,
219
649960
2656
și noi continuăm să îmbunătățim mașinăriile,
10:52
we will produce some form of superintelligence.
220
652640
2880
vom produce o formă de superinteligență.
10:56
And we have no idea how long it will take us
221
656320
3656
Nu avem idee cât ne va lua
11:00
to create the conditions to do that safely.
222
660000
2400
să creăm condițiile de siguranță pentru asta.
11:04
Let me say that again.
223
664200
1296
Lăsați-mă să repet.
11:05
We have no idea how long it will take us
224
665520
3816
Nu avem idee cât ne va lua
11:09
to create the conditions to do that safely.
225
669360
2240
să creăm condițiile de siguranță pentru asta.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Dacă nu ați observat, 50 de ani nu mai sunt ce-au fost.
11:16
This is 50 years in months.
227
676400
2456
Iată 50 de ani în luni.
11:18
This is how long we've had the iPhone.
228
678880
1840
De atâta timp avem iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
De atâta timp The Simpsons rulează la televizor.
11:24
Fifty years is not that much time
230
684680
2376
50 de ani nu e un timp lung
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
pentru a rezolva una din cele mai mari provocări ale speciei noastre.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Încă o dată, se pare că eșuăm să avem o reacție emoțională adecvată
11:35
to what we have every reason to believe is coming.
233
695680
2696
la ce va veni, foarte probabil.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Informaticianul Stuart Russell are o analogie bună.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
A spus: să ne imaginăm că am primit un mesaj de la o civilizație extraterestră
11:47
which read:
236
707320
1696
care zice:
11:49
"People of Earth,
237
709040
1536
„Oameni de pe Pământ,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
vom veni pe planeta voastră în 50 de ani.
11:53
Get ready."
239
713800
1576
Pregătiți-vă.”
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Acum rămânem să numărăm lunile până aterizează nava?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Am simți nevoia să facem ceva mai urgent.
12:04
Another reason we're told not to worry
242
724680
1856
Alt motiv pentru care ni se spune să nu ne îngrijorăm
12:06
is that these machines can't help but share our values
243
726560
3016
e că aceste mașinării pot să aibă doar aceleași valori ca noi
12:09
because they will be literally extensions of ourselves.
244
729600
2616
deoarece vor fi practic extensiile noastre.
12:12
They'll be grafted onto our brains,
245
732240
1816
Vor fi în creierele noastre
12:14
and we'll essentially become their limbic systems.
246
734080
2360
și noi vom deveni practic sistemele lor limbice.
12:17
Now take a moment to consider
247
737120
1416
Să ne gândim un moment
12:18
that the safest and only prudent path forward,
248
738560
3176
la calea de viitor cea mai sigură și prudentă,
12:21
recommended,
249
741760
1336
recomandată,
12:23
is to implant this technology directly into our brains.
250
743120
2800
e să implantăm tehnologia direct în creierele noastre.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Asta ar fi calea de viitor cea mai sigură și prudentă,
dar de obicei măsurile de siguranță ale unei tehnologii
12:30
but usually one's safety concerns about a technology
252
750000
3056
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
trebuie să fie clarificate înainte de a ți-o pune în creier.
12:36
(Laughter)
254
756760
2016
(Râsete)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Problema mai delicată e că construcția unei IA superinteligente
12:44
seems likely to be easier
256
764160
1736
pare mai ușoară
12:45
than building superintelligent AI
257
765920
1856
decât a unei IA superinteligente
12:47
and having the completed neuroscience
258
767800
1776
și neuroștiința completă
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
care ne ajută să ne integrăm mintea cu aceasta.
12:52
And given that the companies and governments doing this work
260
772800
3176
Dat fiind că guvernele și companiile care lucrează la asta
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
probabil se cred într-o cursă împotriva tuturor,
12:59
given that to win this race is to win the world,
262
779680
3256
și câștigarea cursei înseamnă câștigarea lumii,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
dacă nu o distrugem în clipa următoare,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
pare probabil că ce e mai ușor de făcut
13:08
will get done first.
265
788080
1200
va fi făcut mai întâi.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Din păcate, nu am o soluție la această problemă,
13:13
apart from recommending that more of us think about it.
267
793440
2616
alta decât să vă recomand să vă gândiți la asta.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Cred că ne trebuie un fel de Manhattan Project
13:18
on the topic of artificial intelligence.
269
798480
2016
pe subiectul IA.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Nu s-o construim, deoarece cred că inevitabil o vom face,
13:23
but to understand how to avoid an arms race
271
803280
3336
ci să înțelegem cum să evităm cursa înarmărilor
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
și să o construim într-un fel corespunzător valorilor noastre.
13:30
When you're talking about superintelligent AI
273
810160
2136
Când vorbiți despre IA superinteligentă,
13:32
that can make changes to itself,
274
812320
2256
care se poate schimba pe sine,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
se pare că avem doar o șansă să alegem condițiile inițiale corecte
13:39
and even then we will need to absorb
276
819240
2056
și chiar și atunci va trebui să absorbim
13:41
the economic and political consequences of getting them right.
277
821320
3040
consecințele economice și politice ale alegerii corecte.
13:45
But the moment we admit
278
825760
2056
Dar momentul în care admitem
13:47
that information processing is the source of intelligence,
279
827840
4000
că procesarea informației e sursa inteligenței,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
că un sistem computațional adecvat e baza inteligenței,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
și admitem că vom îmbunătăți continuu aceste sisteme
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
și admitem că orizontul cogniției foarte probabil depășește
14:07
what we currently know,
283
847760
1200
ce știm noi acum,
14:10
then we have to admit
284
850120
1216
atunci trebuie să admitem
14:11
that we are in the process of building some sort of god.
285
851360
2640
că suntem în procesul de creare a unui fel de zeu.
14:15
Now would be a good time
286
855400
1576
Acum ar fi momentul potrivit
14:17
to make sure it's a god we can live with.
287
857000
1953
să ne asigurăm că e un zeu cu care putem trăi.
14:20
Thank you very much.
288
860120
1536
Vă mulțumesc mult.
14:21
(Applause)
289
861680
5093
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7