Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Anette Smedberg Granskare: Lisbeth Pekkari
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Jag ska prata om en intuitionsbrist
00:15
that many of us suffer from.
1
15240
1600
som många av oss lider av.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Det är ett misslyckande att upptäcka en viss typ av fara.
00:21
I'm going to describe a scenario
3
21360
1736
Jag ska beskriva ett scenario
00:23
that I think is both terrifying
4
23120
3256
som jag tycker är både skrämmande
00:26
and likely to occur,
5
26400
1760
och förmodligen kommer att ske,
00:28
and that's not a good combination,
6
28840
1656
och det är en dålig kombination,
00:30
as it turns out.
7
30520
1536
som det visar sig.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Istället för att bli rädda, kommer många tycka
00:34
that what I'm talking about is kind of cool.
9
34560
2080
att det jag pratar om är ganska häftigt.
00:37
I'm going to describe how the gains we make
10
37200
2976
Jag ska beskriva hur de framsteg vi gör
00:40
in artificial intelligence
11
40200
1776
inom artificiell intelligens
00:42
could ultimately destroy us.
12
42000
1776
till slut kan förgöra oss.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Faktum är, jag tror det är svårt att se att de inte gör det
00:47
or inspire us to destroy ourselves.
14
47280
1680
eller får oss att förgöra oss själva.
00:49
And yet if you're anything like me,
15
49400
1856
Och om du tänker det minsta likt mig,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
tycker du att det här är spännande att tänka på.
00:53
And that response is part of the problem.
17
53960
3376
Den inställningen är en del av problemet.
00:57
OK? That response should worry you.
18
57360
1720
OK? Den inställningen borde oroa dig.
00:59
And if I were to convince you in this talk
19
59920
2656
Om jag i det här föredraget skulle övertyga dig om
01:02
that we were likely to suffer a global famine,
20
62600
3416
att vi kan drabbas av en global svältkatastrof,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
på grund av klimatförändringar eller någon annan katastrof,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
och att dina barnbarn, eller deras barnbarn,
01:12
are very likely to live like this,
23
72560
1800
sannolikt skulle leva så här,
01:15
you wouldn't think,
24
75200
1200
då skulle du inte tänka,
01:17
"Interesting.
25
77440
1336
"Intressant.
01:18
I like this TED Talk."
26
78800
1200
Jag gillar föredraget."
01:21
Famine isn't fun.
27
81200
1520
Svält är inte roligt.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Död i science fiction, å andra sidan, är roligt,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
och en av de saker som för närvarande oroar mig mest i utvecklingen av AI
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
är att vi tycks oförmögna att förespråka ett passande emotionellt gensvar
01:35
to the dangers that lie ahead.
31
95320
1816
inför de risker som ligger framför oss.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Jag kan inte förespråka ett gensvar, och jag håller det här talet.
01:42
It's as though we stand before two doors.
33
102120
2696
Det är som att vi står framför två dörrar.
01:44
Behind door number one,
34
104840
1256
Väljer vi dörr ett,
01:46
we stop making progress in building intelligent machines.
35
106120
3296
slutar vi göra framsteg i utvecklandet av intelligenta maskiner.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Av någon anledning blir vår hård- och mjukvara inte bättre.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Fundera lite på varför det skulle kunna hända.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Jag menar, givet värdet av intelligens och automation,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
kommer vi fortsätta utveckla tekniken, om vi kan.
02:05
What could stop us from doing this?
40
125200
1667
Vad skulle kunna stoppa oss?
02:07
A full-scale nuclear war?
41
127800
1800
Ett fullskaligt kärnvapenkrig?
02:11
A global pandemic?
42
131000
1560
En global pandemi?
02:14
An asteroid impact?
43
134320
1320
Ett asteroidnedslag?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber blir USAs president?
02:20
(Laughter)
45
140240
2280
(Skratt)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Poängen är att, något måste förgöra civilisationen så som vi känner den.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Ni måste föreställa er hur illa det måste vara
02:33
to prevent us from making improvements in our technology
48
153680
3336
för att hindra oss att göra framsteg inom tekniken
02:37
permanently,
49
157040
1216
permanent,
02:38
generation after generation.
50
158280
2016
generation efter generation.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Nästan per definition, är detta det värsta
02:42
that's ever happened in human history.
52
162480
2016
som någonsin inträffat genom historien.
02:44
So the only alternative,
53
164520
1296
Så det enda alternativet,
02:45
and this is what lies behind door number two,
54
165840
2336
är det som finns bakom den andra dörren,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
att vi fortsätter att utveckla våra intelligenta maskiner
02:51
year after year after year.
56
171360
1600
år efter år efter år.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Vid en viss punkt, kommer vi att bygga maskiner som är smartare än vi,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
och när vi väl har dessa smarta maskiner,
03:00
they will begin to improve themselves.
59
180720
1976
kommer de att förbättra sig själva.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Då riskerar vi det matematikern IJ Good kallade,
03:05
an "intelligence explosion,"
61
185480
1776
en "intelligensexplosion",
03:07
that the process could get away from us.
62
187280
2000
dvs att processen går oss ur händerna.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Detta skojas ofta bort, som här,
03:12
as a fear that armies of malicious robots
64
192960
3216
som en rädsla för att en armé av ondsinta robotar
03:16
will attack us.
65
196200
1256
kommer att attackera oss.
03:17
But that isn't the most likely scenario.
66
197480
2696
Men det är inte det troligaste scenariot.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Våra maskiner kommer inte att bli spontant illvilliga.
03:25
The concern is really that we will build machines
68
205080
2616
Bekymret är att vi kommer att bygga maskiner
03:27
that are so much more competent than we are
69
207720
2056
som är så mycket mer kompetenta än vi
03:29
that the slightest divergence between their goals and our own
70
209800
3776
att den minsta lilla skillnad mellan deras mål och våra
03:33
could destroy us.
71
213600
1200
skulle kunna förgöra oss.
03:35
Just think about how we relate to ants.
72
215960
2080
Tänk bara på vår inställning till myror.
03:38
We don't hate them.
73
218600
1656
Vi hatar inte dem.
03:40
We don't go out of our way to harm them.
74
220280
2056
Vi skadar inte dem medvetet.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Ibland anstränger vi oss för att inte skada dem.
03:44
We step over them on the sidewalk.
76
224760
2016
Vi kliver över dem på trottoaren.
03:46
But whenever their presence
77
226800
2136
Men så fort deras närvaro
03:48
seriously conflicts with one of our goals,
78
228960
2496
kommer i allvarlig konflikt med våra mål,
03:51
let's say when constructing a building like this one,
79
231480
2477
som till exempel vid husbyggnationer,
03:53
we annihilate them without a qualm.
80
233981
1960
förintar vi dem utan pardon.
03:56
The concern is that we will one day build machines
81
236480
2936
Bekymret är att vi en dag kommer att bygga maskiner
03:59
that, whether they're conscious or not,
82
239440
2736
som, oavsett om de är medvetna eller ej,
04:02
could treat us with similar disregard.
83
242200
2000
skulle kunna behandla oss med samma förakt.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Jag misstänker att det verkar långsökt för många av er.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Jag slår vad om att en del av er tvivlar på att superintelligent AI är möjlig,
04:15
much less inevitable.
86
255720
1656
än mindre nödvändig.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Men då måste ni finna felen med några av följande antaganden.
04:21
And there are only three of them.
88
261044
1572
Det finns bara tre.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Intelligens handlar om processandet av information i fysiska system.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Det är egentligen mer än bara ett antagande.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Vi använder redan maskininlärning i många maskiner,
04:35
and many of these machines perform
92
275440
2016
och många av dessa maskiner presterar
04:37
at a level of superhuman intelligence already.
93
277480
2640
redan på nivåer långt över mänsklig intelligens.
04:40
And we know that mere matter
94
280840
2576
Och vi vet att materia
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
kan skapa det som kallas "generell intelligens"
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
en förmåga att tänka flexibelt över flera dimensioner,
04:49
because our brains have managed it. Right?
97
289760
3136
eftersom våra hjärnor har klarat det. Eller hur?
04:52
I mean, there's just atoms in here,
98
292920
3936
Jag menar, det är ju bara atomer här inne,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
och så länge vi fortsätter att bygga system av atomer
05:01
that display more and more intelligent behavior,
100
301400
2696
som uppvisar mer och mer intelligens,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
kommer vi till slut, om vi inte blir avbrutna,
05:06
we will eventually build general intelligence
102
306680
3376
ha byggt in generell intelligens
05:10
into our machines.
103
310080
1296
i våra maskiner.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Det är viktigt att inse att utvecklingstakten inte spelar någon roll,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
eftersom minsta framsteg räcker för att nå slutstationen.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Vi behöver inte Moores lag. Utvecklingen behöver inte vara exponentiell.
05:22
We just need to keep going.
107
322080
1600
Vi behöver bara fortsätta framåt.
05:25
The second assumption is that we will keep going.
108
325480
2920
Det andra antagandet är att vi kommer fortsätta.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Vi fortsätter utvecklingen av de intelligenta maskinerna.
05:33
And given the value of intelligence --
110
333000
4376
Och givet värdet på intelligens -
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
jag menar, intelligens är antingen summan av allt vi sätter värde på
05:40
or we need it to safeguard everything we value.
112
340960
2776
eller som vi behöver för att skydda det vi värdesätter.
05:43
It is our most valuable resource.
113
343760
2256
Det är vår värdefullaste resurs.
05:46
So we want to do this.
114
346040
1536
Så vi vill göra det här.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Vi har problem som vi desperat måste lösa.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Vi vill bota sjukdomar som Alzheimers och cancer.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Vi vill förstå de ekonomiska systemen. Vi vill utveckla klimatforskningen.
05:58
So we will do this, if we can.
118
358920
2256
Så vi kommer att göra det, om vi kan.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Tåget har redan lämnat stationen, och det finns ingen broms.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Slutligen, vi har inte nått intelligensens topp,
06:11
or anywhere near it, likely.
121
371360
1800
vi är troligen inte ens i närheten.
06:13
And this really is the crucial insight.
122
373640
1896
Det är den riktigt kritiska insikten.
06:15
This is what makes our situation so precarious,
123
375560
2416
Det är det här som gör vår situation så vansklig,
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
och det gör också våra riskantaganden så opålitliga.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Fundera på den smartaste person som någonsin levt.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
En som finns på nästan allas lista är John von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Jag menar, de intryck som Neumann gjorde på folk runt honom,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
inkluderat de främsta matematikerna och fysikerna under hans levnad,
06:37
is fairly well-documented.
129
397520
1936
är ganska väldokumenterade.
06:39
If only half the stories about him are half true,
130
399480
3776
Om bara hälften av berättelserna om honom är halvsanna,
06:43
there's no question
131
403280
1216
råder det ingen tvekan om
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
att han är en av de smartaste någonsin.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Så fundera på vidden av intelligens.
06:50
Here we have John von Neumann.
134
410320
1429
Här har vi John von Neumann.
06:53
And then we have you and me.
135
413560
1334
Så har vi dig och mig.
06:56
And then we have a chicken.
136
416120
1296
Så har vi kycklingar.
06:57
(Laughter)
137
417440
1936
(Skratt)
06:59
Sorry, a chicken.
138
419400
1216
Ursäkta, en kyckling.
07:00
(Laughter)
139
420640
1256
(Skratt)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Det finns inga skäl att göra föredraget mer deprimerande än det redan är.
07:05
(Laughter)
141
425680
1600
(Skratt)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Det verkar dock mycket troligt, att spektrat av intelligens,
07:11
extends much further than we currently conceive,
143
431840
3120
sträcker sig mycket längre än vi kan föreställa oss idag,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
och om vi bygger maskiner som är intelligentare än vi,
07:19
they will very likely explore this spectrum
145
439120
2296
kommer de troligtvis utforska detta spektrum
07:21
in ways that we can't imagine,
146
441440
1856
på sätt som vi inte kan föreställa oss,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
och överträffa oss på sätt som vi inte kan förstå.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Det är viktigt att se att det här är sant genom hastigheten det sker med.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Ok? Föreställ er att vi byggt en superintelligent AI
07:36
that was no smarter than your average team of researchers
150
456440
3456
som inte är smartare än din genomsnittliga forskargrupp
07:39
at Stanford or MIT.
151
459920
2296
på Stanford eller MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Elektroniska kretsar är ungefär en miljon gånger snabbare
07:45
than biochemical ones,
153
465240
1256
än biokemiska,
07:46
so this machine should think about a million times faster
154
466520
3136
så maskinen skulle tänka ungefär en miljon gånger snabbare
07:49
than the minds that built it.
155
469680
1816
än hjärnorna som byggt den.
07:51
So you set it running for a week,
156
471520
1656
Ni låter den köra i en vecka,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
och den kommer att processa 20 000 år av mänskligt tänkande,
07:58
week after week after week.
158
478400
1960
vecka ut och vecka in.
08:01
How could we even understand, much less constrain,
159
481640
3096
Hur kan vi ens förstå, än mindre begränsa
08:04
a mind making this sort of progress?
160
484760
2280
en kraft som gör sådana framsteg?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Det andra som är uppriktigt oroande,
08:11
is that, imagine the best case scenario.
162
491000
4976
är, föreställ dig ett bästa scenario.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Föreställ dig att vi designar en superintelligent AI
08:20
that has no safety concerns.
164
500200
1376
utan säkerhetsproblem.
08:21
We have the perfect design the first time around.
165
501600
3256
Vi har den perfekta designen från början.
08:24
It's as though we've been handed an oracle
166
504880
2216
Det är som att vi skulle få ett orakel
08:27
that behaves exactly as intended.
167
507120
2016
som beter sig exakt som vi avsett.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Den här maskinen skulle vara den perfekta "jobbspararen".
08:33
It can design the machine that can build the machine
169
513680
2429
Den kan designa maskinen som kan bygga maskinen
08:36
that can do any physical work,
170
516133
1763
som kan utföra allt fysiskt arbete,
08:37
powered by sunlight,
171
517920
1456
och drivs av solenergi,
08:39
more or less for the cost of raw materials.
172
519400
2696
mer eller mindre till kostnaden för råmaterialet.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Då pratar vi om slutet av mänsklighetens slit.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Och även om slutet för mycket av intellektuellt arbete.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Så vad ska apor som vi göra under sådana omständigheter?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Ja, vi får tid över att kasta frisbee och ge varandra massage.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Lägg till lite LSD och några underliga klädesplagg,
09:00
and the whole world could be like Burning Man.
178
540720
2176
och hela världen kan bli som Burning Man.
09:02
(Laughter)
179
542920
1640
(Skratt)
09:06
Now, that might sound pretty good,
180
546320
2000
Ok, det kan låta ganska trevligt,
09:09
but ask yourself what would happen
181
549280
2376
men ställ dig frågan vad som skulle ske
09:11
under our current economic and political order?
182
551680
2736
under våra nuvarande ekonomiska och politiska system?
09:14
It seems likely that we would witness
183
554440
2416
Det verkar troligt att vi skulle bevittna
09:16
a level of wealth inequality and unemployment
184
556880
4136
enorma skillnader i välfärd och tillgång till arbete
09:21
that we have never seen before.
185
561040
1496
som vi aldrig tidigare upplevt.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Saknas en vilja att låta detta nya välstånd
09:25
to the service of all humanity,
187
565200
1480
tjäna hela mänskligheten,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
kommer några triljonärer att pryda omslagen på våra affärstidningar
09:31
while the rest of the world would be free to starve.
189
571280
2440
medan resten av världen kan få svälta.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Vad skulle ryssarna eller kineserna göra
09:36
if they heard that some company in Silicon Valley
191
576640
2616
om de hörde att ett företag i Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
höll på att sjösätta en superintelligent AI?
09:42
This machine would be capable of waging war,
193
582040
2856
Den maskinen skulle vara kapabel att föra krig,
09:44
whether terrestrial or cyber,
194
584920
2216
antingen på land eller i cyberrymden,
09:47
with unprecedented power.
195
587160
1680
med aldrig tidigare skådad kraft.
09:50
This is a winner-take-all scenario.
196
590120
1856
Det är ett vinnaren-tar-allt scenario.
09:52
To be six months ahead of the competition here
197
592000
3136
Att ligga sex månader före i den tävlingen
09:55
is to be 500,000 years ahead,
198
595160
2776
är att vara 500 000 år före,
09:57
at a minimum.
199
597960
1496
minst.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Det ser ut som att blott rykten kring denna typ av genombrott
10:04
could cause our species to go berserk.
201
604240
2376
kan leda till att vår art går bärsärk.
10:06
Now, one of the most frightening things,
202
606640
2896
En av de mest skrämmande sakerna,
10:09
in my view, at this moment,
203
609560
2776
enligt min mening, i dag,
10:12
are the kinds of things that AI researchers say
204
612360
4296
är det som forskare inom AI säger
10:16
when they want to be reassuring.
205
616680
1560
när de vill lugna oss.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
Det vanligaste argumentet för att vi inte ska oroa oss handlar om tid.
10:22
This is all a long way off, don't you know.
207
622480
2056
Det här ligger långt fram, vet du väl.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Det här är säkert 50 eller 100 år bort.
10:27
One researcher has said,
209
627720
1256
En forskare har sagt,
10:29
"Worrying about AI safety
210
629000
1576
"Att oroa sig för AI-säkerhet är
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
som att oroa sig för ett överbefolkat Mars."
10:34
This is the Silicon Valley version
212
634116
1620
Det är Silicon Valley-versionen av
10:35
of "don't worry your pretty little head about it."
213
635760
2376
"oroa inte ditt söta lilla huvud."
10:38
(Laughter)
214
638160
1336
(Skratt)
10:39
No one seems to notice
215
639520
1896
Ingen verkar uppmärksamma att,
10:41
that referencing the time horizon
216
641440
2616
att referera till tidsaspekten
10:44
is a total non sequitur.
217
644080
2576
är ett "Goddag yxskaft"-svar.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Om intelligens bara handlar om att processa information,
10:49
and we continue to improve our machines,
219
649960
2656
och vi fortsätter att utveckla våra maskiner,
10:52
we will produce some form of superintelligence.
220
652640
2880
kommer vi till slut skapa någon form av superintelligens.
10:56
And we have no idea how long it will take us
221
656320
3656
Vi har ingen aning om hur lång tid det kommer att ta
11:00
to create the conditions to do that safely.
222
660000
2400
att skapa villkoren för att göra det riskfritt.
11:04
Let me say that again.
223
664200
1296
Jag tar det en gång till.
11:05
We have no idea how long it will take us
224
665520
3816
Vi vet inte hur lång tid det kommer att ta
11:09
to create the conditions to do that safely.
225
669360
2240
för att skapa de säkra villkoren.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Du har kanske inte noterat det, men 50 år är inte vad det brukade vara.
11:16
This is 50 years in months.
227
676400
2456
Det här är 50 år i månader.
11:18
This is how long we've had the iPhone.
228
678880
1840
Så här länge har vi haft iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Så här länge har "Simpsons" visats på TV.
11:24
Fifty years is not that much time
230
684680
2376
50 år är inte så lång tid
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
att möta den största utmaningen mänskligheten någonsin skådat.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Än en gång, vi verkar inte kunna uppbåda ett passande emetionellt gensvar
11:35
to what we have every reason to believe is coming.
233
695680
2696
för den framtid vi har all anledning att tro kommer.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Datorforskaren Stuart Russell drar en intressant parallell.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Han sade, föreställ er att vi fick ett meddelande från en främmande civilisation,
11:47
which read:
236
707320
1696
som sade:
11:49
"People of Earth,
237
709040
1536
"Människor på Jorden,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
vi kommer att landa på er planet om 50 år.
11:53
Get ready."
239
713800
1576
Gör er redo."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Och nu räknar vi bara ner månaderna tills moderskeppet landar?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Vi borde förstå att det brådskar mer än vad vi gör.
12:04
Another reason we're told not to worry
242
724680
1856
Vi hör att vi inte behöver oroa oss
12:06
is that these machines can't help but share our values
243
726560
3016
för maskinerna kommer att dela våra värderingar
12:09
because they will be literally extensions of ourselves.
244
729600
2616
eftersom de kommer att vara en förlängning av oss.
12:12
They'll be grafted onto our brains,
245
732240
1816
De kommer att ympas in i våra hjärnor,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
och vi kommer att vara deras limbiska system.
12:17
Now take a moment to consider
247
737120
1416
Reflektera nu över
12:18
that the safest and only prudent path forward,
248
738560
3176
att den tryggaste och förståndigaste vägen framåt,
12:21
recommended,
249
741760
1336
som förespråkas,
12:23
is to implant this technology directly into our brains.
250
743120
2800
är att operera in tekniken direkt i våra hjärnor.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Det kanske är den tryggaste och smartaste vägen att ta,
12:30
but usually one's safety concerns about a technology
252
750000
3056
men vanligtvis måste säkerhetsriskerna med en teknik
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
vara ordentligt utredda innan man stoppar in den i hjärnan.
12:36
(Laughter)
254
756760
2016
(Skratt)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Det djupare problemet är att utveckla en fristående superintelligent AI
12:44
seems likely to be easier
256
764160
1736
förmodligen är enklare
12:45
than building superintelligent AI
257
765920
1856
än att utveckla superintelligent AI
12:47
and having the completed neuroscience
258
767800
1776
och ha koll på neurovetenskapen
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
som låter oss sömlöst integrera våra sinnen med den.
12:52
And given that the companies and governments doing this work
260
772800
3176
Givet att företag och stater som står för vetenskapen
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
sannolikt kommer att uppfatta sig vara i kamp med alla andra,
12:59
given that to win this race is to win the world,
262
779680
3256
givet att genom att vinna kapplöpningen vinner man världen,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
förutsatt att de inte förstör den i nästa steg,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
då verkar det troligt att allt som är enklare att göra
13:08
will get done first.
265
788080
1200
kommer att göras först.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Tyvärr har jag ingen lösning på det här problemet,
13:13
apart from recommending that more of us think about it.
267
793440
2616
mer än att fler av oss måste fundera på det.
Jag tror vi behöver ett Manhattan-projekt
13:16
I think we need something like a Manhattan Project
268
796080
2376
13:18
on the topic of artificial intelligence.
269
798480
2016
på temat artificiell intelligens.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Inte för att bygga den, det tror jag oundvikligen vi gör,
13:23
but to understand how to avoid an arms race
271
803280
3336
men för att förstå hur vi ska undvika en kapprustning
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
och för att utveckla den i linje med våra egna intressen.
13:30
When you're talking about superintelligent AI
273
810160
2136
När man pratar om superintelligent AI
13:32
that can make changes to itself,
274
812320
2256
som kan förändra sig själv,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
verkar det som att vi bara har en chans att få det rätt från början,
13:39
and even then we will need to absorb
276
819240
2056
och även då måste vi sätta oss in i
13:41
the economic and political consequences of getting them right.
277
821320
3040
och lösa de ekonomiska och politiska konsekvenserna.
13:45
But the moment we admit
278
825760
2056
Men i den stund vi tillstår
13:47
that information processing is the source of intelligence,
279
827840
4000
att informationsbearbetning är källan till intelligens,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
att något datorstyrt beräkningsprogram är basen för intelligens,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
och att vi kommer att förbättra dessa system kontinuerligt,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
och vi erkänner att kognitionshorisonten vida överstiger
14:07
what we currently know,
283
847760
1200
vad vi vet idag,
14:10
then we have to admit
284
850120
1216
då måste vi också erkänna
14:11
that we are in the process of building some sort of god.
285
851360
2640
att vi är i färd med att skapa någon form av gud.
14:15
Now would be a good time
286
855400
1576
Nu borde vara ett bra tillfälle att
14:17
to make sure it's a god we can live with.
287
857000
1953
se till att det är en gud vi vill ha.
14:20
Thank you very much.
288
860120
1536
Tack så mycket.
14:21
(Applause)
289
861680
5093
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7