What Is an AI Anyway? | Mustafa Suleyman | TED

1,786,446 views ・ 2024-04-22

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Tinna Grönvik Granskare: Lisbeth Pekkari
00:04
I want to tell you what I see coming.
0
4292
2586
Jag vill berätta vad jag ser komma.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Jag har haft turen att jobba med AI i nästan 15 år nu.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
När jag började, var det en underdrift att kalla det ytterligheter.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Forskare sa, “Nej, nej, vi jobbar bara med maskin-inlärning.”
00:21
Because working on AI was seen as way too out there.
4
21893
3087
För att jobba med AI ansågs alldeles för extremt.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
Om man nämnde begreppet “AGI”, artificiell allmän intelligens, 2010,
00:29
artificial general intelligence,
6
29401
2169
00:31
would get you some seriously strange looks
7
31570
2877
kunde man få riktigt konstiga blickar
00:34
and even a cold shoulder.
8
34489
1585
eller till och med kalla handen.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
“Bygger du verkligen AGI?” sade man.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
“Är inte det något taget ur science fiction?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Folk trodde att det var 50 år bort eller 100 år bort,
00:45
if it was even possible at all.
12
45500
1919
om det ens var möjligt alls.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Att prata om AI var lite pinsamt, antar jag.
00:51
People generally thought we were weird.
14
51631
2211
Folk tyckte i allmänhet att vi var konstiga.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Och jag antar att vi var det på sätt och vis.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Det tog inte lång tid dock, innan AI började utklassa människan
00:59
at a whole range of tasks
17
59681
1793
i alla möjliga uppgifter
01:01
that people previously thought were way out of reach.
18
61516
2795
som vi tidigare trott var helt utom räckhåll.
01:05
Understanding images,
19
65020
2127
Att förstå bilder,
01:07
translating languages,
20
67147
1918
översätta språk,
01:09
transcribing speech,
21
69065
1585
transkribera tal,
01:10
playing Go and chess
22
70692
2127
spela Go och schack
01:12
and even diagnosing diseases.
23
72861
1918
till och med att diagnosticera sjukdomar.
01:15
People started waking up to the fact
24
75905
1752
Folk började inse fakta
01:17
that AI was going to have an enormous impact,
25
77657
3462
att AI skulle komma att få en enorm påverkan,
01:21
and they were rightly asking technologists like me
26
81119
2836
och de frågade rättmätigt teknologer som mig
01:23
some pretty tough questions.
27
83955
1752
riktigt tuffa frågor.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Är det sant att AI kommer att lösa klimatkrisen?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Kommer det göra individanpassad utbildning tillgänglig för alla?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Betyder det att vi alla kommer att få universiell basinkomst
01:35
and we won't have to work anymore?
31
95216
2002
och att vi inte behöver jobba längre?
01:37
Should I be afraid?
32
97218
1544
Borde jag vara rädd?
01:38
What does it mean for weapons and war?
33
98762
2335
Vad betyder det för vapen och krigsföring?
01:41
And of course, will China win?
34
101598
1460
Och självklart, kommer Kina att vinna?
01:43
Are we in a race?
35
103058
1543
Är det en tävling?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Är vi på väg mot en apokalyps av felaktig information?
01:49
All good questions.
37
109147
1668
Alla väldigt bra frågor.
01:51
But it was actually a simpler
38
111608
1418
Men det var faktiskt en enklare
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
och mer fundamental fråga som gjorde mig förbryllad.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
En som faktiskt når hjärtat av mitt arbete varje dag.
02:03
One morning over breakfast,
41
123620
2044
En morgon vid frukost,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
lekte min sexåriga brorson Caspian med Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
AI:n jag skapade på mitt senaste företag, Inflection.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Med en munfull av äggröra,
02:14
he looked at me plain in the face and said,
45
134381
3503
tittade han mig rakt i ögonen och sa:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
“Men Mustafa, vad är egentligen AI?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Han är en så uppriktig, nyfiken och optimistisk liten kille.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Han hade pratat med Pi om hur häftigt det vore om han en dag i framtiden
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
kunde titta på dinosaurier på zoo.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
Och hur han skulle kunna göra oändliga mängder choklad hemma.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
Och varför Pi ännu inte kunde leka “Jag ser, jag ser, vad du inte ser”
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
“Nåväl,” sa jag, “det är en smart liten mjukvara
02:42
that's read most of the text on the open internet,
53
162075
2461
som har läst det mesta av texten på det öppna internet,
02:44
and it can talk to you about anything you want."
54
164577
2419
och den kan prata med dig om vad du vill.”
02:48
"Right.
55
168540
1168
“Okej.
02:49
So like a person then?"
56
169749
2127
Så det är som en person?”
02:54
I was stumped.
57
174254
1334
Jag var förvirrad.
02:56
Genuinely left scratching my head.
58
176798
2502
Genuint kliade jag mitt huvud.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Alla mina tråkiga standardsvar susade genom huvudet.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
“Nej, men AI är bara ytterligare en teknik för allmänt bruk,
03:07
like printing or steam."
61
187308
1710
som att skriva ut, eller ånga.”
03:09
It will be a tool that will augment us
62
189394
2502
Det kommer vara ett verktyg som förhöjer oss
03:11
and make us smarter and more productive.
63
191938
2377
och gör oss smartare och mer produktiva.
03:14
And when it gets better over time,
64
194649
1960
Och när det blir bättre över tid,
03:16
it'll be like an all-knowing oracle
65
196651
1919
kommer det bli som ett allvetande orakel
03:18
that will help us solve grand scientific challenges."
66
198611
3087
som kommer att hjälpa oss att lösa stora vetenskapliga utmaningar.”
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Du vet, alla de här svaren började kännas
03:25
a little bit defensive.
68
205869
1418
lite defensiva, antar jag.
Och faktiskt bättre lämpade för ett politiskt seminarium
03:28
And actually better suited to a policy seminar
69
208246
2211
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
än för frukost med en sexåring utan krusiduller.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
Jag tänkte: “Varför tvekar jag?”
03:37
You know, let's be honest.
72
217839
1960
Låt oss vara ärliga.
03:39
My nephew was asking me a simple question
73
219799
3253
Min brorson ställde en enkel fråga
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
som vi som jobbar med AI helt enkelt inte konfronterar ofta nog.
03:48
What is it that we are actually creating?
75
228099
2920
Vad är det vi faktiskt skapar?
03:51
What does it mean to make something totally new,
76
231895
3753
Vad innebär det att skapa något helt nytt,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
fundamentalt åtskilt från alla uppfinningar vi hittills känt till?
04:00
It is clear that we are at an inflection point
78
240695
2795
Det är tydligt att vi är vid en vändpunkt
04:03
in the history of humanity.
79
243490
1793
i människans historia.
04:06
On our current trajectory,
80
246493
1918
På vår nuvarande bana,
04:08
we're headed towards the emergence of something
81
248411
2211
är vi på väg mot uppkomsten av något
04:10
that we are all struggling to describe,
82
250663
3170
som vi alla kämpar med att beskriva,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
och vi kan inte kontrollera det vi inte förstår.
04:19
And so the metaphors,
84
259631
1585
Så metaforerna, de mentala modellerna,
04:21
the mental models,
85
261216
1251
04:22
the names, these all matter
86
262509
2585
namnen, allt är av betydelse
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
om vi ska få ut det mesta av AI medan vi begränsar dess potentiella nackdelar.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Som någon som omfamnar möjligheterna i denna teknologi,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
men också alltid har lagt väldigt mycket vikt på etiken,
04:37
we should, I think,
90
277524
1293
borde vi, tycker jag, med enkelhet kunna förklara vad vi skapar.
04:38
be able to easily describe what it is we are building.
91
278817
3044
04:41
And that includes the six-year-olds.
92
281861
2002
Och det innefattar sexåringarna.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Så det är i den andan som jag idag erbjuder följande metafor
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
för att hjälpa oss att försöka greppa vad det här tillfället verkligen är.
04:52
I think AI should best be understood
95
292539
2627
Jag tror att AI bäst kan förklaras
04:55
as something like a new digital species.
96
295166
4254
som något som liknar en ny digital art.
05:00
Now, don't take this too literally,
97
300296
2253
Ta nu inte detta för bokstavligt,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
men jag förutspår att vi kommer att se dem som digitala följeslagare,
05:07
new partners in the journeys of all our lives.
99
307220
3295
nya partners på vår livsresa.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Oavsett om du tror att vi är på en 10-, 20- eller 30-årsresa här,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
så är det, i mina ögon, det mest korrekta och mest fundamentalt ärliga sättet
05:19
of describing what's actually coming.
102
319732
2378
att förklara vad som verkligen är på väg.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Och framför allt, det möjliggör för alla att förbereda för
05:26
and shape what comes next.
104
326614
2711
och forma vad som kommer sedan.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Jag förstår fullständigt att det här är ett starkt påstående,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
och jag ska förklara så gott jag kan varför jag säger detta.
05:36
But first, let me just try to set the context.
107
336291
2961
Men först, låt mig bara försöka att skapa sammanhanget.
05:39
From the very first microscopic organisms,
108
339252
2753
Från de absolut första mikroskopiska organismerna,
05:42
life on Earth stretches back billions of years.
109
342046
3462
sträcker sig livet på jorden tillbaka flera miljarder år.
05:45
Over that time, life evolved and diversified.
110
345508
4213
På den tiden har livet utvecklats och diversifierats.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
För några miljoner år sedan, började något att förändras.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Efter otaliga cykler av tillväxt och anpassning,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
började en av livets grenar att använda verktyg, och den grenen blev till oss.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Vi fortsatte med att producera ett fascinerande utbud av verktyg.
06:08
at first slowly and then with astonishing speed,
115
368907
3670
Till en början långsamt och sedan med en häpnadsväckande hastighet,
06:12
we went from stone axes and fire
116
372577
3670
gick vi från stenyxor och eld
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
till språk, skrift och tids nog industriell teknologi.
06:21
One invention unleashed a thousand more.
118
381878
2919
En uppfinning frigjorde tusen till.
06:25
And in time, we became homo technologicus.
119
385173
3712
Och med tiden blev vi homo technologicus.
06:29
Around 80 years ago,
120
389594
1209
För cirka 80 år sedan startade ännu en ny teknologisk gren.
06:30
another new branch of technology began.
121
390803
2545
06:33
With the invention of computers,
122
393973
1710
Med datorernas uppkomst,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
hoppade vi snabbt från de första stordatorerna och transistorerna
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
till dagens smart-telefoner och headset för virtuell verklighet.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Information, kunskap, kommunikation, beräkning.
06:47
In this revolution,
126
407570
1418
I den här revolutionen har skapandet exploderat som aldrig förr.
06:49
creation has exploded like never before.
127
409030
3295
06:53
And now a new wave is upon us.
128
413242
2503
Och nu är en ny våg här.
06:55
Artificial intelligence.
129
415787
1668
Artificiell intelligens.
06:57
These waves of history are clearly speeding up,
130
417872
2544
De här historiska vågorna ökar tydligt i fart,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
eftersom var och en förstärks och påskyndas av den förra.
07:05
And if you look back,
132
425088
1167
Och om man ser tillbaka är det tydligt att vi är i den snabbaste
07:06
it's clear that we are in the fastest
133
426297
2002
07:08
and most consequential wave ever.
134
428299
2586
och mest följdriktiga vågen någonsin.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Mänsklighetens och teknikens resor är nu djupt sammanflätade.
07:16
In just 18 months,
136
436516
1543
På bara 18 månader,
07:18
over a billion people have used large language models.
137
438059
3170
har över en miljard människor använt stora språkmodeller.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Vi har bevittnat ett landmärke efter det andra
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
För bara ett par år sedan, sa människor att AI aldrig skulle bli kreativt.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Och ändå känns AI nu som en oändlig flod av kreativitet
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
som skapar poesi, bilder, musik och video som tänjer fantasins gränser.
07:39
People said it would never be empathetic.
142
459664
2252
Man sa att det aldrig skulle bli empatiskt.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Och ändå har miljontals människor idag meningsfulla konversationer med AI,
07:47
talking about their hopes and dreams
144
467755
2002
de talar om sina förhoppningar och drömmar
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
och hjälper dem att ta sig igenom svåra känslomässiga utmaningar.
07:53
AIs can now drive cars,
146
473177
2294
AI kan nu köra bilar,
07:55
manage energy grids
147
475513
1543
hantera energinät och till och med uppfinna nya molekyler.
07:57
and even invent new molecules.
148
477056
2252
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
För bara några år sedan var allt det här omöjligt.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Och allt det här turboladdas av exponentiellt växande mängder data
08:09
and computation.
151
489277
1626
och beräkningar.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
Förra året gjorde Inflection 2.5, vår senaste modell,
08:16
used five billion times more computation
153
496242
4129
fem miljarder gånger fler beräkningar
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
än DeepMind AI som slog de gamla Atarispelen
08:24
just over 10 years ago.
155
504042
1668
för strax över 10 år sedan.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Det är nio storleksordningar fler beräkningar.
08:30
10x per year,
157
510089
1627
10x per år,
08:31
every year for almost a decade.
158
511716
3253
varje år i nästan ett decennium.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Under samma tid har storleken på de här modellerna vuxit
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
från först tiotals miljoner parametrar till sedan miljarder parametrar,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
och väldigt snart, tiotals triljoner parametrar.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Om någon inte gjorde annat än att läsa 24 timmar om dygnet i hela sitt liv,
08:50
they'd consume eight billion words.
163
530109
3337
skulle de konsumera åtta miljarder ord.
08:53
And of course, that's a lot of words.
164
533488
1835
Och det är såklart en väldig massa ord.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Men idag konsumerar den mest avancerade AI:n mer än åtta triljoner ord
09:01
in a single month of training.
166
541120
2336
på en enda månad av träning.
09:03
And all of this is set to continue.
167
543873
1960
Och allt det här kommer att fortsätta.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Den långa teknikhistorien är nu inne i en enastående ny fas.
09:12
So what does this mean in practice?
169
552256
2503
Så vad betyder det i praktiken?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Ja, precis som internet gav oss webbläsaren
09:18
and the smartphone gave us apps,
171
558346
2502
och smart-telefonen gav oss appar,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
inleder den nya molnbaserade superdatorn en ny era av ständigt närvarande AI.
09:24
of ubiquitous AIs.
173
564936
2502
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Allt kommer snart att representeras av ett gränssnitt för konversation.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Eller, med andra ord, en personlig AI.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Och dessa AI:er kommer att vara oändligt kunniga,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
och snart kommer de att vara sakligt korrekta och tillförlitliga.
09:42
They'll have near-perfect IQ.
178
582036
1794
De kommer att ha nästan perfekt IQ.
09:44
They’ll also have exceptional EQ.
179
584914
2377
De kommer också att ha exceptionell EQ.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
De kommer att vara vänliga, stöttande, empatiska.
09:53
These elements on their own would be transformational.
181
593089
2836
Dessa element var för sig skulle vara omvälvande.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Tänk om alla hade en personlig handledare i fickan
09:59
and access to low-cost medical advice.
183
599720
3003
och tillgång till billig medicinsk rådgivning.
10:02
A lawyer and a doctor,
184
602723
1544
En advokat och en läkare, en företagsstrateg och coach --
10:04
a business strategist and coach --
185
604267
1960
10:06
all in your pocket 24 hours a day.
186
606269
2252
alla i din ficka 24 timmar om dygnet.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Men saker kommer verkligen börja förändras när de utvecklar vad jag kallar AQ,
10:13
their “actions quotient.”
188
613693
1668
deras “handlingskvot.”
10:15
This is their ability to actually get stuff done
189
615695
2794
Detta är deras möjlighet att faktiskt få saker gjorda
10:18
in the digital and physical world.
190
618531
2294
i den digitala och fysiska världen.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Inom kort kommer det inte bara vara människor som har AI.
10:24
Strange as it may sound, every organization,
192
624328
2962
Det kanske låter märkligt, men varje organisation,
10:27
from small business to nonprofit to national government,
193
627290
3253
från litet företag till ideell förening till nationell regering,
10:30
each will have their own.
194
630585
1710
alla kommer att ha sin egen.
10:32
Every town, building and object
195
632795
2711
Varje stad, byggnad och objekt
10:35
will be represented by a unique interactive persona.
196
635506
3754
kommer att representeras av en unik interaktiv persona.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Och dessa kommer inte bara vara mekaniska assistenter.
10:42
They'll be companions, confidants,
198
642221
3754
De kommer att vara följeslagare, förtrogna,
10:46
colleagues, friends and partners,
199
646017
2669
kollegor, vänner och partners,
10:48
as varied and unique as we all are.
200
648728
2627
lika varierade och unika som oss alla.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
I det här läget, kommer AI övertygande att imitera människor i det mesta.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Och vi kommer att märka det på den mest personliga nivån.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
En AI som organiserar en gemenskaplig sammankomst för en äldre granne.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
En sympatisk expert som hjälper dig förstå innebörden av en svår diagnos.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Men vi kommer också att känna det på den största skalan.
11:12
Accelerating scientific discovery,
206
672043
2586
Påskyndade vetenskapliga upptäckter,
11:14
autonomous cars on the roads,
207
674629
2168
autonoma bilar på vägarna, drönare i skyarna.
11:16
drones in the skies.
208
676797
1627
11:18
They'll both order the takeout and run the power station.
209
678966
3337
De kommer att både beställa hämtmat och driva kraftverk.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
De kommer att interagera med oss och såklart med varandra.
11:26
They'll speak every language,
211
686349
1918
De kommer att tala alla språk, ta in alla datamönster från sensorer,
11:28
take in every pattern of sensor data,
212
688267
2836
11:31
sights, sounds,
213
691145
2336
sevärdheter, ljud, strömmar och strömmar av information,
11:33
streams and streams of information,
214
693481
2377
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
vida överträffande vad någon av oss skulle kunna förbruka under tusen liv.
11:40
So what is this?
216
700780
1293
Så vad är det här?
11:42
What are these AIs?
217
702990
2086
Vad är dessa AI?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Om vi ska prioritera säkerhet framför allt,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
för att säkerställa att denna nya våg alltid tjänar och förstärker mänskligheten
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
då måste vi hitta rätt metaforer för vad detta kan bli.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
I åratal har vi i AI-gemenskapen, och jag specifikt,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
har haft en tendens att hänvisa till detta som bara verktyg.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Men det fångar inte riktigt vad som egentligen händer här.
12:14
AIs are clearly more dynamic,
224
734730
2503
AI är klart mer dynamiskt,
12:17
more ambiguous, more integrated
225
737233
2753
mer tvetydigt, mer integrerat
12:19
and more emergent than mere tools,
226
739986
2627
och mer framträdande än ett enkelt verktyg
12:22
which are entirely subject to human control.
227
742613
2878
som är helt och hållet föremål för mänsklig kontroll.
12:25
So to contain this wave,
228
745533
2544
Så för att hålla tillbaka denna våg,
att sätta mänsklig handlingsfrihet i centrum
12:28
to put human agency at its center
229
748119
3044
och för att mildra de oundvikliga, oavsiktliga konsekvenser
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
12:33
that are likely to arise,
231
753916
1835
som sannolikt kommer att uppstå,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
borde vi börja tänka på dem som en ny typ av digital art.
12:41
Now it's just an analogy,
233
761132
1793
Det är bara en analogi,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
det är inte en bokstavlig beskrivning och den är inte perfekt.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Till att börja med är de uppenbarligen inte biologiska i traditionell mening,
12:50
but just pause for a moment
236
770141
2377
men pausa en stund och fundera på vad de redan gör.
12:52
and really think about what they already do.
237
772560
2836
12:55
They communicate in our languages.
238
775438
2627
De kommunicerar på våra språk.
12:58
They see what we see.
239
778107
2127
De ser vad vi ser.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
De konsumerar ofattbart stora mängder information.
13:04
They have memory.
241
784739
1376
De har minne.
13:06
They have personality.
242
786991
1752
De har personlighet.
13:09
They have creativity.
243
789493
1710
De har kreativitet.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
De kan till och med resonera till viss del och formulera rudimentära planer.
13:16
They can act autonomously if we allow them.
245
796709
3128
De kan agera självständigt om vi tillåter dem.
13:20
And they do all this at levels of sophistication
246
800546
2294
Och de gör allt detta på nivåer
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
långt bortom allt som vi någonsin sett hos ett simpelt verktyg.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Så att säga AI främst är matematik eller kod
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
är som att säga vi människor främst är kol och vatten.
13:37
It's true, but it completely misses the point.
250
817897
3795
Det är sant, men det missar poängen helt.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Och ja, jag förstår, det här är en väldigt fängslande tanke
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
men jag tror ärligt att det skärper vårt fokus på de viktigaste frågorna.
13:52
What are the risks?
253
832745
1585
Vilka är riskerna?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Vilka gränser behöver vi sätta?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Vilken typ av AI vill vi bygga eller låta byggas?
14:04
This is a story that's still unfolding.
256
844465
2377
Det här är en historia som fortfarande utvecklas.
14:06
Nothing should be accepted as a given.
257
846884
2544
Ingenting ska tas för givet.
14:09
We all must choose what we create.
258
849428
2544
Vi måste alla välja vad vi skapar.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Vilka AI vi för till världen, eller ej.
14:18
These are the questions for all of us here today,
260
858604
2836
Det här är frågorna för oss alla här idag,
14:21
and all of us alive at this moment.
261
861440
2586
och oss alla som lever i detta ögonblick.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
För mig är fördelarna med denna teknik förbluffande uppenbara,
14:28
and they inspire my life's work every single day.
263
868989
3546
och de inspirerar mitt livsverk varje dag.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Men helt ärligt, de kommer att tala för sig själva.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Under årens lopp har jag aldrig skyggat från att belysa risker
14:40
and talking about downsides.
266
880668
1710
och prata om nackdelar.
Att tänka på detta sätt hjälper oss fokusera på de stora utmaningarna
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
14:46
that lie ahead for all of us.
268
886298
1836
som ligger framför oss alla.
14:48
But let's be clear.
269
888843
1418
Men låt oss vara tydliga.
14:50
There is no path to progress
270
890719
2128
Det finns ingen väg till framsteg
14:52
where we leave technology behind.
271
892888
2169
där vi lämnar teknologin bakom oss.
14:55
The prize for all of civilization is immense.
272
895683
3795
Civilisationens vinster är enorma.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
Vi behöver lösningar inom vården och utbildning, på klimatkrisen.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Och om AI bara levererar en bråkdel av dess potential,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
kommer nästa decennium vara det mest produktiva i mänsklighetens historia.
15:13
Here's another way to think about it.
276
913701
2002
Här är ett annat sätt att tänka på det.
15:15
In the past,
277
915744
1293
Förr kom ekonomisk tillväxt ofta med stora nackdelar.
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
15:21
The economy expanded as people discovered new continents
279
921500
3712
Ekonomin expanderade allt eftersom människor upptäckte nya kontinenter
15:25
and opened up new frontiers.
280
925254
2002
och öppnade nya gränser.
15:28
But they colonized populations at the same time.
281
928632
3045
Men de koloniserade befolkningar på samma gång.
15:32
We built factories,
282
932595
1710
Vi byggde fabriker,
15:34
but they were grim and dangerous places to work.
283
934305
3044
men de var dystra och farliga arbetsplatser.
15:38
We struck oil,
284
938017
1918
Vi borrade efter olja,
15:39
but we polluted the planet.
285
939977
1627
men vi förorenade planeten.
15:42
Now because we are still designing and building AI,
286
942146
3170
Eftersom vi fortfarande designar och bygger AI,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
har vi potential och möjlighet att göra det bättre,
15:49
radically better.
288
949153
1335
mycket bättre.
15:51
And today, we're not discovering a new continent
289
951071
2628
Och idag upptäcker vi inte en ny kontinent
15:53
and plundering its resources.
290
953741
1918
och plundrar dess resurser.
15:56
We're building one from scratch.
291
956285
1919
Vi bygger en från grunden.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Ibland säger folk att data eller chips är 2000-talets nya olja,
16:03
but that's totally the wrong image.
293
963959
2002
men det är helt fel bild.
16:06
AI is to the mind
294
966587
1919
AI är för sinnet vad kärnfusion är för energi.
16:08
what nuclear fusion is to energy.
295
968547
2753
16:12
Limitless, abundant,
296
972259
2670
Gränslös, riklig,
16:14
world-changing.
297
974970
1544
världsomvälvande.
16:17
And AI really is different,
298
977389
2962
Och AI är verkligen annorlunda,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
och det betyder att vi måste tänka på det kreativt och ärligt.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Vi måste driva på våra analogier och våra metaforer
16:27
to the very limits
301
987274
1752
till yttersta gränserna för att kunna brottas med det som kommer.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
För det här är inte bara ännu en uppfinning.
16:34
AI is itself an infinite inventor.
304
994907
3503
AI är i sig självt en oändlig uppfinnare.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Och ja, det här är spännande och lovande och oroande
16:42
and intriguing all at once.
306
1002164
2044
och exalterande på en gång.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
För att vara helt ärlig så är det ganska overkligt.
16:47
But step back,
308
1007836
1293
Men ta ett steg tillbaka, se det långsiktigt över glacial tid,
16:49
see it on the long view of glacial time,
309
1009171
3462
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
och dessa är verkligen de mest lämpliga metaforer som vi har idag.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Sedan livets början på jorden,
17:00
we've been evolving, changing
312
1020516
2961
har vi utvecklats, förändrats
17:03
and then creating everything around us in our human world today.
313
1023477
4171
och sedan skapat allt omkring oss i vår mänskliga värld idag.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Och AI står inte utanför denna berättelse.
17:11
In fact, it's the very opposite.
315
1031569
2961
I själva verket är det precis tvärtom.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Det är helheten av allt som vi har skapat,
17:18
distilled down into something that we can all interact with
317
1038367
3545
destillerat till något som vi alla kan interagera med
17:21
and benefit from.
318
1041912
1377
och dra nytta av.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Det är en återspegling av mänskligheten över tid,
17:27
and in this sense,
320
1047418
1251
och i denna mening är det inte alls en ny art.
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
Det är här metaforerna slutar.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Så här ska jag svara Caspian nästa gång han frågar.
17:37
AI isn't separate.
324
1057219
1460
AI är inte separat.
17:39
AI isn't even in some senses, new.
325
1059388
3295
AI är inte ens i vissa bemärkelser, nytt.
17:43
AI is us.
326
1063517
1126
AI är oss.
17:45
It's all of us.
327
1065394
1210
Det är vi alla.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
Och det här är kanske det mest lovande och viktiga av allt
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
som även en sexåring kan få en känsla för.
17:54
As we build out AI,
330
1074528
1376
När vi bygger ut AI, kan och måste vi spegla allt som är bra,
17:55
we can and must reflect all that is good,
331
1075946
3545
17:59
all that we love,
332
1079533
1126
allt som vi älskar, allt som är speciellt med mänskligheten:
18:00
all that is special about humanity:
333
1080701
2753
18:03
our empathy, our kindness,
334
1083495
2169
vår empati, vår vänlighet, vår nyfikenhet och vår kreativitet.
18:05
our curiosity and our creativity.
335
1085664
2169
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Detta, vill jag hävda, är 2000-talets största utmaning,
18:14
but also the most wonderful,
337
1094381
2211
men också den mest underbara,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
inspirerande och hoppfulla möjligheten för oss alla.
18:20
Thank you.
339
1100429
1168
Tack.
18:21
(Applause)
340
1101639
4879
(Applåder)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Tack Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Det är en fantastisk vision och en väldigt kraftig metafor.
18:32
You're in an amazing position right now.
343
1112066
1960
Du är i en fantastisk position just nu.
18:34
I mean, you were connected at the hip
344
1114026
1793
Jag menar, du var djupt involverad
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
i det fantastiska arbete som sker på OpenAI.
18:38
You’re going to have resources made available,
346
1118614
2169
Du kommer att göra resurser tillgängliga,
18:40
there are reports of these giant new data centers,
347
1120824
4046
det finns rapporter om enorma nya datacenter,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 miljarder dollar investerat och så vidare.
18:48
And a new species can emerge from it.
349
1128082
3837
Och en ny art kan växa fram ur det.
18:52
I mean, in your book,
350
1132294
1502
I din bok, likväl som att måla upp en otrolig optimistisk vision,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
var du väldigt vältalig om farorna med AI.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Jag är nyfiken. Från ditt nuvarande perspektiv,
19:04
what is it that most keeps you up at night?
354
1144431
2336
vad är det som mest håller dig vaken på natten?
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
Mustafa Suleyman: Den stora risken är nog att vi fastnar
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
i vad jag kallar den pessimistiska motviljefällan.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Vi måste våga tänka på potentiella mörka scenarier
19:14
the potential of dark scenarios
358
1154483
1960
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
för att få ut det mesta av alla fördelar som vi ser.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
Så den goda nyheten är att om du tittar på de senaste två eller tre åren,
19:23
there have been very, very few downsides, right?
361
1163325
2961
har det varit väldigt få nackdelar, eller hur?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Det är väldigt svårt att säga explicit vilken skada en LLM har orsakat.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
Men det betyder inte att det är så det kommer att se ut
19:34
over the next 10 years.
364
1174503
1168
under de kommande 10 åren.
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Så jag tror att om du är uppmärksam på några specifika förmågor,
19:39
take for example, autonomy.
366
1179174
1835
ta till exempel autonomi.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
Autonomi är mycket uppenbart en tröskel
19:43
over which we increase risk in our society.
368
1183387
2794
där vi ökar riskerna i vårt samhälle.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
Och det är något som vi borde närma oss mycket försiktigt.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Den andra skulle vara något liknande rekursiv självförbättring.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Om du tillåter modellen att självständigt förbättra sig själv,
19:56
update its own code,
372
1196483
1460
uppdatera sin egen kod,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
utforska en miljö utan tillsyn,
20:01
without a human in control to change how it operates,
374
1201321
3295
utan att en människa kan ändra hur den agerar,
20:04
that would obviously be more dangerous.
375
1204616
1919
så vore det uppenbarligen farligare.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Men jag tror att vi fortfarande är en bit ifrån det.
Det är nog minst 5-10 år tills vi måste hantera det.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Men det är dags att prata om det.
20:12
But it's time to start talking about it now.
378
1212958
2085
CA: En digital art, till skillnad från alla biologiska arter,
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
kan replikeras, inte på nio månader men på nio nanosekunder,
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
och producera ett oändligt antal kopior av sig själv,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
som alla på sätt och vis har mer makt än vi har.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
Risken för oavsiktliga konsekvenser verkar ganska stor.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Och är det inte så att om ett problem uppstår,
20:35
it could happen in an hour?
386
1235689
1919
kan det hända om en timme?
20:37
MS: No.
387
1237649
1335
MS: Nej. Det är verkligen inte så.
20:38
That is really not true.
388
1238984
1752
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Jag tror inte att det finns några bevis som pekar på det.
20:42
And I think that, you know,
390
1242863
1585
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
Det kallas ofta för “intelligensexplosionen”.
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Och jag tror att det är ett teoretiskt, hypotetisk “kanske”
20:51
that we're all kind of curious to explore,
393
1251079
2420
som vi alla är lite nyfikna på att utforska,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
men det finns inga bevis för att vi är ens i närheten av något sådant.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Och det är viktigt att vi väljer våra ord noggrant.
För du har rätt, det är en av svagheterna i att se det som en art,
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
21:03
that we will design the capability for self-replication into it
397
1263801
4337
att vi ska designa förmågan till självreplikering i den
21:08
if people choose to do that.
398
1268180
1668
om folk väljer att göra det.
21:09
And I would actually argue that we should not,
399
1269890
2169
Och jag vill faktiskt hävda att vi inte borde det.
21:12
that would be one of the dangerous capabilities
400
1272059
2210
Det skulle vara en av de farliga förmågorna
21:14
that we should step back from, right?
401
1274269
1835
som vi borde backa undan från.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Så det finns ingen chans att detta kommer att “uppstå” av misstag.
21:19
I really think that's a very low probability.
403
1279942
2502
Jag tror verkligen att det är en mycket låg sannolikhet.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Det kommer att hända om ingenjörer medvetet designar in dessa förmågor.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Och om de inte anstränger sig tillräckligt att medvetet designa bort dem.
21:30
And so this is the point of being explicit
406
1290160
2294
Det är poängen med att vara tydlig
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
och transparent med att introducera säkerhet genom design mycket tidigt.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Så din vision är att vi
injicerar det bästa av oss själva i det här nya
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
och undviker alla de konstiga, biologiska, galna,
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
hemska tendenser som vi kan ha under vissa omständigheter,
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
Jag menar, det är en väldigt inspirerande vision.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Tack så mycket för att du kom hit och delade den på TED.
21:58
Thank you, good luck.
414
1318355
1210
Tack, och lycka till.
21:59
(Applause)
415
1319565
1876
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7