Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Susanna Baier Granskare: Lisbeth Pekkari
00:07
What's the most important century in human history?
0
7003
3587
Vilket är det viktigaste århundradet i mänsklighetens historia?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Vissa kanske hävdar att det är en period med omfattande militär aktivitet,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
som Alexander den stores tid på 300-talet f.Kr.
00:18
which reshaped political and cultural borders.
3
18848
3253
som omformade politiska och kulturella gränser.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Andra kanske hävdar uppkomsten av en stor religion,
00:27
such as Islam in the 7th century,
5
27023
2127
som islam på 600-talet,
00:29
which codified and spread values across such borders.
6
29525
3504
som kodifierade och spred värden över sådana gränser.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Eller kanske är det den industriella revolutionen på 1700-talet
00:38
that transformed global commerce
8
38993
1752
som transformerade global handel
00:40
and redefined humanity's relationship with labor.
9
40745
3128
och omdefinierade mänsklighetens förhållande till arbete.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Oavsett svaret verkar det som att de sekel som tävlar om förstaplatsen
00:48
is at a moment of great change—
11
48294
2377
upplevde ögonblick av stor förändring
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
när våra förfäders handlingar förändrade mänsklighetens riktning
00:55
for centuries to come.
13
55802
1584
för de kommande århundranden.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Så om det är vårt mått, är det möjligt att just nu -
01:01
this century— is the most important one yet?
15
61641
3086
detta århundrade - är det mest viktiga hittills?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
2000-talet har redan visat sig vara en period av snabb teknisk tillväxt.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Telefoner och datorer har accelererat livets takt.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Och vi är sannolikt på gränsen att utveckla ny transformativ teknik,
01:18
like advanced artificial intelligence,
19
78574
2294
som avancerad artificiell intelligens, som helt kan förändra hur människor lever.
01:20
that could entirely change the way people live.
20
80868
2878
01:25
Meanwhile, many technologies we already have
21
85414
3045
Under tiden kommer befintlig teknik
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
bidra till mänsklighetens aldrig tidigare skådade nivåer av existentiell risk-
01:33
that’s the risk of our species going extinct
23
93381
2377
risken för att vår art ska dö ut
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
eller uppleva någon form av katastrof som permanent begränsar
01:39
humanity’s ability to grow and thrive.
25
99178
2670
människans förmåga att växa och frodas.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Uppfinningen av atombomben innebar en stor ökning av existentiell risk,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
och sedan dess har vi bara ökat oddsen mot oss.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Det är väldigt svårt att uppskatta oddsen
01:55
of an existential collapse occurring this century.
29
115528
2628
för att en existentiell kollaps ska ske detta århundrade.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Grova gissningar uppskattar risken för existensiell katastrof
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
på grund av atomvinter och klimatförändringar till cirka 0,1 %,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
medan risken för att en pandemi ska orsaka samma typ av kollaps
02:11
at a frightening 3%.
33
131502
1960
är skrämmande 3 %.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Givet att alla dessa katastrofer skulle kunna betyda slutet på vårt liv,
02:19
these aren’t exactly small figures,
35
139177
2127
är inte dessa precis små siffror,
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
och det är möjligt att detta sekel kan se uppkomsten av ny teknik
02:25
that introduce more existential risks.
37
145308
2794
som för med sig högre existentiell risk.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
AI-experter har gjort många uppskattningar gällande
02:31
when artificial general intelligence will emerge,
39
151731
2961
när allmän artificiell intelligens kommer att finnas,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
men enligt vissa undersökningar, tror många att det kan hända detta sekel.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
För närvarande har vi relativt begränsade former av artificiell intelligens,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
utformade att utföra specifika uppgifter som schackspel eller känna igen ansikten.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Även smala AI som utför kreativt jobb är begränsade till sina specialiteter.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Men allmänna artificiella intelligenser, eller AGI,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
skulle kunna anpassa sig till och utföra valfritt antal uppgifter,
03:02
quickly outpacing their human counterparts.
46
182678
2878
och snabbt överträffa sin mänskliga motsvarighet.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Det finns en enorm variation av gissningar om hur AGI kan se ut,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
och vad det skulle betyda för mänskligheten att dela jorden
03:14
with another sentient entity.
49
194482
2127
med en annan medveten enhet.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGI:er kan hjälpa oss att nå våra mål,
03:21
they might regard us as inconsequential,
51
201197
2294
de kan betrakta oss som obetydliga,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
eller så kanske de ser oss som ett hinder att snabbt avlägsna.
03:26
So in terms of existential risk,
53
206869
2169
Så när det gäller existentiell risk,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
är det avgörande att den nya teknikens värderingar stämmer överens med våra egna.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Detta är en väldigt svår filosofisk och teknisk utmaning
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
som kommer att kräva mycket försiktigt, eftertänksamt arbete.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Även om vi lyckas, kan AGI fortfarande leda till ett annat komplicerat utfall.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Låt oss föreställa oss att en AGI uppstår med djup respekt för mänskligt liv
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
och en vilja att lösa alla mänsklighetens problem.
03:55
But to avoid becoming misaligned,
60
235231
2169
Men för att undvika att hamna fel,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
har det utvecklats för att vara otroligt fast i sina övertygelser.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Om dessa maskiner blev den dominerande makten på jorden,
04:04
their strict values might become hegemonic,
63
244323
2711
skulle deras strikta värderingar kunna bli rådande,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
och låsa fast mänskligheten i en ideologi som vore mycket svår att förändra.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Historien har lärt oss att oavsett hur upplyst
04:17
a civilization thinks they are,
66
257295
1793
en civilisation tror att den är,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
följer den sällan framtida generationers moraliska värderingar.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Och den här typen av värdelås kan permanent förvränga eller begränsa
04:27
humanity’s moral growth.
69
267638
1919
mänsklighetens moraliska utveckling.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Det finns massor av osäkerhet kring AGI,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
och det är väldigt svårt att förutse hur eventuella existentiella risker
04:36
will play out over the next century.
72
276314
2002
kommer att utvecklas under det kommande seklet.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Det är också möjligt att nya, mer angelägna orosmoln
04:41
might render these risks moot.
74
281569
2002
kan göra dessa risker irrelevanta.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Men även om vi inte definitivt kan säga att vårt är det viktigaste seklet,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
verkar det fortfarande som att besluten vi fattar kan ha stor påverkan
04:52
on humanity’s future.
77
292371
1502
på mänsklighetens framtid.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Så vi kanske alla borde leva som om framtiden beror på oss,
04:57
because actually, it just might.
79
297626
2211
för det kanske den faktiskt gör.
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7