The most important century in human history

337,860 views ・ 2023-04-04

TED-Ed


Vennligst dobbeltklikk på de engelske undertekstene nedenfor for å spille av videoen.

Translator: Rebecca Gilbert Reviewer: Thomas Bedin
00:07
What's the most important century in human history?
0
7003
3587
Hvilket århundre er det viktigste i menneskets historie?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Noen vil si det er en periode med mange militære felttog,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
som de av Alexander den store, på 300-tallet f.v.t.,
00:18
which reshaped political and cultural borders.
3
18848
3253
som endret politiske og kulturelle grenser.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Andre vil nevne fremveksten av en stor religion,
00:27
such as Islam in the 7th century,
5
27023
2127
som islam i det 7. århundre,
00:29
which codified and spread values across such borders.
6
29525
3504
som kodifiserte og spredde verdier over slike grenser.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Eller kanskje den industrielle revolusjonen på 1700-tallet
00:38
that transformed global commerce
8
38993
1752
som omformet global handel
00:40
and redefined humanity's relationship with labor.
9
40745
3128
og redefinerte menneskehetens forhold til arbeid.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Uansett svar, det ser ut som at århundrer som konkurrerer om den øverste plassen
00:48
is at a moment of great change—
11
48294
2377
er tider med store forandringer –
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
da handlingene til forfedrene våre endret menneskehetens retning
00:55
for centuries to come.
13
55802
1584
i århundrer fremover.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Så hvis dette er vår målestokk, er det mulig at akkurat nå,
01:01
this century— is the most important one yet?
15
61641
3086
dette århundret, er det aller viktigste til nå?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
Det 21. århundret har allerede vist seg
å være en periode med rask teknologisk vekst.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Telefoner og datamaskiner har akselerert livets tempo.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Vi er sannsynligvis ved vendepunktet av utviklingen av ny transformativ teknologi,
01:18
like advanced artificial intelligence,
19
78574
2294
slik som avansert kunstig intelligens,
01:20
that could entirely change the way people live.
20
80868
2878
som totalt kan endre måten folk lever på.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Samtidig bidrar mange teknologier vi allerede har,
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
uten sidestykke til menneskehetens eksistensielle risiko –
01:33
that’s the risk of our species going extinct
23
93381
2377
det vil si risikoen for at vår art blir utryddet
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
eller opplever en type katastrofe som permanent hindrer
01:39
humanity’s ability to grow and thrive.
25
99178
2670
menneskehetens mulighet til å vokse og blomstre.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Oppfinnelsen av atombomben markerte en betydelig økning i eksistensiell risiko,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
og siden da har vi bare økt sjansen mot oss.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Det er spesielt vanskelig å estimere sjansen
01:55
of an existential collapse occurring this century.
29
115528
2628
for at en eksistensiell kollaps skjer i dette århundret.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Veldig grove gjetninger setter risikoen for eksistensiell katastrofe
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
fra atomvinter og klimaendringer til rundt 0,1 %,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
med sjansen for at en pandemi fører til samme type kollaps
02:11
at a frightening 3%.
33
131502
1960
på skumle 3 %.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Gitt at hver av disse katastrofene betyr slutten for liv som vi kjenner det,
02:19
these aren’t exactly small figures,
35
139177
2127
er ikke dette små tall,
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
og det er mulig at det kommer flere slike teknologier dette århundret
02:25
that introduce more existential risks.
37
145308
2794
som skaper flere eksistensielle risikoer.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
KI-eksperter har et bredt spekter av estimater om
02:31
when artificial general intelligence will emerge,
39
151731
2961
når kunstig generell intelligens vil oppstå,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
men ifølge noen undersøkelser, tror mange det kan skje i dette århundret.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
I dag har vi relativt smale typer av kunstig intelligens,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
designet for å gjøre spesifikke oppgaver som å spille sjakk eller gjenkjenne ansikt
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Selv smale KI som gjør kreativt arbeid er begrenset til sin ene spesialitet.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Men kunstig generell intelligens, eller KGI,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
vil kunne tilpasse seg og utføre mange typer oppgaver,
03:02
quickly outpacing their human counterparts.
46
182678
2878
og raskt overgå deres menneskelige motpart.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Det er stor variasjon i hva man tror KGI vil se ut som,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
og hva det vil bety for menneskeheten å dele jorden
03:14
with another sentient entity.
49
194482
2127
med et annet selvbevisst vesen.
03:18
AGIs might help us achieve our goals,
50
198653
2544
KGI kan kanskje hjelpe oss nå våre mål,
03:21
they might regard us as inconsequential,
51
201197
2294
kanskje de anser oss som uviktige,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
eller kanskje de anser oss som en hindring som må fjernes raskt.
03:26
So in terms of existential risk,
53
206869
2169
Når det gjelder eksistensiell risiko,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
er det avgjørende at verdiene til slik ny teknologi samsvarer med vår egen.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Dette er en svært utfordrende filosofisk og ingeniørvitenskaplig utfordring
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
som vil kreve mye delikat, gjennomtenkt arbeid.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Selv om vi lykkes, kan KGI likevel føre til et annet komplisert utfall.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
La oss forestille oss at en KGI oppstår med dyp respekt for menneskeliv
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
og et ønske om å løse alle menneskehetens problemer.
03:55
But to avoid becoming misaligned,
60
235231
2169
Men, for å unngå at den blir feiljustert,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
har den blitt utviklet for å være urokkelig i sin tro.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Hvis disse maskinene blir den dominante makten på jorden,
04:04
their strict values might become hegemonic,
63
244323
2711
kan deres strenge verdier bli hegemonisk,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
og låse menneskeheten til én ideologi som er utrolig motstandsdyktig mot endring.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Historien har lært oss at uansett hvor opplyste
04:17
a civilization thinks they are,
66
257295
1793
en sivilisasjon tror at de er,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
lever de sjelden opp til de moralske standardene til senere generasjoner.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
En slik verdi-låsing vil kunne permanent forstyrre eller begrense
04:27
humanity’s moral growth.
69
267638
1919
menneskehetens moralske vekst.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Det er stor usikkerhet rundt KGI,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
og veldig vanskelig å forutse hvordan noen eksistensiell risiko
04:36
will play out over the next century.
72
276314
2002
vil utspille seg i det neste århundret.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Det er også mulig at nye, mer akutte bekymringer
04:41
might render these risks moot.
74
281569
2002
gjør slike risikoer irrelevante.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Selv om vi ikke kan si med sikkerhet at vårt århundre er det viktigste,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
kan det se ut som at beslutninger vi tar kan ha stor effekt
04:52
on humanity’s future.
77
292371
1502
på menneskehetens framtid.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Så kanskje vi burde leve som om framtiden avhenger av oss –
04:57
because actually, it just might.
79
297626
2211
fordi kanskje den nettopp gjør det.
Om denne nettsiden

Denne siden vil introdusere deg til YouTube-videoer som er nyttige for å lære engelsk. Du vil se engelsktimer undervist av førsteklasses lærere fra hele verden. Dobbeltklikk på de engelske undertekstene som vises på hver videoside for å spille av videoen derfra. Undertekstene ruller synkronisert med videoavspillingen. Hvis du har kommentarer eller forespørsler, vennligst kontakt oss ved å bruke dette kontaktskjemaet.

https://forms.gle/WvT1wiN1qDtmnspy7