How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Zsuzsa Viola Lektor: Reka Lorinczy
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
13,8 milliárd év kozmikus történelmét követően
00:17
our universe has woken up
1
17200
2096
univerzumunk életre kelt,
00:19
and become aware of itself.
2
19320
1520
tudatára ébredt létezésének.
00:21
From a small blue planet,
3
21480
1936
Egy kis kék bolygóról
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
világegyetemünk kicsiny, tudatos összetevői kezdték bámulni a kozmoszt
00:27
with telescopes,
5
27600
1376
teleszkópjaikkal,
00:29
discovering something humbling.
6
29000
1480
és felfedeztek valami lehangolót:
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Rájöttek, hogy univerzumunk mérhetetlenül nagyobb
00:34
than our ancestors imagined
8
34240
1336
az őseink által képzeltnél.
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
Az élet észrevehetetlen rendbontásnak tűnik
00:39
on an otherwise dead universe.
10
39880
1720
az egyébként halott világmindenségben.
00:42
But we've also discovered something inspiring,
11
42320
3016
Felfedeztünk azonban valami biztatót is,
00:45
which is that the technology we're developing has the potential
12
45360
2976
hogy fejlődő technológiánk segítségével
00:48
to help life flourish like never before,
13
48360
2856
az élet úgy fejlődhet, mint soha azelőtt,
00:51
not just for centuries but for billions of years,
14
51240
3096
évszázadok helyett évmilliárdokig
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
a Földön túl a csodás kozmoszban is.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
A kezdeti életre "Lét 1.0"-ként gondolok,
01:03
because it was really dumb,
17
63040
1376
mivel igen ostoba volt,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
a baktériumokhoz hasonló, tanulásra képtelen.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Az emberiségre "Lét 2.0"-ként gondolok, mivel mi képesek vagyunk tanulni.
01:12
which we in nerdy, geek speak,
20
72160
1496
Kockaként ezt úgy értelmezhetjük,
01:13
might think of as installing new software into our brains,
21
73680
3216
mintha agyunkba új szoftvereket telepítenének:
01:16
like languages and job skills.
22
76920
2120
nyelveket és szaktudást.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
"Lét 3.0", amely saját szoftverén túl hardverét is meg tudja tervezni
01:24
of course doesn't exist yet.
24
84000
1656
természetesen nem létezik még.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Eszközeinkkel talán a "Lét 2.1" vagyunk,
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
térdprotézisekkel, szívritmus- szabályzókkal, cochleáris implantátummal.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Nézzük meg alaposabban kapcsolatunkat a technológiával!
01:38
As an example,
28
98800
1216
Például
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
az Apolló-11 holdra szállása sikeres és biztató volt.
01:45
showing that when we humans use technology wisely,
30
105360
3016
Megmutatta, hogy a technológiát bölcsen használva
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
olyan dolgokat vihetünk véghez, amelyről őseink csak álmodozhattak.
01:52
But there's an even more inspiring journey
32
112360
2976
De van egy még lelkesítőbb utazás,
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
a rakétánál erősebb meghajtással,
01:59
where the passengers aren't just three astronauts
34
119200
2336
ahol nem csak három űrhajós utazik,
02:01
but all of humanity.
35
121560
1776
hanem az egész emberiség.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Beszéljünk közös utazásunkról a jövőbe
02:06
with artificial intelligence.
37
126320
2000
a mesterséges intelligenciával, az MI-vel!
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Barátom, Jaan Tallinn szeret rámutatni, hogy éppúgy, mint a rakétatechnikánál,
02:13
it's not enough to make our technology powerful.
39
133520
3160
nem elég az erős technológia.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Ha eltökéltek vagyunk, azt is ki kell dolgozzuk,
02:20
how to steer it
41
140759
1416
hogyan irányítsuk,
02:22
and where we want to go with it.
42
142199
1681
és mire használjuk.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Beszéljünk az MI-vel kapcsolatosan e három tényezőről:
02:28
the power, the steering and the destination.
44
148440
3056
az erőről, az irányításról és a célról.
02:31
Let's start with the power.
45
151520
1286
Kezdjük az erővel.
02:33
I define intelligence very inclusively --
46
153600
3096
Intelligencián egyszerűen
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
komplex céljaink megvalósítási képességét értem,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
belevéve a biológiai és a mesterséges intelligenciát is.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Hagyjuk a buta szénsoviniszta elméletet,
02:48
that you can only be smart if you're made of meat.
50
168960
2360
hogy csak az lehet okos, ami élő.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Igazán meglepő, ahogy az MI ereje növekedett mostanában!
02:57
Just think about it.
52
177080
1256
Gondoljuk csak meg.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Nemrég a robotok járni sem tudtak,
03:03
Now, they can do backflips.
54
183040
1720
most hátraszaltót csinálnak.
03:06
Not long ago,
55
186080
1816
Nemrég
03:07
we didn't have self-driving cars.
56
187920
1760
még nem volt önvezető autónk,
03:10
Now, we have self-flying rockets.
57
190920
2480
ma automata rakétáink vannak.
03:15
Not long ago,
58
195960
1416
Nemrég
03:17
AI couldn't do face recognition.
59
197400
2616
az MI nem volt képes arcfelismerésre,
03:20
Now, AI can generate fake faces
60
200040
2976
ma képes hamis arcokat előállítani,
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
arcunkat szimulálva olyasmiket mondani, amit sohasem mondanánk.
03:28
Not long ago,
62
208400
1576
Nemrég
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
az MI nem győzött le minket góban,
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
aztán a Google DeepMind AlphaZero MI megtanulta 3000 év emberi gojátszmáit
03:37
and Go wisdom,
65
217520
1256
és go-bölcsességét,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
majd figyelmen kívül hagyva őket, csak önmagával játszva vált világelsővé.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
De a leglenyűgözőbb nem az emberi játékosok legyőzése volt,
03:47
but that it crushed human AI researchers
68
227520
2576
hanem az MI-kutatóké,
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
akik évtizedeket töltöttek a játék szoftverének fejlesztésével.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
Az AlphaZero nem csak góban győzte le az MI-kutatókat, hanem sakkban is,
03:58
which we have been working on since 1950.
71
238880
2480
amin már 1950 óta dolgozunk.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Az MI e szédítő fejlődése felveti a kérdést:
04:07
How far will it go?
73
247280
1560
mit várhatunk még?
04:09
I like to think about this question
74
249800
1696
Szeretek erről gondolkodni
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
a feladatok ezen elméleti tájképe alapján.
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
A magasság jelzi, milyen nehéz az MI-nek
a feladat teljesítése emberi szinten.
04:18
at human level,
77
258000
1216
04:19
and the sea level represents what AI can do today.
78
259240
2760
A tengerszint az, ahol ma az MI tart.
04:23
The sea level is rising as AI improves,
79
263120
2056
A tengerszint nő az MI fejlődésével,
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
globális felmelegedés zajlik a feladattérképen,
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
a nyilvánvaló következtetés, hogy kerüljék a vízparti foglakozásokat,
04:33
(Laughter)
82
273399
1257
(Nevetés)
04:34
which will soon be automated and disrupted.
83
274680
2856
melyeket hamarosan elér az automatizálás.
04:37
But there's a much bigger question as well.
84
277560
2976
Van egy sokkal nagyobb kérdés is:
04:40
How high will the water end up rising?
85
280560
1810
Meddig emelkedik a víz?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Elönt végül mindent,
04:47
matching human intelligence at all tasks.
87
287840
2496
emberi szinten végezve minden feladatot?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Ez a definíciója az általános mesterséges intelligenciának,
04:54
AGI,
89
294120
1296
az ÁMI-nak,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
amely az MI-kutatók Szent Grálja a kezdetek óta.
04:59
By this definition, people who say,
91
299000
1776
Eszerint akik így beszélnek:
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Mindig lesznek foglalkozások, amelyekben az emberek jobbak a gépeknél!",
05:04
are simply saying that we'll never get AGI.
93
304240
2920
azt mondják, az ÁMI sosem jön létre.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Lesz majd pár emberi foglalkozás,
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
vagy adhatunk jövedelmet és célt az embereknek foglalkozásaikkal,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
de az ÁMI mindenképp átalakítja az általunk ismert életet,
05:18
with humans no longer being the most intelligent.
97
318160
2736
mikor nem mi leszünk a legintelligensebbek.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Ha a vízszint eléri az ÁMI-t,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
a további MI fejlődést főleg maga az MI fogja irányítani,
05:29
which means that there's a possibility
100
329960
1856
ami azt jelenti, hogy lehetséges
05:31
that further AI progress could be way faster
101
331840
2336
a további MI jelentősen gyorsabb fejlődése
05:34
than the typical human research and development timescale of years,
102
334200
3376
mint az emberi kutatás és a fejlődés években mérhető időtartama,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
felvetve az intelligencia kirobbanó fejlődésének vitatott lehetőségét,
05:41
where recursively self-improving AI
104
341640
2296
amikor az önmagát ismétlődően fejlesztő MI
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
gyorsan messze maga mögött hagyja az emberi intelligenciát,
05:47
creating what's known as superintelligence.
106
347400
2440
és létrehozza a szuperintelligenciát.
05:51
Alright, reality check:
107
351800
2280
Mi a valóság?
05:55
Are we going to get AGI any time soon?
108
355120
2440
Elérjük az ÁMI-t hamarosan?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Néhány híres MI-kutató, pl. Rodney Brooks szerint,
06:01
think it won't happen for hundreds of years.
110
361080
2496
ez nem következik be még pár száz évig.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
De mások – mint a Google DeepMind alapítója Demis Hassabis –
06:07
are more optimistic
112
367520
1256
optimistábbak.
06:08
and are working to try to make it happen much sooner.
113
368800
2576
A gyors megvalósuláson dolgoznak.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Felmérések szerint a legtöbb MI kutató
06:14
actually share Demis's optimism,
115
374720
2856
osztja Demis optimizmusát,
06:17
expecting that we will get AGI within decades,
116
377600
3080
szerintük évtizedeken belül eljön az ÁMI.
06:21
so within the lifetime of many of us,
117
381640
2256
Sokan megéljük ezt,
06:23
which begs the question -- and then what?
118
383920
1960
ami felveti a kérdést, mi lesz utána?
06:27
What do we want the role of humans to be
119
387040
2216
Mi legyen az emberek szerepe,
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
ha a gépek mindent jobban és olcsóbban végeznek el?
06:35
The way I see it, we face a choice.
121
395000
2000
Úgy látom, választás előtt állunk.
06:38
One option is to be complacent.
122
398000
1576
Az egyik az önteltség.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Azt mondjuk: "Építsünk csak gépeket, amik mindent meg tudnak tenni, amit mi,
06:43
and not worry about the consequences.
124
403400
1816
ne aggódjunk a következmények miatt!
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Ha a gépek elavulttá teszik az embereket,
06:48
what could possibly go wrong?"
126
408520
2096
mi baj lehet belőle?"
06:50
(Laughter)
127
410640
1656
(Nevetés)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Szerintem ez kínosan ostoba dolog volna.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Nagyra kéne törnünk a TED szellemében.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Képzeljünk el igazán biztató csúcstechnológiás jövőt,
07:03
and try to steer towards it.
131
423120
1400
és próbáljunk arra tartani.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Ez rakétahasonlatunk második részéhez vezet: az irányításhoz.
07:09
We're making AI more powerful,
133
429280
1896
Erősebbé tesszük az MI-t,
07:11
but how can we steer towards a future
134
431200
3816
de hogyan irányítsuk olyan jövő felé,
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
ahol az MI nem vergődéshez, hanem fejlődéshez segít bennünket?
07:18
To help with this,
136
438760
1256
Ennek előmozdítására
megalapítottuk az Élet Jövője Intézetet.
07:20
I cofounded the Future of Life Institute.
137
440040
1976
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
Nonprofit, jótékony technológiai alkalmazásokat támogat.
07:24
and our goal is simply for the future of life to exist
139
444840
2736
Célunk csak az élet jövőjének biztosítása,
07:27
and to be as inspiring as possible.
140
447600
2056
és ösztönző, amennyire lehet.
07:29
You know, I love technology.
141
449680
3176
Szeretem a technológiát.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
A technológia miatt jobb ma, mint a kőkorszakban volt.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Optimista vagyok, hogy létrehozhatunk motiváló csúcstechnológiájú jövőt,
07:41
if -- and this is a big if --
144
461680
1456
ha – és ez egy nagy "ha" –
07:43
if we win the wisdom race --
145
463160
2456
megnyerjük a bölcsességversenyt:
07:45
the race between the growing power of our technology
146
465640
2856
technológiánk növekvő erejének
07:48
and the growing wisdom with which we manage it.
147
468520
2200
és az őt irányító bölcsességünk fejlődésének versenyét.
07:51
But this is going to require a change of strategy
148
471240
2296
Ez azonban stratégiaváltoztatást igényel,
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
mert régi stratégiánk a hibákból tanulás.
07:57
We invented fire,
150
477280
1536
Felfedeztük a tüzet –
07:58
screwed up a bunch of times --
151
478840
1536
csomószor elszúrtuk –,
08:00
invented the fire extinguisher.
152
480400
1816
hát feltaláltuk a tűzoltókészüléket.
08:02
(Laughter)
153
482240
1336
(Nevetés)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Feltaláltuk az autót – csomószor elszúrtuk –,
feltaláltuk a közlekedési lámpákat, a biztonsági övet, a légzsákot.
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
De olyan hatalmas technológiákkal, mint a nukleáris fegyverek és az ÁMI,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
vacak stratégia a hibákból tanulni,
08:16
don't you think?
158
496000
1216
nem gondolják?
08:17
(Laughter)
159
497240
1016
(Nevetés)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
Jobb előrelátónak lenni, mint utólag javítgatni;
08:20
plan ahead and get things right the first time
161
500880
2296
tervezni, elsőre jól alkotni meg mindent,
08:23
because that might be the only time we'll get.
162
503200
2496
mert talán ez az egyetlen lehetőségünk.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Érdekes, hogy néha azt mondják nekem:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, ne beszélj így,
08:30
That's Luddite scaremongering."
165
510840
1720
ez gépromboló pánikkeltés!"
De ez nem pánikkeltés.
08:34
But it's not scaremongering.
166
514040
1536
08:35
It's what we at MIT call safety engineering.
167
515600
2880
A Massachusettsi Technológiai Intézetnél ezt biztonsági tervezésnek hívjuk.
08:39
Think about it:
168
519200
1216
Gondolják meg:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
mielőtt a NASA fellőtte az Apolló-11-et,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
módszeresen átgondoltak minden hibalehetőséget,
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
amikor embereket helyeznek egy robbanóanyag-tartály fölé,
08:48
and launch them somewhere where no one could help them.
172
528240
2616
és kilövik őket oda, ahol senki nem segíthet nekik.
08:50
And there was a lot that could go wrong.
173
530880
1936
És sok hibalehetőség volt.
08:52
Was that scaremongering?
174
532840
1480
Ez pánikkeltés volt?
08:55
No.
175
535159
1217
Nem.
08:56
That's was precisely the safety engineering
176
536400
2016
Ez pontosan a biztonsági tervezés volt,
08:58
that ensured the success of the mission,
177
538440
1936
ami biztosította a küldetés sikerét,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
és pontosan az a stratégia, amit követnünk kéne az ÁMI-val.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Átgondolni az esetleges veszélyeket, és biztosítani, hogy jól működjön.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
Erre gondolva konferenciákat szerveztünk,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
összehozva a vezető MI-kutatókat és más gondolkodókat,
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
megvitatni, hogy fejlesszük bölcsen jótékony irányba az MI-t.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
Utolsó konferenciánk tavaly volt a kaliforniai Asilomarban,
09:21
and produced this list of 23 principles
184
561160
3056
összeállítottuk e 23 alapelvből álló listát,
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
amelyet azóta aláírt több mint 1000 MI-kutató
és kulcsfontosságú iparágak vezetői.
09:27
and key industry leaders,
186
567160
1296
09:28
and I want to tell you about three of these principles.
187
568480
3176
Három alapelvet említenék önöknek.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Egy: ne legyen fegyverkezési verseny és halálos önrendelkezésű fegyverek.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
Az alapgondolat, hogy bármely új tudomány alkalmazható
az emberek segítésére vagy károsítására egyaránt.
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Például a biológiát és kémiát sokkal inkább használják
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
új gyógyszerek, kezelések fejlesztésére, mint emberek megölésére,
09:51
because biologists and chemists pushed hard --
193
591520
2176
mert a biológusok és kémikusok
09:53
and successfully --
194
593720
1256
sikeresen léptek fel
09:55
for bans on biological and chemical weapons.
195
595000
2176
a biológiai és vegyi fegyverek betiltásáért.
09:57
And in the same spirit,
196
597200
1256
Ugyanebben a szellemben
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
most az MI-kutatók akarják betiltani a halálos önrendelkező fegyvereket.
10:03
Another Asilomar AI principle
198
603600
1816
Egy másik Asilomar MI-alapelv,
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
hogy enyhítenünk kéne az MI-alapú jövedelmi egyenlőtlenséget.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Azt gondolom, ha drasztikusan megnöveljük a gazdasági tortát az MI-vel,
10:13
and we still can't figure out how to divide this pie
201
613640
2456
de nem oldjuk meg az elosztását úgy,
10:16
so that everyone is better off,
202
616120
1576
hogy mindenkinek jobb legyen,
10:17
then shame on us.
203
617720
1256
az szégyen ránk nézve.
10:19
(Applause)
204
619000
4096
(Taps)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Emeljék fel a kezüket, ha számítógépük valaha is összeomlott!
10:27
(Laughter)
206
627480
1256
(Nevetés)
10:28
Wow, that's a lot of hands.
207
628760
1656
Ez rengeteg kéz!
10:30
Well, then you'll appreciate this principle
208
630440
2176
Akkor értékelniük kell ezt az alapelvet,
10:32
that we should invest much more in AI safety research,
209
632640
3136
hogy többet kéne befektetni az MI biztonságkutatásba,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
mert egyre több döntés és infrastruktúra irányítását bízzuk rá, így tudnunk kell,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
hogy a mai hibás és feltörhető számítógépeinket hogyan alakítsuk át
10:43
into robust AI systems that we can really trust,
212
643120
2416
igazán megbízható MI-rendszerekbe,
10:45
because otherwise,
213
645560
1216
mivel különben
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
e remek technológiák meghibásodhatnak és árthatnak nekünk,
10:49
or get hacked and be turned against us.
215
649640
1976
vagy feltörve őket ellenünk fordíthatók.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Az MI-biztonsági munka magába kell foglalja az MI-értékelés kidolgozását,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
mert a valódi ÁMI-veszély nem a rosszindulat,
11:00
like in silly Hollywood movies,
218
660200
1656
mint a buta hollywoodi filmekben,
11:01
but competence --
219
661880
1736
hanem a hozzáértés,
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
amivel az ÁMI a mieinktől eltérő célokat valósít meg.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Pl. amikor mi, emberek a nyugat-afrikai fekete rinocéroszok kihalását okoztuk,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
nem azért tettük, mert ördögien gyűlöljük a rinocéroszokat, ugye?
11:15
We did it because we were smarter than them
223
675760
2056
Hanem azért, mert okosabbak voltunk náluk,
11:17
and our goals weren't aligned with theirs.
224
677840
2576
és céljaink nem egyeztek az övékkel.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Az ÁMI definíció szerint okosabb nálunk,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
ezért, hogy ne kerüljünk a rinocéroszok helyzetébe,
11:26
if we create AGI,
227
686720
1976
amikor létrehozzuk az ÁMI-t,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
meg kell értetnünk vele céljainkat,
11:32
adopt our goals and retain our goals.
229
692920
3160
el kell fogadtatni, és megőrizni őket.
11:37
And whose goals should these be, anyway?
230
697320
2856
Igen, de kinek a céljai legyenek ezek?
11:40
Which goals should they be?
231
700200
1896
Milyen célok legyenek?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Ez a rakétahasonlatunk harmadik részéhez vezet bennünket: a cél meghatározásához.
11:47
We're making AI more powerful,
233
707160
1856
Egyre erősebbé tesszük az MI-t,
igyekszünk kitalálni, hogyan irányítsuk,
11:49
trying to figure out how to steer it,
234
709040
1816
11:50
but where do we want to go with it?
235
710880
1680
de mit akarunk megvalósítani vele?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Ez egy tabutéma, amiről szinte senki sem beszél -
11:57
not even here at TED --
237
717440
1856
még itt a TED-nél sem,
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
mivel annyira el vagyunk foglalva rövidtávú MI-kihívásokkal.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Fajunk próbálja létrehozni az ÁMI-t
12:08
motivated by curiosity and economics,
240
728760
3496
gazdasági érdekeink és kíváncsiságunk által vezérelve,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
de miféle jövőbeli társadalmat remélünk felépíteni általa?
12:16
We did an opinion poll on this recently,
242
736680
1936
Közvélemény-kutatást végeztünk mostanában,
12:18
and I was struck to see
243
738640
1216
és megdöbbentem,
12:19
that most people actually want us to build superintelligence:
244
739880
2896
hogy a legtöbben egyetértünk egy szuperintelligencia építésében,
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
amely minden tekintetben messze okosabb nálunk.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
A legnagyobb egyetértés abban volt,
12:30
and help life spread into the cosmos,
247
750560
2016
hogy az életet terjesszük a világegyetemben,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
de sokkal kevésbé értettek egyet abban, kinek vagy minek kellene irányítania.
12:37
And I was actually quite amused
249
757120
1736
Elég jól szórakoztam,
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
mikor láttam, vannak, akik azt akarják, hogy ezek csupán gépek legyenek.
12:42
(Laughter)
251
762360
1696
(Nevetés)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
Az emberek jövőbeli szerepét illetően óriási volt a nézeteltérés
12:47
even at the most basic level,
253
767960
1976
még alapszinten is.
12:49
so let's take a closer look at possible futures
254
769960
2816
Nézzük meg alaposabban a lehetséges jövőképeket,
12:52
that we might choose to steer toward, alright?
255
772800
2736
amely felé tarthatunk!
12:55
So don't get me wrong here.
256
775560
1336
Ne értsenek félre,
12:56
I'm not talking about space travel,
257
776920
2056
nem az űrutazásról beszélek,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
csupán az emberiség képzeletbeli jövőutazásáról.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Néhány munkatársam kedvelte lehetőség,
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
hogy emberi felügyelet alatt tartott szuperintelligenciát építünk,
13:10
like an enslaved god,
261
790080
1736
egy rabszolga–istent,
13:11
disconnected from the internet
262
791840
1576
leválasztva az internetről,
13:13
and used to create unimaginable technology and wealth
263
793440
3256
hihetetlen technológia és vagyon megteremtésére használva,
13:16
for whoever controls it.
264
796720
1240
bárki is irányítja azt.
13:18
But Lord Acton warned us
265
798800
1456
De Lord Acton óva intett bennünket:
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
a hatalom megveszteget, az abszolút hatalom abszolút mértékben is képes rá,
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
ezért aggódhatunk, hogy az emberiség talán nem elég okos,
13:28
or wise enough rather,
268
808000
1536
vagy inkább bölcs,
13:29
to handle this much power.
269
809560
1240
hogy uralja ezt az óriási erőt.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Erkölcsi aggályaink mellett
13:34
about enslaving superior minds,
271
814200
2296
a magasabb rendű elmék szolgasorban tartását illetőleg
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
aggódhatunk, hogy ez a szuperintelligencia talán túljár az eszünkön,
13:40
break out and take over.
273
820520
2240
kitör, és átveszi az uralmat.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Olyan kollégáim is vannak, akik szerint ez a hatalomátvétel rendben van,
13:47
and even causing human extinction,
275
827000
2296
még ha az emberiség kihalását is okozza,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
ha az MI-k méltó leszármazottaink,
13:52
like our children.
277
832920
1736
gyermekeink.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
De honnan tudhatnánk, hogy az MI-k magukévá tették értékrendünket,
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
nem öntudatlan zombik, melyeket emberi tulajdonságokkal ruházunk fel?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
És nem kéne, hogy azoknak, akik nem akarják az emberiség kihalását,
14:07
have a say in the matter, too?
281
847600
1440
legyen szavuk az ügyben?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Ha egyik fejlett technológiai lehetőség sem nyerte el tetszésüket,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
ne feledjék, hogy a fejletlen technológia -
kozmikus nézetből - öngyilkosság.
14:16
from a cosmic perspective,
284
856800
1256
14:18
because if we don't go far beyond today's technology,
285
858080
2496
Mivel ha nem haladjuk túl a mai technológiát,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
a kérdés nem az lesz, hogy kihal-e az emberiség,
14:23
merely whether we're going to get taken out
287
863440
2016
hanem az, hogy kihalásunkat egy gyilkos aszteroida,
14:25
by the next killer asteroid, supervolcano
288
865480
2136
egy szupervulkán,
14:27
or some other problem that better technology could have solved.
289
867640
3096
vagy más katasztrófa okozza majd, melyet a jobb technológia megoldhatott volna.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Mi lenne, ha olyan ÁMI segítségével jutnánk a tortánkhoz,
14:34
with AGI that's not enslaved
291
874360
1840
amely nincs szolgaságban,
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
de jól viszonyul hozzánk, mert értékrendje egyezik a miénkkel?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Ez a lényege annak, amit Eliezer Yudkowsky "barátságos MI"-nek nevezett el.
14:44
and if we can do this, it could be awesome.
294
884520
2680
Ez nagyszerű volna, ha megvalósítanánk!
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Nem csupán megszüntetné a betegségeket, szegénységet,
14:52
crime and other suffering,
296
892680
1456
bűnözést és más szenvedést hozó dolgokat,
14:54
but it could also give us the freedom to choose
297
894160
2816
de szabadon választhatnánk
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
a pozitív élmények fantasztikusan szélesedő skálájáról.
15:01
basically making us the masters of our own destiny.
299
901080
3160
Saját sorsunk irányítóivá tenne minket.
15:06
So in summary,
300
906280
1376
Összegezve,
15:07
our situation with technology is complicated,
301
907680
3096
kapcsolatunk a technológiával bonyolult,
15:10
but the big picture is rather simple.
302
910800
2416
de a nagy kép egyszerű.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Az ÁMI-t pár évtizeden belül várja a legtöbb MI-kutató.
15:16
and if we just bumble into this unprepared,
304
916720
3136
Ha felkészületlenül ér bennünket,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
az valószínűleg az emberi történelem legnagyobb hibája lesz.
15:23
let's face it.
306
923240
1416
Nézzünk szembe vele!
15:24
It could enable brutal, global dictatorship
307
924680
2576
Brutális, globális diktatúrát hozhat létre
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
soha nem látott egyenlőtlenséggel, felügyelettel és szenvedéssel,
15:30
and maybe even human extinction.
309
930840
1976
és akár az emberiség kihalásával.
15:32
But if we steer carefully,
310
932840
2320
De gondos irányítás mellett
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
fantasztikus jövőben találhatjuk magunk, ahol mindenki élete jobb:
15:39
the poor are richer, the rich are richer,
312
939960
2376
a szegény gazdag, a gazdag még gazdagabb.
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
Mindenki egészséges, és szabadon valósíthatja meg álmait.
15:47
Now, hang on.
314
947000
1536
De várjunk csak!
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Jobb- vagy baloldali politikát akarunk?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Istenfélő társadalmat szigorú erkölcsi szabályokkal,
vagy hedonisztikusat, korlátozások nélkül,
15:56
or do you an hedonistic free-for-all,
317
956040
1816
15:57
more like Burning Man 24/7?
318
957880
2216
akár a folyamatos Burning Man fesztivál.
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Gyönyörű partok, erdők, tavak legyenek,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
vagy inkább rendezzünk át néhány ilyen részt számítógépekkel,
16:06
enabling virtual experiences?
321
966000
1715
virtuális élmények létrehozására?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Egy barátságos MI-vel mindegyik társadalmat létrehozhatjuk,
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
szabadon választva, hol akarunk élni,
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
mivel már nem korlátoznának bennünket intelligenciánk határai,
16:17
merely by the laws of physics.
325
977280
1456
csupán a fizikai törvények.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Így a források és a hely erre szó szerint
csillagászati mértékű lenne.
16:23
literally.
327
983400
1320
16:25
So here's our choice.
328
985320
1200
Választhatunk.
16:27
We can either be complacent about our future,
329
987880
2320
Lehetünk önteltek a jövőt illetően,
16:31
taking as an article of blind faith
330
991440
2656
vak hittel,
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
hogy bármely új technológia garantáltan jót hoz számunkra,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
és ismételgethetjük ezt mantraként,
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
kormányát vesztett hajóként sodródva saját elértéktelenedésünk felé,
16:46
Or we can be ambitious --
334
1006920
1880
vagy lehetünk igényesek,
16:49
thinking hard about how to steer our technology
335
1009840
2456
komolyan átgondolva, hogyan irányítsuk technológiánkat
16:52
and where we want to go with it
336
1012320
1936
és hova akarunk eljutni vele,
16:54
to create the age of amazement.
337
1014280
1760
létrehozva a csodák korát.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Mind azért vagyunk itt, hogy ünnepeljük a csodák korát,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
és úgy érzem, ennek lényege az, hogy ne legyőzötté váljunk,
17:05
but empowered by our technology.
340
1025240
2616
hanem megerősödjünk technológiánk által.
17:07
Thank you.
341
1027880
1376
Köszönöm.
17:09
(Applause)
342
1029280
3080
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7