What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Reka Lorinczy Lektor: Peter Pallos
00:04
I want to tell you what I see coming.
0
4292
2586
El akarom mondani, mi következik.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Szerencsés vagyok: már majdnem 15 éve az MI-n dolgozom.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
A kezdeteket jelentéktelennek nevezni lebecsülő lenne.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
Kutatók azt mondanák: „Nem, nem, csak a gépi tanuláson dolgozunk.”
00:21
Because working on AI was seen as way too out there.
4
21893
3087
Mert az MI-n végzett munkát túlzó ötletnek tekintették.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
2010-ben az AGI kifejezés,
00:29
artificial general intelligence,
6
29401
2169
a mesterséges általános intelligencia említése
00:31
would get you some seriously strange looks
7
31570
2877
fura tekintetet
00:34
and even a cold shoulder.
8
34489
1585
és rideg fogadtatást váltott ki.
00:36
"You're actually building AGI?" people would say.
9
36366
3837
„Tényleg AGI-t építesz?” – kérdezgették.
00:40
"Isn't that something out of science fiction?"
10
40203
2294
„Ez nem valami tudományos fantasztikum?”
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Azt hitték, hogy 50-100 évre vagyunk tőle,
00:45
if it was even possible at all.
12
45500
1919
ha egyáltalán megvalósul.
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
A mesterséges intelligenciáról beszélni kínos volt.
00:51
People generally thought we were weird.
14
51631
2211
Furcsának tartottak minket.
00:54
And I guess in some ways we kind of were.
15
54217
2503
Bizonyos szempontból azok is voltunk.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Nem telt el sok idő, mire az MI elkezdte legyőzni az embereket
00:59
at a whole range of tasks
17
59681
1793
számos olyan feladatban,
01:01
that people previously thought were way out of reach.
18
61516
2795
amelyeket addig kizártnak hittek.
01:05
Understanding images,
19
65020
2127
Képek elemzésében,
01:07
translating languages,
20
67147
1918
nyelvek fordításában,
01:09
transcribing speech,
21
69065
1585
beszédátírásban,
01:10
playing Go and chess
22
70692
2127
go- és sakkjátékban,
01:12
and even diagnosing diseases.
23
72861
1918
sőt, betegségek diagnosztizálásában is.
01:15
People started waking up to the fact
24
75905
1752
Az emberek kezdtek ráébredni,
01:17
that AI was going to have an enormous impact,
25
77657
3462
hogy az MI hatása óriási,
01:21
and they were rightly asking technologists like me
26
81119
2836
és tényleg nehéz kérdéseket tettek fel
01:23
some pretty tough questions.
27
83955
1752
a magamfajta technológusoknak.
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
Igaz, hogy az MI megoldja az éghajlati válságot?
01:29
Will it make personalized education available to everyone?
29
89127
3337
Mindenkinek elérhetővé teszi a személyre szabott oktatást?
01:32
Does it mean we'll all get universal basic income
30
92881
2294
Eszerint mindannyian egyetemes alapjövedelmet kapunk,
01:35
and we won't have to work anymore?
31
95216
2002
és nem kell többé dolgoznunk?
01:37
Should I be afraid?
32
97218
1544
Félnem kéne?
01:38
What does it mean for weapons and war?
33
98762
2335
Mit jelent ez a fegyvereket és a háborút illetően?
01:41
And of course, will China win?
34
101598
1460
És természetesen, Kína nyer?
01:43
Are we in a race?
35
103058
1543
Versenyben vagyunk?
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
Tömeges téves információs apokalipszis felé tartunk?
01:49
All good questions.
37
109147
1668
Mindegyik kérdés jó.
01:51
But it was actually a simpler
38
111608
1418
De valójában egy sima
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
és sokkal alapvetőbb kérdés ejtett zavarba.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
Olyan, amelyik mindennap a munkám középpontjába kerül.
02:03
One morning over breakfast,
41
123620
2044
Reggeli közben hatéves unokaöcsém,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
Caspian játszott Pi-vel, a mesterséges intelligenciával,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
amelyet az utolsó cégemnél, az Inflectionnál hoztam létre.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Tojásrántottával teli szájjal
02:14
he looked at me plain in the face and said,
45
134381
3503
egyenesen az arcomba nézett, és azt mondta:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
„De Mustafa, egyébként mi az MI?”
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
Olyan őszinte, kíváncsi és optimista kissrác!
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Beszélt Pi-vel arról, milyen jó lenne
a jövőben egy nap meglátogatni a dinoszauruszokat az állatkertben,
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
és hogyan tudna végtelen mennyiségű csokoládét készíteni otthon.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
De miért nem tud a Pi még „Én, a kém” játékot játszani?
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
„Hát – mondtam –, ez okos szoftver,
amely a szöveg nagy részét a nyílt interneten elolvassa,
02:42
that's read most of the text on the open internet,
53
162075
2461
02:44
and it can talk to you about anything you want."
54
164577
2419
és bármiről beszélhet veled, amiről szeretnél.”
02:48
"Right.
55
168540
1168
„Rendben.
02:49
So like a person then?"
56
169749
2127
Tehát olyan, mint az ember?”
02:54
I was stumped.
57
174254
1334
Megdöbbentem.
02:56
Genuinely left scratching my head.
58
176798
2502
Zavartan megvakartam a fejem.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Minden unalmas szabványválaszom átfutott az agyamon.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
„Nem, hanem az MI csak újabb általános célú technológia,
03:07
like printing or steam."
61
187308
1710
mint a nyomtatás vagy a gőz.
03:09
It will be a tool that will augment us
62
189394
2502
Olyan eszköz lesz, amely kiegészít minket,
03:11
and make us smarter and more productive.
63
191938
2377
okosabbá és termelékenyebbé tesz minket.
03:14
And when it gets better over time,
64
194649
1960
Idővel fejlődik,
03:16
it'll be like an all-knowing oracle
65
196651
1919
mindentudó orákulumhoz hasonlít,
03:18
that will help us solve grand scientific challenges."
66
198611
3087
amely segít megoldani a nagy tudományos feladatokat.”
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Úgy éreztem, hogy ezek a válaszaim
03:25
a little bit defensive.
68
205869
1418
kissé védekezőnek tűntek.
03:28
And actually better suited to a policy seminar
69
208246
2211
Jobban illettek politikai szemináriumra,
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
mint hatéves gyermekkel folytatott komoly beszélgetésre.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
„Miért habozok?” – gondoltam magamban.
03:37
You know, let's be honest.
72
217839
1960
Legyünk őszinték.
03:39
My nephew was asking me a simple question
73
219799
3253
Unokaöcsém egyszerű kérdést tett fel nekem,
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
amellyel az MI-ben dolgozók nem elég gyakran szembesülünk.
03:48
What is it that we are actually creating?
75
228099
2920
Mit alkotunk valójában?
03:51
What does it mean to make something totally new,
76
231895
3753
Mit jelent valami teljesen újat készíteni,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
ami alapvetően különbözik a korábban ismert találmányoktól?
04:00
It is clear that we are at an inflection point
78
240695
2795
Nyilvánvaló, hogy az emberiség történetének fordulópontján vagyunk.
04:03
in the history of humanity.
79
243490
1793
04:06
On our current trajectory,
80
246493
1918
Jelenlegi pályánkon
04:08
we're headed towards the emergence of something
81
248411
2211
valami megjelenése felé haladunk,
04:10
that we are all struggling to describe,
82
250663
3170
amit nehezen tudunk leírni,
04:13
and yet we cannot control what we don't understand.
83
253875
4630
és még nem tudjuk irányítani azt, amit nem értünk.
04:19
And so the metaphors,
84
259631
1585
Tehát a metaforák,
04:21
the mental models,
85
261216
1251
a mentális modellek,
04:22
the names, these all matter
86
262509
2585
a nevek, ezek mind számítanak,
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
ha a legtöbbet akarjuk kihozni az MI-ből, miközben szűkítjük lehetséges hátrányait.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Mivel értékeljük e technológia lehetőségeit,
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
de mindig kiemelt figyelmet szenteltünk az etikájának is,
04:37
we should, I think,
90
277524
1293
meg kell tudnunk egyszerűen fogalmazni,
04:38
be able to easily describe what it is we are building.
91
278817
3044
hogy mit fejlesztünk.
04:41
And that includes the six-year-olds.
92
281861
2002
Még a hatéves gyerekeknek is.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
E szellemben ajánlom fel ma a következő metaforát,
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
amely segít megragadni ezt a pillanatot.
04:52
I think AI should best be understood
95
292539
2627
Az MI-t legjobb digitális új fajként értelmezni.
04:55
as something like a new digital species.
96
295166
4254
05:00
Now, don't take this too literally,
97
300296
2253
Ne vegyék egészen szó szerint,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
de azt jósolom, hogy digitális társunk,
05:07
new partners in the journeys of all our lives.
99
307220
3295
életre szóló új partnerünk lesz.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Akár úgy is vehetik, hogy 10, 20 vagy 30 éves út áll előttünk,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
ez a legpontosabb és legalapvetőbb őszinte leírása annak,
05:19
of describing what's actually coming.
102
319732
2378
hogy mi várható.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
Mindenekelőtt módot ad rá,
05:26
and shape what comes next.
104
326614
2711
hogy felkészüljünk és alakítsuk a jövőnket.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Tökéletesen értem, hogy ez erős állítás,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
de a lehető legjobban elmagyarázom, miért mondom.
05:36
But first, let me just try to set the context.
107
336291
2961
De először hadd próbáljam meg meghatározni a kontextusomat.
05:39
From the very first microscopic organisms,
108
339252
2753
Az első mikroszkopikus organizmusoktól kezdve
05:42
life on Earth stretches back billions of years.
109
342046
3462
a földi élet évmilliárdokra nyúlik vissza.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Ez idő alatt az élet fejlődött és változatossá vált.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Majd pár millió éve valami megváltozott.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Számtalan növekedési és alkalmazkodási ciklus után az élet egyik ága
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
eszközöket kezdett használni, és ez az ág emberré fejlődött.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Továbbá elbűvölő eszközöket gyártottunk,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
először lassan, majd elképesztő sebességgel áttértünk
06:12
we went from stone axes and fire
116
372577
3670
a kőbaltáról és a tűzről
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
a nyelvre, az írásra, és végül az ipari technológiákra.
06:21
One invention unleashed a thousand more.
118
381878
2919
Egy találmány ezernyi újabbat ihletett.
06:25
And in time, we became homo technologicus.
119
385173
3712
Idővel homo technologicus lettünk.
06:29
Around 80 years ago,
120
389594
1209
Körülbelül 80 éve jelent meg
06:30
another new branch of technology began.
121
390803
2545
a technológia újabb ága.
06:33
With the invention of computers,
122
393973
1710
A számítógépek feltalálásával gyorsan ugrottunk
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
az első nagygépektől és tranzisztoroktól
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
a mai okostelefonokig és virtuálisvalóság-fejhallgatókig.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Információ, tudás, kommunikáció, gépi vezérlés.
06:47
In this revolution,
126
407570
1418
Ebben a forradalomban
06:49
creation has exploded like never before.
127
409030
3295
az alkotás úgy robbant be, mint még soha.
06:53
And now a new wave is upon us.
128
413242
2503
Most új hullám áll előttünk.
06:55
Artificial intelligence.
129
415787
1668
A mesterséges intelligencia, azaz MI.
06:57
These waves of history are clearly speeding up,
130
417872
2544
A történelem e hullámai egyértelműen felgyorsulnak,
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
mivel mindegyiket felerősíti és felgyorsítja az előző.
07:05
And if you look back,
132
425088
1167
Ha visszanéznek,
07:06
it's clear that we are in the fastest
133
426297
2002
egyértelmű, hogy a valaha volt leggyorsabb
07:08
and most consequential wave ever.
134
428299
2586
és legmeghatározóbb hullámban vagyunk.
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Az emberiség és a technológia most mélyen összefonódnak.
07:16
In just 18 months,
136
436516
1543
Mindössze 18 hónap alatt
07:18
over a billion people have used large language models.
137
438059
3170
több mint egymilliárd ember használt nagy nyelvi modelleket.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Egymást követték a mérföldkövet jelentő események.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Néhány éve még azt mondták, hogy az MI soha nem lesz kreatív.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Az MI-t ma már a kreativitás végtelen folyamaként észleljük:
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
verset ír és képet, zenét és videókat készít, amelyek meghaladják a képzeletet.
07:39
People said it would never be empathetic.
142
459664
2252
Azt mondták, hogy soha nem lesz empatikus.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Ma millióik élvezik az értelmes beszélgetéseket az MI-kkel,
07:47
talking about their hopes and dreams
144
467755
2002
beszélnek reményeikről és álmaikról,
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
és átsegítik őket a nehéz érzelmi megpróbáltatásokon.
07:53
AIs can now drive cars,
146
473177
2294
Az MI-k már autót is képesek vezetni,
07:55
manage energy grids
147
475513
1543
energiahálózatokat kezelni,
07:57
and even invent new molecules.
148
477056
2252
sőt, új molekulákat is feltalálhatnak.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Néhány évvel ezelőtt ezek mindegyike lehetetlen volt.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
Mindezt az adatok és a számítások exponenciális növekedése
08:09
and computation.
151
489277
1626
turbózza fel.
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
Tavaly az Inflection 2.5, az utolsó modellünk,
08:16
used five billion times more computation
153
496242
4129
ötmilliárdszor több számítást használt,
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
mint a DeepMind MI, amely alig több mint 10 évvel ezelőtt
08:24
just over 10 years ago.
155
504042
1668
legyőzte a régi iskolai Atari játékokat.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Ez kilenc nagyságrenddel több számítás.
08:30
10x per year,
157
510089
1627
Évente tízszer több,
08:31
every year for almost a decade.
158
511716
3253
minden évben alig egy évtized alatt.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Ugyanakkor e modellek mérete az első tízmillió paraméterről
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
több milliárd paraméterre nőtt,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
és hamarosan több tízbillió paraméter lesz.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Ha valaki a nap 24 órájában egész életében csak olvasna,
08:50
they'd consume eight billion words.
163
530109
3337
nyolcmilliárd szóig jutna el.
08:53
And of course, that's a lot of words.
164
533488
1835
Persze, ez rengeteg szó.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
De ma a legfejlettebb MI-k több mint nyolcbillió szót használnak
09:01
in a single month of training.
166
541120
2336
egyetlen hónapos képzés alatt.
09:03
And all of this is set to continue.
167
543873
1960
És mindez folytatódik.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
A technológiai történelem hosszú íve most rendkívüli új szakaszba jutott.
09:12
So what does this mean in practice?
169
552256
2503
Mit jelent ez a gyakorlatban?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Ahogy az internet böngészőt adott nekünk,
09:18
and the smartphone gave us apps,
171
558346
2502
az okostelefon pedig alkalmazásokat,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
a felhőalapú szuperszámítógép
09:24
of ubiquitous AIs.
173
564936
2502
a mindenütt jelen lévő MI új korszakát nyitja meg.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Hamarosan minden beszélgetős felületen jelenik meg.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
Vagy másképp fogalmazva, személyes MI-nk lesz.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Ezek az MI-k végtelenül hozzáértők lesznek,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
és hamarosan tényszerűen pontosak és megbízhatók is.
09:42
They'll have near-perfect IQ.
178
582036
1794
Majdnem tökéletes IQ-juk lesz.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Kivételes EQ-juk is lesz.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Kedvesek lesznek, támogatók, empatikusak.
09:53
These elements on their own would be transformational.
181
593089
2836
Ezek az elemek önmagukban megváltoztatják a világot.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Képzeljék el, ha mindenki zsebében személyre szabott oktató lenne,
09:59
and access to low-cost medical advice.
183
599720
3003
és hozzáférne olcsó orvosi tanácsokhoz.
10:02
A lawyer and a doctor,
184
602723
1544
Egy ügyvéd és egy orvos,
10:04
a business strategist and coach --
185
604267
1960
egy üzleti tanácsadó és edző,
10:06
all in your pocket 24 hours a day.
186
606269
2252
mindez a nap 24 órájában a zsebében.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
De a dolgok valóban megváltoznak, amikor kifejlesztik azt,
amit AQ-nak nevezek, az alkalmazkodási intelligenciahányadost.
10:13
their “actions quotient.”
188
613693
1668
10:15
This is their ability to actually get stuff done
189
615695
2794
Ez a mutató kifejezi képességüket, hogy ténylegesen tevékenykedjenek
10:18
in the digital and physical world.
190
618531
2294
a digitális és a fizikai világban.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
Nemsokára nem csak az embereknek lesz MI-je.
Bármennyire furcsán hangzik, minden szervezetnek: a kisvállalkozástól
10:24
Strange as it may sound, every organization,
192
624328
2962
10:27
from small business to nonprofit to national government,
193
627290
3253
a nonprofit szervezeten át a nemzeti kormányig,
10:30
each will have their own.
194
630585
1710
mindegyiknek lesz sajátja.
10:32
Every town, building and object
195
632795
2711
Minden városnak, épületnek és objektumnak
10:35
will be represented by a unique interactive persona.
196
635506
3754
egyedi interaktív MI-je lesz.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
Ezek nemcsak gépies asszisztensek lesznek,
10:42
They'll be companions, confidants,
198
642221
3754
hanem társak, bizalmasok,
10:46
colleagues, friends and partners,
199
646017
2669
kollégák, barátok és partnerek is,
10:48
as varied and unique as we all are.
200
648728
2627
olyan változatosak és egyediek, mint mi mindannyian.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
Ekkor az MI-k meggyőzően utánozzák a legtöbb feladatban az embereket.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
A legbensőségesebb mértékig kapcsolódunk hozzájuk.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
MI, amely közösségi összejövetelt szervez egy idős szomszédnak.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Együttérző szakértő, aki segít megérteni a bonyolult diagnózist.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
De a legáltalánosabb dolgokban is érezni fogjuk.
11:12
Accelerating scientific discovery,
206
672043
2586
Felgyorsuló tudományos felfedezések,
11:14
autonomous cars on the roads,
207
674629
2168
önvezető autók az utakon,
11:16
drones in the skies.
208
676797
1627
drónok az égen.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Mindent tesznek: Kaját rendelnek, és üzemeltetik az erőművet.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Kapcsolatba fognak lépni velünk, és természetesen egymással.
11:26
They'll speak every language,
211
686349
1918
Minden nyelven beszélnek,
11:28
take in every pattern of sensor data,
212
688267
2836
minden érzékelő adatot felfognak,
11:31
sights, sounds,
213
691145
2336
látványokat, hangokat,
11:33
streams and streams of information,
214
693481
2377
adatfolyamokat és információáramlásokat fogadnak,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
messze többet, mint amennyit bármelyikünk ezer élet alatt feldolgozni képes.
11:40
So what is this?
216
700780
1293
Szóval, mi ez?
11:42
What are these AIs?
217
702990
2086
Mik ezek az MI-k?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Ha mindenekelőtt a biztonságot akarjuk előtérbe helyezni,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
hogy az új hullám mindig az emberiséget szolgálja és erősítse,
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
akkor meg kell találnunk a megfelelő metaforákat arra, hogy ez mivé válhat.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Évek óta az MI közösségben mi, és főleg én,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
hajlamosak vagyunk csak eszközként hivatkozni rá.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
De ez nem igazán rögzíti, hogy mi történik itt valójában.
12:14
AIs are clearly more dynamic,
224
734730
2503
Az MI-k egyértelműen dinamikusabbak,
12:17
more ambiguous, more integrated
225
737233
2753
kétségesebbek, integráltabbak
12:19
and more emergent than mere tools,
226
739986
2627
és kiemelkedőbbek a puszta eszközöknél,
12:22
which are entirely subject to human control.
227
742613
2878
amelyeket teljes mértékben emberek kezelnek.
12:25
So to contain this wave,
228
745533
2544
Hogy visszaszorítsuk ezt a hullámot,
12:28
to put human agency at its center
229
748119
3044
és az embert helyezzük a középpontba,
és enyhítsük a felmerülő elkerülhetetlen és váratlan következményeket,
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
12:33
that are likely to arise,
231
753916
1835
amelyek valószínű, hogy felbukkannak,
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
úgy kell gondoljunk rájuk, mint újabb digitális fajra.
12:41
Now it's just an analogy,
233
761132
1793
Ez csak analógia,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
nem szó szerinti leírás, és nem tökéletes.
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
Kezdetben nyilvánvalóan semmilyen hagyományos értelemben
nem biológiai jellegűek; de álljunk meg egy pillanatra,
12:50
but just pause for a moment
236
770141
2377
12:52
and really think about what they already do.
237
772560
2836
és tényleg gondoljuk át, amit már tesznek.
12:55
They communicate in our languages.
238
775438
2627
Nyelveinken kommunikálnak.
12:58
They see what we see.
239
778107
2127
Látják, amit mi látunk.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Elképzelhetetlenül nagy mennyiségű információt dolgoznak fel.
13:04
They have memory.
241
784739
1376
Emlékezetük van.
13:06
They have personality.
242
786991
1752
Személyiségük van.
13:09
They have creativity.
243
789493
1710
Kreativitásuk van.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
Érvelhetnek bizonyos területeken, és kezdeti terveket fogalmazhatnak meg.
13:16
They can act autonomously if we allow them.
245
796709
3128
Önálló módon tudnak cselekedni, ha megengedjük nekik.
13:20
And they do all this at levels of sophistication
246
800546
2294
Mindezt kifinomultan teszik,
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
amely messze meghaladja mindazt, amit valaha puszta eszközként ismertünk.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Azt állítani, hogy az MI főleg a matematikáról vagy a kódról szól,
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
olyan, mint azt mondani, hogy mi emberek főleg szénből és vízből állunk.
13:37
It's true, but it completely misses the point.
250
817897
3795
Ez igaz, de így teljesen figyelmen kívül hagyjuk a lényeget.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
Igen, értem, ez teljesen elrettentő gondolat,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
de őszintén úgy gondolom, hogy ez segít a kritikus kérdésekre összpontosítani.
13:52
What are the risks?
253
832745
1585
Mik a kockázatok?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Melyek azok a határok, amelyeket elő kell írnunk?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Milyen MI-t akarunk építeni vagy engedélyezni?
14:04
This is a story that's still unfolding.
256
844465
2377
Ez még mindig folyamatban van.
14:06
Nothing should be accepted as a given.
257
846884
2544
Semmit sem szabad adottként elfogadni.
14:09
We all must choose what we create.
258
849428
2544
Együtt döntjük el, mit teremtünk.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Milyen MI-ket hozunk a világra, vagy nem.
14:18
These are the questions for all of us here today,
260
858604
2836
Ezek a kérdések itt mindannyiunknak szólnak,
14:21
and all of us alive at this moment.
261
861440
2586
és mindannyian e pillanatban éljük meg.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Számomra e technológia előnyei lenyűgözően nyilvánvalók,
14:28
and they inspire my life's work every single day.
263
868989
3546
és mindennap ösztönzik életem munkáját.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
De őszintén szólva, az MI-k magukért fognak beszélni.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Az évek során soha nem zárkóztam el a kockázatok kiemelésétől,
14:40
and talking about downsides.
266
880668
1710
sem a hátrányokról való beszélgetéstől.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
E gondolkodás segít összpontosítani a hatalmas kihívásokra,
14:46
that lie ahead for all of us.
268
886298
1836
amelyek mindannyiunk előtt állnak.
14:48
But let's be clear.
269
888843
1418
De tisztázzuk!
14:50
There is no path to progress
270
890719
2128
Nincs a fejlődésnek olyan útja,
14:52
where we leave technology behind.
271
892888
2169
amelyikből kihagyjuk a technológiát.
14:55
The prize for all of civilization is immense.
272
895683
3795
Az egész civilizációnak óriási a tét.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
Megoldások kellenek az egészségügy, az oktatás terén, az éghajlati válságra.
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
Ha az MI csak töredékét nyújtja a lehetőségeinek,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
akkor a következő évtized lesz
a legtermékenyebb az emberiség történetében.
15:13
Here's another way to think about it.
276
913701
2002
Gondolhatunk rá másképp is.
15:15
In the past,
277
915744
1293
A múltban
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
a gazdasági növekedés beindulása gyakran hatalmas hátrányokkal is járt.
15:21
The economy expanded as people discovered new continents
279
921500
3712
A gazdaság bővült, amikor az emberek új földrészeket fedeztek fel,
15:25
and opened up new frontiers.
280
925254
2002
és új határokat nyitottak meg.
15:28
But they colonized populations at the same time.
281
928632
3045
De gyarmatosították a népességet.
15:32
We built factories,
282
932595
1710
Gyárakat építettünk,
15:34
but they were grim and dangerous places to work.
283
934305
3044
de komor és veszélyes munkahelyek születtek.
15:38
We struck oil,
284
938017
1918
Olajat bányásztunk,
15:39
but we polluted the planet.
285
939977
1627
de szennyeztük a bolygót.
15:42
Now because we are still designing and building AI,
286
942146
3170
Most, mivel még tervezzük és építjük az MI-t,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
van lehetőségünk jobbat létrehozni,
15:49
radically better.
288
949153
1335
gyökeresen jobbá tenni.
15:51
And today, we're not discovering a new continent
289
951071
2628
Ma nem fedezünk fel új kontinenst,
15:53
and plundering its resources.
290
953741
1918
és nem fosztjuk ki az erőforrásait.
15:56
We're building one from scratch.
291
956285
1919
A semmiből építünk egyet.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
Néha azt mondják, hogy az adatok vagy a csipek a 21. század új olaja,
16:03
but that's totally the wrong image.
293
963959
2002
de ez hibás megközelítés.
16:06
AI is to the mind
294
966587
1919
Az MI az elmének az,
16:08
what nuclear fusion is to energy.
295
968547
2753
ami a nukleáris fúzió az energiának.
16:12
Limitless, abundant,
296
972259
2670
Korlátlan, bőséges,
16:14
world-changing.
297
974970
1544
világot megváltoztató.
16:17
And AI really is different,
298
977389
2962
Az MI valóban más,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
és ez azt jelenti, hogy kreatívan és őszintén kell gondoljunk rá.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Analógiáinkat és metaforáinkat
16:27
to the very limits
301
987274
1752
a határokig kell tolnunk,
16:29
to be able to grapple with what's coming.
302
989068
2252
hogy megküzdjünk azzal, ami várható.
16:31
Because this is not just another invention.
303
991362
2878
Mert ez nem csak újabb találmány.
16:34
AI is itself an infinite inventor.
304
994907
3503
Az MI maga a végtelen feltaláló.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
Igen, ez egyszerre izgalmas és ígéretes,
16:42
and intriguing all at once.
306
1002164
2044
aggasztó és érdekes.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Hogy őszinte legyek, elég szürreális.
16:47
But step back,
308
1007836
1293
De lépjünk hátra,
16:49
see it on the long view of glacial time,
309
1009171
3462
nézzük meg a jégkorszak távlatában,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
és ezek valóban a létező legmegfelelőbb metaforák.
16:57
Since the beginning of life on Earth,
311
1017471
3003
A földi élet kezdete óta fejlődünk,
17:00
we've been evolving, changing
312
1020516
2961
változunk,
17:03
and then creating everything around us in our human world today.
313
1023477
4171
majd mindent megteremtünk magunk körül a mai emberi világunkban.
17:08
And AI isn't something outside of this story.
314
1028232
3003
Az MI nem esik kívül ezen a történeten.
17:11
In fact, it's the very opposite.
315
1031569
2961
Valójában éppen ellenkezőleg.
17:15
It's the whole of everything that we have created,
316
1035197
3170
Az MI az általunk létrehozott egész mindenség kivonata,
17:18
distilled down into something that we can all interact with
317
1038367
3545
amellyel mindannyian kölcsönhatásba léphetünk,
17:21
and benefit from.
318
1041912
1377
és profitálhatunk belőle.
17:23
It's a reflection of humanity across time,
319
1043872
3504
Ez az emberiség tükröződése az időben,
17:27
and in this sense,
320
1047418
1251
és ebben az értelemben
17:28
it isn't a new species at all.
321
1048711
1918
egyáltalán nem új faj.
17:31
This is where the metaphors end.
322
1051213
1960
Itt végződnek a metaforák.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Íme, a válaszom, Caspian, amikor legközelebb megkérdezel.
17:37
AI isn't separate.
324
1057219
1460
Az MI nem különálló.
17:39
AI isn't even in some senses, new.
325
1059388
3295
Az MI bizonyos értelemben egyáltalán nem új.
17:43
AI is us.
326
1063517
1126
Mi vagyunk az MI.
17:45
It's all of us.
327
1065394
1210
Mindenki.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
Íme talán a legígéretesebb és létfontosságú dolog minden közül,
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
amit még egy hatéves gyerek is érthet:
17:54
As we build out AI,
330
1074528
1376
Ahogy kiépítjük az MI-t,
17:55
we can and must reflect all that is good,
331
1075946
3545
tükrözhetjük és kell tükröznünk mindazt, ami jó,
17:59
all that we love,
332
1079533
1126
mindent, amit szeretünk,
18:00
all that is special about humanity:
333
1080701
2753
mindent, ami az emberiségben különleges:
18:03
our empathy, our kindness,
334
1083495
2169
empátiánkat, kedvességünket,
18:05
our curiosity and our creativity.
335
1085664
2169
kíváncsiságunkat és kreativitásunkat.
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Ez a 21. század legnagyobb kihívása,
18:14
but also the most wonderful,
337
1094381
2211
de egyben a legcsodálatosabb is,
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
Ösztönző és reményteli lehetőség mindannyiunknak,
18:20
Thank you.
339
1100429
1168
Köszönöm.
18:21
(Applause)
340
1101639
4879
(Taps)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
Chris Anderson: Köszönöm, Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
Ez csodálatos elképzelés és nagyon erős metafora.
18:32
You're in an amazing position right now.
343
1112066
1960
Fantasztikus helyzetben vagy most.
18:34
I mean, you were connected at the hip
344
1114026
1793
Csípőből kapcsolódtál
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
az OpenAI-n zajló csodálatos munkához.
18:38
You’re going to have resources made available,
346
1118614
2169
Forrásokat biztosítanak hozzá,
18:40
there are reports of these giant new data centers,
347
1120824
4046
ismertetik az óriási új adatközpontokat,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
100 milliárd dollárt fektetnek bele.
18:48
And a new species can emerge from it.
349
1128082
3837
Új faj alakulhat ki belőle.
18:52
I mean, in your book,
350
1132294
1502
A könyvedben,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
hihetetlen optimista víziót festettél,
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
de nyomatékosan szóltál az MI veszélyeiről is.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Kíváncsi vagyok,
mi nem hagy aludni mostanában?
19:04
what is it that most keeps you up at night?
354
1144431
2336
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
MS: Nagy a kockázata, hogy elakadunk:
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
pesszimizmus-irtózás csapdának nevezem.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Bátran szembe kell nézzünk
19:14
the potential of dark scenarios
358
1154483
1960
a sötét forgatókönyvek lehetőségével,
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
hogy a legtöbbet hozhassuk ki a látható előnyökből.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
A jó hír, hogy az elmúlt két-három évben
19:23
there have been very, very few downsides, right?
361
1163325
2961
nagyon-nagyon kevés mélypont volt.
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
Nehéz egyértelműen azonosítani a nagy nyelvi modellek okozta károkat.
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
De ebből nem következik, hogy ez lesz az irány
19:34
over the next 10 years.
364
1174503
1168
a következő évtizedekben.
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Néhány konkrét képességre figyeljünk,
19:39
take for example, autonomy.
366
1179174
1835
például az önállóságra.
19:41
Autonomy is very obviously a threshold
367
1181009
2336
Az önállóság nyilvánvalóan olyan küszöb,
19:43
over which we increase risk in our society.
368
1183387
2794
amely felett megnő a társadalmi kockázat.
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
De el kell menni a lehetőségek határáig.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
A másik a rekurzív önfejlesztés lenne.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Ha megengedjük, hogy a modell önállóan fejlődjön,
19:56
update its own code,
372
1196483
1460
frissítse saját kódját,
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
felfedezzen felügyelet nélküli környezetet,
és emberi beavatkozás nélkül változtassa működését,
20:01
without a human in control to change how it operates,
374
1201321
3295
az nyilván veszélyesebb lenne.
20:04
that would obviously be more dangerous.
375
1204616
1919
20:06
But I think that we're still some way away from that.
376
1206535
2544
De még messze vagyunk ettől.
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
Még jó öt-tíz év telik el, mire tényleg szembe kell néznünk ezzel.
20:12
But it's time to start talking about it now.
378
1212958
2085
De már ideje beszélnünk róla.
CA: A digitális faj a biológiai fajoktól eltérően nem kilenc hónap alatt,
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
hanem kilenc nanoszekundum alatt képes lemásolni magát,
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
s végtelen sok példányt készíthet magáról,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
amelynek sok tekintetben több hatalma van nálunk.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
A nem kívánt következmények lehetősége elég hatalmasnak tűnik.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
Ha baj merül fel,
20:35
it could happen in an hour?
386
1235689
1919
az egy órán belül megtörténhet, ugye?
20:37
MS: No.
387
1237649
1335
MS: Nem.
20:38
That is really not true.
388
1238984
1752
Egyáltalán nem így van.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Nincs erre utaló bizonyíték.
20:42
And I think that, you know,
390
1242863
1585
Gyakran nevezik ezt
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
tudásrobbanásnak.
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Ez elméleti, feltételezett dolog,
20:51
that we're all kind of curious to explore,
393
1251079
2420
amelyet kíváncsian kutatunk,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
de nincs ilyesmire utaló jel a láthatáron.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
Lényeges, hogy körültekintően válogassuk meg szavainkat.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
Mert igazad van, ez a faj elnevezés egyik gyengesége,
21:03
that we will design the capability for self-replication into it
397
1263801
4337
hogy megtervezzük az önszaporító képességet,
21:08
if people choose to do that.
398
1268180
1668
ha az emberek ezt választják.
21:09
And I would actually argue that we should not,
399
1269890
2169
Amondó vagyok, hogy nem kellene beletenni,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
mert veszélyes képesség lenne,
21:14
that we should step back from, right?
401
1274269
1835
és jobb lenne kihagyni.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
Nincs esély arra, hogy ez véletlenül megjelenjen.
21:19
I really think that's a very low probability.
403
1279942
2502
Egészen kicsi a valószínűsége.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Csak akkor történik meg, ha a mérnökök szándékosan tervezik bele.
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
Ha nem törik magukat, hogy szándékosan beletervezzék, nem lesz.
21:30
And so this is the point of being explicit
406
1290160
2294
Ezért lényeges az egyértelműség és az átláthatóság,
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
hogy már a tervezés elején írjuk elő a biztonságot.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Köszönöm, hogy látomásodba
önmagunk legjobb részei kerülnek bele,
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
elkerülve azokat a furcsa, eszement, szörnyű biológiai hajlamokat,
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
melyek néha előfordulnak.
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
Biztató jövőkép.
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
Köszönöm, hogy eljöttél, és véleményedet elmondtad a TED-en.
21:58
Thank you, good luck.
414
1318355
1210
Köszönöm, sok szerencsét.
21:59
(Applause)
415
1319565
1876
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7