Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Lucas Kaimaras Επιμέλεια: Nikolaos Benias
Θα σας μιλήσω για ένα σφάλμα στη λογική
00:13
I'm going to talk about a failure of intuition
0
13000
2216
00:15
that many of us suffer from.
1
15240
1600
που έχουν πολλοί από εμάς.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
Στην ουσία είναι αδυναμία να δούμε ένα ορισμένο είδος κινδύνου.
00:21
I'm going to describe a scenario
3
21360
1736
Θα περιγράψω ένα σενάριο
00:23
that I think is both terrifying
4
23120
3256
που θεωρώ ταυτόχρονα τρομακτικό,
00:26
and likely to occur,
5
26400
1760
αλλά και πιθανό να συμβεί,
00:28
and that's not a good combination,
6
28840
1656
και δεν είναι καλός συνδυασμός,
00:30
as it turns out.
7
30520
1536
όπως τελικά αποδεικνύεται.
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
Αλλά αντί να τρομοκρατείστε, οι περισσότεροι πιστεύετε
00:34
that what I'm talking about is kind of cool.
9
34560
2080
ότι αυτό που σας λέω είναι μάλλον ωραίο.
00:37
I'm going to describe how the gains we make
10
37200
2976
Θα σας περιγράψω
πώς τα οφέλη που θα δρέψουμε από την τεχνητή νοημοσύνη
00:40
in artificial intelligence
11
40200
1776
μπορούν εν τέλει να μας καταστρέψουν.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Και μάλιστα το θεωρώ απίθανο είτε να μην μας καταστρέψουν
ή να μας εμπνεύσουν να καταστραφούμε μόνοι μας.
00:47
or inspire us to destroy ourselves.
14
47280
1680
00:49
And yet if you're anything like me,
15
49400
1856
Αν όμως σκέφτεστε όπως εγώ,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
θα το απολαμβάνετε να σκέφτεστε αυτά τα πράγματα.
00:53
And that response is part of the problem.
17
53960
3376
Κι αυτή η αντίδραση είναι μέρος του προβλήματος.
00:57
OK? That response should worry you.
18
57360
1720
Εντάξει; Αυτή η αντίδραση θα πρέπει να σας ανησυχεί.
00:59
And if I were to convince you in this talk
19
59920
2656
Κι αν επρόκειτο να σας πείσω με αυτή την ομιλία
01:02
that we were likely to suffer a global famine,
20
62600
3416
ότι είναι πιθανόν να αντιμετωπίσουμε παγκόσμιο λιμό,
είτε λόγω κλιματικής αλλαγής ή κάποιας άλλης καταστροφής,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
και ότι τα εγγόνια σας, ή τα δικά τους εγγόνια,
01:12
are very likely to live like this,
23
72560
1800
είναι πολύ πιθανόν να ζήσουν κάπως έτσι,
01:15
you wouldn't think,
24
75200
1200
δεν θα σκεφτόσασταν,
01:17
"Interesting.
25
77440
1336
«Ενδιαφέρον.
01:18
I like this TED Talk."
26
78800
1200
Μου αρέσει αυτή η ομιλία TED».
01:21
Famine isn't fun.
27
81200
1520
Ο λιμός δεν είναι κάτι διασκεδαστικό.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Από την άλλη, ο θάνατος μέσω επιστημονικής φαντασίας είναι διασκεδαστικός,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
και κάτι που με ανησυχεί σε αυτό το στάδιο της εξέλιξης της τεχνητής νοημοσύνης
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
είναι ότι αδυνατούμε να επιδείξουμε μια κατάλληλη συναισθηματική αντίδραση
01:35
to the dangers that lie ahead.
31
95320
1816
στους επικείμενους κινδύνους.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Ούτε εγώ μπορώ να έχω αυτή την αντίδραση και κάνω αυτή την ομιλία.
01:42
It's as though we stand before two doors.
33
102120
2696
Είναι σαν να στεκόμαστε μπροστά σε δύο πόρτες.
01:44
Behind door number one,
34
104840
1256
Πίσω από την πρώτη πόρτα,
01:46
we stop making progress in building intelligent machines.
35
106120
3296
παύουμε να κάνουμε πρόοδο στην παραγωγή ευφυών μηχανών.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Για κάποιον λόγο παύουμε να βελτιώνουμε υλισμικό και λογισμικό στους υπολογιστές.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Τώρα σκεφτείτε για λίγο γιατί μπορεί να συμβεί αυτό.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Εννοώ ότι, δεδομένης της μεγάλης αξίας της ευφυίας και των αυτοματισμών,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
εφόσον μπορούμε, θα συνεχίσουμε να βελτιώνουμε την τεχνολογία μας.
02:05
What could stop us from doing this?
40
125200
1667
Τι μπορεί να μας αποτρέψει;
02:07
A full-scale nuclear war?
41
127800
1800
Ένας πυρηνικός πόλεμος πλήρους κλίμακας;
02:11
A global pandemic?
42
131000
1560
Μια παγκόσμια πανδημία;
02:14
An asteroid impact?
43
134320
1320
Μια σύγκρουση με αστεροειδή;
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Να γίνει ο Τζάστιν Μπίμπερ πρόεδρος των ΗΠΑ;
02:20
(Laughter)
45
140240
2280
(Γέλια)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
Το θέμα είναι ότι κάτι θα πρέπει να καταστρέψει τον σύγχρονο πολιτισμό.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Θα πρέπει να φανταστείτε πόσο οδυνηρό πρέπει να είναι
02:33
to prevent us from making improvements in our technology
48
153680
3336
για να μας αποτρέψει από το να βελτιώσουμε την τεχνολογία μας
σε μόνιμη βάση,
02:37
permanently,
49
157040
1216
02:38
generation after generation.
50
158280
2016
στις επόμενες γενεές.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Αυτό είναι σχεδόν εξ ορισμού
ό,τι χειρότερο έχει ποτέ συμβεί στην ανθρώπινη ιστορία.
02:42
that's ever happened in human history.
52
162480
2016
02:44
So the only alternative,
53
164520
1296
Έτσι η μόνη εναλλακτική
02:45
and this is what lies behind door number two,
54
165840
2336
-κι αυτή βρίσκεται πίσω από τη δεύτερη πόρτα-
02:48
is that we continue to improve our intelligent machines
55
168200
3136
είναι να συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας
02:51
year after year after year.
56
171360
1600
χρόνο με τον χρόνο.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Σε κάποιο σημείο, θα φτιάξουμε μηχανές που θα είναι πιο έξυπνες από εμάς,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
κι όταν θα έχουμε μηχανές εξυπνότερες από εμάς,
03:00
they will begin to improve themselves.
59
180720
1976
θα αρχίσουν να βελτιώνονται μόνες τους.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Τότε διακινδυνεύουμε να έχουμε κάτι
που ο μαθηματικός Ι. Τζ. Γκουντ αποκάλεσε «έκρηξη ευφυίας»,
03:05
an "intelligence explosion,"
61
185480
1776
03:07
that the process could get away from us.
62
187280
2000
όπου η διαδικασία μπορεί να φύγει από τον έλεγχό μας.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Αυτό συχνά απεικονίζεται, όπως σας δείχνω εδώ,
03:12
as a fear that armies of malicious robots
64
192960
3216
ως ένας φόβος ότι στρατιές από κακόβουλα ρομπότ
03:16
will attack us.
65
196200
1256
θα μας επιτεθούν.
03:17
But that isn't the most likely scenario.
66
197480
2696
Αλλά αυτό δεν είναι το πιο πιθανό σενάριο.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Δεν είναι ότι οι μηχανές μας θα γίνουν αυθόρμητα κακόβουλες.
03:25
The concern is really that we will build machines
68
205080
2616
Η πραγματική ανησυχία είναι ότι θα φτιάξουμε μηχανές
03:27
that are so much more competent than we are
69
207720
2056
που θα είναι τόσο πιο ικανές από εμάς
03:29
that the slightest divergence between their goals and our own
70
209800
3776
που η ελάχιστη απόκλιση μεταξύ των δικών τους στόχων και των δικών μας
03:33
could destroy us.
71
213600
1200
θα μπορούσε να μας καταστρέψει.
03:35
Just think about how we relate to ants.
72
215960
2080
Σκεφτείτε τη σχέση μας με τα μυρμήγκια.
03:38
We don't hate them.
73
218600
1656
Δεν τα μισούμε.
03:40
We don't go out of our way to harm them.
74
220280
2056
Δεν τα βλάπτουμε εκουσίως.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Συχνά μάλιστα κάνουμε προσπάθεια να μην τα βλάψουμε.
03:44
We step over them on the sidewalk.
76
224760
2016
Αποφεύγουμε να τα πατήσουμε στο πεζοδρόμιο.
03:46
But whenever their presence
77
226800
2136
Αλλά όταν η παρουσία τους
03:48
seriously conflicts with one of our goals,
78
228960
2496
αντιτίθεται σοβαρά με τους στόχους μας,
03:51
let's say when constructing a building like this one,
79
231480
2477
ας πούμε, όταν φτιάχνουμε ένα τέτοιο κτήριο,
03:53
we annihilate them without a qualm.
80
233981
1960
τα εκμηδενίζουμε χωρίς δεύτερη σκέψη.
03:56
The concern is that we will one day build machines
81
236480
2936
Η ανησυχία είναι ότι μια μέρα θα φτιάξουμε μηχανές που,
03:59
that, whether they're conscious or not,
82
239440
2736
είτε ενσυνείδητα ή όχι,
04:02
could treat us with similar disregard.
83
242200
2000
θα μας μεταχειριστούν με παρόμοια αδιαφορία.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Υποψιάζομαι ότι οι περισσότεροι το θεωρείτε παρατραβηγμένο.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν αν η υπερευφυής τεχνητή νοημοσύνη
είναι εφικτή, πολύ δε λιγότερο αναπόφευκτη.
04:15
much less inevitable.
86
255720
1656
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Τότε όμως πρέπει να βρείτε κάποιο λάθος στις ακόλουθες υποθέσεις.
04:21
And there are only three of them.
88
261044
1572
Και είναι μόνο τρεις υποθέσεις.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Η ευφυΐα είναι θέμα επεξεργασίας της πληροφορίας σε υλικά συστήματα.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Βασικά, αυτό είναι κάτι παραπάνω από μια υπόθεση.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Έχουμε ήδη ενσωματώσει περιορισμένη ευφυΐα στις μηχανές μας,
04:35
and many of these machines perform
92
275440
2016
και πολλές από αυτές ήδη αποδίδουν
04:37
at a level of superhuman intelligence already.
93
277480
2640
σε επίπεδο υπεράνθρωπης ευφυΐας.
04:40
And we know that mere matter
94
280840
2576
Και ξέρουμε πως η απλή ύλη
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
μπορεί να δημιουργήσει αυτό που λέγεται «γενική ευφυΐα»,
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
μια ικανότητα να σκεφτούμε ευέλικτα σε πολλαπλά επίπεδα,
04:49
because our brains have managed it. Right?
97
289760
3136
επειδή τα μυαλά μας τα έχουν καταφέρει, σωστά;
04:52
I mean, there's just atoms in here,
98
292920
3936
Εξάλλου μόνο άτομα υπάρχουν εκεί,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
και όσο συνεχίζουμε να φτιάχνουμε συστήματα από άτομα
05:01
that display more and more intelligent behavior,
100
301400
2696
που επιδεικνύουν όλο και περισσότερο ευφυή συμπεριφορά,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
αν δεν μας σταματήσει κάποιος,
05:06
we will eventually build general intelligence
102
306680
3376
τελικά θα βάλουμε τη γενική ευφυΐα
μέσα στις μηχανές μας.
05:10
into our machines.
103
310080
1296
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Είναι σημαντικό να καταλάβουμε ότι δεν έχει σημασία ο ρυθμός της προόδου,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
γιατί κάθε πρόοδος είναι αρκετή για να οδηγήσει σε αυτή την κατάληξη.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Δεν χρειάζεται ο Νόμος του Μουρ, ούτε κάποια εκθετική πρόοδος.
Χρειάζεται απλώς να συνεχίσουμε.
05:22
We just need to keep going.
107
322080
1600
05:25
The second assumption is that we will keep going.
108
325480
2920
Η δεύτερη υπόθεση είναι ότι θα συνεχίσουμε.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Θα συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας.
05:33
And given the value of intelligence --
110
333000
4376
Και σύμφωνα με την αξία της ευφυΐας -
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
εννοώ ότι είτε η ευφυΐα είναι η πηγή για ό,τι θεωρούμε άξιο,
05:40
or we need it to safeguard everything we value.
112
340960
2776
ή χρειάζεται να περιφρουρήσουμε οτιδήποτε θεωρούμε άξιο.
05:43
It is our most valuable resource.
113
343760
2256
Είναι ο πιο πολύτιμος πόρος που έχουμε.
05:46
So we want to do this.
114
346040
1536
Έτσι, θέλουμε να το κάνουμε.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Έχουμε προβλήματα και πρέπει να τα λύσουμε επειγόντως.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Θέλουμε να θεραπεύσουμε νόσους όπως τον καρκίνο και την Αλτσχάιμερ,
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
να καταλάβουμε οικονομικά συστήματα, να βελτιώσουμε τη γνώση μας για το κλίμα.
05:58
So we will do this, if we can.
118
358920
2256
Γι' αυτό θα το κάνουμε, αν μπορούμε.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
Το τρένο έχει ήδη ξεκινήσει και δεν έχει φρένο.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Τέλος, δεν έχουμε φτάσει στην αποκορύφωση της ευφυΐας,
06:11
or anywhere near it, likely.
121
371360
1800
μάλλον ούτε που την πλησιάσαμε.
06:13
And this really is the crucial insight.
122
373640
1896
Και αυτή είναι η σημαντική διαπίστωση.
06:15
This is what makes our situation so precarious,
123
375560
2416
Αυτό κάνει τόσο επισφαλή την κατάστασή μας,
και τόσο αναξιόπιστα τα προαίσθήματά μας σχετικά με το ρίσκο.
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Απλώς σκεφτείτε το πιο έξυπνο άτομο που έχει ποτέ ζήσει.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Κάποιον που όλοι σας θα έχετε κατά νου είναι ο Τζον φον Νόιμαν.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
Η εντύπωση που έκανε στους τριγύρω του ο φον Νόιμαν,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
συμπεριλαμβανομένων των πιο λαμπρών μαθηματικών και φυσικών της εποχής του,
06:37
is fairly well-documented.
129
397520
1936
έχει καταγραφεί επαρκώς.
06:39
If only half the stories about him are half true,
130
399480
3776
Και μόνο οι μισές ιστορίες γι' αυτόν να αληθεύουν,
χωρίς αμφιβολία
06:43
there's no question
131
403280
1216
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
είναι από τους πιο έξυπνους ανθρώπους που έχουν ζήσει.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Σκεφτείτε λοιπόν το φάσμα της ευφυΐας.
06:50
Here we have John von Neumann.
134
410320
1429
Εδώ είναι ο Τζον φον Νόιμαν.
06:53
And then we have you and me.
135
413560
1334
Κι εδώ είμαστε εσείς κι εγώ.
06:56
And then we have a chicken.
136
416120
1296
Μετά είναι οι κότες.
06:57
(Laughter)
137
417440
1936
(Γέλια)
06:59
Sorry, a chicken.
138
419400
1216
Συγνώμη, μια κότα.
07:00
(Laughter)
139
420640
1256
(Γέλια)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Δεν υπάρχει λόγος να κάνω την ομιλία πιο θλιβερή απ' όσο χρειάζεται.
07:05
(Laughter)
141
425680
1600
(Γέλια)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Ωστόσο, φαίνεται εκπληκτικά πιθανόν ότι το φάσμα της ευφυΐας
07:11
extends much further than we currently conceive,
143
431840
3120
εκτείνεται πολύ πιο πέρα από όσο τώρα αντιλαμβανόμαστε,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
και αν φτιάξουμε μηχανές πιο έξυπνες από εμάς,
07:19
they will very likely explore this spectrum
145
439120
2296
είναι πολύ πιθανόν να εξερευνήσουν αυτό το φάσμα
07:21
in ways that we can't imagine,
146
441440
1856
με τρόπους που δεν μπορούμε να φανταστούμε
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
και να μας ξεπεράσουν σε αφάνταστο βαθμό.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Και είναι σημαντικό να αναγνωρίσουμε ότι αυτό αληθεύει και μόνο λόγω ταχύτητας.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Σωστά; Φανταστείτε να φτιάχναμε μια υπερευφυή τεχνητή νοημοσύνη,
07:36
that was no smarter than your average team of researchers
150
456440
3456
που δεν θα ήταν εξυπνότερη από μια μέση ομάδα ερευνητών
07:39
at Stanford or MIT.
151
459920
2296
των πανεπιστημίων Στάνφορντ ή ΜΙΤ.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Τα ηλεκτρονικά κυκλώματα λειτουργούν
ένα εκατομμύριο φορές ταχύτερα από τα βιοχημικά,
07:45
than biochemical ones,
153
465240
1256
07:46
so this machine should think about a million times faster
154
466520
3136
έτσι αυτή η μηχανή θα σκεφτόταν ένα εκατομμύριο φορές πιο γρήγορα
07:49
than the minds that built it.
155
469680
1816
από τους εγκεφάλους που την έφτιαξαν.
07:51
So you set it running for a week,
156
471520
1656
Με λειτουργία μίας εβδομάδας
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
θα παράξει έργο 20.000 ετών σε επίπεδο ανθρώπινης διάνοιας,
07:58
week after week after week.
158
478400
1960
και το ίδιο θα κάνει κάθε επόμενη εβδομάδα.
08:01
How could we even understand, much less constrain,
159
481640
3096
Πώς μπορούμε να καταλάβουμε, πολύ δε περισσότερο να περιορίσουμε,
08:04
a mind making this sort of progress?
160
484760
2280
έναν εγκέφαλο που κάνει τέτοια πρόοδο;
08:08
The other thing that's worrying, frankly,
161
488840
2136
Για να πω την αλήθεια, είναι επίσης ανησυχητικό
08:11
is that, imagine the best case scenario.
162
491000
4976
να φανταστούμε το καλύτερο δυνατό σενάριο.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Φανταστείτε να βρούμε ένα σχέδιο υπερεφυούς τεχνητής νοημοσύνης
που δεν έχει θέματα ασφάλειας.
08:20
that has no safety concerns.
164
500200
1376
08:21
We have the perfect design the first time around.
165
501600
3256
Θα έχουμε βρει το τέλειο σχέδιο για πρώτη φορά.
08:24
It's as though we've been handed an oracle
166
504880
2216
Θα είναι σαν να μας έχει δοθεί ένα μαντείο
08:27
that behaves exactly as intended.
167
507120
2016
που λειτουργεί ακριβώς όπως πρέπει.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Αυτή θα ήταν η τέλεια μηχανή εξοικονόμησης έργου.
08:33
It can design the machine that can build the machine
169
513680
2429
Θα σχεδιάσει τη μηχανή που θα κατασκευάσει τη μηχανή
08:36
that can do any physical work,
170
516133
1763
που θα κάνει κάθε σωματική εργασία,
08:37
powered by sunlight,
171
517920
1456
τροφοδοτούμενη από τον ήλιο,
08:39
more or less for the cost of raw materials.
172
519400
2696
με μόνο κόστος αυτό των πρώτων υλών.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Έτσι μιλάμε για το τέλος της ανθρώπινης αγγαρείας.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Επίσης μιλάμε για το τέλος της περισσότερης διανοητικής εργασίας.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Τι θα κάνουν οι πίθηκοι όπως εμείς σε αυτή την περίπτωση;
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Θα έχουμε χρόνο να παίζουμε φρίσμπι και να κάνουμε μασάζ ο ένας στον άλλον.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Προσθέστε λίγο LSD και κάποιες αμφίβολες επιλογές ένδυσης,
09:00
and the whole world could be like Burning Man.
178
540720
2176
κι όλος ο κόσμος θα μοιάζει με φεστιβάλ Burning Man.
09:02
(Laughter)
179
542920
1640
(Γέλια)
09:06
Now, that might sound pretty good,
180
546320
2000
Μπορεί βέβαια να ακούγεται αρκετά καλό,
09:09
but ask yourself what would happen
181
549280
2376
αλλά αναρωτηθείτε τι θα συνέβαινε
09:11
under our current economic and political order?
182
551680
2736
με την τωρινή οικονομική και πολιτική κατάσταση;
09:14
It seems likely that we would witness
183
554440
2416
Μοιάζει πιθανό ότι θα βιώσουμε
09:16
a level of wealth inequality and unemployment
184
556880
4136
ένα επίπεδο ανισότητας πλούτου και ανεργίας
που δεν έχουμε ξαναδεί.
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Αν απουσιάσει η θέληση να βάλουμε άμεσα αυτόν τον πλούτο
09:25
to the service of all humanity,
187
565200
1480
στην υπηρεσία όλης της ανθρωπότητας,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν τα εξώφυλλα των οικονομικών περιοδικών,
09:31
while the rest of the world would be free to starve.
189
571280
2440
ενώ ο υπόλοιπος κόσμος θα είναι ελεύθερος να λιμοκτονήσει.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι
09:36
if they heard that some company in Silicon Valley
191
576640
2616
αν μάθουν ότι μια εταιρεία στη Σίλικον Βάλεϊ
09:39
was about to deploy a superintelligent AI?
192
579280
2736
πρόκειται να κυκλοφορήσει μια υπερευφυή τεχνητή νοημοσύνη;
09:42
This machine would be capable of waging war,
193
582040
2856
Αυτή η μηχανή θα μπορούσε να κηρύξει πόλεμο,
09:44
whether terrestrial or cyber,
194
584920
2216
είτε συμβατικό είτε σε επίπεδο υπολογιστών,
09:47
with unprecedented power.
195
587160
1680
με ισχύ άνευ προηγουμένου.
09:50
This is a winner-take-all scenario.
196
590120
1856
Είναι ένα σενάριο όπου κερδίζει μόνο ένας.
09:52
To be six months ahead of the competition here
197
592000
3136
Όταν προηγείσαι εδώ έξι μήνες από τον ανταγωνισμό,
09:55
is to be 500,000 years ahead,
198
595160
2776
είναι σαν να είσαι 500.000 χρόνια μπροστά
09:57
at a minimum.
199
597960
1496
κατά το ελάχιστο.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Άρα φαίνεται ότι ακόμη και απλές φήμες για κάτι τόσο επαναστατικό
10:04
could cause our species to go berserk.
201
604240
2376
θα έκανε το είδος μας να τρελαθεί.
10:06
Now, one of the most frightening things,
202
606640
2896
Ένα από τα πιο τρομακτικά πράγματα,
10:09
in my view, at this moment,
203
609560
2776
κατά την άποψή μου, αυτή τη στιγμή,
10:12
are the kinds of things that AI researchers say
204
612360
4296
είναι αυτά που λένε οι ερευνητές της τεχνητής νοημοσύνης
10:16
when they want to be reassuring.
205
616680
1560
όταν θέλουν να μας καθησυχάσουν.
Κι ο πιο κοινός λόγος που προβάλλουν για να μην ανησυχούμε είναι ο χρόνος.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
10:22
This is all a long way off, don't you know.
207
622480
2056
Αυτό είναι πολύ μακριά, δεν το βλέπετε;
10:24
This is probably 50 or 100 years away.
208
624560
2440
Είναι περίπου 50 ή 100 χρόνια μετά.
10:27
One researcher has said,
209
627720
1256
Ένας ερευνητής έχει πει,
«Ανησυχώντας για ασφάλεια στην τεχνητή νοημοσύνη
10:29
"Worrying about AI safety
210
629000
1576
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
είναι σαν να ανησυχούμε για υπερπληθυσμό στον Άρη».
10:34
This is the Silicon Valley version
212
634116
1620
Αυτό είναι η έκδοση της Σίλικον Βάλεϊ
10:35
of "don't worry your pretty little head about it."
213
635760
2376
του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
10:38
(Laughter)
214
638160
1336
(Γέλια)
10:39
No one seems to notice
215
639520
1896
Κανείς δεν φαίνεται να βλέπει
10:41
that referencing the time horizon
216
641440
2616
ότι η αναφορά στον χρονικό ορίζοντα
10:44
is a total non sequitur.
217
644080
2576
είναι τελείως ανακόλουθη.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Αν η ευφυΐα είναι απλώς θέμα επεξεργασίας της πληροφορίας,
10:49
and we continue to improve our machines,
219
649960
2656
και συνεχίζουμε να βελτιώνουμε τις μηχανές μας,
10:52
we will produce some form of superintelligence.
220
652640
2880
σίγουρα θα δημιουργήσουμε κάποια μορφή υπερευφυΐας.
10:56
And we have no idea how long it will take us
221
656320
3656
Και δεν ξέρουμε πόσο χρόνο θα μας πάρει
να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια.
11:00
to create the conditions to do that safely.
222
660000
2400
11:04
Let me say that again.
223
664200
1296
Να το πω πάλι.
11:05
We have no idea how long it will take us
224
665520
3816
Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει
11:09
to create the conditions to do that safely.
225
669360
2240
να δημιουργήσουμε τις συνθήκες ώστε να το κάνουμε με ασφάλεια.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Κι αν δεν το έχετε προσέξει, τα 50 χρόνια δεν είναι αυτό που ήταν.
11:16
This is 50 years in months.
227
676400
2456
Αυτό είναι 50 χρόνια σε μήνες.
11:18
This is how long we've had the iPhone.
228
678880
1840
Τόσον καιρό έχουμε το iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Τόσον καιρό παίζονται οι Σίμπσονς στην τηλεόραση.
11:24
Fifty years is not that much time
230
684680
2376
Τα 50 χρόνια δεν είναι τόσο πολλά
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
για μια από τις μεγαλύτερες προκλήσεις που θα αντιμετωπίσει το είδος μας.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Και πάλι - αδυνατούμε να επιδείξουμε κατάλληλη συναισθηματική απόκριση
11:35
to what we have every reason to believe is coming.
233
695680
2696
σε κάτι που έχουμε κάθε λόγο να πιστεύουμε ότι θα έρθει.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ έχει μια ωραία αναλογία γι' αυτό.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Είπε, φανταστείτε ότι λάβαμε μήνυμα από εξωγήινο πολιτισμό,
11:47
which read:
236
707320
1696
που έλεγε:
11:49
"People of Earth,
237
709040
1536
«Άνθρωποι της Γης,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
θα φτάσουμε στον πλανήτη σας σε 50 χρόνια.
11:53
Get ready."
239
713800
1576
Ετοιμαστείτε».
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Και τώρα απλώς μετράμε αντίστροφα τον χρόνο μέχρι να έρθει το διαστημόπλοιο.
11:59
We would feel a little more urgency than we do.
241
719680
3000
Θα το νιώθαμε ως κάτι λίγο πιο επιτακτικό από ό,τι τώρα.
12:04
Another reason we're told not to worry
242
724680
1856
Μας λένε επίσης να μην ανησυχούμε,
12:06
is that these machines can't help but share our values
243
726560
3016
γιατί οι μηχανές δεν μπορούν παρά να έχουν τις δικές μας αξίες,
12:09
because they will be literally extensions of ourselves.
244
729600
2616
καθώς κυριολεκτικά είναι προέκταση των εαυτών μας.
12:12
They'll be grafted onto our brains,
245
732240
1816
Θα συνδεθούν στον εγκέφαλό μας
12:14
and we'll essentially become their limbic systems.
246
734080
2360
και βασικά θα γίνουμε το μεταιχμιακό τους σύστημα.
12:17
Now take a moment to consider
247
737120
1416
Σκεφτείτε για ένα λεπτό
12:18
that the safest and only prudent path forward,
248
738560
3176
ότι ο ασφαλέστερος και ο μόνος συνετός δρόμος προς τα εμπρός
12:21
recommended,
249
741760
1336
που προτείνεται,
είναι να εμφυτεύσουμε αυτή την τεχνολογία απευθείας στον εγκέφαλό μας.
12:23
is to implant this technology directly into our brains.
250
743120
2800
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Βέβαια, μπορεί να είναι ο ασφαλέστερος και ο μόνος συνετός δρόμος,
αλλά συνήθως οι ανησυχίες για την ασφάλεια μιας τεχνολογίας
12:30
but usually one's safety concerns about a technology
252
750000
3056
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
πρέπει να έχουν επιλυθεί πριν την εμφυτεύσουμε στο κεφάλι μας.
12:36
(Laughter)
254
756760
2016
(Γέλια)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
Το βαθύτερο πρόβλημα είναι ότι φαίνεται ευκολότερο
να φτάξεις ένα μεμονωμένο σύστημα τεχνητής νοημοσύνης,
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
από το να φτιάξεις ένα σύστημα
12:47
and having the completed neuroscience
258
767800
1776
και να έχεις και επαρκή νευροεπιστήμη
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
που να επιτρέπει την εύκολη ενσωμάτωσή του στον εγκέφαλό μας.
12:52
And given that the companies and governments doing this work
260
772800
3176
Και δεδομένου ότι οι κυβερνήσεις και εταιρείες που θα το κάνουν
είναι πιθανόν θα θεωρούν ότι ανταγωνίζονται όλους τους άλλους,
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
12:59
given that to win this race is to win the world,
262
779680
3256
εφόσον όποιος το κάνει πρώτος θα κυριαρχήσει στον κόσμο,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
με την προϋπόθεση ότι δεν θα τον καταστρέψει αμέσως μετά,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
τότε μοιάζει πιθανό
ότι θα γίνει πρώτο οτιδήποτε γίνεται πιο εύκολα.
13:08
will get done first.
265
788080
1200
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Δυστυχώς δεν έχω κάποια λύση γι' αυτό το πρόβλημα,
13:13
apart from recommending that more of us think about it.
267
793440
2616
εκτός από το να συστήσω να το ξανασκεφτούμε οι περισσότεροι.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Νομίζω ότι χρειαζόμαστε κάτι σαν το Πρόγραμμα Μανχάταν
13:18
on the topic of artificial intelligence.
269
798480
2016
προσαρμοσμένο για την τεχνητή νοημοσύνη.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Όχι για να την φτιάξουμε, γιατί μάλλον είναι αναπόφευκτο,
13:23
but to understand how to avoid an arms race
271
803280
3336
αλλά να καταλάβουμε πώς να αποφύγουμε έναν αγώνα εξοπλισμών
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
και να την φτιάξουμε έτσι που να συμβαδίζει με τα συμφέροντά μας.
13:30
When you're talking about superintelligent AI
273
810160
2136
Όταν μιλάτε για υπερευφυή τεχνητή νοημοσύνη
13:32
that can make changes to itself,
274
812320
2256
που μπορεί να τροποποιήσει τον εαυτό της,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
φαίνεται ότι έχουμε μόνο μία πιθανότητα να ορίσουμε τις σωστές προϋποθέσεις,
13:39
and even then we will need to absorb
276
819240
2056
και ακόμη και τότε θα χρειαστεί να απορροφήσουμε
13:41
the economic and political consequences of getting them right.
277
821320
3040
τις οικονομικές και πολιτικές συνέπειες της σωστής εφαρμογής.
13:45
But the moment we admit
278
825760
2056
Αλλά μόλις παραδεχθούμε
13:47
that information processing is the source of intelligence,
279
827840
4000
ότι η επεξεργασία πληροφοριών είναι η πηγή της ευφυΐας,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
ότι η βάση της ευφυΐας είναι κάποιο κατάλληλο υπολογιστικό σύστημα,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
και αποδεχθούμε να βελτιώνουμε αυτά τα συστήματα συνεχώς,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
και παραδεχθούμε ότι ο γνωστικός ορίζοντας μάλλον ξεπερνά κατά πολύ
14:07
what we currently know,
283
847760
1200
όσα ήδη γνωρίζουμε,
14:10
then we have to admit
284
850120
1216
τότε πρέπει να παραδεχθούμε
14:11
that we are in the process of building some sort of god.
285
851360
2640
ότι βρισκόμαστε σε διαδικασία κατασκευής κάποιου είδους θεού.
14:15
Now would be a good time
286
855400
1576
Τώρα είναι η σωστή ώρα
να εξασφαλίσουμε ότι είναι ένας θεός με τον οποίον μπορούμε να ζήσουμε.
14:17
to make sure it's a god we can live with.
287
857000
1953
14:20
Thank you very much.
288
860120
1536
Σας ευχαριστώ πολύ.
14:21
(Applause)
289
861680
5093
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7