How will AI change the world?

1,773,057 views ・ 2022-12-06

TED-Ed


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Nikolaos Kyriakidis Επιμέλεια: Vaia Katsarou
Τα επόμενα χρόνια η Τεχνητή Νοημοσύνη,
00:07
In the coming years, artificial intelligence
0
7336
2169
ενδεχομένως, να αλλάξει τη ζωή σας και μάλλον ολόκληρο τον κόσμο.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Δυσκολευόμαστε, βέβαια, να συμφωνήσουμε με ποιον τρόπο θα γίνει.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Ακολουθούν αποσπάσματα από μια συνέντευξη στο Παγκόσμιο Οικονομικό Φόρουμ,
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
του γνωστού καθηγητή πληροφορικής και ειδικού στην ΤΝ, Στιούαρτ Ράσελ,
00:22
helps separate the sense from the nonsense.
5
22435
2586
που μας βοηθά να ξεχωρίσουμε το λογικό από το παράλογο.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Υπάρχει μεγάλη διαφορά ανάμεσα στο να ζητήσετε από άνθρωπο να κάνει κάτι
00:29
and giving that as the objective to an AI system.
7
29067
3461
και να δώσετε αυτό το κάτι σε ένα σύστημα ΤΝ να το κάνει.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Όταν ζητάτε από έναν άνθρωπο να σας φέρει έναν καφέ,
δεν ενοείτε ότι αυτό θα πρέπει να γίνει ο στόχος ζωής του,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
00:37
and nothing else in the universe matters.
10
37742
1960
και τίποτε άλλο δεν έχει σημασία,
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
ακόμη και αν χρειαστεί να σκοτώσει τους πάντες στα Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
για να σας φέρει τον καφέ πριν κλείσει το κατάστημα.
00:45
No, that’s not what you mean.
13
45124
1627
Όχι, δεν σημαίνει αυτό.
00:46
All the other things that we mutually care about,
14
46751
2294
Σημαίνει ότι όλα τα άλλα πράγματα τα οποία μας ενδιαφέρουν
00:49
they should factor into your behavior as well.
15
49045
2169
θα πρέπει να ληφθούν υπόψη.
Το πρόβλημα με τον τρόπο που φτιάχνουμε συστήματα ΤΝ σήμερα
00:51
And the problem with the way we build AI systems now
16
51214
3169
είναι ότι τους δίνουμε ένα πολύ συγκεκριμένο στόχο.
00:54
is we give them a fixed objective.
17
54383
1627
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Οι αλγόριθμοι μας ζητούν τα πάντα να είναι συγκεκριμένα στον στόχο.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Αν πείτε: «Μπορούμε να διορθώσουμε την οξίνιση των ωκεανών;»
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Ναι, μπορούμε με μια καταλυτική αντίδραση που θα ήταν εξαιρετικά αποτελεσματική,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
αλλά θα κατανάλωνε το ένα τέταρτο του οξυγόνου της ατμόσφαιρας,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
πράγμα που, προφανώς, θα μας σκότωνε αρκετά αργά και δυσάρεστα,
01:13
over the course of several hours.
23
73986
1752
μέσα σε μερικές ώρες.
01:15
So, how do we avoid this problem?
24
75780
3211
Πώς αποφεύγουμε αυτό το πρόβλημα, τότε;
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Θα λέγατε, εντάξει, ας είμαστε προσεκτικοί με τη συγκεκριμενοποίηση του στόχου,
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
ας μην ξοδέψουμε όλο το οξυγόνο της ατμόσφαιρας.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Τότε, φυσικά, κάποια παρενέργεια της αντίδρασης στη θάλασσα
01:29
poisons all the fish.
28
89418
1377
θα δηλητηρίαζε όλα τα ψάρια.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Βασικά, δεν εννοούσαμε να σκοτωθούν ούτε τα ψάρια.
01:33
And then, well, what about the seaweed?
30
93464
1919
Τότε, μήπως τα φύκια;
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Όχι, ούτε να κάνουμε κάτι που θα σκοτώσει όλα τα φύκια.
01:38
And on and on and on.
32
98344
1210
Και ούτω καθ′ εξής.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Ο λόγος που δεν χρειάζεται να το κάνουμε αυτό με ανθρώπους είναι ότι
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
οι άνθρωποι, συχνά, ξέρουν ότι δεν ξέρουν όλα τα πράγμα που μας ενδιαφέρουν.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Αν ζητήσετε από έναν άνθρωπο να σας φέρει έναν καφέ,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
και τυχαίνει να βρίσκεστε στο ξενοδοχείο George Sand του Παρισιού,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
όπου ένας καφές κάνει 13 ευρώ,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
απολύτως λογικά θα επιστρέψει και θα σας πει:
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
«Κάνει 13 ευρώ, σίγουρα τον θέλεις ή να πάω παραδίπλα να σου πάρω έναν;»
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Είναι απολύτως λογικό να το κάνει ένας άνθρωπος αυτό.
Αν θέλω να βάψω το σπίτι σας θα ρωτήσω:
02:07
To ask, I’m going to repaint your house—
41
127039
3003
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
«Πειράζει αν βγάλω τις σωληνώσεις και τις ξαναβάλω μετά;»
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Δεν το θεωρούμε αυτό τρομερά περίπλοκη ικανότητα,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
αλλά τα συστήματα ΤΝ δεν την έχουν, γιατί όπως τα φτιάχνουμε τώρα,
02:19
they have to know the full objective.
45
139719
1793
πρέπει να γνωρίζουν τον πλήρη το στόχο.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Αν φτιάξουμε συστήματα που να ξέρουν ότι δεν ξέρουν ποιος είναι ο στόχος,
02:25
then they start to exhibit these behaviors,
47
145474
2586
αρχίζουν να συμπεριφέρονται
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
σαν να ζητούν άδεια πριν εξαντλήσουν όλο το οξυγόνο της ατμόσφαιρας.
02:32
In all these senses, control over the AI system
49
152565
3378
Με αυτή την έννοια, ο έλεγχος σε ένα σύστημα ΤΝ προκύπτει
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
από την αβεβαιότητα της μηχανής για το ποιος είναι ο πραγματικός στόχος.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Όταν φτιάχνεις μηχανές που πιστεύουν με βεβαιότητα
02:44
that they have the objective,
52
164368
1418
ότι κατέχουν το στόχο,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
τότε εντοπίζεις αυτού του είδους την ψυχοπαθητική συμπεριφορά.
02:48
And I think we see the same thing in humans.
54
168539
2127
Νομίζω πως βλέπουμε το ίδιο πράγμα στους ανθρώπους.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Τι συμβαίνει όταν μια ΤΝ γενικού σκοπού χτυπάει την πραγματική οικονομία;
02:55
How do things change? Can we adapt?
56
175379
3587
Πώς αλλάζουν τα πράγματα; Μπορούμε να προσαρμοστούμε;
02:59
This is a very old point.
57
179175
1835
Αυτό είναι ένα πολύ παλιό θέμα.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Είναι απίστευτο ότι ο Αριστοτέλης γράφει
03:04
look, if we had fully automated weaving machines
59
184597
3045
ότι αν είχαμε πλήρως αυτόματες κλωστοϋφαντουργικές μηχανές
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
και πένες που θα έπαιζαν μουσική χωρίς ανθρώπους,
03:11
then we wouldn’t need any workers.
61
191604
2002
τότε δε θα χρειαζόμασταν καθόλου εργάτες.
03:13
That idea, which I think it was Keynes
62
193814
2878
Η ιδέα αυτή, η οποία είναι του Κέυνς, νομίζω,
03:16
who called it technological unemployment in 1930,
63
196692
2836
ο οποίος την αποκάλεσε τεχνολογική ανεργία, το 1930,
03:19
is very obvious to people.
64
199528
1919
είναι πολύ προφανής στον κόσμο.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Πιστεύουν πως, ναι, φυσικά, αν η μηχανή κάνει τη δουλειά,
03:24
then I'm going to be unemployed.
66
204533
1669
τότε θα μείνω άνεργος.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Σκεφτείτε τις αποθήκες που χρησιμοποιούν σήμερα οι εταιρείες
03:29
for e-commerce, they are half automated.
68
209872
2711
για το ηλεκτρονικό εμπόριο, είναι ημι-αυτόματες.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Πώς δουλεύει αυτό: Σε μια παλιά αποθήκη, όπου υπάρχουν στοίβες από πράγματα παντού,
03:36
all over the place and humans go and rummage around
70
216629
2461
οι άνθρωποι πάνε και ψαχουλεύουν,
βρίσκουν αυτό που θέλουν και το στέλνουν.
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
Υπάρχει ένα ρομπότ που πάει και παίρνει από το ράφι αποθήκευσης
03:44
that contains the thing that you need,
73
224553
1919
το αντικείμενο που χρειάζεστε,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
αλλά ο άνθρωπος πρέπει να μαζέψει το αντικείμενο από τον κάδο ή από το ράφι,
03:50
because that’s still too difficult.
75
230101
1877
γιατί παραμένει δύκολο.
03:52
But, at the same time,
76
232019
2002
Αλλά, όμως,
θα φτιάχνατε ένα ρομπότ αρκετά ικανό ώστε να επιλέξει
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
σχεδόν οτιδήποτε αντικείμενο ανάμεσα σε χιλιάδες;
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Θα καταργούσε 3 ή 4 εκατομμύρια δουλειές διά μιας;
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
Ο Ε. Μ. Φόρστερ έγραψε μια ενδιαφέρουσα ιστορία,
04:09
where everyone is entirely machine dependent.
81
249745
3504
στην οποία όλοι εξαρτώνται πλήρως από τις μηχανές.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Η ιστορία στην πραγματικότητα μιλάει για το γεγονός ότι αν αφήναμε
04:17
the management of your civilization to machines,
83
257253
2961
να διαχειριστούν τον πολιτισμό μας οι μηχανές,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
θα χάναμε το κίνητρο να τον κατανοήσουμε εμείς οι ίδιοι,
04:23
or to teach the next generation how to understand it.
85
263718
2544
ή να διδάξουμε την επόμενη γενιά το πώς να τον κατανοήσει.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Δείτε το σαν τη σύγχρονη εκδοχή της ταινίας «WALL-E»
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
όπου όλοι είναι αποδυναμωμένοι και οι μηχανές τους φέρονται σαν σε νήπια,
04:32
and that hasn’t been possible up to now.
88
272893
1961
πράγμα που δεν ήταν δυνατό μέχρι τώρα.
04:34
We put a lot of our civilization into books,
89
274854
2419
Μεγάλο μέρος του πολιτισμού μας βρίσκεται στα βιβλία,
04:37
but the books can’t run it for us.
90
277273
1626
αλλά τα βιβλία δεν θα τον δημιουργήσουν αντί για μας.
04:38
And so we always have to teach the next generation.
91
278899
2795
Εμείς πρέπει να διδάξουμε την επόμενη γενιά.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Αν το υπολογίσετε, είναι περίπου ένα τρισ. έτη διδασκαλίας και μάθησης,
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
μια συνεχής αλυσίδα που πάει πίσω δεκάδες χιλιάδες γενιές.
Τι θα γίνει αν η αλυσίδα σπάσει;
04:50
What happens if that chain breaks?
94
290119
1919
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Νομίζω ότι πρέπει να καταλάβουμε κάτι όσο η ΤΝ προχωράει.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Η πραγματική ημερομηνία άφιξης της ΤΝ γενικού σκοπού,
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
δεν θα είναι μια συγκεκριμένη μέρα.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Δεν ισχύει, επίσης, ότι είναι όλα ή τίποτα.
05:04
The impact is going to be increasing.
99
304592
2461
Η επίδρασή της θα είναι ολοένα σημαντικότερη.
05:07
So with every advance in AI,
100
307053
2043
Έτσι, με κάθε πρόοδο της ΤΝ,
05:09
it significantly expands the range of tasks.
101
309096
2962
το εύρος των εφαρμογών της μεγαλώνει σημαντικά.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Με αυτήν την έννοια, οι περισσότεροι ειδικοί λένε ότι μέχρι το τέλος του αιώνα
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
πολύ πιθανόν να έχουμε ΤΝ γενικού σκοπού.
05:20
The median is something around 2045.
104
320733
3754
Η μέση εκτίμηση είναι γύρω στο 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Εγώ τείνω να είμαι λίγο πιο συντηρητικός.
05:26
I think the problem is harder than we think.
106
326489
2085
Το πρόβλημα είναι δυσκολότερο απ′ όσο νομίζουμε.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Μου αρέσει ότι ο Τζον Μακάφι, ένας εκ των ιδρυτών της ΤΝ,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
όταν ρωτήθηκε, είπε, περίπου ανάμεσα σε 5 και 500 χρόνια.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
Θα χρειαστούμε, βέβαια, αρκετούς Αϊνστάιν για να το καταφέρουμε.

Original video on YouTube.com
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7