Damon Horowitz calls for a "moral operating system"

92,160 views ・ 2011-06-06

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Konstantinos Agas Επιμέλεια: Leonidas Argyros
00:15
Power.
0
15260
2000
Δύναμη.
00:17
That is the word that comes to mind.
1
17260
2000
Αυτή η λέξη έρχεται στο μυαλό.
00:19
We're the new technologists.
2
19260
2000
Είμαστε οι νέοι τεχνολόγοι.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Έχουμε πολλά δεδομένα, επομένως έχουμε μεγάλη δύναμη.
00:24
How much power do we have?
4
24260
2000
Πόση δύναμη έχουμε;
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Σκηνή από την ταινία "Αποκάλυψη Τώρα" -- σπουδαία ταινία.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Πρέπει να πάμε τον ήρωά μας, το λοχαγό Γουίλαρντ στις εκβολές του ποταμού Nανγκ
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
ώστε να καταδιώξει τον ταγματάρχη Κερτς.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Ο τρόπος που θα το κάνουμε είναι να τον "πετάξουμε" και να τον αφήσουμε.
00:36
So the scene:
9
36260
2000
Οπότε η σκηνή:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
ο ουρανός είναι γεμάτος με αυτό το στόλο από ελικόπτερα που τον μεταφέρουν.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Και υπάρχει αυτή η δυνατή, συγκλονιστική μουσική στο φόντο,
00:43
this wild music.
12
43260
2000
αυτή η άγρια μουσική.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
00:47
♫ Dum da ta da dum ♫
14
47260
2000
00:49
♫ Da ta da da ♫
15
49260
3000
00:52
That's a lot of power.
16
52260
2000
Μεγάλη δύναμη.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Είναι αυτό το είδος της δύναμης που αισθάνομαι σ΄αυτό το δωμάτιο.
00:56
That's the kind of power we have
18
56260
2000
Αυτό το είδος της δύναμης που έχουμε
00:58
because of all of the data that we have.
19
58260
2000
εξ΄αιτίας όλων των δεδομένων που έχουμε.
01:00
Let's take an example.
20
60260
2000
Ας πάρουμε ένα παράδειγμα.
01:02
What can we do
21
62260
2000
Τι μπορούμε να κάνουμε
01:04
with just one person's data?
22
64260
3000
με τα δεδομένα ενός ατόμου;
01:07
What can we do
23
67260
2000
Τι μπορούμε να κάνουμε
01:09
with that guy's data?
24
69260
2000
με τα δεδομένα αυτού του ανθρώπου;
01:11
I can look at your financial records.
25
71260
2000
Μπορώ να κοιτάξω τα οικονομικά σου στοιχεία.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Μπορώ να πω αν πληρώνεις έγκαιρα τους λογαριασμούς σου.
01:15
I know if you're good to give a loan to.
27
75260
2000
Ξέρω αν μπορείς να πάρεις ένα δάνειο.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Μπορώ να κοιτάξω στο ιατρικό σου ιστορικό, μπορώ να δώ αν η καρδιά σου δουλεύει ακόμη --
01:20
see if you're good to offer insurance to.
29
80260
3000
να δω αν είσαι καλός πελάτης για ασφάλεια.
01:23
I can look at your clicking patterns.
30
83260
2000
Μπορώ να κοιτάξω που κλικάρεις.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Όταν έρχεσαι στην ιστοσελίδα μου, στην πραγματικότητα ξέρω από πριν τι θα κάνεις,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
επειδή σε έχω δει να επισκέπτεσαι εκατομμύρια ιστοσελίδες.
01:30
And I'm sorry to tell you,
33
90260
2000
Και λυπάμαι που στο λέω.
01:32
you're like a poker player, you have a tell.
34
92260
2000
αλλά είσαι σαν ένας παίχτης του πόκερ, έχεις συγκεκριμένο τρόπο σκέψης.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Μπορώ να προβλέψω, μέσω ανάλυσης δεδομένων, τι πρόκειται να κάνεις
01:36
before you even do it.
36
96260
2000
πριν το κάνεις.
01:38
I know what you like. I know who you are,
37
98260
3000
Ξέρω τι σου αρέσει. Ξέρω ποιος είσαι.
01:41
and that's even before I look at your mail
38
101260
2000
Κι αυτό πριν ακόμη κοιτάξω την αλληλογραφία σου
01:43
or your phone.
39
103260
2000
ή το τηλέφωνό σου.
01:45
Those are the kinds of things we can do
40
105260
2000
Τέτοια πράγματα μπορούμε να κάνουμε
01:47
with the data that we have.
41
107260
3000
με τα δεδομένα που έχουμε.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Αλλά, στην πραγματικότητα, δεν είμαι εδώ για να σας πω τι μπορούμε να κάνουμε.
01:56
I'm here to talk about what we should do.
43
116260
3000
Είμαι εδώ για να σας πω τι πρέπει να κάνουμε.
02:00
What's the right thing to do?
44
120260
3000
Ποιο είναι το σωστό;
02:04
Now I see some puzzled looks
45
124260
2000
Τώρα βλέπω μερικά απορημένα βλέμματα
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
όπως, "Γιατί ρωτάς εμάς ποιο είναι το σωστό που πρέπει να κάνουμε;
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Εμείς απλώς φτιάχνουμε αυτά τα πράγματα. Κάποιος άλλος τα χρησιμοποιεί."
02:12
Fair enough.
48
132260
3000
Αρκετά δίκαιο.
02:15
But it brings me back.
49
135260
2000
Αλλά με κάνει να θυμηθώ.
02:17
I think about World War II --
50
137260
2000
Θυμάμαι το Β' Παγκόσμιο Πόλεμο --
02:19
some of our great technologists then,
51
139260
2000
κάποιοι από τους καλύτερους τεχνολόγους μας τότε,
02:21
some of our great physicists,
52
141260
2000
κάποιοι από τους καλύτερους φυσικούς μας,
02:23
studying nuclear fission and fusion --
53
143260
2000
μελετούσαν την πυρηνική σχάση και τήξη --
02:25
just nuclear stuff.
54
145260
2000
και άλλα πυρηνικά θέματα.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Μαζεύουμε αυτούς τους φυσικούς στο Λος Άλαμος
02:30
to see what they'll build.
56
150260
3000
για να δούμε τι μπορούν να φτιάξουν.
02:33
We want the people building the technology
57
153260
3000
Θέλουμε τους ανθρώπους που φτιάχνουν την τεχνολογία
02:36
thinking about what we should be doing with the technology.
58
156260
3000
να σκέφτονται τι θα έπρεπε να κάνουμε με την τεχνολογία.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Οπότε, τι πρέπει να κάνουμε με τα δεδομένα αυτού του ανθρώπου;
02:44
Should we be collecting it, gathering it,
60
164260
3000
Θα έπρεπε να τα συλλέγουμε και να τα μαζεύουμε,
02:47
so we can make his online experience better?
61
167260
2000
ώστε να κάνουμε τη διαδικτυακή του εμπειρία καλύτερη;
02:49
So we can make money?
62
169260
2000
Ώστε να βγάζουμε πιο πολλά χρήματα;
02:51
So we can protect ourselves
63
171260
2000
Ώστε να μπορούμε να προστατέψουμε τους εαυτούς μας
02:53
if he was up to no good?
64
173260
2000
αν δεν είχε καλούς σκοπούς;
02:55
Or should we respect his privacy,
65
175260
3000
Ή πρέπει να σεβαστούμε την προσωπική του ζωή,
02:58
protect his dignity and leave him alone?
66
178260
3000
να προστατέψουμε την αξιοπρέπειά του και να τον αφήσουμε μόνο του;
03:02
Which one is it?
67
182260
3000
Τι πρέπει να κάνουμε;
03:05
How should we figure it out?
68
185260
2000
Πώς θα το καταλάβουμε;
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Ξέρω - ας ψηφίσουμε.
03:11
So to get people warmed up,
70
191260
3000
Οπότε για να ζεσταθούμε,
03:14
let's start with an easy question --
71
194260
2000
ας ξεκινήσουμε με μια εύκολη ερώτηση --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
κάτι για το οποίο είμαι σίγουρος ότι όλοι εδώ έχουμε άποψη:
03:19
iPhone versus Android.
73
199260
2000
iPhone εναντίον Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Ας σηκώσουμε χέρια -- iPhone.
03:24
Uh huh.
75
204260
2000
Αχά.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Θα περίμενες ότι τόσο έξυπνοι άνθρωποι
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
δε θα πέφταμε σα χαζοί στα ωραία τηλέφωνα.
03:33
(Laughter)
79
213260
2000
(Γέλια)
03:35
Next question,
80
215260
2000
Επόμενη ερώτηση,
03:37
a little bit harder.
81
217260
2000
λίγο πιο δύσκολη.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Θα έπρεπε να συλλέγουμε τα δεδομένα αυτού του ανθρώπου
03:41
to make his experiences better
83
221260
2000
για να κάνουμε καλύτερες τις εμπειρίες του
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
και να προστατέψουμε τον εαυτό μας, σε περίπτωση που έχει κακό σκοπό;
03:46
Or should we leave him alone?
85
226260
2000
Ή πρέπει να τον αφήσουμε ήσυχο;
03:48
Collect his data.
86
228260
3000
Να συλλέξουμε τα δεδομένα.
03:53
Leave him alone.
87
233260
3000
Να τον αφήσουμε ήσυχο.
03:56
You're safe. It's fine.
88
236260
2000
Είσαι ασφαλής. Εντάξει.
03:58
(Laughter)
89
238260
2000
(Γέλια)
04:00
Okay, last question --
90
240260
2000
Ωραία, τελευταία ερώτηση --
04:02
harder question --
91
242260
2000
πιο δύσκολη --
04:04
when trying to evaluate
92
244260
3000
στην προσπάθεια να αξιολογήσουμε
04:07
what we should do in this case,
93
247260
3000
τι θα έπρεπε να κάνουμε σε αυτήν την περίπτωση,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
θα έπρεπε να χρησιμοποιήσουμε ένα Καντιανό δεοντολογικό ηθικό πλαίσιο,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
ή ένα Μιλλιανό τελεολογικό;
04:19
Kant.
96
259260
3000
Καντ.
04:22
Mill.
97
262260
3000
Μιλ.
04:25
Not as many votes.
98
265260
2000
Όχι τόσες πολλές ψήφοι.
04:27
(Laughter)
99
267260
3000
(Γέλια)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Αυτό είναι ένα τρομακτικό αποτέλεσμα.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Τρομακτικό, γιατί έχουμε πιο ισχυρές απόψεις
04:38
about our hand-held devices
102
278260
2000
για τις φορητές συσκευές μας
04:40
than about the moral framework
103
280260
2000
παρά για το ηθικό πλαίσιο
04:42
we should use to guide our decisions.
104
282260
2000
που πρέπει να χρησιμοποιήσουμε για να πάρουμε τις αποφάσεις μας.
04:44
How do we know what to do with all the power we have
105
284260
3000
Πώς θα ξέρουμε τι να κάνουμε με όλη αυτή τη δύναμη που έχουμε
04:47
if we don't have a moral framework?
106
287260
3000
αν δεν έχουμε ένα ηθικό πλαίσιο;
04:50
We know more about mobile operating systems,
107
290260
3000
Ξέρουμε περισσότερα για λειτουργικά συστήματα φορητών συσκευών,
04:53
but what we really need is a moral operating system.
108
293260
3000
αλλά αυτό που χρειαζόμαστε είναι ένα λειτουργικό σύστημα ηθικής.
04:58
What's a moral operating system?
109
298260
2000
Τι είναι ένα λειτουργικό σύστημα ηθικής;
05:00
We all know right and wrong, right?
110
300260
2000
Όλοι γνωρίζουμε το καλό από το κακό, δεν είναι έτσι;
05:02
You feel good when you do something right,
111
302260
2000
Αισθάνεσαι καλά όταν κάνεις κάτι σωστό,
05:04
you feel bad when you do something wrong.
112
304260
2000
αισθάνεσαι άσχημα όταν κάνεις κάτι λάθος.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Οι γονείς μας μαθαίνουν: έπαινος στο καλό, επίπληξη στο κακό.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Αλλά πώς καταλαβαίνουμε τι είναι σωστό και λάθος;
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Και σεκαθημερινή βάση έχουμε τεχνικές που χρησιμοποιούμε.
05:15
Maybe we just follow our gut.
116
315260
3000
Ίσως να χρησιμοποιήσουμε το ένστικτό μας.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Ίσως να ψηφίσουμε.
05:21
Or maybe we punt --
118
321260
2000
Ή ίσως απλώς να το ρίξουμε στα νομικά --
05:23
ask the legal department, see what they say.
119
323260
3000
να ρωτήσουμε το νομικό τμήμα να δούμε τι λένε.
05:26
In other words, it's kind of random,
120
326260
2000
Με άλλα λόγια, γίνεται περίπου στην τύχη,
05:28
kind of ad hoc,
121
328260
2000
περίπου κατά περίπτωση,
05:30
how we figure out what we should do.
122
330260
3000
το πως διαλέγουμε αυτό που πρέπει να κάνουμε.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Και ίσως, αν θέλουμε να πατήσουμε σε πιο στέρεο έδαφος,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
αυτό που χρειαζόμαστε στην πραγματικότητα είναι ένα ηθικό πλαίσιο που θα μας οδηγήσει,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
που θα μας πει καταρχάς ποια πράγματα είναι σωστά και λάθος,
05:42
and how would we know in a given situation what to do.
126
342260
4000
και πώς θα ξέρουμε σε μια δεδομένη στιγμή τι να κάνουμε.
05:46
So let's get a moral framework.
127
346260
2000
Οπότε ας βρούμε ένα ηθικό πλαίσιο.
05:48
We're numbers people, living by numbers.
128
348260
3000
Είμαστε άνθρωποι των αριθμών, ζούμε με τους αριθμούς.
05:51
How can we use numbers
129
351260
2000
Πώς μπορούμε να χρησιμοποιήσουμε τους αριθμούς
05:53
as the basis for a moral framework?
130
353260
3000
σα βάση για ένα ηθικό πλαίσιο;
05:56
I know a guy who did exactly that.
131
356260
3000
Ξέρω κάποιον που έκανε ακριβώς αυτό,
05:59
A brilliant guy --
132
359260
3000
Έναν πανέξυπνο τύπο --
06:02
he's been dead 2,500 years.
133
362260
3000
που έχει πεθάνει εδώ και 2500 χρόνια.
06:05
Plato, that's right.
134
365260
2000
Ο Πλάτωνας, αυτός είναι.
06:07
Remember him -- old philosopher?
135
367260
2000
Τον θυμάστε το γεροφιλόσοφο;
06:09
You were sleeping during that class.
136
369260
3000
Κοιμόσασταν σ΄αυτό το μάθημα.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Ο Πλάτωνας είχε πολλές από τις ίδιες ανησυχίες που έχουμε κι εμείς.
06:14
He was worried about right and wrong.
138
374260
2000
Τον απασχολούσε το σωστό και το λάθος.
06:16
He wanted to know what is just.
139
376260
2000
Ήθελε να μάθει τι είναι δίκαιο.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Αλλά τον απασχολούσε ότι αυτό που μοιάζουμε να κάνουμε
06:20
is trading opinions about this.
141
380260
2000
είναι να ανταλλάσουμε απόψεις γι αυτό.
06:22
He says something's just. She says something else is just.
142
382260
3000
Αυτός λέει ότι κάτι είναι δίκαιο. Αυτή λέει ότι κάτι άλλο είναι δίκαιο.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Είναι κάπως πειστικό όταν αυτός μιλά και όταν αυτή μιλά.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Απλώς πηγαίνω μπρος - πίσω. Δε φθάνω πουθενά.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Δε θέλω γνώμες, θέλω γνώση.
06:32
I want to know the truth about justice --
146
392260
3000
Θέλω να μάθω την αλήθεια για τη δικαιοσύνη --
06:35
like we have truths in math.
147
395260
3000
όπως έχουμες αλήθειες στα μαθηματικά.
06:38
In math, we know the objective facts.
148
398260
3000
Στα μαθηματικά, γνωρίζουμε τα αντικειμενικά δεδομένα.
06:41
Take a number, any number -- two.
149
401260
2000
Πάρτε ένα νούμερο, οποιοδήποτε νούμερο - δύο.
06:43
Favorite number. I love that number.
150
403260
2000
Ο αγαπημένος μου αριθμός. Μου αρέσει αυτός ο αριθμός.
06:45
There are truths about two.
151
405260
2000
Υπάρχουν αλήθειες για το δύο.
06:47
If you've got two of something,
152
407260
2000
Αν έχεις δύο από κάτι.
06:49
you add two more, you get four.
153
409260
2000
και προσθέσεις άλλα δύο παίρνεις τέσσερα.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Αυτό είναι αλήθεια ανεξάρτητα για ποιο πράγμα μιλάς.
06:53
It's an objective truth about the form of two,
155
413260
2000
Είναι μια αντικειμενική αλήθεια σχετικά με το δύο,
06:55
the abstract form.
156
415260
2000
την αόριστη μορφή του.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Όταν έχεις δύο από οτιδήποτε -- δύο μάτια, δύο αυτιά, δύο μύτες,
06:59
just two protrusions --
158
419260
2000
απλώς δύο προεξοχές --
07:01
those all partake of the form of two.
159
421260
3000
αυτές απαρτίζουν τη μορφή του δύο.
07:04
They all participate in the truths that two has.
160
424260
4000
Όλες παίρνουν μέρος στις αλήθειες που έχει το δύο.
07:08
They all have two-ness in them.
161
428260
2000
Όλες έχουν τη δυ-ότητα μέσα τους.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Και επομένως δεν είναι θέμα άποψης.
07:13
What if, Plato thought,
163
433260
2000
Τι θα γινόταν αν, σκέφτηκε ο Πλάτωνας,
07:15
ethics was like math?
164
435260
2000
η ηθική ήταν σαν τα μαθηματικά;
07:17
What if there were a pure form of justice?
165
437260
3000
Τι θα γινόταν αν υπήρχε μια καθαρή μορφή δικαιοσύνης;
07:20
What if there are truths about justice,
166
440260
2000
Τι θα γινόταν αν υπήρχαν αλήθειες για τη δικαιοσύνη,
07:22
and you could just look around in this world
167
442260
2000
και μπορούσες να ψάξεις γύρω σου στον κόσμο
07:24
and see which things participated,
168
444260
2000
και να δεις ποια πράγματα συμμετείχαν,
07:26
partook of that form of justice?
169
446260
3000
απάρτιζαν αυτή τη μορφή της δικαιοσύνης;
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Τότε θα ήξερες τι ήταν, στην πραγματικότητα, δίκαιο και τι όχι.
07:32
It wouldn't be a matter
171
452260
2000
Δε θα ήταν ένα θέμα
07:34
of just opinion or just appearances.
172
454260
3000
απλώς γνώμης ή εμφάνισης.
07:37
That's a stunning vision.
173
457260
2000
Αυτό είναι ένα εκπληκτικό όραμα.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Σκεφτείτε το. Πόσο μεγαλειώδες. Πόσο φιλόδοξο.
07:42
That's as ambitious as we are.
175
462260
2000
Είναι τόσο φιλόδοξο όσο εμείς.
07:44
He wants to solve ethics.
176
464260
2000
Θέλει να λύσει την ηθική.
07:46
He wants objective truths.
177
466260
2000
Θέλει αντικειμενικές αλήθειες.
07:48
If you think that way,
178
468260
3000
Αν σκέφτεσαι έτσι,
07:51
you have a Platonist moral framework.
179
471260
3000
έχεις ένα Πλατωνικό ηθικό πλαίσιο.
07:54
If you don't think that way,
180
474260
2000
Αν δε σκέφτεσαι έτσι,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
λοιπόν, έχεις μεγάλη παρέα στην ιστορία της Δυτικής φιλοσοφίας,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
γιατί αυτήν την τακτοποιημένη ιδέα - πολλοί την κριτίκαραν.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Ειδικά ο Αριστοτέλης, δεν ήταν και τόσο ευχαριστημένος.
08:04
He thought it was impractical.
184
484260
3000
Σκεφτόταν ότι δεν ήταν πρακτική.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Ο Αριστοτέλης έλεγε: "Πρέπει να ψάχνουμε μόνο τόση τελειότητα σε κάθε θέμα
08:11
as that subject allows."
186
491260
2000
όση το θέμα επιτρέπει."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Ο Αριστοτέλης πίστευε ότι η ηθική δεν είναι σαν τα μαθηματικά.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Πίστευε ότι η ηθική ήταν ένα ζήτημα αποφάσεων στο εδώ και τώρα
08:19
using our best judgment
189
499260
2000
χρησιμοποιώντας την κρίση μας
08:21
to find the right path.
190
501260
2000
στην εξεύρεση του καλύτερου δρόμου.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Αν σκέφτεσαι έτσι, τότε ο Πλάτωνας δεν είναι ο αγαπημένος σου.
08:25
But don't give up.
192
505260
2000
Αλλά μην τα παρατάς.
08:27
Maybe there's another way
193
507260
2000
Ίσως να υπάρχει κι άλλος τρόπος
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
με τον οποίο μπορούμε να χρησιμοποιήσουμε τους αριθμούς σαν βάση για το ηθικό μας πλαίσιο.
08:33
How about this:
195
513260
2000
Ακούστε αυτό:
08:35
What if in any situation you could just calculate,
196
515260
3000
Τι θα γινόταν αν σε κάθε περίσταση μπορούσες να υπολογίσεις,
08:38
look at the choices,
197
518260
2000
να κοιτάξεις τις επιλογές,
08:40
measure out which one's better and know what to do?
198
520260
3000
και να μετρήσεις ποια είναι η καλύτερη και έτσι να ξέρεις τι να κάνεις;
08:43
That sound familiar?
199
523260
2000
Σας φαίνεται γνώριμο;
08:45
That's a utilitarian moral framework.
200
525260
3000
Αυτό είναι ένα ωφελιμιστικό ηθικό πλαίσιο.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
Ο Τζον Στιούαρτ Μιλ ήταν μεγάλος υπέρμαχος αυτού --
08:50
nice guy besides --
202
530260
2000
κατά τα άλλα ωραίος τύπος --
08:52
and only been dead 200 years.
203
532260
2000
και πέθανε πριν από μόλις 200 χρόνια.
08:54
So basis of utilitarianism --
204
534260
2000
Λοιπόν, η βάση του ωφελιμισμού ---
08:56
I'm sure you're familiar at least.
205
536260
2000
είμαι σίγουρος ότι ήσαστε τουλάχιστον εξοικειωμένοι.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Οι τρεις που ψήφισαν υπέρ του Μιλ πριν είναι εξοικειωμένοι μ' αυτό.
09:00
But here's the way it works.
207
540260
2000
Λοιπόν κοιτάξτε πώς δουλεύει.
09:02
What if morals, what if what makes something moral
208
542260
3000
Τι θα γινόταν αν η ηθική και αυτό που κάνει κάτι ηθικό,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
είναι απλώς θέμα του αν μεγιστοποιεί την ευχαρίστηση
09:07
and minimizes pain?
210
547260
2000
και ελαχιστοποιεί τον πόνο;
09:09
It does something intrinsic to the act.
211
549260
3000
Είναι κάτι εσωτερικό στην πράξη.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Δεν είναι σαν να έχει σχέση με κάποια αόριστη μορφή.
09:14
It's just a matter of the consequences.
213
554260
2000
Είναι απλώς θέμα συνεπειών.
09:16
You just look at the consequences
214
556260
2000
Απλώς κοιτάζεις τις συνέπειες
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
και βλέπεις αν, συνολικά, είναι για το καλύτερο ή το χειρότερο.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Μοιάζει απλό. Τότε θα ξέραμε τι να κάνουμε.
09:22
Let's take an example.
217
562260
2000
Ας πάρουμε ένα παράδειγμα.
09:24
Suppose I go up
218
564260
2000
Έστω ότι σηκώνομαι
09:26
and I say, "I'm going to take your phone."
219
566260
2000
και λέω, "Θα σου πάρω το τηλέφωνο".
09:28
Not just because it rang earlier,
220
568260
2000
Όχι γιατί χτύπησε πριν,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
αλλά θα στο πάρω γιατί έκανα ένα μικρό υπολογισμό.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Σκέφτηκα, ότι αυτός ο τύπος μοιάζει ύποπτος.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Και αν στέλνει μηνύματα στο Μπιν Λάντεν στο καταφύγιό του --
09:39
or whoever took over after Bin Laden --
224
579260
2000
η σε οποιονδήποτε ανέλαβε μετά το Μπιν Λάντεν --
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
και είναι στην πραγματικότητα τρομοκράτης, μυστικός πράκτορας.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Θα το ανακαλύψω, και όταν το ανακαλύψω,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
Θα εμποδίσω την τεράστια καταστροφή που θα μπορούσε να προκαλέσει.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Το να αποτρέψω αυτήν την καταστροφή είναι πάρα πολύ ωφέλιμο.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Και συγκρίνοντάς το με το μικρό πόνο που πρόκειται να προκαλέσω --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
γιατί θα τον φέρω σε δύσκολη θέση όταν κοιτάξω στο τηλέφωνό του
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
και δω ότι παίζει το παιχνίδι Farmville --
10:00
that's overwhelmed
232
600260
3000
αυτό ξεπερνιέται
10:03
by the value of looking at the phone.
233
603260
2000
από την αξία του να κοιτάξω το τηλέφωνό του.
10:05
If you feel that way,
234
605260
2000
Αν αισθάνεσαι έτσι,
10:07
that's a utilitarian choice.
235
607260
3000
αυτό είναι μια ωφελιμιστική επιλογή.
10:10
But maybe you don't feel that way either.
236
610260
3000
Αλλά ίσως να μην αισθάνεσαι ούτε έτσι.
10:13
Maybe you think, it's his phone.
237
613260
2000
Ίσως σκέφτεσαι ότι είναι το δικό του τηλέφωνο.
10:15
It's wrong to take his phone
238
615260
2000
Είναι λάθος να του πάρω το τηλέφωνό του,
10:17
because he's a person
239
617260
2000
γιατί είναι ένας άνθρωπος
10:19
and he has rights and he has dignity,
240
619260
2000
και έχει δικαιώματα και αξιοπρέπεια,
10:21
and we can't just interfere with that.
241
621260
2000
και δεν μπορούμε απλώς να εμπλακούμε με αυτά.
10:23
He has autonomy.
242
623260
2000
Έχει αυτονομία.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Δεν έχει σημασία τι υπολογισμούς κάναμε.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Υπάρχουν πράγματα που είναι από τη φύση τους λάθος --
10:30
like lying is wrong,
245
630260
2000
όπως το να λές ψέματα είναι λάθος,
10:32
like torturing innocent children is wrong.
246
632260
3000
όπως το να βασανίζεις αθώα παιδιά είναι λάθος.
10:35
Kant was very good on this point,
247
635260
3000
Ο Καντ ήταν πολύ καλός σ΄αυτό το σημείο,
10:38
and he said it a little better than I'll say it.
248
638260
2000
και το είπε λίγο καλύτερα απ' ότι το λέω εγώ.
10:40
He said we should use our reason
249
640260
2000
Είπε ότι πρέπει να χρησιμοποιήσουμε τη λογική μας
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
για να αντιληφθούμε τους κανόνες που θα καθοδηγήσουν τη συμπεριφορά μας.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Και είναι καθήκον μας να ακολουθήσουμε αυτούς τους κανόνες.
10:48
It's not a matter of calculation.
252
648260
3000
Δεν είναι ένα θέμα υπολογισμού.
10:51
So let's stop.
253
651260
2000
Λοιπόν ας σταματήσουμε
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Είμαστε χαμένοι μέσα σ' αυτό το φιλοσοφικό πυκνό δάσος.
10:56
And this goes on for thousands of years,
255
656260
3000
Και αυτό συνεχίζεται για χιλιάδες χρόνια,
10:59
because these are hard questions,
256
659260
2000
γιατί αυτές είναι δύσκολες ερωτήσεις,
11:01
and I've only got 15 minutes.
257
661260
2000
και έχω μόλις 15 λεπτά.
11:03
So let's cut to the chase.
258
663260
2000
Οπότε ας μπούμε στο ψητό.
11:05
How should we be making our decisions?
259
665260
4000
Πώς πρέπει να παίρνουμε τις αποφάσεις μας;
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Σύμφωνα με τον Πλάτωνα, τον Αριστοτέλη, τον Καντ, το Μιλ;
11:12
What should we be doing? What's the answer?
261
672260
2000
Τι πρέπει να κάνουμε; Ποια είναι η απάντηση;
11:14
What's the formula that we can use in any situation
262
674260
3000
Ποιος είναι ο τύπος που μπορούμε να χρησιμοποιήσουμε σε κάθε περίπτωση
11:17
to determine what we should do,
263
677260
2000
για να αποφασίσουμε τι πρέπει να κάνουμε,
11:19
whether we should use that guy's data or not?
264
679260
2000
αν πρέπει να χρησιμοποιήσουμε τα δεδομένα αυτού του τύπου ή όχι;
11:21
What's the formula?
265
681260
3000
Ποιος είναι ο τύπος;
11:25
There's not a formula.
266
685260
2000
Δεν υπάρχει τύπος.
11:29
There's not a simple answer.
267
689260
2000
Δεν υπάρχει μια απλή απάντηση.
11:31
Ethics is hard.
268
691260
3000
Η ηθική είναι δύσκολη.
11:34
Ethics requires thinking.
269
694260
3000
Η ηθική απαιτεί σκέψη.
11:38
And that's uncomfortable.
270
698260
2000
Κι αυτό είναι άβολο.
11:40
I know; I spent a lot of my career
271
700260
2000
Ξέρω, πέρασα μεγάλο μέρος της καριέρας μου
11:42
in artificial intelligence,
272
702260
2000
στην τεχνητή νοημοσύνη,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
προσπαθώντας να φτιάξω μηχανές που θα μπορούσαν να κάνουν ένα μέρος αυτής της σκέψης για μας,
11:47
that could give us answers.
274
707260
2000
που θα μπορούσαν να μας δώσουν απαντήσεις.
11:49
But they can't.
275
709260
2000
Αλλά δεν μπορούν.
11:51
You can't just take human thinking
276
711260
2000
Δεν μπορείς απλώς να πάρεις την ανθρώπινη σκέψη
11:53
and put it into a machine.
277
713260
2000
και να τη βάλεις σε μια μηχανή.
11:55
We're the ones who have to do it.
278
715260
3000
Πρέπει να το κάνουμε μόνοι μας.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Ευτυχώς, δεν είμαστε μηχανές και μπορούμε να το κάνουμε.
12:01
Not only can we think,
280
721260
2000
Όχι μόνο μπορούμε να σκεφτούμε,
12:03
we must.
281
723260
2000
αλλά πρέπει.
12:05
Hannah Arendt said,
282
725260
2000
Η Χάνα Άρεντ είπε,
12:07
"The sad truth
283
727260
2000
"Η πικρή αλήθεια
12:09
is that most evil done in this world
284
729260
2000
είναι ότι το μεγαλύτερο κακό σ΄αυτόν τον κόσμο
12:11
is not done by people
285
731260
2000
δε γίνεται από ανθρώπους
12:13
who choose to be evil.
286
733260
2000
που επιλέγουν να είναι κακοί.
12:15
It arises from not thinking."
287
735260
3000
Προέρχεται από τη "μη σκέψη."
12:18
That's what she called the "banality of evil."
288
738260
4000
Αυτό το ονόμασε "κοινοτυπία του κακού."
12:22
And the response to that
289
742260
2000
Και η απάντηση σ' αυτό
12:24
is that we demand the exercise of thinking
290
744260
2000
είναι ότι απαιτούμε την άσκηση της σκέψης
12:26
from every sane person.
291
746260
3000
από κάθε λογικό άτομο.
12:29
So let's do that. Let's think.
292
749260
2000
Οπότε ας το κάνουμε αυτό. Ας σκεφτούμε.
12:31
In fact, let's start right now.
293
751260
3000
Πραγματικά, ας αρχίσουμε τώρα.
12:34
Every person in this room do this:
294
754260
3000
Ο καθένας από μας ας κάνει το εξής:
12:37
think of the last time you had a decision to make
295
757260
3000
σκεφτείτε την τελευταία στιγμή που είχατε να πάρετε μια απόφαση
12:40
where you were worried to do the right thing,
296
760260
2000
που ανησυχούσατε αν κάνατε το σωστό.
12:42
where you wondered, "What should I be doing?"
297
762260
2000
που αναρωτηθήκατε. "Τι πρέπει να κάνω;"
12:44
Bring that to mind,
298
764260
2000
Φέρτε το στο μυαλό σας.
12:46
and now reflect on that
299
766260
2000
Και τώρα αναλογιστείτε
12:48
and say, "How did I come up that decision?
300
768260
3000
και πείτε, "Πώς έφθασα σ΄αυτή την απόφαση;"
12:51
What did I do? Did I follow my gut?
301
771260
3000
Τι έκανα; Ακολούθησα το ένστικτό μου;
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Είχα κάποιον να ψηφίσει; Ή το έριξα στα νομικά;
12:56
Or now we have a few more choices.
303
776260
3000
Ή τώρα έχουμε μερικές ακόμη επιλογές.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"Υπολόγισα ποια θα ήταν η μεγαλύτερη ευχαρίστηση
13:01
like Mill would?
305
781260
2000
όπως θα έκανε ο Μιλ;
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Ή χρησιμοποίησα τη λογική για να δω τι ήταν το ουσιαστικά σωστό όπως ο Καντ;"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Σκεφτείτε το. Πραγματικά φέρτε το στο μυαλό σας. Είναι σημαντικό.
13:09
It is so important
308
789260
2000
Είναι τόσο σημαντικό
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
ώστε θα αφιερώσουμε 30 δευτερόλεπτα πολύτιμου χρόνου TED ομιλίας
13:13
doing nothing but thinking about this.
310
793260
2000
χωρίς να κάνουμε τίποτε άλλο εκτός από το να σκεφτούμε αυτό.
13:15
Are you ready? Go.
311
795260
2000
Έτοιμοι; Πάμε.
13:33
Stop. Good work.
312
813260
3000
Σταματήστε. Καλή δουλειά.
13:36
What you just did,
313
816260
2000
Αυτό που μόλις κάνατε,
13:38
that's the first step towards taking responsibility
314
818260
2000
είναι το πρώτο βήμα στην κατεύθυνση του να πάρετε την ευθύνη
13:40
for what we should do with all of our power.
315
820260
3000
του τι θα έπρεπε να κάνουμε με όλη αυτή τη δύναμή μας.
13:45
Now the next step -- try this.
316
825260
3000
Τώρα το επόμενο βήμα -- δοκιμάστε αυτό.
13:49
Go find a friend and explain to them
317
829260
2000
Βρείτε ένα φίλο και εξηγείστε του
13:51
how you made that decision.
318
831260
2000
πώς πήρατε αυτή την απόφαση.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Όχι αμέσως. Περιμένετε μέχρι να τελειώσω την ομιλία μου.
13:55
Do it over lunch.
320
835260
2000
Κάντε το στο μεσημεριανό φαγητό.
13:57
And don't just find another technologist friend;
321
837260
3000
Και μη βρείτε άλλον ένα τεχνολόγο φίλο σας,
14:00
find somebody different than you.
322
840260
2000
βρείτε κάποιον διαφορετικό από εσάς.
14:02
Find an artist or a writer --
323
842260
2000
Βρείτε έναν καλλιτέχνη ή ένα συγγραφέα --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
ή, προς Θεού, βρείτε ένα φιλόσοφο και μιλήστε του.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Εδώ που τα λέμε, βρείτε κάποιον από τις ανθρωπιστικές επιστήμες.
14:09
Why? Because they think about problems
326
849260
2000
Γιατί; Διότι σκέφτονται τα προβλήματα
14:11
differently than we do as technologists.
327
851260
2000
διαφορετικά απ' ότι εμείς οι τεχνολόγοι.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Πριν λίγες μέρες, ακριβώς στον απέναντι δρόμο,
14:16
there was hundreds of people gathered together.
329
856260
2000
ήταν εκαντοντάδες άνθρωποι μαζεμένοι.
14:18
It was technologists and humanists
330
858260
2000
Ήταν τεχνολόγοι και ανθρωπιστές
14:20
at that big BiblioTech Conference.
331
860260
2000
σ' αυτό το συνέδριο BiblioTech.
14:22
And they gathered together
332
862260
2000
Και μαζεύτηκαν
14:24
because the technologists wanted to learn
333
864260
2000
γιατί οι τεχνολόγοι ήθελαν να μάθουν
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
πώς θα ήταν να σκέφτεσαι με μια ανθρωπιστική προσέγγιση.
14:29
You have someone from Google
335
869260
2000
Έχεις κάποιον από τη Google
14:31
talking to someone who does comparative literature.
336
871260
2000
να μιλά σε κάποιον που κάνει συγκριτική λογοτεχνία.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Σκέφτεσαι πόσο σχετικό είναι το γαλλικό θέατρο του 17ου αιώνα --
14:36
how does that bear upon venture capital?
338
876260
2000
και πώς επιδρά στο κεφάλαιο μακροχρόνιων επενδύσεων;
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Λοιπόν, αυτό είναι το ενδιαφέρον. Αυτός είναι ένας διαφορετικός τρόπος σκέψης.
14:41
And when you think in that way,
340
881260
2000
Και όταν σκέφτεσαι έτσι,
14:43
you become more sensitive to the human considerations,
341
883260
3000
γίνεσαι πιο ευαίσθητος στις ανθρώπινες έγνοιες,
14:46
which are crucial to making ethical decisions.
342
886260
3000
κάτι που είναι βασικό στο να παίρνεις ηθικές αποφάσεις.
14:49
So imagine that right now
343
889260
2000
Οπότε σκεφτείτε ότι τώρα
14:51
you went and you found your musician friend.
344
891260
2000
πήγατε και βρήκατε το φίλο σας το μουσικό.
14:53
And you're telling him what we're talking about,
345
893260
3000
Και του λέτε αυτά που συζητάμε,
14:56
about our whole data revolution and all this --
346
896260
2000
και την επανάσταση στα δεδομένα μας και όλα αυτά --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
ίσως μουρμουρίζετε και λίγο από το μουσικό μας θέμα.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Λοιπόν, ο μουσικός φίλος σας θα σας σταματήσει και θα σας πει,
15:05
"You know, the theme music
350
905260
2000
"Ξέρεις, το μουσικό θέμα
15:07
for your data revolution,
351
907260
2000
για την επανάσταση των δεδομένων,
15:09
that's an opera, that's Wagner.
352
909260
2000
είναι όπερα, είναι Βάγκνερ.
15:11
It's based on Norse legend.
353
911260
2000
Βασίζεται σ' ένα νορβηγικό μύθο.
15:13
It's Gods and mythical creatures
354
913260
2000
Είναι θεοί και μυθικά πλάσματα
15:15
fighting over magical jewelry."
355
915260
3000
που παλεύουν για μαγικά κοσμήματα."
15:19
That's interesting.
356
919260
3000
Ενδιαφέρον.
15:22
Now it's also a beautiful opera,
357
922260
3000
Είναι επίσης και μια όμορφη όπερα.
15:25
and we're moved by that opera.
358
925260
3000
Και μας συγκινεί.
15:28
We're moved because it's about the battle
359
928260
2000
Μας συγκινεί γιατί έχει σχέση με τη μάχη
15:30
between good and evil,
360
930260
2000
μεταξύ του καλού και του κακού,
15:32
about right and wrong.
361
932260
2000
μεταξύ του σωστού και του λάθους.
15:34
And we care about right and wrong.
362
934260
2000
Και μας ενδιαφέρει το σωστό και το λάθος.
15:36
We care what happens in that opera.
363
936260
3000
Μας ενδιαφέρει τι συμβαίνει σ' αυτή την όπερα.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Μας ενδιαφέρει τι συμβαίνει στο "Αποκάλυψη Τώρα."
15:42
And we certainly care
365
942260
2000
Και σίγουρα μας ενδιαφέρει
15:44
what happens with our technologies.
366
944260
2000
τι συμβαίνει με τις τεχνολογίες μας.
15:46
We have so much power today,
367
946260
2000
Έχουμε τόσο πολύ δύναμη σήμερα,
15:48
it is up to us to figure out what to do,
368
948260
3000
είναι στο χέρι μας να αποφασίσουμε τι θα κάνουμε.
15:51
and that's the good news.
369
951260
2000
Και αυτά είναι τα καλά νέα.
15:53
We're the ones writing this opera.
370
953260
3000
Εμείς είμαστε αυτοί που γράφουμε αυτή την όπερα.
15:56
This is our movie.
371
956260
2000
Αυτή είναι η δική μας ταινία.
15:58
We figure out what will happen with this technology.
372
958260
3000
Εμείς αποφασίζουμε τι θα γίνει μ' αυτήν την τεχνολογία.
16:01
We determine how this will all end.
373
961260
3000
Εμείς αποφασίζουμε πως θα τελειώσει όλο αυτό.
16:04
Thank you.
374
964260
2000
Ευχαριστώ
16:06
(Applause)
375
966260
5000
(Χειροκροτήματα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7