Damon Horowitz calls for a "moral operating system"

Damon Horowitz fordert ein "moralisches Betriebssystem"

94,846 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

Damon Horowitz fordert ein "moralisches Betriebssystem"

94,846 views ・ 2011-06-06

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Karin Friedli Lektorat: Alex Boos
00:15
Power.
0
15260
2000
Macht.
00:17
That is the word that comes to mind.
1
17260
2000
Das ist das Wort, das einem in den Sinn kommt.
00:19
We're the new technologists.
2
19260
2000
Wir sind die neuen Technologen.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Wir haben viele Daten, also haben wir viel Macht.
00:24
How much power do we have?
4
24260
2000
Wieviel Macht haben wir?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Eine Szene aus dem Film "Apocalypse Now" – toller Film.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Wir müssen unseren Helden, Captain Willard, zur Mündung des Nung River kriegen,
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
damit er Colonel Kurtz verfolgen kann.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Wir werden das tun, indem wir ihn hinfliegen und abwerfen.
00:36
So the scene:
9
36260
2000
Also, die Szene:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
am Himmel die Helikopterflotte, die ihn hinbringt.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Und da ist diese laute, mitreissende Musik im Hintergrund,
00:43
this wild music.
12
43260
2000
diese wilde Musik.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
Das ist viel Macht.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Das ist die Art von Macht, die ich in diesem Raum spüre.
00:56
That's the kind of power we have
18
56260
2000
Es ist die Art von Macht, die wir haben
00:58
because of all of the data that we have.
19
58260
2000
infolge all der Daten, die wir haben.
01:00
Let's take an example.
20
60260
2000
Lassen Sie uns ein Beispiel anschauen.
01:02
What can we do
21
62260
2000
Was können wir mit
01:04
with just one person's data?
22
64260
3000
den Daten einer einzelnen Person machen?
01:07
What can we do
23
67260
2000
Was können wir mit den Daten
01:09
with that guy's data?
24
69260
2000
dieses Mannes hier tun?
01:11
I can look at your financial records.
25
71260
2000
Ich kann mir Ihre Finanzbelege ansehen.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Ich kann sagen, ob Sie Ihre Rechnungen pünktlich bezahlen.
01:15
I know if you're good to give a loan to.
27
75260
2000
Ich weiss, ob man Ihnen ein Darlehen geben sollte.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Ich kann Ihre medizinische Akte einsehen, ob Ihre Pumpe noch pumpt –
01:20
see if you're good to offer insurance to.
29
80260
3000
sehen, ob wir Sie versichern sollten.
01:23
I can look at your clicking patterns.
30
83260
2000
Ich kann mir Ihre Klickmuster ansehen.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Wenn Sie meine Website besuchen, dann weiss ich schon, was Sie tun werden,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
weil ich Sie zuvor Millionen von Websites habe besuchen sehen.
01:30
And I'm sorry to tell you,
33
90260
2000
Und es tut mir Leid, Ihnen zu sagen,
01:32
you're like a poker player, you have a tell.
34
92260
2000
Sie sind wie ein Pokerspieler, Sie haben sich verraten.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Anhand der Datenanalyse kann ich sagen, was Sie tun werden,
01:36
before you even do it.
36
96260
2000
bevor Sie es überhaupt tun.
01:38
I know what you like. I know who you are,
37
98260
3000
Ich weiss, was Sie mögen. Ich weiss, wer Sie sind.
01:41
and that's even before I look at your mail
38
101260
2000
Sogar noch bevor ich Ihre Post ansehe
01:43
or your phone.
39
103260
2000
oder Ihr Telefon.
01:45
Those are the kinds of things we can do
40
105260
2000
All diese Dinge können wir tun
01:47
with the data that we have.
41
107260
3000
mit den Daten, die wir haben.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Aber ich bin nicht wirklich hier, um darüber zu sprechen, was wir tun können.
01:56
I'm here to talk about what we should do.
43
116260
3000
Ich bin hier, um darüber zu sprechen, was wir tun sollten.
02:00
What's the right thing to do?
44
120260
3000
Was ist das Richtige?
02:04
Now I see some puzzled looks
45
124260
2000
Ich sehe einige verwirrte Blicke, wie,
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
"Wieso fragen Sie uns, was das Richtige zu tun ist
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Wir bauen diese Dinge ja nur, jemand anders benutzt es."
02:12
Fair enough.
48
132260
3000
Schön und gut.
02:15
But it brings me back.
49
135260
2000
Aber das bringt mich zurück zu vorhin.
02:17
I think about World War II --
50
137260
2000
Ich denke an den zweiten Weltkriegt –
02:19
some of our great technologists then,
51
139260
2000
einige unserer grossen Technologen damals,
02:21
some of our great physicists,
52
141260
2000
einige unserer grossartigen Physiker,
02:23
studying nuclear fission and fusion --
53
143260
2000
die Kernspaltung und -fusion untersuchten –
02:25
just nuclear stuff.
54
145260
2000
nukleares Zeug halt.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Wir versammeln diese Physiker in Los Alamos,
02:30
to see what they'll build.
56
150260
3000
um zu sehen, was sie bauen.
02:33
We want the people building the technology
57
153260
3000
Wir wollen, dass die Menschen, welche die Technologie erschaffen,
02:36
thinking about what we should be doing with the technology.
58
156260
3000
darüber nachdenken, was wir mit der Technologie tun sollten.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Was also sollten wir mit den Daten dieses Mannes tun?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Sollten wir sie sammeln,
02:47
so we can make his online experience better?
61
167260
2000
so dass wir sein Online-Erlebnis besser machen können?
02:49
So we can make money?
62
169260
2000
So dass wir damit Geld verdienen können?
02:51
So we can protect ourselves
63
171260
2000
So dass wir uns vor ihm schützen können,
02:53
if he was up to no good?
64
173260
2000
wenn er Übles im Schilde führte?
02:55
Or should we respect his privacy,
65
175260
3000
Oder sollten wir seine Privatsphäre respektieren,
02:58
protect his dignity and leave him alone?
66
178260
3000
seine Würde schützen und ihn in Ruhe lassen?
03:02
Which one is it?
67
182260
3000
Was ist das Richtige?
03:05
How should we figure it out?
68
185260
2000
Wie sollten wir das rausfinden?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Ich weiss: Crowdsourcing. Lassen Sie uns das gemeinsam klären.
03:11
So to get people warmed up,
70
191260
3000
Um uns alle aufzuwärmen,
03:14
let's start with an easy question --
71
194260
2000
fangen wir mit einer einfachen Frage an –
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
etwas, wozu sicher jeder hier eine Meinung hat.
03:19
iPhone versus Android.
73
199260
2000
iPhone gegen Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Zeigen Sie mir Ihre Hände – iPhone.
03:24
Uh huh.
75
204260
2000
Uh huh.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Man würde meinen, ein Haufen kluger Leute wie wir
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
würde nicht wie die Trottel den hübschen Handys hinterherrennen.
03:33
(Laughter)
79
213260
2000
(Gelächter)
03:35
Next question,
80
215260
2000
Nächste Frage,
03:37
a little bit harder.
81
217260
2000
ein bisschen schwieriger.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Sollten wir all die Daten dieses Mannes sammeln,
03:41
to make his experiences better
83
221260
2000
um sein Erlebnis besser zu machen
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
und uns zu schützen, falls er Schlechtes vor hat?
03:46
Or should we leave him alone?
85
226260
2000
Oder sollten wir ihn in Ruhe lassen?
03:48
Collect his data.
86
228260
3000
Seine Daten sammeln.
03:53
Leave him alone.
87
233260
3000
Ihn in Ruhe lassen.
03:56
You're safe. It's fine.
88
236260
2000
Sie sind sicher, alles ist gut.
03:58
(Laughter)
89
238260
2000
(Gelächter)
04:00
Okay, last question --
90
240260
2000
Ok, letzte Frage –
04:02
harder question --
91
242260
2000
schwierigere Frage –
04:04
when trying to evaluate
92
244260
3000
wenn wir versuchen herauszufinden,
04:07
what we should do in this case,
93
247260
3000
was wir in diesem Fall tun sollten,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
sollten wir einen deontologischen moralischen Massstab nach Kant anlegen
04:14
or should we use a Millian consequentialist one?
95
254260
3000
oder die Konsequentialitätslogik nach Mill?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
Nicht so viele Stimmen.
04:27
(Laughter)
99
267260
3000
(Gelächter)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Ja, das ist ein erschreckendes Resultat.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Erschreckend, weil wir eine gefestigtere Meinung
04:38
about our hand-held devices
102
278260
2000
über unsere Smartphones haben,
04:40
than about the moral framework
103
280260
2000
als über unseren moralischen Masstab,
04:42
we should use to guide our decisions.
104
282260
2000
den wir als Richtlinie für unsere Entscheidungen verwenden sollten.
04:44
How do we know what to do with all the power we have
105
284260
3000
Woher wissen wir, was wir mit unserer Macht anfangen sollen,
04:47
if we don't have a moral framework?
106
287260
3000
wenn wir keinen moralischen Masstab haben?
04:50
We know more about mobile operating systems,
107
290260
3000
Wir wissen mehr über mobile Betriebssysteme,
04:53
but what we really need is a moral operating system.
108
293260
3000
aber was wir wirklich brauchen, ist ein moralisches Betriebssystem.
04:58
What's a moral operating system?
109
298260
2000
Was ist ein moralisches Betriebssystem?
05:00
We all know right and wrong, right?
110
300260
2000
Wir alle kennen richtig und falsch, nicht wahr.
05:02
You feel good when you do something right,
111
302260
2000
Man fühlt sich gut, wenn man das Richtige tut,
05:04
you feel bad when you do something wrong.
112
304260
2000
man fühlt sich schlecht, wenn man das Falsche tut.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Unsere Eltern lehren uns: das Gute loben, das Böse schelten.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Aber wie finden wir heraus, was richtig und was falsch ist?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Jeden Tag folgen wir bestimmten Techniken, die wir verwenden.
05:15
Maybe we just follow our gut.
116
315260
3000
Vielleicht folgen wir einfach unserem Bauch.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Vielleicht machen wir eine Abstimmung – lassen die Menge entscheiden.
05:21
Or maybe we punt --
118
321260
2000
Oder wir weichen aus –
05:23
ask the legal department, see what they say.
119
323260
3000
fragen die Rechtsabteilung und sehen, was die sagen.
05:26
In other words, it's kind of random,
120
326260
2000
In anderen Worten, es ist ziemlich zufällig,
05:28
kind of ad hoc,
121
328260
2000
sozusagen fallweise,
05:30
how we figure out what we should do.
122
330260
3000
wie wir herausfinden, was wir tun sollten.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Und vielleicht, wenn wir einen sichereren Stand haben wollen,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
möchten wir wirklich einen moralischen Massstab haben, der uns dahin führt,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
der uns erst einmal sagt, welche Dinge richtig oder falsch sind
05:42
and how would we know in a given situation what to do.
126
342260
4000
und der uns wissen lässt, was in einer bestimmten Situation zu tun ist.
05:46
So let's get a moral framework.
127
346260
2000
Also lassen Sie uns einen moralischen Massstab finden.
05:48
We're numbers people, living by numbers.
128
348260
3000
Wir sind Zahlenleute, wir leben nach Zahlen.
05:51
How can we use numbers
129
351260
2000
Wie können wir Zahlen als Basis
05:53
as the basis for a moral framework?
130
353260
3000
für unseren moralischen Masstab verwenden?
05:56
I know a guy who did exactly that.
131
356260
3000
Ich kenne jemanden, der genau das getan hat.
05:59
A brilliant guy --
132
359260
3000
Ein brillianter Typ –
06:02
he's been dead 2,500 years.
133
362260
3000
er ist schon seit 2500 Jahren tot.
06:05
Plato, that's right.
134
365260
2000
Plato, genau.
06:07
Remember him -- old philosopher?
135
367260
2000
Erinnern Sie sich – alter Philosoph?
06:09
You were sleeping during that class.
136
369260
3000
Sie haben in dieser Schulstunde geschlafen.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Und Plato hatte oft dieselben Sorgen wie wir.
06:14
He was worried about right and wrong.
138
374260
2000
Er sorgte sich um richtig und falsch.
06:16
He wanted to know what is just.
139
376260
2000
Er wollte wissen, was gerecht ist.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Aber er war beunruhigt darüber, dass wir darüber
06:20
is trading opinions about this.
141
380260
2000
nur Meinungen auszutauschen scheinen.
06:22
He says something's just. She says something else is just.
142
382260
3000
Er sagt, etwas ist gerecht. Sie sagt, etwas anderes ist gerecht.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Beide sind ziemlich überzeugend.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Ich gehe hin und her, ich komme nirgends an.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Ich will keine Meinungen, ich will Wissen.
06:32
I want to know the truth about justice --
146
392260
3000
Ich will die Wahrheit über Gerechtigkeit wissen –
06:35
like we have truths in math.
147
395260
3000
so wie wir Wahrheiten in der Mathematik haben.
06:38
In math, we know the objective facts.
148
398260
3000
In der Mathematik kennen wir die objektiven Fakten.
06:41
Take a number, any number -- two.
149
401260
2000
Nehmen Sie irgendeine Zahl – zwei.
06:43
Favorite number. I love that number.
150
403260
2000
Lieblingszahl. Ich liebe diese Zahl.
06:45
There are truths about two.
151
405260
2000
Es gibt Wahrheiten über die Zwei.
06:47
If you've got two of something,
152
407260
2000
Wenn man zwei von etwas hat,
06:49
you add two more, you get four.
153
409260
2000
und man zwei dazu gibt, bekommt man vier.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Das ist wahr, egal worüber man spricht.
06:53
It's an objective truth about the form of two,
155
413260
2000
Es ist eine objektive Wahrheit über die Form der Zwei,
06:55
the abstract form.
156
415260
2000
die abstrakte Form.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Wenn man zwei von irgendwas hat – zwei Augen, Ohren, Nasen,
06:59
just two protrusions --
158
419260
2000
zwei Bandscheibenleiden –
07:01
those all partake of the form of two.
159
421260
3000
all diese Dinge nehmen an der Form der Zwei teil.
07:04
They all participate in the truths that two has.
160
424260
4000
Sie sind ein Teil der Wahrheiten, die die Zwei hat.
07:08
They all have two-ness in them.
161
428260
2000
Sie haben alle Zwei-heit in sich.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Und deshalb ist das keine Meinungsfrage.
07:13
What if, Plato thought,
163
433260
2000
Plato dachte also, was wäre,
07:15
ethics was like math?
164
435260
2000
wenn Ethik wie Mathematik wäre?
07:17
What if there were a pure form of justice?
165
437260
3000
Was, wenn es eine reine Form von Gerechtigkeit gäbe?
07:20
What if there are truths about justice,
166
440260
2000
Was, wenn es Wahrheiten über Gerechtigkeit gibt
07:22
and you could just look around in this world
167
442260
2000
und man sich einfach in der Welt umsehen könnte
07:24
and see which things participated,
168
444260
2000
und sehen, welche Dinge an dieser Form
07:26
partook of that form of justice?
169
446260
3000
von Gerechtigkeit teilhalben?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Dann wüsste man, was wirklich gerecht wäre und was nicht.
07:32
It wouldn't be a matter
171
452260
2000
Es wäre dann keine Frage
07:34
of just opinion or just appearances.
172
454260
3000
von Meinung oder gerechter Erscheinung.
07:37
That's a stunning vision.
173
457260
2000
Das ist eine umwerfende Vision.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Ich meine, denken Sie darüber nach. Wie grossartig, wie ehrgeizig.
07:42
That's as ambitious as we are.
175
462260
2000
So ehrgeizig, wie wir sind.
07:44
He wants to solve ethics.
176
464260
2000
Er will die Ethik lösen.
07:46
He wants objective truths.
177
466260
2000
Er will objektive Wahrheiten.
07:48
If you think that way,
178
468260
3000
Wenn man so darüber nachdenkt,
07:51
you have a Platonist moral framework.
179
471260
3000
hat man einen moralischen Massstab nach Plato.
07:54
If you don't think that way,
180
474260
2000
Wenn man nicht so denkt,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
nun, dann hat man viel Gesellschaft in der Geschichte der westlichen Philosophie,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
denn diese ordentliche Idee – wissen Sie, sie wurde kritisiert.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Besonders Aristoteles war nicht erfreut.
08:04
He thought it was impractical.
184
484260
3000
Er fand das sehr unpraktisch.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristoteles sagte, "Wir sollten nur soviel Präzision in jedem Thema suchen,
08:11
as that subject allows."
186
491260
2000
wie es dieses Thema erlaubt."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristoteles fand, Ethik sei überhaupt nicht wie Mathematik.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Er dachte, Ethik sei eine Frage von Entscheidungen im Hier und Jetzt,
08:19
using our best judgment
189
499260
2000
unter Verwendung unseres besten Urteilsvermögens
08:21
to find the right path.
190
501260
2000
um den richtigen Weg zu finden.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Wenn Sie das denken, ist Plato nicht Ihr Mann.
08:25
But don't give up.
192
505260
2000
Aber geben Sie nicht auf.
08:27
Maybe there's another way
193
507260
2000
Vielleicht gibt es einen anderen Weg,
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
wie wir Zahlen als Grundlage für unseren moralischen Massstab verwenden können.
08:33
How about this:
195
513260
2000
Wie wäre es damit:
08:35
What if in any situation you could just calculate,
196
515260
3000
Was, wenn man in jeder Situation einfach rechnen könnte,
08:38
look at the choices,
197
518260
2000
sich die Wahlmöglichkeiten ansehen,
08:40
measure out which one's better and know what to do?
198
520260
3000
messen, welche die bessere ist und wissen, was tun?
08:43
That sound familiar?
199
523260
2000
Klingt das vertraut?
08:45
That's a utilitarian moral framework.
200
525260
3000
Das ist ein utilitaristischer moralischer Massstab.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill war ein grosser Verfechter davon –
08:50
nice guy besides --
202
530260
2000
ein guter Mann übrigens –
08:52
and only been dead 200 years.
203
532260
2000
und erst seit 200 Jahren tot.
08:54
So basis of utilitarianism --
204
534260
2000
Die Grundlage des Utilitarianismus –
08:56
I'm sure you're familiar at least.
205
536260
2000
ich bin sicher, damit sind Sie zumindest vertraut.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Die drei Leute, die vorhin für Mill gestimmt haben, sind damit vertraut.
09:00
But here's the way it works.
207
540260
2000
Aber so funktioniert es.
09:02
What if morals, what if what makes something moral
208
542260
3000
Was, wenn die Moral, das was etwas moralisch macht,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
nur eine Frage davon ist, ob es Vergnügen maximiert
09:07
and minimizes pain?
210
547260
2000
und Schmerz minimiert?
09:09
It does something intrinsic to the act.
211
549260
3000
Es fügt der Tat etwas intrinsisches hinzu.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Es ist nicht wie ihre Beziehung zu einer abstrakten Form.
09:14
It's just a matter of the consequences.
213
554260
2000
Es ist eine Frage der Konsequenzen.
09:16
You just look at the consequences
214
556260
2000
Man sieht sich die Konsequenzen an
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
und ob es, über alles gesehen, zum Guten oder zum Schlechten ist.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Das wäre einfach. Dann wüssten wir, was zu tun ist.
09:22
Let's take an example.
217
562260
2000
Lassen Sie uns ein Beispiel machen.
09:24
Suppose I go up
218
564260
2000
Nehmen wir an, ich gehe hier hoch
09:26
and I say, "I'm going to take your phone."
219
566260
2000
und ich sage, "Ich nehme jetzt Ihr Telefon."
09:28
Not just because it rang earlier,
220
568260
2000
Nicht, weil es vorhin geklingelt hat,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
ich nehme es, weil ich eine kleine Berechnung gemacht habe.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Ich dachte mir, dieser Typ sieht verdächtig aus.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Und was, wenn er Nachrichten an Bin Ladens Versteck geschickt hat –
09:39
or whoever took over after Bin Laden --
224
579260
2000
oder an wen auch immer, der nach Bin Laden übernommen hat –
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
und er ist tatsächlich sowas wie ein Terrorist, eine Schläferzelle.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Ich werde das herausfinden, und wenn ich es herausfinde,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
werde ich eine grosse Menge Schaden verhindern, den er anrichten könnte.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Es hat einen sehr hohen Nutzen, diesen Schaden zu verhindern.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Und verglichen mit dem kleinen Schmerz, den es verursachen wird –
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
denn es wird unangenehm sein, wenn ich mir sein Telefon ansehe
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
und sehe dass er ein Farmville-Problem und all das hat –
10:00
that's overwhelmed
232
600260
3000
das wird überstrahlt
10:03
by the value of looking at the phone.
233
603260
2000
vom Wert, sich das Telefon anzusehen.
10:05
If you feel that way,
234
605260
2000
Wenn Sie so fühlen,
10:07
that's a utilitarian choice.
235
607260
3000
ist das eine utiliaristische Wahl.
10:10
But maybe you don't feel that way either.
236
610260
3000
Aber vielleicht fühlen Sie auch nicht so.
10:13
Maybe you think, it's his phone.
237
613260
2000
Vielleicht denken Sie, es ist sein Telefon.
10:15
It's wrong to take his phone
238
615260
2000
Es ist falsch, sein Telefon zu nehmen,
10:17
because he's a person
239
617260
2000
denn er ist eine Person
10:19
and he has rights and he has dignity,
240
619260
2000
und er hat Rechte und seine Würde,
10:21
and we can't just interfere with that.
241
621260
2000
und wir können das nicht einfach beeinträchtigen.
10:23
He has autonomy.
242
623260
2000
Er ist autonom.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Es spielt keine Rolle, wie die Berechnungen sind.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Es gibt Dinge, die intrinsisch falsch sind –
10:30
like lying is wrong,
245
630260
2000
wie es falsch ist, zu lügen
10:32
like torturing innocent children is wrong.
246
632260
3000
oder unschuldige Kinder zu quälen.
10:35
Kant was very good on this point,
247
635260
3000
Kant war in diesem Punkt sehr gut,
10:38
and he said it a little better than I'll say it.
248
638260
2000
und er sagte es ein bisschen besser, als ich es sagen werde.
10:40
He said we should use our reason
249
640260
2000
Er sagte, wir sollten unsere Vernunft benutzen,
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
um die Regeln herauszufinden, die unser Verhalten bestimmen.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Und dann ist es unsere Pflicht, diesen Regeln zu folgen.
10:48
It's not a matter of calculation.
252
648260
3000
Es ist keine Frage von Berechnung.
10:51
So let's stop.
253
651260
2000
Also lassen Sie uns aufhören.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Wir sind mitten drin in diesem philosophischen Gewühl.
10:56
And this goes on for thousands of years,
255
656260
3000
Und das geht schon seit Tausenden von Jahren so,
10:59
because these are hard questions,
256
659260
2000
denn das sind schwierige Fragen
11:01
and I've only got 15 minutes.
257
661260
2000
und ich habe nur 15 Minuten.
11:03
So let's cut to the chase.
258
663260
2000
Also lassen Sie uns auf den Punkt kommen.
11:05
How should we be making our decisions?
259
665260
4000
Wie sollten wir unsere Entscheidungen treffen?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
ist es Plato, Aristoteles, Kant oder Mill?
11:12
What should we be doing? What's the answer?
261
672260
2000
Was sollten wir tun? Was ist die Antwort?
11:14
What's the formula that we can use in any situation
262
674260
3000
Was ist die Formel, die wir in jeder Situation benutzen können,
11:17
to determine what we should do,
263
677260
2000
um festzulegen, was wir tun sollten,
11:19
whether we should use that guy's data or not?
264
679260
2000
ob wir die Daten dieses Mannes verwenden sollten oder nicht?
11:21
What's the formula?
265
681260
3000
Was ist die Formel'
11:25
There's not a formula.
266
685260
2000
Es gibt keine Formel.
11:29
There's not a simple answer.
267
689260
2000
Es gibt keine einfache Antwort.
11:31
Ethics is hard.
268
691260
3000
Ethik ist schwierig.
11:34
Ethics requires thinking.
269
694260
3000
Ethik verlangt Denkarbeit.
11:38
And that's uncomfortable.
270
698260
2000
Und das ist unbequem.
11:40
I know; I spent a lot of my career
271
700260
2000
Ich weiss, ich habe einen grossen Teil meiner Karriere damit verbracht,
11:42
in artificial intelligence,
272
702260
2000
mich mit künstlicher Intelligenz zu beschäftigen,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
zu versuchen, Maschinen zu bauen, die etwas von dieser Arbeit für uns tun könnten,
11:47
that could give us answers.
274
707260
2000
die uns Antworten geben könnten.
11:49
But they can't.
275
709260
2000
Aber sie können es nicht.
11:51
You can't just take human thinking
276
711260
2000
Man kann nicht einfach menschliches Denken nehmen,
11:53
and put it into a machine.
277
713260
2000
und es in eine Maschine stecken.
11:55
We're the ones who have to do it.
278
715260
3000
Wir sind diejenigen, die es tun müssen.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Glücklicherweise sind wir keine Maschinen.
12:01
Not only can we think,
280
721260
2000
Wir können nicht nur denken,
12:03
we must.
281
723260
2000
wir müssen.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt sagte,
12:07
"The sad truth
283
727260
2000
"Die traurige Wahrheit ist,
12:09
is that most evil done in this world
284
729260
2000
dass das meiste Böse, was auf dieser Welt getan wird,
12:11
is not done by people
285
731260
2000
nicht von Menschen getan wird,
12:13
who choose to be evil.
286
733260
2000
die sich dazu entscheiden, schlecht zu sein.
12:15
It arises from not thinking."
287
735260
3000
Es kommt dadurch, dass sie nicht nachdenken."
12:18
That's what she called the "banality of evil."
288
738260
4000
Das ist es, was wir die "Banalität des Bösen" nennen.
12:22
And the response to that
289
742260
2000
Und die Antwort darauf ist,
12:24
is that we demand the exercise of thinking
290
744260
2000
dass wir Übung im Denken verlangen
12:26
from every sane person.
291
746260
3000
von jeder normalen Person.
12:29
So let's do that. Let's think.
292
749260
2000
Also lassen Sie uns das tun. Lassen Sie uns nachdenken.
12:31
In fact, let's start right now.
293
751260
3000
Lassen Sie uns jetzt gleich damit anfange.
12:34
Every person in this room do this:
294
754260
3000
Jede Person in diesem Raum tut das folgende:
12:37
think of the last time you had a decision to make
295
757260
3000
denken Sie an das letzte Mal, als Sie eine Entscheidung treffen mussten
12:40
where you were worried to do the right thing,
296
760260
2000
und sich darum sorgten, das Richtige zu tun,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
wo Sie sich gefragt haben, "Was sollte ich tun?"
12:44
Bring that to mind,
298
764260
2000
Rufen Sie sich das in Erinnerung.
12:46
and now reflect on that
299
766260
2000
Und jetzt reflektieren Sie das
12:48
and say, "How did I come up that decision?
300
768260
3000
und sagen sich, "Wie kam ich zu meiner Entscheidung?"
12:51
What did I do? Did I follow my gut?
301
771260
3000
Was habe ich getan? Habe ich auf meinen Bauch gehört?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Habe ich jemanden abstimmen lassen? Oder habe ich es auf den Rechtsdienst abgeschoben?
12:56
Or now we have a few more choices.
303
776260
3000
Jetzt haben wir noch einige Möglichkeiten mehr.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"Habe ich untersucht, was das meiste Vergnügen zur Folge hat,
13:01
like Mill would?
305
781260
2000
wie Mill es tun würde?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Oder habe ich wie Kant meine Vernunft benutzt, um herauszufinden, was intrinsisch richtig ist?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Denken Sie darüber nach. Rufen Sie es sich richtig in Erinnerung. Das ist wichtig.
13:09
It is so important
308
789260
2000
Es ist so wichtig,
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
dass wir 30 Sekunden wertvoller TEDTalk-Zeit darauf verwenden werden,
13:13
doing nothing but thinking about this.
310
793260
2000
nichts anderes zu tun, als darüber nachzudenken.
13:15
Are you ready? Go.
311
795260
2000
Sind Sie bereit? Los.
13:33
Stop. Good work.
312
813260
3000
Stopp. Gute Arbeit.
13:36
What you just did,
313
816260
2000
Was Sie gerade getan haben,
13:38
that's the first step towards taking responsibility
314
818260
2000
ist der erste Schritt dazu, Verantwortung dafür zu übernehmen,
13:40
for what we should do with all of our power.
315
820260
3000
was wir mit all unserer Macht tun sollten.
13:45
Now the next step -- try this.
316
825260
3000
Jetzt der nächste Schritt – versuchen Sie das.
13:49
Go find a friend and explain to them
317
829260
2000
Gehen Sie zu einem Freund und erklären Sie ihm,
13:51
how you made that decision.
318
831260
2000
wie Sie diese Entscheidung gefällt haben.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Nicht jetzt. Warten Sie, bis ich fertig gesprochen habe.
13:55
Do it over lunch.
320
835260
2000
Tun Sie es in der Mittagspause.
13:57
And don't just find another technologist friend;
321
837260
3000
Und finden Sie nicht einfach einen anderen Freund aus der Technologie,
14:00
find somebody different than you.
322
840260
2000
finden Sie jemanden, der anders ist als Sie.
14:02
Find an artist or a writer --
323
842260
2000
Finden Sie einen Künstler oder einen Autoren –
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
oder, Gott bewahre, finden Sie einen Philosophen und sprechen Sie mit ihm.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Tatsächlich sollten Sie einen Geisteswissenschaftler finden.
14:09
Why? Because they think about problems
326
849260
2000
Warum? Weil sie anders über Probleme nachdenken,
14:11
differently than we do as technologists.
327
851260
2000
als wir das als Technologen tun.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Vor einigen Tagen waren hier auf der anderen Strassenseite
14:16
there was hundreds of people gathered together.
329
856260
2000
Hunderte von Menschen versammelt.
14:18
It was technologists and humanists
330
858260
2000
Es gab Technologen und Geisteswissenschaftler
14:20
at that big BiblioTech Conference.
331
860260
2000
an dieser grossen BiblioTech Konferenz.
14:22
And they gathered together
332
862260
2000
Sie kamen zusammen,
14:24
because the technologists wanted to learn
333
864260
2000
weil die Technologen lernen wollten,
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
wie es wäre, aus einer geisteswissenschaftlichen Perspektive zu denken.
14:29
You have someone from Google
335
869260
2000
Da hat man dann jemanden von Google,
14:31
talking to someone who does comparative literature.
336
871260
2000
im Gespräch mit jemandem der Literaturvergleiche macht.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Man denkt über die Relevant des Französischen Theaters im 17. Jahrhundert nach –
14:36
how does that bear upon venture capital?
338
876260
2000
wie kommt das gegen Venture Kapital an?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Das ist interessant. Das ist eine andere Art zu denken.
14:41
And when you think in that way,
340
881260
2000
Wenn man auf diese Weise nachdenkt,
14:43
you become more sensitive to the human considerations,
341
883260
3000
wird man sensibler für menschliche Überlegungen,
14:46
which are crucial to making ethical decisions.
342
886260
3000
die entscheidend für ethische Entscheidungen sind.
14:49
So imagine that right now
343
889260
2000
Stellen Sie sich vor, dass Sie genau jetzt
14:51
you went and you found your musician friend.
344
891260
2000
losgegangen sind und Ihren Musikerfreund getroffen haben.
14:53
And you're telling him what we're talking about,
345
893260
3000
Sie erzählen ihm, worüber wir hier sprechen,
14:56
about our whole data revolution and all this --
346
896260
2000
über unsere ganze Datenrevolution und all das –
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
vielleicht summen Sie sogar ein paar Takte unserer Titelmusik.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Ihr Musikerfreund wird Sie stoppen und sagen,
15:05
"You know, the theme music
350
905260
2000
"Weisst Du, diese Titelmusik
15:07
for your data revolution,
351
907260
2000
für Eure Datenrevolution,
15:09
that's an opera, that's Wagner.
352
909260
2000
das ist eine Oper, das ist Wagner.
15:11
It's based on Norse legend.
353
911260
2000
Sie basiert auf einer nordischen Legende.
15:13
It's Gods and mythical creatures
354
913260
2000
Es geht um Götter und mystische Kreaturen,
15:15
fighting over magical jewelry."
355
915260
3000
die um magische Juwelen kämpfen."
15:19
That's interesting.
356
919260
3000
Das ist interessant.
15:22
Now it's also a beautiful opera,
357
922260
3000
Es ist auch eine wunderschöne Oper.
15:25
and we're moved by that opera.
358
925260
3000
Und die Oper bewegt uns.
15:28
We're moved because it's about the battle
359
928260
2000
Wir sind bewegt, weil es um die Schlacht geht
15:30
between good and evil,
360
930260
2000
zwischen Gut und Böse,
15:32
about right and wrong.
361
932260
2000
zwischen Richtig und Falsch.
15:34
And we care about right and wrong.
362
934260
2000
Richtig und Falsch sind wichtig für uns.
15:36
We care what happens in that opera.
363
936260
3000
Was in dieser Oper geschieht, ist wichtig für uns.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Was in "Apocalypse Now" geschieht, ist wichtig für uns.
15:42
And we certainly care
365
942260
2000
Und auf jeden Fall ist es wichtig für uns,
15:44
what happens with our technologies.
366
944260
2000
was mit unseren Technologien geschieht.
15:46
We have so much power today,
367
946260
2000
Wir haben heute soviel Macht,
15:48
it is up to us to figure out what to do,
368
948260
3000
es liegt an uns, herauszufinden, was zu tun ist.
15:51
and that's the good news.
369
951260
2000
Und das sind gute Neuigkeiten.
15:53
We're the ones writing this opera.
370
953260
3000
Wir sind diejenigen, die die Oper schreiben.
15:56
This is our movie.
371
956260
2000
Das ist unser Film.
15:58
We figure out what will happen with this technology.
372
958260
3000
WIr finden heraus, was mit dieser Technologie geschieht.
16:01
We determine how this will all end.
373
961260
3000
Wir legen fest, wie das alles enden wird.
16:04
Thank you.
374
964260
2000
Dankeschön.
16:06
(Applause)
375
966260
5000
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7