Damon Horowitz calls for a "moral operating system"

95,064 views ・ 2011-06-06

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Denitza Toteva Reviewer: Mihail Stoychev
00:15
Power.
0
15260
2000
Власт.
00:17
That is the word that comes to mind.
1
17260
2000
Тази дума ми идва на ум.
00:19
We're the new technologists.
2
19260
2000
Ние сме новите технолози.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Притежаваме много данни, тоест имаме много власт.
00:24
How much power do we have?
4
24260
2000
Колко власт имаме?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Сцена от филма "Апокалипсис сега" - прекрасен филм.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Ние трябва да закараме нашия герой, капитан Уилард, до устието на реката Нунг,
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
така че той да може да убеди полковник Курц.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Начинът, по който ще направим това е да го превозим със самолет и да го катапултираме на правилното място.
00:36
So the scene:
9
36260
2000
Сцената изглежда така:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
небето е пълно с рояк хеликоптери, които го превозват.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Тази силна, възбуждаща музика се чува на заден план,
00:43
this wild music.
12
43260
2000
дива музика.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
Дъм да та дъм
00:47
♫ Dum da ta da dum ♫
14
47260
2000
Дъм да та дъм
00:49
♫ Da ta da da ♫
15
49260
3000
Да та да да.
00:52
That's a lot of power.
16
52260
2000
Този момент е зареден с много сила.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Това е този вид сила, който чувствам в тази стая.
00:56
That's the kind of power we have
18
56260
2000
Това е този вид сила, който притежаваме,
00:58
because of all of the data that we have.
19
58260
2000
заради всичките данни, с които разполагаме.
01:00
Let's take an example.
20
60260
2000
Нека вземем следния пример.
01:02
What can we do
21
62260
2000
Какво можем да направим
01:04
with just one person's data?
22
64260
3000
с данните само на един човек?
01:07
What can we do
23
67260
2000
Какво можем да направим
01:09
with that guy's data?
24
69260
2000
с данните на този тип?
01:11
I can look at your financial records.
25
71260
2000
Аз мога да погледна в банковите ви записи.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Мога да ви кажа дали си плащате сметките навреме.
01:15
I know if you're good to give a loan to.
27
75260
2000
Ще знам дали сте достатъчно надежден, за да ви се даде заем.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Мога да погледна здравното ви състояние, и да разбера дали сърцето ви все още работи,
01:20
see if you're good to offer insurance to.
29
80260
3000
така ще разбера дали мога да ви дам здравна застраховка.
01:23
I can look at your clicking patterns.
30
83260
2000
Мога да погледна какви страници сте посещавали.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
И когато дойдете на моята уеб страница, вече ще мога да кажа какво ще направите там,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
защото знам, че сте посетили преди това милиони други страници.
01:30
And I'm sorry to tell you,
33
90260
2000
Съжалявам, че трябва да ви го кажа,
01:32
you're like a poker player, you have a tell.
34
92260
2000
но вие сте като комарджия - имате опашка.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Мога да ви кажа чрез анализа на данни какво ще направите,
01:36
before you even do it.
36
96260
2000
преди дори да го направите.
01:38
I know what you like. I know who you are,
37
98260
3000
Знам какво харесвате. Знам кой сте.
01:41
and that's even before I look at your mail
38
101260
2000
И това дори преди да погледна електронната поща
01:43
or your phone.
39
103260
2000
или телефона ви.
01:45
Those are the kinds of things we can do
40
105260
2000
Това са онези неща, които можем да направим
01:47
with the data that we have.
41
107260
3000
с данните, които притежаваме.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Но аз всъщност не съм тук, за да говоря за нещата, които можем да направим.
01:56
I'm here to talk about what we should do.
43
116260
3000
Аз съм тук, за да говоря за нещата, които трябва да направим.
02:00
What's the right thing to do?
44
120260
3000
Кои са правилните неща, които трябва да направим.
02:04
Now I see some puzzled looks
45
124260
2000
Тук виждам няколко объркани погледа.
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
"Защо ни питаш какво е правилно да се направи"
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Ние само програмираме нещата. Някой друг ги използва.
02:12
Fair enough.
48
132260
3000
Това е така.
02:15
But it brings me back.
49
135260
2000
Но това ме връща назад във времето.
02:17
I think about World War II --
50
137260
2000
Мисля си за Втората Световна Война -
02:19
some of our great technologists then,
51
139260
2000
някои от нашите велики технологии по онова време,
02:21
some of our great physicists,
52
141260
2000
някои от великите ни физици,
02:23
studying nuclear fission and fusion --
53
143260
2000
изучаващи разделянето и сливането на ядрата -
02:25
just nuclear stuff.
54
145260
2000
чисти ядрени въпроси.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Ние събираме тези физици в Лос Аламос,
02:30
to see what they'll build.
56
150260
3000
за да видим какво ще построят.
02:33
We want the people building the technology
57
153260
3000
Ние искаме хората, които изобретяват технологиите
02:36
thinking about what we should be doing with the technology.
58
156260
3000
да мислят какво ние трябва да направим с тях.
02:41
So what should we be doing with that guy's data?
59
161260
3000
И така какво трябва да направим със събраната информация за този човек?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Трябва ли да ги събираме,
02:47
so we can make his online experience better?
61
167260
2000
така че да направим онлайн изживяването му по-добро?
02:49
So we can make money?
62
169260
2000
За да печелим пари?
02:51
So we can protect ourselves
63
171260
2000
За да се предпазим от него,
02:53
if he was up to no good?
64
173260
2000
ако той има задни мисли?
02:55
Or should we respect his privacy,
65
175260
3000
Или трябва да респектираме личната му сфера,
02:58
protect his dignity and leave him alone?
66
178260
3000
да пазим достойнството му и просто да го оставим на мира?
03:02
Which one is it?
67
182260
3000
Кой е верният отговор?
03:05
How should we figure it out?
68
185260
2000
Как можем да го познаем?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Аз го знам: колективното решение. Нека да потърсим едно колективно решение.
03:11
So to get people warmed up,
70
191260
3000
И така, за да загреем,
03:14
let's start with an easy question --
71
194260
2000
нека започнем с един лесен въпрос -
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
нещо, на което съм сигурен, че всеки тук знае отговора:
03:19
iPhone versus Android.
73
199260
2000
iPhone срещу Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Нека тези, които имат iPhone да вдигнат ръце.
03:24
Uh huh.
75
204260
2000
Уху.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Вие си мислите, че с няколко смарт телефона
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
ще престанем да бъдем такива загубеняци.
03:33
(Laughter)
79
213260
2000
(Смях в залата)
03:35
Next question,
80
215260
2000
Следващият въпрос,
03:37
a little bit harder.
81
217260
2000
малко по-труден от предния.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Трябва ли да събираме информация за този човек,
03:41
to make his experiences better
83
221260
2000
за да подобрим усещането му в интернет
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
и да се предпазим от него в случай, че е намислил нещо лошо?
03:46
Or should we leave him alone?
85
226260
2000
Или да го оставим на мира?
03:48
Collect his data.
86
228260
3000
Да събираме данните му?
03:53
Leave him alone.
87
233260
3000
Да го оставим на мира?
03:56
You're safe. It's fine.
88
236260
2000
Добре. Вие сте на на правилната страна.
03:58
(Laughter)
89
238260
2000
(Смях в залата)
04:00
Okay, last question --
90
240260
2000
ОК. Последен въпрос -
04:02
harder question --
91
242260
2000
по-труден въпрос -
04:04
when trying to evaluate
92
244260
3000
когато се оптваме да преценим
04:07
what we should do in this case,
93
247260
3000
какъв метод трябва да използваме в този случай,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
деонтоложката морална рамка на Кант
04:14
or should we use a Millian consequentialist one?
95
254260
3000
или трябва да използваме подхода на Мил базиращ се на ползата от последствията?
04:19
Kant.
96
259260
3000
Кант.
04:22
Mill.
97
262260
3000
Мил.
04:25
Not as many votes.
98
265260
2000
Хм, няма много гласуващи.
04:27
(Laughter)
99
267260
3000
(Смях в залата)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Да, това е един ужасяващ резултат.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Ужасяващ, защото ние имаме по-силно изразено мнение
04:38
about our hand-held devices
102
278260
2000
за нашите телефони,
04:40
than about the moral framework
103
280260
2000
отколкото за моралните рамки,
04:42
we should use to guide our decisions.
104
282260
2000
които трябва да ни ръководят във взимането на решения.
04:44
How do we know what to do with all the power we have
105
284260
3000
Окъде да знаем как си служим с властта, която имаме,
04:47
if we don't have a moral framework?
106
287260
3000
ако нямаме морални рамки?
04:50
We know more about mobile operating systems,
107
290260
3000
Ние знаем повече за мибилните операционни системи,
04:53
but what we really need is a moral operating system.
108
293260
3000
но това, от което имаме наистина нужда са морални операционни системи.
04:58
What's a moral operating system?
109
298260
2000
Какво е морална операционна система?
05:00
We all know right and wrong, right?
110
300260
2000
Ние всички знаем какво е правилно и какво е грешно.
05:02
You feel good when you do something right,
111
302260
2000
Чувствате се добре, когато направите нещо правилно,
05:04
you feel bad when you do something wrong.
112
304260
2000
чувствате се зле, когато извършите нещо лошо.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Научили сме го от нашите родители: похвала за доброто дело, смъмряне за лошото.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Но как разбираме кое е добро и кое е лошо?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
И така от ден на ден, ние добиваме техниките, които използват за тези решения.
05:15
Maybe we just follow our gut.
116
315260
3000
Може би, понякога просто следваме шестото си чувство.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Може би понякога гласуваме взимайки решението на тълпата.
05:21
Or maybe we punt --
118
321260
2000
Или просто залагаме -
05:23
ask the legal department, see what they say.
119
323260
3000
и питаме какво мисли правния отдел по този въпрос.
05:26
In other words, it's kind of random,
120
326260
2000
С други думи ние следваме някакъв хаотичен,
05:28
kind of ad hoc,
121
328260
2000
спонтанен път,
05:30
how we figure out what we should do.
122
330260
3000
когато взимаме решения как да действаме.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
И може би, ако искаме да сме на правилната страна,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
това от което имаме нужда е морална рамка, която да ни отведе там,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
която ще ни каже кои неща са правилни и кои грешни
05:42
and how would we know in a given situation what to do.
126
342260
4000
и ще ни покаже как да действаме в дадена ситуация.
05:46
So let's get a moral framework.
127
346260
2000
И така нека си създадем тази морална рамка.
05:48
We're numbers people, living by numbers.
128
348260
3000
Ние сме група хора, живееща чрез числа.
05:51
How can we use numbers
129
351260
2000
Как можем да използваме числата
05:53
as the basis for a moral framework?
130
353260
3000
като база за нашата морална рамка?
05:56
I know a guy who did exactly that.
131
356260
3000
Познавам едно момче, което правеше точно това,
05:59
A brilliant guy --
132
359260
3000
брилянтен тип -
06:02
he's been dead 2,500 years.
133
362260
3000
мъртъв е вече 2.500 години.
06:05
Plato, that's right.
134
365260
2000
Правилно - Платон.
06:07
Remember him -- old philosopher?
135
367260
2000
Помните ли го - стар философ?
06:09
You were sleeping during that class.
136
369260
3000
Сигурно сте спали по време на този урок.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
И така Платон е имал много от същите грижи, които ние имаме днес.
06:14
He was worried about right and wrong.
138
374260
2000
Той си е задавал въпроса кое е праилно и кое грешно.
06:16
He wanted to know what is just.
139
376260
2000
Искал е да знае какво е справедливо.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Но той се е притеснявал, че това с което се занимаваме ние
06:20
is trading opinions about this.
141
380260
2000
е да се чудим кое е правилно и кое не.
06:22
He says something's just. She says something else is just.
142
382260
3000
Той твърди, че нещо е вярно. Тя твърди, че нещо друго е вярно.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Звучи убедително когато и двамата си излагат аргументите.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Аз просто се лутам от тема на тема, но не стигам до никакъв отговор.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Не искам опции, искам знания.
06:32
I want to know the truth about justice --
146
392260
3000
Искам да знам истината за справедловостта,
06:35
like we have truths in math.
147
395260
3000
по същия начин, по който имаме истина за правото.
06:38
In math, we know the objective facts.
148
398260
3000
В математиката ние знаем обективните факти.
06:41
Take a number, any number -- two.
149
401260
2000
Вземете едно число - например две.
06:43
Favorite number. I love that number.
150
403260
2000
Любимото ми число.
06:45
There are truths about two.
151
405260
2000
Има няколко факта за две.
06:47
If you've got two of something,
152
407260
2000
Ако вземеш две от нещо
06:49
you add two more, you get four.
153
409260
2000
и добавиш още две, ще получиш четири.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Това е вярно независимо за какво говориш.
06:53
It's an objective truth about the form of two,
155
413260
2000
Съществува обективна истина за формата на две.,
06:55
the abstract form.
156
415260
2000
за абстрактната форма.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Когато имаш две от нещо - две очи, две уши, два носа,
06:59
just two protrusions --
158
419260
2000
просто две преднини -
07:01
those all partake of the form of two.
159
421260
3000
това всичко е форма на две.
07:04
They all participate in the truths that two has.
160
424260
4000
Те всички отговарят на истината, която се съдържа в две.
07:08
They all have two-ness in them.
161
428260
2000
Те всички имат нещо от две в себе си.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
И затова не е въпрос на гледна точка.
07:13
What if, Plato thought,
163
433260
2000
Какво ако Платон твърдеше,
07:15
ethics was like math?
164
435260
2000
че етиката е като математиката.
07:17
What if there were a pure form of justice?
165
437260
3000
Какво ако има чиста форма на справедливостта.
07:20
What if there are truths about justice,
166
440260
2000
Какво ако има истина за справедливостта
07:22
and you could just look around in this world
167
442260
2000
и ти просто можеш да се огледаш по света
07:24
and see which things participated,
168
444260
2000
и да видиш кой участва
07:26
partook of that form of justice?
169
446260
3000
и има дял в тази форма на справедливост?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Тогава ще знаеш какво е било наистина справедливо и какво не.
07:32
It wouldn't be a matter
171
452260
2000
Нямаше да е въпрос на
07:34
of just opinion or just appearances.
172
454260
3000
мнение или външен вид.
07:37
That's a stunning vision.
173
457260
2000
Това е крещяща гледна точка.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Помислете върху това. Колко е грандиозно, колко амбициозно.
07:42
That's as ambitious as we are.
175
462260
2000
Това е толкова амбициозно, колкото сме самите ние.
07:44
He wants to solve ethics.
176
464260
2000
Той иска да реши етиката.
07:46
He wants objective truths.
177
466260
2000
Иска обективна истина.
07:48
If you think that way,
178
468260
3000
Ако мислите по този начин,
07:51
you have a Platonist moral framework.
179
471260
3000
добивате моралната рамка на Платон.
07:54
If you don't think that way,
180
474260
2000
Ако не мислите по този начин,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
добре тогава ще намерите компания в западната философия,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
защото както знаете хората критикуват подредените идеи.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Например Аристотел не е намирал тази идея забавна.
08:04
He thought it was impractical.
184
484260
3000
Смятал я е за непрактична.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Аристотел е казал: " Ние търсим толкова прецизност във всеки обект,
08:11
as that subject allows."
186
491260
2000
колкото този обект позволява."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Аристотел е на мнение, че етиката не е като математиката.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Той смята, че етиката е въпрос на взимане на решения тук и сега, служейки си
08:19
using our best judgment
189
499260
2000
с най-добрата преценка, която можем да направим,
08:21
to find the right path.
190
501260
2000
за да намерим правилния път.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Ако мислите по този начин, Платон не е вашия философ.
08:25
But don't give up.
192
505260
2000
Но не се предавайте.
08:27
Maybe there's another way
193
507260
2000
Може би има и друг начин,
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
да използваме числата като база на нашата морална рамка.
08:33
How about this:
195
513260
2000
Какво ще кажете за това:
08:35
What if in any situation you could just calculate,
196
515260
3000
Какво ако можете да пресметнете всяка ситуация,
08:38
look at the choices,
197
518260
2000
прегледайте изборите,
08:40
measure out which one's better and know what to do?
198
520260
3000
изчислявате кой е по-добър и така знаете как да постъпите?
08:43
That sound familiar?
199
523260
2000
Звучи ви познато?
08:45
That's a utilitarian moral framework.
200
525260
3000
Това е моралната рамка на утилитарното учение.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
Джон Стюарт Мил е голям поддръжник на това учение -
08:50
nice guy besides --
202
530260
2000
между другото много свястно момче -
08:52
and only been dead 200 years.
203
532260
2000
и е умрял само преди 200 години.
08:54
So basis of utilitarianism --
204
534260
2000
И така базата на утилитаризма -
08:56
I'm sure you're familiar at least.
205
536260
2000
сигурен съм, че имате обща представа.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Тримата, които преди това гласуваха за Мил познават учението.
09:00
But here's the way it works.
207
540260
2000
Но сега ще ви кажа как работи.
09:02
What if morals, what if what makes something moral
208
542260
3000
Какво ако моралът, какво ако това, което прави нещата морални
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
е просто функция на това да максимализира удоволствието
09:07
and minimizes pain?
210
547260
2000
и минимализира болката?
09:09
It does something intrinsic to the act.
211
549260
3000
Той действа по някакъв вроден начин.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Това не е отношението към някаква абстрактна форма.
09:14
It's just a matter of the consequences.
213
554260
2000
Това е просто въпрос на следствие.
09:16
You just look at the consequences
214
556260
2000
Вие поглеждате последствията
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
и преценявате дали са добри или лоши.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Това би било лесно. Така знаем какво да направим.
09:22
Let's take an example.
217
562260
2000
Нека да ви дам пример.
09:24
Suppose I go up
218
564260
2000
Нека предположим, че аз ще се кача горе
09:26
and I say, "I'm going to take your phone."
219
566260
2000
и кажа " Аз ще ви взема телефона".
09:28
Not just because it rang earlier,
220
568260
2000
Не защото е позвънял по-рано,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
а защото направих малка калкулация.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Реших, че този човек ми изглежда подозрително.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
И какво ако той изпраща смс-и към скривалището на Бин Ладен -
09:39
or whoever took over after Bin Laden --
224
579260
2000
или който заема мястото на Бин Ладен -
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
и действа като спяща клетка на терористи.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Аз ще разкрия това и разкривайки го,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
ще предотвратя огромен брой вреди, които той може да нанесе.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Така съществува голяма полза да се предотврати таза вреда.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Особено като сравните с малката болка, която ще бъде причинена -
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
защото ще бъде глупаво, ако му погледна телефона
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
и видя, че има проблем с Farmville и това
10:00
that's overwhelmed
232
600260
3000
засенчва целия проблем,
10:03
by the value of looking at the phone.
233
603260
2000
гледайки телефона му.
10:05
If you feel that way,
234
605260
2000
Ако се чувствате по такъв начин,
10:07
that's a utilitarian choice.
235
607260
3000
това е утилитарен избор.
10:10
But maybe you don't feel that way either.
236
610260
3000
Но може би не се чувствате по такъв начин.
10:13
Maybe you think, it's his phone.
237
613260
2000
Може би смятате, че това е неговия телефон.
10:15
It's wrong to take his phone
238
615260
2000
Смятате, че е погрешно да му вземете телефона,
10:17
because he's a person
239
617260
2000
защото е лична вещ
10:19
and he has rights and he has dignity,
240
619260
2000
и той като човек има права и достойнство
10:21
and we can't just interfere with that.
241
621260
2000
и ние не можем просто така да си играем с тях.
10:23
He has autonomy.
242
623260
2000
И той има право на личен избор.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Няма значение какви ще бъдат последствията.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Има неща, които по природа са грешни -
10:30
like lying is wrong,
245
630260
2000
например да се лъже е грешно,
10:32
like torturing innocent children is wrong.
246
632260
3000
измъчването на невинни деца е грешно.
10:35
Kant was very good on this point,
247
635260
3000
Кант беше много прав в това отношение
10:38
and he said it a little better than I'll say it.
248
638260
2000
и той го е казал малко по-добре от начина по който аз ще го кажа.
10:40
He said we should use our reason
249
640260
2000
Казал е, че ние трябва да използваме разума си,
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
за да установим правилата, по които трябва да се ръководим.
10:45
and then it is our duty to follow those rules.
251
645260
3000
И тогава е наше задължение да следваме тези правила.
10:48
It's not a matter of calculation.
252
648260
3000
Не е въпрос на пресмятане.
10:51
So let's stop.
253
651260
2000
Така че нека спрем.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Ние имаме право в неговата сила , този философска дебелина.
10:56
And this goes on for thousands of years,
255
656260
3000
И това продължава хиляди години,
10:59
because these are hard questions,
256
659260
2000
защото това са сложни философски въпроси,
11:01
and I've only got 15 minutes.
257
661260
2000
а аз имам само 15 минути.
11:03
So let's cut to the chase.
258
663260
2000
Така че нека сложим чертата.
11:05
How should we be making our decisions?
259
665260
4000
Как трябва да взимаме нашите решения?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Кой трябва да ни служи за пример - Платон, Аристотел, Кант, Мил?
11:12
What should we be doing? What's the answer?
261
672260
2000
Как да постъпваме? Какъв е отговорът?
11:14
What's the formula that we can use in any situation
262
674260
3000
Каква формула да използваме в една ситуация,
11:17
to determine what we should do,
263
677260
2000
за да решим какво е правилно,
11:19
whether we should use that guy's data or not?
264
679260
2000
дали да използваме данните на тези хора или не?
11:21
What's the formula?
265
681260
3000
Каква е формулата?
11:25
There's not a formula.
266
685260
2000
Тук няма формула.
11:29
There's not a simple answer.
267
689260
2000
Няма еднозначен отговор.
11:31
Ethics is hard.
268
691260
3000
Етиката е сложно нещо.
11:34
Ethics requires thinking.
269
694260
3000
Етиката изисква мислене.
11:38
And that's uncomfortable.
270
698260
2000
И това я прави неудобна.
11:40
I know; I spent a lot of my career
271
700260
2000
Прекарах голяма част от кариерата си
11:42
in artificial intelligence,
272
702260
2000
в областта на изкуствения интелект,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
опитвайки се да направя машини, които ще мислят вместо нас,
11:47
that could give us answers.
274
707260
2000
машини, които могат да отоговарят на въпросите ни.
11:49
But they can't.
275
709260
2000
Но те не могат.
11:51
You can't just take human thinking
276
711260
2000
Не можеш просто да вземеш човешкото мислене
11:53
and put it into a machine.
277
713260
2000
и да го сложиш в една машина.
11:55
We're the ones who have to do it.
278
715260
3000
Ние сме тези, които трябва да правят това.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
За щастие ние не сме машини и можем да го направим.
12:01
Not only can we think,
280
721260
2000
Не само че можем да мислим,
12:03
we must.
281
723260
2000
ние дори трябва да мислим.
12:05
Hannah Arendt said,
282
725260
2000
Хана Аренд казва:
12:07
"The sad truth
283
727260
2000
"Тъжната истина е, че
12:09
is that most evil done in this world
284
729260
2000
повечето злини на този свят
12:11
is not done by people
285
731260
2000
не са направена от хора,
12:13
who choose to be evil.
286
733260
2000
които са избрали да бъдат зли.
12:15
It arises from not thinking."
287
735260
3000
Злото се е получило просто, защото тези хора са избрали да не мислят."
12:18
That's what she called the "banality of evil."
288
738260
4000
Това тя нарича "баналността на злото".
12:22
And the response to that
289
742260
2000
В отговор на това
12:24
is that we demand the exercise of thinking
290
744260
2000
ние трябва да изискваме от всеки нормален човек
12:26
from every sane person.
291
746260
3000
да може да мисли.
12:29
So let's do that. Let's think.
292
749260
2000
Така че нека го правим. Нека да мислим.
12:31
In fact, let's start right now.
293
751260
3000
Всъщност нека започнем още сега.
12:34
Every person in this room do this:
294
754260
3000
Нека всеки в тази зала да направи следното:
12:37
think of the last time you had a decision to make
295
757260
3000
помислете си за последния път, в който е трябвало да вземете някакво решение,
12:40
where you were worried to do the right thing,
296
760260
2000
когато сте се притеснявали дали ще вземете правилното решение,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
когато сте се питали: "Какво да направя?".
12:44
Bring that to mind,
298
764260
2000
Припомнете си този момент.
12:46
and now reflect on that
299
766260
2000
И сега рефлектирайте върху този момент
12:48
and say, "How did I come up that decision?
300
768260
3000
и си задайте въпроса: " Как стигнах до това решение?"
12:51
What did I do? Did I follow my gut?
301
771260
3000
Какво направих? Последвах ли шестото си чувство?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Имше ли някой, който да ме посъветва? Или заложих на сигурно?"
12:56
Or now we have a few more choices.
303
776260
3000
Или тук имаме още няколко варианта.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
" Прецених ли какво би ми донесло най-голямо удоволствие,
13:01
like Mill would?
305
781260
2000
както би направил Мил?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Или като Кант използвах разума си, за да разбера какво е правилно по природа.
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Помислете върху това. Обмислете го внимателно. Това е важно.
13:09
It is so important
308
789260
2000
Толкова е важно,
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
че сега ще прекараме 30 секунди от ценното TEDTalk време,
13:13
doing nothing but thinking about this.
310
793260
2000
без да правим нищо друго освен да мислим.
13:15
Are you ready? Go.
311
795260
2000
Готови ли сте? Старт.
13:33
Stop. Good work.
312
813260
3000
Стоп. Добре свършена работа.
13:36
What you just did,
313
816260
2000
Това, което направихте току що
13:38
that's the first step towards taking responsibility
314
818260
2000
е първата стъпка към това да поемате отговорност
13:40
for what we should do with all of our power.
315
820260
3000
за това, което правим с нашата енергия.
13:45
Now the next step -- try this.
316
825260
3000
Следващата стъпка е тази.
13:49
Go find a friend and explain to them
317
829260
2000
Намерете приятел и му обяснете
13:51
how you made that decision.
318
831260
2000
как взехте това решение.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Не точно сега. Изчакайте да приключа с лекцията.
13:55
Do it over lunch.
320
835260
2000
Направете го по време на обяд.
13:57
And don't just find another technologist friend;
321
837260
3000
И нека това не бъде някой ваш колега;
14:00
find somebody different than you.
322
840260
2000
намерете някой различен от вас.
14:02
Find an artist or a writer --
323
842260
2000
Намерете човек на изкуството или писател,
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
или за бога намерете философ и говорете с него.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Всъщност намерете някой с хуманитарен профил
14:09
Why? Because they think about problems
326
849260
2000
Защо? Защото те разглеждат проблемите
14:11
differently than we do as technologists.
327
851260
2000
по различен начин от хората, които се занимават с технологии.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Само преди няколко дни, точно от другата страна на улицата
14:16
there was hundreds of people gathered together.
329
856260
2000
се бяха събрали стотици хора.
14:18
It was technologists and humanists
330
858260
2000
Това бяха хора с технически и хуманитарен профил.
14:20
at that big BiblioTech Conference.
331
860260
2000
Бяха се събрали на онази голяма BiblioTech конференция.
14:22
And they gathered together
332
862260
2000
Бяха се събрали, защото
14:24
because the technologists wanted to learn
333
864260
2000
хората от техническите специалности искаха да научат
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
какво значи да мислиш от хуманистична перспектива.
14:29
You have someone from Google
335
869260
2000
Така хора от Google
14:31
talking to someone who does comparative literature.
336
871260
2000
говореха със специалисти по литература.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Разсъждавате върху значението на френския театър през 17 век -
14:36
how does that bear upon venture capital?
338
876260
2000
и се питате каква връзка има той с рисковия капитал?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Добре, това е интересно. Това е различен начин на мислене.
14:41
And when you think in that way,
340
881260
2000
И когато разсъждавате по този начин,
14:43
you become more sensitive to the human considerations,
341
883260
3000
вие сте по-чувствителен към хуманитарния начин на мислене,
14:46
which are crucial to making ethical decisions.
342
886260
3000
който е есенциален за взимането на етични решения.
14:49
So imagine that right now
343
889260
2000
Представете си, че в точно в този момент
14:51
you went and you found your musician friend.
344
891260
2000
срещате приятел музикант.
14:53
And you're telling him what we're talking about,
345
893260
3000
И му разказвате за какво говорим,
14:56
about our whole data revolution and all this --
346
896260
2000
за цялата техническа революция и всички тези неща,
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
може дори да му изтананикате няколко ноти от нашата тематична музика.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
Дръм та да да дъм дъм та да да дъм
15:03
Well, your musician friend will stop you and say,
349
903260
2000
И така вашият приятел музикант ще ви спре и ще каже,
15:05
"You know, the theme music
350
905260
2000
" Нали знаеш, че темата на музиката
15:07
for your data revolution,
351
907260
2000
на вашата техническа революция
15:09
that's an opera, that's Wagner.
352
909260
2000
е опера, това е Вагнер.
15:11
It's based on Norse legend.
353
911260
2000
И тя е базирана на нордическа ленгенда.
15:13
It's Gods and mythical creatures
354
913260
2000
Това са Бог и митичните същества
15:15
fighting over magical jewelry."
355
915260
3000
борещи се за магическите скъпоценности."
15:19
That's interesting.
356
919260
3000
Това е интересно.
15:22
Now it's also a beautiful opera,
357
922260
3000
Освен това е красива опера.
15:25
and we're moved by that opera.
358
925260
3000
И тя ни впечатлява.
15:28
We're moved because it's about the battle
359
928260
2000
Впечатлява ни, защото е за борбата
15:30
between good and evil,
360
930260
2000
между доброто и злото,
15:32
about right and wrong.
361
932260
2000
между това кое е правилно и кое грешно.
15:34
And we care about right and wrong.
362
934260
2000
А за нас е важно какво е правилно и какво грешно.
15:36
We care what happens in that opera.
363
936260
3000
Интересува ни какво се случва в операта.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Интересува ни какво се случва в "Апокалипсис сега"
15:42
And we certainly care
365
942260
2000
И определено ни засяга
15:44
what happens with our technologies.
366
944260
2000
какво се случва с нашите технологии.
15:46
We have so much power today,
367
946260
2000
В нашето съвремие раполагаме с толкова много власт,
15:48
it is up to us to figure out what to do,
368
948260
3000
че е в нашите възможности да решим как да постъпим.
15:51
and that's the good news.
369
951260
2000
И това е добрата новина.
15:53
We're the ones writing this opera.
370
953260
3000
Ние сме тези, които пишем тази опера.
15:56
This is our movie.
371
956260
2000
Това е нашият филм.
15:58
We figure out what will happen with this technology.
372
958260
3000
Ние решаваме какво ще се случи с тази технология.
16:01
We determine how this will all end.
373
961260
3000
Ние решаваме как ще свърши всичко това.
16:04
Thank you.
374
964260
2000
Благодаря ви
16:06
(Applause)
375
966260
5000
Аплодисменти.
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7