What moral decisions should driverless cars make? | Iyad Rahwan

108,201 views ・ 2017-09-08

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Valeriya Salter Редактор: Anna Kotova
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Сегодня я поговорю о технологиях и обществе.
00:18
The Department of Transport estimated that last year
1
18860
3696
Министерство транспорта подсчитало, что в прошлом году
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
35 000 человек погибло в автомобильных авариях в США.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
В мире 1,2 миллиона человек погибает в авариях ежегодно.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
Если бы была инициатива сократить эту цифру на 90%,
00:37
would you support it?
5
37700
1200
вы бы её поддержали?
00:39
Of course you would.
6
39540
1296
Конечно же да.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
Технология беспилотных автомобилей обещает это
00:44
by eliminating the main source of accidents --
8
44540
2816
за счёт исключения основной причины аварий —
00:47
human error.
9
47380
1200
человеческой ошибки.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Представьте, что вы в беспилотной машине в 2030 году —
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
смотрите этот винтажный ролик TEDxCambridge.
00:58
(Laughter)
12
58660
2000
(Смех)
01:01
All of a sudden,
13
61340
1216
Как вдруг
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
происходит поломка и машина не может затормозить.
01:07
If the car continues,
15
67180
1520
Если машина продолжит движение,
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
она врежется в пешеходов, переходящих дорогу.
01:14
but the car may swerve,
17
74900
2135
Но машина может повернуть
01:17
hitting one bystander,
18
77059
1857
и сбить прохожего,
01:18
killing them to save the pedestrians.
19
78940
2080
убив его и сохранив жизнь других пешеходов.
01:21
What should the car do, and who should decide?
20
81860
2600
Что должна сделать машина, и кто это решает?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
А что, если машина врежется в стену,
01:28
crashing and killing you, the passenger,
22
88900
3296
убив тебя, пассажира,
01:32
in order to save those pedestrians?
23
92220
2320
чтобы спасти этих пешеходов?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
Этот сценарий был вдохновлён «Проблемой вагонетки» —
01:38
which was invented by philosophers a few decades ago
25
98780
3776
она была придумана философами несколько десятилетий назад
01:42
to think about ethics.
26
102580
1240
с целью поразмышлять об этике.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Важно, как мы решаем этот этический вопрос.
01:48
We may for example not think about it at all.
28
108460
2616
Мы можем, например, вообще об этом не задумываться.
01:51
We may say this scenario is unrealistic,
29
111100
3376
Можно сказать, что сценарий не реалистичен,
01:54
incredibly unlikely, or just silly.
30
114500
2320
маловероятен и глуп.
01:57
But I think this criticism misses the point
31
117580
2736
Я думаю, что такая критика упускает главное
02:00
because it takes the scenario too literally.
32
120340
2160
из-за того, что смотрит на проблему слишком буквально.
02:03
Of course no accident is going to look like this;
33
123740
2736
Конечно, авария будет выглядеть иначе,
02:06
no accident has two or three options
34
126500
3336
в авариях не бывает, чтобы два или три исхода
02:09
where everybody dies somehow.
35
129860
2000
вели к чьей-то неминуемой смерти.
02:13
Instead, the car is going to calculate something
36
133300
2576
Вместо этого машина будет рассчитывать вероятность
02:15
like the probability of hitting a certain group of people,
37
135900
4896
вреда для группы людей
02:20
if you swerve one direction versus another direction,
38
140820
3336
при различной смене движения,
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
возможно, повышая риск для пассажиров или других водителей
02:27
versus pedestrians.
40
147660
1536
по сравнению с пешеходами.
02:29
It's going to be a more complex calculation,
41
149220
2160
Такой расчёт будет довольно сложным,
02:32
but it's still going to involve trade-offs,
42
152300
2520
но так или иначе будет включать компромисс,
02:35
and trade-offs often require ethics.
43
155660
2880
а компромисс — это часто вопрос этики.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
Кто-то скажет: «Давайте не будем об этом думать,
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
пока технология не разовьётся и не станет безопасной на 100%».
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Представим, что мы сможем сократить число аварий на 90%,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
или даже 99%, в ближайшие десять лет,
02:56
What if eliminating the last one percent of accidents
48
176740
3176
а на устранение последнего процента аварий
02:59
requires 50 more years of research?
49
179940
3120
потребуется ещё 50 лет исследований,
03:04
Should we not adopt the technology?
50
184220
1800
нужно ли будет внедрить технологию?
03:06
That's 60 million people dead in car accidents
51
186540
4776
60 миллионов человек погибнут в автомобильных авариях,
03:11
if we maintain the current rate.
52
191340
1760
если мы продолжим ждать.
03:14
So the point is,
53
194580
1216
Я хочу сказать,
03:15
waiting for full safety is also a choice,
54
195820
3616
что продолжать ждать — это такой же выбор,
03:19
and it also involves trade-offs.
55
199460
2160
требующий компромисса.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
Люди в социальных сетях обмениваются идеями,
03:27
to not think about this problem.
57
207740
2016
как избежать этого конфликта.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Один человек предложил, что машина должна повернуть так,
03:33
in between the passengers --
59
213020
2136
чтобы проехать между пешеходами...
03:35
(Laughter)
60
215180
1016
(Смех)
03:36
and the bystander.
61
216220
1256
и прохожим.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Конечно, если такой вариант есть, машина так и поступит.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Нас интересуют сценарии, где такой исход невозможен.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Мой любимый вариант дал один блогер,
03:50
to have an eject button in the car that you press --
65
230540
3016
который предложил сделать кнопку эвакуации в машине...
03:53
(Laughter)
66
233580
1216
(Смех)
03:54
just before the car self-destructs.
67
234820
1667
на которую нажимаешь перед аварией.
03:56
(Laughter)
68
236511
1680
(Смех)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
В общем, если принять, что компромисс на дорогах неизбежен,
04:06
how do we think about those trade-offs,
70
246020
1880
как мы подойдём к его решению
04:09
and how do we decide?
71
249140
1576
и кто будет принимать решение?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Мы можем провести опрос, чтобы узнать общественное мнение,
04:13
because ultimately,
73
253900
1456
в конце концов
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
законы и регламенты являются отражением общественных ценностей.
04:19
So this is what we did.
75
259860
1240
Мы так и поступили.
04:21
With my collaborators,
76
261700
1616
Мои коллеги,
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Жан-Франсуа Боннефон и Азим Шариф,
04:25
we ran a survey
78
265700
1616
и я провели опрос,
04:27
in which we presented people with these types of scenarios.
79
267340
2855
в котором предлагались такого рода сценарии
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
и два варианта решения, навеянные двумя философами,
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Иеремией Бентамом и Иммануилом Кантом.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
По Бентаму, машина должна следовать утилитарной этике:
04:40
it should take the action that will minimize total harm --
83
280540
3416
действовать так, чтобы минимизировать вред,
04:43
even if that action will kill a bystander
84
283980
2816
даже если такое действие приведёт к гибели прохожего
04:46
and even if that action will kill the passenger.
85
286820
2440
или пассажира.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
По Иммануилу Канту, машина должна действовать по принципу долга:
04:54
like "Thou shalt not kill."
87
294940
1560
«Не убий».
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
То есть нельзя совершать действие, которое навредит человеку,
05:01
and you should let the car take its course
89
301780
2456
машина должна продолжать движение,
05:04
even if that's going to harm more people.
90
304260
1960
даже если в результате погибнет больше людей.
05:07
What do you think?
91
307460
1200
Что вы думаете?
05:09
Bentham or Kant?
92
309180
1520
Бентам или Кант?
05:11
Here's what we found.
93
311580
1256
Мы обнаружили следующее.
05:12
Most people sided with Bentham.
94
312860
1800
Бо́льшая часть людей выбирает Бентама.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Кажется, что люди более утилитарны
05:19
minimize total harm,
96
319780
1416
и хотят минимизировать вред,
05:21
and that's what we should all do.
97
321220
1576
и надо этому следовать.
05:22
Problem solved.
98
322820
1200
Проблема решена.
05:25
But there is a little catch.
99
325060
1480
Но есть небольшая загвоздка.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Когда мы спросили людей, купят ли они такой автомобиль,
05:31
they said, "Absolutely not."
101
331500
1616
они ответили: «Ни за что».
05:33
(Laughter)
102
333140
2296
(Смех)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Они хотят купить машину, которая их защитит, что бы ни случилось,
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
при этом пусть другие покупают машины, минимизирующие вред.
05:43
(Laughter)
105
343020
2520
(Смех)
05:46
We've seen this problem before.
106
346540
1856
Эта проблема не нова,
05:48
It's called a social dilemma.
107
348420
1560
она называется социальной дилеммой.
05:50
And to understand the social dilemma,
108
350980
1816
И чтобы понять социальную дилемму,
05:52
we have to go a little bit back in history.
109
352820
2040
вернёмся ранее в историю,
05:55
In the 1800s,
110
355820
2576
в XIX век.
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
Английский экономист Уильям Фостер Ллойд опубликовал памфлет,
06:02
which describes the following scenario.
112
362180
2216
описывающий сценарий,
06:04
You have a group of farmers --
113
364420
1656
в котором группа фермеров,
06:06
English farmers --
114
366100
1336
английских фермеров,
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
имеет общее поле, на котором пасутся их овцы.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Если у каждого определённое количество овец,
06:13
let's say three sheep --
117
373940
1496
скажем, три,
06:15
the land will be rejuvenated,
118
375460
2096
то поле успевает восстановиться,
06:17
the farmers are happy,
119
377580
1216
фермеры довольны,
06:18
the sheep are happy,
120
378820
1616
овцы счастливы,
06:20
everything is good.
121
380460
1200
всё прекрасно.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Если один фермер приведёт ещё одну овцу,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
он заживёт чуть лучше, никому не навредив.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Но если каждый фермер примет такое разумное решение,
06:35
the land will be overrun, and it will be depleted
125
395660
2720
то поле будет переполнено, оно истощится
06:39
to the detriment of all the farmers,
126
399180
2176
в убыток всем фермерам
06:41
and of course, to the detriment of the sheep.
127
401380
2120
и, конечно, к огорчению овец.
06:44
We see this problem in many places:
128
404540
3680
Такого рода проблема встречается часто,
06:48
in the difficulty of managing overfishing,
129
408900
3176
например черезмерный отлов рыбы
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
или сокращение выброса углерода для предотвращения изменения климата.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Когда речь идёт о регламентах для беспилотных автомобилей,
07:02
the common land now is basically public safety --
132
422900
4336
общее поле — это, по сути, общественная безопасность,
07:07
that's the common good --
133
427260
1240
это общее благо,
07:09
and the farmers are the passengers
134
429220
1976
где фермеры — это пассажиры
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
или владельцы автомобилей, которые в них ездят.
07:16
And by making the individually rational choice
136
436780
2616
Если каждый сделает выбор, рациональный для себя,
07:19
of prioritizing their own safety,
137
439420
2816
приоритизируя собственную безопасность,
07:22
they may collectively be diminishing the common good,
138
442260
3136
то в целом пострадает общее благо,
07:25
which is minimizing total harm.
139
445420
2200
то есть минимизация общего вреда.
07:30
It's called the tragedy of the commons,
140
450140
2136
Это традиционно называется
07:32
traditionally,
141
452300
1296
«трагедией общин».
07:33
but I think in the case of driverless cars,
142
453620
3096
Но в случае с беспилотными автомобилями, я думаю,
07:36
the problem may be a little bit more insidious
143
456740
2856
проблема более хитрая,
07:39
because there is not necessarily an individual human being
144
459620
3496
так как необязательно кто-то конкретный
07:43
making those decisions.
145
463140
1696
принимает эти решения.
07:44
So car manufacturers may simply program cars
146
464860
3296
Производители машин могут запрограммировать их так,
07:48
that will maximize safety for their clients,
147
468180
2520
чтобы максимизировать безопасность своих клиентов,
07:51
and those cars may learn automatically on their own
148
471900
2976
и эти машины могут самостоятельно усвоить,
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
что это будет несколько более рискованно для пешеходов.
07:59
So to use the sheep metaphor,
150
479340
1416
Используя метафору с овцами,
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
получается, у нас теперь есть электронная овца со своим разумом.
08:04
(Laughter)
152
484420
1456
(Смех)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
И они могут пастись самостоятельно, не спрашивая фермера.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
Можно это назвать «трагедией алгоритмических общин»,
08:14
and if offers new types of challenges.
155
494460
2360
уже с другими задачами.
08:22
Typically, traditionally,
156
502340
1896
Традиционно такого рода
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
социальные дилеммы решаются с помощью законов,
08:27
so either governments or communities get together,
158
507620
2736
правительства или сообщества вместе решают,
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
что им нужно и как для этого
08:34
and what sort of constraints on individual behavior
160
514140
2656
ограничить поведение
08:36
they need to implement.
161
516820
1200
отдельной личности.
08:39
And then using monitoring and enforcement,
162
519420
2616
Далее они контролируют соблюдение этих правил,
08:42
they can make sure that the public good is preserved.
163
522060
2559
чтобы обеспечить сохранность общественного блага.
08:45
So why don't we just,
164
525260
1575
Почему бы тогда
08:46
as regulators,
165
526859
1496
ни создать закон,
08:48
require that all cars minimize harm?
166
528379
2897
требующий минимизации вреда в машинах?
08:51
After all, this is what people say they want.
167
531300
2240
В конце концов, это то, чего хотят люди.
08:55
And more importantly,
168
535020
1416
И что более важно,
08:56
I can be sure that as an individual,
169
536460
3096
я могу быть уверенным, что как личность,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
если я покупаю машину и в редком случае она мной жертвует,
09:03
I'm not the only sucker doing that
171
543460
1656
я буду не единственным лохом,
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
в то время как другие получают абсолютную безопасность.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
В нашем опросе мы спросили людей, поддержат ли они такой закон,
09:12
and here's what we found.
174
552300
1200
и вот что мы обнаружили.
09:14
First of all, people said no to regulation;
175
554180
3760
Прежде всего, люди были против такого закона,
09:19
and second, they said,
176
559100
1256
и во-вторых, они сказали:
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
«Если машины будут обязаны минимизировать вред,
09:24
I will not buy those cars."
178
564340
1480
то я такую машину не куплю».
09:27
So ironically,
179
567220
1376
Как ни странно,
09:28
by regulating cars to minimize harm,
180
568620
3496
обязывая машины минимизировать вред,
09:32
we may actually end up with more harm
181
572140
1840
можно спровоцировать больший вред,
09:34
because people may not opt into the safer technology
182
574860
3656
так как люди не обязательно выберут более безопасную технологию,
09:38
even if it's much safer than human drivers.
183
578540
2080
даже если она надёжнее, чем водитель.
09:42
I don't have the final answer to this riddle,
184
582180
3416
У меня нет конечного ответа на эту загадку,
09:45
but I think as a starting point,
185
585620
1576
но я думаю, что для начала
09:47
we need society to come together
186
587220
3296
нужно, чтобы общество
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
согласилось с тем, что является приемлемым компромиссом
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
и как его можно обеспечить.
09:58
As a starting point, my brilliant students,
189
598340
2536
В качестве отправного пункта мои замечательные студенты
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Эдмонд Авад и Сохан Дзуза
10:03
built the Moral Machine website,
191
603380
1800
сделали сайт «Moral Machine»,
10:06
which generates random scenarios at you --
192
606020
2680
который генерирует различные сценарии,
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
по сути, различные дилеммы,
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
где вы выбираете, что машина должна сделать в каждом случае.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Мы варьируем возраст и даже биологический вид жертв.
10:22
So far we've collected over five million decisions
196
622860
3696
Мы собрали более пяти миллионов решений
10:26
by over one million people worldwide
197
626580
2200
от более миллиона человек со всего мира
10:30
from the website.
198
630220
1200
на этом сайте.
10:32
And this is helping us form an early picture
199
632180
2416
Это помогает нам иметь раннее представление
10:34
of what trade-offs people are comfortable with
200
634620
2616
о приемлемых компромиссах
10:37
and what matters to them --
201
637260
1896
и о том, что важно людям
10:39
even across cultures.
202
639180
1440
разных культур.
10:42
But more importantly,
203
642060
1496
И ещё важнее,
10:43
doing this exercise is helping people recognize
204
643580
3376
такое упражнение помогает людям осознать
10:46
the difficulty of making those choices
205
646980
2816
тяжесть такого рода решений
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
и что тот, кто принимает закон, столкнётся с невыносимым выбором.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
И возможно, это даст нам, обществу, понять, какого рода компромиссы
10:58
that will be implemented ultimately in regulation.
208
658780
3056
будут в итоге приняты в законодательстве.
11:01
And indeed, I was very happy to hear
209
661860
1736
Я действительно был очень рад
11:03
that the first set of regulations
210
663620
2016
увидеть, что первый набор регламентов
11:05
that came from the Department of Transport --
211
665660
2136
от Министерства транспорта,
11:07
announced last week --
212
667820
1376
объявленный на прошлой неделе,
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
включает 15 вопросов для всех автопроизводителей,
11:15
and number 14 was ethical consideration --
214
675820
3256
где вопрос под номером 14 — этический,
11:19
how are you going to deal with that.
215
679100
1720
какое решение принять.
11:23
We also have people reflect on their own decisions
216
683620
2656
Мы также позволяем людям поразмышлять над выбором,
11:26
by giving them summaries of what they chose.
217
686300
3000
увидев сумму своих решений.
11:30
I'll give you one example --
218
690260
1656
Дам вам один пример.
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
Я предупреждаю, это не самый обычный
11:35
your typical user.
220
695500
1376
и типичный пользователь.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Котика он спасал чаще всего, а ребёнком чаще всего жертвовал.
11:40
(Laughter)
222
700540
5200
(Смех)
11:46
Some of you may agree with him,
223
706500
1896
Кто-то может с ним
11:48
or her, we don't know.
224
708420
1640
или с ней согласиться.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Он также предпочитает пассажиров пешеходам
11:58
in their choices
226
718460
2096
в своём выборе
12:00
and is very happy to punish jaywalking.
227
720580
2816
и рад наказать тех, кто перебегает дорогу.
12:03
(Laughter)
228
723420
3040
(Смех)
12:09
So let's wrap up.
229
729140
1216
Подводя итог,
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
мы начали с вопроса, назовём его этической дилеммой,
12:13
of what the car should do in a specific scenario:
231
733820
3056
о том, что должна сделать машина в определённом сценарии,
12:16
swerve or stay?
232
736900
1200
повернуть или ехать дальше?
12:19
But then we realized that the problem was a different one.
233
739060
2736
Но затем мы поняли, что проблема не в этом.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
Проблема в том, как достичь согласия в обществе и как контролировать
12:26
the trade-offs they're comfortable with.
235
746380
1936
установленные компромиссы.
12:28
It's a social dilemma.
236
748340
1256
Это социальная дилемма.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
В 1940-е Айзек Азимов написал свои знаменитые законы роботехники,
12:34
the three laws of robotics.
238
754660
1320
три закона.
12:37
A robot may not harm a human being,
239
757060
2456
Робот не может причинить вред человеку,
12:39
a robot may not disobey a human being,
240
759540
2536
робот должен повиноваться приказам человека,
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
Робот должен заботиться о своей безопасности.
12:45
in this order of importance.
242
765380
1960
В этом порядке.
12:48
But after 40 years or so
243
768180
2136
Около 40 лет спустя,
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
после всех историй, проверяющих эти законы,
12:54
Asimov introduced the zeroth law
245
774100
3696
Азимов ввёл нулевой закон,
12:57
which takes precedence above all,
246
777820
2256
идущий прежде всех остальных:
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
робот не должен навредить человечеству в целом.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
Я не знаю, какое это имеет влияние в контексте беспилотных автомобилей
13:08
or any specific situation,
249
788700
2736
или любой конкретной ситуации,
13:11
and I don't know how we can implement it,
250
791460
2216
и не знаю, как мы можем это обеспечить,
13:13
but I think that by recognizing
251
793700
1536
но думаю, что важно осознать,
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
что законы для беспилотных автомобилей не только проблема технологии,
13:21
but also a societal cooperation problem,
253
801420
3280
но и проблема взаимного сотрудничества.
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
Я надеюсь, что мы начнём задавать правильные вопросы.
13:29
Thank you.
255
809020
1216
Спасибо.
13:30
(Applause)
256
810260
2920
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7