The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Anastasia Gurova Редактор: Ростислав Голод
00:07
This is a thought experiment.
0
7246
2042
Проведём мысленный эксперимент.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Скажем, однажды в не столь отдалённом будущем
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
вы мчитесь по шоссе на своём беспилотном автомобиле
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
и оказываетесь окружены другими автомобилями со всех сторон.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Внезапно крупный тяжёлый предмет сваливается с грузовика перед вами.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Ваше авто не может вовремя остановиться — столкновение неизбежно,
00:27
so it needs to make a decision:
6
27371
2042
поэтому оно должно принять решение:
00:29
go straight and hit the object,
7
29413
2250
двигаться прямо и столкнуться с предметом,
00:31
swerve left into an SUV,
8
31663
2291
сдать в левую полосу и столкнуться с внедорожником
00:33
or swerve right into a motorcycle.
9
33954
3000
или — вправо и столкнуться с мотоциклом.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Стоит ли автомобилю позаботиться о вашей безопасности
и въехать в мотоцикл,
00:40
minimize danger to others by not swerving,
11
40454
2792
или обезопасить остальных и не сворачивать,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
даже если это значит столкнуться с крупным объектом
и пожертвовать вашей жизнью,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
или выбрать золотую середину и столкнуться с внедорожником
00:50
which has a high passenger safety rating?
14
50079
3000
с высоким уровнем безопасности пассажиров.
00:53
So what should the self-driving car do?
15
53079
3208
Что должен сделать беспилотный автомобиль?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Если бы мы самостоятельно управляли автомобилем,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
то как бы мы ни поступили, это бы воспринималось как реакция,
01:03
a reaction,
18
63037
1292
01:04
not a deliberate decision.
19
64329
2250
а не как осознанное решение.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Инстинктивное, паническое действие без какого-либо злого умысла.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Но если бы программист дал машине инструкции так поступить,
01:14
given conditions it may sense in the future,
22
74496
2833
учитывая, что она окажется в подобных условиях в будущем,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
тогда это будет больше похоже на умышленное убийство.
01:21
Now, to be fair,
24
81621
1000
Если серьёзно,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
то прогнозируется, что благодаря беспилотным автомобилям
произойдёт значительное снижение числа ДТП,
01:26
and fatalities
26
86704
1250
01:27
by removing human error from the driving equation.
27
87954
3167
в том числе со смертельным исходом,
ведь ошибка водителя будет исключена из факторов дорожного движения.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
К тому же есть множество других преимуществ:
01:33
eased road congestion,
29
93496
1667
снижение числа пробок на дорогах,
01:35
decreased harmful emissions,
30
95163
1541
снижение вредных выбросов,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
сведение к минимуму непродуктивного времени
и уровня стресса за рулём.
01:41
But accidents can and will still happen,
32
101329
2167
Но аварии всё же могут и будут происходить,
01:43
and when they do,
33
103496
1167
и когда произойдут,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
их исход может быть предопределён за месяцы или даже годы до этого
01:49
by programmers or policy makers.
35
109163
2583
программистами или законодателями.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
И им придётся принимать достаточно сложные решения.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Довольно заманчиво предложить универсальные принципы принятия решений,
01:57
like minimize harm,
38
117204
1875
например сведение ущерба к минимуму,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
но даже тогда это приведёт к сомнительным моральным решениям.
02:02
For example,
40
122454
1167
02:03
let's say we have the same initial set up,
41
123621
2000
Например, у нас те же изначальные условия,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
но теперь слева от вас едет мотоциклистка в шлеме,
02:08
and another one without a helmet to your right.
43
128496
2792
а справа — тоже мотоциклист, но без шлема.
02:11
Which one should your robot car crash into?
44
131288
3083
С кем должен столкнуться ваш беспилотный автомобиль?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Если вы выберете мотоциклистку в шлеме, потому что у неё больше шансов выжить,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
не наказываете ли вы тем самым ответственных водителей?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Если же, наоборот, вы выбираете байкера без шлема,
02:24
because he's acting irresponsibly,
48
144121
2000
потому что он поступает безответственно,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
тогда вы выходите за рамки изначального принципа
о сведении ущерба к минимуму,
02:30
and the robot car is now meting out street justice.
50
150996
3875
а ваш робот-автомобиль ещё и сам наказывает нарушителей.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Этические соображения становятся здесь ещё сложнее.
02:38
In both of our scenarios,
52
158413
1375
В обоих сценариях
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
заложен принцип, который действует как некий направленный алгоритм.
02:44
In other words,
54
164288
1000
Другими словами,
02:45
it's systematically favoring or discriminating
55
165288
2500
он последовательно принимает или отбрасывает
02:47
against a certain type of object to crash into.
56
167788
3500
определённый тип объекта для столкновения.
02:51
And the owners of the target vehicles
57
171288
2333
И владельцы выбранных автомобилей
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
столкнутся с негативными последствиями этого алгоритма
02:56
through no fault of their own.
59
176663
2083
не по своей вине.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
В связи с новыми технологиями возникает всё больше новых этических дилемм.
03:03
For instance, if you had to choose between
61
183413
2083
Например, если бы вам пришлось выбирать
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
между автомобилем, который сохраняет наибольшее количество жизней в аварии,
03:09
or one that would save you at any cost,
63
189538
3041
и тем, который спасёт вашу жизнь любой ценой,
03:12
which would you buy?
64
192579
1667
какой бы вы приобрели?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Что произойдёт, если машины станут анализировать и выделять
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
отдельных пассажиров и особенности их жизней?
03:21
Could it be the case that a random decision
67
201038
2166
Возможно ли, что спонтанное решение
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
всё же лучше заранее продуманного с целью минимизации ущерба?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
И кто должен принимать все эти решения?
03:30
Programmers? Companies? Governments?
70
210829
2709
Программисты?
Производители автомобилей?
Государственные власти?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Реальность может не совсем совпадать с нашим мысленным экспериментом,
03:37
but that's not the point.
72
217579
1667
но дело не в этом,
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
ведь эксперименты создаются для выявления и проверки
нашей интуиции в вопросах этики,
03:43
just like science experiments do for the physical world.
74
223579
3000
так же как научные эксперименты изучают физический мир.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Обнаружение подобных моральных «виражей» сейчас
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
поможет нам лучше маневрировать на незнакомой дороге этики прогресса
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
и позволит нам уверенно и добросовестно мчаться
03:57
into our brave new future.
78
237288
2375
навстречу прекрасному новому миру.
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7