What moral decisions should driverless cars make? | Iyad Rahwan

104,087 views ・ 2017-09-08

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Hanna Malienkina Утверджено: Khrystyna Romashko
00:12
Today I'm going to talk about technology and society.
0
12820
4080
Сьогодні я буду говорити про технології та суспільство.
00:18
The Department of Transport estimated that last year
1
18860
3696
Міністерство Транспорту встановило, що минулого року
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
35 000 людей загинуло в автомобільних аваріях лише у США.
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
В усьому світі 1,2 мільйони людей помирають щороку в автомобільних аваріях.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
Якщо була б можливість усунути 90 процентів з цих аварій,
00:37
would you support it?
5
37700
1200
чи ви підтримали б її?
00:39
Of course you would.
6
39540
1296
Звичайно, що так.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
Це те, чого технологія безпілотних автомобілів обіцяє досягнути
00:44
by eliminating the main source of accidents --
8
44540
2816
шляхом усунення основного джерела аварій -
00:47
human error.
9
47380
1200
людського фактору.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
Уявіть себе у безпілотному автомобілі у 2030 році,
як ви сидите позаду
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
та дивитесь це вінтажне відео від TEDxCambridge.
00:58
(Laughter)
12
58660
2000
(Сміх)
01:01
All of a sudden,
13
61340
1216
Аж раптом
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
в автомобіля стається механічний збій і він не може зупинитись.
01:07
If the car continues,
15
67180
1520
Якщо автомобіль продовжить рух,
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
він вріжеться у групу пішоходів, що переходять вулицю,
01:14
but the car may swerve,
17
74900
2135
але автомобіль може повернути,
01:17
hitting one bystander,
18
77059
1857
і врізатись в одного перехожого,
01:18
killing them to save the pedestrians.
19
78940
2080
вбивши його, щоб врятувати пішоходів.
01:21
What should the car do, and who should decide?
20
81860
2600
Що має зробити автомобіль, та хто має вирішувати?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
Що, як замість того автомобіль міг би повернути у напрямку стіни,
01:28
crashing and killing you, the passenger,
22
88900
3296
врізатись і вбити вас, пасажира,
01:32
in order to save those pedestrians?
23
92220
2320
щоб врятувати тих пішоходів?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
На цей сценарій надихнула проблема вагонетки,
01:38
which was invented by philosophers a few decades ago
25
98780
3776
яка була запропонована філософами кілька десятиліть тому
01:42
to think about ethics.
26
102580
1240
для обмірковування етичної сторони.
01:45
Now, the way we think about this problem matters.
27
105940
2496
Наше ставлення до цієї проблеми має значення.
01:48
We may for example not think about it at all.
28
108460
2616
Ми могли б, наприклад, не думати про це зовсім.
01:51
We may say this scenario is unrealistic,
29
111100
3376
Ми могли б сказати, що такий сценарій є нереалістичний,
01:54
incredibly unlikely, or just silly.
30
114500
2320
дуже малоймовірний або просто безглуздий.
01:57
But I think this criticism misses the point
31
117580
2736
Але я вважаю, що такий критицизм втрачає головне,
02:00
because it takes the scenario too literally.
32
120340
2160
тому що сприймає сценарій надто буквально.
02:03
Of course no accident is going to look like this;
33
123740
2736
Звичайно, що ніяка аварія не буде саме такою;
02:06
no accident has two or three options
34
126500
3336
ніяка аварія не має два чи три шляхи,
02:09
where everybody dies somehow.
35
129860
2000
в яких всі помирають так чи інакше.
02:13
Instead, the car is going to calculate something
36
133300
2576
Натомість, автомобіль буде дещо розраховувати,
02:15
like the probability of hitting a certain group of people,
37
135900
4896
на кшталт можливості наїхати на якусь групу людей,
02:20
if you swerve one direction versus another direction,
38
140820
3336
якщо повернути в певному напрямку замість іншого,
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
можна трохи підвищити ризик для пасажирів чи інших водіїв
02:27
versus pedestrians.
40
147660
1536
замість пішоходів.
02:29
It's going to be a more complex calculation,
41
149220
2160
Це буде складніший розрахунок,
02:32
but it's still going to involve trade-offs,
42
152300
2520
але все одно будуть компроміси,
02:35
and trade-offs often require ethics.
43
155660
2880
а компроміси часто вимагають етики.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
Ми могли б сказати: "Давайте не хвилюватись про це.
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
Давайте зачекаємо, поки технологія буде повністю готова
та на 100 процентів безпечна."
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
Припускаючи це, ми справді можемо усунути 90 процентів тих аварій,
02:52
or even 99 percent in the next 10 years.
47
172900
2840
або навіть 99 процентів у найближчі 10 років.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
Що, як усунення останнього одного проценту аварій
02:59
requires 50 more years of research?
49
179940
3120
вимагатиме ще 50 років досліджень?
03:04
Should we not adopt the technology?
50
184220
1800
Чи маємо відмовитися від технології?
03:06
That's 60 million people dead in car accidents
51
186540
4776
Це 60 мільйонів людей, загиблих у автомобільних аваріях,
03:11
if we maintain the current rate.
52
191340
1760
при поточному рівні аварій.
03:14
So the point is,
53
194580
1216
Тож суть у тому,
03:15
waiting for full safety is also a choice,
54
195820
3616
що очікування на повну безпеку - це також вибір,
03:19
and it also involves trade-offs.
55
199460
2160
і він також потребує компромісів.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
Люди в інтернеті на соціальних ресурсах пропонували різноманітні шляхи,
03:27
to not think about this problem.
57
207740
2016
як уникнути міркувань про цю проблему.
03:29
One person suggested the car should just swerve somehow
58
209780
3216
Одна людина запропонувала, щоб автомобіль просто вивернув якось
03:33
in between the passengers --
59
213020
2136
поміж пасажирами
03:35
(Laughter)
60
215180
1016
(Сміх)
03:36
and the bystander.
61
216220
1256
та спостерігачем.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
Звичайно, якщо це те, що автомобіль може зробити,
то це те, що автомобіль має зробити.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
Нас цікавлять сценарії, в яких це неможливо.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
Та мою улюблену пропозицію запропонував блогер:
03:50
to have an eject button in the car that you press --
65
230540
3016
вбудувати в автомобіль кнопку катапульти, яку ти натискаєш
03:53
(Laughter)
66
233580
1216
(Сміх)
03:54
just before the car self-destructs.
67
234820
1667
перед тим, як автомобіль самознищується.
03:56
(Laughter)
68
236511
1680
(Сміх)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
Тож, якщо ми визнаємо, що автомобілі будуть змушені
робити компроміси на дорозі,
04:06
how do we think about those trade-offs,
70
246020
1880
то що ми думаємо з приводу цих компромісів,
04:09
and how do we decide?
71
249140
1576
та як нам вирішувати?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
Можливо, треба провести опитування, щоб дізнатися, чого суспільство хоче,
04:13
because ultimately,
73
253900
1456
тому що зрештою,
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
правила та закон - це відображення суспільних цінностей.
04:19
So this is what we did.
75
259860
1240
Це те, що ми зробили.
04:21
With my collaborators,
76
261700
1616
З моїми співробітниками,
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
Жаном-Франсуа Боннефоном та Азімом Шаріфом,
04:25
we ran a survey
78
265700
1616
ми провели опитування,
04:27
in which we presented people with these types of scenarios.
79
267340
2855
в якому презентували людям ці види сценаріїв.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
Ми дали їм два варіанти, що були натхненні двома філософами:
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
Джеремі Бентамом та Іммануїлом Кантом.
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
Бентам стверджує, що автомобіль має дотримуватися утилітарної етики:
04:40
it should take the action that will minimize total harm --
83
280540
3416
він має вжити дій, що мінімізують загальну шкоду,
04:43
even if that action will kill a bystander
84
283980
2816
навіть, якщо ця дія вб'є спостерігача,
04:46
and even if that action will kill the passenger.
85
286820
2440
і навіть, якщо ця дія вб'є пасажира.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
Іммануїл Кант стверджує, що автомобіль має дотримуватись відчуття обов'язку,
04:54
like "Thou shalt not kill."
87
294940
1560
як заповіді "Не вбивай".
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
Тож, тобі не слід вживати дію, що вочевидь шкодить людині,
05:01
and you should let the car take its course
89
301780
2456
та слід дозволити автомобілю рухатися своїм шляхом,
05:04
even if that's going to harm more people.
90
304260
1960
навіть, якщо це нашкодить більшій кількості людей.
05:07
What do you think?
91
307460
1200
Як ви вважаєте?
05:09
Bentham or Kant?
92
309180
1520
Бентам чи Кант?
05:11
Here's what we found.
93
311580
1256
Ось, що ми з'ясували.
05:12
Most people sided with Bentham.
94
312860
1800
Більшість людей стали на бік Бентама.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
Тож здається, що люди хочуть, щоб автомобілі були утилітарними,
05:19
minimize total harm,
96
319780
1416
мінімізували загальну шкоду,
05:21
and that's what we should all do.
97
321220
1576
і це те, що нам всім слід робити.
05:22
Problem solved.
98
322820
1200
Проблему вирішено.
05:25
But there is a little catch.
99
325060
1480
Але є маленький нюанс.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
Коли ми спитали людей, чи придбали б вони такі автомобілі,
05:31
they said, "Absolutely not."
101
331500
1616
вони сказали: "Ні в якому разі."
05:33
(Laughter)
102
333140
2296
(Сміх)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
Вони хотіли б придбати автомобілі, які б захищали їх за будь-яку ціну,
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
але вони хочуть, щоб усі інші купували автомобілі, що мінімізують шкоду.
05:43
(Laughter)
105
343020
2520
(Сміх)
05:46
We've seen this problem before.
106
346540
1856
Ми стикалися з такою проблемою раніше.
05:48
It's called a social dilemma.
107
348420
1560
Це називається соціальна дилема.
05:50
And to understand the social dilemma,
108
350980
1816
І щоб зрозуміти соціальну дилему,
05:52
we have to go a little bit back in history.
109
352820
2040
нам треба звернутися трошки до історії.
05:55
In the 1800s,
110
355820
2576
У 1800-х роках
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
англійський економіст Вільям Фостер Лойд опублікував памфлет,
06:02
which describes the following scenario.
112
362180
2216
в якому описано наступний сценарій.
06:04
You have a group of farmers --
113
364420
1656
Маєте групу фермерів -
06:06
English farmers --
114
366100
1336
англійських фермерів -
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
які використовують спільну земельну ділянку для випасу їхніх овець.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
Якщо кожен фермер виведе певну кількість овець -
06:13
let's say three sheep --
117
373940
1496
скажімо, три вівці -
06:15
the land will be rejuvenated,
118
375460
2096
ділянка буде оновлюватись,
06:17
the farmers are happy,
119
377580
1216
фермери - щасливі,
06:18
the sheep are happy,
120
378820
1616
вівці - щасливі,
06:20
everything is good.
121
380460
1200
все добре.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
Якщо ж один фермер виведе ще одну вівцю,
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
цьому фермеру буде трохи краще, і ніхто інший не постраждає.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
Але якщо всі фермери приймуть таке індивідуально раціональне рішення,
06:35
the land will be overrun, and it will be depleted
125
395660
2720
ділянка буде виснажена та збіднена,
06:39
to the detriment of all the farmers,
126
399180
2176
що зашкодить усім фермерам,
06:41
and of course, to the detriment of the sheep.
127
401380
2120
і, звичайно ж, зашкодить вівцям.
06:44
We see this problem in many places:
128
404540
3680
Ми бачимо цю проблему у багатьох місцях:
06:48
in the difficulty of managing overfishing,
129
408900
3176
у складнощах керування переловом риби
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
чи у зменшенні викидів вуглецю, щоб пом'якшити кліматичні зміни.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
Стосовно ж регулювань для безпілотних автомобілів,
07:02
the common land now is basically public safety --
132
422900
4336
спільна земельна ділянка - це загальна безпека,
07:07
that's the common good --
133
427260
1240
це спільне благо -
07:09
and the farmers are the passengers
134
429220
1976
а фермери - це пасажири
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
або власники автомобілів, які обирають їздити у цих автомобілях.
07:16
And by making the individually rational choice
136
436780
2616
Та зробивши індивідуально раціональний вибір
07:19
of prioritizing their own safety,
137
439420
2816
і надавши пріоритет їх власній безпеці,
07:22
they may collectively be diminishing the common good,
138
442260
3136
вони разом могли б зменшити спільне благо,
07:25
which is minimizing total harm.
139
445420
2200
яке мінімізує загальну шкоду.
07:30
It's called the tragedy of the commons,
140
450140
2136
Це називається трагедія спільного,
07:32
traditionally,
141
452300
1296
традиційно,
07:33
but I think in the case of driverless cars,
142
453620
3096
але я гадаю, що у випадку безпілотних автомобілів,
07:36
the problem may be a little bit more insidious
143
456740
2856
проблема може бути трошки більш підступною
07:39
because there is not necessarily an individual human being
144
459620
3496
через те, що це необов'язково людина
07:43
making those decisions.
145
463140
1696
приймає ці рішення.
07:44
So car manufacturers may simply program cars
146
464860
3296
Виробники автомобілів можуть просто запрограмувати автомобілі,
07:48
that will maximize safety for their clients,
147
468180
2520
щоб максимізувати безпеку для їхніх клієнтів,
07:51
and those cars may learn automatically on their own
148
471900
2976
і такі автомобілі можуть автоматично навчатися,
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
що певна дія вимагає трохи підвищити ризик для пішоходів.
07:59
So to use the sheep metaphor,
150
479340
1416
Використовуючи метафору з вівцями,
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
це ніби у нас електричні вівці, які мають власний розум.
08:04
(Laughter)
152
484420
1456
(Сміх)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
І вони можуть піти та випасатися, навіть, якщо фермер не знає про це.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
Це те, що ми можемо назвати трагедією алгоритмічного спільного,
08:14
and if offers new types of challenges.
155
494460
2360
і це пропонує нові виклики.
08:22
Typically, traditionally,
156
502340
1896
Зазвичай, традиційно,
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
ми вирішуємо такі типи соціальних дилем за допомогою правил,
08:27
so either governments or communities get together,
158
507620
2736
тож держава або спільнота збираються разом
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
та колективно вирішують, який результат вони хочуть,
08:34
and what sort of constraints on individual behavior
160
514140
2656
та які обмеження поведінки суб'єкта
08:36
they need to implement.
161
516820
1200
їм треба розробити.
08:39
And then using monitoring and enforcement,
162
519420
2616
А потім, за допомогою моніторингу та примушення,
08:42
they can make sure that the public good is preserved.
163
522060
2559
вони можуть переконатися, що суспільне благо зберігається.
08:45
So why don't we just,
164
525260
1575
Тож чому б нам, як регулювальникам,
08:46
as regulators,
165
526859
1496
08:48
require that all cars minimize harm?
166
528379
2897
не вимагати, щоб всі автомобілі мінімізували шкоду?
08:51
After all, this is what people say they want.
167
531300
2240
Зрештою, це те, чого люди хочуть, за їх словами.
08:55
And more importantly,
168
535020
1416
І що більш важливо,
08:56
I can be sure that as an individual,
169
536460
3096
я можу бути впевнений, як окрема людина,
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
що якщо я куплю автомобіль, який може пожертвувати мною у рідкому випадку,
09:03
I'm not the only sucker doing that
171
543460
1656
то я не єдиний невдаха, який це робить,
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
поки всі інші насолоджуються безумовним захистом.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
У нашому опитуванні ми запитали людей, чи підтримали б вони правила,
09:12
and here's what we found.
174
552300
1200
і ось, що ми виявили.
09:14
First of all, people said no to regulation;
175
554180
3760
Перш за все, люди відмовилися від правил;
09:19
and second, they said,
176
559100
1256
і по-друге, вони сказали:
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
"Якщо за правилами автомобілі будуть робити це і мінімізувати загальну шкоду,
09:24
I will not buy those cars."
178
564340
1480
то я не купуватиму такі автомобілі."
09:27
So ironically,
179
567220
1376
Тож за іронією,
09:28
by regulating cars to minimize harm,
180
568620
3496
встановивши правила для автомобілів мінімізувати шкоду,
09:32
we may actually end up with more harm
181
572140
1840
ми можемо зрештою прийти до ще більшої шкоди,
09:34
because people may not opt into the safer technology
182
574860
3656
адже люди не підтримають більш безпечну технологію,
09:38
even if it's much safer than human drivers.
183
578540
2080
навіть, якщо вона набагато безпечніша, ніж люди-водії.
09:42
I don't have the final answer to this riddle,
184
582180
3416
В мене немає остаточної відповіді на цю дилему,
09:45
but I think as a starting point,
185
585620
1576
але я вважаю, що для початку треба,
09:47
we need society to come together
186
587220
3296
щоб суспільство зібралося разом
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
для вирішення, які компроміси є комфортними для нас
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
та придумати шляхи для втілення цих компромісів.
09:58
As a starting point, my brilliant students,
189
598340
2536
У якості стартової точки, мої блискучі студенти,
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
Едмонд Авад та Сохан Дсоуза,
10:03
built the Moral Machine website,
191
603380
1800
створили веб-сайт - Моральну Машину,
10:06
which generates random scenarios at you --
192
606020
2680
яка генерує для вас випадкові сценарії -
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
по суті, набір випадкових дилем одна за одною,
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
де вам потрібно обрати, що автомобіль має зробити у наданому сценарії.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
Ми також змінюємо вік і навіть біологічні види різних потерпілих.
10:22
So far we've collected over five million decisions
196
622860
3696
На даний момент ми зібрали більше п'яти мільйонів рішень
10:26
by over one million people worldwide
197
626580
2200
від більше, ніж одного мільйона людей по всьому світу
10:30
from the website.
198
630220
1200
з веб-сайту.
10:32
And this is helping us form an early picture
199
632180
2416
І це допомагає нам отримати первинну картину того,
10:34
of what trade-offs people are comfortable with
200
634620
2616
які компроміси є прийнятні для людей
10:37
and what matters to them --
201
637260
1896
та що є важливо для них -
10:39
even across cultures.
202
639180
1440
навіть поміж різних культур.
10:42
But more importantly,
203
642060
1496
Та що важливіше,
10:43
doing this exercise is helping people recognize
204
643580
3376
виконання цієї вправи допомагає людям усвідомити
10:46
the difficulty of making those choices
205
646980
2816
складність прийняття таких рішень
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
і те, що перед регулювальниками постає неможливий вибір.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
І, можливо, це допоможе нам, як суспільству, зрозуміти ті компроміси,
10:58
that will be implemented ultimately in regulation.
208
658780
3056
що будуть запроваджені зрештою у регулюваннях.
11:01
And indeed, I was very happy to hear
209
661860
1736
І справді, я був щасливий почути,
11:03
that the first set of regulations
210
663620
2016
що перший набір регулювань,
11:05
that came from the Department of Transport --
211
665660
2136
що видали у Міністерстві Транспорту -
11:07
announced last week --
212
667820
1376
оголошено минулого тижня -
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
містить 15 пунктів, що мають забезпечити всі виробники автомобілів,
11:15
and number 14 was ethical consideration --
214
675820
3256
і номер 14 стосувався етичного аспекту -
11:19
how are you going to deal with that.
215
679100
1720
як ви вчините щодо цього.
11:23
We also have people reflect on their own decisions
216
683620
2656
Ми також даємо людям обміркувати їх власні рішення,
11:26
by giving them summaries of what they chose.
217
686300
3000
надавши їм підсумки того, що вони обирали.
11:30
I'll give you one example --
218
690260
1656
Ось один приклад -
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
але попереджаю, що це нетиповий приклад,
11:35
your typical user.
220
695500
1376
типовий користувач.
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
Це - найбільш постраждалий та найбільш врятований персонажі
11:40
(Laughter)
222
700540
5200
для цієї людини.
(Сміх)
11:46
Some of you may agree with him,
223
706500
1896
Дехто з вас може погодитися з ним,
11:48
or her, we don't know.
224
708420
1640
чи з нею, ми не знаємо.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
Але ця людина також надає трохи більше переваги пасажирам, ніж пішоходам
11:58
in their choices
226
718460
2096
у своїх рішеннях
12:00
and is very happy to punish jaywalking.
227
720580
2816
та дуже охоче наказує порушників.
12:03
(Laughter)
228
723420
3040
(Сміх)
12:09
So let's wrap up.
229
729140
1216
Тож, підсумуємо.
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
Ми почали з питання - назвемо це етичною дилемою -
12:13
of what the car should do in a specific scenario:
231
733820
3056
що автомобіль має робити у наданому сценарії:
12:16
swerve or stay?
232
736900
1200
повернути чи залишитись?
12:19
But then we realized that the problem was a different one.
233
739060
2736
Але згодом ми усвідомили, що проблема, насправді, у іншому.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
Вона у тому, як погодити суспільство та запровадити
12:26
the trade-offs they're comfortable with.
235
746380
1936
компроміси, з якими воно погоджується.
12:28
It's a social dilemma.
236
748340
1256
Це соціальна дилема.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
У 1940-х роках Айзек Азімов написав свої відомі закони робототехніки -
12:34
the three laws of robotics.
238
754660
1320
три закони робототехніки.
12:37
A robot may not harm a human being,
239
757060
2456
Робот не може заподіяти шкоду людині,
12:39
a robot may not disobey a human being,
240
759540
2536
робот повинен підкорятися наказам людини,
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
і робот повинен захищати самого себе -
12:45
in this order of importance.
242
765380
1960
у цій послідовності за важливістю.
12:48
But after 40 years or so
243
768180
2136
Але після 40 років чи близько цього,
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
та після стількох історій, що наполягають на цих трьох законах,
12:54
Asimov introduced the zeroth law
245
774100
3696
Азімов впроваджує нульовий закон,
12:57
which takes precedence above all,
246
777820
2256
що має перевагу над усіма,
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
і він про те, що робот не може заподіяти шкоду людству в цілому.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
Я не знаю, що це значить у контексті безпілотних автомобілів
13:08
or any specific situation,
249
788700
2736
або будь-якої конкретної ситуації,
13:11
and I don't know how we can implement it,
250
791460
2216
і я не знаю, як ми можемо це реалізувати,
13:13
but I think that by recognizing
251
793700
1536
але я думаю, що визнавши,
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
що регулювання безпілотних автомобілів - це не лише технологічна проблема,
13:21
but also a societal cooperation problem,
253
801420
3280
але також проблема соціальної співдружності,
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
сподіваюсь, ми принаймні можемо почати ставити правильні питання.
13:29
Thank you.
255
809020
1216
Дякую.
13:30
(Applause)
256
810260
2920
(Оплиски)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7