What moral decisions should driverless cars make? | Iyad Rahwan

108,849 views ・ 2017-09-08

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Moonjeong Kang 검토: Jihyeon J. Kim
00:12
Today I'm going to talk about technology and society.
0
12820
4080
저는 오늘 기술과 사회에 대한 이야기를 하려고 합니다.
00:18
The Department of Transport estimated that last year
1
18860
3696
교통부 추산에 따르면
작년 한 해 동안 미국에서만 3만 5천 명이 교통사고로 죽었습니다.
00:22
35,000 people died from traffic crashes in the US alone.
2
22580
4080
00:27
Worldwide, 1.2 million people die every year in traffic accidents.
3
27860
4800
세계적으로는 매년 120만 명이 교통사고로 죽죠.
00:33
If there was a way we could eliminate 90 percent of those accidents,
4
33580
4096
만약 이런 사고의 90%를 없앨 수 있는 방법이 있다면
00:37
would you support it?
5
37700
1200
여러분은 지지하시겠습니까?
00:39
Of course you would.
6
39540
1296
물론 그러시겠죠.
00:40
This is what driverless car technology promises to achieve
7
40860
3655
이것이 바로 자율주행차 기술의 목표입니다.
00:44
by eliminating the main source of accidents --
8
44540
2816
사고의 주요 원인이라 할 수 있는
00:47
human error.
9
47380
1200
인간의 실수를 없앰으로써 말이죠.
00:49
Now picture yourself in a driverless car in the year 2030,
10
49740
5416
2030년에 자율주행차에 타고 있다고 상상해 보세요.
00:55
sitting back and watching this vintage TEDxCambridge video.
11
55180
3456
느긋이 앉아서 오래된 TEDxCambridge 영상을 보고 있죠.
00:58
(Laughter)
12
58660
2000
(웃음)
01:01
All of a sudden,
13
61340
1216
여기서 갑자기
01:02
the car experiences mechanical failure and is unable to stop.
14
62580
3280
차량 오작동으로 인해 차를 멈출 수 없게 됩니다.
01:07
If the car continues,
15
67180
1520
만약 계속 간다면
01:09
it will crash into a bunch of pedestrians crossing the street,
16
69540
4120
길 건너편에 있는 보행자들과 부딪칠 거예요.
01:14
but the car may swerve,
17
74900
2135
하지만 차는 방향을 바꾸어서
01:17
hitting one bystander,
18
77059
1857
한 사람만 치어 죽이고
01:18
killing them to save the pedestrians.
19
78940
2080
보행자 무리를 구할 수도 있어요.
01:21
What should the car do, and who should decide?
20
81860
2600
차는 무엇을 해야 하며, 이런 결정은 누가 해야 할까요?
01:25
What if instead the car could swerve into a wall,
21
85340
3536
만약에 보행자들을 구하기 위해서
01:28
crashing and killing you, the passenger,
22
88900
3296
차가 벽으로 돌진해서
01:32
in order to save those pedestrians?
23
92220
2320
탑승자인 당신을 죽게 한다면요?
01:35
This scenario is inspired by the trolley problem,
24
95060
3080
이 시나리오는 '트롤리의 문제'에서 영감을 받았어요.
01:38
which was invented by philosophers a few decades ago
25
98780
3776
수 십 년전에 철학자들이 윤리에 대해 생각하기 위해 고안한 문제죠.
01:42
to think about ethics.
26
102580
1240
01:45
Now, the way we think about this problem matters.
27
105940
2496
우리가 이 문제에 대해 생각하는 방식은 중요합니다.
01:48
We may for example not think about it at all.
28
108460
2616
예를 들어, 우리는 이 문제에 대해 전혀 생각하지 않을 수 있고요.
01:51
We may say this scenario is unrealistic,
29
111100
3376
이 시나리오가 비현실적이라거나
01:54
incredibly unlikely, or just silly.
30
114500
2320
있을 수 없는 일이라거나, 그저 바보같다고도 할 수도 있죠.
01:57
But I think this criticism misses the point
31
117580
2736
하지만 이런 비판은 논점을 벗어나요.
02:00
because it takes the scenario too literally.
32
120340
2160
시나리오를 문자 그대로 받아들이기 때문이죠.
02:03
Of course no accident is going to look like this;
33
123740
2736
물론 사고가 이런 식으로 일어나긴 힘듭니다.
02:06
no accident has two or three options
34
126500
3336
사고가 일어날 수 있는 두 세가지의 확률에서
02:09
where everybody dies somehow.
35
129860
2000
모든 경우에 사망자가 생기는 경우는 잘 없죠.
02:13
Instead, the car is going to calculate something
36
133300
2576
대신에 차는 어떤 확률 같은 걸 계산 할 거예요.
02:15
like the probability of hitting a certain group of people,
37
135900
4896
각 경우에 사람들을 치게 되는 확률 말이죠.
02:20
if you swerve one direction versus another direction,
38
140820
3336
가령, 여러분이 저 쪽 대신 이 쪽으로 방향을 바꾸면
02:24
you might slightly increase the risk to passengers or other drivers
39
144180
3456
탑승자나 다른 운전자들의 위험도가 보행자에 비해 더 증가할겁니다.
02:27
versus pedestrians.
40
147660
1536
02:29
It's going to be a more complex calculation,
41
149220
2160
조금 더 복잡한 계산이 되겠지만
02:32
but it's still going to involve trade-offs,
42
152300
2520
이것은 트레이드 오프와 관련이 있습니다.
02:35
and trade-offs often require ethics.
43
155660
2880
트레이드 오프는 흔히 도덕성을 필요로 합니다.
02:39
We might say then, "Well, let's not worry about this.
44
159660
2736
그럼 이렇게 말하겠죠 "음, 이건 신경쓰지 말자"
02:42
Let's wait until technology is fully ready and 100 percent safe."
45
162420
4640
"기술이 좀 더 발전해서 100% 안전해 질 때까지 기다리자"
02:48
Suppose that we can indeed eliminate 90 percent of those accidents,
46
168340
3680
우리가 앞으로 10년안에
02:52
or even 99 percent in the next 10 years.
47
172900
2840
사고율을 90%, 혹은 99% 까지 감소시킬 수 있다고 가정해 봅시다.
02:56
What if eliminating the last one percent of accidents
48
176740
3176
나머지 1% 의 사고확률을 없애기 위해
02:59
requires 50 more years of research?
49
179940
3120
50 여년의 연구가 더 필요하다면요?
03:04
Should we not adopt the technology?
50
184220
1800
그 기술을 사용하지 말아야 할까요?
03:06
That's 60 million people dead in car accidents
51
186540
4776
이 말은 현재의 추세로 따져보았을 때, 6천만 명의 사람들이
03:11
if we maintain the current rate.
52
191340
1760
차 사고로 죽는 셈이 됩니다.
03:14
So the point is,
53
194580
1216
요점은
03:15
waiting for full safety is also a choice,
54
195820
3616
완벽한 안전을 위해 기다리는 것 또한 하나의 선택이고
03:19
and it also involves trade-offs.
55
199460
2160
트레이드 오프와 관련이 있다는 겁니다.
03:23
People online on social media have been coming up with all sorts of ways
56
203380
4336
사람들은 온라인 소셜미디어에서
이 문제를 회피하기 위한 온갖 방법을 제시해 왔습니다.
03:27
to not think about this problem.
57
207740
2016
03:29
One person suggested the car should just swerve somehow
58
209780
3216
어떤 사람은 차가 어떻게 해서든지 탑승자들과 행인 사이로 가도록
03:33
in between the passengers --
59
213020
2136
03:35
(Laughter)
60
215180
1016
(웃음)
03:36
and the bystander.
61
216220
1256
방향을 틀어야 한다고 했죠.
03:37
Of course if that's what the car can do, that's what the car should do.
62
217500
3360
만약 차가 그렇게 할 수만 있다면, 그렇게 해야 할 겁니다.
03:41
We're interested in scenarios in which this is not possible.
63
221740
2840
우리는 이런 시나리오가 불가능한 경우에 관심이 있습니다.
03:45
And my personal favorite was a suggestion by a blogger
64
225100
5416
제가 개인적으로 가장 좋아하는 의견은 어떤 블로거가 제안한 것인데요.
03:50
to have an eject button in the car that you press --
65
230540
3016
차에 탈출 버튼이 있어서
03:53
(Laughter)
66
233580
1216
(웃음)
03:54
just before the car self-destructs.
67
234820
1667
차가 부서지기 직전에 그 버튼을 누르는 거예요.
03:56
(Laughter)
68
236511
1680
(웃음)
03:59
So if we acknowledge that cars will have to make trade-offs on the road,
69
239660
5200
이렇게 차들이 도로에서 트레이드 오프 함을 인정한다면
04:06
how do we think about those trade-offs,
70
246020
1880
우리는 이 트레이드 오프를 어떤 방식으로 대해야 하며
04:09
and how do we decide?
71
249140
1576
어떻게 결정을 내려야 할까요?
04:10
Well, maybe we should run a survey to find out what society wants,
72
250740
3136
사회가 원하는 게 무엇인지 알기 위해 우리는 아마 설문 조사를 해야 할 거예요.
04:13
because ultimately,
73
253900
1456
왜냐하면, 궁극적으로
04:15
regulations and the law are a reflection of societal values.
74
255380
3960
규제과 법은 사회적 가치를 반영하고 있기 때문입니다.
04:19
So this is what we did.
75
259860
1240
그래서 우리는 다음과 같은 일을 했어요
04:21
With my collaborators,
76
261700
1616
저는 제 동료인
04:23
Jean-François Bonnefon and Azim Shariff,
77
263340
2336
장 프랑수아 보네퐁, 아짐 샤리프와 함께
04:25
we ran a survey
78
265700
1616
설문조사를 실시했어요.
04:27
in which we presented people with these types of scenarios.
79
267340
2855
이런 종류의 시나리오들을 사람들에게 보여줍니다.
04:30
We gave them two options inspired by two philosophers:
80
270219
3777
두 철학자에게서 영감을 받은 두 가지 옵션을 줍니다.
04:34
Jeremy Bentham and Immanuel Kant.
81
274020
2640
제레미 벤담과 엠마누엘 칸트
04:37
Bentham says the car should follow utilitarian ethics:
82
277420
3096
벤담은 차가 공리주의적 윤리에 따라야 한다고 말합니다.
04:40
it should take the action that will minimize total harm --
83
280540
3416
전체의 피해를 최소화할 수 있는 행동을 취해야 한다는 입장이죠
04:43
even if that action will kill a bystander
84
283980
2816
그 결정이 한 사람의 행인이나
04:46
and even if that action will kill the passenger.
85
286820
2440
탑승자를 죽이는 결정이라 하더라도요.
04:49
Immanuel Kant says the car should follow duty-bound principles,
86
289940
4976
칸트는 차가 의무에 입각한 원칙을 따라야 한다고 합니다.
04:54
like "Thou shalt not kill."
87
294940
1560
가령 "살인을 하지 말라" 와 같은 원칙이죠.
04:57
So you should not take an action that explicitly harms a human being,
88
297300
4456
명백하게 인류를 해치게 만드는 행위를 해서는 안되고
05:01
and you should let the car take its course
89
301780
2456
차가 원래 가던길을 가게 해야 합니다.
05:04
even if that's going to harm more people.
90
304260
1960
그 결정이 더 많은 사람들을 죽이게 될지라도요.
05:07
What do you think?
91
307460
1200
어떻게 생각하시나요?
05:09
Bentham or Kant?
92
309180
1520
벤담입니까? 칸트입니까?
05:11
Here's what we found.
93
311580
1256
설문조사의 결과입니다.
05:12
Most people sided with Bentham.
94
312860
1800
대부분의 사람들이 벤담의 손을 들었습니다.
05:15
So it seems that people want cars to be utilitarian,
95
315980
3776
사람들은 차가 공리주의적으로
05:19
minimize total harm,
96
319780
1416
전체 피해를 최소화하길 원하며
05:21
and that's what we should all do.
97
321220
1576
우리 모두가 그렇게 하길 바랍니다.
05:22
Problem solved.
98
322820
1200
문제는 해결되었습니다.
05:25
But there is a little catch.
99
325060
1480
하지만 조금 걸리는 점이 있어요.
05:27
When we asked people whether they would purchase such cars,
100
327740
3736
우리가 사람들에게 이런 차를 사겠냐고 물었더니
05:31
they said, "Absolutely not."
101
331500
1616
절대로 사지 않겠다고 대답했어요.
05:33
(Laughter)
102
333140
2296
(웃음)
05:35
They would like to buy cars that protect them at all costs,
103
335460
3896
사람들은 어떻게 해서든 자기를 보호할 차를 사고싶어 하지만
05:39
but they want everybody else to buy cars that minimize harm.
104
339380
3616
다른 사람들은 전체 피해를 최소화하는 차를 사길 원하죠.
05:43
(Laughter)
105
343020
2520
(웃음)
05:46
We've seen this problem before.
106
346540
1856
우리는 전에 이 문제를 본 적이 있어요.
05:48
It's called a social dilemma.
107
348420
1560
이것을 사회적 딜레마라고 합니다.
05:50
And to understand the social dilemma,
108
350980
1816
사회적 딜레마를 이해하기 위해서는
05:52
we have to go a little bit back in history.
109
352820
2040
역사를 잠시 살펴보아야 합니다.
05:55
In the 1800s,
110
355820
2576
1800년대에
05:58
English economist William Forster Lloyd published a pamphlet
111
358420
3736
영국 경제학자인 윌리엄 포스터 로이드가 글을 발표했는데
06:02
which describes the following scenario.
112
362180
2216
다음과 같은 시나리오를 담고 있어요.
06:04
You have a group of farmers --
113
364420
1656
한 무리의 농부들이 있어요.
06:06
English farmers --
114
366100
1336
영국 농부들이구요
06:07
who are sharing a common land for their sheep to graze.
115
367460
2680
이들은 양을 방목하기 위한 땅을 공유하고 있어요.
06:11
Now, if each farmer brings a certain number of sheep --
116
371340
2576
각 농부마다 몇 마리의 양을 데리고 와요.
06:13
let's say three sheep --
117
373940
1496
농부당 세 마리 라고 합시다.
06:15
the land will be rejuvenated,
118
375460
2096
땅은 활력을 찾을 것이고
06:17
the farmers are happy,
119
377580
1216
농부들은 행복하고
06:18
the sheep are happy,
120
378820
1616
양들도 행복하고
06:20
everything is good.
121
380460
1200
모든 것이 좋을 거예요.
06:22
Now, if one farmer brings one extra sheep,
122
382260
2520
이제 한 농부가 양을 한 마리 더 데리고 와요.
06:25
that farmer will do slightly better, and no one else will be harmed.
123
385620
4720
그 농부는 조금 더 이익을 보지만, 여기서 손해를 보는 사람은 아무도 없어요.
06:30
But if every farmer made that individually rational decision,
124
390980
3640
하지만 모든 농부가 이렇게 개인에게 합리적인 선택을 한다면
06:35
the land will be overrun, and it will be depleted
125
395660
2720
땅은 꽉 차게 되고, 고갈될 거예요.
06:39
to the detriment of all the farmers,
126
399180
2176
농부들에게 해를 입히고
06:41
and of course, to the detriment of the sheep.
127
401380
2120
양들에게까지 해를 입힐 정도로 말이죠.
06:44
We see this problem in many places:
128
404540
3680
우리는 많은 곳에서 이와 비슷한 문제를 봅니다.
06:48
in the difficulty of managing overfishing,
129
408900
3176
남획 관리의 어려움에서
06:52
or in reducing carbon emissions to mitigate climate change.
130
412100
4560
혹은 기후 변화를 완화하기 위해 탄소 배출량을 줄이는 것에서요.
06:58
When it comes to the regulation of driverless cars,
131
418980
2920
자율주행차에 대한 규제에 있어서
07:02
the common land now is basically public safety --
132
422900
4336
공유지는 기본적으로 공공안전입니다.
07:07
that's the common good --
133
427260
1240
그것이 공익입니다.
07:09
and the farmers are the passengers
134
429220
1976
농부들은 탑승자들 혹은
07:11
or the car owners who are choosing to ride in those cars.
135
431220
3600
그 차에 타는 결정을 한 차량소유주들 이겠죠.
07:16
And by making the individually rational choice
136
436780
2616
본인의 안전을 우선으로 하는
07:19
of prioritizing their own safety,
137
439420
2816
개인에게 합리적인 선택을 함으로써
07:22
they may collectively be diminishing the common good,
138
442260
3136
총체적으로는
전체적인 피해를 최소화하는, 이 공익을 약화시킬 겁니다.
07:25
which is minimizing total harm.
139
445420
2200
07:30
It's called the tragedy of the commons,
140
450140
2136
이것은 공유지의 비극으로 불립니다
07:32
traditionally,
141
452300
1296
전통적으로요,
07:33
but I think in the case of driverless cars,
142
453620
3096
하지만 자율주행차의 경우엔
07:36
the problem may be a little bit more insidious
143
456740
2856
이 문제는 좀 미묘하게 됩니다.
07:39
because there is not necessarily an individual human being
144
459620
3496
왜냐하면 개개인이 반드시 그런 선택을 해야하는 것은
07:43
making those decisions.
145
463140
1696
07:44
So car manufacturers may simply program cars
146
464860
3296
따라서 자동차 제조사들은 아마 고객의 안전을 최대한 보장하도록
07:48
that will maximize safety for their clients,
147
468180
2520
차량 프로그램을 단순하게 할 겁니다.
07:51
and those cars may learn automatically on their own
148
471900
2976
그러면 차들은 자동으로 자율학습을 할 수 있습니다.
07:54
that doing so requires slightly increasing risk for pedestrians.
149
474900
3520
그러한 선택이 보행자들의 위험을 살짝 증가시킨다는 점을 말이죠.
07:59
So to use the sheep metaphor,
150
479340
1416
양으로 비유하자면
08:00
it's like we now have electric sheep that have a mind of their own.
151
480780
3616
우린 이제 스스로 생각할 수 있는 전자 양으로 가진 셈이죠.
08:04
(Laughter)
152
484420
1456
(웃음)
08:05
And they may go and graze even if the farmer doesn't know it.
153
485900
3080
이 양들은 농부 몰래 가서 풀을 뜯어 먹을 수 있어요.
08:10
So this is what we may call the tragedy of the algorithmic commons,
154
490460
3976
우리는 이것을 알고리즘적 공유지의 비극이라 부를 수 있겠고요.
08:14
and if offers new types of challenges.
155
494460
2360
이는 새로운 종류의 도전을 야기합니다.
08:22
Typically, traditionally,
156
502340
1896
일반적으로, 전통적으로
08:24
we solve these types of social dilemmas using regulation,
157
504260
3336
이런 종류의 사회적 딜레마를 해결하기 위해서 규제가 사용됩니다.
08:27
so either governments or communities get together,
158
507620
2736
정부나 지역사회들이 함께 모여 집단적으로 결정합니다.
08:30
and they decide collectively what kind of outcome they want
159
510380
3736
어떤 종류의 결과를 원하는지
08:34
and what sort of constraints on individual behavior
160
514140
2656
그리고 개인들의 행동에 대해선
어떤 종류의 제한을 둘 것인지를 말이죠.
08:36
they need to implement.
161
516820
1200
08:39
And then using monitoring and enforcement,
162
519420
2616
그런 다음에, 감시과 강화를 통해
08:42
they can make sure that the public good is preserved.
163
522060
2559
공익이 보존됨을 확인할 수 있죠.
08:45
So why don't we just,
164
525260
1575
그렇다면 우리는
08:46
as regulators,
165
526859
1496
규제를 만드는 입장으로서
08:48
require that all cars minimize harm?
166
528379
2897
모든 차량들에게 그저 피해를 최소화하도록 요구하면 되는 것 아닐까요?
08:51
After all, this is what people say they want.
167
531300
2240
결국엔 이것이 사람들이 원한다고 말하는 것이에요.
08:55
And more importantly,
168
535020
1416
그리고 더 중요한 것은
08:56
I can be sure that as an individual,
169
536460
3096
한 개인으로서 저는 확신합니다.
08:59
if I buy a car that may sacrifice me in a very rare case,
170
539580
3856
제가 만약 아주 드물 확율로 저를 희생시킬 수도 있는 차를 산다면
09:03
I'm not the only sucker doing that
171
543460
1656
다른 모든 사람들이 무조건적인 보호를 즐기는 동안
09:05
while everybody else enjoys unconditional protection.
172
545140
2680
저만 홀로 그런 선택을 하는 사람은 아닐 겁니다.
09:08
In our survey, we did ask people whether they would support regulation
173
548940
3336
우리 설문 조사에서 사람들에게 규제를 지지하는지를 물어보았고
09:12
and here's what we found.
174
552300
1200
여기 그 결과가 있습니다.
09:14
First of all, people said no to regulation;
175
554180
3760
우선 사람들은 규제에는 반대한다고 했습니다.
09:19
and second, they said,
176
559100
1256
그리고 말하더군요.
09:20
"Well if you regulate cars to do this and to minimize total harm,
177
560380
3936
"만약 차량에 대해 이런식으로 규제를 하고, 전체 피해를 줄이고자 한다면"
09:24
I will not buy those cars."
178
564340
1480
"그 차를 사지 않겠어요"
09:27
So ironically,
179
567220
1376
아이러니하게도
09:28
by regulating cars to minimize harm,
180
568620
3496
피해를 최소화하려고 규제를 하는 것은
09:32
we may actually end up with more harm
181
572140
1840
더 큰 피해를 불러올 수 있습니다
09:34
because people may not opt into the safer technology
182
574860
3656
왜냐하면 사람들이 더 안전한 기술에 동의하지 않을 수도 있기 때문이죠.
09:38
even if it's much safer than human drivers.
183
578540
2080
비록 그것이 사람이 운전하는 것보다 훨씬 안전하다 할지라도요.
09:42
I don't have the final answer to this riddle,
184
582180
3416
이 난제에 대한 최종 정답은 없습니다.
09:45
but I think as a starting point,
185
585620
1576
하지만 출발점으로서
09:47
we need society to come together
186
587220
3296
사회를 한 곳에 모을 필요는 있습니다.
09:50
to decide what trade-offs we are comfortable with
187
590540
2760
어떤 트레이드 오프가 우리에게 편안한지를 결정하고
09:54
and to come up with ways in which we can enforce those trade-offs.
188
594180
3480
그 트레이드 오프를 실행하기 위한 방법들을 제시하기 위해서 말이죠
09:58
As a starting point, my brilliant students,
189
598340
2536
출발점으로서
저의 똑똑한 학생들인 에드몬드 어와드와 소한 드수자는
10:00
Edmond Awad and Sohan Dsouza,
190
600900
2456
10:03
built the Moral Machine website,
191
603380
1800
도덕 기계 (Moral Machine) 웹사이트를 만들었습니다.
10:06
which generates random scenarios at you --
192
606020
2680
랜덤한 시나리오들을 여러분에게 보여줍니다.
10:09
basically a bunch of random dilemmas in a sequence
193
609900
2456
기본적으로 랜덤한 딜레마들이 연속적으로 나오는 것이고요.
10:12
where you have to choose what the car should do in a given scenario.
194
612380
3920
여러분은 차가 무엇을 해야 하는지를 골라야 합니다.
10:16
And we vary the ages and even the species of the different victims.
195
616860
4600
여기서 희생자들의 나이와 인종은 각각 다릅니다.
10:22
So far we've collected over five million decisions
196
622860
3696
지금까지 우리는 500만 건이 넘는 결정들을 수집했습니다.
10:26
by over one million people worldwide
197
626580
2200
전 세계적으로 100만명이 넘는 사람들이
10:30
from the website.
198
630220
1200
웹사이트를 통해 참여했습니다.
10:32
And this is helping us form an early picture
199
632180
2416
이 결과는 저희가 초기 연구를 만드는 데에 도움이 되고 있습니다.
10:34
of what trade-offs people are comfortable with
200
634620
2616
사람들이 편안해 하는 트레이드 오프가 무엇이고
10:37
and what matters to them --
201
637260
1896
무엇이 그들에게 중요한지에 대해서
10:39
even across cultures.
202
639180
1440
문화를 넘어서까지 말이죠.
10:42
But more importantly,
203
642060
1496
하지만 더 중요한 것은
10:43
doing this exercise is helping people recognize
204
643580
3376
이 훈련은 사람들로 하여금
10:46
the difficulty of making those choices
205
646980
2816
이런 선택을 하는 것이 힘들다는 것과
10:49
and that the regulators are tasked with impossible choices.
206
649820
3800
결정권자들이 불가능한 선택을 가지고 일함을 인지시키는데에 도움이 되고 있습니다.
10:55
And maybe this will help us as a society understand the kinds of trade-offs
207
655180
3576
이것은 사회가 궁극적으로 규제로 만들 트레이드 오프의 종류를 이해하는 데
10:58
that will be implemented ultimately in regulation.
208
658780
3056
도움이 될 것입니다.
11:01
And indeed, I was very happy to hear
209
661860
1736
지난주에 교통부에서
11:03
that the first set of regulations
210
663620
2016
첫 번째 규제를 발표했다는 소식을 듣고
11:05
that came from the Department of Transport --
211
665660
2136
11:07
announced last week --
212
667820
1376
저는 참으로 기뻤습니다.
11:09
included a 15-point checklist for all carmakers to provide,
213
669220
6576
이 규제는 모든 자동차 회사들이 제공해야 할 15개의 체크리스트를 담고 있는데
11:15
and number 14 was ethical consideration --
214
675820
3256
이 중 14번이 윤리적인 고려입니다.
11:19
how are you going to deal with that.
215
679100
1720
그걸 어떻게 처리할 것이냐 하는 것이죠.
11:23
We also have people reflect on their own decisions
216
683620
2656
우리는 또 사람들에게 자신의 선택들을 돌이켜보게 합니다.
11:26
by giving them summaries of what they chose.
217
686300
3000
그들이 선택한 것을 다시 요약해줌으로써 말이죠.
11:30
I'll give you one example --
218
690260
1656
한 가지 예를 들어볼게요.
11:31
I'm just going to warn you that this is not your typical example,
219
691940
3536
여러분에게 경고드립니다.
이것은 일반적인 예나 일반적인 사용자가 아닙니다.
11:35
your typical user.
220
695500
1376
11:36
This is the most sacrificed and the most saved character for this person.
221
696900
3616
이것은 이 사람에게 가장 희생되고 가장 구원받은 캐릭터입니다.
11:40
(Laughter)
222
700540
5200
(웃음)
11:46
Some of you may agree with him,
223
706500
1896
여러분 중 일부는
11:48
or her, we don't know.
224
708420
1640
이 사람에게 동의하실지도 모르겠어요.
11:52
But this person also seems to slightly prefer passengers over pedestrians
225
712300
6136
하지만 이 사람의 선택을 살펴보면
보행자 보다는 탑승자를 약간 더 선호하고
11:58
in their choices
226
718460
2096
12:00
and is very happy to punish jaywalking.
227
720580
2816
무단횡단자를 벌주고 싶어해요.
12:03
(Laughter)
228
723420
3040
(웃음)
12:09
So let's wrap up.
229
729140
1216
정리하겠습니다.
12:10
We started with the question -- let's call it the ethical dilemma --
230
730379
3416
우리는 이 질문과 함께 시작했어요. 윤리적 딜레마라고 부를게요.
12:13
of what the car should do in a specific scenario:
231
733820
3056
시나리오 상에서 차가 어떻게 해야하는지를 물어요.
12:16
swerve or stay?
232
736900
1200
방향을 틀 것인가? 가만히 있을 것인가?
12:19
But then we realized that the problem was a different one.
233
739060
2736
그런 다음에 우린 문제는 다른 것이라는 사실을 깨닫죠.
12:21
It was the problem of how to get society to agree on and enforce
234
741820
4536
그것은 어떻게 사회적인 합의를 이끌어내고
12:26
the trade-offs they're comfortable with.
235
746380
1936
사람들이 편안해하는 트레이드 오프를 집행할 것인가의 문제였죠.
12:28
It's a social dilemma.
236
748340
1256
이것은 사회적 딜레마입니다.
12:29
In the 1940s, Isaac Asimov wrote his famous laws of robotics --
237
749620
5016
1940년대에 아이작 아시모프는
그의 유명한 로봇의 3원칙을 저술합니다.
12:34
the three laws of robotics.
238
754660
1320
12:37
A robot may not harm a human being,
239
757060
2456
로봇은 인간에게 해를 끼칠 수 없고
12:39
a robot may not disobey a human being,
240
759540
2536
로봇은 인간이 내리는 명령에 복종해야 하며
12:42
and a robot may not allow itself to come to harm --
241
762100
3256
로봇은 자신의 존재를 보호해야 한다.
12:45
in this order of importance.
242
765380
1960
순서대로 중요하죠.
12:48
But after 40 years or so
243
768180
2136
하지만 40여년의 세월이 흐르고
12:50
and after so many stories pushing these laws to the limit,
244
770340
3736
많은 스토리들이 나타나며 이 법칙들이 한계에 부딪치자
12:54
Asimov introduced the zeroth law
245
774100
3696
아시모프는 0번째 법칙을 소개했습니다.
12:57
which takes precedence above all,
246
777820
2256
이는 3가지 법칙보다 우선하는 법칙으로
13:00
and it's that a robot may not harm humanity as a whole.
247
780100
3280
바로, 로봇은 인류 전체에게 해를 끼칠 수 없다는 것입니다.
13:04
I don't know what this means in the context of driverless cars
248
784300
4376
저는 이것이 자율주행차의 경우나 다른 경우에 있어
13:08
or any specific situation,
249
788700
2736
어떤 의미가 되는지 잘 모르겠습니다.
13:11
and I don't know how we can implement it,
250
791460
2216
우리가 어떻게 구현할지도 잘 모르겠고요.
13:13
but I think that by recognizing
251
793700
1536
하지만 자율주행차에 대한 규제가
13:15
that the regulation of driverless cars is not only a technological problem
252
795260
6136
단지 기술적인 문제가 아니라
13:21
but also a societal cooperation problem,
253
801420
3280
사회적 협력 문제임을 인식함으로써
13:25
I hope that we can at least begin to ask the right questions.
254
805620
2880
우리가 적어도 올바른 질문을 시작할 수 있게 되기를 희망해봅니다.
13:29
Thank you.
255
809020
1216
감사합니다.
13:30
(Applause)
256
810260
2920
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7