The ethical dilemma of self-driving cars - Patrick Lin

자율주행차의 운리적 딜레마 |패트릭 린(Patrick Lin)

2,078,144 views

2015-12-08 ・ TED-Ed


New videos

The ethical dilemma of self-driving cars - Patrick Lin

자율주행차의 운리적 딜레마 |패트릭 린(Patrick Lin)

2,078,144 views ・ 2015-12-08

TED-Ed


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Sanghyun Hahn 검토: Lee Juwon
00:07
This is a thought experiment.
0
7246
2042
이건 사고 실험입니다.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
언젠가 그리 멀리 않은 미래에
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
당신은 자율주행차를 타고 고속도로를 달릴 것 입니다.
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
그리고 다른 차에 둘러싸인 자신을 발견하게 될 것 입니다.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
갑자기 앞에서 달리던 트럭에서 크고 무거운 물체가 떨어집니다.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
당신의 차는 충돌을 피하기 위해 제시간에 멈출 수 없습니다.
00:27
so it needs to make a decision:
6
27371
2042
그렇다면 결정을 해야 합니다.
00:29
go straight and hit the object,
7
29413
2250
직진해서 물체에 충돌한다.
00:31
swerve left into an SUV,
8
31663
2291
SUV를 향에 왼쪽으로 방향을 튼다.
00:33
or swerve right into a motorcycle.
9
33954
3000
혹은 오토바이를 향해 오른쪽으로 방향을 튼다.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
당신의 안전을 우선으로 고려해서 오토바이와 충돌해야 할까요?
00:40
minimize danger to others by not swerving,
11
40454
2792
타인의 위험을 최소화하기 위해 방향을 틀지 않아야 할까요?
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
비록 큰 물체에 충돌해 당신의 목숨을 희생하는 것이라도요.
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
혹은 SUV에 충돌할 수도 있습니다.
00:50
which has a high passenger safety rating?
14
50079
3000
SUV는 안전등급이 높기 때문입니다.
00:53
So what should the self-driving car do?
15
53079
3208
자, 그럼 자율주행차는 어떤 선택을 해야 할까요?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
만약 우리가 저 상황에서 차를 직접 운전하고 있었다면
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
어떠한 결과든 단순한 반사반응이라고 생각할 것입니다.
01:03
a reaction,
18
63037
1292
01:04
not a deliberate decision.
19
64329
2250
의도적인 결정이 아니라요.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
비계획적이고 악의없는 본능적인 움직임말입니다.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
그러나 같은 선택이라도 프로그래머가 미리 설정해 놓은 것이라면요?
01:14
given conditions it may sense in the future,
22
74496
2833
미래의 이러한 상황에 대비해서요.
01:17
well, that looks more like premeditated homicide.
23
77329
4292
그건 좀 더 계획된 살인처럼 보이네요.
01:21
Now, to be fair,
24
81621
1000
객관적으로 말하자면
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
자율주행차는 교통사고를 획기적으로 줄일 것입니다.
01:26
and fatalities
26
86704
1250
교통사고 사망률도요.
01:27
by removing human error from the driving equation.
27
87954
3167
주행 시 일어날 수 있는 사람의 실수를 없애기 때문입니다.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
이것뿐만이 아닙니다.
01:33
eased road congestion,
29
93496
1667
교통체증을 줄이고,
01:35
decreased harmful emissions,
30
95163
1541
배기가스를 감소시키며,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
비생산적이고 스트레스 받는 운전 시간을 최소화합니다.
01:41
But accidents can and will still happen,
32
101329
2167
그래도 교통사고는 피할 수 없습니다.
01:43
and when they do,
33
103496
1167
그러나 사고가 일어날 때,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
그 결과는 몇 달 혹은 몇 년 전에 미리 정해질 겁니다.
01:49
by programmers or policy makers.
35
109163
2583
프로그래머 혹은 정책결정자에 의해서요.
01:51
And they'll have some difficult decisions to make.
36
111746
2500
그리고 그들은 결단을 내려야합니다.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
일반적인 의사결정 규칙을 적용하는 것은 쉽습니다.
01:57
like minimize harm,
38
117204
1875
인명 피해를 최소화하는 것처럼요.
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
그러나 비도덕적인 결정일 수 있습니다.
02:02
For example,
40
122454
1167
예를 들어,
02:03
let's say we have the same initial set up,
41
123621
2000
동일한 초기 상황을 가정해 봅시다.
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
그러나 이번에는 왼쪽에 헬멧을 쓴 운전자가 있습니다.
02:08
and another one without a helmet to your right.
43
128496
2792
그리고 헬멧을 쓰지 않은 운전자가 오른쪽에 있습니다.
02:11
Which one should your robot car crash into?
44
131288
3083
당신의 차는 누구와 충돌해야 할까요?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
만약 헬멧을 쓴 운전자가 생존확률이 높기 때문에 선택한다면
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
책임감 있는 오토바이 운전자에게 불이익을 가하는 건 아닐까요?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
대신 무책임하다는 이유로
헬멧을 쓰지 않은 운전자를 선택한다면,
02:24
because he's acting irresponsibly,
48
144121
2000
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
상해를 최소화한다는 설계 원칙에서 이미 한참 벗어났고,
02:30
and the robot car is now meting out street justice.
50
150996
3875
이 로봇 차는 제멋대로 정의를 따르고 있는 것뿐입니다.
02:34
The ethical considerations get more complicated here.
51
154871
3542
윤리적 고려사항은 여기서 더 복잡합니다.
02:38
In both of our scenarios,
52
158413
1375
앞의 두 선택지 모두 타겟팅 알고리즘을 기본으로 하고 있습니다.
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
02:44
In other words,
54
164288
1000
다시 말해서,
02:45
it's systematically favoring or discriminating
55
165288
2500
어떤 물체에 충돌할지에 대해
02:47
against a certain type of object to crash into.
56
167788
3500
선호나 차별이 있다는 거죠.
02:51
And the owners of the target vehicles
57
171288
2333
(충돌)대상 차량의 소유자는
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
그들의 잘못이 아님에도 이 알고리즘의 부정적 결론에 따라
02:56
through no fault of their own.
59
176663
2083
고통을 받을 것입니다.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
우리의 신기술은 새로운 도덕적 딜레마를 만듭니다.
03:03
For instance, if you had to choose between
61
183413
2083
예를 들어, 차를 사야하는데
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
사고시 가능한 많은 목숨을 살리는 차와
03:09
or one that would save you at any cost,
63
189538
3041
어떤 댓가를 지불하더라도 당신을 살리는 차 중
03:12
which would you buy?
64
192579
1667
당신은 어떤 걸 구입할 건가요?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
만약 차량이 승객의 삶을 분석하고 평가한다면 어떻게 될까요?
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
여전히 반사적 반응이
03:21
Could it be the case that a random decision
67
201038
2166
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
피해를 최소화하기 위해 미리 설정된 것 보다 나을까요?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
그리고 이 모든 결정은 누가 그리고 어떻게 내려야 할까요?
03:30
Programmers? Companies? Governments?
70
210829
2709
프로그래머?
회사?
정부?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
현실은 아마 우리의 사고실험과 정확히 일치하진 않을겁니다.
03:37
but that's not the point.
72
217579
1667
하지만 그건 핵심이 아닙니다.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
사고실험은 윤리에 대한 우리의 직관을 규정하고 시험하기 위해서 설계되었습니다.
03:43
just like science experiments do for the physical world.
74
223579
3000
마치 물리적 세계에 대해 과학실험을 하는 것 처럼요.
03:46
Spotting these moral hairpin turns now
75
226579
3375
이렇게 미묘한 윤리적 쟁점을 지금 발견하는 것은
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
우리가 익숙치 않은 기술윤리의 길을 나아가고,
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
우리가 확신을 가지고 양심적으로
03:57
into our brave new future.
78
237288
2375
멋진 미래를 항해하도록 할 겁니다.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7