The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Phuong Dinh Reviewer: Giang Hà
00:07
This is a thought experiment.
0
7246
2042
Đây là một thử nghiệm về nhận thức.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Giả sử tại một thời điểm nào đó không xa,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
bạn đang đi trên đường cao tốc trong chiếc xe tự lái của bạn,
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
và bạn bị vây quanh bởi các xe khác.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Bỗng nhiên, một vật to và nặng rơi xuống từ chiếc xe tải ngay trước mặt bạn.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
Bạn không thể dừng lại lập tức để tránh bị va chạm,
00:27
so it needs to make a decision:
6
27371
2042
nên bạn cần ra quyết định lập tức:
00:29
go straight and hit the object,
7
29413
2250
đi thẳng và đụng vào vật đó,
00:31
swerve left into an SUV,
8
31663
2291
quẹo trái trúng chiếc SUV,
00:33
or swerve right into a motorcycle.
9
33954
3000
hay quẹo phải trúng chiếc xe máy.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Chiếc xe sẽ ưu tiên sự an toàn của bạn bằng cách tông vào xe máy,
00:40
minimize danger to others by not swerving,
11
40454
2792
giảm nguy hiểm cho người khác bằng cách đi thẳng,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
mặc dù đó nghĩa là tông vào vật lớn và hi sinh mạng sống của bạn,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
hay lựa chọn tông vào chiếc SUV,
00:50
which has a high passenger safety rating?
14
50079
3000
khi mà khả năng an toàn cho hành khách trên xe khá cao?
00:53
So what should the self-driving car do?
15
53079
3208
Vậy xe tự lái sẽ làm gì?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Nếu chúng ta chạy xe ở chế độ người lái,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
cách phản ứng nào của chúng ta đều được xem là,
01:03
a reaction,
18
63037
1292
một phản ứng đơn thuần,
01:04
not a deliberate decision.
19
64329
2250
không phải một quyết định có tính suy xét.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Nó sẽ là phản ứng tự nhiên mà không có sự suy nghĩ hay ý đồ xấu.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Nhưng nếu một người lập trình ra lệnh cho chiếc xe phản ứng tương tự,
01:14
given conditions it may sense in the future,
22
74496
2833
trong một tình huống có thể xảy ra ở tương lai,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
có thể bị coi là giết người có chủ đích.
01:21
Now, to be fair,
24
81621
1000
Để công bằng,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
xe tự lái được cho là sẽ giảm thiểu tai nạn giao thông đáng kể
01:26
and fatalities
26
86704
1250
và tỉ lệ thương vong
01:27
by removing human error from the driving equation.
27
87954
3167
bằng việc loại bỏ sự sai sót của con người trong phương trình lái xe.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Và, còn có những lợi ích khác:
01:33
eased road congestion,
29
93496
1667
giảm tắc đường,
01:35
decreased harmful emissions,
30
95163
1541
giảm khí thải độc hại,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
và rút ngắn thời gian lái xe vô bổ và căng thẳng.
01:41
But accidents can and will still happen,
32
101329
2167
Nhưng tai nạn vẫn và sẽ tiếp tục xảy ra,
01:43
and when they do,
33
103496
1167
và khi đó,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
hậu quả của nó có thể đã được xác định vài tháng hay vài năm trước đó
01:49
by programmers or policy makers.
35
109163
2583
bởi người lập trình viên hay nhà hoạch định chính sách
01:51
And they'll have some difficult decisions to make.
36
111746
2500
Và họ sẽ phải đưa ra những quyết định khó khăn.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
Chúng ta thường hướng tới những nguyên tắc ra quyết định
01:57
like minimize harm,
38
117204
1875
như giảm thiểu thiệt hại,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
nhưng những nguyên tắc này cũng gặp phải các vấn đề đạo đức.
02:02
For example,
40
122454
1167
Ví dụ như,
02:03
let's say we have the same initial set up,
41
123621
2000
trong hoàn cảnh tương tự,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
nhưng giờ người đi xe máy phía bên trái có đội nón bảo hiểm
02:08
and another one without a helmet to your right.
43
128496
2792
và một người khác không đội nón bên phải bạn.
02:11
Which one should your robot car crash into?
44
131288
3083
Xe tự lái của bạn sẽ chọn tông vào ai?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Nếu bạn nói người đó là người có nón bảo hiểm vì khả năng sống sót cao hơn,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
vậy nghĩa là bạn đang trừng phạt một người lái xe có trách nhiệm?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Nói cách khác, bạn sẽ cứu người không có nón
02:24
because he's acting irresponsibly,
48
144121
2000
bời vì anh ta hành động vô trách nhiệm,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
khi đó bạn đã đi quá xa khỏi ranh giới nguyên tắc giảm thiểu thiệt hại,
02:30
and the robot car is now meting out street justice.
50
150996
3875
và chiếc xe giờ đối mặt với công lý trên đường.
02:34
The ethical considerations get more complicated here.
51
154871
3542
Vần đề đạo đức càng trở nên phức tạp hơn.
02:38
In both of our scenarios,
52
158413
1375
Trong cả hai tình huống trên,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
thiết kế mấu chốt đang hoạt động như một hàm số.
02:44
In other words,
54
164288
1000
Nói cách khác,
02:45
it's systematically favoring or discriminating
55
165288
2500
nó lựa chọn và lọc ra có hệ thống
02:47
against a certain type of object to crash into.
56
167788
3500
những vật mà xe tự lái có thể va chạm.
02:51
And the owners of the target vehicles
57
171288
2333
Và người điều khiển phương tiện mục tiêu
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
sẽ phải chịu những hậu quả từ hàm số này
02:56
through no fault of their own.
59
176663
2083
mặc dù họ không có lỗi.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Công nghệ mới của chúng ta đang mở ra nhiều tình huống nan giải khác.
03:03
For instance, if you had to choose between
61
183413
2083
Ví dụ, nếu bạn phải lựa chọn giữa việc
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
một chiếc xe luôn cố gắng cứu càng nhiều mạng người càng tốt khi tai nạn xảy ra,
03:09
or one that would save you at any cost,
63
189538
3041
và chiếc xe chỉ cứu sống bạn bằng mọi giá,
03:12
which would you buy?
64
192579
1667
bạn sẽ mua chiếc nào?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Điều gì sẽ xảy ra nếu những chiếc xe tự phân tích và bao hàm
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
các hành khách trên xe và mạng sống của từng người?
03:21
Could it be the case that a random decision
67
201038
2166
Như vậy, liệu một quyết định ngẫu nhiên
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
sẽ tốt hơn là quyết định có suy tính trước để giảm thiểu thiệt hại?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
Và ai sẽ là người ra những quyết định này?
03:30
Programmers? Companies? Governments?
70
210829
2709
Lập trình viên?
Công ty?
Chính phủ?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
Thực tế có thể sẽ không giống thử nghiệm của chúng ta,
03:37
but that's not the point.
72
217579
1667
nhưng đó không phải là điểm chính.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Các thử nghiệm nhằm cô lập và thử thách trực giác của chúng ta về đạo đức,
03:43
just like science experiments do for the physical world.
74
223579
3000
giống như thí nghiệm khoa học đã làm trong thế giới vật chất.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Nhận ra các phương diện về mặt đạo đức
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
sẽ giúp chúng ta tinh chỉnh đạo đức công nghệ trên con đường mới mẻ,
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
và cho phép ta tự tin và sáng suốt trong hành trình
03:57
into our brave new future.
78
237288
2375
vào một tương lai tươi sáng.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7