The ethical dilemma of self-driving cars - Patrick Lin

2,078,144 views ・ 2015-12-08

TED-Ed


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Camilla Casula Revisore: Marco Longhin
00:07
This is a thought experiment.
0
7246
2042
Questo è un esperimento mentale.
00:09
Let's say at some point in the not so distant future,
1
9288
2625
Ipotizziamo che a un certo punto, in un futuro non troppo lontano,
00:11
you're barreling down the highway in your self-driving car,
2
11913
3583
stiate sfrecciando in autostrada sulla vostra macchina senza conducente,
00:15
and you find yourself boxed in on all sides by other cars.
3
15496
4292
e vi troviate circondati su tutti i lati da altri veicoli.
00:19
Suddenly, a large, heavy object falls off the truck in front of you.
4
19788
4416
Improvvisamente, un oggetto voluminoso e pesante cade dal camion davanti a voi.
00:24
Your car can't stop in time to avoid the collision,
5
24204
3167
La vostra auto non può fermarsi in tempo per evitare l'impatto,
00:27
so it needs to make a decision:
6
27371
2042
e deve prendere una decisione:
00:29
go straight and hit the object,
7
29413
2250
proseguire diritto e colpire l'oggetto,
00:31
swerve left into an SUV,
8
31663
2291
sterzare a sinistra e urtare un SUV,
00:33
or swerve right into a motorcycle.
9
33954
3000
o sterzare a destra e colpire una moto.
00:36
Should it prioritize your safety by hitting the motorcycle,
10
36954
3500
Dovrebbe dare priorità alla vostra sicurezza colpendo la moto,
00:40
minimize danger to others by not swerving,
11
40454
2792
ridurre al minimo il danno agli altri senza sterzare,
00:43
even if it means hitting the large object and sacrificing your life,
12
43246
4083
anche se ciò significa schiantarsi contro il carico e sacrificare la vostra vita,
00:47
or take the middle ground by hitting the SUV,
13
47329
2750
oppure dovrebbe scegliere la via di mezzo e urtare il SUV,
00:50
which has a high passenger safety rating?
14
50079
3000
che ha un livello di sicurezza dei passeggeri elevato?
00:53
So what should the self-driving car do?
15
53079
3208
Cosa dovrebbe fare l'auto senza conducente?
00:56
If we were driving that boxed in car in manual mode,
16
56287
3209
Se stessimo guidando quell'auto circondata in modalità manuale,
00:59
whichever way we'd react would be understood as just that,
17
59496
3541
qualunque nostra possibile reazione sarebbe intesa semplicemente come tale,
01:03
a reaction,
18
63037
1292
una reazione,
01:04
not a deliberate decision.
19
64329
2250
non una decisione deliberata.
01:06
It would be an instinctual panicked move with no forethought or malice.
20
66579
4292
Sarebbe un'azione istintiva dettata dal panico,
senza premeditazione o malizia.
01:10
But if a programmer were to instruct the car to make the same move,
21
70871
3625
Ma se un programmatore desse all'auto l'istruzione di reagire nello stesso modo,
01:14
given conditions it may sense in the future,
22
74496
2833
viste le situazioni che potrebbero presentarsi in futuro,
01:17
well, that looks more like premeditated homicide.
23
77329
4292
allora sembrerebbe più un omicidio premeditato.
01:21
Now, to be fair,
24
81621
1000
Per essere corretti,
01:22
self-driving cars are predicted to dramatically reduce traffic accidents
25
82621
4083
le macchine autonome ridurranno molto gli incidenti stradali
01:26
and fatalities
26
86704
1250
e le vittime,
01:27
by removing human error from the driving equation.
27
87954
3167
eliminando l'errore umano dall'equazione della guida.
01:31
Plus, there may be all sorts of other benefits:
28
91121
2375
Inoltre, potrebbero apportare diversi altri vantaggi,
01:33
eased road congestion,
29
93496
1667
come la diminuzione del traffico,
01:35
decreased harmful emissions,
30
95163
1541
la riduzione delle emissioni nocive,
01:36
and minimized unproductive and stressful driving time.
31
96704
4625
e la minimizzazione del tempo stressante e sterile passato alla guida.
Gli incidenti, però, possono e continueranno a verificarsi
01:41
But accidents can and will still happen,
32
101329
2167
01:43
and when they do,
33
103496
1167
e, in tal caso,
01:44
their outcomes may be determined months or years in advance
34
104663
4500
i loro esiti potrebbero essere determinati con mesi o anni di anticipo
01:49
by programmers or policy makers.
35
109163
2583
dai programmatori o dai policy maker,
01:51
And they'll have some difficult decisions to make.
36
111746
2500
che avranno decisioni importanti da prendere.
01:54
It's tempting to offer up general decision-making principles,
37
114246
2958
È allettante l'idea di proporre principi decisionali generali,
01:57
like minimize harm,
38
117204
1875
come ridurre al minimo i danni,
01:59
but even that quickly leads to morally murky decisions.
39
119079
3375
ma anch'essi conducono rapidamente a decisioni moralmente discutibili.
02:02
For example,
40
122454
1167
Per esempio,
02:03
let's say we have the same initial set up,
41
123621
2000
immaginiamo le stesse condizioni di partenza,
02:05
but now there's a motorcyclist wearing a helmet to your left
42
125621
2875
ma ora ci sono una motociclista con il casco alla vostra sinistra
02:08
and another one without a helmet to your right.
43
128496
2792
e uno senza casco alla vostra destra.
02:11
Which one should your robot car crash into?
44
131288
3083
Contro quale dei due dovrebbe schiantarsi l'auto robot?
02:14
If you say the biker with the helmet because she's more likely to survive,
45
134371
4083
Se rispondete "quella con il casco" perché ha più probabilità di sopravvivere,
02:18
then aren't you penalizing the responsible motorist?
46
138454
2917
allora non state penalizzando il conducente responsabile?
02:21
If, instead, you save the biker without the helmet
47
141371
2750
Se, invece, salvate il motociclista senza casco
02:24
because he's acting irresponsibly,
48
144121
2000
perché agisce in maniera irresponsabile,
02:26
then you've gone way beyond the initial design principle about minimizing harm,
49
146121
4875
siete andati ben oltre il principio del progetto iniziale
di ridurre al minimo i danni,
02:30
and the robot car is now meting out street justice.
50
150996
3875
e ora l'auto robot sta applicando una sorta di giustizia fai da te.
02:34
The ethical considerations get more complicated here.
51
154871
3542
La riflessione etica qui si complica.
02:38
In both of our scenarios,
52
158413
1375
In entrambe i casi,
02:39
the underlying design is functioning as a targeting algorithm of sorts.
53
159788
4500
il progetto di base funziona come un algoritmo di ordinamento mirato.
02:44
In other words,
54
164288
1000
In altre parole,
02:45
it's systematically favoring or discriminating
55
165288
2500
predilige o esclude sistematicamente
02:47
against a certain type of object to crash into.
56
167788
3500
un certo tipo di oggetto contro cui schiantarsi.
02:51
And the owners of the target vehicles
57
171288
2333
I proprietari dei veicoli "bersaglio"
02:53
will suffer the negative consequences of this algorithm
58
173621
3042
subiranno le conseguenze negative di questo algoritmo,
02:56
through no fault of their own.
59
176663
2083
senza però avere alcuna colpa.
02:58
Our new technologies are opening up many other novel ethical dilemmas.
60
178746
4667
Le nuove tecnologie aprono la strada a molti altri nuovi dilemmi etici.
03:03
For instance, if you had to choose between
61
183413
2083
Per esempio, se doveste scegliere
03:05
a car that would always save as many lives as possible in an accident,
62
185496
4042
tra un'auto che salverebbe sempre più vite possibili in caso d'incidente
03:09
or one that would save you at any cost,
63
189538
3041
e una che salverebbe voi a tutti i costi,
03:12
which would you buy?
64
192579
1667
quale comprereste?
03:14
What happens if the cars start analyzing and factoring in
65
194246
3333
Cosa succederebbe se la macchina iniziasse ad analizzare e prendere in considerazione
03:17
the passengers of the cars and the particulars of their lives?
66
197579
3459
i passeggeri delle auto e i dettagli delle loro vite?
03:21
Could it be the case that a random decision
67
201038
2166
È possibile che una decisione casuale sia migliore
03:23
is still better than a predetermined one designed to minimize harm?
68
203204
4917
rispetto a una predeterminate, progettata per minimizzare i danni?
03:28
And who should be making all of these decisions anyhow?
69
208121
2667
In ogni caso, chi dovrebbe prendere tutte queste decisioni?
03:30
Programmers? Companies? Governments?
70
210829
2709
I programmatori?
Le aziende?
I governi?
03:34
Reality may not play out exactly like our thought experiments,
71
214121
3458
La realtà potrebbe non rivelarsi uguale ai nostri esperimenti mentali,
03:37
but that's not the point.
72
217579
1667
ma non è questo il punto.
03:39
They're designed to isolate and stress test our intuitions on ethics,
73
219246
4333
Sono progettati per isolare e mettere alla prova le nostre intuizioni etiche,
03:43
just like science experiments do for the physical world.
74
223579
3000
proprio come fanno gli esperimenti scientifici con il mondo fisico.
03:46
Spotting these moral hairpin turns now
75
226579
3375
Individuare adesso questi tornanti morali
03:49
will help us maneuver the unfamiliar road of technology ethics,
76
229954
3584
ci aiuterà a percorrere la strada inesplorata dell'etica della tecnologia
03:53
and allow us to cruise confidently and conscientiously
77
233538
3750
e ci permetterà di dirigerci fiduciosamente e coscientemente
03:57
into our brave new future.
78
237288
2375
verso il nostro nuovo ardito futuro.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7