How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Lucilla Formentini Revisore: Chiara Polesinanti
Nei prossimi anni,
00:07
In the coming years, artificial intelligence
0
7336
2169
l’intelligenza artificiale cambierà probabilmente la tua vita
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
e anche quella dell’intero pianeta.
Ma sul come non tutti sono d’accordo.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Quelli che seguono sono passi di un’intervista del World Economic Forum
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
in cui il noto professore d’informatica esperto di IA Stuart Russel
00:22
helps separate the sense from the nonsense.
5
22435
2586
cerca di distinguere il possibile dall’impossibile.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
C’è una grande differenza tra chiedere a un umano di fare qualcosa
00:29
and giving that as the objective to an AI system.
7
29067
3461
e dare un obiettivo a un sistema d’intelligenza artificiale.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Quando chiedi a un essere umano di prenderti un caffè,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
non intendi che dovrebbe essere il suo scopo nella vita
00:37
and nothing else in the universe matters.
10
37742
1960
e non conti nient’altro al mondo.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
O che debba uccidere chiunque si trovi da Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
per prenderti il caffè prima che chiuda.
Non è ciò che intendi.
00:45
No, that’s not what you mean.
13
45124
1627
00:46
All the other things that we mutually care about,
14
46751
2294
Anche tutte le altre cose che tutti noi riteniamo importanti
00:49
they should factor into your behavior as well.
15
49045
2169
andrebbero incluse nel comportamento.
Il problema con i sistemi di IA che creiamo ora
00:51
And the problem with the way we build AI systems now
16
51214
3169
è che diamo loro un obiettivo stabilito.
00:54
is we give them a fixed objective.
17
54383
1627
Con gli algoritmi occorre specificare ogni dettaglio dell’obiettivo.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Ad esempio, proviamo a risolvere l’acidificazione degli oceani.
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Si potrebbe creare una reazione catalitica efficace,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
ma consumerebbe un quarto dell’ossigeno nell’atmosfera,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
cosa che per noi significherebbe una morte lenta e alquanto spiacevole
01:13
over the course of several hours.
23
73986
1752
che durerebbe ore.
01:15
So, how do we avoid this problem?
24
75780
3211
Allora come evitiamo questo problema?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Potremmo specificare l’obiettivo in maniera più precisa
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
e tenere conto dell’ossigeno nell’atmosfera.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Ma ecco che qualche effetto collaterale della reazione nell’oceano
01:29
poisons all the fish.
28
89418
1377
avvelena tutti i pesci.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Ma non si voleva neanche uccidere i pesci.
01:33
And then, well, what about the seaweed?
30
93464
1919
E allora le alghe?
Specifichiamo di non fare nulla che possa uccidere le alghe.
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
E si andrebbe avanti così all’infinito.
01:38
And on and on and on.
32
98344
1210
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
La ragione per cui non dobbiamo specificare con gli esseri umani
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
è che loro sanno di non sapere tutte le cose che riteniamo importanti.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Se chiedi a un essere umano di prenderti un caffè
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
e sei all’Hotel George Sand a Parigi,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
dove un caffè costa 13 euro,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
è del tutto ragionevole che ti dica:
“Costa 13 euro, va bene? Oppure posso prenderlo nel bar vicino”.
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
È una cosa del tutto naturale per una persona,
02:07
To ask, I’m going to repaint your house—
41
127039
3003
quando sta per ridipingerti casa, chiedere se può togliere le grondaie
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
e poi rimontarle.
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Non le consideriamo delle abilità super sofisticate,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
ma i sistemi di IA non le hanno per via del modo in cui li creiamo,
02:19
they have to know the full objective.
45
139719
1793
devono conoscere l’intero obiettivo.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Se costruissimo sistemi consapevoli di non sapere quale sia l’obiettivo,
02:25
then they start to exhibit these behaviors,
47
145474
2586
allora inizierebbero a mostrare questi comportamenti,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
come chiedere il premesso
prima di eliminare l’ossigeno dall’atmosfera.
02:32
In all these senses, control over the AI system
49
152565
3378
Stando a questo, il controllo sui sistemi di IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
è dato dall’incertezza della macchina riguardo al suo vero obiettivo.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Ed è quando si costruisce una macchina sicura del proprio obiettivo
02:44
that they have the objective,
52
164368
1418
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
che si riscontra questa specie di comportamento psicopatico.
02:48
And I think we see the same thing in humans.
54
168539
2127
E credo accada lo stesso agli esseri umani.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Cosa succede quando una IA forte entra nell’economia reale?
02:55
How do things change? Can we adapt?
56
175379
3587
Come cambiano le cose? Possiamo adattarci?
02:59
This is a very old point.
57
179175
1835
È una questione molto antica.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Addirittura Aristotele in un suo passaggio dice che se avessimo telai automatizzati
03:04
look, if we had fully automated weaving machines
59
184597
3045
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
e plettri in grado di suonare la lira facendo musica senza l’intervento umano,
03:11
then we wouldn’t need any workers.
61
191604
2002
non avremmo bisogno di operai.
03:13
That idea, which I think it was Keynes
62
193814
2878
Questa idea, che credo sia stato Keynes a chiamarla disoccupazione tecnologica,
03:16
who called it technological unemployment in 1930,
63
196692
2836
nel 1930,
03:19
is very obvious to people.
64
199528
1919
è evidente alle persone.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Sanno che se la macchina fa il loro lavoro
03:24
then I'm going to be unemployed.
66
204533
1669
allora saranno disoccupati.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Pensa ai magazzini moderni usati dalle società di e-commerce,
03:29
for e-commerce, they are half automated.
68
209872
2711
che sono per metà automatizzati.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
In questi vecchi magazzini,
dove ci sono tonnellate di roba accatastata ovunque
03:36
all over the place and humans go and rummage around
70
216629
2461
e persone che vanno a rovistare
03:39
and then bring it back and send it off—
71
219090
1877
e prendono la roba e la spediscono,
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
ora c’è un robot che va a trovare lo scaffale
03:44
that contains the thing that you need,
73
224553
1919
che contiene l’oggetto richiesto,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
ma è ancora compito dell’uomo prendere l’oggetto dal contenitore,
perché per il robot è ancora troppo difficile.
03:50
because that’s still too difficult.
75
230101
1877
03:52
But, at the same time,
76
232019
2002
Allo stesso tempo, però,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
creeresti un robot capace di selezionare accuratamente
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
qualsiasi oggetto in una vasta varietà di prodotti?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Che eliminerebbe in un colpo solo 3 o 4 milioni di posti di lavoro?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
C’è un racconto interessante di E.M. Forster,
04:09
where everyone is entirely machine dependent.
81
249745
3504
dove si è tutti completamente dipendenti dalle macchine.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Secondo il racconto, se affidi la gestione della civiltà alle macchine,
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
perdi la spinta a capirla tu stesso,
04:23
or to teach the next generation how to understand it.
85
263718
2544
o a insegnare come capirla alla generazione futura.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Il film “WALL-E” ne è una versione moderna,
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
dove tutti sono indeboliti e resi infantili dalle macchine,
04:32
and that hasn’t been possible up to now.
88
272893
1961
e ciò non è accaduto fino ad ora.
04:34
We put a lot of our civilization into books,
89
274854
2419
Mettiamo molto della nostra civiltà nei libri,
04:37
but the books can’t run it for us.
90
277273
1626
ma loro non possono gestirla per noi.
04:38
And so we always have to teach the next generation.
91
278899
2795
Quindi dobbiamo sempre insegnare alla generazione futura.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
A conti fatti, sono circa mille miliardi di anni di insegnamento e apprendimento
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
e una catena ininterrotta che va avanti da decine di migliaia di generazioni.
04:50
What happens if that chain breaks?
94
290119
1919
Cosa accadrebbe se la catena si rompesse?
Penso sia ciò che dovremmo capire ora che l’IA sta facendo progressi.
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Il giorno in cui l’IA forte sarà una realtà,
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
non possiamo determinarlo, non accadrà in un singolo giorno.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Non accadrà neppure con un salto tutto o niente.
05:04
The impact is going to be increasing.
99
304592
2461
Il suo impatto aumenterà sempre di più.
05:07
So with every advance in AI,
100
307053
2043
Perciò con ogni progresso dell’IA
05:09
it significantly expands the range of tasks.
101
309096
2962
aumenterà in maniera significativa la varietà di compiti.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
In base a questo, quasi tutti gli esperti affermano che per la fine del secolo
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
avremo probabilmente l’IA forte.
05:20
The median is something around 2045.
104
320733
3754
Indicativamente intorno al 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Io sono un po’ più cauto.
05:26
I think the problem is harder than we think.
106
326489
2085
Credo che sia più difficile di quanto si pensi.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Condivido il pensiero di John McAfee, uno dei fondatori dell’IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
che a questa domanda ha risposto: “Tra i prossimi 5 e 500 anni”.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
E credo avremo bisogno di molti Einstein per riuscire a farlo.

Original video on YouTube.com
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7