How to Keep AI Under Control | Max Tegmark | TED

167,367 views ・ 2023-11-02

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Gabriella Patricola Revisore: Francesca Galdi
00:03
Five years ago,
0
3833
2461
Cinque anni fa,
00:06
I stood on the TED stage
1
6294
1752
sono salito sul palco TED,
00:08
and warned about the dangers of superintelligence.
2
8046
4379
mettendo in guardia sui pericoli della Super Intelligenza.
00:13
I was wrong.
3
13051
1710
Mi sbagliavo.
00:16
It went even worse than I thought.
4
16513
1752
È andata ancora peggio di quanto pensassi.
00:18
(Laughter)
5
18306
1752
(Risate)
00:20
I never thought governments would let AI companies get this far
6
20058
4379
Impensabile che i governi permettessero alle aziende di IA di andare così lontano
00:24
without any meaningful regulation.
7
24479
2294
senza alcuna regolamentazione al riguardo.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
Lo sviluppo dell’IA è andato persino più veloce di quanto avessi previsto.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Guardate, ho mostrato questo panorama astratto di compiti
00:36
where the elevation represented how hard it was for AI
10
36241
3128
in cui l'elevazione rappresentava quanto fosse difficile per l'IA
00:39
to do each task at human level.
11
39369
1919
svolgere ogni compito a livello umano.
00:41
And the sea level represented what AI could be back then.
12
41288
3753
Il livello del mare rappresentava ciò che l’IA poteva essere allora.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
E accidenti, da allora il mare si è innalzato velocemente.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Ma molte di queste attività sono già state incorporate glu glu glu glu glu.
00:52
And the water is on track to submerge all land,
15
52882
3921
L’acqua è sulla buona strada per sommergere tutta la terra,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
eguagliando l’intelligenza umana in tutti i compiti cognitivi.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Questa è la definizione di Intelligenza Artificiale Generale, IAG,
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
che è l'obiettivo dichiarato di aziende come OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
Google DeepMind e Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Queste aziende provano anche a costruire la Super Intelligenza,
01:16
leaving human intelligence far behind.
21
76448
2919
che va molto oltre l’intelligenza umana.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Molti pensano che in pochi anni, forse, passeremo da IAG alla Super Intelligenza.
01:24
So when are we going to get AGI?
23
84539
2795
Quando avremo l’IAG?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Poco tempo fa, gran parte dei ricercatori di IA pensava ci volessero decenni.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
E ora Microsoft dice: «Oh, ci siamo quasi».
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
Stiamo vedendo barlumi di IAG in ChatGPT-4
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
e il sito di scommesse Metaculus mostra che il tempo per l’IAG
01:44
plummeting from 20 years away to three years away
28
104351
4129
è crollato da 20 anni a tre anni di distanza
01:48
in the last 18 months.
29
108521
1544
negli ultimi 18 mesi.
01:50
And leading industry people are now predicting
30
110106
4922
I principali esponenti del settore ora prevedono
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
che ci restino forse due o tre anni prima di essere superati in astuzia.
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
È meglio smettere di parlare dell’IAG come di un rischio a lungo termine,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
o qualcuno potrebbe definirvi un dinosauro bloccato nel passato.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
È davvero straordinario constatare come l’IA sia progredita di recente.
02:12
Not long ago, robots moved like this.
35
132921
2419
Non molto tempo fa, i robot si muovevano in questo modo.
02:15
(Music)
36
135382
2085
(Musica)
02:18
Now they can dance.
37
138551
1418
Ora sanno ballare.
02:20
(Music)
38
140804
2711
(Musica)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Solo l’anno scorso, Midjourney ha prodotto questa immagine.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Quest’anno, la stessa identica richiesta produce questo.
02:39
Deepfakes are getting really convincing.
41
159656
2544
I deepfake stanno diventando davvero convincenti.
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
(Video) Deepfake Tom Cruise: Ti mostrerò un po’ di magia.
02:46
It's the real thing.
43
166913
1335
È tutto vero.
02:48
(Laughs)
44
168289
2086
(Risata)
02:50
I mean ...
45
170375
1293
Voglio dire...
02:53
It's all ...
46
173920
1835
È tutto...
02:55
the real ...
47
175797
1710
è tutto... vero.
02:57
thing.
48
177549
1168
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: O forse no?
03:02
And Yoshua Bengio now argues
50
182387
2669
Yoshua Bengio ora sostiene
03:05
that large language models have mastered language
51
185056
3837
che i grandi modelli linguistici padroneggiano linguaggio e conoscenze
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
al punto di superare il test di Turing.
03:12
I know some skeptics are saying,
53
192355
1585
So che alcuni scettici dicono:
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
«No, sono solo pappagalli stocastici sopravvalutati
03:16
that lack a model of the world,"
55
196693
1877
che non hanno un modello del mondo»,
03:18
but they clearly have a representation of the world.
56
198611
2878
invece hanno una chiara rappresentazione del mondo.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Abbiamo scoperto di recente che Llama-2 contiene letteralmente una mappa mondiale.
03:28
And AI also builds
58
208121
3045
Inoltre, l’intelligenza artificiale crea
03:31
geometric representations of more abstract concepts
59
211207
3796
rappresentazioni geometriche di concetti più astratti,
03:35
like what it thinks is true and false.
60
215003
3754
ad esempio, di ciò che crede vero o falso.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Cosa succederà se avremo AGI e Super Intelligenza?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Se ricorderete almeno una cosa del mio talk, lasciate che sia questa.
03:51
AI godfather, Alan Turing predicted
63
231311
3462
Il padrino dell’IA, Alan Turing, ha predetto
03:54
that the default outcome is the machines take control.
64
234814
4797
che il risultato scontato è che le macchine prenderanno il controllo.
04:00
The machines take control.
65
240528
2211
Le macchine prenderanno il controllo.
04:04
I know this sounds like science fiction,
66
244240
2336
So che sembra fantascienza,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
ma avere un’IA intelligente come GPT-4
04:10
also sounded like science fiction not long ago.
68
250163
2919
sembrava anche fantascienza fino a poco tempo fa.
04:13
And if you think of AI,
69
253124
2378
Se considerate l’IA,
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
se considerate la Super Intelligenza, in particolare, una tecnologia come tante,
04:21
like electricity,
71
261591
2419
come l’elettricità,
04:24
you're probably not very worried.
72
264052
2002
probabilmente non vi preoccupa molto.
Ma vedete,
04:26
But you see,
73
266095
1168
Turing considerava la Super Intelligenza più come una nuova specie.
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
04:31
Think of it,
75
271142
1168
Pensateci, stiamo costruendo raccapriccianti, super capaci
04:32
we are building creepy, super capable,
76
272310
3879
04:36
amoral psychopaths
77
276231
1585
amorali psicopatici,
04:37
that don't sleep and think much faster than us,
78
277857
2711
che non dormono e pensano molto più velocemente di noi,
04:40
can make copies of themselves
79
280610
1418
possono duplicarsi
04:42
and have nothing human about them at all.
80
282070
2002
senza avere nulla di umano.
04:44
So what could possibly go wrong?
81
284072
1835
Quindi, cosa potrebbe andare storto?
04:45
(Laughter)
82
285949
1543
(Risate)
04:47
And it's not just Turing.
83
287951
1585
Non la pensa così solo Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
Il CEO di OpenAI Sam Altman, che ci ha fornito ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
ha recentemente avvertito che potrebbe «sostituire completamente tutti noi».
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
Il CEO di Anthropic, Dario Amodei, ha addirittura stimato questo rischio:
05:02
10-25 percent.
87
302090
2210
Dal 10 al 25 percento.
05:04
And it's not just them.
88
304300
1335
Non sono solo loro a pensarlo.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
L’estinzione umana dovuta all’IA è un’idea diventata virale a maggio,
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
quando tutti gli amministratori delegati dell’IAG e i principali ricercatori di IA
05:13
came on and warned about it.
91
313685
1376
ci hanno messo in guardia.
05:15
And last month, even the number one of the European Union
92
315061
2920
Il mese scorso, persino il numero uno dell’Unione Europea
05:18
warned about human extinction by AI.
93
318022
3295
ha messo in guardia sull’estinzione umana a causa dell’IA.
05:21
So let me summarize everything I've said so far
94
321359
2211
Lasciatemi riassumere quanto ho detto finora
05:23
in just one slide of cat memes.
95
323611
2544
in una sola slide di meme sui gatti.
05:27
Three years ago,
96
327282
1793
Tre anni fa, la gente diceva:
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
«La Super Intelligenza è inevitabile,
05:33
it'll be fine,
98
333288
1501
andrà tutto bene,
05:34
it's decades away.
99
334789
1210
mancano ancora decenni».
05:35
Last year it was more like,
100
335999
1835
L’anno scorso, si diceva più:
05:37
It's inevitable, it'll be fine.
101
337876
2043
«È inevitabile, andrà tutto bene».
05:40
Now it's more like,
102
340295
2460
Ora l’atteggiamento è:
05:42
It's inevitable.
103
342797
1251
«È inevitabile».
05:44
(Laughter)
104
344090
1126
(Risate)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Ma facciamo un respiro profondo e proviamo a risollevare il morale
05:51
and cheer ourselves up,
106
351264
1168
e a riprenderci,
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
perché il resto del mio talk riguarderà le buone notizie,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
tutto questo non è inevitabile e possiamo decisamente migliorare,
05:58
alright?
109
358521
1168
siete d’accordo?
06:00
(Applause)
110
360315
2002
(Applausi)
06:02
So ...
111
362317
1209
Quindi...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
Il vero problema è la mancanza di un piano plausibile per la sicurezza dell’IA.
06:10
People are working hard on evals
113
370700
3337
Le persone stanno lavorando sodo sulle valutazioni,
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
alla ricerca di comportamenti rischiosi legati all'IA, e questo è positivo,
06:18
but clearly not good enough.
115
378124
2044
ma chiaramente non sufficiente.
06:20
They're basically training AI to not say bad things
116
380209
4797
Praticamente stanno addestrando l’IA a non dire cose cattive,
06:25
rather than not do bad things.
117
385006
2502
ma non a non fare cose cattive.
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
Inoltre, le valutazioni e il debug sono in realtà solo condizioni necessarie,
06:32
not sufficient, conditions for safety.
119
392430
2002
ma non sufficienti, per la sicurezza.
06:34
In other words,
120
394474
1751
In altre parole,
06:36
they can prove the presence of risk,
121
396225
3671
possono verificare la presenza di un rischio,
06:39
not the absence of risk.
122
399938
2168
non l'assenza di rischio.
06:42
So let's up our game, alright?
123
402148
2544
Facciamo di meglio, va bene?
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Proviamo a rendere l’IA dimostrabilmente sicura e controllabile.
06:50
Guardrails try to physically limit harm.
125
410323
5047
I guardrail cercano di limitare fisicamente i danni.
06:55
But if your adversary is superintelligence
126
415828
2211
Ma se l’avversario è la Super Intelligenza
o un umano che usa la Super Intelligenza contro di voi,
06:58
or a human using superintelligence against you, right,
127
418081
2544
07:00
trying is just not enough.
128
420625
1960
provarci non è sufficiente.
07:02
You need to succeed.
129
422585
1877
Dovete vincere.
07:04
Harm needs to be impossible.
130
424504
2169
Il danno deve essere impossibile.
07:06
So we need provably safe systems.
131
426714
2544
Necessitiamo di sistemi dimostrabilmente sicuri.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Dimostrabile, non nel senso debole di convincere qualche giudice,
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
ma nel senso forte che esiste qualcosa di impossibile
07:16
according to the laws of physics.
134
436265
1585
in base alle leggi della fisica.
07:17
Because no matter how smart an AI is,
135
437892
2002
Non importa quanto sia intelligente un’IA,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
essa non può violare le leggi della fisica e fare ciò che è provatamente impossibile.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Io e Steve Omohundro abbiamo scritto un articolo al riguardo
07:27
and we're optimistic that this vision can really work.
138
447318
5005
e siamo ottimisti che questa visione possa davvero funzionare.
07:32
So let me tell you a little bit about how.
139
452323
2169
Permettetemi di spiegarvi come.
07:34
There's a venerable field called formal verification,
140
454993
4421
Esiste un campo venerabile chiamato verifica formale,
07:39
which proves stuff about code.
141
459455
2127
che dimostra cose riguardanti il codice.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Sono ottimista che l’IA rivoluzionerà il campo delle verifiche automatiche
07:48
and also revolutionize program synthesis,
143
468214
3337
e rivoluzionerà la sintesi dei programmi,
07:51
the ability to automatically write really good code.
144
471592
3254
ossia la capacità di scrivere un ottimo codice in automatico.
07:54
So here is how our vision works.
145
474887
1585
Ecco come funziona la nostra visione.
07:56
You, the human, write a specification
146
476472
4213
Tu, in quanto essere umano, scrivi una specifica
08:00
that your AI tool must obey,
147
480685
2711
a cui il tuo strumento di IA deve obbedire,
08:03
that it's impossible to log in to your laptop
148
483438
2127
per esempio che è impossibile accedere al tuo laptop
08:05
without the correct password,
149
485565
1793
senza la password corretta,
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
o che una stampante per il DNA non può sintetizzare virus pericolosi.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Un’IA molto potente crea sia il vostro strumento di IA,
08:18
and a proof that your tool meets your spec.
152
498369
3837
sia una prova che lo strumento soddisfa le vostre specifiche.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
L’apprendimento automatico è straordinario nell’apprendimento degli algoritmi,
08:26
but once the algorithm has been learned,
154
506836
2169
ma una volta appreso l'algoritmo,
si può implementarlo di nuovo in un’architettura computazionale diversa
08:29
you can re-implement it in a different computational architecture
155
509047
3169
08:32
that's easier to verify.
156
512216
1627
e più facile da verificare.
08:35
Now you might worry,
157
515344
1210
Ora potreste obiettare,
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
come diavolo farò a capire questa potente IA
08:40
and the powerful AI tool it built
159
520475
1626
e il potente strumento che ha creato e la prova,
08:42
and the proof,
160
522143
1126
se sono tutti troppo complicati da comprendere per un umano?
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
08:46
Here is the really great news.
162
526147
2127
Ecco la notizia davvero fantastica.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Non dovete capire nessuna di queste cose,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
perché è molto più facile verificare una prova che scoprirla.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Dovete solo capire o fidarvi del codice di verifica delle prove,
che potrebbe essere lungo solo poche centinaia di righe.
09:01
which could be just a few hundred lines long.
166
541245
2211
09:03
And Steve and I envision
167
543498
2252
Steve e io immaginiamo
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
che tali test valutativi siano integrati in tutto il nostro hardware di calcolo,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
rendendo impossibile eseguire codici molto pericolosi.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
E se l’IA, però, non fosse in grado di creare un tale strumento di IA?
09:20
Then there's another possibility.
171
560056
3795
In questo caso c’è un’altra possibilità.
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Si addestra un’IA perché apprenda prima a fare ciò che si desidera
09:27
and then you use a different AI
173
567480
3337
e poi si utilizza un’altra IA
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
per estrarre l’algoritmo e le conoscenze apprese per voi,
09:34
like an AI neuroscientist.
175
574862
2086
come un neuroscienziato dell’IA.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Questo è nello spirito del campo dell’interpretabilità meccanicistica,
09:41
which is making really impressive rapid progress.
177
581160
3253
che sta facendo progressi rapidi e davvero sorprendenti.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Sistemi dimostrabilmente sicuri non sono impossibili.
09:47
Let's look at a simple example
179
587625
1502
Vediamo un semplice esempio
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
in cui prima c’è un algoritmo che apprende automaticamente a partire dai dati
09:53
and then distill it out in the form of code
181
593840
4254
e poi lo estraiamo sotto forma di codice
09:58
that provably meets spec, OK?
182
598136
2252
che soddisfa per certo le specifiche, ok?
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Proviamo con un algoritmo che di certo avrete imparato in prima elementare,
10:05
addition,
184
605810
1168
l’addizione,
10:07
where you loop over the digits from right to left,
185
607019
2503
in cui si scorrono le cifre da destra a sinistra
10:09
and sometimes you do a carry.
186
609564
1793
e, a volte, si esegue un riporto.
10:11
We'll do it in binary,
187
611357
1752
Lo faremo in linguaggio binario,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
come se contassi su due dita anziché dieci.
10:16
And we first train a recurrent neural network,
189
616279
3378
Per prima cosa addestriamo una rete neurale ricorsiva,
10:19
never mind the details,
190
619657
2211
lasciate stare i dettagli,
10:21
to nail the task.
191
621909
1418
per portare a termine il compito.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Ora avete questo algoritmo che non capite come funziona,
10:27
in a black box
193
627123
2753
in una scatola nera
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
definita da una serie di tabelle con numeri che noi, in linguaggio nerd,
10:34
call parameters.
195
634380
1502
chiamiamo parametri.
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Dopo usiamo uno strumento di IA creato per estrarre automaticamente
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
l'algoritmo appreso sotto forma di programma Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Infine, utilizziamo lo strumento di verifica formale noto come Daphne
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
per dimostrare che questo programma somma correttamente tutti i numeri,
10:54
not just the numbers that were in your training data.
200
654942
2503
non solo i numeri presenti nei computi di addestramento.
10:57
So in summary,
201
657778
1377
In sintesi,
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
un’IA dimostrabilmente sicura, sono convinto sia possibile,
11:03
but it's going to take time and work.
203
663117
3003
ma richiederà tempo e lavoro.
11:06
And in the meantime,
204
666162
1209
Nel frattempo,
11:07
let's remember that all the AI benefits
205
667413
4254
ricordiamo che tutti i vantaggi dell’IA
11:11
that most people are excited about
206
671709
3795
che entusiasmano la maggior parte delle persone
11:15
actually don't require superintelligence.
207
675504
2628
in realtà non richiedono la Super Intelligenza.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Possiamo avere un futuro lungo e fantastico con l'IA.
11:25
So let's not pause AI.
209
685014
2169
Quindi, non mettiamo in pausa l’IA.
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Mettiamo in pausa la corsa spericolata alla Super Intelligenza.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Smettiamola di addestrare ossessivamente modelli sempre più grandi
11:37
that we don't understand.
212
697276
1669
che non comprendiamo.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Facciamo attenzione agli avvertimenti dell’antica Grecia
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
e non diventiamo arroganti, come nel mito di Icaro.
11:46
Because artificial intelligence
215
706702
2711
Perché l’intelligenza artificiale
11:49
is giving us incredible intellectual wings
216
709455
4463
ci sta regalando incredibili ali intellettuali
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
con cui possiamo fare cose che superano i nostri sogni più sfrenati
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
se abbandoniamo l’ossessione di volare verso il sole.
12:02
Thank you.
219
722802
1168
Vi ringrazio.
12:03
(Applause)
220
723970
5880
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7