Will robots out-think humans? 6 Minute English

79,217 views ・ 2018-01-25

BBC Learning English


Fare doppio clic sui sottotitoli in inglese per riprodurre il video. I sottotitoli tradotti sono tradotti automaticamente.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan: Ciao e benvenuto a 6 Minute English.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
Sono Dan e con me oggi c'è Neil. Ciao Neil.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
Neil: Ciao Dan. Cosa c'è con l'
00:13
gear and helmet?
3
13780
929
equipaggiamento protettivo e il casco?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan: Mi sto solo preparando per l'inevitabile
00:17
rise of the machines. That’s the takeover
5
17385
2385
ascesa delle macchine. Questa è la conquista
00:19
of the world by artificial intelligence, or
6
19770
3486
del mondo da parte dell'intelligenza artificiale, o
00:23
AI, which some people predict will happen.
7
23256
3404
AI, che alcune persone prevedono accadrà.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil: I mezzi inevitabili non possono essere evitati o
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
fermati. L'ascesa delle macchine? Cosa intendi?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
Dan: È il nostro argomento in questo inglese di 6 minuti. Ne
00:34
We’ll be talking about that, giving you
11
34968
1852
parleremo, dandoti
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
sei vocaboli correlati e, naturalmente, la
00:39
our regular quiz question.
13
39875
1655
nostra normale domanda del quiz.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
Neil: Questa è la prima cosa che hai detto
00:43
that makes any sense. What’s the question?
15
43437
2003
che ha senso. Quale è la domanda?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
Dan: La parola "robot" come la usiamo oggi
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
è stata usata per la prima volta in un'opera teatrale ceca degli anni '20 "Rossum's
00:52
Universal Robots’. But before this, what
18
52440
3356
Universal Robots". Ma prima di questo, qual
00:55
was its original meaning? a) forced labour
19
55796
3524
era il suo significato originario? a) lavoro forzato
00:59
b) metal man c) heartless thing
20
59320
3640
b) uomo di metallo c) cosa senza cuore
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil: andrò per a) lavoro forzato
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan: scopriremo se avevi ragione o
01:08
not later in the show.
23
68545
1285
meno più avanti nello show.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
Neil: OK Dan. Dimmi cosa sta succedendo.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan: Ho visto un articolo scritto dal corrispondente tecnologico della BBC
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
Rory Cellan-Jones sul
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
recente show tecnologico CES di Las Vegas. Ha
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
intervistato David Hanson, fondatore di Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics, che ha affermato che la sua ambizione era quella di
01:29
achieve an AI that can beat humans at any
30
89720
3660
realizzare un'intelligenza artificiale in grado di battere gli umani in qualsiasi
01:33
intellectual task.
31
93380
1500
compito intellettuale.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
Neil: Sicuramente è una buona cosa! Un'intelligenza artificiale
01:37
and robotics could take over many of the jobs
33
97535
2915
e una robotica migliori potrebbero occuparsi di molti dei lavori
01:40
that we don’t want to do, or that are so
34
100450
2466
che non vogliamo svolgere o che sono così
01:42
important to get 100% right… like air traffic
35
102916
2774
importanti da ottenere al 100% nel modo giusto... come il controllo del traffico aereo
01:45
control. We’d never have another plane crash.
36
105690
2566
. Non avremmo mai avuto un altro incidente aereo.
01:48
It would be infallible because it would be
37
108256
2394
Sarebbe infallibile perché sarebbe
01:50
so clever.
38
110650
1190
così intelligente.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan: Infallibile significa non fallire mai. Ed è questo
01:54
what bothers me. What happens when its intelligence
40
114607
3003
che mi dà fastidio. Cosa succede quando la sua intelligenza
01:57
surpasses ours? Why should it do what
41
117610
2774
supera la nostra? Perché dovrebbe fare quello che
02:00
we want it to do?
42
120384
1275
vogliamo che faccia?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil: Superare qualcosa significa fare o essere
02:03
better than it. Dan, you’ve been watching
44
123735
2075
migliori di essa. Dan, hai guardato
02:05
too many movies. Robots fighting humanity
45
125810
2971
troppi film. I robot che combattono l'umanità
02:08
is a popular theme. Guess what… humanity
46
128781
2899
sono un tema popolare. Indovina un po'... l'umanità
02:11
often wins. And besides, we would programme
47
131680
2498
spesso vince. E inoltre, programmiamo
02:14
the computer to be benevolent.
48
134178
1742
il computer in modo che sia benevolo.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan: Benevolo significa gentile e disponibile. Ma
02:18
that’s just it, once the intelligence becomes
50
138725
2935
è proprio così, una volta che l'intelligenza diventa
02:21
sentient, or able to think for itself, who
51
141660
2781
senziente, o in grado di pensare da sola,
02:24
knows what it will do. We humans are not exactly
52
144441
3179
chissà cosa farà. Noi umani non siamo esattamente
02:27
perfect, you know. What happens if it decides
53
147620
2602
perfetti, lo sai. Cosa succede se decide
02:30
that it is better than us and wants us out
54
150222
2428
che è migliore di noi e ci vuole fuori
02:32
of the way?
55
152650
1000
dai piedi?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
Niel: Non preoccuparti. Asimov ci ha pensato.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
Isaac Asimov era uno scrittore di fantascienza americano
02:38
writer who, among other things, wrote about
58
158819
2747
che, tra le altre cose, ha scritto di
02:41
robots. He came up with three laws that every
59
161566
2874
robot. Ha escogitato tre leggi che ogni
02:44
robot would have to follow to stop it from
60
164440
2624
robot dovrebbe seguire per impedirgli di
02:47
acting against humanity. So we’re safe!
61
167064
2436
agire contro l'umanità. Quindi siamo al sicuro!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
Dan: Non ne sono così sicuro. Un robot senziente potrebbe
02:52
make up its own mind about how to interpret
63
172433
2867
prendere una decisione su come interpretare
02:55
the laws. For example, imagine if we created
64
175300
3284
le leggi. Ad esempio, immagina se creassimo
02:58
an AI system to protect all of humanity.
65
178584
2985
un sistema di intelligenza artificiale per proteggere tutta l'umanità.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
Neil: Beh, è ​​fantastico! Niente più guerra. Niente
03:03
more murder. No more fighting.
67
183764
1606
più omicidi. Niente più combattimenti.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
Dan: Pensi davvero che gli umani possano smettere di
03:08
fighting? What if the AI decides that the
69
188064
2455
combattere? E se l'intelligenza artificiale decidesse che l'
03:10
only way to stop us from hurting ourselves
70
190519
3286
unico modo per impedirci di ferire noi stessi
03:13
and each other is to control everything we
71
193805
3285
e gli altri è controllare tutto ciò che
03:17
do, so it takes over to protect us. Then we
72
197090
3507
facciamo, quindi prende il sopravvento per proteggerci. Allora
03:20
would lose our freedom to a thing that we
73
200597
3343
perderemmo la nostra libertà per una cosa che abbiamo
03:23
created that is infallible and more intelligent
74
203940
3377
creato che è infallibile e più intelligente
03:27
than we are! That’s the end, Neil!
75
207317
2443
di noi! Questa è la fine, Neil!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil: Penso che sia un po' inverosimile,
03:31
which means difficult to believe. I’m sure
77
211976
2215
il che significa difficile da credere. Sono sicuro che
03:34
others don’t think that way.
78
214191
1539
gli altri non la pensano così.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
Dan: va bene. Sentiamo cosa dice il team di Learning English
03:38
team say when I ask them if they are worried
80
218253
2467
quando chiedo loro se sono preoccupati
03:40
that AI and robots could take over the world.
81
220720
3519
che l'intelligenza artificiale e i robot possano conquistare il mondo.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
Phil: Beh, è ​​possibile, ma improbabile.
03:47
There will come a point where our technology
83
227820
1880
Arriverà un punto in cui la nostra tecnologia
03:49
will be limited – probably before real AI
84
229700
3125
sarà limitata, probabilmente prima che venga raggiunta la vera intelligenza artificiale
03:52
is achieved.
85
232825
1935
.
03:54
Sam: Never in a million years. First of all
86
234760
2360
Sam: Mai in un milione di anni. Prima di tutto
03:57
we’d programme them so that they couldn’t,
87
237124
3306
li programmiamo in modo che non possano farlo,
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
e in secondo luogo li battiamo comunque. Non hai
04:04
you ever seen a movie?
89
244062
1858
mai visto un film?
04:05
Kee: I totally think it could happen. We
90
245920
2371
Kee: Penso assolutamente che potrebbe succedere.
04:08
only have to make a robot that’s smart enough
91
248291
2668
Dobbiamo solo creare un robot abbastanza intelligente
04:10
to start thinking for itself. After that,
92
250959
2605
da iniziare a pensare da solo. Dopodiché,
04:13
who knows what it might do.
93
253564
2796
chissà cosa potrebbe fare.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil: Un miscuglio di opinioni lì, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
Sembra che tu non sia solo.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
Dan: No. Ma non ho nemmeno esattamente un esercito
04:22
of support either. I guess we’ll just have
97
262438
2402
di supporto. Immagino che dovremo solo
04:24
to wait and see.
98
264840
1000
aspettare e vedere.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
Neil: Parla per te. Ho aspettato abbastanza a lungo
04:27
enough – for our quiz question that is.
100
267789
1810
, per la nostra domanda del quiz.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
Dan: Ah sì! Ti ho chiesto qual
04:32
meaning of the word ‘robot’ was before
102
272095
2205
era il significato originale della parola "robot" prima che
04:34
it was used in its modern form. a) forced
103
274300
3633
fosse usata nella sua forma moderna. a)
04:37
labour b) metal man c) heartless thing
104
277933
3367
lavoro forzato b) uomo di metallo c) cosa senza cuore
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil: E io ho detto a) lavoro forzato
04:43
Dan: And you were… right!
106
283009
1971
Dan: E avevi... ragione!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
Neil: Allora diamo un'occhiata al vocabolario?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
Dan: va bene. Per prima cosa abbiamo avuto l'inevitabile. Se qualcosa
04:51
is inevitable then it cannot be avoided or
109
291019
3150
è inevitabile, allora non può essere evitato o
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
fermato. Riesci a pensare a qualcosa di inevitabile, Neil?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil: È inevitabile che un giorno il Sole
04:59
will stop burning. Then we had infallible,
112
299754
2936
smetta di bruciare. Poi abbiamo avuto infallibile,
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
il che significa non fallire mai. Facci un esempio, Dan.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan: Il vaccino per il vaiolo è infallibile.
05:08
The natural spread of that disease has been
115
308072
2228
La diffusione naturale di quella malattia è stata
05:10
completely stopped. After that was surpasses.
116
310300
3470
completamente arrestata. Dopo che è stato sorpassato.
05:13
If something surpasses something else then
117
313770
3239
Se qualcosa supera qualcos'altro allora
05:17
it becomes better than it.
118
317009
1711
diventa migliore di esso.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil: Molti genitori in tutto il mondo sperano che i
05:20
their children will surpass them in wealth,
120
320995
2174
loro figli li superino in ricchezza,
05:23
status or achievement. After that we heard
121
323169
2662
status o successo. Dopo di che abbiamo sentito
05:25
benevolent, which means kind and helpful.
122
325831
2599
benevolo, che significa gentile e disponibile.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
Nomina una persona famosa per essere benevola, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
Dan: Babbo Natale è un personaggio benevolo.
05:34
After that we heard sentient. If something
125
334665
2814
Dopo di che abbiamo sentito senziente. Se qualcosa
05:37
is sentient, it is able to think for itself.
126
337479
2720
è senziente, è in grado di pensare da sé.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
Neill: Infatti. Molte persone si interrogano sulla
05:42
possibility of sentient life on other planets.
128
342620
3060
possibilità di vita senziente su altri pianeti.
05:45
Finally we heard far-fetched, which means
129
345680
2176
Alla fine abbiamo sentito inverosimile, il che significa
05:47
difficult to believe. Like that far-fetched
130
347856
2283
difficile da credere. Come quella
05:50
story you told me the other day about being
131
350139
1932
storia inverosimile che mi hai raccontato l'altro giorno sull'essere in
05:52
late because of a dragon, Dan.
132
352071
1348
ritardo a causa di un drago, Dan.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
Dan: Giuro che era reale! Aveva grandi
05:55
teeth and everything!
134
355899
1240
denti aguzzi e tutto!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
Neil: Sì, sì, sì. E questa è la fine
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
di questo inglese di 6 minuti. Non dimenticare di
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
controllare le nostre pagine Facebook, Twitter e YouTube
06:03
pages. See you next time!
138
363140
1640
. Arrivederci alla prossima!
06:04
Dan: Bye!
139
364780
640
Dan: Ciao!
06:05
Neil: Bye.
140
365420
860
Neill: Ciao.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7