How will AI change the world?

1,778,961 views ・ 2022-12-06

TED-Ed


Fai dobre clic nos subtítulos en inglés a continuación para reproducir o vídeo.

Translator: Xusto Rodriguez Reviewer: Servizo de Normalización Lingüística
Nos vindeiros anos, a intelixencia artificial (IA)
00:07
In the coming years, artificial intelligence
0
7336
2169
probablemente vai cambiar a túa vida, e a de todo o mundo.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Pero non nos pomos de acordo sobre como o vai facer exactamente
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
O que segue son fragmentos dunha entrevista
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
na que Stuart Russell, coñecido profesor de informática e experto en IA,
00:22
helps separate the sense from the nonsense.
5
22435
2586
axuda a separar o verdadeiro do falso.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Hai unha gran diferenza entre pedirlle a un ser humano que faga algo
00:29
and giving that as the objective to an AI system.
7
29067
3461
e marcarlle o mesmo obxectivo a un sistema de IA.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Se lle pides a un humano que che traia un café,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
non significa que esa deba ser a misión da súa vida
00:37
and nothing else in the universe matters.
10
37742
1960
e que nada máis importe no universo.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Que se ten que matar a toda a clientela do Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
para conseguirche o café antes do peche, debe facelo.
00:45
No, that’s not what you mean.
13
45124
1627
Abofé que non lle dis iso.
00:46
All the other things that we mutually care about,
14
46751
2294
Todas as outras cousas que nos importan
00:49
they should factor into your behavior as well.
15
49045
2169
tamén deben influír no noso comportamento.
00:51
And the problem with the way we build AI systems now
16
51214
3169
O problema da construción de sistemas de IA na actualidade é
00:54
is we give them a fixed objective.
17
54383
1627
que lles damos un obxectivo fixo.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Os algoritmos precisan que detallemos todo sobre o obxectivo.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
E se lle dixésemos: “Podemos solucionar a acidificación dos océanos?”
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Si, pódese deseñar unha reacción catalítica
que o faga de forma eficiente,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
pero consumiría a cuarta parte do osíxeno da atmosfera,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
o que nos causaría unha morte lenta e dolorosa
01:13
over the course of several hours.
23
73986
1752
no transcurso dunhas poucas horas.
01:15
So, how do we avoid this problem?
24
75780
3211
Entón, como evitarmos este problema?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Poderiamos dicir: “cómpre ser máis coidadoso ao especificar o obxectivo,
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
non esquecer o osíxeno atmosférico”.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Pero un efecto secundario da reacción no océano
01:29
poisons all the fish.
28
89418
1377
envelena todos os peixes.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
“Ben, cómpre non matarmos os peixes tampouco”.
01:33
And then, well, what about the seaweed?
30
93464
1919
E entón, que pasa coas algas?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
“Non fagas nada que cause a morte das algas”.
01:38
And on and on and on.
32
98344
1210
E así unha e outra vez.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
E se non temos que facer iso cos seres humanos é porque
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
eles saben que non saben todas as cousas que nos preocupan.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Se lle pides a un ser humano que che traia unha cunca de café,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
e cadra que estades no Hotel George V, en París,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
onde o café custa 13 euros,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
é moi razoable que a persoa volva e che diga: “Son 13 euros,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
seguro que o queres? Ou prefires que o merque noutro sitio?”
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
E unha reacción normal de todo nunha persoa.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Se alguén vai repintar a túa casa, que che pregunte:
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
“podo quitar as baixantes e despois volvo poñelas?”
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
non nos parece unha capacidade moi sofisticada.
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
Pero os sistemas de IA non a teñen, porque os construímos de xeito
02:19
they have to know the full objective.
45
139719
1793
que precisan saber o obxectivo completo.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Se construímos sistemas de IA conscientes de que ignoran o obxectivo,
02:25
then they start to exhibit these behaviors,
47
145474
2586
comezan a manifestar comportamentos
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
tales como pedir permiso antes de eliminar o osíxeno da atmosfera.
02:32
In all these senses, control over the AI system
49
152565
3378
En todos estes sentidos, controlar un sistema de IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
é posible porque a máquina non ten certeza do verdadeiro obxectivo.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Porque cando constrúes máquinas que cren que teñen a certeza
02:44
that they have the objective,
52
164368
1418
de coñeceren o obxectivo,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
é cando se atopan nelas comportamentos psicópatas.
02:48
And I think we see the same thing in humans.
54
168539
2127
E creo que se percibe o mesmo nos seres humanos.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Que ha pasar cando a IA de propósito xeral bata coa economía real?
02:55
How do things change? Can we adapt?
56
175379
3587
Como cambiarán as cousas? Poderemos adaptarnos?
02:59
This is a very old point.
57
179175
1835
Esta é unha cuestión moi antiga.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Aristóteles -quen contaba!- di nun dos seus escritos
03:04
look, if we had fully automated weaving machines
59
184597
3045
que de termos máquinas de tecer totalmente automatizadas
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
e plectros que puidesen tocar a lira e producir música sen mediación humana,
03:11
then we wouldn’t need any workers.
61
191604
2002
non cumpriría ter traballadores.
03:13
That idea, which I think it was Keynes
62
193814
2878
Esta idea, á que Keynes -penso-,
03:16
who called it technological unemployment in 1930,
63
196692
2836
lle chamou en 1930 «paro tecnolóxico»
03:19
is very obvious to people.
64
199528
1919
é bastante obvia para o gran público.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
A xente pensa: “abofé, se a máquina fai todo o traballo
03:24
then I'm going to be unemployed.
66
204533
1669
entón eu vou quedar no paro”.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Pensa nos almacéns das grandes empresas
03:29
for e-commerce, they are half automated.
68
209872
2711
de comercio electrónico, que están semiautomatizadas.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Nun almacén clásico, hai moreas de cousas amontoadas por todas as partes,
03:36
all over the place and humans go and rummage around
70
216629
2461
seres humanos remexen nelas,
03:39
and then bring it back and send it off—
71
219090
1877
traen as mercadorías e envíanas.
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
Agora hai un robot que vai e colle o andel
03:44
that contains the thing that you need,
73
224553
1919
onde está a mercadoría que se busca,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
pero é o humano quen ten que sacar o obxecto do contedor ou do andel,
03:50
because that’s still too difficult.
75
230101
1877
porque isto segue sendo difícil de máis.
03:52
But, at the same time,
76
232019
2002
Pero, ao mesmo tempo,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
sería posible crear un robot preciso abondo para recoller
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
case calquera obxecto que se poida mercar?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Isto podería eliminar, dunha asentada, 3 ou 4 millóns de postos de traballo?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E.M. Foster escribiu un relato fascinante,
04:09
where everyone is entirely machine dependent.
81
249745
3504
no que os seres humanos dependen totalmente das máquinas.
04:13
The story is really about the fact that if you hand over
82
253499
3754
En realidade, o relato amosa que,
se lle deixamos ás máquinas o control da nosa sociedade,
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
perdemos o incentivo entendela por nós mesmos
04:23
or to teach the next generation how to understand it.
85
263718
2544
ou para ensinarlle a entendela á seguinte xeración.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Poderiamos considerar “WALL-E”, como unha versión moderna
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
en que todo o mundo está debilitado e infantilizado polas máquinas,
04:32
and that hasn’t been possible up to now.
88
272893
1961
algo que non fora posible ata o de agora.
04:34
We put a lot of our civilization into books,
89
274854
2419
Poñemos moito da nosa civilización nos libros,
04:37
but the books can’t run it for us.
90
277273
1626
pero eles non a van xestionar por nós.
04:38
And so we always have to teach the next generation.
91
278899
2795
Debemos seguir instruíndo á vindeira xeración.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Levamos arredor dun billón de anos-persoa de ensino e aprendizaxe
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
e unha cadea continua que provén de decenas de miles de xeracións atrás.
04:50
What happens if that chain breaks?
94
290119
1919
Que pasa se a cadea rompe?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
É algo sobre o que debemos reflexionar a medida que a IA avanza.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
A data de chegada da IA de propósito xeral.
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
non se pode identificar, non vai ser un día concreto.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Tampouco vai ser algo de todo ou nada.
05:04
The impact is going to be increasing.
99
304592
2461
O seu impacto vai ir aumentando.
05:07
So with every advance in AI,
100
307053
2043
Con cada avance en IA,
05:09
it significantly expands the range of tasks.
101
309096
2962
amplíase moito o seu abano de tarefas.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Por iso, creo que a maioría dos expertos calculan que de aquí a finais de século,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
con moita probabilidade contaremos con IA de propósito xeral.
05:20
The median is something around 2045.
104
320733
3754
A media das previsións anda polo 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Eu son un pouco máis conservador.
05:26
I think the problem is harder than we think.
106
326489
2085
Han xurdir máis problemas dos que pensamos
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Gústame o que dixo John McAfee, un dos creadores da IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
cando lle fixeron esa pregunta: “nalgunha data entre 5 e 500 anos,
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
e creo que imos precisar varios Einstein para acadalo”.

Original video on YouTube.com
About this website

Este sitio presentarache vídeos de YouTube que son útiles para aprender inglés. Verás clases de inglés impartidas por profesores de primeiro nivel de todo o mundo. Fai dobre clic nos subtítulos en inglés que aparecen en cada páxina de vídeo para reproducir o vídeo desde alí. Os subtítulos desprázanse sincronizados coa reprodución do vídeo. Se tes algún comentario ou solicitude, póñase en contacto connosco a través deste formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7