Can a computer write poetry? | Oscar Schwartz

89,277 views ・ 2016-02-10

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Denise RQ
00:12
I have a question.
0
12881
1230
Tengo una pregunta.
00:15
Can a computer write poetry?
1
15422
1943
¿Puede una máquina escribir poesía?
00:18
This is a provocative question.
2
18959
2077
Es una pregunta provocativa.
00:21
You think about it for a minute,
3
21715
1718
Lo pensamos un minuto,
00:23
and you suddenly have a bunch of other questions like:
4
23457
2590
y de repente surgen muchas otras preguntas como:
00:26
What is a computer?
5
26769
1381
¿Qué es una máquina?
00:28
What is poetry?
6
28710
1575
¿Qué es la poesía?
00:30
What is creativity?
7
30707
1689
¿Qué es la creatividad?
00:33
But these are questions
8
33650
1172
Pero estas son preguntas
00:34
that people spend their entire lifetime trying to answer,
9
34846
3070
que tratamos de responder durante toda la vida
00:37
not in a single TED Talk.
10
37940
2224
no solo durante una charla TED.
00:40
So we're going to have to try a different approach.
11
40188
2445
Por eso lo intentaremos desde otro enfoque.
00:42
So up here, we have two poems.
12
42657
2143
Aquí tenemos dos poemas.
00:45
One of them is written by a human,
13
45839
2276
Uno escrito por un humano,
00:48
and the other one's written by a computer.
14
48139
2102
y el otro por una máquina.
00:50
I'm going to ask you to tell me which one's which.
15
50754
2410
Les pediré que me digan cuál es cuál.
00:53
Have a go:
16
53858
1156
Veamos:
00:55
Poem 1: Little Fly / Thy summer's play, / My thoughtless hand / Has brush'd away.
17
55038
4056
Poema 1: Mosquita / tu juego estival / mi mano vil / arrasó cual vendaval.
¿No tenemos tú y yo / la misma identidad / tu arte no tiene / una misma humanidad?
00:59
Am I not / A fly like thee? / Or art not thou / A man like me?
18
59118
3394
01:02
Poem 2: We can feel / Activist through your life's / morning /
19
62536
3299
Poema 2: Nos sentimos / Activistas Durante toda la vida / Amanecer
01:05
Pauses to see, pope I hate the / Non all the night to start a / great otherwise (...)
20
65859
4247
Paramos a ver, papa que odiamos el / no toda la noche para comenzar una /
por lo demás genial (...)
01:10
Alright, time's up.
21
70130
1359
01:11
Hands up if you think Poem 1 was written by a human.
22
71513
4096
Muy bien, tiempo.
Levanten la mano si piensan que el Poema 1 fue escrito por un humano.
01:17
OK, most of you.
23
77547
1490
Bien, la mayoría.
01:19
Hands up if you think Poem 2 was written by a human.
24
79061
3023
Levanten la mano si piensan que el Poema 2 fue escrito por un humano.
01:23
Very brave of you,
25
83172
1190
Muy valiente de su parte,
01:24
because the first one was written by the human poet William Blake.
26
84855
4285
porque el primer poema fue escrito por el poeta William Blake.
01:29
The second one was written by an algorithm
27
89784
2949
El segundo fue escrito por un algoritmo
01:32
that took all the language from my Facebook feed on one day
28
92757
3692
que tomó las palabras de mi Facebook un día
01:36
and then regenerated it algorithmically,
29
96473
2763
y las organizó con un programa,
01:39
according to methods that I'll describe a little bit later on.
30
99260
3590
siguiendo los métodos que describiré en unos momentos.
01:43
So let's try another test.
31
103218
2404
Hagamos otra prueba.
01:46
Again, you haven't got ages to read this,
32
106398
2093
De nuevo, no tendrán mucho tiempo para leer esto,
01:48
so just trust your gut.
33
108515
1612
confíen en su instinto.
01:50
Poem 1: A lion roars and a dog barks. It is interesting / and fascinating
34
110151
4045
Poema 1: Ruge un león y ladra un perro. Es interesante / y fascinante /
01:54
that a bird will fly and not / roar or bark. Enthralling stories about animals
35
114220
4303
que un ave vuele y no / ruja ni ladre. Sueño historias apasionantes de animales
01:58
are in my dreams and I will sing them all if I / am not exhausted or weary.
36
118547
4060
y las cantaré a todas ellas si no estoy cansado ni agotado.
02:02
Poem 2: Oh! kangaroos, sequins, chocolate sodas! / You are really beautiful!
37
122631
3985
Poema 2: ¡Oh, canguros, lentejuelas, chocolate, refrescos! / ¡Hermosos!
02:06
Pearls, / harmonicas, jujubes, aspirins! All / the stuff they've always talked about (...)
38
126640
4358
Perlas, / armónicas, azufaifa, ¡aspirinas! / Las cosas siempre mencionadas (...)
02:11
Alright, time's up.
39
131022
1158
Muy bien, tiempo.
02:12
So if you think the first poem was written by a human,
40
132204
3137
Si piensan que el primer poema fue escrito por un humano,
02:15
put your hand up.
41
135365
1215
levanten la mano.
02:17
OK.
42
137687
1154
Bien.
02:18
And if you think the second poem was written by a human,
43
138865
2675
Y si piensan que el segundo poema fue escrito por un humano,
02:21
put your hand up.
44
141564
1155
levanten la mano.
02:23
We have, more or less, a 50/50 split here.
45
143779
3810
Tenemos, más o menos, opiniones divididas.
02:28
It was much harder.
46
148157
1436
Fue mucho más difícil.
02:29
The answer is,
47
149617
1712
La respuesta:
02:31
the first poem was generated by an algorithm called Racter,
48
151353
3483
El primer poema fue generado por un algoritmo llamado Racter,
02:34
that was created back in the 1970s,
49
154860
3002
creado en la década de 1970,
02:37
and the second poem was written by a guy called Frank O'Hara,
50
157886
3189
y el segundo poema fue escrito por un tipo llamado Frank O'Hara,
02:41
who happens to be one of my favorite human poets.
51
161099
2668
que da la casualidad que es uno de mis poetas favoritos.
02:44
(Laughter)
52
164631
3058
(Risas)
02:48
So what we've just done now is a Turing test for poetry.
53
168046
3228
Lo que acabamos de hacer es una prueba de Turing de poesía.
02:52
The Turing test was first proposed by this guy, Alan Turing, in 1950,
54
172018
4547
Alan Turing fue el primero en proponer este test en 1950,
02:56
in order to answer the question,
55
176589
1564
para responder la pregunta:
02:58
can computers think?
56
178177
1637
¿Pueden pensar las máquinas?
03:00
Alan Turing believed that if a computer was able
57
180245
2770
Alan Turing creía que si una máquina podía mantener una conversación
03:03
to have a to have a text-based conversation with a human,
58
183039
3078
basada en un material escrito con un humano,
03:06
with such proficiency such that the human couldn't tell
59
186141
2770
con un dominio tal
que el humano no pudiera discernir
03:08
whether they are talking to a computer or a human,
60
188935
2966
si estaba hablando con una máquina o un humano,
03:11
then the computer can be said to have intelligence.
61
191925
2856
se podría decir entonces que la máquina tiene inteligencia.
03:15
So in 2013, my friend Benjamin Laird and I,
62
195270
3295
Por eso en 2013, mi amigo Benjamin Laird y yo,
03:18
we created a Turing test for poetry online.
63
198589
2988
creamos la prueba de Turing para poesía en línea.
03:21
It's called bot or not,
64
201601
1277
Se llama "Bot or not",
03:22
and you can go and play it for yourselves.
65
202902
2044
y cualquiera puede acceder e intentar pasarla.
03:24
But basically, it's the game we just played.
66
204970
2251
Pero, básicamente, es el juego que jugamos.
03:27
You're presented with a poem,
67
207245
1528
Se muestran dos poemas,
03:28
you don't know whether it was written by a human or a computer
68
208797
3028
y sin que uno sepa cual fue escrito por un humano o por una máquina,
03:31
and you have to guess.
69
211849
1166
tiene que adivinar.
03:33
So thousands and thousands of people have taken this test online,
70
213039
3191
Miles y miles de personas han hecho la prueba en línea,
03:36
so we have results.
71
216254
1449
así que tenemos resultados.
03:37
And what are the results?
72
217727
1428
¿Cuáles son los resultados?
03:39
Well, Turing said that if a computer could fool a human
73
219704
2879
Bueno, Turing decía que si una máquina pudiera hacer creer a un humano
03:42
30 percent of the time that it was a human,
74
222607
3019
que es un otro ser humano un 30 % de las veces
03:45
then it passes the Turing test for intelligence.
75
225650
2397
pasaba la prueba de inteligencia de Turing.
03:48
We have poems on the bot or not database
76
228625
2438
Tenemos poemas en la base de "Bot or not"
03:51
that have fooled 65 percent of human readers into thinking
77
231087
2979
que han hecho pensar a un 65 % de los lectores humanos
03:54
it was written by a human.
78
234090
1395
que fueron escritos por un humano.
03:55
So, I think we have an answer to our question.
79
235959
2817
Creo que tenemos una respuesta a nuestra pregunta.
03:59
According to the logic of the Turing test,
80
239546
2348
Según la lógica de la prueba de Turing,
04:01
can a computer write poetry?
81
241918
1928
¿puede una máquina escribir poesía?
04:03
Well, yes, absolutely it can.
82
243870
2351
Bueno, sí, categóricamente.
04:07
But if you're feeling a little bit uncomfortable
83
247782
2346
Pero si se sienten un poco incómodos
04:10
with this answer, that's OK.
84
250152
1927
con la respuesta, está bien.
04:12
If you're having a bunch of gut reactions to it,
85
252103
2316
Si su respuesta es emocional, está bien
04:14
that's also OK because this isn't the end of the story.
86
254443
3205
porque no es el fin de la historia.
04:18
Let's play our third and final test.
87
258594
2324
Hagamos una tercera y última prueba.
04:22
Again, you're going to have to read
88
262000
1750
De nuevo, tendrán que leer y decirme
04:23
and tell me which you think is human.
89
263774
1909
qué poema piensan que fue escrito por un humano.
04:25
Poem 1: Red flags the reason for pretty flags. / And ribbons.
90
265707
3718
Poema 1: Banderas rojas, la razón de hermosas banderas. / Y el blasón.
04:29
Ribbons of flags / And wearing material / Reasons for wearing material. (...)
91
269449
4321
Blasones de banderas / Y materiales. / Razones para lucir materiales. (...)
04:33
Poem 2: A wounded deer leaps highest, / I've heard the daffodil
92
273794
3918
Poema 2: Un ciervo herido salta más alto, / He oído al narciso. /
04:37
I've heard the flag to-day / I've heard the hunter tell; /
93
277736
3446
He oído la bandera hoy / He oído al cazador decir; /
04:41
'Tis but the ecstasy of death, / And then the brake is almost done (...)
94
281206
3702
No es más que el éxtasis de la muerte / Y luego es casi irrefrenable. (...)
04:44
OK, time is up.
95
284932
1599
Muy bien, tiempo.
04:46
So hands up if you think Poem 1 was written by a human.
96
286555
3837
Levanten la mano si piensan que el Poema 1 fue escrito por un humano.
04:51
Hands up if you think Poem 2 was written by a human.
97
291973
3038
Levanten la mano si piensan que el Poema 2 fue escrito por un humano.
04:55
Whoa, that's a lot more people.
98
295035
2331
Guau, son muchos más.
04:58
So you'd be surprised to find that Poem 1
99
298327
2968
Les sorprenderá saber que el Poema 1
05:01
was written by the very human poet Gertrude Stein.
100
301319
3993
fue escrito por la mismísima Gertrude Stein.
05:06
And Poem 2 was generated by an algorithm called RKCP.
101
306100
5038
Y el Poema 2 fue generado por un algoritmo llamado RKCP.
05:11
Now before we go on, let me describe very quickly and simply,
102
311162
3319
Pero antes de continuar describiré, simple y rápidamente,
05:14
how RKCP works.
103
314505
1781
cómo funciona RKCP.
05:16
So RKCP is an algorithm designed by Ray Kurzweil,
104
316873
3850
El RKCP es un algoritmo diseñado por Ray Kurzweil,
05:20
who's a director of engineering at Google
105
320747
2222
un director de ingeniería de Google
05:22
and a firm believer in artificial intelligence.
106
322993
2360
que cree firmemente en la inteligencia artificial.
05:25
So, you give RKCP a source text,
107
325822
3991
Se le proporciona a RKCP un texto fuente,
05:29
it analyzes the source text in order to find out how it uses language,
108
329837
4469
El RKCP analiza el texto para detectar cómo se usa el lenguaje,
05:34
and then it regenerates language
109
334330
1948
y luego vuelve a generar el lenguaje
05:36
that emulates that first text.
110
336302
2528
que emula al primer texto.
05:38
So in the poem we just saw before,
111
338854
2113
El poema que vimos antes,
05:40
Poem 2, the one that you all thought was human,
112
340991
2625
el Poema 2, el que todos pensaron que era humano,
05:43
it was fed a bunch of poems
113
343640
1550
fue creado a base de muchos poemas
05:45
by a poet called Emily Dickinson
114
345214
2035
escritos por la poetisa Emily Dickinson;
05:47
it looked at the way she used language,
115
347273
2189
analizó la forma en que ella usaba el lenguaje, aprendió el modelo,
05:49
learned the model,
116
349486
1165
05:50
and then it regenerated a model according to that same structure.
117
350675
4258
y luego volvió a generar un modelo siguiendo la misma estructura.
05:56
But the important thing to know about RKCP
118
356732
2178
Pero lo importante a saber de RKCP
05:58
is that it doesn't know the meaning of the words it's using.
119
358934
2838
es que no conoce el significado de las palabras que usa.
06:02
The language is just raw material,
120
362359
2276
El lenguaje es solo materia prima,
06:04
it could be Chinese, it could be in Swedish,
121
364659
2160
podría ser chino, podría ser sueco,
06:06
it could be the collected language from your Facebook feed for one day.
122
366843
4179
podría ser todo lo escrito en su muro de Facebook a lo largo del día.
06:11
It's just raw material.
123
371046
1652
Un idioma no es más que materia prima para la machina.
06:13
And nevertheless, it's able to create a poem
124
373380
2697
Y, no obstante, es capaz de crear un poema
06:16
that seems more human than Gertrude Stein's poem,
125
376101
3327
que parece más humano que el poema de Gertrude Stein,
06:19
and Gertrude Stein is a human.
126
379452
2153
y Gertrude Stein es un ser humano.
06:22
So what we've done here is, more or less, a reverse Turing test.
127
382846
4072
Aquí hemos hecho, más o menos, una prueba de Turing inversa.
06:27
So Gertrude Stein, who's a human, is able to write a poem
128
387940
5179
Gertrude Stein, humana, puede escribir un poema
06:33
that fools a majority of human judges into thinking
129
393143
3738
que lleva a pensar a la mayoría de los jueces humanos
06:36
that it was written by a computer.
130
396905
1826
que fue escrito por una máquina.
06:39
Therefore, according to the logic of the reverse Turing test,
131
399176
4141
Por lo tanto, según la lógica de la prueba de Turing inversa,
06:43
Gertrude Stein is a computer.
132
403341
1916
Gertrude Stein es una máquina.
06:45
(Laughter)
133
405281
1462
(Risas)
06:47
Feeling confused?
134
407358
1294
¿Están confundidos?
06:49
I think that's fair enough.
135
409193
1515
Pienso que es normal.
06:51
So far we've had humans that write like humans,
136
411546
4116
Hasta ahora tuvimos humanos que escribían como humanos,
06:55
we have computers that write like computers,
137
415686
3111
tenemos máquinas que escriben como máquinas,
06:58
we have computers that write like humans,
138
418821
3055
tenemos máquinas que escriben como humanos,
07:01
but we also have, perhaps most confusingly,
139
421900
3632
pero también tenemos, quizá lo que más confunde,
07:05
humans that write like computers.
140
425556
2375
humanos que escriben como máquinas.
07:08
So what do we take from all of this?
141
428938
1766
¿Qué aprendemos de todo esto?
07:11
Do we take that William Blake is somehow more of a human
142
431611
3157
¿Que William Blake en cierta forma es más humano que Gertrude Stein?
07:14
than Gertrude Stein?
143
434792
1249
07:16
Or that Gertrude Stein is more of a computer than William Blake?
144
436065
3046
¿O que Gertrude Stein es más autómata que William Blake?
07:19
(Laughter)
145
439135
1552
(Risas)
07:20
These are questions I've been asking myself
146
440711
2323
Son preguntas que me he hago
07:23
for around two years now,
147
443058
1465
desde hace dos años
07:24
and I don't have any answers.
148
444547
2309
y no tengo respuestas.
07:26
But what I do have are a bunch of insights
149
446880
2330
Pero tengo un montón de ideas
07:29
about our relationship with technology.
150
449234
2534
sobre nuestra relación con la tecnología.
07:32
So my first insight is that, for some reason,
151
452999
3609
Mi primera idea es que, por alguna razón,
07:36
we associate poetry with being human.
152
456632
3111
asociamos la poesía con el ser humano.
07:40
So that when we ask, "Can a computer write poetry?"
153
460197
3715
Por eso cuando nos preguntamos: "¿Puede una máquina escribir poesía?"
07:43
we're also asking,
154
463936
1193
también preguntamos:
07:45
"What does it mean to be human
155
465153
1798
"¿Qué significa ser humanos
07:46
and how do we put boundaries around this category?
156
466975
3172
y cómo circunscribimos esta categoría?
07:50
How do we say who or what can be part of this category?"
157
470171
3658
¿Cómo decidimos quién o qué puede pertenecer a esta categoría?"
07:54
This is an essentially philosophical question, I believe,
158
474376
3351
Creo que es esencialmente una cuestión filosófica,
07:57
and it can't be answered with a yes or no test,
159
477751
2229
que no podemos solucionar con una prueba binaria,
08:00
like the Turing test.
160
480004
1327
como la prueba de Turing.
08:01
I also believe that Alan Turing understood this,
161
481805
3045
Creo que Alan Turing también entendió esto,
08:04
and that when he devised his test back in 1950,
162
484874
3305
y que cuando ideó su prueba allá por los años 50,
08:08
he was doing it as a philosophical provocation.
163
488203
2802
lo pensó como una provocación filosófica.
08:13
So my second insight is that, when we take the Turing test for poetry,
164
493124
5541
Mi segunda idea es que, si aplicamos la prueba de Turing a la poesía,
08:18
we're not really testing the capacity of the computers
165
498689
3460
en realidad no probamos la capacidad de las máquinas
08:22
because poetry-generating algorithms,
166
502173
2893
porque los algoritmos generadores de poesía son bastante simples
08:25
they're pretty simple and have existed, more or less, since the 1950s.
167
505090
4563
y han existido, más o menos, desde los años 50.
08:31
What we are doing with the Turing test for poetry, rather,
168
511055
3118
En cambio, lo que hacemos con la prueba de Turing en la poesía
08:34
is collecting opinions about what constitutes humanness.
169
514197
4615
es recolectar opiniones sobre el significado de lo humano.
08:40
So, what I've figured out,
170
520313
2729
Yo descubrí que,
08:43
we've seen this when earlier today,
171
523066
2972
lo hemos visto hoy más temprano,
08:46
we say that William Blake is more of a human
172
526062
2478
decíamos que William Blake es más humano
08:48
than Gertrude Stein.
173
528564
1565
que Gertrude Stein.
08:50
Of course, this doesn't mean that William Blake
174
530153
2462
Claro, esto no significa que William Blake
08:52
was actually more human
175
532639
1828
sea en realidad más humano
08:54
or that Gertrude Stein was more of a computer.
176
534491
2327
ni que Gertrude Stein sea más autómata.
08:57
It simply means that the category of the human is unstable.
177
537533
4714
Significa simplemente que la categoría de lo humano es inestable.
09:03
This has led me to understand
178
543450
2074
Esto me ha llevado a comprender
09:05
that the human is not a cold, hard fact.
179
545548
2763
que lo humano no es un hecho rígido, frío.
09:08
Rather, it is something that's constructed with our opinions
180
548832
3132
Más bien, es algo construido con opiniones
09:11
and something that changes over time.
181
551988
2855
y algo que cambia con el tiempo.
09:16
So my final insight is that the computer, more or less,
182
556671
4479
Y mi última idea es que la máquina funciona más o menos como un espejo
09:21
works like a mirror that reflects any idea of a human
183
561174
4006
que refleja cualquier idea humana que le mostramos.
09:25
that we show it.
184
565204
1375
09:26
We show it Emily Dickinson,
185
566958
1884
Le mostramos a Emily Dickinson
09:28
it gives Emily Dickinson back to us.
186
568866
2321
y nos devuelve Emily Dickinson.
09:31
We show it William Blake,
187
571768
1834
Le mostramos a William Blake
09:33
that's what it reflects back to us.
188
573626
2285
y eso es lo que emula.
09:35
We show it Gertrude Stein,
189
575935
1839
Le mostramos a Gertrude Stein
09:37
what we get back is Gertrude Stein.
190
577798
2470
y crea en base al estilo de Gertrude Stein.
09:41
More than any other bit of technology,
191
581083
2368
Más que cualquier otra tecnología,
09:43
the computer is a mirror that reflects any idea of the human we teach it.
192
583475
5165
la máquina es un espejo que refleja una idea del humano que le mostramos.
09:50
So I'm sure a lot of you have been hearing
193
590061
2287
Estoy seguro de que muchos de Uds. habrán oído mucho recientemente
09:52
a lot about artificial intelligence recently.
194
592372
2862
sobre la inteligencia artificial.
09:56
And much of the conversation is,
195
596694
2830
Y el centro de la conversación
10:00
can we build it?
196
600292
1189
es si podemos crearla.
10:02
Can we build an intelligent computer?
197
602383
3135
¿Podemos crear una máquina inteligente?
10:05
Can we build a creative computer?
198
605542
2763
¿Podemos crear una máquina creativa?
10:08
What we seem to be asking over and over
199
608329
2113
Parece que nos preguntamos sin cesar:
10:10
is can we build a human-like computer?
200
610466
2724
¿Podemos crear una máquina semejante a un humano?
10:13
But what we've seen just now
201
613961
1556
Pero hasta ahora hemos visto
10:15
is that the human is not a scientific fact,
202
615541
3088
que lo humano no es un hecho científico,
10:18
that it's an ever-shifting, concatenating idea
203
618653
3530
sino una idea armoniosa y siempre cambiante
10:22
and one that changes over time.
204
622207
2531
que cambia con el tiempo.
10:24
So that when we begin to grapple with the ideas
205
624762
3152
Cuando empecemos a debatir las ideas
10:27
of artificial intelligence in the future,
206
627938
2386
de una inteligencia artificial en el futuro,
10:30
we shouldn't only be asking ourselves,
207
630348
1905
no solo deberíamos preguntarnos:
10:32
"Can we build it?"
208
632277
1368
"¿Podemos construirla?"
10:33
But we should also be asking ourselves,
209
633669
1894
También deberíamos preguntarnos:
10:35
"What idea of the human do we want to have reflected back to us?"
210
635587
3713
"¿Qué idea de lo humano desearíamos ver reflejada en nosotros?"
10:39
This is an essentially philosophical idea,
211
639820
2693
Esta es una idea esencialmente filosófica
10:42
and it's one that can't be answered with software alone,
212
642537
2997
que no puede responderse solo con software,
10:45
but I think requires a moment of species-wide, existential reflection.
213
645558
4977
sino que requiere un momento de reflexión existencial de la especie.
10:51
Thank you.
214
651040
1153
Gracias.
10:52
(Applause)
215
652217
2695
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7