Can a computer write poetry? | Oscar Schwartz

89,741 views ・ 2016-02-10

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Lígia Araújo Revisora: Margarida Ferreira
00:12
I have a question.
0
12881
1230
Tenho uma pergunta.
00:15
Can a computer write poetry?
1
15422
1943
Pode um computador escrever poesia?
00:18
This is a provocative question.
2
18959
2077
Esta é uma pergunta provocadora.
00:21
You think about it for a minute,
3
21715
1718
Pensem nisso por um minuto,
00:23
and you suddenly have a bunch of other questions like:
4
23457
2590
e subitamente têm muitas outras perguntas como:
00:26
What is a computer?
5
26769
1381
O que é um computador?
00:28
What is poetry?
6
28710
1575
O que é poesia?
00:30
What is creativity?
7
30707
1689
O que é criatividade?
00:33
But these are questions
8
33650
1172
Estas são perguntas
00:34
that people spend their entire lifetime trying to answer,
9
34846
3070
que as pessoas passam a vida inteira a tentar responder,
00:37
not in a single TED Talk.
10
37940
2224
não apenas numa palestra TED.
00:40
So we're going to have to try a different approach.
11
40188
2445
Então, vamos ter de tentar uma abordagem diferente.
00:42
So up here, we have two poems.
12
42657
2143
Temos aqui dois poemas.
00:45
One of them is written by a human,
13
45839
2276
Um deles foi escrito por uma pessoa,
00:48
and the other one's written by a computer.
14
48139
2102
e o outro foi escrito por um computador.
00:50
I'm going to ask you to tell me which one's which.
15
50754
2410
Vou pedir que me digam qual é qual.
00:53
Have a go:
16
53858
1156
Experimentem.
[Poema 1
00:55
Poem 1: Little Fly / Thy summer's play, / My thoughtless hand / Has brush'd away.
17
55038
4056
[Pequena mosca, o teu jogo de verão,
[a minha mão irrefletida afastou para longe.
00:59
Am I not / A fly like thee? / Or art not thou / A man like me?
18
59118
3394
[Não sou eu uma mosca como tu? Ou não és tu um homem como eu?]
01:02
Poem 2: We can feel / Activist through your life's / morning /
19
62536
3299
[Poema 2
[Sentir-nos ativistas durante a manhã da nossa vida
01:05
Pauses to see, pope I hate the / Non all the night to start a / great otherwise (...)
20
65859
4247
[Para e vê, o papa que odeio
[Não toda a noite para começar uma outra grande coisa (...)]
01:10
Alright, time's up.
21
70130
1359
01:11
Hands up if you think Poem 1 was written by a human.
22
71513
4096
Pronto, o tempo acabou.
Mãos no ar se pensam que o Poema 1 foi escrito por uma pessoa.
01:17
OK, most of you.
23
77547
1490
Ok, a maior parte.
01:19
Hands up if you think Poem 2 was written by a human.
24
79061
3023
Mãos no ar se pensam que o Poema 2 foi escrito por uma pessoa.
01:23
Very brave of you,
25
83172
1190
Impressionante,
01:24
because the first one was written by the human poet William Blake.
26
84855
4285
porque o primeiro foi escrito pelo poeta William Blake.
01:29
The second one was written by an algorithm
27
89784
2949
O segundo foi escrito por um algoritmo
01:32
that took all the language from my Facebook feed on one day
28
92757
3692
que usou toda a linguagem do meu perfil de Facebook de um dia
01:36
and then regenerated it algorithmically,
29
96473
2763
e depois a regenerou de forma algorítmica,
01:39
according to methods that I'll describe a little bit later on.
30
99260
3590
de acordo com os métodos que irei descrever daqui a pouco.
01:43
So let's try another test.
31
103218
2404
Vamos fazer outro teste.
01:46
Again, you haven't got ages to read this,
32
106398
2093
Também não têm muito tempo para ler isto,
01:48
so just trust your gut.
33
108515
1612
portanto, confiem no vosso instinto.
01:50
Poem 1: A lion roars and a dog barks. It is interesting / and fascinating
34
110151
4045
[Poema 1
[Um leão ruge e um cão ladra. É interessante e fascinante
[que um pássaro voe mas não ruge nem ladra.
01:54
that a bird will fly and not / roar or bark. Enthralling stories about animals
35
114220
4303
[Nos meus sonhos há histórias apaixonantes sobre animais
01:58
are in my dreams and I will sing them all if I / am not exhausted or weary.
36
118547
4060
[e irei cantá-las todas se eu não estiver exausto ou cansado.
[Poema 2
02:02
Poem 2: Oh! kangaroos, sequins, chocolate sodas! / You are really beautiful!
37
122631
3985
[Oh! Cangurus, lantejoulas, batidos de chocolate
[Vocês são muito bonitos!
02:06
Pearls, / harmonicas, jujubes, aspirins! All / the stuff they've always talked about (...)
38
126640
4358
[Pérolas, harmónicas, jujubas, aspirinas!
[Todas as coisas de que sempre falaram fazem de um poema uma surpresa (...)]
02:11
Alright, time's up.
39
131022
1158
Pronto, acabou o tempo.
02:12
So if you think the first poem was written by a human,
40
132204
3137
Se pensam que o primeiro poema foi escrito por uma pessoa,
02:15
put your hand up.
41
135365
1215
ponham a mão no ar.
02:17
OK.
42
137687
1154
02:18
And if you think the second poem was written by a human,
43
138865
2675
E se pensam que o segundo poema foi escrito por uma pessoa,
02:21
put your hand up.
44
141564
1155
ponham a mão no ar.
02:23
We have, more or less, a 50/50 split here.
45
143779
3810
Temos, mais ou menos, uma divisão de 50/50.
02:28
It was much harder.
46
148157
1436
Isto foi muito mais difícil.
02:29
The answer is,
47
149617
1712
A resposta é,
02:31
the first poem was generated by an algorithm called Racter,
48
151353
3483
o primeiro poema foi gerado por um algoritmo chamado Racter,
02:34
that was created back in the 1970s,
49
154860
3002
que foi criado na década de 70,
02:37
and the second poem was written by a guy called Frank O'Hara,
50
157886
3189
e o segundo poema foi escrito por um sujeito chamado Frank O' Hara,
02:41
who happens to be one of my favorite human poets.
51
161099
2668
que, por acaso, é um dos meus poetas favoritos.
02:44
(Laughter)
52
164631
3058
(Risos)
02:48
So what we've just done now is a Turing test for poetry.
53
168046
3228
Acabámos de fazer um teste Turing para poesia.
02:52
The Turing test was first proposed by this guy, Alan Turing, in 1950,
54
172018
4547
O teste Turing foi proposto pela primeira vez por Alan Turing, em 1950,
02:56
in order to answer the question,
55
176589
1564
a fim de responder à pergunta:
02:58
can computers think?
56
178177
1637
"Os computadores podem pensar?"
03:00
Alan Turing believed that if a computer was able
57
180245
2770
Alan Turing acreditava que, se um computador fosse capaz
03:03
to have a to have a text-based conversation with a human,
58
183039
3078
de ter uma conversa baseada num texto com uma pessoa,
03:06
with such proficiency such that the human couldn't tell
59
186141
2770
com tamanha proficiência que a pessoa não conseguisse distinguir
03:08
whether they are talking to a computer or a human,
60
188935
2966
se estava a falar com um computador ou uma pessoa,
03:11
then the computer can be said to have intelligence.
61
191925
2856
então pode dizer-se que o computador possui inteligência.
03:15
So in 2013, my friend Benjamin Laird and I,
62
195270
3295
Então, em 2013, o meu amigo Benjamin Laird e eu,
03:18
we created a Turing test for poetry online.
63
198589
2988
criámos um teste Turing para poesia "online".
03:21
It's called bot or not,
64
201601
1277
É chamado "bot or not",
03:22
and you can go and play it for yourselves.
65
202902
2044
e, se quiserem, podem ir lá jogá-lo,
03:24
But basically, it's the game we just played.
66
204970
2251
Mas, basicamente é o jogo que acabámos de jogar.
03:27
You're presented with a poem,
67
207245
1528
Apresentam-nos um poema,
03:28
you don't know whether it was written by a human or a computer
68
208797
3028
que não sabemos se foi escrito por uma pessoa ou um computador
03:31
and you have to guess.
69
211849
1166
e temos de adivinhar.
03:33
So thousands and thousands of people have taken this test online,
70
213039
3191
Milhares e milhares de pessoas fizeram este teste "online",
03:36
so we have results.
71
216254
1449
e temos os resultados.
03:37
And what are the results?
72
217727
1428
Quais são os resultados?
03:39
Well, Turing said that if a computer could fool a human
73
219704
2879
Turing disse que, se um computador pudesse enganar uma pessoa
03:42
30 percent of the time that it was a human,
74
222607
3019
30% do tempo, de que ele era um ser humano,
03:45
then it passes the Turing test for intelligence.
75
225650
2397
então passava o teste Turing para a inteligência.
03:48
We have poems on the bot or not database
76
228625
2438
Temos poemas na base de dados da "bot or not"
03:51
that have fooled 65 percent of human readers into thinking
77
231087
2979
que levaram 65% dos leitores humanos a pensar
03:54
it was written by a human.
78
234090
1395
que fora escrito por uma pessoa.
03:55
So, I think we have an answer to our question.
79
235959
2817
Penso que temos a resposta para a nossa pergunta.
03:59
According to the logic of the Turing test,
80
239546
2348
De acordo com a lógica do teste Turing,
04:01
can a computer write poetry?
81
241918
1928
um computador pode escrever poesia?
04:03
Well, yes, absolutely it can.
82
243870
2351
Bem, sim, claro que pode.
04:07
But if you're feeling a little bit uncomfortable
83
247782
2346
Mas se se sentem um pouco desconfortáveis
04:10
with this answer, that's OK.
84
250152
1927
com esta resposta, tudo bem.
04:12
If you're having a bunch of gut reactions to it,
85
252103
2316
Se estão a ter muitas reações de aversão a isso,
04:14
that's also OK because this isn't the end of the story.
86
254443
3205
também está tudo bem porque não é o final da história.
04:18
Let's play our third and final test.
87
258594
2324
Vamos jogar o nosso terceiro e último teste.
Mais uma vez, vão ter que ler
04:22
Again, you're going to have to read
88
262000
1750
e dizer-me qual deles acham que é de uma pessoa.
04:23
and tell me which you think is human.
89
263774
1909
04:25
Poem 1: Red flags the reason for pretty flags. / And ribbons.
90
265707
3718
[Poema 1
[Bandeiras vermelhas, a razão para bandeiras bonitas.
[E laços. Laços de bandeiras E material gasto
04:29
Ribbons of flags / And wearing material / Reasons for wearing material. (...)
91
269449
4321
[Razões para material gasto (...)]
[Poema 2
04:33
Poem 2: A wounded deer leaps highest, / I've heard the daffodil
92
273794
3918
[Um veado ferido salta mais alto,
[Ouvi o narciso, hoje ouvi a bandeira, ouvi o conto do caçador;
04:37
I've heard the flag to-day / I've heard the hunter tell; /
93
277736
3446
[Isto é o êxtase da morte, e a pausa está quase a acabar,
04:41
'Tis but the ecstasy of death, / And then the brake is almost done (...)
94
281206
3702
[o nascer do sol aproxima-se (...)]
04:44
OK, time is up.
95
284932
1599
Pronto, acabou o tempo,
04:46
So hands up if you think Poem 1 was written by a human.
96
286555
3837
Então, mãos no ar se pensam que o Poema 1 foi escrito por uma pessoa.
04:51
Hands up if you think Poem 2 was written by a human.
97
291973
3038
Mãos no ar se pensam que o Poema 2 foi escrito por uma pessoa.
04:55
Whoa, that's a lot more people.
98
295035
2331
Uau! muito mais pessoas!
04:58
So you'd be surprised to find that Poem 1
99
298327
2968
Então, vão ficar surpreendidos ao descobrir que o Poema 1
05:01
was written by the very human poet Gertrude Stein.
100
301319
3993
foi escrito pela poetisa chamada Gertrude Stein.
05:06
And Poem 2 was generated by an algorithm called RKCP.
101
306100
5038
E o Poema 2 foi gerado por um algoritmo chamado RKCP.
05:11
Now before we go on, let me describe very quickly and simply,
102
311162
3319
Antes de continuarmos, vou descrever muito rápida e simplesmente,
05:14
how RKCP works.
103
314505
1781
como é o que o RKCP funciona.
05:16
So RKCP is an algorithm designed by Ray Kurzweil,
104
316873
3850
O RKCP é um algoritmo concebido por Ray Kurzwell,
05:20
who's a director of engineering at Google
105
320747
2222
que é diretor de engenharia na Google
05:22
and a firm believer in artificial intelligence.
106
322993
2360
e um crente firme na inteligência artificial.
05:25
So, you give RKCP a source text,
107
325822
3991
Damos ao RKCP um texto de origem,
05:29
it analyzes the source text in order to find out how it uses language,
108
329837
4469
que ele analisa de forma a descobrir como usar a linguagem,
05:34
and then it regenerates language
109
334330
1948
e depois volta a gerar uma linguagem
05:36
that emulates that first text.
110
336302
2528
que simula aquele primeiro texto.
05:38
So in the poem we just saw before,
111
338854
2113
No poema que vimos antes,
05:40
Poem 2, the one that you all thought was human,
112
340991
2625
o Poema 2, aquele que vocês todos pensaram que era humano,
05:43
it was fed a bunch of poems
113
343640
1550
foi alimentado por muitos poemas da poetisa Emily Dickinson.
05:45
by a poet called Emily Dickinson
114
345214
2035
05:47
it looked at the way she used language,
115
347273
2189
Olhou para a forma como ela usou a linguagem,
05:49
learned the model,
116
349486
1165
aprendeu o modelo,
05:50
and then it regenerated a model according to that same structure.
117
350675
4258
e voltou a gerar um modelo de acordo com a mesma estrutura.
05:56
But the important thing to know about RKCP
118
356732
2178
Mas uma coisa importante relativamente ao RKCP
05:58
is that it doesn't know the meaning of the words it's using.
119
358934
2838
é que ele não sabe o significado das palavras que está a usar.
06:02
The language is just raw material,
120
362359
2276
A linguagem é apenas material bruto,
06:04
it could be Chinese, it could be in Swedish,
121
364659
2160
podia ser chinês, podia ser sueco,
06:06
it could be the collected language from your Facebook feed for one day.
122
366843
4179
podia ser a linguagem retirada da vossa página do Facebook.
06:11
It's just raw material.
123
371046
1652
É apenas material bruto.
06:13
And nevertheless, it's able to create a poem
124
373380
2697
Mesmo assim, é capaz de criar um poema
06:16
that seems more human than Gertrude Stein's poem,
125
376101
3327
que parece mais próprio de uma pessoa do que o poema da Gertrude Stein
06:19
and Gertrude Stein is a human.
126
379452
2153
e Gertrude Stein é uma pessoa.
06:22
So what we've done here is, more or less, a reverse Turing test.
127
382846
4072
Nós fizemos, mais ou menos, um teste Turing ao contrário.
06:27
So Gertrude Stein, who's a human, is able to write a poem
128
387940
5179
Gertrude Stein, que é uma pessoa, é capaz de escrever um poema
06:33
that fools a majority of human judges into thinking
129
393143
3738
que engana a maioria das pessoas e leva-as a pensar
06:36
that it was written by a computer.
130
396905
1826
que foi escrito por um computador.
06:39
Therefore, according to the logic of the reverse Turing test,
131
399176
4141
Então, de acordo com a lógica do teste Turing ao contrário,
06:43
Gertrude Stein is a computer.
132
403341
1916
Gertrude Stein é um computador.
06:45
(Laughter)
133
405281
1462
(Risos)
06:47
Feeling confused?
134
407358
1294
Sentem-se confusos?
06:49
I think that's fair enough.
135
409193
1515
Penso que isso é justo.
06:51
So far we've had humans that write like humans,
136
411546
4116
Até agora tivemos pessoas que escrevem como pessoas,
06:55
we have computers that write like computers,
137
415686
3111
temos computadores que escrevem como computadores,
06:58
we have computers that write like humans,
138
418821
3055
temos computadores que escrevem como pessoas,
07:01
but we also have, perhaps most confusingly,
139
421900
3632
mas também temos — talvez de forma mais confusa —
07:05
humans that write like computers.
140
425556
2375
pessoas que escrevem como computadores.
07:08
So what do we take from all of this?
141
428938
1766
Então o que retiramos disto tudo?
07:11
Do we take that William Blake is somehow more of a human
142
431611
3157
Será que William Blake, de certo modo, tem mais de pessoa
07:14
than Gertrude Stein?
143
434792
1249
do que Gertrude Stein?
07:16
Or that Gertrude Stein is more of a computer than William Blake?
144
436065
3046
Ou que Gertrude Stein tem mais de computador que William Blake?
07:19
(Laughter)
145
439135
1552
(Risos)
07:20
These are questions I've been asking myself
146
440711
2323
Estas são perguntas que tenho feito a mim mesmo
07:23
for around two years now,
147
443058
1465
desde há dois anos,
07:24
and I don't have any answers.
148
444547
2309
e não tenho nenhuma resposta.
07:26
But what I do have are a bunch of insights
149
446880
2330
O que tenho são muitas perceções
07:29
about our relationship with technology.
150
449234
2534
sobre a nossa relação com a tecnologia.
07:32
So my first insight is that, for some reason,
151
452999
3609
A minha primeira perceção é que, por alguma razão,
07:36
we associate poetry with being human.
152
456632
3111
associamos a poesia com as pessoas.
07:40
So that when we ask, "Can a computer write poetry?"
153
460197
3715
Quando perguntamos: "Um computador pode escrever poesia?"
07:43
we're also asking,
154
463936
1193
também estamos a perguntar:
07:45
"What does it mean to be human
155
465153
1798
"O que significa ser uma pessoa
07:46
and how do we put boundaries around this category?
156
466975
3172
"e como colocar fronteiras nesta categoria?
07:50
How do we say who or what can be part of this category?"
157
470171
3658
"Como dizemos quem ou o quê pode fazer parte desta categoria?"
07:54
This is an essentially philosophical question, I believe,
158
474376
3351
Acho que esta é uma questão essencialmente filosófica
07:57
and it can't be answered with a yes or no test,
159
477751
2229
e não pode ser respondida por um teste de sim ou não,
08:00
like the Turing test.
160
480004
1327
como o teste Turing.
08:01
I also believe that Alan Turing understood this,
161
481805
3045
Também acredito que o Alan Turing compreendeu isto,
08:04
and that when he devised his test back in 1950,
162
484874
3305
e que, quando criou o teste em 1950,
08:08
he was doing it as a philosophical provocation.
163
488203
2802
estava a fazê-lo como uma provocação filosófica.
08:13
So my second insight is that, when we take the Turing test for poetry,
164
493124
5541
A minha segunda perceção é que, quando fazemos o teste Turing de poesia,
08:18
we're not really testing the capacity of the computers
165
498689
3460
não estamos a testar a capacidade dos computadores
08:22
because poetry-generating algorithms,
166
502173
2893
porque os algoritmos geradores de poesia,
08:25
they're pretty simple and have existed, more or less, since the 1950s.
167
505090
4563
são muito simples e existem, mais ou menos, desde os anos 50.
08:31
What we are doing with the Turing test for poetry, rather,
168
511055
3118
Em vez disso, com o teste Turing para poesia,
08:34
is collecting opinions about what constitutes humanness.
169
514197
4615
estamos a reunir opiniões sobre o que constitui a humanidade.
08:40
So, what I've figured out,
170
520313
2729
Então, o que é que descobri?
08:43
we've seen this when earlier today,
171
523066
2972
Vimos isto quando, há bocado,
08:46
we say that William Blake is more of a human
172
526062
2478
dissemos que William Blake tem mais de uma pessoa
08:48
than Gertrude Stein.
173
528564
1565
do que Gertrude Stein.
08:50
Of course, this doesn't mean that William Blake
174
530153
2462
Claro, isto não significa que William Blake
08:52
was actually more human
175
532639
1828
fosse, de facto, mais pessoa
08:54
or that Gertrude Stein was more of a computer.
176
534491
2327
ou que Gertrude Stein tivesse mais de computador.
08:57
It simply means that the category of the human is unstable.
177
537533
4714
Simplesmente significa que a categoria de "pessoa" é instável.
09:03
This has led me to understand
178
543450
2074
Isto fez-me compreender
09:05
that the human is not a cold, hard fact.
179
545548
2763
que a pessoa não é um facto puro e duro.
09:08
Rather, it is something that's constructed with our opinions
180
548832
3132
Em vez disso, é algo construído com as nossas opiniões
09:11
and something that changes over time.
181
551988
2855
é algo que muda com o tempo.
09:16
So my final insight is that the computer, more or less,
182
556671
4479
A minha última perceção é que o computador, mais ou menos,
09:21
works like a mirror that reflects any idea of a human
183
561174
4006
trabalha como um espelho que reflete qualquer ideia de pessoa
09:25
that we show it.
184
565204
1375
que nós lhe mostrarmos.
09:26
We show it Emily Dickinson,
185
566958
1884
Mostramos-lhe Emily Dickinson,
09:28
it gives Emily Dickinson back to us.
186
568866
2321
devolve-nos Emily Dickinson.
09:31
We show it William Blake,
187
571768
1834
Mostramos-lhe William Blake,
09:33
that's what it reflects back to us.
188
573626
2285
é isso que reflete de volta.
09:35
We show it Gertrude Stein,
189
575935
1839
Mostramos-lhe Gertrude Stein,
09:37
what we get back is Gertrude Stein.
190
577798
2470
iremos receber Gertrude Stein.
09:41
More than any other bit of technology,
191
581083
2368
Mais do que qualquer outro pedaço de tecnologia,
09:43
the computer is a mirror that reflects any idea of the human we teach it.
192
583475
5165
o computador é um espelho
que reflete qualquer ideia de pessoa que lhe ensinarmos.
09:50
So I'm sure a lot of you have been hearing
193
590061
2287
Então tenho a certeza que muitos de vocês têm ouvido
09:52
a lot about artificial intelligence recently.
194
592372
2862
muito sobre inteligência artificial recentemente.
09:56
And much of the conversation is,
195
596694
2830
E grande parte da conversa é:
10:00
can we build it?
196
600292
1189
"Podemos construí-lo?
10:02
Can we build an intelligent computer?
197
602383
3135
"Podemos construir um computador inteligente?
10:05
Can we build a creative computer?
198
605542
2763
"Podemos construir um computador criativo?
10:08
What we seem to be asking over and over
199
608329
2113
Parece que estamos a perguntar vezes sem conta:
10:10
is can we build a human-like computer?
200
610466
2724
"Podemos construir um computador como uma pessoa?"
10:13
But what we've seen just now
201
613961
1556
Mas o que temos visto agora
10:15
is that the human is not a scientific fact,
202
615541
3088
é que a pessoa não é um facto científico,
10:18
that it's an ever-shifting, concatenating idea
203
618653
3530
é uma ideia encadeada e sempre em mudança
10:22
and one that changes over time.
204
622207
2531
e que muda ao longo do tempo.
10:24
So that when we begin to grapple with the ideas
205
624762
3152
De modo que, quando começamos a lidar com as ideias
10:27
of artificial intelligence in the future,
206
627938
2386
da inteligência artificial no futuro,
10:30
we shouldn't only be asking ourselves,
207
630348
1905
não devíamos perguntar-nos:
10:32
"Can we build it?"
208
632277
1368
"Podemos construí-lo?"
10:33
But we should also be asking ourselves,
209
633669
1894
Também devíamos perguntar-nos:
10:35
"What idea of the human do we want to have reflected back to us?"
210
635587
3713
"Qual é a ideia de pessoa que queremos ver refletida?"
10:39
This is an essentially philosophical idea,
211
639820
2693
Esta é uma ideia essencialmente filosófica,
10:42
and it's one that can't be answered with software alone,
212
642537
2997
é uma ideia que não pode ser respondida apenas com "software".
10:45
but I think requires a moment of species-wide, existential reflection.
213
645558
4977
Penso que requer um momento de reflexão existencial enquanto espécie.
10:51
Thank you.
214
651040
1153
Obrigado.
10:52
(Applause)
215
652217
2695
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7