How to Get Inside the "Brain" of AI | Alona Fyshe | TED

58,808 views ・ 2023-04-03

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Antonella Persello Revisor: Sebastian Betti
00:04
People are funny.
0
4417
1127
La gente es graciosa.
00:05
We're constantly trying to understand and interpret
1
5585
2544
Constantemente tratamos de entender e interpretar
00:08
the world around us.
2
8171
1460
el mundo que nos rodea.
00:10
I live in a house with two black cats, and let me tell you,
3
10090
2794
Vivo en una casa con dos gatos negros, y déjenme decirles,
00:12
every time I see a black, bunched up sweater out of the corner of my eye,
4
12926
3462
cada vez que un sweater negro descartado se interpone a mi visión,
00:16
I think it's a cat.
5
16388
1209
creo que es un gato.
No se trata solamente de lo que vemos.
00:18
It's not just the things we see.
6
18098
1585
00:19
Sometimes we attribute more intelligence than might actually be there.
7
19724
3587
A menudo atribuimos más inteligencia de la que en realidad existe.
00:23
Maybe you've seen the dogs on TikTok.
8
23770
1794
Quizá vieron los perros de TikTok.
00:25
They have these little buttons that say things like "walk" or "treat."
9
25605
3379
Tienen estos pequeños botones que dicen cosas como “caminar” o “recompensa”.
00:29
They can push them to communicate some things with their owners,
10
29025
3128
Pueden presionarlos para comunicarse con sus dueños,
00:32
and their owners think they use them
11
32195
1752
y los dueños creen que ellos lo usan
00:33
to communicate some pretty impressive things.
12
33947
2169
para comunicar cosas impresionantes.
00:36
But do the dogs know what they're saying?
13
36491
2002
¿Pero los perros saben lo que dicen?
00:39
Or perhaps you've heard the story of Clever Hans the horse,
14
39494
3462
O quizá escucharon la historia del caballo Sabio Hans,
00:42
and he could do math.
15
42956
1376
que sabía sobre matemáticas.
00:44
And not just like, simple math problems, really complicated ones,
16
44374
3086
No solo sobre problemas matemáticos, sino problemas realmente complicados,
00:47
like, if the eighth day of the month falls on a Tuesday,
17
47460
3003
como “si el octavo día del mes cae martes,
00:50
what's the date of the following Friday?
18
50463
1919
¿cuál es la fecha del siguiente viernes?“.
00:52
It's like, pretty impressive for a horse.
19
52841
2043
Impresionante para ser un caballo.
00:55
Unfortunately, Hans wasn't doing math,
20
55927
2586
Desafortunadamente, Hans no resolvía problemas matemáticos,
00:58
but what he was doing was equally impressive.
21
58555
2586
pero lo que hacía era igual de impresionante.
01:01
Hans had learned to watch the people in the room
22
61182
2670
Hans había aprendido a observar a la gente de la sala
01:03
to tell when he should tap his hoof.
23
63893
2002
para determinar cuándo debía agitar su pezuña.
01:05
So he communicated his answers by tapping his hoof.
24
65937
2461
Así que comunicaba sus respuestas agitando su pezuña.
01:08
It turns out that if you know the answer
25
68982
1918
Sucede que si sabes cuál es la respuesta
01:10
to "if the eighth day of the month falls on a Tuesday,
26
70942
2544
a ”si el octavo día del mes cae martes,
01:13
what's the date of the following Friday,"
27
73528
1960
¿cuál es la fecha del siguiente viernes?“
01:15
you will subconsciously change your posture
28
75488
2044
inconscientemente cambiarás tu postura
01:17
once the horse has given the correct 18 taps.
29
77532
2169
una vez que el caballo haya agitado la pezuña 18 veces.
01:20
So Hans couldn't do math,
30
80493
1293
Hans no sabía sobre matemáticas,
01:21
but he had learned to watch the people in the room who could do math,
31
81786
3254
pero había aprendido a observar a quienes sí sabían sobre matemáticas,
01:25
which, I mean, still pretty impressive for a horse.
32
85081
2419
lo cual sigue siendo impresionante para un caballo.
01:28
But this is an old picture,
33
88418
1418
Pero esto es algo desactualizado,
01:29
and we would not fall for Clever Hans today.
34
89836
2252
y hoy no caeríamos ante el Sabio Hans.
01:32
Or would we?
35
92672
1168
¿O sí?
01:34
Well, I work in AI,
36
94549
2169
Bueno, yo trabajo con la IA,
01:36
and let me tell you, things are wild.
37
96718
2002
y déjenme decirles, las cosas son bravas.
01:38
There have been multiple examples of people being completely convinced
38
98720
3754
Ha habido múltiples ejemplos sobre personas completamente convencidas
01:42
that AI understands them.
39
102515
1502
de que la IA las entendía.
01:44
In 2022,
40
104559
2711
En 2022,
01:47
a Google engineer thought that Google’s AI was sentient.
41
107270
3337
un ingeniero de Google pensó que la IA de Google tenía sentimientos.
01:50
And you may have had a really human-like conversation
42
110649
2752
Y quizá hayan tenido una conversación muy humana
01:53
with something like ChatGPT.
43
113401
1877
con algo como ChatGPT.
01:55
But models we're training today are so much better
44
115779
2377
Pero los modelos que entrenamos hoy son mucho mejores
01:58
than the models we had even five years ago.
45
118198
2002
que los que teníamos incluso cinco años atrás.
02:00
It really is remarkable.
46
120200
1710
Es algo destacable.
02:02
So at this super crazy moment in time,
47
122744
2502
Así que en esta época tan llamativa,
02:05
let’s ask the super crazy question:
48
125288
2127
hagámonos la pregunta más llamativa:
02:07
Does AI understand us,
49
127832
1293
¿La IA nos entiende,
02:09
or are we having our own Clever Hans moment?
50
129167
2878
o nos estamos comportando como el Sabio Hans?
02:13
Some philosophers think that computers will never understand language.
51
133254
3462
Según algunos filósofos, las computadoras nunca entenderán el lenguaje.
02:16
To illustrate this, they developed something they call
52
136716
2628
Para ilustrar esto, desarrollaron algo a lo que llamaron
02:19
the Chinese room argument.
53
139344
1460
“la habitación china”.
02:21
In the Chinese room, there is a person, hypothetical person,
54
141429
3629
En esta habitación china, hay una persona, una persona hipotética,
02:25
who does not understand Chinese,
55
145100
1835
que no entiende chino,
02:26
but he has along with him a set of instructions
56
146976
2211
pero que cuenta con una serie de instrucciones
02:29
that tell him how to respond in Chinese to any Chinese sentence.
57
149229
4212
que le indican cómo responder en chino a cualquier oración en chino.
02:33
Here's how the Chinese room works.
58
153983
1669
Así es como funciona la habitación china.
02:35
A piece of paper comes in through a slot in the door,
59
155652
2502
Ingresa un papel por una ranura de la puerta,
02:38
has something written in Chinese on it.
60
158196
2461
tiene algo escrito en chino.
02:40
The person uses their instructions to figure out how to respond.
61
160699
3003
La persona usa las instrucciones para ver cómo responder.
02:43
They write the response down on a piece of paper
62
163702
2293
Escribe la respuesta en un trozo de papel
02:46
and then send it back out through the door.
63
166037
2252
y luego la envía de nuevo por la puerta.
02:48
To somebody who speaks Chinese,
64
168331
1502
A alguien que habla chino,
02:49
standing outside this room,
65
169833
1293
que está detrás de la puerta,
02:51
it might seem like the person inside the room speaks Chinese.
66
171167
3170
le parecerá que la persona dentro habla chino.
02:54
But we know they do not,
67
174337
2753
Pero nosotros sabemos que no,
02:57
because no knowledge of Chinese is required to follow the instructions.
68
177090
4546
porque no se necesita saber chino para seguir las instrucciones.
03:01
Performance on this task does not show that you know Chinese.
69
181636
2961
Tu desenvolvimiento en esta tarea no prueba que sepas chino.
03:05
So what does that tell us about AI?
70
185807
2002
¿Qué nos dice esto sobre la IA?
03:08
Well, when you and I stand outside of the room,
71
188226
2753
Bueno, cuando tú y yo nos situamos fuera de la sala,
03:11
when we speak to one of these AIs like ChatGPT,
72
191020
4547
cuando hablamos con una IA como ChatGPT,
03:15
we are the person standing outside the room.
73
195567
2085
somos la persona que se ubica fuera de la sala.
03:17
We're feeding in English sentences,
74
197652
1710
La alimentamos con oraciones en inglés,
03:19
we're getting English sentences back.
75
199362
2127
y obtenemos de vuelta oraciones en inglés.
03:21
It really looks like the models understand us.
76
201531
2419
Parece que el modelo nos entiende.
03:23
It really looks like they know English.
77
203992
2502
Parece que sabe inglés.
03:27
But under the hood,
78
207203
1168
Pero en realidad
03:28
these models are just following a set of instructions, albeit complex.
79
208371
3754
estos modelos están siguiendo una compleja serie de instrucciones.
03:32
How do we know if AI understands us?
80
212917
2795
¿Cómo sabemos si la IA nos entiende?
03:36
To answer that question, let's go back to the Chinese room again.
81
216880
3086
Para responder esa pregunta, volvamos a la habitación china.
03:39
Let's say we have two Chinese rooms.
82
219966
1794
Digamos que tenemos dos habitaciones.
03:41
In one Chinese room is somebody who actually speaks Chinese,
83
221801
3879
En una habitación china hay alguien que realmente habla chino,
03:46
and in the other room is our impostor.
84
226014
1877
y en la otra está nuestra impostora.
03:48
When the person who actually speaks Chinese gets a piece of paper
85
228224
3087
Cuando la persona que habla chino recibe el papel
03:51
that says something in Chinese in it, they can read it, no problem.
86
231311
3170
que dice algo en chino, puede leerlo, sin problemas.
03:54
But when our imposter gets it again,
87
234522
1752
Pero cuando la recibe el impostor,
03:56
he has to use his set of instructions to figure out how to respond.
88
236274
3170
tiene que recurrir a las instrucciones para responder.
03:59
From the outside, it might be impossible to distinguish these two rooms,
89
239819
3671
Desde fuera, puede parecer imposible distinguir entre ambas habitaciones,
04:03
but we know inside something really different is happening.
90
243531
3587
pero sabemos que en el interior están ocurriendo cosas diferentes.
04:07
To illustrate that,
91
247660
1168
Para ilustrar eso,
04:08
let's say inside the minds of our two people,
92
248870
2836
digamos que dentro de las mentes de nuestras dos personas,
04:11
inside of our two rooms,
93
251748
1585
dentro de nuestras dos habitaciones,
04:13
is a little scratch pad.
94
253374
1752
hay un bloc de notas.
04:15
And everything they have to remember in order to do this task
95
255168
2878
Y todo lo que deben recordar para resolver esta tarea
04:18
has to be written on that little scratch pad.
96
258046
2169
tiene que ser escrito en ese bloc de notas.
04:20
If we could see what was written on that scratch pad,
97
260757
2586
Si pudiéramos ver lo que escriben en el bloc de notas,
04:23
we would be able to tell how different their approach to the task is.
98
263384
3421
podríamos determinar qué tan distinto se comportan ambos.
04:27
So though the input and the output of these two rooms
99
267514
2502
Entonces, aunque la tarea y el resultado de ambas habitaciones
04:30
might be exactly the same,
100
270016
1293
sean idénticos,
04:31
the process of getting from input to output -- completely different.
101
271309
3337
el proceso por el cual se llega al resultado puede ser diferente.
04:35
So again, what does that tell us about AI?
102
275897
2294
De nuevo, ¿qué nos dice esto sobre la IA?
04:38
Again, if AI, even if it generates completely plausible dialogue,
103
278691
3838
Insisto, incluso si la IA genera diálogos plausibles,
04:42
answers questions just like we would expect,
104
282529
2085
responde preguntas tal como esperamos,
04:44
it may still be an imposter of sorts.
105
284614
2377
podría seguir siendo una impostora.
04:47
If we want to know if AI understands language like we do,
106
287033
3003
Si queremos saber si la IA comprende el lenguaje como nosotros,
04:50
we need to know what it's doing.
107
290078
1835
tenemos que saber qué está haciendo.
04:51
We need to get inside to see what it's doing.
108
291955
2335
Debemos contemplar su interior para ver qué está haciendo.
04:54
Is it an imposter or not?
109
294332
1585
¿Es una impostora o no?
04:55
We need to see its scratch pad,
110
295959
1835
Debemos ver su bloc de notas,
04:57
and we need to be able to compare it
111
297794
1752
y compararlo
04:59
to the scratch pad of somebody who actually understands language.
112
299587
3212
con el bloc de notas de alguien que sí comprende el lenguaje.
05:02
But like scratch pads in brains,
113
302841
1751
Pero al igual que los blocs del cerebro,
05:04
that's not something we can actually see, right?
114
304634
2336
no son algo que podamos ver, ¿verdad?
05:07
Well, it turns out that we can kind of see scratch pads in brains.
115
307720
3337
Bueno, resulta que sí podemos observar esos blocs en el cerebro.
05:11
Using something like fMRI or EEG,
116
311099
2127
Utilizando algo como IRMf o EEG,
05:13
we can take what are like little snapshots of the brain while it’s reading.
117
313268
3712
podemos obtener pequeñas instantáneas del cerebro mientras está leyendo.
05:17
So have people read words or stories and then take pictures of their brain.
118
317021
4171
Alguien lee palabras o historias y luego toma una foto de su cerebro.
05:21
And those brain images are like fuzzy,
119
321192
2252
Y esas imágenes del cerebro son borrosas,
05:23
out-of-focus pictures of the scratch pad of the brain.
120
323486
3253
son imágenes difusas del bloc de notas del cerebro.
05:26
They tell us a little bit about how the brain is processing
121
326739
3045
Informan sobre cómo el cerebro procesa
05:29
and representing information while you read.
122
329784
2461
y representa la información al leer.
05:33
So here are three brain images taken while a person read the word "apartment,"
123
333079
4087
Aquí hay tres imágenes del cerebro tomadas mientras una persona leía “apartamento”,
05:37
"house" and "celery."
124
337208
1669
“casa” y “apio”.
05:39
You can see just with your naked eye
125
339252
2002
Se puede observar
que las imágenes correspondientes a “apartamento” y “casa”
05:41
that the brain image for "apartment" and "house"
126
341296
2252
05:43
are more similar to each other
127
343548
1585
se parecen más entre sí
05:45
than they are to the brain image for "celery."
128
345133
2252
que lo que se parecen con “apio”.
05:47
And you know, of course that apartments and houses are more similar
129
347385
3170
Obviamente los apartamentos y las casas son más parecidos entre sí
05:50
than they are to celery, just the words.
130
350555
2210
que con el apio.
05:52
So said another way,
131
352807
2544
En otras palabras,
05:55
the brain uses its scratchpad when reading the words "apartment" and "house"
132
355393
4296
el cerebro usa su bloc de notas al leer “apartamento” y “casa”
05:59
in a way that's more similar than when you read the word "celery."
133
359731
3128
de manera más parecida que al leer “apio”.
06:03
The scratch pad tells us a little bit
134
363693
1793
El bloc de notas nos dice algo
06:05
about how the brain represents the language.
135
365486
2086
sobre cómo el cerebro representa el lenguaje.
06:07
It's not a perfect picture of what the brain's doing,
136
367572
2502
No es una imagen perfecta,
pero es buena.
06:10
but it's good enough.
137
370074
1335
Bueno, contamos con un bloc de notas para el cerebro.
06:11
OK, so we have scratch pads for the brain.
138
371409
2169
06:13
Now we need a scratch pad for AI.
139
373620
2127
Ahora necesitamos uno para la IA.
06:16
So inside a lot of AIs is a neural network.
140
376706
2878
Dentro de muchas IAs hay redes neuronales.
06:19
And inside of a neural network is a bunch of these little neurons.
141
379626
3253
Y dentro de cada red neuronal se encuentran pequeñas neuronas.
06:22
So here the neurons are like these little gray circles.
142
382921
2919
Estas neuronas son como pequeños círculos grises.
06:25
And we would like to know
143
385840
1210
Y lo que queremos conocer
06:27
what is the scratch pad of a neural network?
144
387091
2086
es el bloc de notas de una red neuronal.
06:29
Well, when we feed in a word into a neural network,
145
389177
4254
Bueno, cuando ingresamos una palabra en una red neuronal,
06:33
each of the little neurons computes a number.
146
393473
2794
cada una de estas neuronas computa un número.
06:36
Those little numbers I'm representing here with colors.
147
396893
2627
Represento aquí esos números con colores.
06:39
So every neuron computes this little number,
148
399562
2795
Cada neurona computa este pequeño número,
06:42
and those numbers tell us something
149
402398
1710
y todos esos números nos dicen algo
06:44
about how the neural network is processing language.
150
404108
2711
sobre cómo la red neuronal procesa el lenguaje.
06:47
Taken together,
151
407862
1168
En conjunto,
06:49
all of those little circles paint us a picture
152
409030
2753
estos círculos constituyen una imagen
06:51
of how the neural network is representing language,
153
411824
2419
sobre cómo la red neuronal representa el lenguaje,
06:54
and they give us the scratch pad of the neural network.
154
414243
2753
y proporcionan el bloc de notas de la red neuronal.
06:57
OK, great.
155
417580
1168
Bien.
06:58
Now we have two scratch pads, one from the brain and one from AI.
156
418790
3086
Ahora tenemos dos blocs, uno del cerebro y otro de la IA.
07:01
And we want to know: Is AI doing something like what the brain is doing?
157
421876
3629
Lo que queremos saber es: ¿la IA hace algo similar al cerebro?
07:05
How can we test that?
158
425838
1377
¿Cómo lo comprobamos?
07:07
Here's what researchers have come up with.
159
427757
2002
Esto es lo que dicen los investigadores.
07:09
We're going to train a new model.
160
429801
1877
Vamos a entrenar un nuevo modelo.
07:11
That new model is going to look at neural network scratch pad
161
431678
2877
Este nuevo modelo observará el bloc de notas de una red neuronal
07:14
for a particular word
162
434555
1168
para una palabra específica
07:15
and try to predict the brain scratch pad for the same word.
163
435723
3087
y tratará de predecir el bloc del cerebro para esa misma palabra.
07:18
We can do it, by the way, around two.
164
438851
1919
Podemos hacerlo con dos.
07:20
So let's train a new model.
165
440812
2043
Entrenemos un nuevo modelo.
07:22
It’s going to look at the neural network scratch pad for a particular word
166
442897
3504
Observará el bloc de la red neuronal para una palabra específica
07:26
and try to predict the brain scratchpad.
167
446401
1918
y tratará de predecir el del cerebro.
07:28
If the brain and AI are doing nothing alike,
168
448319
2586
Si el cerebro y la IA no hacen lo mismo,
07:30
have nothing in common,
169
450947
1168
si no tienen nada en común,
07:32
we won't be able to do this prediction task.
170
452115
2085
no podrá realizar la predicción.
07:34
It won't be possible to predict one from the other.
171
454200
2461
No será posible predecir uno a partir de otro.
07:36
So we've reached a fork in the road
172
456995
1710
Llegado este punto,
07:38
and you can probably tell I'm about to tell you one of two things.
173
458705
3295
probablemente se dieron cuenta de que voy a decirles una cosa de dos.
07:42
I’m going to tell you AI is amazing,
174
462458
2044
Voy a decirles que la IA es increíble,
07:44
or I'm going to tell you AI is an imposter.
175
464544
2669
o voy a decirles que la IA es una impostora.
A los investigadores como yo nos gusta recordarles
07:48
Researchers like me love to remind you
176
468047
2211
07:50
that AI is nothing like the brain.
177
470299
1627
que la IA no se parece al cerebro.
07:51
And that is true.
178
471968
1501
Y eso es cierto.
07:53
But could it also be the AI and the brain share something in common?
179
473845
3253
¿Pero no podrían tener algo en común?
07:58
So we’ve done this scratch pad prediction task,
180
478516
2211
Hicimos esta prueba de predicción
08:00
and it turns out, 75 percent of the time
181
480727
2669
y resulta que el 75 % de las veces
08:03
the predicted neural network scratchpad for a particular word
182
483438
3169
la predicción del bloc de una red neuronal para una palabra específica
08:06
is more similar to the true neural network scratchpad for that word
183
486649
3754
se parece más al verdadero bloc de la red para esa palabra
08:10
than it is to the neural network scratch pad
184
490403
2085
que al bloc de la red neuronal
08:12
for some other randomly chosen word --
185
492488
1835
para otra palabra escogida al azar...
08:14
75 percent is much better than chance.
186
494323
2962
75 % es una gran posibilidad.
08:17
What about for more complicated things,
187
497285
1918
¿Qué pasa con cosas más complicadas,
08:19
not just words, but sentences, even stories?
188
499203
2086
no solo palabras, sino frases, incluso historias?
08:21
Again, this scratch pad prediction task works.
189
501330
2420
De nuevo, esta predicción del bloc funciona.
08:23
We’re able to predict the neural network scratch pad from the brain and vice versa.
190
503791
4213
Podemos predecir el bloc de la red desde el cerebro y viceversa.
08:28
Amazing.
191
508838
1210
Increíble.
08:30
So does that mean
192
510548
1168
¿Eso significa
08:31
that neural networks and AI understand language just like we do?
193
511758
3378
que las redes neuronales y la IA comprenden el lenguaje como nosotros?
08:35
Well, truthfully, no.
194
515511
1585
Bueno, realmente no.
08:37
Though these scratch pad prediction tasks show above-chance accuracy,
195
517513
4880
Si bien estas predicciones de blocs demuestran buenos resultados,
08:42
the underlying correlations are still pretty weak.
196
522393
2378
las correlaciones subyacentes son débiles.
Y si bien las redes neuronales están inspiradas en el cerebro,
08:45
And though neural networks are inspired by the brain,
197
525188
2502
08:47
they don't have the same kind of structure and complexity
198
527690
2711
no tienen la misma estructura ni complejidad
08:50
that we see in the brain.
199
530401
1210
del cerebro.
08:52
Neural networks also don't exist in the world.
200
532028
2461
Las redes neuronales tampoco existen en el mundo.
08:54
A neural network has never opened a door
201
534530
2086
Una red neuronal nunca abrió una puerta,
08:56
or seen a sunset, heard a baby cry.
202
536657
2962
ni vio el amanecer, ni oyó el llanto de un bebé.
09:00
Can a neural network that doesn't actually exist in the world,
203
540161
2961
¿Una red neuronal que no existe en el mundo,
09:03
hasn't really experienced the world,
204
543122
1794
que no ha experimentado el mundo,
09:04
really understand language about the world?
205
544916
2294
puede entender el lenguaje sobre el mundo?
09:08
Still, these scratch pad prediction experiments have held up --
206
548169
2961
Estos experimentos de predicciones de blocs han sostenido
muchos experimentos sobre imágenes cerebrales,
09:11
multiple brain imaging experiments,
207
551130
1710
09:12
multiple neural networks.
208
552840
1418
sobre redes neuronales.
09:14
We've also found that as the neural networks get more accurate,
209
554300
2961
También nos dimos cuenta de que a medida que la redes mejoran,
09:17
they also start to use their scratch pad in a way
210
557261
2711
comienzan a usar sus blocs de manera más parecida
09:20
that becomes more brain-like.
211
560014
2002
a la del cerebro.
09:22
And it's not just language.
212
562058
1293
Y no se trata solo del lenguaje.
09:23
We've seen similar results in navigation and vision.
213
563392
2503
Hay resultados similares en la navegación y la visión.
09:26
So AI is not doing exactly what the brain is doing,
214
566270
3879
La IA no sabe exactamente lo que hace el cerebro,
09:30
but it's not completely random either.
215
570191
2377
pero tampoco es algo completamente al azar.
09:34
So from where I sit,
216
574112
1835
Así que desde mi perspectiva,
09:35
if we want to know if AI really understands language like we do,
217
575988
3337
si queremos saber si la IA comprende el lenguaje como nosotros,
09:39
we need to get inside of the Chinese room.
218
579325
2336
necesitamos ingresar en la habitación china.
09:41
We need to know what the AI is doing,
219
581702
1836
Necesitamos saber lo que hace la IA,
09:43
and we need to be able to compare that to what people are doing
220
583579
2962
y necesitamos compararlo con lo que hace la gente
09:46
when they understand language.
221
586541
1751
cuando comprende el lenguaje.
09:48
AI is moving so fast.
222
588334
1877
La IA avanza muy rápido.
09:50
Today, I'm asking you, does AI understand language
223
590545
2377
Hoy les pregunto si la IA comprende el lenguaje,
09:52
that might seem like a silly question in ten years.
224
592964
2460
y en diez años será una pregunta tonta.
09:55
Or ten months.
225
595466
1168
O en diez meses.
09:56
(Laughter)
226
596634
1919
(Risas)
09:58
But one thing will remain true.
227
598594
1544
Pero algo seguirá siendo cierto.
10:00
We are meaning-making humans,
228
600179
1460
Nosotros construimos significados,
10:01
and we are going to continue to look for meaning
229
601681
2878
y como humanos lo seguiremos haciendo
10:04
and interpret the world around us.
230
604559
1918
y seguiremos interpretando el mundo.
10:06
And we will need to remember
231
606477
2127
Y necesitaremos recordar
10:08
that if we only look at the input and output of AI,
232
608646
2794
que si solamente observamos lo que ingresa y sale en la IA,
10:11
it's very easy to be fooled.
233
611440
2128
es muy fácil ser engañado.
10:13
We need to get inside of the metaphorical room of AI
234
613609
3712
Necesitamos entrar en la sala metafórica de la IA
10:17
in order to see what's happening.
235
617363
1627
para observar lo que sucede.
10:19
It's what's inside the counts.
236
619740
2461
Lo de dentro es lo que importa.
10:22
Thank you.
237
622660
1168
Gracias.
10:23
(Applause)
238
623828
4004
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7