How humans and AI can work together to create better businesses | Sylvain Duranton

29,531 views ・ 2020-02-14

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Traductor: Ciro Gomez Revisor: Lidia Cámara de la Fuente
00:12
Let me share a paradox.
1
12865
2127
Déjenme compartir una paradoja.
00:16
For the last 10 years,
2
16429
1467
Durante los últimos 10 años,
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
muchas compañías han intentado ser menos burocráticas,
00:21
to have fewer central rules and procedures,
4
21792
2833
tener menos reglas centrales y procedimientos,
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
más autonomía para que sus equipos locales sean más ágiles.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Y ahora están dando cuerda a la inteligencia artificial, IA,
00:32
unaware that cool technology
7
32814
2445
sin darse cuenta de que esta genial tecnología
00:35
might make them more bureaucratic than ever.
8
35283
3602
podría hacerlos más burocráticos que nunca.
00:39
Why?
9
39378
1151
¿Por qué?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Porque la IA opera al igual que las burocracias.
00:44
The essence of bureaucracy
11
44403
2412
La esencia de la burocracia
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
es favorecer reglas y procedimientos sobre el juicio humano.
00:51
And AI decides solely based on rules.
13
51887
3841
Y la IA decide únicamente según las reglas.
00:56
Many rules inferred from past data
14
56062
2833
Muchas reglas inferidas de datos pasados,
00:58
but only rules.
15
58919
1904
pero solo reglas.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
Y si no se involucra el juicio humano
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
la AI traerá una forma aterradora de nueva burocracia,
01:09
I call it "algocracy" --
18
69538
2999
yo la llamo "algocracia"
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
donde la IA tomará más y más decisiones críticas basada en reglas
01:17
outside of any human control.
20
77085
2317
fuera de cualquier control humano.
01:20
Is there a real risk?
21
80427
1674
¿Existe un riesgo real?
01:22
Yes.
22
82514
1150
Sí.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Lidero un equipo de 800 especialistas en IA.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Hemos instalados más de 100 soluciones de IA personalizadas
01:30
for large companies around the world.
25
90599
2467
para grandes empresas de todo el mundo.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Y veo demasiados ejecutivos corporativos comportándose como burócratas del pasado.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Quieren sacar a humanos costosos y anticuados del proceso
01:44
and rely only upon AI to take decisions.
28
104720
3865
y confiar solo en la IA en la toma de decisiones.
01:49
I call this the "human-zero mindset."
29
109244
4253
Yo llamo a esto la "mentalidad de cero humanos".
01:54
And why is it so tempting?
30
114260
2118
¿Y por qué es eso tan tentador?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Porque la otra ruta, "Humano más IA" es larga,
02:02
costly and difficult.
32
122307
2609
costosa y difícil.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Equipos de negocios, equipos tecnológicos, equipos de ciencia de datos
02:08
have to iterate for months
34
128257
2079
tienen que interaccionar meses
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
para encontrar cómo los humanos y la IA pueden trabajar mejor juntos.
02:16
Long, costly and difficult.
36
136160
3428
Largo, costoso y difícil.
02:19
But the reward is huge.
37
139891
2070
Pero la recompensa es enorme.
02:22
A recent survey from BCG and MIT
38
142343
3306
Una encuesta reciente de BCG y MIT
02:25
shows that 18 percent of companies in the world
39
145673
4507
muestra que el 18 % de empresas en el mundo
02:30
are pioneering AI,
40
150204
2214
son pioneras en IA,
02:32
making money with it.
41
152442
2301
haciendo dinero con eso.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Esas compañías se enfocan un 80 % de sus iniciativas de IA
02:40
on effectiveness and growth,
43
160771
1953
en efectividad y crecimiento,
02:42
taking better decisions --
44
162748
2170
tomando mejores decisiones
02:44
not replacing humans with AI to save costs.
45
164942
3538
no reemplazando humanos con IA para ahorrar costos.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
¿Por qué es importante mantener a los humanos involucrados?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Simplemente porque, dejándola sola, la IA puede hacer cosas muy tontas.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
A veces sin consecuencias, como en este tuit.
03:03
"Dear Amazon,
49
183212
1564
"Querida Amazon,
03:04
I bought a toilet seat.
50
184800
1386
compré un asiento de inodoro.
03:06
Necessity, not desire.
51
186210
1661
Por necesidad, no por deseo.
03:07
I do not collect them,
52
187895
1452
No los colecciono.
03:09
I'm not a toilet-seat addict.
53
189371
2238
No soy un adicto a los inodoros.
03:11
No matter how temptingly you email me,
54
191633
2206
No importa cuán tentador sea el correo,
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
No voy a pensar, 'Oh, adelante, entonces,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
un asiento de inodoro más, Trataré yo mismo".
03:18
(Laughter)
57
198400
1344
(Risas)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
A veces, con más consecuencia, como en este otro tuit.
03:24
"Had the same situation
59
204903
1787
"Tenía la misma situación
03:26
with my mother's burial urn."
60
206714
2459
con la urna funeraria de mi madre".
03:29
(Laughter)
61
209197
1008
(Risas)
03:30
"For months after her death,
62
210229
1365
"Por meses tras su muerte,
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
recibí mensajes de Amazon, diciendo: 'Si te gustó eso...' ".
03:35
(Laughter)
64
215190
2015
(Risas)
03:37
Sometimes with worse consequences.
65
217229
2528
A veces con peores consecuencias.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Por ejemplo, una IA rechazando una solicitud para la universidad.
03:44
Why?
67
224535
1150
¿Por qué?
03:45
Because it has "learned," on past data,
68
225709
2670
Porque ha "aprendido" de datos pasados,
03:48
characteristics of students that will pass and fail.
69
228403
3182
características de los estudiantes este pasará y este fallará.
03:51
Some are obvious, like GPAs.
70
231609
2103
Algunos obvios, como los exámenes de grado.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Pero si, en el pasado, los estudiantes de un código postal dado han fallado,
03:59
it is very likely that AI will make this a rule
72
239202
3532
es muy probable que la IA hará de esto una regla
04:02
and will reject every student with this postal code,
73
242758
3770
y rechazará a cada estudiante con este código postal,
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
sin darle a nadie la oportunidad para demostrar que la regla está equivocada.
04:11
And no one can check all the rules,
75
251857
2516
Y nadie puede verificar todas las reglas,
04:14
because advanced AI is constantly learning.
76
254397
3452
porque la IA avanzada está constantemente aprendiendo.
04:18
And if humans are kept out of the room,
77
258307
2326
Y si los humanos no están involucrados,
04:20
there comes the algocratic nightmare.
78
260657
3277
llega la pesadilla algocrática.
04:24
Who is accountable for rejecting the student?
79
264466
2857
¿Quién es responsable? de rechazar al estudiante?
04:27
No one, AI did.
80
267347
1643
Nadie, la AI lo hizo.
04:29
Is it fair? Yes.
81
269014
1674
¿Es justo? Sí.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
El mismo conjunto de reglas objetivas se ha aplicado a todos.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
¿Podríamos reconsiderar a este niño brillante con el código postal incorrecto?
04:38
No, algos don't change their mind.
84
278899
3111
No, los algoritmos no cambian de opinión.
04:42
We have a choice here.
85
282974
2016
Tenemos una opción aquí.
04:45
Carry on with algocracy
86
285756
2524
Continuar con algoritmocracia
04:48
or decide to go to "Human plus AI."
87
288304
2865
o decidir ir a "Humano más IA".
04:51
And to do this,
88
291193
1333
Y para hacer esto,
04:52
we need to stop thinking tech first,
89
292550
3440
primero tenemos que dejar de pensar en tecnología
04:56
and we need to start applying the secret formula.
90
296014
3650
y debemos comenzar a aplicar la fórmula secreta.
05:00
To deploy "Human plus AI,"
91
300601
2103
Para usar "Humano más IA"
05:02
10 percent of the effort is to code algos;
92
302728
2921
el 10 % del esfuerzo es de codificar algoritmos;
05:05
20 percent to build tech around the algos,
93
305673
3531
el 20 % construir tecnología alrededor de los algoritmos,
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
recolectando datos, construyendo IU, integración en sistemas heredados;
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
pero el 70 %, la mayor parte del esfuerzo,
05:16
is about weaving together AI with people and processes
96
316286
4476
se dedica a entrelazar la AI con personas y procesos
05:20
to maximize real outcome.
97
320786
2374
para maximizar el resultado real.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
La IA falla cuando se corta en el 70 %.
05:28
The price tag for that can be small,
99
328794
3159
El precio para eso puede ser pequeño,
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
desperdiciando muchos, muchos millones de dólares en tecnología inútil.
05:35
Anyone cares?
101
335986
1150
¿A alguien le importa?
05:38
Or real tragedies:
102
338153
2325
O tragedias reales:
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
Las 346 bajas en los accidentes recientes de dos aviones B-737
05:48
when pilots could not interact properly
104
348776
3261
cuando los pilotos no podían interactuar adecuadamente
05:52
with a computerized command system.
105
352061
2467
con un sistema de comando computarizado.
05:55
For a successful 70 percent,
106
355974
1794
Para un exitoso 70 %, el primer paso
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
es asegurarse de que los algoritmos están codificados por científicos de datos
06:02
and domain experts together.
108
362911
2118
junto a expertos en dominios.
06:05
Take health care for example.
109
365427
2198
Tomen, por ejemplo, el cuidado de la salud.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Uno de nuestros equipos trabajó en un nuevo medicamento
con un pequeño problema
06:12
When taking their first dose,
111
372784
1499
Al tomar la primera dosis,
06:14
some patients, very few, have heart attacks.
112
374307
3484
algunos pacientes, muy pocos, tienen ataques al corazón
06:18
So, all patients, when taking their first dose,
113
378117
3135
Entonces, todos los pacientes, cuando toman su primera dosis,
06:21
have to spend one day in hospital,
114
381276
2682
tienen que pasar un día en el hospital
06:23
for monitoring, just in case.
115
383982
2071
para monitorización, por si acaso.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Nuestro objetivo era identificar pacientes que tenían cero riesgo de ataques,
06:32
who could skip the day in hospital.
117
392193
2333
que podrían pasar el día en el hospital.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Utilizamos la IA para analizar datos de ensayos clínicos,
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
para correlacionar la señal del ECG, composición sanguínea, biomarcadores,
06:44
with the risk of heart attack.
120
404537
2000
con riesgo de infarto.
06:47
In one month,
121
407232
1274
En un mes,
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
nuestro modelo podría marcar el 62 % de los pacientes con riesgo cero.
06:54
They could skip the day in hospital.
123
414887
2222
Podrían saltarse el día en el hospital.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
¿Estarían cómodos quedándose en casa para su primera dosis
07:01
if the algo said so?
125
421379
1524
si es que el algoritmo lo dijo?
07:02
(Laughter)
126
422927
1015
(Risas)
07:03
Doctors were not.
127
423966
1650
Los médicos no.
07:05
What if we had false negatives,
128
425966
2302
¿Y si tuviéramos falsos negativos,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
es decir, personas a quienes les dice la AI pueden quedarse en casa y morir?
07:13
(Laughter)
130
433545
1365
(Risas)
07:14
There started our 70 percent.
131
434934
2452
Ahí comenzó nuestro 70 %.
07:17
We worked with a team of doctors
132
437410
1992
Trabajamos con un equipo de médicos
07:19
to check the medical logic of each variable in our model.
133
439426
3799
para verificar la lógica médica de cada variable en nuestro modelo.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Por ejemplo, estábamos usando la concentración de una enzima hepática
07:28
as a predictor,
135
448130
1273
como predictor
07:29
for which the medical logic was not obvious.
136
449427
3698
lo cual para la lógica médica no era obvio.
07:33
The statistical signal was quite strong.
137
453149
2666
La señal estadística fue bastante fuerte.
07:36
But what if it was a bias in our sample?
138
456300
2833
Pero ¿y si fue un sesgo en nuestra muestra?
07:39
That predictor was taken out of the model.
139
459157
2800
Ese predictor fue sacado del modelo.
07:42
We also took out predictors for which experts told us
140
462307
3445
También sacamos predictores para los que los expertos nos dijeron
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
que no pueden medirse rigurosamente por médicos en la vida real.
07:50
After four months,
142
470371
1690
Después de cuatro meses
07:52
we had a model and a medical protocol.
143
472085
3071
teníamos un modelo y un protocolo médico.
07:55
They both got approved
144
475514
1666
Ambos fueron aprobados
07:57
my medical authorities in the US last spring,
145
477204
3222
por mis autoridades medicas en EE. UU. la primavera pasada,
08:00
resulting in far less stress for half of the patients
146
480450
3706
resultando en mucho menos estrés para la mitad de los pacientes
08:04
and better quality of life.
147
484180
1800
y mejor calidad de vida.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Y un alza esperada en las ventas más de 100 millones para ese fármaco.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
Invertir el 70 % entrelazando la IA con equipo y procesos
08:15
also means building powerful interfaces
150
495890
3571
también significa construir interfaces potentes
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
para humanos y para la IA a fin de juntos resolver los problemas más difíciles.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Una vez, nos desafió un minorista de moda.
08:31
"We have the best buyers in the world.
153
511143
2498
"Tenemos los mejores compradores del mundo.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
¿Podrías construir un motor de IA que los venciera al pronosticar las ventas?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
¿Decir cuántas camisas de hombre XL de gama alta, verde claro,
08:42
we need to buy for next year?
156
522990
2047
tenemos que comprar para el año que viene?
08:45
At predicting better what will sell or not
157
525061
2810
Predecir mejor lo que se venderá o no
08:47
than our designers."
158
527895
1960
que nuestros diseñadores".
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
Nuestro equipo entrenó un modelo en pocas semanas, en datos de ventas anteriores,
08:54
and the competition was organized with human buyers.
160
534434
3533
y se organizó la competencia con compradores humanos
08:58
Result?
161
538347
1150
¿Resultado?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
La IA gana, reduciendo los errores de pronóstico en un 25 %.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Los campeones del cero humanos
podrían haber intentado implementar este modelo inicial
09:10
and create a fight with all human buyers.
164
550760
2754
y crear una pelea con todos los compradores humanos.
09:13
Have fun.
165
553538
1150
Que les vaya bien.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Pero sabíamos que los compradores humanos tenían ideas sobre tendencias de la moda
09:20
that could not be found in past data.
167
560355
2845
que no se pudieron encontrar en datos pasados.
09:23
There started our 70 percent.
168
563701
2857
Ahí comenzó nuestro 70 %.
09:26
We went for a second test,
169
566582
1944
Fuimos a una segunda prueba,
09:28
where human buyers were reviewing quantities
170
568550
3103
donde los compradores humanos estaban revisando cantidades
09:31
suggested by AI
171
571677
1662
sugerida por IA
09:33
and could correct them if needed.
172
573363
2325
y podían corregirlos si fuera necesario.
09:36
Result?
173
576180
1150
¿Resultado?
09:37
Humans using AI ...
174
577704
2117
Humanos que usan IA...
09:39
lose.
175
579845
1407
pierde.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
El 75 % de las correcciones hechas por un humano
09:45
were reducing accuracy.
177
585970
2055
estaban reduciendo la precisión.
09:49
Was it time to get rid of human buyers?
178
589002
3174
¿Era hora de deshacerse de los compradores humanos?
09:52
No.
179
592200
1158
No.
09:53
It was time to recreate a model
180
593382
2617
Era hora de recrear un modelo.
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
donde los humanos no intentarían adivinar cuando la IA está mal,
10:01
but where AI would take real input from human buyers.
182
601118
4542
sino donde la IA tomaría una entrada real de compradores humanos.
10:06
We fully rebuilt the model
183
606962
1611
Reconstruimos completamente el modelo.
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
y nos alejamos de nuestra interfaz inicial, que era, más o menos,
10:14
"Hey, human! This is what I forecast,
185
614585
2437
"¡Oye, humano! Esto es lo que predije,
10:17
correct whatever you want,"
186
617046
1761
corrige lo que quieras"
10:18
and moved to a much richer one, more like,
187
618831
3636
y se mudó a uno mucho más rico, más como,
10:22
"Hey, humans!
188
622491
1976
"¡Hola, humanos!
10:24
I don't know the trends for next year.
189
624491
1825
No sé las tendencias para el próximo año.
10:26
Could you share with me your top creative bets?"
190
626340
2956
¿Podrían compartir conmigo? sus mejores apuestas creativas?
10:30
"Hey, humans!
191
630063
1476
"¡Hola, humanos!
10:31
Could you help me quantify those few big items?
192
631563
2719
Podrían ayudarme a cuantificar esos pocos artículos grandes?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
No puedo encontrar buenos datos comparables en el pasado para ellos".
10:38
Result?
194
638401
1150
¿Resultado?
10:40
"Human plus AI" wins,
195
640195
2000
"Humano más IA" gana,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
reduciendo errores de pronóstico en un 50 %.
10:47
It took one year to finalize the tool.
197
647770
2828
Se tardó un año en finalizar la herramienta.
10:51
Long, costly and difficult.
198
651073
3317
Largo, costoso y difícil.
10:55
But profits and benefits
199
655046
2206
Pero las ganancias y beneficios
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
fueron más de 100 millones de ahorro por año para ese minorista.
11:03
Seventy percent on very sensitive topics
201
663459
2936
El 70 % en temas muy delicados
11:06
also means human have to decide what is right or wrong
202
666419
3778
también significa que los humanos tienen que decidir lo que está bien o mal
11:10
and define rules for what AI can do or not,
203
670221
4086
y definir reglas sobre lo que la IA puede o no hacer,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
como establecer límites en precios para evitar que motores de fijación de precios
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
cobren precios escandalosamente altos a clientes sin educación
11:22
who would accept them.
206
682387
1466
¿Quién los aceptaría?
11:24
Only humans can define those boundaries --
207
684538
2563
Solo los humanos pueden definir esos límites.
11:27
there is no way AI can find them in past data.
208
687125
3621
no hay manera de que la IA pueda encontrarlos en datos pasados.
11:31
Some situations are in the gray zone.
209
691230
2467
Algunas situaciones están en la zona gris.
11:34
We worked with a health insurer.
210
694135
2745
Trabajamos con una aseguradora de salud.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Desarrolló un motor de IA. para identificar, entre sus clientes,
11:41
people who are just about to go to hospital
212
701641
2548
personas que están a punto de ir al hospital
11:44
to sell them premium services.
213
704213
2269
para venderles servicios premium.
11:46
And the problem is,
214
706506
1515
Y el problema es que
11:48
some prospects were called by the commercial team
215
708045
2969
algunos prospectos los llamó el equipo comercial
11:51
while they did not know yet
216
711038
2697
mientras aún no sabían
11:53
they would have to go to hospital very soon.
217
713759
2818
que tendrían que ir al hospital muy pronto
11:57
You are the CEO of this company.
218
717720
2317
Eres el CEO de esta empresa.
12:00
Do you stop that program?
219
720061
1667
¿Paras ese programa?
12:02
Not an easy question.
220
722577
1913
No es una pregunta fácil.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Y para abordar esta pregunta, algunas compañías están formando equipos,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
definen reglas y estándares éticos para ayudar a equipos empresariales
12:13
between personalization and manipulation,
223
733918
3596
y tecnológicos a establecer límites entre personalización y manipulación,
12:17
customization of offers and discrimination,
224
737538
2969
personalización de ofertas y discriminación,
12:20
targeting and intrusion.
225
740531
2023
focalización e intrusión.
12:24
I am convinced that in every company,
226
744562
3674
Estoy convencido de que en cada empresa,
12:28
applying AI where it really matters has massive payback.
227
748260
4650
aplicar IA donde realmente importa tiene una recuperación masiva.
12:33
Business leaders need to be bold
228
753474
2151
Los líderes empresariales deben ser valientes
12:35
and select a few topics,
229
755649
1976
y seleccionar algunos temas,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
y para cada uno de ellos, movilizar 10, 20, 30 personas de sus mejores equipos,
12:42
tech, AI, data science, ethics --
231
762609
3333
tecnología, IA, ciencia de datos, ética,
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
e ir a través del ciclo completo 10, 20 y 70 %
12:50
of "Human plus AI,"
233
770411
1722
de "Humano más IA"
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
si quieren usar IA de manera efectiva en sus equipos y procesos.
12:57
There is no other way.
235
777006
1889
No hay otra manera.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Ciudadanos en economías desarrolladas ya temen la algoritmocracia.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
Siete mil fueron entrevistados en una encuesta reciente.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Más del 75 % expresó preocupaciones reales
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
sobre el impacto de la IA en la fuerza laboral, en la privacidad,
13:15
on the risk of a dehumanized society.
240
795697
3436
sobre el riesgo de una sociedad deshumanizada.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Empujar la algoritmocracia crea un riesgo real de reacción severa contra la IA
13:24
within companies or in society at large.
242
804561
4103
dentro de las empresas o en la sociedad en general.
13:29
"Human plus AI" is our only option
243
809014
3285
"Humano más IA" es nuestra única opción
13:32
to bring the benefits of AI to the real world.
244
812323
3134
para traer los beneficios de la IA al mundo real
13:36
And in the end,
245
816038
1158
Y al fin,
13:37
winning organizations will invest in human knowledge,
246
817220
4134
las organizaciones ganadoras invertirán en conocimiento humano,
13:41
not just AI and data.
247
821378
2325
no solo en IA y en datos.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
Reclutamiento, entrenamiento, recompensar a los expertos humanos.
13:48
Data is said to be the new oil,
249
828800
3142
Se dice que los datos son el nuevo petróleo,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
pero créanme, el conocimiento humano marcará la diferencia
13:56
because it is the only derrick available
251
836061
3588
porque es la única torre de perforación disponible
13:59
to pump the oil hidden in the data.
252
839673
3674
para bombear el petróleo oculto en los datos.
14:04
Thank you.
253
844633
1153
Gracias.
14:05
(Applause)
254
845810
3904
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7