How humans and AI can work together to create better businesses | Sylvain Duranton

28,502 views ・ 2020-02-14

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Переводчик: Zhanna Nizamutdinova Редактор: Anna Kotova
00:12
Let me share a paradox.
1
12865
2127
Позвольте поделиться парадоксом.
00:16
For the last 10 years,
2
16429
1467
Последние 10 лет
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
многие компании стараются быть менее бюрократичными,
00:21
to have fewer central rules and procedures,
4
21792
2833
иметь меньше общих правил и уставов,
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
больше независимости для команд для большей гибкости.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Теперь они продвигают искусственный интеллект (ИИ),
00:32
unaware that cool technology
7
32814
2445
не задумываясь о том, что крутые технологии
00:35
might make them more bureaucratic than ever.
8
35283
3602
могут сделать их бюрократичнее, чем когда-либо.
00:39
Why?
9
39378
1151
Почему?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Потому что ИИ работает точно так же, как бюрократия.
00:44
The essence of bureaucracy
11
44403
2412
Суть бюрократии в том,
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
что правила и процедуры ставятся превыше человеческого мнения.
00:51
And AI decides solely based on rules.
13
51887
3841
ИИ принимает решения только в соответствии с правилами.
00:56
Many rules inferred from past data
14
56062
2833
Со множеством правил, основанных на прошлых данных, —
00:58
but only rules.
15
58919
1904
но только правил.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
И если процесс происходит без человеческой оценки,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
ИИ породит новую ужасающую форму бюрократии.
01:09
I call it "algocracy" --
18
69538
2999
Я называю её «алгократия».
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
ИИ будет принимать всё более важные решения по правилам
01:17
outside of any human control.
20
77085
2317
и без какого-либо контроля со стороны человека.
01:20
Is there a real risk?
21
80427
1674
Есть ли в этом реальный риск?
01:22
Yes.
22
82514
1150
Да.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Я руковожу командой из 800 специалистов по ИИ.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Мы развернули более 100 уникальных решений с использованием ИИ
01:30
for large companies around the world.
25
90599
2467
для крупных компаний по всему миру.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
И я вижу так много топ-менеджеров, ведущих себя как бюрократы из прошлого.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Они хотят отказаться от дорогостоящих, старомодных людей
01:44
and rely only upon AI to take decisions.
28
104720
3865
и положиться только на решения, которые принимает ИИ.
01:49
I call this the "human-zero mindset."
29
109244
4253
Я называю это «бесчеловечный подход».
01:54
And why is it so tempting?
30
114260
2118
Почему это так заманчиво?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Потому что другой путь — «Человек плюс ИИ» — долгий,
02:02
costly and difficult.
32
122307
2609
дорогой и сложный.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Команды сотрудников от бизнеса, ИТ и анализа данных
02:08
have to iterate for months
34
128257
2079
должны работать месяцами,
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
чтобы вручную подобрать наилучшую комбинацию из ИИ и людей.
02:16
Long, costly and difficult.
36
136160
3428
Долго, дорого и сложно.
02:19
But the reward is huge.
37
139891
2070
Но награда того стоит.
02:22
A recent survey from BCG and MIT
38
142343
3306
Недавнее исследование консалтинговой группы BCG и университета MIT
02:25
shows that 18 percent of companies in the world
39
145673
4507
показало, что 18% компаний в мире
02:30
are pioneering AI,
40
150204
2214
являются первопроходцами в сфере ИИ,
02:32
making money with it.
41
152442
2301
зарабатывая на этом.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Эти компании фокусируют 80% инициатив в сфере ИИ
02:40
on effectiveness and growth,
43
160771
1953
на эффективности и развитии,
02:42
taking better decisions --
44
162748
2170
принятии оптимальных решений,
02:44
not replacing humans with AI to save costs.
45
164942
3538
а не замене людей на ИИ в целях экономии.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Почему так важно участие людей?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Просто потому, что ИИ без присмотра может делать глупости.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Например, что-то без особых последствий, как в этом твите.
03:03
"Dear Amazon,
49
183212
1564
«Добрый день, Amazon.
03:04
I bought a toilet seat.
50
184800
1386
Я купил туалетное сиденье.
03:06
Necessity, not desire.
51
186210
1661
По необходимости, а не из прихоти.
03:07
I do not collect them,
52
187895
1452
Я их не коллекционирую,
03:09
I'm not a toilet-seat addict.
53
189371
2238
и я не заядлый любитель туалетных сидений.
03:11
No matter how temptingly you email me,
54
191633
2206
Как бы заманчиво не выглядели ваши письма,
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
я не стану думать: «Ну так и быть,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
куплю ещё одно сиденье, побалую себя».
03:18
(Laughter)
57
198400
1344
(Смех)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Иногда это влечёт больше последствий, как в этом твите.
03:24
"Had the same situation
59
204903
1787
«Был в такой же ситуации,
03:26
with my mother's burial urn."
60
206714
2459
купив погребальную урну для матери.
03:29
(Laughter)
61
209197
1008
(Смех)
03:30
"For months after her death,
62
210229
1365
Месяцами после её смерти
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
я получал сообщения от Amazon "Если вам понравился этот товар..."»
03:35
(Laughter)
64
215190
2015
(Смех)
03:37
Sometimes with worse consequences.
65
217229
2528
Иногда последствия могут быть хуже.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Взять, к примеру, ИИ, отклоняющий заявки на поступление в университет.
03:44
Why?
67
224535
1150
Почему?
03:45
Because it has "learned," on past data,
68
225709
2670
Потому что он вычислил на предыдущих данных
03:48
characteristics of students that will pass and fail.
69
228403
3182
характеристики успешных и неуспешных студентов.
03:51
Some are obvious, like GPAs.
70
231609
2103
Некоторые очевидные, например средний балл.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Но если в прошлом все студенты с одним почтовым индексом не прошли,
03:59
it is very likely that AI will make this a rule
72
239202
3532
то весьма вероятно, что ИИ примет это за правило
04:02
and will reject every student with this postal code,
73
242758
3770
и откажет каждому студенту с этим почтовым индексом,
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
не давая никому возможности опровергнуть это правило.
04:11
And no one can check all the rules,
75
251857
2516
При этом никто не может проверить все правила,
04:14
because advanced AI is constantly learning.
76
254397
3452
потому что продвинутый ИИ постоянно учится.
04:18
And if humans are kept out of the room,
77
258307
2326
И если люди остаются в стороне,
04:20
there comes the algocratic nightmare.
78
260657
3277
наступает алгократический кошмар.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Кто в ответе за отказ студенту?
04:27
No one, AI did.
80
267347
1643
Никто, это ИИ отказал.
04:29
Is it fair? Yes.
81
269014
1674
Это честно? Да.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Один и тот же набор объективных правил применили ко всем.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Можно ли всё-таки принять одарённого ребёнка с неудачным почтовым индексом?
04:38
No, algos don't change their mind.
84
278899
3111
Нет, алгоритм не может передумать.
04:42
We have a choice here.
85
282974
2016
У нас есть выбор.
04:45
Carry on with algocracy
86
285756
2524
Продолжать алгократию
04:48
or decide to go to "Human plus AI."
87
288304
2865
или выбрать подход «Человек плюс ИИ».
04:51
And to do this,
88
291193
1333
И для этого
04:52
we need to stop thinking tech first,
89
292550
3440
мы должны перестать думать в первую очередь о технологиях
04:56
and we need to start applying the secret formula.
90
296014
3650
и начать применять секретную формулу.
05:00
To deploy "Human plus AI,"
91
300601
2103
Чтобы применить подход «Человек плюс ИИ»,
05:02
10 percent of the effort is to code algos;
92
302728
2921
10% усилий уйдёт на создание алгоритмов,
05:05
20 percent to build tech around the algos,
93
305673
3531
20% — на технологии вокруг алгоритмов,
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
сбор данных, разработку интерфейса, интеграцию с унаследованными системами,
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
но 70% — большинство усилий —
05:16
is about weaving together AI with people and processes
96
316286
4476
уйдёт на то, чтобы переплести ИИ, людей и процессы,
05:20
to maximize real outcome.
97
320786
2374
чтобы получить максимальный результат.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
ИИ терпит неудачу, если урезать эти 70%.
05:28
The price tag for that can be small,
99
328794
3159
Возможно, ценник при этом будет низкий —
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
миллионы долларов, потраченные впустую на бесполезные технологии.
05:35
Anyone cares?
101
335986
1150
Кого-то это волнует?
05:38
Or real tragedies:
102
338153
2325
Возможны и реальные трагедии:
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
346 погибших в результате крушения двух «Боингов-737»,
05:48
when pilots could not interact properly
104
348776
3261
когда пилоты не справились
05:52
with a computerized command system.
105
352061
2467
с компьютерной системой управления.
05:55
For a successful 70 percent,
106
355974
1794
Первый шаг к успешным 70% —
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
это алгоритмы, созданные специалистами по анализу данных
06:02
and domain experts together.
108
362911
2118
совместно с экспертами в данной области.
06:05
Take health care for example.
109
365427
2198
Рассмотрим, к примеру, здравоохранение.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Одна из наших команд работала над новым лекарством с маленьким недостатком.
06:12
When taking their first dose,
111
372784
1499
При приёме первой дозы
06:14
some patients, very few, have heart attacks.
112
374307
3484
у некоторых пациентов, очень немногих, случался инфаркт.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Поэтому все пациенты при приёме первой дозы
06:21
have to spend one day in hospital,
114
381276
2682
должны были провести один день в стационаре
06:23
for monitoring, just in case.
115
383982
2071
под наблюдением, на всякий случай.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Нашей целью было определить пациентов с нулевой вероятностью инфаркта,
06:32
who could skip the day in hospital.
117
392193
2333
которым не нужен этот день в стационаре.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Мы использовали ИИ для анализа данных клинических испытаний,
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
чтобы соотнести результаты ЭКГ, анализ крови и биомаркеры
06:44
with the risk of heart attack.
120
404537
2000
с риском инфаркта.
06:47
In one month,
121
407232
1274
Всего за месяц
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
наша модель смогла выделить 62% пациентов с нулевым риском.
06:54
They could skip the day in hospital.
123
414887
2222
Они могли не проводить день в стационаре.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Вы бы хотели остаться дома, принимая первую дозу,
07:01
if the algo said so?
125
421379
1524
если так сказал алгоритм?
07:02
(Laughter)
126
422927
1015
(Смех)
07:03
Doctors were not.
127
423966
1650
Врачи были против.
07:05
What if we had false negatives,
128
425966
2302
Что, если мы получили ложноотрицательный результат,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
то есть ИИ разрешил людям остаться дома и умереть?
07:13
(Laughter)
130
433545
1365
(Смех)
07:14
There started our 70 percent.
131
434934
2452
Здесь начались наши 70%.
07:17
We worked with a team of doctors
132
437410
1992
Мы работали с командой врачей,
07:19
to check the medical logic of each variable in our model.
133
439426
3799
чтобы проверить медицинский смысл каждой переменной в нашей модели.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Например, мы использовали концентрацию одного из ферментов печени
07:28
as a predictor,
135
448130
1273
как один из параметров,
07:29
for which the medical logic was not obvious.
136
449427
3698
медицинская логика для которого была не очевидна.
07:33
The statistical signal was quite strong.
137
453149
2666
Статистически сигнал был довольно уверенный.
07:36
But what if it was a bias in our sample?
138
456300
2833
Но что, если это всего лишь ограничение в наших данных?
07:39
That predictor was taken out of the model.
139
459157
2800
Мы исключили этот параметр из нашей модели.
07:42
We also took out predictors for which experts told us
140
462307
3445
Мы также исключили параметры, которые, согласно оценке экспертов,
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
невозможно точно измерить в реальности.
07:50
After four months,
142
470371
1690
Четыре месяца спустя
07:52
we had a model and a medical protocol.
143
472085
3071
у нас была модель и медицинский протокол.
07:55
They both got approved
144
475514
1666
И они были одобрены
07:57
my medical authorities in the US last spring,
145
477204
3222
органами здравоохранения США прошлой весной,
08:00
resulting in far less stress for half of the patients
146
480450
3706
что значительно уменьшило стресс для половины пациентов
08:04
and better quality of life.
147
484180
1800
и улучшило их качество жизни.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Потенциальный рост продаж этого лекарства — более 100 миллионов.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
Переплетение ИИ с командой и процессами на 70%
08:15
also means building powerful interfaces
150
495890
3571
также означает создание эффективных интерфейсов,
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
чтобы люди и ИИ решали самые сложные задачи совместно.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Однажды мы получили сложное задание от розничной сети модной одежды.
08:31
"We have the best buyers in the world.
153
511143
2498
«У нас лучшие байеры в мире.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Вы сможете построить ИИ, который обойдёт их в предсказании продаж?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
В предсказании, сколько дорогостоящих светло-зелёных мужских рубашек размера XL
08:42
we need to buy for next year?
156
522990
2047
нам нужно закупить на следующий год?
08:45
At predicting better what will sell or not
157
525061
2810
Который лучше предскажет, что мы продадим, а что нет,
08:47
than our designers."
158
527895
1960
чем наши дизайнеры».
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
Наша команда за несколько недель обучила модель на исторических данных
08:54
and the competition was organized with human buyers.
160
534434
3533
и организовала соревнование с байерами-людьми.
08:58
Result?
161
538347
1150
Какой результат?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
ИИ победил, уменьшив ошибку в прогнозах на 25%.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Сторонники бесчеловечного подхода попытались бы применить эту первую модель
09:10
and create a fight with all human buyers.
164
550760
2754
и устроить состязание со всеми байерами-людьми.
09:13
Have fun.
165
553538
1150
Развлекайтесь.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Но мы знали, что байеры-люди обладают пониманием модных трендов,
09:20
that could not be found in past data.
167
560355
2845
которые нельзя найти в прошлых данных.
09:23
There started our 70 percent.
168
563701
2857
Здесь начались наши 70%.
09:26
We went for a second test,
169
566582
1944
Мы запустили следующий тест,
09:28
where human buyers were reviewing quantities
170
568550
3103
где байеры-люди оценивали количества,
09:31
suggested by AI
171
571677
1662
предложенные ИИ,
09:33
and could correct them if needed.
172
573363
2325
и могли скорректировать их при необходимости.
09:36
Result?
173
576180
1150
Что в результате?
09:37
Humans using AI ...
174
577704
2117
Люди, использующие ИИ,
09:39
lose.
175
579845
1407
проиграли.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
75% поправок, сделанных человеком,
09:45
were reducing accuracy.
177
585970
2055
уменьшали точность.
09:49
Was it time to get rid of human buyers?
178
589002
3174
Означало ли это, что надо избавиться от байеров-людей?
09:52
No.
179
592200
1158
Нет.
09:53
It was time to recreate a model
180
593382
2617
Это означало, что надо переделать модель,
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
чтобы люди не пытались угадать, где ИИ ошибся,
10:01
but where AI would take real input from human buyers.
182
601118
4542
а напротив, чтобы ИИ получал реальные входные данные от байеров-людей.
10:06
We fully rebuilt the model
183
606962
1611
Мы полностью перестроили модель
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
и ушли от изначального интерфейса, который был из серии
10:14
"Hey, human! This is what I forecast,
185
614585
2437
«Эй, человек! Вот что я прогнозирую,
10:17
correct whatever you want,"
186
617046
1761
поправь, как ты хочешь»,
10:18
and moved to a much richer one, more like,
187
618831
3636
и пришли к более продвинутому вроде
10:22
"Hey, humans!
188
622491
1976
«Эй, люди!
10:24
I don't know the trends for next year.
189
624491
1825
Я не знаю тренды на следующий год.
10:26
Could you share with me your top creative bets?"
190
626340
2956
Вы могли бы поделиться своим самыми креативными догадками?»
10:30
"Hey, humans!
191
630063
1476
«Эй, люди!
10:31
Could you help me quantify those few big items?
192
631563
2719
Вы могли бы помочь мне с количеством этих больших вещей?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
Я не могу найти для них хорошего соответствия в исторических данных».
10:38
Result?
194
638401
1150
Что в итоге?
10:40
"Human plus AI" wins,
195
640195
2000
«Человек плюс ИИ» побеждает,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
уменьшая ошибки в предсказании на 50%.
10:47
It took one year to finalize the tool.
197
647770
2828
Год ушёл на то, чтобы доделать инструмент.
10:51
Long, costly and difficult.
198
651073
3317
Долго, дорого и сложно.
10:55
But profits and benefits
199
655046
2206
Но выгода и польза
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
оказались свыше 100 миллионов экономии в год для этой розничной сети.
11:03
Seventy percent on very sensitive topics
201
663459
2936
Относительно сложных тем, 70%
11:06
also means human have to decide what is right or wrong
202
666419
3778
также означают, что человек должен решить, что правильно, а что — нет,
11:10
and define rules for what AI can do or not,
203
670221
4086
и определить правила, что разрешено делать ИИ, а что — нет,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
например, ограничить цены, чтобы механизм формирования цен
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
не мог выставить возмутительно высокие цены ничего не подозревающим покупателям,
11:22
who would accept them.
206
682387
1466
которые бы согласились на покупку.
11:24
Only humans can define those boundaries --
207
684538
2563
Только люди могут очертить эти границы.
11:27
there is no way AI can find them in past data.
208
687125
3621
ИИ никоим образом не сможет найти их в исторических данных.
11:31
Some situations are in the gray zone.
209
691230
2467
Некоторые ситуации весьма неоднозначны.
11:34
We worked with a health insurer.
210
694135
2745
Мы работали на агентство медицинского страхования.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Оно разработало механизм ИИ, чтобы выделить среди клиентов
11:41
people who are just about to go to hospital
212
701641
2548
тех, кто мог вскоре попасть в больницу,
11:44
to sell them premium services.
213
704213
2269
чтобы продать им премиальную страховку.
11:46
And the problem is,
214
706506
1515
Проблема в том,
11:48
some prospects were called by the commercial team
215
708045
2969
что некоторых потенциальных клиентов обзванивали в тот момент,
11:51
while they did not know yet
216
711038
2697
когда они сами не подозревали,
11:53
they would have to go to hospital very soon.
217
713759
2818
что скоро им придётся обратиться за медицинской помощью.
11:57
You are the CEO of this company.
218
717720
2317
Представьте себя директором этой компании.
12:00
Do you stop that program?
219
720061
1667
Вы бы закрыли эту программу?
12:02
Not an easy question.
220
722577
1913
Вопрос непростой.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
И, чтобы разобраться с этим вопросом, некоторые компании собирают команды,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
задающие этические правила и стандарты, помогая бизнесу и ИТ установить границы
12:13
between personalization and manipulation,
223
733918
3596
между персонализацией и манипуляцией,
12:17
customization of offers and discrimination,
224
737538
2969
подбором предложений и дискриминацией,
12:20
targeting and intrusion.
225
740531
2023
целевым маркетингом и вторжением в личную жизнь.
12:24
I am convinced that in every company,
226
744562
3674
Я убеждён, что в каждой компании
12:28
applying AI where it really matters has massive payback.
227
748260
4650
применение ИИ там, где это имеет смысл, приносит огромный успех.
12:33
Business leaders need to be bold
228
753474
2151
Бизнес-лидеры должны проявить смелость
12:35
and select a few topics,
229
755649
1976
и выбрать несколько тем,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
и для каждой из них выделить 10, 20, 30 человек из лучших команд
12:42
tech, AI, data science, ethics --
231
762609
3333
ИТ, ИИ, аналитиков данных, этиков
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
и пройти полный 10-, 20-, 70-процентный цикл
12:50
of "Human plus AI,"
233
770411
1722
«Человек плюс ИИ»,
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
если они хотят эффективно внедрить ИИ в свои команды и процессы.
12:57
There is no other way.
235
777006
1889
Другого способа нет.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Граждане экономически развитых стран уже боятся алгократии.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
Недавно 7 тысяч респондентов прошли опрос.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Более 75% опрошенных беспокоит
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
влияние ИИ на рынок труда, частную жизнь
13:15
on the risk of a dehumanized society.
240
795697
3436
и риск сделать общество бесчеловечным.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Поощряя алгократию, мы рискуем получить негативную реакцию на ИИ
13:24
within companies or in society at large.
242
804561
4103
внутри компаний и в обществе в целом.
13:29
"Human plus AI" is our only option
243
809014
3285
«Человек плюс ИИ» — наш единственный способ
13:32
to bring the benefits of AI to the real world.
244
812323
3134
принести пользу ИИ в реальный мир.
13:36
And in the end,
245
816038
1158
И в итоге
13:37
winning organizations will invest in human knowledge,
246
817220
4134
победившие организации будут инвестировать в человеческие знания,
13:41
not just AI and data.
247
821378
2325
а не только в ИИ и данные.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
В найм, обучение и поощрение людей-экспертов.
13:48
Data is said to be the new oil,
249
828800
3142
Говорят, что данные — это новая нефть,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
но поверьте мне, человеческие знания играют решающую роль,
13:56
because it is the only derrick available
251
836061
3588
потому что это единственная буровая вышка,
13:59
to pump the oil hidden in the data.
252
839673
3674
которая позволит выкачать нефть, сокрытую в данных.
14:04
Thank you.
253
844633
1153
Спасибо.
14:05
(Applause)
254
845810
3904
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7