How humans and AI can work together to create better businesses | Sylvain Duranton

28,502 views ・ 2020-02-14

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Fordító: Eva Danko Lektor: Zsuzsa Viola
00:12
Let me share a paradox.
1
12865
2127
Hadd osszak meg önökkel egy ellentmondást.
00:16
For the last 10 years,
2
16429
1467
Az elmúlt 10 évben
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
sok cég próbálkozik a bürokrácia csökkentésével:
00:21
to have fewer central rules and procedures,
4
21792
2833
kevesebb központi szabályozás és folyamat,
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
több önállóság a helyi csapatoknak, hogy hatékonyabbak lehessenek.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Most a mesterséges intelligenciával, az MI-vel próbálkoznak,
00:32
unaware that cool technology
7
32814
2445
nem sejtve, hogy a nagyszerű technológia
00:35
might make them more bureaucratic than ever.
8
35283
3602
sokkal bürokratikusabbá is teheti őket.
00:39
Why?
9
39378
1151
Hogy miért?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Mert az MI a bürokráciához hasonlóan működik.
00:44
The essence of bureaucracy
11
44403
2412
A bürokrácia a szabályokat és folyamatokat
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
előrébb valónak tartja az emberi ítélőképességnél.
00:51
And AI decides solely based on rules.
13
51887
3841
Az MI pusztán szabályok alapján dönt.
00:56
Many rules inferred from past data
14
56062
2833
Sok szabály múltbeli adatokból következik,
00:58
but only rules.
15
58919
1904
de ezek csak szabályok.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
Ha az emberi ítélőképesség kimarad e folyamatból,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
az MI egy újfajta bürokrácia szörnyű formáját hozza el –
01:09
I call it "algocracy" --
18
69538
2999
az "algokrácia" nevet adtam neki –,
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
amelyben az MI egyre több döntést hoz pusztán szabályok alapján,
01:17
outside of any human control.
20
77085
2317
az ember beleszólása nélkül.
01:20
Is there a real risk?
21
80427
1674
Vajon ez valós kockázat?
01:22
Yes.
22
82514
1150
Igen.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Egy 800 fős, MI-szakértőkből álló csapatot vezetek.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Nagy cégeknek 100-nál is több egyedi MI-megoldást telepítettünk
01:30
for large companies around the world.
25
90599
2467
a világ minden táján.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Túl sok ügyvezetőt látok úgy viselkedni, mint a múlt bürokratái.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Szeretnének megszabadulni a költséges, régimódi emberi döntéshozóktól,
01:44
and rely only upon AI to take decisions.
28
104720
3865
s az MI-re bízni minden döntést.
01:49
I call this the "human-zero mindset."
29
109244
4253
Ezt "zéró emberi gondolkodás"-nak nevezem.
01:54
And why is it so tempting?
30
114260
2118
Hogy ez miért is csábító?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Mert a másik megoldás, az "Ember plusz MI" hosszadalmas,
02:02
costly and difficult.
32
122307
2609
költséges és nehéz.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Pénzügyi, műszaki és adattudós szakemberekből álló csapatok
02:08
have to iterate for months
34
128257
2079
több hónapos munkája szükséges ahhoz,
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
hogy pontosan megtervezzék az ember és az MI legoptimálisabb együttműködését.
02:16
Long, costly and difficult.
36
136160
3428
Hosszadalmas, költséges, nehéz.
02:19
But the reward is huge.
37
139891
2070
Ám a jutalom óriási.
02:22
A recent survey from BCG and MIT
38
142343
3306
A BCG és az MIT egy friss kutatása szerint
02:25
shows that 18 percent of companies in the world
39
145673
4507
a világ cégeinek 18%-a
02:30
are pioneering AI,
40
150204
2214
kísérletezik az MI-vel
02:32
making money with it.
41
152442
2301
pénzszerzési céllal.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
E cégek az MI-fejlesztéseik 80%-át
02:40
on effectiveness and growth,
43
160771
1953
a hatékonyság és növekedés fejlesztésére
02:42
taking better decisions --
44
162748
2170
és jobb döntések meghozatalára használják –
02:44
not replacing humans with AI to save costs.
45
164942
3538
nem helyettesítve az embereket az MI-vel.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Miért van jelentősége, hogy az ember ne essen ki e folyamatból?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Egyszerűen azért, mert ha magára hagyják, az MI igen ostoba dolgokra képes.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Néha ennek nincs komoly következménye, mint például ebben a tweetben.
03:03
"Dear Amazon,
49
183212
1564
"Tisztelt Amazon,
03:04
I bought a toilet seat.
50
184800
1386
vettem egy vécéülőkét.
03:06
Necessity, not desire.
51
186210
1661
A szükség vezérelt,
03:07
I do not collect them,
52
187895
1452
nem gyűjtő vagyok.
03:09
I'm not a toilet-seat addict.
53
189371
2238
Nem vagyok vécéülőke-függő.
03:11
No matter how temptingly you email me,
54
191633
2206
Nem érdekelnek a csábító e-mailjeik.
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
Nem veszem fontolóra,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
hogy még egy vécéülőkével lepjem meg magam.
03:18
(Laughter)
57
198400
1344
(Nevetés)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Néha viszont van következménye, ahogy a következő tweet is bizonyítja.
03:24
"Had the same situation
59
204903
1787
"Ugyanígy jártam
03:26
with my mother's burial urn."
60
206714
2459
anyám urnájával."
03:29
(Laughter)
61
209197
1008
(Nevetés)
03:30
"For months after her death,
62
210229
1365
"Hónapokkal a halála után
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
üzenetet kaptam az Amazontól, miszerint, 'ha tetszett a termék...'"
03:35
(Laughter)
64
215190
2015
(Nevetés)
03:37
Sometimes with worse consequences.
65
217229
2528
Néha a következmények még rosszabbak.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Vegyük azt, mikor az MI elutasítja egy diák egyetemi jelentkezését.
03:44
Why?
67
224535
1150
Miért?
03:45
Because it has "learned," on past data,
68
225709
2670
Mert múltbeli adatok alapján kiismeri,
03:48
characteristics of students that will pass and fail.
69
228403
3182
a diákok mely jellemzői jelentenek sikert vagy bukást.
03:51
Some are obvious, like GPAs.
70
231609
2103
Néhány közülük egyértelmű, pl. az átlagpontszám.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Ám ha a múltban az azonos irányítószámról érkező minden diák megbukott,
03:59
it is very likely that AI will make this a rule
72
239202
3532
elég valószínű, hogy az MI ezt szabályszerűségként értelmezi,
04:02
and will reject every student with this postal code,
73
242758
3770
és minden, erről az irányítószámról érkező diákot el fog utasítani,
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
így senki nem kap esélyt, hogy bizonyítsa, a szabály rossz.
04:11
And no one can check all the rules,
75
251857
2516
Az összes szabályt pedig lehetetlen leellenőrizni,
04:14
because advanced AI is constantly learning.
76
254397
3452
mert a fejlett MI állandóan tanul.
04:18
And if humans are kept out of the room,
77
258307
2326
Ha az emberi tényező kimarad a folyamatból,
04:20
there comes the algocratic nightmare.
78
260657
3277
jön az "algokratikus" rémálom.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Ki a felelős a diák elutasításáért?
04:27
No one, AI did.
80
267347
1643
Senki. Az MI tette.
04:29
Is it fair? Yes.
81
269014
1674
Tisztességes ez? Igen.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Ugyanazokat az objektív szabályokat alkalmazzák mindenkire.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Felülvizsgálhatjuk a döntést egy rossz irányítószámmal bíró, ragyogó diák miatt?
04:38
No, algos don't change their mind.
84
278899
3111
Nem, az algoritmusok nem változtatják meg a döntésüket.
04:42
We have a choice here.
85
282974
2016
Van választási lehetőségünk.
04:45
Carry on with algocracy
86
285756
2524
Marad az "algokrácia",
04:48
or decide to go to "Human plus AI."
87
288304
2865
vagy megvalósítjuk az "Ember plusz MI" együttműködést.
04:51
And to do this,
88
291193
1333
Ehhez először le kell állnunk azzal,
04:52
we need to stop thinking tech first,
89
292550
3440
hogy csak a technológiában gondolkodjunk,
04:56
and we need to start applying the secret formula.
90
296014
3650
és elkezdeni adagolni a titkos hozzávalót.
05:00
To deploy "Human plus AI,"
91
300601
2103
Az "Ember plusz MI" bevetéséhez
05:02
10 percent of the effort is to code algos;
92
302728
2921
az erőfeszítések 10%-át az algoritmusok kódolása,
05:05
20 percent to build tech around the algos,
93
305673
3531
20%-át az algoritmusok köré épülő műszaki megoldások teszik ki:
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
adatgyűjtés, felhasználói felület építése, meglévő rendszerekbe való integrálása.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
Ám az erőfeszítések nagy részét, 70%-át az teszi ki,
05:16
is about weaving together AI with people and processes
96
316286
4476
hogy összehangolják az MI működését az emberekkel és folyamatokkal,
05:20
to maximize real outcome.
97
320786
2374
hogy maximalizálják a valós eredmény esélyét.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
Ha spórolunk ezen a 70%-nyi erőfeszítésen, az MI elbukik.
05:28
The price tag for that can be small,
99
328794
3159
Az ár lehet aprócska:
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
dollármilliókat költöttünk egy haszontalan technológiára.
05:35
Anyone cares?
101
335986
1150
Érdekel bárkit is?
05:38
Or real tragedies:
102
338153
2325
Vagy igazi tragédia: 346 halálos áldozat
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
a két, nemrégiben történt
B-737-es repülőgép-szerencsétlenségben,
05:48
when pilots could not interact properly
104
348776
3261
amikor a pilóták képtelenek voltak pontosan kommunikálni
05:52
with a computerized command system.
105
352061
2467
egy számítógépes irányítási rendszerrel.
05:55
For a successful 70 percent,
106
355974
1794
Az eredményes 70%-hoz az első lépés,
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
hogy az algoritmusokat adattudósok és domainszakértők
06:02
and domain experts together.
108
362911
2118
közösen alkotják meg.
06:05
Take health care for example.
109
365427
2198
Vegyük például az egészségügyi ellátást.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Egyik csapatunk egy új gyógyszeren dolgozott, amivel volt egy kis gond.
06:12
When taking their first dose,
111
372784
1499
Miután az első adagot bevették,
06:14
some patients, very few, have heart attacks.
112
374307
3484
néhány beteg, tényleg csak néhány, szívrohamot kapott.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Így az első adag bevételekor minden betegnek
06:21
have to spend one day in hospital,
114
381276
2682
kórházban kellett töltenie egy napot
06:23
for monitoring, just in case.
115
383982
2071
megfigyelés céljából, biztos, ami biztos.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Célunk volt olyan betegeket találni, akiknél a szívroham kockázata zéró volt,
06:32
who could skip the day in hospital.
117
392193
2333
így kihagyhatták a kórházi megfigyelést.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
A klinikai kísérleteket az MI segítségével elemeztük,
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
hogy összefüggést találjunk az EKG, a vérösszetétel, a biomarkerek
06:44
with the risk of heart attack.
120
404537
2000
és a szívroham kockázata között.
06:47
In one month,
121
407232
1274
Egy hónap alatt
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
a program a betegek 62%-át szűrte ki zéró kockázattal.
06:54
They could skip the day in hospital.
123
414887
2222
Kihagyhatták az egynapos megfigyelést.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Önök nyugodt szívvel otthon maradnának, miután bevették az első adagot,
07:01
if the algo said so?
125
421379
1524
csak mert egy algoritmus mondta?
07:02
(Laughter)
126
422927
1015
(Nevetés)
07:03
Doctors were not.
127
423966
1650
Az orvosokat ez nem nyugtatta meg.
07:05
What if we had false negatives,
128
425966
2302
Mi van, ha voltak hamis negatív eredmények,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
vagyis azok, akik az MI tanácsára otthon maradnak, meghalhatnak?
07:13
(Laughter)
130
433545
1365
(Nevetés)
07:14
There started our 70 percent.
131
434934
2452
A mi 70%-unk itt kezdődött.
07:17
We worked with a team of doctors
132
437410
1992
Egy orvoscsapattal dolgoztunk,
07:19
to check the medical logic of each variable in our model.
133
439426
3799
hogy a modellünk változóit orvosi logika mentén ellenőrizzük.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Például egy májenzim koncentrációját használtuk
07:28
as a predictor,
135
448130
1273
előrejelzőként,
07:29
for which the medical logic was not obvious.
136
449427
3698
ami az orvosi logika szerint nem nyilvánvaló.
07:33
The statistical signal was quite strong.
137
453149
2666
A statisztikai valószínűség viszont elég magas volt.
07:36
But what if it was a bias in our sample?
138
456300
2833
De mi van, ha a mintánk egyoldalú volt?
07:39
That predictor was taken out of the model.
139
459157
2800
Kivettük ezt az előrejelzőt a modellünkből.
07:42
We also took out predictors for which experts told us
140
462307
3445
Eltávolítottuk azon előrejelzőket is, amelyeket a szakértők szerint
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
az orvosok, a való életben, nem tudnak szigorúan mérni.
07:50
After four months,
142
470371
1690
Négy hónap után
07:52
we had a model and a medical protocol.
143
472085
3071
a birtokunkban volt egy modell és egy orvosi protokoll.
07:55
They both got approved
144
475514
1666
Tavaly tavasszal
07:57
my medical authorities in the US last spring,
145
477204
3222
mindkettőt engedélyezték az amerikai egészségügyi hatóságok,
08:00
resulting in far less stress for half of the patients
146
480450
3706
így a betegek felét kevesebb stressz éri,
08:04
and better quality of life.
147
484180
1800
az életminőségük pedig javul.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Plusz több mint százmilliós, nem várt bevétel a gyógyszereladásból.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
70%-kal felhangolva az MI-t a csapattal és a folyamatokkal
08:15
also means building powerful interfaces
150
495890
3571
egyet jelent egy olyan erős interfész kiépítésével is,
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
ahol az emberek és az MI együtt oldják meg a legnehezebb problémákat.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Egyszer egy ruházati kiskereskedő állított minket nagy kihívás elé.
08:31
"We have the best buyers in the world.
153
511143
2498
"A mieink a világ legjobb beszerzői.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Képesek olyan MI-t alkotni, amely náluk jobban jósolja meg az eladási adatokat?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
Ami megmondja, hány minőségi, világoszöld, XL-es férfi felsőt
08:42
we need to buy for next year?
156
522990
2047
kell vegyünk jövőre?
08:45
At predicting better what will sell or not
157
525061
2810
Olyat, ami képes a tervezőinknél jobban megjósolni,
08:47
than our designers."
158
527895
1960
mire lesz kereslet, mire nem."
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
A csapatunk múltbeli eladási adatok alapján alkotott egy modellt,
08:54
and the competition was organized with human buyers.
160
534434
3533
majd megkezdődött a versengés a beszerzőkkel.
08:58
Result?
161
538347
1150
Eredmény?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
Az MI nyert, 25%-kal csökkentve az előrejelzési adatok hibáit.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
A "zéró emberi gondolkodás" támogatói bevethették volna ezt a kiinduló modellt
09:10
and create a fight with all human buyers.
164
550760
2754
a beszerzők ellen.
09:13
Have fun.
165
553538
1150
Jó szórakozást!
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Ám mi tudtuk, hogy a beszerzők ismerik azokat a divattrendeket,
09:20
that could not be found in past data.
167
560355
2845
amelyek nem lelhetőek fel a múltbeli adatok között.
09:23
There started our 70 percent.
168
563701
2857
Itt kezdődött a mi 70%-unk.
09:26
We went for a second test,
169
566582
1944
A második tesztünk során
09:28
where human buyers were reviewing quantities
170
568550
3103
az MI által javasolt mennyiségeket
09:31
suggested by AI
171
571677
1662
a beszerzők átnézték,
09:33
and could correct them if needed.
172
573363
2325
és szükség esetén korrigálták.
09:36
Result?
173
576180
1150
Eredmény?
09:37
Humans using AI ...
174
577704
2117
Az MI-t használó emberek...
09:39
lose.
175
579845
1407
veszítettek.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
Az emberek által javasolt módosítások 75%-a
09:45
were reducing accuracy.
177
585970
2055
rontott a pontosságon.
09:49
Was it time to get rid of human buyers?
178
589002
3174
Eljött-e az idő, hogy kiiktassuk a beszerzőket a képből?
09:52
No.
179
592200
1158
Nem.
09:53
It was time to recreate a model
180
593382
2617
Ám arra igen, hogy olyan modellt alkossunk,
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
amelyben az emberek nem próbálják meg kitalálni, mikor téved az MI,
10:01
but where AI would take real input from human buyers.
182
601118
4542
hanem az MI dolgozik valós, a beszerzőktől származó adatok alapján.
10:06
We fully rebuilt the model
183
606962
1611
Teljesen átalakítottuk a modellt,
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
és attól a kezdetleges interfésztől, amely többé-kevésbé annyi volt:
10:14
"Hey, human! This is what I forecast,
185
614585
2437
"Hé, ember! Ez az előrejelzésem,
10:17
correct whatever you want,"
186
617046
1761
javíts ki bármit, amit gondolsz.",
10:18
and moved to a much richer one, more like,
187
618831
3636
eljutottunk egy sokkal értékesebb megoldáshoz, valami ilyesmihez:
10:22
"Hey, humans!
188
622491
1976
"Hé, emberek!
10:24
I don't know the trends for next year.
189
624491
1825
Fogalmam sincs a jövő évi trendekről.
10:26
Could you share with me your top creative bets?"
190
626340
2956
Megosztanák velem legkreatívabb ötleteiket?"
10:30
"Hey, humans!
191
630063
1476
"Hé, emberek!
10:31
Could you help me quantify those few big items?
192
631563
2719
Segítenének számosítani azt a néhány nagy tételt?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
Nincs semmi a múltban, amit összehasonlítási alapként használhatnék."
10:38
Result?
194
638401
1150
Eredmény?
10:40
"Human plus AI" wins,
195
640195
2000
Az "Ember plusz MI" győzedelmeskedik,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
50%-kal csökkentve az előrejelzési hibákat.
10:47
It took one year to finalize the tool.
197
647770
2828
Egy évbe telt tökéletesíteni a megoldást.
10:51
Long, costly and difficult.
198
651073
3317
Hosszadalmas volt, költséges és nehéz.
10:55
But profits and benefits
199
655046
2206
Ám az évenkénti százmilliós megtakarításon túl
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
a kiskereskedő további profitra és előnyökre tett szert.
11:03
Seventy percent on very sensitive topics
201
663459
2936
70% igen érzékeny témákban azt is jelenti,
11:06
also means human have to decide what is right or wrong
202
666419
3778
hogy az ember kell döntsön jóról és rosszról,
11:10
and define rules for what AI can do or not,
203
670221
4086
és meghatározza, mit tehet az MI és mit nem,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
például limitet beállítani árakra, így akadályozva meg az árazó robotokat,
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
hogy kiemelkedően magas árakat számoljanak fel aluliskolázott vevőknek,
11:22
who would accept them.
206
682387
1466
akik amúgy elfogadnák azt.
11:24
Only humans can define those boundaries --
207
684538
2563
Csak az ember húzhatja meg e határvonalakat –
11:27
there is no way AI can find them in past data.
208
687125
3621
kizárt, hogy ezekre az MI példát találna a múltban.
11:31
Some situations are in the gray zone.
209
691230
2467
Néhány helyzet a szürke tartományba esik.
11:34
We worked with a health insurer.
210
694135
2745
Dolgoztunk egy egészségügyi biztosítóval.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Kifejlesztett egy MI-t, mely azonosította azon klienseit,
11:41
people who are just about to go to hospital
212
701641
2548
akik épp kórházba menetel előtt álltak,
11:44
to sell them premium services.
213
704213
2269
s így prémiumszolgáltatást adhatott el nekik.
11:46
And the problem is,
214
706506
1515
A probléma az,
11:48
some prospects were called by the commercial team
215
708045
2969
hogy néhány lehetséges ügyfelet úgy kerestek meg értékesítők,
11:51
while they did not know yet
216
711038
2697
hogy ők maguk még nem is tudták,
11:53
they would have to go to hospital very soon.
217
713759
2818
hogy hamarosan kórházba kell menniük.
11:57
You are the CEO of this company.
218
717720
2317
Önök e cég ügyvezetői.
12:00
Do you stop that program?
219
720061
1667
Leállítanák a programot?
12:02
Not an easy question.
220
722577
1913
Nem könnyű kérdés.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Hogy megbirkózzanak vele, pár cég olyan csapatokat állít fel,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
melyek szabályokkal, alapelvekkel segítik a pénzügyi és műszaki csapatok munkáját,
12:13
between personalization and manipulation,
223
733918
3596
mikor határt szabnak a személyre szabás és a manipuláció,
12:17
customization of offers and discrimination,
224
737538
2969
az ajánlatok vevőre szabása és a diszkrimináció,
12:20
targeting and intrusion.
225
740531
2023
a célba vétel és a túlzó nyomulás között.
12:24
I am convinced that in every company,
226
744562
3674
Meggyőződésem, hogy minden cég számára,
12:28
applying AI where it really matters has massive payback.
227
748260
4650
amely MI-t vet be igazán fontos dolgokban, ez nagymértékben kifizetődő.
12:33
Business leaders need to be bold
228
753474
2151
Az üzletembereknek
12:35
and select a few topics,
229
755649
1976
bátran ki kellene választaniuk pár témát,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
majd mindegyikhez mozgósítaniuk a legjobb csapataikból 10, 20, 30 embert –
12:42
tech, AI, data science, ethics --
231
762609
3333
műszaki, etikai, MI-szakembereket, adattudósokat –,
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
majd a 10, 20 és 70%-os ciklust is lejátszani
12:50
of "Human plus AI,"
233
770411
1722
az "Ember plusz MI" módszerrel,
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
ha szeretnék, hogy az MI hatékony szerepet töltsön be a csapataikban, folyamataikban.
12:57
There is no other way.
235
777006
1889
Másképp ez nem működhet.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
A fejlett gazdaságok állampolgárai máris tartanak az "algokrácia" lehetőségétől.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
Hétezer embert kérdeztek meg nemrégiben egy felmérés során.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Több mint 75%-uk valós aggodalmát fejezte ki,
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
milyen hatással van az MI a munkaerőre, a privát szférára,
13:15
on the risk of a dehumanized society.
240
795697
3436
milyen kockázatot jelent egy elembertelenedett társadalom.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Az "algorácia" erőltetése komoly kockázat az MI elleni támadás szempontjából,
13:24
within companies or in society at large.
242
804561
4103
mind a cégeken, mind az egész társadalmon belül.
13:29
"Human plus AI" is our only option
243
809014
3285
Az "Ember plusz MI" az egyetlen lehetőség,
13:32
to bring the benefits of AI to the real world.
244
812323
3134
hogy az MI jelentette előnyöket a világ is kiélvezhesse.
13:36
And in the end,
245
816038
1158
Végül:
13:37
winning organizations will invest in human knowledge,
246
817220
4134
a szervezetek megnyerése nemcsak az MI vagy az adatokba való befektetést,
13:41
not just AI and data.
247
821378
2325
hanem az emberi tudás fejlesztését is jelenti.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
A szakemberek toborzását, képzését, jutalmazását.
13:48
Data is said to be the new oil,
249
828800
3142
Az adat állítólag az új olaj,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
ám hiszik vagy sem, az emberi tudás fogja az igazi változást hozni,
13:56
because it is the only derrick available
251
836061
3588
mert ez az egyetlen elérhető "fúrótorony",
13:59
to pump the oil hidden in the data.
252
839673
3674
mely kinyerheti az adatban rejlő olajat.
14:04
Thank you.
253
844633
1153
Köszönöm.
14:05
(Applause)
254
845810
3904
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7