How humans and AI can work together to create better businesses | Sylvain Duranton

28,405 views ・ 2020-02-14

TED


Toista video kaksoisnapsauttamalla alla olevaa englanninkielistä tekstitystä.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Kääntäjä: Marja Oilinki Oikolukija: Ulla Vainio
00:12
Let me share a paradox.
1
12865
2127
Kerron teille paradoksista.
00:16
For the last 10 years,
2
16429
1467
Viimeisen kymmenen vuoden ajan
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
monet yhtiöt ovat yrittäneet vähentää byrokratiaa,
00:21
to have fewer central rules and procedures,
4
21792
2833
luopua monista säännöistä ja ohjeista
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
ja antaa tiimeille mahdollisuuksia vapaasti päättää toiminnastaan.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Nyt ne haluavat hyödyntää tekoälyä
00:32
unaware that cool technology
7
32814
2445
ymmärtämättä, että teknologia
00:35
might make them more bureaucratic than ever.
8
35283
3602
voi tehdä niistä entistä byrokraattisempia.
00:39
Why?
9
39378
1151
Miksi?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Tekoäly toimii aivan kuten byrokraattinen systeemi.
00:44
The essence of bureaucracy
11
44403
2412
Byrokratian ytimessä on
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
noudattaa sääntöjä ja proseduureja eikä tehdä inhimillisiä ratkaisuja.
00:51
And AI decides solely based on rules.
13
51887
3841
Tekoäly nojaa yksinomaan sääntöihin.
00:56
Many rules inferred from past data
14
56062
2833
Monet säännöt johdetaan aiemmasta tiedosta,
00:58
but only rules.
15
58919
1904
mutta ne ovat edelleen sääntöjä.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
Jos ihmisen päätöksenteko ei ole mukana prosessissa,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
tekoäly tuo mukanaan karmean uuden byrokratian muodon,
01:09
I call it "algocracy" --
18
69538
2999
jota kutsun algokratiaksi;
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
siinä tekoäly tekee sääntöjen ohjaamana päätöksiä
01:17
outside of any human control.
20
77085
2317
ihmisen kontrolloimatta tulosta.
01:20
Is there a real risk?
21
80427
1674
Onko tämä riski?
01:22
Yes.
22
82514
1150
Kyllä.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
Johdan 800 tekoälyammattilaisen tiimiä.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Olemme kehittäneet yli 100 tekoälyratkaisua asiakkaillemme,
01:30
for large companies around the world.
25
90599
2467
jotka ovat suuryrityksiä eri puolilla maailmaa.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Monet yritysjohtajat näyttävät toimivan kuin menneisyyden byrokraatit.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
He haluavat irrottaa kalliit, vanhanaikaiset ihmiset prosessista
01:44
and rely only upon AI to take decisions.
28
104720
3865
ja luottaa pelkästään tekoälyyn päätöksissä.
01:49
I call this the "human-zero mindset."
29
109244
4253
Kutsun tätä ihmisnolla-ajatteluksi.
01:54
And why is it so tempting?
30
114260
2118
Miksi se on niin houkuttavaa?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Koska toinen tie, ihminen + tekoäly, on pitkä,
02:02
costly and difficult.
32
122307
2609
kallis ja vaikea.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
Bisnestiimit, tekniset tiimit, ja datatiimit
02:08
have to iterate for months
34
128257
2079
joutuvat kuukausien töihin
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
saadakseen ihmiset ja tekoälyn toimimaan hyvin yhdessä.
02:16
Long, costly and difficult.
36
136160
3428
Pitkää, kallista, vaikeaa.
02:19
But the reward is huge.
37
139891
2070
Mutta palkkio on huikea.
02:22
A recent survey from BCG and MIT
38
142343
3306
Tuore BCG:n ja MIT:n tutkimus
02:25
shows that 18 percent of companies in the world
39
145673
4507
osoittaa, että vain 18 prosenttia niistä yrityksistä maailmassa,
02:30
are pioneering AI,
40
150204
2214
jotka käyttävät tekoälyä,
02:32
making money with it.
41
152442
2301
rikastuu sillä.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Nämä yritykset keskittävät 80 % tekoälyaloitteistaan
02:40
on effectiveness and growth,
43
160771
1953
tehokkuuteen ja kasvuun,
02:42
taking better decisions --
44
162748
2170
tekevät parempia päätöksiä --
02:44
not replacing humans with AI to save costs.
45
164942
3538
eivätkä korvaa ihmisiä tekoälyllä säästääkseen.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Miksi ihmiset ovat tärkeä osa päätöksentekoa?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Yksinkertaisesti siksi, että tekoäly on omillaan hyvin tyhmä.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Joskus sillä ei ole seurauksia, kuten tämä tviitti:
03:03
"Dear Amazon,
49
183212
1564
"Rakas Amazon,
03:04
I bought a toilet seat.
50
184800
1386
ostin vessanistuimen.
03:06
Necessity, not desire.
51
186210
1661
Välttämättömyydestä, en halusta.
03:07
I do not collect them,
52
187895
1452
En keräile niitä
03:09
I'm not a toilet-seat addict.
53
189371
2238
en ole wc-istuinriippuvainen.
03:11
No matter how temptingly you email me,
54
191633
2206
Kuinka houkuttelevasti markkinoittekaan niitä,
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
en tule ajattelemaan: ok, olkoon,
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
vielä yksi wc-istuin, ansaitsen sen."
03:18
(Laughter)
57
198400
1344
(naurua)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Joskus seurauksia on enemmän, kuten tämä tviitti osoittaa.
03:24
"Had the same situation
59
204903
1787
"Minulle tapahtui sama,
03:26
with my mother's burial urn."
60
206714
2459
kun ostin äidilleni tuhkauurnan,"
03:29
(Laughter)
61
209197
1008
(naurua)
03:30
"For months after her death,
62
210229
1365
"Sain monta kuukautta hänen
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
kuolemansa jälkeen Amazonilta viestejä tyyliin jos pidit tästä...' "
03:35
(Laughter)
64
215190
2015
(naurua)
03:37
Sometimes with worse consequences.
65
217229
2528
Joskus vieläkin pahempia seurauksia.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Kuvittele tekoäly hylkäämässä yliopistoon pyrkivää opiskelijaa.
03:44
Why?
67
224535
1150
Miksi?
03:45
Because it has "learned," on past data,
68
225709
2670
Koska se on "oppinut" aiemmasta datasta
03:48
characteristics of students that will pass and fail.
69
228403
3182
piirteitä, jotka ennustavat, tuleeko opiskelija onnistumaan.
03:51
Some are obvious, like GPAs.
70
231609
2103
Opintomenestys on niistä ilmeinen.
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
Mutta jos aiemmin kaikki opiskelijat tietyltä alueelta ovat keskeyttäneet,
03:59
it is very likely that AI will make this a rule
72
239202
3532
tekoäly laatii säännön, jonka mukaan
04:02
and will reject every student with this postal code,
73
242758
3770
se hylkää kaikki tältä postinumeroalueelta olevat opiskelijat
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
antamatta heille mahdollisuutta osoittaa sääntöä vääräksi.
04:11
And no one can check all the rules,
75
251857
2516
Kukaan ei pysty tarkistamaan kaikkia sääntöjä,
04:14
because advanced AI is constantly learning.
76
254397
3452
koska kehittynyt tekoäly oppii koko ajan uutta.
04:18
And if humans are kept out of the room,
77
258307
2326
Jos ihmiset pidetään poissa,
04:20
there comes the algocratic nightmare.
78
260657
3277
tuloksena on algokraattinen painajainen.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Kuka vastaa opiskelijan hylkäämisestä?
04:27
No one, AI did.
80
267347
1643
Ei kukaan, tekoäly teki sen.
04:29
Is it fair? Yes.
81
269014
1674
Onko se reilua? Kyllä.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Samat säännöt koskevat kaikkia sisäänpyrkijöitä.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Voisimmeko harkita uudestaan väärältä alueelta tulevaa fiksua nuorta?
04:38
No, algos don't change their mind.
84
278899
3111
Emme, sillä algoritmit eivät ajattele.
04:42
We have a choice here.
85
282974
2016
Me teemme päätöksen.
04:45
Carry on with algocracy
86
285756
2524
Jatkammeko algokratian kanssa
04:48
or decide to go to "Human plus AI."
87
288304
2865
vai päätämmekö lisätä ihmisen yhtälöön.
04:51
And to do this,
88
291193
1333
Sen tehdäksemme
04:52
we need to stop thinking tech first,
89
292550
3440
emme voi ajatella tekniikka edellä
04:56
and we need to start applying the secret formula.
90
296014
3650
ja meidän on sovellettava salaista kaavaa.
05:00
To deploy "Human plus AI,"
91
300601
2103
Jotta päästään tilaan Ihminen plus tekoäly
05:02
10 percent of the effort is to code algos;
92
302728
2921
10 prosenttia työstä menee koodaamiseen,
05:05
20 percent to build tech around the algos,
93
305673
3531
20 prosenttia koodin ympärillä olevaan teknologiaan
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
kuten datankeruuseen, käyttöliittymään, järjestelmien yhteensopivuuteen.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
Mutta suurin osa, 70 prosenttia urakasta
05:16
is about weaving together AI with people and processes
96
316286
4476
menee tekoälyn liittämiseen ihmisiin ja prosesseihin
05:20
to maximize real outcome.
97
320786
2374
lopputuloksen maksimoimiseksi.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
Tekoäly epäonnistuu, kun tämä 70 prosenttia leikataan pois.
05:28
The price tag for that can be small,
99
328794
3159
Hintalappu tälle voi olla pieni,
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
mutta se voi myös tuhlata miljoonia hyödyttömään teknologiaan.
05:35
Anyone cares?
101
335986
1150
Välittääkö kukaan?
05:38
Or real tragedies:
102
338153
2325
Se voi johtaa myös tragedioihin.
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
kuten 346 kuolonuhriin kahdessa B-737 lentokoneen onnettomuudessa,
05:48
when pilots could not interact properly
104
348776
3261
joissa lentäjät eivät voineet vaikuttaa
05:52
with a computerized command system.
105
352061
2467
tietokoneohjaukseen.
05:55
For a successful 70 percent,
106
355974
1794
Onnistuneeseen 70 prosenttiin
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
ensiaskel on varmistaa, että algoritmejä koodatessa mukana ovat
06:02
and domain experts together.
108
362911
2118
sekä datan että kyseisen alan asiantuntijat.
06:05
Take health care for example.
109
365427
2198
Esimerkiksi terveydenhoitoala.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Tiimi työskenteli uuden lääkkeen parissa, johon liittyi ongelma.
06:12
When taking their first dose,
111
372784
1499
Ensimmäisen annoksen yhteydessä
06:14
some patients, very few, have heart attacks.
112
374307
3484
jotkut harvat potilaat saivat sydänkohtauksen.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Siksi kaikkien potilaiden oli ensimmäisen annoksen yhteydessä
06:21
have to spend one day in hospital,
114
381276
2682
vietettävä yksi päivä sairaalassa
06:23
for monitoring, just in case.
115
383982
2071
varmuuden vuoksi tarkkailtavana.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Halusimme tunnistaa potilaat, joiden riski saada sydänkohtaus oli nolla,
06:32
who could skip the day in hospital.
117
392193
2333
jotta säästyttäisiin sairaalapäiviltä.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Käytimme tekoälyä analysoimaan kliinisten kokeiden dataa
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
ja yhdistämään EKG-signaalin, verenkuvan ja biomarkkerit
06:44
with the risk of heart attack.
120
404537
2000
sydänkohtausriskiin.
06:47
In one month,
121
407232
1274
Kuukaudessa
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
mallimme pystyi merkkaamaan 62 prosenttia potilaista nollariskisiksi
06:54
They could skip the day in hospital.
123
414887
2222
eivätkä he tarvinneet päivää sairaalassa.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Tuntisikto olosi turvalliseksi kotona ensimmäisen annoksen aikaan,
07:01
if the algo said so?
125
421379
1524
jos algoritmi päättäisi siitä?
07:02
(Laughter)
126
422927
1015
(naurua)
07:03
Doctors were not.
127
423966
1650
Lääkärit eivät.
07:05
What if we had false negatives,
128
425966
2302
Mitä jos meillä on vääriä negatiivisia,
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
eli tekoäly ohjaa heidät koteihin mutta he kuolevat?
07:13
(Laughter)
130
433545
1365
(naurua)
07:14
There started our 70 percent.
131
434934
2452
Tästä alkoi meidän 70 prosenttiamme.
07:17
We worked with a team of doctors
132
437410
1992
Lääkäritiimin kanssa
07:19
to check the medical logic of each variable in our model.
133
439426
3799
tutkimme mallin muuttujia ja niiden lääketieteellistä pohjaa
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Käytimme esimerkiksi maksan entsyymin pitoisuutta
07:28
as a predictor,
135
448130
1273
ennustajana,
07:29
for which the medical logic was not obvious.
136
449427
3698
mutta lääketieteen logiikka ei ollut ilmeinen.
07:33
The statistical signal was quite strong.
137
453149
2666
Tilastollisesti signaali oli vahva.
07:36
But what if it was a bias in our sample?
138
456300
2833
Mutta entä jos otoksemme oli vinoutunut?
07:39
That predictor was taken out of the model.
139
459157
2800
Tämä muuttuja poistettiin aineistosta.
07:42
We also took out predictors for which experts told us
140
462307
3445
Poistimme myös ennustetietoja, joista asiantuntijat kertoivat,
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
että niiden mittaaminen ei onnistu tarkkaan oikeassa elämässä.
07:50
After four months,
142
470371
1690
Neljän kuukauden päästä meillä
07:52
we had a model and a medical protocol.
143
472085
3071
oli malli ja lääketieteellinen protokolla.
07:55
They both got approved
144
475514
1666
Ne saivat viranomaisilta
07:57
my medical authorities in the US last spring,
145
477204
3222
hyväksynnän viime keväänä Yhdysvalloissa
08:00
resulting in far less stress for half of the patients
146
480450
3706
ja puolet potilaista kokee nyt vähemmän stressiä
08:04
and better quality of life.
147
484180
1800
ja enemmän elämänlaatua.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Odotettu kasvu lääkkeen myynnissä ylittää 100 miljoonaa.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
70 prosenttia tekoälyn, tiimien ja prosessien punomiseen yhteen
08:15
also means building powerful interfaces
150
495890
3571
tarkoittaa siis vahvaa liittoa,
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
jossa ihmiset ja tekoäly yhdessä ratkovat vaikeita ongelmia.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Kerran saimme muodin jälleenmyyjältä haasteen.
08:31
"We have the best buyers in the world.
153
511143
2498
"Meillä on maailman parhaat ostajat.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Pystyttekö rakentamaan tekoälyn, joka pystyy ennustamaan myyntiä heitä paremmin?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
Kertomaan, paljonko korkealuokkaisia, vaaleanvihreitä miesten XL-paitoja
08:42
we need to buy for next year?
156
522990
2047
kannattaa hankkia ensi vuodeksi?
08:45
At predicting better what will sell or not
157
525061
2810
Ennustamaan mikä myy ja mikä ei
08:47
than our designers."
158
527895
1960
paremmin kuin suunnittelijamme."
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
Tiimimme harjoitutti tekoälyllä mallia joitakin viikkoja aiemmalla tiedolla
08:54
and the competition was organized with human buyers.
160
534434
3533
ja järjestettiin kilpailu tekoälyn ja ihmisammattilaisten välillä.
08:58
Result?
161
538347
1150
Tulos?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
Tekoäly voitti vähentäen ennustusvirheitä 25 prosenttia.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Ihmisnollatyypit olisivat ottaneet käyttöön tämän alkuperäisen mallin
09:10
and create a fight with all human buyers.
164
550760
2754
ja kilpailleet ihmisostajia vastaan.
09:13
Have fun.
165
553538
1150
Pitäkää hauskaa.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Tiesimme kuitenkin, että ihmisostajilla oli muotitrendeistä ymmärrystä,
09:20
that could not be found in past data.
167
560355
2845
jota ei löydy menneestä myyntitiedosta.
09:23
There started our 70 percent.
168
563701
2857
Alkoi 70 prosentin vaihe.
09:26
We went for a second test,
169
566582
1944
Toisessa testissä
09:28
where human buyers were reviewing quantities
170
568550
3103
ihmisostajat arvioivat tekoälyn
09:31
suggested by AI
171
571677
1662
määrarvioita,
09:33
and could correct them if needed.
172
573363
2325
ja pystyivät korjaamaan niitä.
09:36
Result?
173
576180
1150
Tulos?
09:37
Humans using AI ...
174
577704
2117
Tekoälyä käyttävät ihmiset...
09:39
lose.
175
579845
1407
häviävät.
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
75 prosenttia ihmisten tekemistä korjauksista
09:45
were reducing accuracy.
177
585970
2055
vähensi niiden tarkkuutta.
09:49
Was it time to get rid of human buyers?
178
589002
3174
Oliko tullut aika päästä ihmisistä alalla?
09:52
No.
179
592200
1158
Ei.
09:53
It was time to recreate a model
180
593382
2617
Oli aika luoda malli,
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
jossa ihmiset eivät yritä arvata milloin tekoäly on väärässä,
10:01
but where AI would take real input from human buyers.
182
601118
4542
vaan jossa tekoäly saa oikeaa tietoa sisäänostajilta.
10:06
We fully rebuilt the model
183
606962
1611
Muotoilimme mallin uusiksi
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
ja luovuimme alkuperäisestä ideasta, joka oli enemmän tai vähemmän
10:14
"Hey, human! This is what I forecast,
185
614585
2437
tyyppiä "Ihminen! Tässä ennustukseni,
10:17
correct whatever you want,"
186
617046
1761
korjaa mitä ikinä tahdot,"
10:18
and moved to a much richer one, more like,
187
618831
3636
ja siirryimme rikkaampaan, tyyliin
10:22
"Hey, humans!
188
622491
1976
"Ihmiset!
10:24
I don't know the trends for next year.
189
624491
1825
En tiedä mikä on seuraava trendi,
10:26
Could you share with me your top creative bets?"
190
626340
2956
voisitteko jakaa minulle luovimmat arvauksenne?"
10:30
"Hey, humans!
191
630063
1476
"Ihmiset!
10:31
Could you help me quantify those few big items?
192
631563
2719
Voisitteko auttaa minua näiden isojen lukujen kanssa,
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
en löydä menneestä hyvää vertailuaineistoa niille."
10:38
Result?
194
638401
1150
Tulos?
10:40
"Human plus AI" wins,
195
640195
2000
Ihmiset plus tekoäly voittaa,
10:42
reducing forecast errors by 50 percent.
196
642219
3919
virheiden määrä tippui 50 prosentilla,
10:47
It took one year to finalize the tool.
197
647770
2828
Kesti vuoden saattaa työkalu kuntoon.
10:51
Long, costly and difficult.
198
651073
3317
Pitkä, kallis ja vaikea prosessi.
10:55
But profits and benefits
199
655046
2206
Mutta yrityksen voitot ja hyödyt
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
kasvoivat yhdessä vuosittaisen 100 miljoonan säästön kanssa.
11:03
Seventy percent on very sensitive topics
201
663459
2936
70 prosentin työ hyvin aroilla alueilla
11:06
also means human have to decide what is right or wrong
202
666419
3778
tarkoittaa myös, että ihmiset tekevät eettiset päätökset
11:10
and define rules for what AI can do or not,
203
670221
4086
ja määrittelevät, mitä tekoäly saa ja ei saa tehdä,
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
kuten asettavat hintalukot, jotta hinnoittelukoneet
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
eivät aseta järktyttävän korkeita hintoja kouluttamattomille asiakkaille,
11:22
who would accept them.
206
682387
1466
jotka hyväksyisivät ne.
11:24
Only humans can define those boundaries --
207
684538
2563
Vain ihmiset voivat asettaa näitä rajoja,
11:27
there is no way AI can find them in past data.
208
687125
3621
tekoäly ei löydä niitä vanhasta datasta.
11:31
Some situations are in the gray zone.
209
691230
2467
Jotkut tilanteet ovat harmaalla vyöhykkeellä.
11:34
We worked with a health insurer.
210
694135
2745
Eräs asiakkaamme oli terveysvakuuttaja.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Hän kehitti tekoälyohjelmaa, joka tunnistaisi, ketkä asiakkaista
11:41
people who are just about to go to hospital
212
701641
2548
olisivat juuri menossa sairaalaan
11:44
to sell them premium services.
213
704213
2269
myydäkseen heille premium-vakuutuksen.
11:46
And the problem is,
214
706506
1515
Ongelma oli, että
11:48
some prospects were called by the commercial team
215
708045
2969
myyjätiimi soitti joillekin kohderyhmästä,
11:51
while they did not know yet
216
711038
2697
kun he eivät itse edes tienneet,
11:53
they would have to go to hospital very soon.
217
713759
2818
että heitä odotti sairaalakäynti.
11:57
You are the CEO of this company.
218
717720
2317
Tämän fiman toimitusjohtajana
12:00
Do you stop that program?
219
720061
1667
lopettaisitko ohjelman?
12:02
Not an easy question.
220
722577
1913
Kysymys on vaikea.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Siksi monet yritykset rakentavat tiimejä,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
jotka määrittävät eettisiä sääntöjä ja stardardeja muille tiimeille
12:13
between personalization and manipulation,
223
733918
3596
kohdentamisesta ja manipulaatiosta,
12:17
customization of offers and discrimination,
224
737538
2969
tarjousten ja syrjinnän kohdentamisesta,
12:20
targeting and intrusion.
225
740531
2023
mainonnasta ja yksityisyydestä.
12:24
I am convinced that in every company,
226
744562
3674
Uskon, että jokainen yritys,
12:28
applying AI where it really matters has massive payback.
227
748260
4650
joka soveltaa tekoälyä tarkoituksenmukaisesti, hyötyy.
12:33
Business leaders need to be bold
228
753474
2151
Yritysjohdon tulee olla rohkeaa
12:35
and select a few topics,
229
755649
1976
ja valita joitakin alueita,
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
ja niihin kuhunkin saada 10, 20, 30 ihmistä parhaista tiimeistään --
12:42
tech, AI, data science, ethics --
231
762609
3333
teknikkoja, koodareita, eetikkoja --
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
ja käydä läpi 10, 20 ja 70 prosentin sykli
12:50
of "Human plus AI,"
233
770411
1722
yhtälöstä "ihminen ja tekoäly,"
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
jos he haluavat tekoälystä tehoa tiimeille ja prosesseille.
12:57
There is no other way.
235
777006
1889
Muuta tietä ei ole.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Kehittyneiden maiden kansalaiset pelkäävät jo algokratiaa.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
7000 ihmisen haastattelututkimuksessa
13:08
More than 75 percent expressed real concerns
238
788157
3555
yli 75 prosenttia ilmaisi olevansa huolestunut
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
tekoälyn vaikutuksesta työvoimaan, yksityisyyteen,
13:15
on the risk of a dehumanized society.
240
795697
3436
dehumanisoidun yhteiskunnan riskistä.
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Algokratian tavoittelu on todellinen riski myös takaiskulle tekoälyn suhteen
13:24
within companies or in society at large.
242
804561
4103
yrityksissä ja yhteiskunnallisesti.
13:29
"Human plus AI" is our only option
243
809014
3285
"Ihminen ja tekoäly" on ainoa mahdollisuus
13:32
to bring the benefits of AI to the real world.
244
812323
3134
tuoda tekoälyn hyödyt oikeaan elämään.
13:36
And in the end,
245
816038
1158
Lopulta
13:37
winning organizations will invest in human knowledge,
246
817220
4134
voittavat organisatiot investoivat inhimilliseen tietoon,
13:41
not just AI and data.
247
821378
2325
ei vain tekoälyyn ja dataan.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
Värväys, koulutus, asiantuntijoiden palkitseminen.
13:48
Data is said to be the new oil,
249
828800
3142
Vaikka data olisi uutta öljyä,
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
inhimillinen tieto on merkittävä kilpailuetu,
13:56
because it is the only derrick available
251
836061
3588
sillä se on ainoa tapa
13:59
to pump the oil hidden in the data.
252
839673
3674
pumpata esille dataan piilotettu öljy.
14:04
Thank you.
253
844633
1153
Kiitos.
14:05
(Applause)
254
845810
3904
(aplodeja)
Tietoja tästä verkkosivustosta

Tällä sivustolla esitellään YouTube-videoita, jotka ovat hyödyllisiä englannin oppimisessa. Näet englannin oppitunteja, joita opettavat huippuluokan opettajat ympäri maailmaa. Kaksoisnapsauta kullakin videosivulla näkyvää englanninkielistä tekstitystä, niin voit toistaa videon sieltä. Tekstitykset vierivät synkronoidusti videon toiston kanssa. Jos sinulla on kommentteja tai toiveita, ota meihin yhteyttä käyttämällä tätä yhteydenottolomaketta.

https://forms.gle/WvT1wiN1qDtmnspy7