How humans and AI can work together to create better businesses | Sylvain Duranton

29,531 views ・ 2020-02-14

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Çeviri: Cem Turkel Gözden geçirme: Can Boysan
00:12
Let me share a paradox.
1
12865
2127
Size bir çelişkiden bahsedeyim.
00:16
For the last 10 years,
2
16429
1467
Son 10 yıldır
00:17
many companies have been trying to become less bureaucratic,
3
17920
3848
pek çok şirket daha az bürokratik olmaya,
00:21
to have fewer central rules and procedures,
4
21792
2833
merkezi kuralları ve prosedürleri azaltmaya,
00:24
more autonomy for their local teams to be more agile.
5
24649
3245
yerel takımlarını daha verimli kılmak için özerkliklerini artırmaya çalışıyor.
00:28
And now they are pushing artificial intelligence, AI,
6
28204
4586
Fakat şimdilerde yapay zekâyı dayatıyorlar
00:32
unaware that cool technology
7
32814
2445
ve bu havalı teknolojinin
00:35
might make them more bureaucratic than ever.
8
35283
3602
onları hiç olmadığı kadar bürokratik hale getireceğini fark etmiyorlar.
00:39
Why?
9
39378
1151
Neden mi?
00:40
Because AI operates just like bureaucracies.
10
40553
3492
Çünkü yapay zekâ tıpkı bürokrasi gibi işler.
00:44
The essence of bureaucracy
11
44403
2412
Bürokrasinin özü
00:46
is to favor rules and procedures over human judgment.
12
46839
4444
insani yargılar yerine kural ve prosedürleri gözetmektir.
00:51
And AI decides solely based on rules.
13
51887
3841
Yapay zekâ sadece kurallara dayalıdır.
00:56
Many rules inferred from past data
14
56062
2833
Çoğu, geçmiş verilerden çıkarılan kurallardır
00:58
but only rules.
15
58919
1904
fakat yalnızca kurallar.
01:01
And if human judgment is not kept in the loop,
16
61204
3730
İnsani yargılar işin içine katılmadığında,
01:04
AI will bring a terrifying form of new bureaucracy --
17
64958
4556
yapay zekâ, bürokrasinin yeni ve korkunç bir şeklini getirecektir.
01:09
I call it "algocracy" --
18
69538
2999
Yapay zekânın kurallar yoluyla, insan kontrolü olmadan
01:12
where AI will take more and more critical decisions by the rules
19
72561
4500
her geçen gün daha fazla kritik kararlar almasını
01:17
outside of any human control.
20
77085
2317
"algokrasi" olarak tanımlıyorum.
01:20
Is there a real risk?
21
80427
1674
Burada bir risk var mı?
01:22
Yes.
22
82514
1150
Evet var.
01:23
I'm leading a team of 800 AI specialists.
23
83688
3006
800 yapay zekâ uzmanından oluşan bir gruba liderlik ediyorum.
01:26
We have deployed over 100 customized AI solutions
24
86718
3857
Dünyadaki büyük şirketler için
01:30
for large companies around the world.
25
90599
2467
100'ün üzerinde yapay zeka çözümünü hayata geçiriyoruz.
01:33
And I see too many corporate executives behaving like bureaucrats from the past.
26
93417
5819
Geçmişten gelen bürokratlar gibi davranan birçok kurumsal yönetici ile tanışıyorum.
01:39
They want to take costly, old-fashioned humans out of the loop
27
99784
4912
Maliyetli, eski kafalı insanları döngülerden çıkartıp
01:44
and rely only upon AI to take decisions.
28
104720
3865
kararların alınmasını sadece yapay zekâdan bekliyorlar.
01:49
I call this the "human-zero mindset."
29
109244
4253
Bunu "sıfır-insan zihniyeti" olarak adlandırıyorum.
01:54
And why is it so tempting?
30
114260
2118
Kulağa neden bu kadar cezbedici geliyor?
01:56
Because the other route, "Human plus AI," is long,
31
116879
5404
Çünkü diğer istikamet olan "insan artı yapay zekâ"
02:02
costly and difficult.
32
122307
2609
uzun, maliyetli ve zor.
02:04
Business teams, tech teams, data-science teams
33
124940
3293
İş ekipleri, teknoloji ekipleri, ve veri bilimi ekiplerinin
02:08
have to iterate for months
34
128257
2079
insan ve yapay zekânın birlikte en iyi nasıl çalışacağını tasarlamaları
02:10
to craft exactly how humans and AI can best work together.
35
130360
5268
aylarca sürecek çalışmalar gerektirir.
02:16
Long, costly and difficult.
36
136160
3428
Uzun, maliyetli ve zor.
02:19
But the reward is huge.
37
139891
2070
Fakat ödülü çok büyük.
02:22
A recent survey from BCG and MIT
38
142343
3306
BCG ve MIT'nin yeni bir anketine göre
02:25
shows that 18 percent of companies in the world
39
145673
4507
dünyadaki şirketlerin yüzde 18'i
02:30
are pioneering AI,
40
150204
2214
yapay zekâya öncülük edip
02:32
making money with it.
41
152442
2301
onun sayesinde para kazanıyorlar.
02:35
Those companies focus 80 percent of their AI initiatives
42
155157
5590
Bu şirketler yapay zekâ girişimlerinin yüzde 80'ini
02:40
on effectiveness and growth,
43
160771
1953
verimliliğe, büyümeye
02:42
taking better decisions --
44
162748
2170
ve daha iyi kararlar almaya odaklamıştır.
02:44
not replacing humans with AI to save costs.
45
164942
3538
Maliyetleri azaltmak için insanların yerine yapay zekâyı koymaya değil.
02:50
Why is it important to keep humans in the loop?
46
170159
3200
Peki insanları döngüde tutmak neden önemli?
02:54
Simply because, left alone, AI can do very dumb things.
47
174032
4847
Çünkü yapay zeka yalnız bırakıldığında, fazlasıyla aptalca şeyler yapabilir.
02:59
Sometimes with no consequences, like in this tweet.
48
179363
3373
Bazen, bu tweet'teki gibi, sonuçları olmayan şeyler yapar.
03:03
"Dear Amazon,
49
183212
1564
"Sevgili Amazon,
03:04
I bought a toilet seat.
50
184800
1386
bir tuvalet kapağı aldım.
03:06
Necessity, not desire.
51
186210
1661
İhtiyaçtan, istekten değil.
03:07
I do not collect them,
52
187895
1452
Koleksiyonunu yapmıyorum.
03:09
I'm not a toilet-seat addict.
53
189371
2238
Tuvalet kapağı bağımlısı değilim.
03:11
No matter how temptingly you email me,
54
191633
2206
Her ne kadar cezbedici e-postalar atsanız da
03:13
I am not going to think, 'Oh, go on, then,
55
193863
2349
şöyle düşünmeyeceğim:
"Peki o zaman, kendimi bir tuvalet kapağı daha alarak şımartayım."
03:16
one more toilet seat, I'll treat myself.' "
56
196236
2140
03:18
(Laughter)
57
198400
1344
(Kahkahalar)
03:19
Sometimes, with more consequence, like in this other tweet.
58
199768
4618
Bazen ise, şu tweet'teki gibi daha fazla sonuçları olur:
03:24
"Had the same situation
59
204903
1787
"Annemin küllerinin olduğu vazo konusunda
03:26
with my mother's burial urn."
60
206714
2459
bana da aynı şey oldu.
03:29
(Laughter)
61
209197
1008
(Kahkahalar)
03:30
"For months after her death,
62
210229
1365
"Ölümünden aylar sonra,
03:31
I got messages from Amazon, saying, 'If you liked that ...' "
63
211618
3548
Amazon'dan şöyle mesajlar aldım:
"Eğer bunu beğendiyseniz."
03:35
(Laughter)
64
215190
2015
(Kahkahalar)
03:37
Sometimes with worse consequences.
65
217229
2528
Bazen daha kötü sonuçları da olur.
03:39
Take an AI engine rejecting a student application for university.
66
219781
4730
Öğrencilerin üniversite başvurularını reddeden bir yapay zekâ robotu ele alalım.
03:44
Why?
67
224535
1150
Peki neden?
03:45
Because it has "learned," on past data,
68
225709
2670
Çünkü geçmiş verilerden
03:48
characteristics of students that will pass and fail.
69
228403
3182
dersi geçecek ve kalacak öğrencilerin karakteristiklerini "öğrendi".
03:51
Some are obvious, like GPAs.
70
231609
2103
Bazıları not ortalaması gibi bariz olsa da,
03:54
But if, in the past, all students from a given postal code have failed,
71
234069
5109
geçmişte, belli bir posta kodundaki öğrencilerin hepsi dersten kalsaydı
03:59
it is very likely that AI will make this a rule
72
239202
3532
yapay zekânın bunu bir kural haline getirecek
04:02
and will reject every student with this postal code,
73
242758
3770
ve bu posta kodundaki tüm öğrencileri eleyecekti
04:06
not giving anyone the opportunity to prove the rule wrong.
74
246552
4813
ve bu kuralın yanlış olduğunu kimsenin kanıtlamasına fırsat vermeyecekti.
04:11
And no one can check all the rules,
75
251857
2516
Kimse tüm kuralları kontrol edemez.
04:14
because advanced AI is constantly learning.
76
254397
3452
Çünkü gelişmiş bir yapay zekâ sürekli bir öğrenme durumundadır.
04:18
And if humans are kept out of the room,
77
258307
2326
İnsanlar odanın dışında tutulduğunda,
04:20
there comes the algocratic nightmare.
78
260657
3277
algokratik kabus gerçeğe dönüşür.
04:24
Who is accountable for rejecting the student?
79
264466
2857
Bu öğrenciyi reddetmekten kim sorumlu?
04:27
No one, AI did.
80
267347
1643
Hiç kimse, yapay zekâ yaptı.
04:29
Is it fair? Yes.
81
269014
1674
Peki bu adil mi? Evet.
04:30
The same set of objective rules has been applied to everyone.
82
270712
3242
Aynı objektif kurallar kümesi herkese uygulandı.
04:34
Could we reconsider for this bright kid with the wrong postal code?
83
274367
3902
Yanlış posta kodundaki bu parlak çocuğu tekrar değerlendirebilir miyiz?
04:38
No, algos don't change their mind.
84
278899
3111
Hayır, algoritmalar fikirlerini değiştiremez.
04:42
We have a choice here.
85
282974
2016
Burada bir seçim yapmalıyız.
04:45
Carry on with algocracy
86
285756
2524
Algokrasi ile devam etmek
04:48
or decide to go to "Human plus AI."
87
288304
2865
ya da "İnsan artı yapay zekâ" yolundan gitmek.
04:51
And to do this,
88
291193
1333
Bunu yapmamız için
04:52
we need to stop thinking tech first,
89
292550
3440
öncelikle teknolojiyi düşünmekten vazgeçip
04:56
and we need to start applying the secret formula.
90
296014
3650
gizli formülü uygulamaya başlamamız gerekir.
05:00
To deploy "Human plus AI,"
91
300601
2103
"İnsan artı yapay zekâ"yı uygulamamız için
05:02
10 percent of the effort is to code algos;
92
302728
2921
çabanın yüzde 10'unu algoritmaları kodlamaya
05:05
20 percent to build tech around the algos,
93
305673
3531
yüzde 20'sini teknolojiyi algoritmaların etrafında inşa etmeye,
05:09
collecting data, building UI, integrating into legacy systems;
94
309228
4106
veri toplamaya, arayüz inşa etmeye, eski sistemlere entegre etmeye ayıralım.
05:13
But 70 percent, the bulk of the effort,
95
313358
2904
Fakat yüzde 70'ini, yani çabanın büyük bir kısmını
05:16
is about weaving together AI with people and processes
96
316286
4476
yapay zekâyı insanlar ve süreçlerle birlikte dokumaya harcayarak
05:20
to maximize real outcome.
97
320786
2374
gerçek neticeyi en yükseğe çıkartabiliriz.
05:24
AI fails when cutting short on the 70 percent.
98
324136
4634
Yüzde 70'lik kısımdan feragat edildiğinde, yapay zekâ başarısız olur.
05:28
The price tag for that can be small,
99
328794
3159
Bunun maliyeti şu kadar küçük olabilir,
05:31
wasting many, many millions of dollars on useless technology.
100
331977
3985
milyonlarca doları kullanışsız bir teknolojiye yatırmak.
05:35
Anyone cares?
101
335986
1150
Umursayan var mı?
05:38
Or real tragedies:
102
338153
2325
Ya da gerçek trajediler:
05:41
346 casualties in the recent crashes of two B-737 aircrafts
103
341137
7515
Yakın zamanda kaza yapan iki B-737 uçak sonucunda 346 ölü.
05:48
when pilots could not interact properly
104
348776
3261
Bilgisayarlı komut sisteminde
pilotlar düzgünce iletişim kuramadığından kaynaklandı.
05:52
with a computerized command system.
105
352061
2467
05:55
For a successful 70 percent,
106
355974
1794
Başarılı bir yüzde 70 için ilk adım
05:57
the first step is to make sure that algos are coded by data scientists
107
357792
5095
algoritmaların veri bilimciler ve alan uzmanları tarafından
06:02
and domain experts together.
108
362911
2118
birlikte kodlandığından emin olmaktır.
06:05
Take health care for example.
109
365427
2198
Sağlık sektörünü ele alalım.
06:07
One of our teams worked on a new drug with a slight problem.
110
367649
4817
Ekiplerimizden biri, ufak bir sorunu olan bir ilaç üzerinde çalıştı.
06:12
When taking their first dose,
111
372784
1499
İlk dozlarını aldıklarında,
06:14
some patients, very few, have heart attacks.
112
374307
3484
bazı hastaların çok az bir kısmı kalp krizi geçiriyordu.
06:18
So, all patients, when taking their first dose,
113
378117
3135
Bu nedenle ilk dozu alacak tüm hastalar
06:21
have to spend one day in hospital,
114
381276
2682
bir günlerini hastanede geçirmek zorundaydı.
06:23
for monitoring, just in case.
115
383982
2071
Ne olur ne olmaz onları gözlemlemek gerekir.
06:26
Our objective was to identify patients who were at zero risk of heart attacks,
116
386613
5556
Amacımız, sıfır kalp krizi riskine sahip
06:32
who could skip the day in hospital.
117
392193
2333
hastanedeki günü pas geçebilecek hastaları tanımlamaktı.
06:34
We used AI to analyze data from clinical trials,
118
394962
4079
Klinik deneylerin verilerini analiz etmek
06:40
to correlate ECG signal, blood composition, biomarkers,
119
400145
4368
ECG sinyallerini, kan bileşimlerini ve biyobelirteçleri
06:44
with the risk of heart attack.
120
404537
2000
kalp krizi riskiyle ilişkilendirmek için yapay zekâyı kullandık.
06:47
In one month,
121
407232
1274
Bir ay içinde
06:48
our model could flag 62 percent of patients at zero risk.
122
408530
6031
modelimiz sıfır riskte olan hastaların yüzde 62'sini işaretleyebildi.
06:54
They could skip the day in hospital.
123
414887
2222
Hastanedeki günü pas geçebilirlerdi.
06:57
Would you be comfortable staying at home for your first dose
124
417863
3492
Algoritma dedi diye
ilk dozunuzda evde kalmaya razı olur muydunuz?
07:01
if the algo said so?
125
421379
1524
07:02
(Laughter)
126
422927
1015
07:03
Doctors were not.
127
423966
1650
(Kahkahalar)
Doktorlar razı olmadı.
07:05
What if we had false negatives,
128
425966
2302
Ya yanlış negatif hatamız vardıysa?
07:08
meaning people who are told by AI they can stay at home, and die?
129
428292
5229
Yani yapay zekânın evinde kalıp ölmeyi önerdiği insanlar olursa?
07:13
(Laughter)
130
433545
1365
(Kahkahalar)
07:14
There started our 70 percent.
131
434934
2452
Bizim yüzde 70'imiz böyle başladı.
07:17
We worked with a team of doctors
132
437410
1992
Modelimizdeki her değişkenin
07:19
to check the medical logic of each variable in our model.
133
439426
3799
tıbbi mantığını kontrol etmek için bir doktor ekibiyle çalıştık.
07:23
For instance, we were using the concentration of a liver enzyme
134
443537
4569
Örneğin, belirteç olarak bir ciğer enziminin
07:28
as a predictor,
135
448130
1273
yoğunluğunu kullanıyorduk.
07:29
for which the medical logic was not obvious.
136
449427
3698
Bunun tıbbi mantığı çok açık değildi.
07:33
The statistical signal was quite strong.
137
453149
2666
İstatistiksel sinyal oldukça kuvvetliydi.
07:36
But what if it was a bias in our sample?
138
456300
2833
Fakat ya bu, bizim örneğimizdeki bir ön yargıysa?
07:39
That predictor was taken out of the model.
139
459157
2800
O belirteç bizim modelimizden çıkarıldı.
07:42
We also took out predictors for which experts told us
140
462307
3445
Doktorların gerçek hayatta titizlikle ölçemediği belirteçleri de
07:45
they cannot be rigorously measured by doctors in real life.
141
465776
3936
uzmanların uyarısıyla çıkarttık.
07:50
After four months,
142
470371
1690
Dört ay sonra,
07:52
we had a model and a medical protocol.
143
472085
3071
bir modelimiz ve tıbbi bir protokolümüz olmuştu.
07:55
They both got approved
144
475514
1666
Geçtiğimiz ilkbaharda
07:57
my medical authorities in the US last spring,
145
477204
3222
tıbbi otoriteler tarafından ikisi de onay aldı.
08:00
resulting in far less stress for half of the patients
146
480450
3706
Böylece hastaların yarısına daha az stres
08:04
and better quality of life.
147
484180
1800
ve daha iyi yaşam kalitesi sağladık.
08:06
And an expected upside on sales over 100 million for that drug.
148
486355
4269
Bunun dışında, ilacın satışlarında 100 milyonun üzerinde artış bekleniyordu.
08:11
Seventy percent weaving AI with team and processes
149
491668
4198
Yapay zekânın yüzde yetmişini ekipler ve süreçler ile işlemek
08:15
also means building powerful interfaces
150
495890
3571
ayrıca insanların ve yapay zekanın en zor sorunları beraber çözebilmesi için
08:19
for humans and AI to solve the most difficult problems together.
151
499485
5309
güçlü arayüzler inşa etmekti.
08:25
Once, we got challenged by a fashion retailer.
152
505286
4635
Öncelikle bir giyim firması bize meydan okudu.
08:31
"We have the best buyers in the world.
153
511143
2498
"Dünyadaki en iyi satın alma uzmanlarına sahibiz.
08:33
Could you build an AI engine that would beat them at forecasting sales?
154
513665
5111
Satış tahminlerinde onları yenebilecek
bir yapay zekâ motoru inşa edebilir misiniz?
08:38
At telling how many high-end, light-green, men XL shirts
155
518800
4166
Gelecek sene için kaç adet lüks, açık yeşil
08:42
we need to buy for next year?
156
522990
2047
XL erkek tişörtü satın almamız gerekeceğini söyleyebilecek?
08:45
At predicting better what will sell or not
157
525061
2810
Neyin satıp satmayacağını
08:47
than our designers."
158
527895
1960
tasarımcılarımızdan daha iyi öngörebilecek?"
08:50
Our team trained a model in a few weeks, on past sales data,
159
530434
3976
Geçmiş satış verilerini kullanarak ekibimiz birkaç haftada bir modeli eğitti
08:54
and the competition was organized with human buyers.
160
534434
3533
ve yarışma, insan satın almacılar ile beraber organize edildi.
08:58
Result?
161
538347
1150
Peki ya sonuç?
09:00
AI wins, reducing forecasting errors by 25 percent.
162
540061
4682
Tahmin hatalarını yüzde 25 düşürerek yapay zekâ kazandı.
09:05
Human-zero champions could have tried to implement this initial model
163
545903
4833
Sıfır insan savunucuları bu birincil modeli uygulamaya çalışabilirlerdi
09:10
and create a fight with all human buyers.
164
550760
2754
ve tüm insan satın almacılara savaş açabilirlerdi.
09:13
Have fun.
165
553538
1150
İyi eğlenceler.
09:15
But we knew that human buyers had insights on fashion trends
166
555205
5126
Fakat biliyoruz ki insan satın almacıların geçmiş verilerde bulunmayan şekilde
09:20
that could not be found in past data.
167
560355
2845
moda akımları hakkında öngörüleri vardı.
09:23
There started our 70 percent.
168
563701
2857
Yüzde 70'imiz burada başladı.
09:26
We went for a second test,
169
566582
1944
İnsan satın almacıların
09:28
where human buyers were reviewing quantities
170
568550
3103
yapay zekânın önerdiği sayıları incelediği
09:31
suggested by AI
171
571677
1662
ve gerektiğinde düzeltebildiği
09:33
and could correct them if needed.
172
573363
2325
ikinci bir teste gittik.
09:36
Result?
173
576180
1150
Sonuç mu?
09:37
Humans using AI ...
174
577704
2117
İnsanların kullandığı yapay zekâ kaybetti.
09:39
lose.
175
579845
1407
09:41
Seventy-five percent of the corrections made by a human
176
581795
4151
İnsanların yaptığı düzeltmelerin yüzde 75'i
09:45
were reducing accuracy.
177
585970
2055
doğruluk payını azaltıyordu.
09:49
Was it time to get rid of human buyers?
178
589002
3174
İnsan satın almacılardan kurtulmanın vakti gelmiş miydi?
09:52
No.
179
592200
1158
Hayır gelmemişti.
09:53
It was time to recreate a model
180
593382
2617
İnsanların yapay zekânın doğruluğunu sınamayacağı
09:56
where humans would not try to guess when AI is wrong,
181
596023
5071
fakat yapay zekânın insan satın almacılardan
10:01
but where AI would take real input from human buyers.
182
601118
4542
gerçek girdiler alacağı bir model yaratma vaktiydi.
10:06
We fully rebuilt the model
183
606962
1611
Modeli tamamen yeniden inşa ettik
10:08
and went away from our initial interface, which was, more or less,
184
608597
5964
ve "Hey, insan! Tahminlerim şunlar,
10:14
"Hey, human! This is what I forecast,
185
614585
2437
istediğin kısmı düzeltebilirsin."
10:17
correct whatever you want,"
186
617046
1761
diyen birincil arayüzümüzden
10:18
and moved to a much richer one, more like,
187
618831
3636
çok daha zengin bir arayüze geçtik.
10:22
"Hey, humans!
188
622491
1976
"Hey, insanlar!
10:24
I don't know the trends for next year.
189
624491
1825
Önümüzdeki senenin akımlarını bilmiyorum.
10:26
Could you share with me your top creative bets?"
190
626340
2956
En yaratıcı tahminlerinizi benimle paylaşır mısınız?"
10:30
"Hey, humans!
191
630063
1476
"Hey, insanlar!
10:31
Could you help me quantify those few big items?
192
631563
2719
Şu birkaç büyük parçanın miktarını belirlememe yardım eder misiniz?
10:34
I cannot find any good comparables in the past for them."
193
634306
3317
Geçmiş veride karşılaştırabileceğim güzel bir örnek bulamadım."
10:38
Result?
194
638401
1150
Sonuç mu?
10:40
"Human plus AI" wins,
195
640195
2000
Tahmin hatalarını yüzde 50 azaltarak
10:42
reducing forecast errors by 50 percent.
196
642219
3919
"İnsan artı yapay zekâ" kazandı.
10:47
It took one year to finalize the tool.
197
647770
2828
Aracı tamamlamamız bir yılımızı aldı.
10:51
Long, costly and difficult.
198
651073
3317
Uzun, maliyetli ve zor.
10:55
But profits and benefits
199
655046
2206
Fakat kâr ve faydalar
10:57
were in excess of 100 million of savings per year for that retailer.
200
657276
5396
giyim şirketine yıllık 100 milyonun üzerinde bir tasarruf sağladı.
11:03
Seventy percent on very sensitive topics
201
663459
2936
Çok hassas konular üzerine yüzde 70 demek,
11:06
also means human have to decide what is right or wrong
202
666419
3778
aynı zamanda insanların doğru ve yanlışı belirlemesi
11:10
and define rules for what AI can do or not,
203
670221
4086
ve yapay zekânın neyi yapabilip
neyi yapamayacağının kurallarını koyması demekti.
11:14
like setting caps on prices to prevent pricing engines
204
674331
3484
Bunlara örnek; fiyatlandırma motorlarının sunulan fiyatı kabul edecek
11:17
[from charging] outrageously high prices to uneducated customers
205
677839
4524
eğitimsiz müşterilere aşırı yüksek fiyat sunmaması için
11:22
who would accept them.
206
682387
1466
tavan fiyat eklemek olabilir.
11:24
Only humans can define those boundaries --
207
684538
2563
Bu sınırları sadece insanlar tanımlayabilir.
11:27
there is no way AI can find them in past data.
208
687125
3621
Yapay zekânın bunları geçmiş verilerde bulabilmesinin ihtimali yoktur.
11:31
Some situations are in the gray zone.
209
691230
2467
Bazı durumlar gri alanda kalıyordu.
11:34
We worked with a health insurer.
210
694135
2745
Bir sağlık sigortası şirketiyle çalışıyorduk.
11:36
He developed an AI engine to identify, among his clients,
211
696904
4713
Hangi müşterilerinin hastaneye gitmek üzere olduğunu belirleyerek
11:41
people who are just about to go to hospital
212
701641
2548
onlara lüks hizmetler satan
11:44
to sell them premium services.
213
704213
2269
bir yapay zekâ motoru geliştirmişti.
11:46
And the problem is,
214
706506
1515
Sorun şuydu:
11:48
some prospects were called by the commercial team
215
708045
2969
Hastaneye gitmesi gerekebileceğinden
11:51
while they did not know yet
216
711038
2697
henüz haberi olmayan bazı müşteriler
11:53
they would have to go to hospital very soon.
217
713759
2818
satış ekibi tarafından arandılar.
11:57
You are the CEO of this company.
218
717720
2317
Bu şirketin CEO'su sizsiniz.
12:00
Do you stop that program?
219
720061
1667
Bu programı durdurur musunuz?
12:02
Not an easy question.
220
722577
1913
Kolay bir soru değil.
12:04
And to tackle this question, some companies are building teams,
221
724514
3563
Bu soruyu ele almak için bazı şirketler,
12:08
defining ethical rules and standards to help business and tech teams set limits
222
728101
5793
iş ve teknoloji ekiplerini kişiselleştirme ve manipülasyon,
12:13
between personalization and manipulation,
223
733918
3596
kişiye özel teklifler ve ayırımcılık, hedefleme ve ihlal arasında
12:17
customization of offers and discrimination,
224
737538
2969
limitler konulmasına yardımcı olacak takımlar kurup
12:20
targeting and intrusion.
225
740531
2023
etik kurallar ve standartlar tanımlıyorlar.
12:24
I am convinced that in every company,
226
744562
3674
Herhangi bir şirkette gerçekten önemli durumlarda
12:28
applying AI where it really matters has massive payback.
227
748260
4650
yapay zekâ uygulamanın çok büyük getirisi olduğuna ben ikna oldum.
12:33
Business leaders need to be bold
228
753474
2151
İş liderleri yapay zekâyı takım ve süreçlerine
12:35
and select a few topics,
229
755649
1976
verimli bir şekilde uygulamak isterlerse
12:37
and for each of them, mobilize 10, 20, 30 people from their best teams --
230
757649
4936
cesur olmaları,
birkaç konu seçmeleri,
12:42
tech, AI, data science, ethics --
231
762609
3333
her konu için teknoloji, yapay zekâ, veri bilimi, etik gibi
12:45
and go through the full 10-, 20-, 70-percent cycle
232
765966
4421
en iyi takımlarından 10, 20, 30 kişiyi harekete geçirip
"İnsan artı yapay zeka" felsefesinin yüzde 10- 20-70 döngüsünün
12:50
of "Human plus AI,"
233
770411
1722
12:52
if they want to land AI effectively in their teams and processes.
234
772157
4340
tamamının üzerinden gitmeleri gerekir.
12:57
There is no other way.
235
777006
1889
Başka bir yolu yok.
12:58
Citizens in developed economies already fear algocracy.
236
778919
4724
Gelişmiş ekonomilerdeki vatandaşlar algokrasiden hali hazırda korkuyorlar.
13:04
Seven thousand were interviewed in a recent survey.
237
784196
3571
Yeni bir anket kapsamında yedi bin kişiyle görüşüldü.
13:08
More than 75 percent expressed real concerns
238
788157
3555
Bunların yüzde 75'inden fazlası
13:11
on the impact of AI on the workforce, on privacy,
239
791736
3937
yapay zekânın iş gücüne, gizliliğe etkisinden
ve insanlıktan çıkmış bir toplum riskinden cidden endişelendiklerini belirttiler.
13:15
on the risk of a dehumanized society.
240
795697
3436
13:19
Pushing algocracy creates a real risk of severe backlash against AI
241
799157
5380
Algokrasiyi dayatmak şirketlerde ve hatta toplumda
13:24
within companies or in society at large.
242
804561
4103
yapay zekâya karşı ciddi bir ters tepki riski yaratır.
13:29
"Human plus AI" is our only option
243
809014
3285
"İnsan artı yapay zekâ" yapay zekânın faydalarını
13:32
to bring the benefits of AI to the real world.
244
812323
3134
gerçek dünyaya getirmek için tek seçeneğimizdir.
13:36
And in the end,
245
816038
1158
Son olarak
13:37
winning organizations will invest in human knowledge,
246
817220
4134
kazanan kuruluşlar insan bilgisine yatırım yapacaklar.
13:41
not just AI and data.
247
821378
2325
Sadece yapay zekâ ve veriye değil.
13:44
Recruiting, training, rewarding human experts.
248
824792
3328
İnsan uzmanlarını işe almak, eğitmek, ödüllendirmek.
13:48
Data is said to be the new oil,
249
828800
3142
Verinin petrolün yerini aldığı söyleniyor
13:51
but believe me, human knowledge will make the difference,
250
831966
4071
fakat aslında fark yaratan şey insan bilgisi olacak.
13:56
because it is the only derrick available
251
836061
3588
Çünkü veride gizlenmiş petrolü pompalamak için
13:59
to pump the oil hidden in the data.
252
839673
3674
mevcut olan tek vinç odur.
14:04
Thank you.
253
844633
1153
Teşekkürler.
14:05
(Applause)
254
845810
3904
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7