Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Anna Kowalczyk Korekta: Marta Rytwinska
00:12
So, I started my first job as a computer programmer
0
12739
4122
Zaczęłam pracować jako programistka na pierwszym roku studiów,
00:16
in my very first year of college --
1
16885
1956
00:18
basically, as a teenager.
2
18865
1507
jeszcze jako nastolatka.
00:20
Soon after I started working,
3
20889
1732
Niedługo później zaczęłam pracować dla firmy tworzącej oprogramowania.
00:22
writing software in a company,
4
22645
1610
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
Pewnego razu jeden z managerów podszedł do mnie i wyszeptał:
00:28
and he whispered to me,
6
28458
1268
"Czy on wie kiedy kłamię?".
00:30
"Can he tell if I'm lying?"
7
30229
2861
00:33
There was nobody else in the room.
8
33806
2077
Byliśmy sami w pokoju.
"Niby kto ma wiedzieć kiedy kłamiesz?
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
I dlaczego szepczemy?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
Manager wskazał na komputer.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Czy on wie kiedy kłamię?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Ten menadżer miał romans z recepcjonistką.
00:53
(Laughter)
13
53999
1112
(Śmiech)
00:55
And I was still a teenager.
14
55135
1766
Byłam nastolatką, więc odkrzyknęłam szeptem:
00:57
So I whisper-shouted back to him,
15
57447
2019
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Tak, komputer wie kiedy kłamiesz!".
01:03
(Laughter)
17
63138
1806
(Śmiech)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Wtedy się z tego śmiałam, ale teraz można śmiać się ze mnie.
01:07
Nowadays, there are computational systems
19
67915
3268
Obecnie istnieją programy, które potrafią ropoznawać
01:11
that can suss out emotional states and even lying
20
71207
3548
stany emocjonalne i kłamstwo na podstawie zdjęć twarzy.
01:14
from processing human faces.
21
74779
2044
Spece od marketingu i organy rządowe wyrażają zainteresowanie.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Zostałam programistką, bo od dziecka uwielbiałam matematykę i naukę.
01:22
I had become a computer programmer
23
82319
1862
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
Dowiedziawszy się o broni jądrowej, przejęłam się kwestią etyki w nauce.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Byłam w kropce.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Ze względu na sytuację rodzinną musiałam jak najszybciej zacząć pracować.
01:37
I also needed to start working as soon as possible.
29
97943
3298
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Pomyślałam, że wybiorę dziedzinę, w której łatwo znajdę pracę
01:44
where I can get a job easily
31
104588
1796
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
i nie będę musiała myśleć o zawiłych kwestiach etycznych.
Wybrałam informatykę.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Śmiech)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Ha, ha, ha. Można się ze mnie nabijać.
Programiści tworzą platformy, które kontrolują to,
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
co każdego dnia widzą miliardy ludzi.
Tworzą samochody, mogące zdecydować, kogo przejechać.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Tworzą nawet broń mechaniczną, która mogłaby być użyta w czasie wojny.
02:09
They're even building machines, weapons,
39
129707
3213
02:12
that might kill human beings in war.
40
132944
2285
To są od początku do końca kwestie etyczne.
02:15
It's ethics all the way down.
41
135253
2771
Sztuczna inteligencja to rzeczywistość.
02:19
Machine intelligence is here.
42
139183
2058
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Korzystamy z obliczeń komputerowych do podejmowania różnych decyzji,
02:25
but also new kinds of decisions.
44
145321
1886
również decyzji nowego rodzaju.
Próbujemy z pomocą komputerów, uzyskać odpowiedzi na pytania,
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
na które nie ma jednej dobrej odpowiedzi,
02:32
that are subjective
46
152427
1202
które są subiektywne, otwarte i wartościujące.
02:33
and open-ended and value-laden.
47
153653
2325
Pytamy: "Kogo powinno się zatrudnić?
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
Który i czyj post dana osoba powinna zobaczyć?
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
Który skazaniec prawdopodobnie popełni kolejne przestępstwo?
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
Jaka informacja lub film powinny być zarekomendowane widowni?".
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Używamy komputerów od lat, ale to są kwestie innego rodzaju.
02:51
but this is different.
54
171988
1517
02:53
This is a historical twist,
55
173529
2067
To jest historyczna zmiana,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
bo nie możemy powiązać obliczeń z tak subiektywnymi kwestiami,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
w taki sam sposób gdy w grę wchodzi
latanie samolotami, budowa mostów i wyprawy na Księżyc.
03:06
going to the moon.
58
186425
1259
Czy samoloty są bezpieczniejsze?
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Czy mosty chwieją się i walą?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Dla takich spraw mamy jasne standardy i prawa natury, które wskazują drogę.
03:16
and we have laws of nature to guide us.
61
196254
2239
03:18
We have no such anchors and benchmarks
62
198517
3394
Nie mamy takich standardów dla decyzji w pogmatwanych ludzkich sprawach.
03:21
for decisions in messy human affairs.
63
201935
3963
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Tymczasem, oprogramowanie staje się coraz potężniejsze,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
ale również coraz mniej przejrzyste i bardziej złożone.
W ciągu ostatnich dziesięcioleci skomplikowane algorytmy
03:34
Recently, in the past decade,
66
214542
2040
03:36
complex algorithms have made great strides.
67
216606
2729
dokonały milowego kroku do przodu.
03:39
They can recognize human faces.
68
219359
1990
Potrafią rozpoznawać twarze,
03:41
They can decipher handwriting.
69
221985
2055
odczytywać odręczne pismo,
wykrywać kradzieże na kartach kredytowych,
03:44
They can detect credit card fraud
70
224436
2066
03:46
and block spam
71
226526
1189
blokować spam, tłumaczyć teksty,
03:47
and they can translate between languages.
72
227739
2037
03:49
They can detect tumors in medical imaging.
73
229800
2574
wykryć guz w obrazowaniu medycznym
03:52
They can beat humans in chess and Go.
74
232398
2205
i pokonać człowieka w szachy.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Większą część tego postępu zawdzięczamy metodzie
zwanej "samouczeniem maszyn".
04:00
Machine learning is different than traditional programming,
76
240175
3187
Samouczenie maszyn różni się od klasycznego programowania,
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
w którym wydaje się komputerowi dokładną i szczegółową instrunkcję.
Polega bardziej na wprowadzaniu dużej ilości danych do systemu,
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
04:11
including unstructured data,
79
251584
1656
również danych przypadkowych, takich jakie generujemy w sieci.
04:13
like the kind we generate in our digital lives.
80
253264
2278
System uczy się, przedzierając się przez te dane.
04:15
And the system learns by churning through this data.
81
255566
2730
04:18
And also, crucially,
82
258669
1526
Najistotniejszy jest fakt, że te systemy
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
nie pracują zgodnie z logiką jednoznacznych odpowiedzi.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Nie dają prostej odpowiedzi, tylko określają prawdopodobieństwo:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"To jest być może bardziej podobne, do tego czego szukasz".
Plusem jest to, że ta metoda ma bardzo duży potencjał.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Szef systemów sztucznej inteligencji Google
04:35
The head of Google's AI systems called it,
87
275117
2076
nazwał tę metodę "nieuzasadnioną skutecznością danych".
04:37
"the unreasonable effectiveness of data."
88
277217
2197
04:39
The downside is,
89
279791
1353
Minusem jest to, że nie rozumiemy, czego nauczył się system
04:41
we don't really understand what the system learned.
90
281738
3071
04:44
In fact, that's its power.
91
284833
1587
i to właśnie stanowi jego siłę.
04:46
This is less like giving instructions to a computer;
92
286946
3798
To nie przypomina wydawania instrukcji komputerowi.
Przypomina raczej trenowanie mechanicznego szczeniaczka,
04:51
it's more like training a puppy-machine-creature
93
291200
4064
którego nie rozumiemy i nie potrafimy kontrolować.
04:55
we don't really understand or control.
94
295288
2371
04:58
So this is our problem.
95
298362
1551
I to jest problem.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Problem pojawia się, gdy ta sztuczna inteligencja się myli.
Problem pojawia się również wtedy, gdy ma rację,
05:04
It's also a problem when it gets things right,
97
304713
3540
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
ponieważ nie umiemy tego rozróżnić w przypadku subiektywnej kwestii.
05:11
We don't know what this thing is thinking.
99
311929
2339
Nie mamy pojęcia, co ten system sobie myśli.
05:15
So, consider a hiring algorithm --
100
315493
3683
Rozważmy algorytm odpowiedzialny za rekrutację pracowników.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Algorytm rekrutujący oparty na metodzie samouczenia się maszyn.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Taki system byłby oparty na danych pracowników danej firmy
05:28
and instructed to find and hire
103
328655
2591
i miałby zatrudniać ludzi o takim profilu jak obecni najwydajniejsi pracownicy.
05:31
people like the existing high performers in the company.
104
331270
3038
05:34
Sounds good.
105
334814
1153
Brzmi nieźle.
05:35
I once attended a conference
106
335991
1999
Byłam raz na konferencji, na której obecne były także osoby
05:38
that brought together human resources managers and executives,
107
338014
3125
zajmujące się rekrutacją, managerowie i dyrektorzy używający takich systemów.
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
Wszyscy byli zachwyceni.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Sądzili, że dzięki temu zatrudnianie stanie się bardziej obiektywne,
mniej tendencyjne i gwarantujące kobietom i przedstawicielom mniejszości
05:50
and give women and minorities a better shot
112
350323
3000
większe szanse zatrudnienia wobec tendencyjnych decyzji managerów.
05:53
against biased human managers.
113
353347
2188
05:55
And look -- human hiring is biased.
114
355559
2843
Ludzkie decyzje dotyczące zatrudnienia są stronnicze.
05:59
I know.
115
359099
1185
W jednej z moich pierwszych prac, moja bezpośrednia przełożona
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
czasem przychodziła do mnie bardzo wcześnie rano
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
lub bardzo późnym popołudniem i mówiła: "Chodźmy na lunch!".
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
Byłam zaskoczona dziwną porą,
06:14
I'd be puzzled by the weird timing.
120
374724
2167
06:16
It's 4pm. Lunch?
121
376915
2129
ale byłam też spłukana, więc zawsze się zgadzałam.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Później zorientowałam się o co chodziło.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Moi bezpośredni przełożeni nie przyznali się swoim szefom,
że do poważnej roboty zatrudnili programistę-nastolatkę,
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
06:32
who wore jeans and sneakers to work.
126
392416
3930
noszącą jeansy i trampki do pracy.
Robiłam dobrą robotę, ale wyglądałam nie tak,
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
byłam w nieodpowiednim wieku i nieodpowiedniej płci.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Popieram zatrudnianie bez uwzględniania płci czy rasy.
06:44
certainly sounds good to me.
130
404493
1865
Ale w przypadku tych systemów to wszystko jest bardziej skomplikowane.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Obecnie, te systemy mogą wyciągnąć wiele wniosków
na podstawie strzępów elektronicznej informacji,
06:56
from your digital crumbs,
133
416783
1872
06:58
even if you have not disclosed those things.
134
418679
2333
nawet jeśli te informacje nie są jawne.
07:01
They can infer your sexual orientation,
135
421506
2927
Mogą wnioskować na temat orientacji seksualnej,
07:04
your personality traits,
136
424994
1306
cech osobowości, przekonań politycznych.
07:06
your political leanings.
137
426859
1373
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Te przewidywania są niezwykle trafne.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Pamiętajcie - te przewidywania dotyczą spraw, których nawet nie ujawniliście.
07:15
This is inference.
140
435964
1591
07:17
I have a friend who developed such computational systems
141
437579
3261
Moja przyjaciółka stworzyła system tego rodzaju, aby przewidywać
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
prawdopodobieństwo zapadnięcia na depresję kliniczną lub poporodową
na podstawie danych zaczerpniętych z serwisów społecznościowych.
07:24
from social media data.
143
444529
1416
07:26
The results are impressive.
144
446676
1427
Wyniki są imponujące.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Jej system potrafi przewidzieć prawdopodobieństwo
wystąpienia depresji miesiące przed wystąpieniem jakichkolwiek objawów.
07:31
months before the onset of any symptoms --
146
451873
3903
07:35
months before.
147
455800
1373
Miesiące przed. Nie ma objawów, jest przewidywanie.
07:37
No symptoms, there's prediction.
148
457197
2246
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Moja przyjaciółka ma nadzieję, że system posłuży wczesnemu leczeniu.
Wspaniale.
07:44
But now put this in the context of hiring.
150
464911
2040
Ale spójrzmy na to w kontekście zatrudniania.
Na tamtej konferencji podeszłam do jednej wysokopostawionej managerki
07:48
So at this human resources managers conference,
151
468027
3046
07:51
I approached a high-level manager in a very large company,
152
471097
4709
pracującej dla jednej z wielkich firm i powiedziałam:
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
"Co jeśli twój system za twoimi plecami wyklucza osoby
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
o większym prawdopodobieństwie zachorowania na depresję?
Nie mają depresji teraz, ale być może w przyszłości.
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Co jeśli wyklucza kobiety, które prawdopodobnie za rok lub dwa
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
mogą być w ciąży, ale teraz nie są?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Co jeśli zatrudnia osoby agresywne,
bo to odpowiada kulturze pracy w waszej firmie?".
Nie można tego stwierdzić patrząc na zestawienia pracowników
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
pod względem płci; te mogą się równoważyć.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Ponieważ to jest uczenie maszynowe a nie klasyczne programowanie,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
nie ma zmiennych podpisanych: "depresja" "ciąża" lub "wysoki poziom agresji".
08:37
"higher risk of pregnancy,"
163
517926
1833
08:39
"aggressive guy scale."
164
519783
1734
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Nie znasz kryteriów, na podstawie których twój system dokonuje wyboru.
08:45
you don't even know where to begin to look.
166
525698
2323
Nie wiesz nawet gdzie zacząć ich szukać.
To jest technologia czarnej skrzynki.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Potrafi przewidywać, ale nie rozumiesz jak działa.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"Jakie masz zabezpieczenia, żeby upewnić się,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
że twoja czarna skrzynka nie robi czegoś podejrzanego?"
Spojrzała na mnie jakbym nadepnęła na ogon szczeniaczkowi.
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
09:04
(Laughter)
172
544765
1248
(Śmiech)
Popatrzyła na mnie i powiedziała: "Ani słowa więcej".
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
09:13
And she turned around and walked away.
175
553458
2034
Odwróciła się i odeszła.
Uwaga - nie była niegrzeczna.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Ewidentnie chciała powiedzieć:
"Jeśli o czymś nie wiem, to nie jest mój problem, odejdź".
Na odchodne rzuciła mordercze spojrzenie.
09:23
(Laughter)
178
563906
1246
09:25
Look, such a system may even be less biased
179
565862
3839
(Śmiech)
Takie systemy mogą być mniej stronnicze niż managerowie.
09:29
than human managers in some ways.
180
569725
2103
09:31
And it could make monetary sense.
181
571852
2146
Mogą być również opłacalne.
09:34
But it could also lead
182
574573
1650
Ale mogą też prowadzić do stopniowego i niepostrzeżonego zamykania
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
rynku pracy dla osób z większym ryzykiem zachorowań na depresję.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Czy takie społeczeństwo chcemy budować, nie wiedząc nawet o tym, że to robimy,
09:46
without even knowing we've done this,
186
586373
2285
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
bo powierzamy proces decyzyjny systemom,
których do końca nie rozumiemy?
09:53
Another problem is this:
188
593265
1458
Kolejny problem: te systemy pracują na danych opartych na ludzkich działaniach
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
09:59
human imprints.
190
599790
1816
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Mogą po prostu odzwierciedlać nasze własne uprzedzenia,
wzmacniać je i zwracać w postaci wyniku,
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
10:10
and showing them back to us,
194
610974
1418
który będziemy interpretować jako obiektywne i neutralne obliczenia.
10:12
while we're telling ourselves,
195
612416
1462
10:13
"We're just doing objective, neutral computation."
196
613902
3117
Udowodniono, że wyszukiwarka Google
10:18
Researchers found that on Google,
197
618314
2677
rzadziej pokazuje kobietom dobrze płatne oferty pracy.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
A wyszukiwanie afroamerykańskich nazwisk
10:28
And searching for African-American names
199
628463
2530
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
jest skorelowane z ogłoszeniami sugerującymi kryminalną przeszłość,
10:35
even when there is none.
201
635747
1567
nawet jeśli takowej nie ma.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Tego typu ukryte uprzedzenia i algorytmy typu czarnej skrzynki,
które czasem odkrywamy, a czasem nie,
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
mogą diametralnie wpływać na ludzkie życie.
10:46
can have life-altering consequences.
204
646263
2661
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Pewien pozwany został skazany na 6 lat więzienia za ucieczkę przed policją.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Algorytmy są coraz częściej stosowane przy wydawaniu wyroków.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Mężczyzna chciał wiedzieć, jak ten wynik jest obliczany.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Używano komercyjnej czarnej skrzynki.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
Firma, która ją sprzedaje,
sprzeciwiła się zweryfikowaniu algorytmu podczas otwartej rozprawy.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Śledcza organizacja non-profit, ProPublica, zweryfikowała ten algorytm
11:17
with what public data they could find,
213
677952
2016
na podstawie publicznie dostępnych danych i dowiodła,
11:19
and found that its outcomes were biased
214
679992
2316
że generowane przez niego wyniki były stronnicze,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
a jego moc przewidywania niewielka, niewiele lepsza od losowej,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
a algorytm bezzasadnie wskazywał czarnoskórych oskarżonych
jako możliwych przyszłych przestępców dwukrotnie częściej niż białych.
11:30
at twice the rate of white defendants.
217
690425
3895
11:35
So, consider this case:
218
695891
1564
Kolejna sprawa: ta kobieta była spóźniona po odbiór chrześnicy ze szkoły.
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
11:44
running down the street with a friend of hers.
221
704757
2356
Biegła ulicą w towarzystwie przyjaciela i na jednym z ganków zauważyli
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
niezapięty rowerek dziecięcy i hulajnogę, na które bezmyślnie wskoczyli.
11:51
and foolishly jumped on it.
223
711260
1632
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Gdy odjeżdżali, z domu wybiegła kobieta krzycząc: "To rowerek mojego dziecka!".
11:55
"Hey! That's my kid's bike!"
225
715539
2205
Zostawili rower i hulajnogę i odeszli, ale zostali aresztowani.
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Dziewczyna postąpiła głupio i źle, ale miała tylko 18 lat.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Miała już na koncie kilka młodzieńczych wykroczeń.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
W tym samym czasie aresztowano mężczyznę za kradzież towarów o wartości 85 dolarów,
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
równie niewielkie wykroczenie.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Ale on już wcześniej był dwukrotnie skazany za napad z bronią.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Algorytm przypisał jej większe ryzyko ponownego popełnienia przestępstwa.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Dwa lata później, ProPublica odkryła, że kobieta nie popełniła więcej wykroczeń,
miała tylko problemy ze znalezieniem pracy z taką historią wykroczeń.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
12:33
He, on the other hand, did reoffend
235
753218
2076
Mężczyzna natomiast odsiadywał ośmioletni wyrok
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
za przestępstwo, którego dopuścił się ponownie.
Jest jasne, że musimy dokonywać rewizji czarnych skrzynek
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
i ograniczać ich niekontrolowaną władzę.
12:46
(Applause)
239
766120
2879
(Brawa)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Rewizje są dobre i potrzebne, ale nie rozwiążą wszystkich problemów.
Spójrzmy na algorytm Facebooka, który nadaje wszystkiemu jakąś wagę
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
i decyduje o tym, co powinniście zobaczyć
13:01
from all the friends and pages you follow.
243
781992
2284
spośród tego wszystkiego, co publikują wasi znajomi.
13:04
Should you be shown another baby picture?
244
784898
2275
Czy trzeba zobaczyć kolejne zdjęcie bobasa?
13:07
(Laughter)
245
787197
1196
(Śmiech)
13:08
A sullen note from an acquaintance?
246
788417
2596
Ponury post jednego ze znajomych?
Ważną i trudną informację?
13:11
An important but difficult news item?
247
791449
1856
Nie ma jednej dobrej odpowiedzi.
13:13
There's no right answer.
248
793329
1482
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook ocenia liczbę reakcji: komentarze, udostępnienia, polubienia.
13:17
likes, shares, comments.
250
797518
1415
W sierpniu 2014 roku w Missouri wybuchł protest po śmierci
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
afroamerykańskiego nastolatka zabitego przez białego policjanta
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
w niejasnych okolicznościach.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
Wiadomości na ten temat zalały mój niefiltrowany profil na Tweeterze,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
ale nie było ich na moim Facebooku.
Czyżby moi znajomi o tym nie rozmawiali?
13:39
Was it my Facebook friends?
258
819182
1734
13:40
I disabled Facebook's algorithm,
259
820940
2032
Zablokowałam algorytm Facebooka, co jest trudne,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
bo Facebook dąży do tego, żeby nas kontrolować
13:46
come under the algorithm's control,
261
826344
2036
i zobaczyłam, że przyjaciele rozmawiali o tej sprawie.
13:48
and saw that my friends were talking about it.
262
828404
2238
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Po prostu ja tego nie widziałam, bo Facebook mi tego nie pokazywał.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Okazało się, że to rozległy problem.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Ta historia nie była wysoko oceniona przez algorytm.
Niełatwo ją "polubić".
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
14:03
It's not even easy to comment on.
268
843500
2206
Nie jest nawet łatwo ją skomentować.
14:05
Without likes and comments,
269
845730
1371
Bez lajków i komentarzy algorytm prawdopodobnie pokazywał
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
tę informację coraz mniejszej ilości osób i dlatego jej nie widzieliśmy.
14:10
so we didn't get to see this.
271
850441
1542
14:12
Instead, that week,
272
852946
1228
Równocześnie algorytm Facebooka wypromował Ice Bucket Challenge.
14:14
Facebook's algorithm highlighted this,
273
854198
2298
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
Szlachetna sprawa: oblej się zimną wodą, ofiaruj pieniądze, super.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
14:22
But it was super algorithm-friendly.
276
862536
1904
To było wysoko ocenione przez algorytm.
14:25
The machine made this decision for us.
277
865219
2613
Maszyna podjęła za nas decyzję.
14:27
A very important but difficult conversation
278
867856
3497
Bardzo ważna lecz trudna dyskusja mogła zostać wyciszona,
14:31
might have been smothered,
279
871377
1555
14:32
had Facebook been the only channel.
280
872956
2696
gdyby Facebook był jedynym medium.
Te systemy mogą się też mylić w sposób,
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
który nie przypomina ludzkich błędów.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Pamiętacie Watsona, system sztucznej inteligencji IBM,
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
który zmiażdżył uczestników konkursu wiedzy Jeopardy?
14:49
It was a great player.
285
889131
1428
To był świetny gracz.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Ale w finałowym odcinku padło pytanie:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Największe lotnisko tego miasta nosi nazwę bohatera
14:57
its second-largest for a World War II battle."
288
897615
2252
drugiej co do wielkości bitwy podczas II wojny światowej".
14:59
(Hums Final Jeopardy music)
289
899891
1378
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
Dwóch uczestników-ludzi odpowiedziało poprawnie.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson odpowiedział "Toronto" w kategorii dotyczącej miast w USA.
15:09
for a US city category!
293
909069
1818
Ten imponujący system zrobił błąd,
15:11
The impressive system also made an error
294
911596
2901
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
którego żaden człowiek by nie popełnił, nawet drugoklasista.
Sztuczna inteligencja może zawieść w sposób,
15:18
Our machine intelligence can fail
296
918823
3109
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
który nie przypomina ludzkich pomyłek,
którego się nie spodziewamy, i na który nie będziemy gotowi.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Byłoby głupio nie dostać pracy, na którą się zasługuje,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
ale byłoby potrójnie beznadziejnie, gdyby to się stało
z powodu nadmiaru danych w jakimś podprogramie.
15:35
in some subroutine.
301
935467
1432
15:36
(Laughter)
302
936923
1579
(Śmiech)
15:38
In May of 2010,
303
938526
2786
W maju 2010 roku krach giełdy na Wall Street
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
wzmocniony sprzężeniem zwrotnym algorytmu "sprzedaży"
15:45
in Wall Street's "sell" algorithm
305
945404
3028
doprowadził do zniknięcia trylionów dolarów w 36 minut.
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
15:53
I don't even want to think what "error" means
307
953722
2187
Nie chcę nawet myśleć, co taka "pomyłka" oznaczałaby
15:55
in the context of lethal autonomous weapons.
308
955933
3589
w przypadku automatycznej broni śmiercionośnej.
16:01
So yes, humans have always made biases.
309
961894
3790
Tak, ludzie są stronniczy.
16:05
Decision makers and gatekeepers,
310
965708
2176
Ludzie podejmujący decyzje w sądach, mediach, na wojnie... popełniają błędy.
16:07
in courts, in news, in war ...
311
967908
3493
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
Ale o tym właśnie mówię.
16:14
We cannot escape these difficult questions.
313
974487
3521
Nie możemy uciec od tych trudnych kwestii.
Nie możemy zrzucić naszej odpowiedzialności na maszyny.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
16:22
(Applause)
315
982676
4208
(Brawa)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
Sztuczna inteligencja nie zwalnia nas z myślenia etycznego.
Fred Benenson, specjalista od danych, nazywał to "matematycznym praniem mózgu".
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Potrzebujemy czegoś odwrotnego.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Musimy rozwijać w sobie sceptycyzm wobec algorytmów
i daleko posuniętą ostrożność oraz dokładność w ich badaniu.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Musimy mieć pewność, że mamy algorytmiczną odpowiedzialność,
16:48
auditing and meaningful transparency.
321
1008602
2445
rewizję i sensowną przejrzystość.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Musimy zaakceptować, że wprowadzenie matematyki i obliczeń
16:54
to messy, value-laden human affairs
323
1014638
2970
do zawikłanych i wymagających wartościowania ludzkich spraw
16:57
does not bring objectivity;
324
1017632
2384
nie wprowadza obiektywizacji.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Przeciwnie: komplikacja ludzkich spraw
najedzie algorytmy.
17:04
Yes, we can and we should use computation
326
1024148
3487
Można i trzeba korzystać z obliczeń,
17:07
to help us make better decisions.
327
1027659
2014
aby móc podejmować lepsze decyzje.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Ale trzeba uznać moralną odpowiedzialność
za podejmowanie decyzji i używać algorytmów w jej granicach,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
a nie jako środek do zrzeczenia się i odrzucenia tej odpowiedzialności.
17:22
to one another as human to human.
331
1042854
2454
17:25
Machine intelligence is here.
332
1045807
2609
Sztuczna inteligencja jest faktem.
17:28
That means we must hold on ever tighter
333
1048440
3421
To oznacza, że tym mocniej musimy trzymać się ludzkich wartości i etyki.
17:31
to human values and human ethics.
334
1051885
2147
Dziękuję
17:34
Thank you.
335
1054056
1154
(Brawa)
17:35
(Applause)
336
1055234
5020
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7