Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Peter Balla Lektor: Péter Pallós
00:12
So, I started my first job as a computer programmer
0
12739
4122
Az első munkám számítógép-programozás volt
00:16
in my very first year of college --
1
16885
1956
a főiskola legelső évében,
00:18
basically, as a teenager.
2
18865
1507
amit még tizenévesként kezdtem.
00:20
Soon after I started working,
3
20889
1732
Kezdésem után nem sokkal
00:22
writing software in a company,
4
22645
1610
szoftvereket írtam egy cégnek,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
amikor a cég egyik főnök odajött hozzám,
00:28
and he whispered to me,
6
28458
1268
és suttogva megkérdezte:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Ő tudja-e, ha hazudok?"
00:33
There was nobody else in the room.
8
33806
2077
Senki más nem volt a szobában.
"Kicsoda tudja-e, ha hazudsz? És miért suttogunk?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
A főnök a szobában lévő számítógépre mutatott.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Ő tudja-e, ha hazudok?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Hát, ennek a főnöknek viszonya volt a recepcióssal.
00:53
(Laughter)
13
53999
1112
(Nevetés)
És én még csak tizenéves voltam.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
Hangosan visszasuttogtam:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Igen, a számítógép tudja, mikor hazudsz."
(Nevetés)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Kinevettem, de igazából engem kellene kinevetni.
01:07
Nowadays, there are computational systems
19
67915
3268
Manapság olyan számítógépes rendszerek vannak,
01:11
that can suss out emotional states and even lying
20
71207
3548
amelyek kiszimatolják az érzelmi állapotot, sőt a hazugságot is
01:14
from processing human faces.
21
74779
2044
az emberi arc tanulmányozásából.
01:17
Advertisers and even governments are very interested.
22
77248
4153
A reklámozók és a hatóságok is erősen érdeklődnek irántuk.
01:22
I had become a computer programmer
23
82319
1862
Azért lettem számítógép-programozó,
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
mert gyerekként megőrültem a matekért és a tudományért.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
De valamikor később tudomást szereztem a nukleáris fegyverekről,
és komolyan aggódni kezdtem a tudomány etikájáért.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Zavarban voltam.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Ám családi körülményeim miatt
01:37
I also needed to start working as soon as possible.
29
97943
3298
minél hamarabb munkába kellett állnom.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Úgyhogy azt gondoltam magamban: választok egy műszaki területet,
01:44
where I can get a job easily
31
104588
1796
ahol könnyen találok munkát,
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
és ahol nem kell foglalkoznom semmilyen zavaró etikai kérdéssel.
A számítógépeket választottam.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Nevetés)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Hát, ha-ha-ha! Ki lehet engem nevetni.
Manapság az informatikusok olyan felületeket építenek,
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
amelyek azt irányítják, amit egymilliárd ember naponta lát.
Autókat fejlesztenek, amelyek eldönthetik, kit ütnek el.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Sőt, gépeket és fegyvereket gyártanak,
02:12
that might kill human beings in war.
40
132944
2285
amelyek háborúban embereket ölhetnek meg.
02:15
It's ethics all the way down.
41
135253
2771
Etika végestelen végig.
02:19
Machine intelligence is here.
42
139183
2058
A gépi intelligencia megérkezett.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Ma a számítástechnikát mindenféle döntésre használjuk,
02:25
but also new kinds of decisions.
44
145321
1886
újfajta döntésekre is.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Olyan kérdéseket teszünk fel a gépeknek, amelyekre nincs egyetlen helyes válasz,
02:32
that are subjective
46
152427
1202
szubjektív,
02:33
and open-ended and value-laden.
47
153653
2325
nyitott és fontos kérdéseket.
Ilyen kérdéseket teszünk fel:
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
„Kit alkalmazzon a cég?”,
„Melyik ismerős melyik frissítését mutassuk meg neked?”,
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
„Melyik elítéltről valószínűbb, hogy újból bűnözik?”,
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
„Melyik hírt vagy mozifilmet ajánljuk az embereknek?”
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Már használjuk egy ideje a számítógépeket,
02:51
but this is different.
54
171988
1517
de ez most más.
02:53
This is a historical twist,
55
173529
2067
Ez történelmi fordulat,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
mert a számítástechnikát nem tudjuk úgy kötni e szubjektív döntésekhez,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
ahogy összekapcsoljuk a légi közlekedéssel, a hídépítéssel,
03:06
going to the moon.
58
186425
1259
a holdra szállással.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Biztonságosabbak a repülőgépek? Kilengett és összedőlt a híd?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Ott vannak egyeztetett, elég világos viszonyítási alapjaink,
03:16
and we have laws of nature to guide us.
61
196254
2239
és a természet törvényei irányítanak.
03:18
We have no such anchors and benchmarks
62
198517
3394
A zűrös emberi viszonyokra vonatkozó döntésekhez
03:21
for decisions in messy human affairs.
63
201935
3963
nincsenek ilyen kapcsolódási és viszonyítási pontjaink.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Hogy bonyolítsa a dolgokat, szoftverünk egyre erősebb,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
ugyanakkor kevésbé átlátható és egyre bonyolultabb lesz.
03:34
Recently, in the past decade,
66
214542
2040
Nemrég, az elmúlt évtizedben,
03:36
complex algorithms have made great strides.
67
216606
2729
a komplex algoritmusok nagyot léptek előre.
03:39
They can recognize human faces.
68
219359
1990
Emberi arcokat ismernek fel.
03:41
They can decipher handwriting.
69
221985
2055
Kézírást silabizálnak ki.
03:44
They can detect credit card fraud
70
224436
2066
Hitelkártyacsalásokat ismernek fel,
03:46
and block spam
71
226526
1189
spamet szűrnek ki,
03:47
and they can translate between languages.
72
227739
2037
és egyik nyelvről a másikra fordítanak.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Az orvosi képalkotásban daganatokat ismernek fel.
03:52
They can beat humans in chess and Go.
74
232398
2205
Megverik az embert sakkban és ban.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
A haladás zöme az ún. „gépi tanulás” módszerének köszönhető.
A gépi tanulás különbözik a hagyományos programozástól,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
ahol a számítógépnek részletes, pontos, precíz utasításokat adunk.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Inkább olyan, hogy egy rendszerbe beletöltünk egy csomó adatot,
04:11
including unstructured data,
79
251584
1656
strukturálatlan adatokat is,
04:13
like the kind we generate in our digital lives.
80
253264
2278
amilyeneket digitális életünk hoz létre.
04:15
And the system learns by churning through this data.
81
255566
2730
A rendszer az adatok átfésüléséből tanul.
04:18
And also, crucially,
82
258669
1526
Még egy alapvető dolog:
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
e rendszerek nem az egyetlen válasz logikáját követik.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Nem egy egyszerű választ szűrnek le, inkább valószínűséget:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
„Ez inkább hasonlít arra, amit keresel.”
A jó dolog ebben az, hogy a módszer valóban hatásos.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
A Google MI-rendszer vezetője így nevezte:
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
„az adatok észszerűtlen hatékonysága”.
04:39
The downside is,
89
279791
1353
A hátránya,
04:41
we don't really understand what the system learned.
90
281738
3071
hogy nemigen értjük, mit tanult a rendszer.
04:44
In fact, that's its power.
91
284833
1587
Valójában ez az erőssége.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Ez nem olyan, mint amikor utasításokat adunk egy számítógépnek,
04:51
it's more like training a puppy-machine-creature
93
291200
4064
inkább olyan, mintha kiképeznénk egy gép-kutyus-szerű lényt,
04:55
we don't really understand or control.
94
295288
2371
akit nemigen értünk, és nem tudunk irányítani.
04:58
So this is our problem.
95
298362
1551
Ez a gondunk.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Gond, ha ez az MI-rendszer valamit elszúr.
05:04
It's also a problem when it gets things right,
97
304713
3540
Az is, ha nem szúrja el,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
mert nem is tudjuk, mi micsoda. ha szubjektív kérdésről van szó.
05:11
We don't know what this thing is thinking.
99
311929
2339
Nem tudjuk, mit gondol ez a dolog.
05:15
So, consider a hiring algorithm --
100
315493
3683
Vegyünk egy felvételi algoritmust,
azaz felvételre való rendszert, amely gépi tanulási rendszert használ.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
A rendszert az eddigi alkalmazottak adatain tanították be,
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
és arra utasították, hogy a cég jelenlegi
05:31
people like the existing high performers in the company.
104
331270
3038
jól teljesítő embereihez hasonlókat találjon és alkalmazzon.
05:34
Sounds good.
105
334814
1153
Jól hangzik.
05:35
I once attended a conference
106
335991
1999
Részt vettem egyszer egy konferencián,
ahol humánerőforrás-ügyintézők és -vezetők gyűltek össze,
05:38
that brought together human resources managers and executives,
107
338014
3125
magas rangú emberek,
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
ők ilyeneket használtak felvételhez.
05:43
They were super excited.
110
343976
1646
Rendkívül izgatottak voltak.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Azt gondolták, hogy ez objektívabbá, pártatlanabbá teszi a felvételt,
05:50
and give women and minorities a better shot
112
350323
3000
és jobb esélyt ad nőknek és a kisebbségeknek
05:53
against biased human managers.
113
353347
2188
a részrehajló ügyintézőkkel szemben.
05:55
And look -- human hiring is biased.
114
355559
2843
De az emberek felvétele részrehajló.
Én tudom.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Az egyik korai munkahelyemen programozóként dolgoztam,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
és a kisfőnököm néha odajött hozzám
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
nagyon korán reggel vagy nagyon késő délután,
és azt mondta: „Zeynep, menjünk ebédelni!”
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Meglepett a fura időzítés.
06:16
It's 4pm. Lunch?
121
376915
2129
Délután négykor ebédeljünk?
Le voltam égve, ingyenes az ebéd... Mindig vele mentem.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Később rájöttem, mi történt.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Kisfőnökeim nem vallották be feletteseiknek,
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
hogy a komoly munkára felvett programozó egy tinilány,
06:32
who wore jeans and sneakers to work.
126
392416
3930
aki farmerben és surranóban jár munkába.
Jól dolgoztam, de nem néztem ki elég jól,
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
nem felelt meg a korom és a nemem.
Ezért egy nemtől és rassztól független felvétel
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
jól hangzik nekem.
De elmondom, hogy e rendszerekkel a helyzet ennél miért bonyolultabb,
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Ma már a számítógép-rendszerek mindenfélét ki tudnak következtetni rólunk
06:56
from your digital crumbs,
133
416783
1872
a digitális morzsáinkból,
06:58
even if you have not disclosed those things.
134
418679
2333
még akkor is, ha nem hoztuk nyilvánosságra őket.
07:01
They can infer your sexual orientation,
135
421506
2927
Ki tudják következtetni nemi orientációnkat,
07:04
your personality traits,
136
424994
1306
személyiségjegyeinket,
07:06
your political leanings.
137
426859
1373
politikai szimpátiáinkat.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Előrejelző erejük nagy fokú pontossággal párosul.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Figyelem: olyan dolgokról, amelyeket nem is közöltünk.
07:15
This is inference.
140
435964
1591
Ez a kikövetkeztetés.
07:17
I have a friend who developed such computational systems
141
437579
3261
Egyik barátnőm olyan számítógépes rendszereket fejlesztett,
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
amelyek előrejelzik a szülés utáni vagy a súlyos depresszió valószínűségét
07:24
from social media data.
143
444529
1416
a közösségi média adataiból.
07:26
The results are impressive.
144
446676
1427
Az eredmények lenyűgözőek.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Rendszere előrejelzi a depresszió valószínűségét
07:31
months before the onset of any symptoms --
146
451873
3903
hónapokkal a tünetek megjelenése előtt.
07:35
months before.
147
455800
1373
Hónapokkal előtte!
07:37
No symptoms, there's prediction.
148
457197
2246
Nincs még tünet, de előrejelzés már van.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Barátnőm reméli, hogy felhasználják majd a korai beavatkozáshoz. Nagyszerű!
07:44
But now put this in the context of hiring.
150
464911
2040
De nézzük ezt a felvételi szempontjából!
Az említett humánerőforrás-konferencián
07:48
So at this human resources managers conference,
151
468027
3046
odamentem az egyik óriási cég magas rangú vezetőjéhez,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
és megkérdeztem tőle: „M van, ha az ön tudta nélkül
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
rendszerük kiszűri azokat,
akiknél a depresszió jövőbeni valószínűsége nagy?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Mi van, ha kiszűri azokat, akik egy-két éven belül
valószínűleg teherbe esnek, de most nem terhesek?
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Mi van, ha agresszív embereket vesz fel, mert a munkahelyi kultúrába beleillenek?"
Ez nem derül ki a nemek szerinti bontásból.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Az lehet, hogy rendben van.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Mivel ez gépi tanulás, nem hagyományos kódolás,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
nincs „magas depressziókockázat”,
08:37
"higher risk of pregnancy,"
163
517926
1833
„magas terhességi kockázat”,
08:39
"aggressive guy scale."
164
519783
1734
„agresszív pasi skála” nevű változó.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Nemcsak azt nem tudjuk, mi alapján választ a rendszer,
08:45
you don't even know where to begin to look.
166
525698
2323
hanem azt sem, hol kezd el keresni.
Ez egy fekete doboz.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Előrejelző ereje van, de nem értjük.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
„Mi a biztosíték rá – kérdeztem,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
hogy a fekete doboz nem csinál valami kétes dolgot?”
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Úgy nézett rám, mintha megöltem volna a tanácselnököt.
09:04
(Laughter)
172
544765
1248
(Nevetés)
Bámult rám, majd azt mondta:
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
„Nem akarok erről hallani többet egy szót sem”.
09:13
And she turned around and walked away.
175
553458
2034
Sarkon fordult, és elment.
Megjegyezném: nem volt durva.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Világos volt: amiről nem tudok, az nem az én problémám, lelépek, bután nézek.
09:23
(Laughter)
178
563906
1246
(Nevetés)
09:25
Look, such a system may even be less biased
179
565862
3839
Egy ilyen rendszer, lehet, hogy kevésbé részrehajló,
09:29
than human managers in some ways.
180
569725
2103
mint bizonyos esetekben az ügyintézők.
09:31
And it could make monetary sense.
181
571852
2146
Pénzügyileg megérheti.
09:34
But it could also lead
182
574573
1650
De ahhoz vezethet,
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
hogy folyamatosan és alattomosan kizárja a munkaerőpiacról
a magas depressziókockázatúakat.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Ilyenfajta társadalmat akarunk építeni,
09:46
without even knowing we've done this,
186
586373
2285
még ha tudtunkon kívül is,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
csak mert olyan gépeknek adtuk át a döntéshozatalt, amelyeket nem is értünk?
09:53
Another problem is this:
188
593265
1458
Egy másik nehézség:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
a rendszerek tanítása gyakran tetteinkből létrehozott adatokkal,
09:59
human imprints.
190
599790
1816
emberi lenyomatokkal történik.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Lehet, hogy ezek tükrözik részrehajlásunkat,
és a rendszerek eltanulják őket,
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
felerősítik,
10:10
and showing them back to us,
194
610974
1418
és visszatükrözik nekünk,
10:12
while we're telling ourselves,
195
612416
1462
miközben azt mondjuk magunknak
10:13
"We're just doing objective, neutral computation."
196
613902
3117
„Mi csak objektív, semleges számítástechnikát gyakorlunk.”
10:18
Researchers found that on Google,
197
618314
2677
Kutatók kimutatták, hogy a Google nőknek kisebb valószínűséggel mutat
jól fizetett állásokról szóló hirdetéseket, mint férfiaknak.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
Ha afroamerikai nevekre keresünk,
gyakrabban hoz fel büntetett előéletet sejtető reklámokat,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
akkor is, ha nincs ilyenről szó.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Az ilyen rejtett részrehajlásokat és „fekete doboz” algoritmusokat
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
olykor felfedik a kutatók, de néha nem tudunk róluk,
10:46
can have life-altering consequences.
204
646263
2661
pedig következményeik megváltoztathatják az életet.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Wisconsinban egy vádlottat hat év börtönre ítéltek,
mert kijátszotta a rendőröket.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Tán nem tudják: szabadlábra helyezési
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
és büntetési döntésekhez egyre gyakrabban használnak algoritmust.
Ez az ember meg akarta tudni, hogyan számítják a pontszámot.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Ez egy kereskedelmi fekete doboz.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
A cég visszautasította, hogy nyilvános bíróság elé vigyék az algoritmusát.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
De a ProPublica nonprofit nyomozó szervezet auditálta az algoritmust
11:17
with what public data they could find,
213
677952
2016
a hozzáférhető nyilvános adatokkal,
11:19
and found that its outcomes were biased
214
679992
2316
és az eredményeket részrehajlónak találta,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
az előrejelző képességét pedig pocséknak, alig jobbnak a véletlennél,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
kétszer olyan gyakran jelölte hibásan leendő bűnözőnek a fekete,
11:30
at twice the rate of white defendants.
217
690425
3895
mint a fehér elítélteket.
11:35
So, consider this case:
218
695891
1564
Vegyünk egy másik esetet:
egy nőnek el kellett hoznia keresztlányát
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
az iskolából a floridai Broward megyében.
11:44
running down the street with a friend of hers.
221
704757
2356
Késésben volt, rohant az utcán a barátnőjével.
Egy tornácon lezáratlan gyerekbiciklit és rollert láttak meg,
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
meggondolatlanul felugrottak rá.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Ahogy elhajtottak, kijött egy nő, s azt kiáltotta:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
„Hé! Az a gyerek biciklije!”
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Eldobták, továbbmentek, de letartóztatták őket.
Rosszat tett, őrültség volt, de csak 18 éves volt.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Volt néhány fiatalkori kihágása.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Ugyanakkor letartóztattak egy férfit 85 dollár értékű áruházi lopásért,
ez egy hasonló kisebb vétség.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Volt viszont két korábbi ítélete fegyveres rablásért.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Az algoritmus mégis a nőt értékelte magas kockázatúnak, nem a férfit.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Két évvel később a ProPublica azt találta, hogy a nő nem követett el új vétséget.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Csak nehéz volt munkát találnia a priusza miatt.
12:33
He, on the other hand, did reoffend
235
753218
2076
A férfi viszont visszaeső volt,
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
és most nyolcéves büntetését tölti egy későbbi bűncselekmény miatt.
Világos, hogy auditálnunk kell a fekete dobozainkat,
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
s nem engedhetjük, hogy ilyen korlátlan hatalmuk legyen.
(Taps)
12:46
(Applause)
239
766120
2879
Az auditok nagyszerűek és fontosak, de nem oldják meg minden gondunkat.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Vegyük a Facebook hatásos hírválogató algoritmusát,
azt, amelyik mindent sorba rak, és eldönti, mit mutasson meg nekünk
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
az összes követett ismerős és oldal közül.
13:04
Should you be shown another baby picture?
244
784898
2275
Mutasson még egy kisbabás képet?
13:07
(Laughter)
245
787197
1196
(Nevetés)
13:08
A sullen note from an acquaintance?
246
788417
2596
Egy ismerős morcos megjegyzését?
13:11
An important but difficult news item?
247
791449
1856
Egy fontos, de fajsúlyos hírt?
13:13
There's no right answer.
248
793329
1482
Nincs helyes válasz.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
A Facebook az oldalon zajló tevékenységre optimalizál:
13:17
likes, shares, comments.
250
797518
1415
lájk, megosztás, komment.
2014 augusztusában
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
tüntetések törtek ki a Missouribeli Fergusonban,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
miután egy fehér rendőr lelőtt egy afroamerikai tinédzsert,
gyanús körülmények között.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
Tele volt a tüntetések híreivel
az algoritmussal nem szűrt Twitter-fiókom,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
de a Facebookon nem volt semmi.
13:39
Was it my Facebook friends?
258
819182
1734
A Facebook-ismerőseim az oka?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Kikapcsoltam a Facebook algoritmusát,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
ami nehéz, mert a Facebook azt akarja,
13:46
come under the algorithm's control,
261
826344
2036
hogy az algoritmus irányítson minket.
13:48
and saw that my friends were talking about it.
262
828404
2238
Láttam, hogy az ismerőseim beszélgetnek róla.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Csakhogy az algoritmus azt nem mutatta meg nekem.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Kutattam utána, és azt találtam, hogy ez egy elterjedt probléma.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
A fergusoni sztori nem volt szimpatikus az algoritmusnak.
Nem lájkolható.
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Ki fog a lájkra kattintani?
14:03
It's not even easy to comment on.
268
843500
2206
Még kommentelni sem könnyű.
14:05
Without likes and comments,
269
845730
1371
Lájkok és kommentek nélkül
az algoritmus egyre kisebb valószínűséggel mutatta egyre kevesebbeknek,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
így nem láthattuk meg.
14:12
Instead, that week,
272
852946
1228
Ehelyett azon a héten
14:14
Facebook's algorithm highlighted this,
273
854198
2298
a Facebook algoritmusa előtérbe helyezte
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
az ALS jeges vödör kihívást.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Nemes cél: önts magadra jeges vizet, és adakozz; rendben.
14:22
But it was super algorithm-friendly.
276
862536
1904
Ez szimpatikus volt az algoritmusnak.
14:25
The machine made this decision for us.
277
865219
2613
A gép ezt helyettünk döntötte el.
14:27
A very important but difficult conversation
278
867856
3497
Egy igen fontos, de nehéz beszélgetést
14:31
might have been smothered,
279
871377
1555
fojtott volna el,
14:32
had Facebook been the only channel.
280
872956
2696
ha a Facebook lett volna az egyetlen csatorna.
S végül, e rendszerek úgy is hibázhatnak,
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
ami nem hasonlít az emberi rendszerekre.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Emlékeznek a Watsonra, az IBM gépi intelligencia rendszerére,
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
amelyik felmosta a padlót a "Mindent vagy semmit" kvíz versenyzőivel?
Nagyszerű játékos volt.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
De az utolsó fordulóban a következő kérdést tették fel a Watsonnak:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
„Legnagyobb repterét egy II. világháborús hősről nevezték el,
14:57
its second-largest for a World War II battle."
288
897615
2252
a másodikat egy II. világháborús csatáról.”
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Dúdolja a kvíz zenéjét)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
A két ember eltalálta.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
A Watson válasza viszont Toronto volt –
az USA-város kategóriában!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
A lenyűgöző rendszer olyan hibát ejtett,
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
amilyet ember sosem tenne, egy másodikos gyerek sem.
15:18
Our machine intelligence can fail
296
918823
3109
A gépi intelligenciánk
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
olyan módon hibázhat, ami nem hasonlít az emberi hibamintákra,
olyan módon, amire nem számítunk, nem vagyunk rá felkészülve.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
Ronda dolog lenne lemaradni egy munkáról, amire megvan a képesítésünk,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
de háromszoros szívás lenne,
ha ezt egy szubrutinban túlcsordult verem okozná.
15:35
in some subroutine.
301
935467
1432
15:36
(Laughter)
302
936923
1579
(Nevetés)
15:38
In May of 2010,
303
938526
2786
2010 májusában
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
a Wall Street villámkrachja, amit a tőzsdei „eladási” algoritmus
15:45
in Wall Street's "sell" algorithm
305
945404
3028
visszacsatolási hurka okozott,
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
egybillió dollárnyi értéket tett semmivé 36 perc alatt.
15:53
I don't even want to think what "error" means
307
953722
2187
Bele sem akarok gondolni, mit jelent a „hiba”
15:55
in the context of lethal autonomous weapons.
308
955933
3589
az autonóm halálos fegyverekkel összefüggésben.
16:01
So yes, humans have always made biases.
309
961894
3790
Igen, az emberek mindig részrehajlók voltak.
16:05
Decision makers and gatekeepers,
310
965708
2176
Döntéshozók és kapuőrök
16:07
in courts, in news, in war ...
311
967908
3493
a bíróságokon, hírekben, háborúban...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
hibáznak; de éppen erről beszélek.
16:14
We cannot escape these difficult questions.
313
974487
3521
Nem szabadulhatunk meg e fogós kérdésektől.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Nem szervezhetjük ki felelősségünket gépekbe.
16:22
(Applause)
315
982676
4208
(Taps)
A mesterséges intelligencia nem ment föl az etikus gondolkodás alól.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Fred Benenson adatkutató „math-washing”-nak nevezi ezt.
Az ellenkezője szükséges.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Gyanakodnunk kell az algoritmusokra, és vizsgálnunk kell őket.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Gondoskodnunk kell róla, hogy az algoritmusok számon kérhetők,
16:48
auditing and meaningful transparency.
321
1008602
2445
auditálhatók és észszerűen átláthatók legyenek.
16:51
We need to accept that bringing math and computation
322
1011380
3234
El kell fogadnunk, hogy a matek és az informatika bevonása
16:54
to messy, value-laden human affairs
323
1014638
2970
a zavaros, értékeket hordozó emberi viszonyokba
16:57
does not bring objectivity;
324
1017632
2384
nem eredményez objektivitást;
ehelyett az emberi viszonyok komplexitása átitatja az algoritmust.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Igen, lehet és kell használnunk az informatikát,
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
hogy segítsen jobb döntéseket hozni.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
De ítéleteinkért az erkölcsi felelősséget nekünk kell viselnünk,
és az algoritmusokat azon keretek között kell használnunk,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
nem pedig arra, hogy lemondjunk az egymás iránti felelősségünkről,
17:22
to one another as human to human.
331
1042854
2454
és azt kiszervezzük.
17:25
Machine intelligence is here.
332
1045807
2609
A gépi intelligencia megérkezett.
17:28
That means we must hold on ever tighter
333
1048440
3421
Ez azt jelenti, hogy még szigorúbban kell ragaszkodnunk
17:31
to human values and human ethics.
334
1051885
2147
az emberi értékekhez és etikához.
Köszönöm.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(Taps) (Üdvrivalgás)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7