Machine intelligence makes human morals more important | Zeynep Tufekci

177,784 views ・ 2016-11-11

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Diana Elena Serban Corector: Claudia Pravat
Mi-am început primul job ca programator
în primul an de facultate,
practic, în adolescență.
00:12
So, I started my first job as a computer programmer
0
12739
4122
Curând după ce am început să lucrez,
scriind programe la o companie,
00:16
in my very first year of college --
1
16885
1956
un manager care lucra acolo a venit la mine
00:18
basically, as a teenager.
2
18865
1507
și mi-a șoptit:
00:20
Soon after I started working,
3
20889
1732
„Știe dacă mint?”
00:22
writing software in a company,
4
22645
1610
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
Nu mai era nimeni în încăpere.
00:28
and he whispered to me,
6
28458
1268
„Cine să știe dacă minți? Și de ce vorbim în șoaptă?”
00:30
"Can he tell if I'm lying?"
7
30229
2861
00:33
There was nobody else in the room.
8
33806
2077
Managerul a arătat spre calculatorul din cameră.
„Știe dacă mint?”
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
Acel manager avea o relație cu recepționista.
00:42
The manager pointed at the computer in the room.
10
42266
3107
00:45
"Can he tell if I'm lying?"
11
45397
3096
(Râsete)
Iar eu eram încă o adolescentă.
I-am strigat în șoaptă:
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
„Da, calculatorul știe dacă minți.”
00:53
(Laughter)
13
53999
1112
(Râsete)
00:55
And I was still a teenager.
14
55135
1766
Am râs, dar de fapt m-am înșelat.
00:57
So I whisper-shouted back to him,
15
57447
2019
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
Azi, există sisteme de calcul
care deduc stările emoționale și știu dacă minți,
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
prin simpla procesare a chipurilor umane.
01:07
Nowadays, there are computational systems
19
67915
3268
Companiile de publicitate și guvernele sunt foarte interesate.
01:11
that can suss out emotional states and even lying
20
71207
3548
Am devenit programator,
01:14
from processing human faces.
21
74779
2044
fiindcă eram unul din acei copii înnebuniți după matematică și știință.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Dar la un moment dat, am învățat despre armele nucleare
01:22
I had become a computer programmer
23
82319
1862
și m-am îngrijorat cu privire la etica științei.
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
Eram tulburată.
Totuși, din cauza situației familiale,
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
trebuia să încep să lucrez cât mai repede posibil.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
M-am gândit să aleg un domeniu tehnic,
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
unde să mă pot angaja ușor
01:37
I also needed to start working as soon as possible.
29
97943
3298
și să nu trebuiască să am de a face cu întrebări supărătoare de etică.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Așa că am ales informatica.
01:44
where I can get a job easily
31
104588
1796
(Râsete)
Ei, ha, ha, ha! M-am înșelat.
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
Azi, informaticienii construiesc platforme
01:51
So I picked computers.
33
111022
1529
care controlează ce văd un miliard de oameni zilnic.
01:52
(Laughter)
34
112575
1104
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Dezvoltă mașini care pot decide pe cine să calce.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
Construiesc chiar și mașinării, arme
care pot omorî oameni în război.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Totul se rezumă la etică.
02:09
They're even building machines, weapons,
39
129707
3213
Inteligența artificială e aici.
02:12
that might kill human beings in war.
40
132944
2285
Folosim acum calculul pentru a lua tot felul de decizii,
02:15
It's ethics all the way down.
41
135253
2771
dar și noi tipuri de decizii.
Punem întrebări calculatoarelor care nu au un singur răspuns corect,
02:19
Machine intelligence is here.
42
139183
2058
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
care sunt subiective,
02:25
but also new kinds of decisions.
44
145321
1886
cu răspuns nelimitat și relativ.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Punem întrebări ca:
„Pe cine ar trebui să angajăm?”
„Ce noutate și de la ce prieten ar trebui să vezi?”
02:32
that are subjective
46
152427
1202
02:33
and open-ended and value-laden.
47
153653
2325
„Ce condamnat are mai multe șanse să recidiveze?”
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
„Ce știre sau film ar trebui să recomandăm oamenilor?”
02:40
"Which update from which friend should you be shown?"
50
160096
2759
Folosim calculatoare de ceva timp,
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
dar asta e diferit.
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
E o răsturnare de situație importantă,
deoarece nu putem să ne bazăm pe calcul pentru astfel de decizii subiective,
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
02:51
but this is different.
54
171988
1517
așa cum o facem pentru pilotarea avioanelor, construirea de poduri,
02:53
This is a historical twist,
55
173529
2067
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
mersul pe lună.
Sunt avioanele mai sigure? S-a clătinat podul și a căzut?
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
Acolo am convenit asupra unor repere destul de clare
03:06
going to the moon.
58
186425
1259
și am lăsat legile naturii să ne ghideze.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Nu avem astfel de baze și repere
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
pentru deciziile în problemele umane dificile.
03:16
and we have laws of nature to guide us.
61
196254
2239
Pentru a complica și mai mult lucrurile, programul e din ce în ce mai puternic,
03:18
We have no such anchors and benchmarks
62
198517
3394
03:21
for decisions in messy human affairs.
63
201935
3963
dar mai puțin transparent și mult mai complex.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Recent, în ultimii zece ani,
algoritmii complecși au făcut mari progrese.
03:30
but it's also getting less transparent and more complex.
65
210183
3773
Pot recunoaște fețe umane.
Pot descifra scrisul de mână.
03:34
Recently, in the past decade,
66
214542
2040
Pot detecta frauda cu cardul de credit,
03:36
complex algorithms have made great strides.
67
216606
2729
pot bloca spamul
03:39
They can recognize human faces.
68
219359
1990
și pot traduce în alte limbi.
03:41
They can decipher handwriting.
69
221985
2055
Pot detecta tumori în imagistica medicală.
Îi pot bate pe oameni la șah și Go.
03:44
They can detect credit card fraud
70
224436
2066
03:46
and block spam
71
226526
1189
Majoritatea acestui progres vine dintr-o metodă numită „învățare automată”.
03:47
and they can translate between languages.
72
227739
2037
03:49
They can detect tumors in medical imaging.
73
229800
2574
Învățarea automată diferă de programarea tradițională,
03:52
They can beat humans in chess and Go.
74
232398
2205
unde poți da calculatorului indicații detaliate, exacte, minuțioase.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
E ca atunci când iei sistemul și îl alimentezi cu multe date,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
inclusiv date nestructurate,
ca cele pe care le generăm în viețile noastre digitale.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Iar sistemul învață prin parcurgerea acestor date.
De asemenea, e esențial
04:11
including unstructured data,
79
251584
1656
că aceste sisteme nu operează cu o logică bazată pe un singur răspuns.
04:13
like the kind we generate in our digital lives.
80
253264
2278
04:15
And the system learns by churning through this data.
81
255566
2730
Nu emit un răspuns simplu, se bazează mai mult pe probabilitate:
04:18
And also, crucially,
82
258669
1526
„Asta depășește probabil ce cauți tu.”
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
Avantajul e că această metodă chiar e puternică.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Directorul sistemelor AI Google i-a spus
04:27
"This one is probably more like what you're looking for."
85
267606
3483
„eficiența irațională a datelor”.
Dezavantajul este
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
că nu înțelegem ce a învățat sistemul.
04:35
The head of Google's AI systems called it,
87
275117
2076
De fapt, asta e puterea lui.
04:37
"the unreasonable effectiveness of data."
88
277217
2197
E mai puțin decât să dai instrucțiuni unui calculator;
04:39
The downside is,
89
279791
1353
04:41
we don't really understand what the system learned.
90
281738
3071
e ca și când ai antrena o creatură-cățeluș
04:44
In fact, that's its power.
91
284833
1587
04:46
This is less like giving instructions to a computer;
92
286946
3798
pe care nu o înțelegem și nu o controlăm.
Așa că asta e problema noastră.
04:51
it's more like training a puppy-machine-creature
93
291200
4064
E o problemă când acest sistem de inteligență artificială greșește.
04:55
we don't really understand or control.
94
295288
2371
E o problemă și când face lucrurile bine,
04:58
So this is our problem.
95
298362
1551
pentru că nici nu știm să deosebim atunci când e o problemă subiectivă.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Nu știm ce gândește chestia asta.
05:04
It's also a problem when it gets things right,
97
304713
3540
Gândiți-vă la un algoritm de angajare,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
05:11
We don't know what this thing is thinking.
99
311929
2339
un sistem utilizat să angajeze oameni, folosind sisteme de învățare automată.
05:15
So, consider a hiring algorithm --
100
315493
3683
Un astfel de sistem ar fi fost antrenat cu datele foștilor angajați
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
și instruit să găsească și să angajeze
oameni ca cei existenți, cu rezultate înalte în companie.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Sună bine.
Am fost odată la o conferință
05:28
and instructed to find and hire
103
328655
2591
care aducea împreună manageri și directori de resurse umane,
05:31
people like the existing high performers in the company.
104
331270
3038
oameni de nivel înalt,
care foloseau aceste sisteme la angajare.
05:34
Sounds good.
105
334814
1153
05:35
I once attended a conference
106
335991
1999
Erau foarte entuziasmați.
Credeau că asta face angajarea mai obiectivă, mai puțin părtinitoare,
05:38
that brought together human resources managers and executives,
107
338014
3125
05:41
high-level people,
108
341163
1206
și oferă femeilor și minorităților o șansă mai bună
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
împotriva managerilor umani ostili.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Angajarea umană e părtinitoare.
05:50
and give women and minorities a better shot
112
350323
3000
Știu.
La unul dintre primele mele joburi ca programator,
05:53
against biased human managers.
113
353347
2188
șefa mea directă venea la mine uneori
05:55
And look -- human hiring is biased.
114
355559
2843
foarte devreme dimineața sau foarte târziu după-amiaza
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
și-mi spunea: „Zeynep, hai să mâncăm!”
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
Mă nedumerea ora aleasă.
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
E 16:00. Prânz?
Nu aveam bani, masa era gratis, așa că mă duceam de fiecare dată.
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Mai târziu, am realizat ce se întâmpla.
06:16
It's 4pm. Lunch?
121
376915
2129
Șefii mei direcți nu le spuneau superiorilor lor
06:19
I was broke, so free lunch. I always went.
122
379068
3094
că programatorul pe care l-au angajat pentru un job serios era o adolescentă
06:22
I later realized what was happening.
123
382618
2067
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
care purta blugi și teniși la muncă.
Mereu făceam o treabă bună, doar că arătam neobișnuit
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
și aveam vârsta și genul greșit.
06:32
who wore jeans and sneakers to work.
126
392416
3930
Așa că angajarea bazată pe necunoașterea genului și a rasei
sună bine.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
Dar e mai complicat cu aceste sisteme și motivul e următorul:
06:39
and was the wrong age and gender.
128
399400
1699
06:41
So hiring in a gender- and race-blind way
129
401123
3346
În prezent, sistemele de calcul pot deduce tot felul de lucruri despre noi,
06:44
certainly sounds good to me.
130
404493
1865
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
de la urmele digitale,
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
chiar dacă nu ați dezvăluit acele lucruri;
pot deduce orientarea sexuală,
06:56
from your digital crumbs,
133
416783
1872
trăsăturile de personalitate,
06:58
even if you have not disclosed those things.
134
418679
2333
înclinațiile politice.
Au putere de predicție cu nivel ridicat de precizie.
07:01
They can infer your sexual orientation,
135
421506
2927
07:04
your personality traits,
136
424994
1306
Iar asta pentru lucruri pe care nici măcar nu le-ați dezvăluit.
07:06
your political leanings.
137
426859
1373
Asta e deducție.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Am o prietenă care a dezvoltat astfel de sisteme de calcul
care să prezică probabilitatea depresiei clinice sau postnatale
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
07:15
This is inference.
140
435964
1591
din datele de pe rețelele de socializare.
07:17
I have a friend who developed such computational systems
141
437579
3261
Rezultatele sunt impresionante.
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
Sistemul ei poate prezice probabilitatea depresiei
cu luni înainte de apariția unui simptom,
07:24
from social media data.
143
444529
1416
07:26
The results are impressive.
144
446676
1427
cu luni înainte.
07:28
Her system can predict the likelihood of depression
145
448492
3357
Fără simptome, există o predicție.
Ea speră că va fi folosit pentru intervențiile timpurii. Minunat!
07:31
months before the onset of any symptoms --
146
451873
3903
07:35
months before.
147
455800
1373
Dar să luăm contextul angajării.
07:37
No symptoms, there's prediction.
148
457197
2246
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
La această conferință cu manageri de la resurse umane,
m-am apropiat de un manager de nivel înalt dintr-o companie foarte mare
07:44
But now put this in the context of hiring.
150
464911
2040
și i-am spus: „Ce-ar fi dacă, fără știrea ta,
07:48
So at this human resources managers conference,
151
468027
3046
07:51
I approached a high-level manager in a very large company,
152
471097
4709
sistemul tău elimină oameni cu o viitoare probabilitate de depresie?
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
Nu sunt depresivi acum, dar poate în viitor sunt șanse.
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
Ce-ar fi dacă elimină femei care e posibil să rămână însărcinate
anul viitor sau în doi ani, dar nu sunt însărcinate acum?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Dacă angajează oameni agresivi, pentru că așa e cultura locului de muncă?”
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
Nu-ți poți da seama de asta din defalcare de gen.
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
Trebuie să fie în echilibru.
Și din moment ce asta e învățare automată, nu programare tradițională,
nu e o variabilă etichetată „risc ridicat de depresie”,
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
„risc ridicat de sarcină”,
„persoană agresivă”.
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
Nu doar că nu știi cum face sistemul selecția,
08:37
"higher risk of pregnancy,"
163
517926
1833
nu știi nici de unde începe să caute.
08:39
"aggressive guy scale."
164
519783
1734
E o cutie neagră.
Are putere de predicție, dar n-o înțelegi.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Ce măsuri de protecție ai, am întrebat,
08:45
you don't even know where to begin to look.
166
525698
2323
ca să te asiguri că cutia ta neagră nu face ceva suspect?”
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
08:52
"What safeguards," I asked, "do you have
169
532486
2369
M-a privit ca și când aș fi călcat pe zece cozi de cățeluși.
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
(Râsete)
M-a privit și a spus:
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
„Nu vreau să mai aud un cuvânt despre așa ceva.”
09:04
(Laughter)
172
544765
1248
S-a întors și a plecat.
09:06
She stared at me and she said,
173
546037
2041
Rețineți, n-a fost nepoliticoasă.
09:08
"I don't want to hear another word about this."
174
548556
4333
Era clar: ce nu știu nu-i problema mea, lasă-mă, privire dușmănoasă.
09:13
And she turned around and walked away.
175
553458
2034
(Râsete)
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Un astfel de sistem poate fi mai puțin ostil
decât managerii umani câteodată.
09:23
(Laughter)
178
563906
1246
Și ar putea avea un sens din punct de vedere monetar.
09:25
Look, such a system may even be less biased
179
565862
3839
Dar ar putea duce
și la o închidere constantă dar ascunsă de pe piața muncii,
09:29
than human managers in some ways.
180
569725
2103
09:31
And it could make monetary sense.
181
571852
2146
a celor cu risc mai mare de depresie.
09:34
But it could also lead
182
574573
1650
E ăsta genul de societate pe care vrem s-o construim,
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
fără să știm că am făcut asta,
că am îndreptat luarea deciziilor spre mașini pe care nu le înțelegem bine?
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
O altă problemă e asta:
09:46
without even knowing we've done this,
186
586373
2285
aceste sisteme sunt deseori antrenate pe date generate de acțiunile noastre,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
amprentele umane.
09:53
Another problem is this:
188
593265
1458
Ele ar putea doar să reflecte prejudecățile noastre
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
și aceste sisteme ne-ar putea prelua prejudecățile,
09:59
human imprints.
190
599790
1816
le-ar amplifica
10:02
Well, they could just be reflecting our biases,
191
602188
3808
și ni le-ar arăta înapoi,
în timp ce ne spunem:
„Facem doar calcule obiective și neutre.”
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
Cercetătorii au aflat că pe Google
10:10
and showing them back to us,
194
610974
1418
10:12
while we're telling ourselves,
195
612416
1462
10:13
"We're just doing objective, neutral computation."
196
613902
3117
posibilitatea de afișare a joburilor bine plătite e mai mică pentru femei.
10:18
Researchers found that on Google,
197
618314
2677
Și căutând nume afro-americane
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
e mai posibil să apară anunțuri ce sugerează antecedente penale,
chiar dacă nu există niciunul.
10:28
And searching for African-American names
199
628463
2530
Astfel de prejudecăți ascunse și algoritmi de tip cutie neagră
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
pe care cercetătorii le descoperă uneori, dar noi nu știm,
10:35
even when there is none.
201
635747
1567
pot avea consecințe ce pot schimba viața.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
În Wisconsin, un acuzat a primit șase ani de închisoare
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
pentru că a fugit de poliție.
10:46
can have life-altering consequences.
204
646263
2661
Poate nu știți asta,
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
dar se folosesc tot mai mult algoritmi pentru eliberări condiționate și sentințe.
Voia să știe cum se calcula rezultatul.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Era o cutie neagră comercială.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Compania a refuzat ca algoritmul său să fie contestat în ședință publică.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
Dar ProPublica, un ONG de investigație, a verificat anume acel algoritm
11:05
It's a commercial black box.
210
665795
1665
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
cu datele publice pe care le-au putut găsi
și au aflat că rezultatele lor erau ostile
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
și puterea sa de predicție era slabă, abia avea vreo șansă,
11:17
with what public data they could find,
213
677952
2016
și eticheta greșit pe acuzații de culoare ca fiind viitori infractori
11:19
and found that its outcomes were biased
214
679992
2316
la o rată de două ori mai mare față de acuzații albi.
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
Gândiți-vă la cazul ăsta.
Această femeie a întârziat să o ia pe fata nașilor
11:30
at twice the rate of white defendants.
217
690425
3895
de la o școală din Broward, Florida,
11:35
So, consider this case:
218
695891
1564
deoarece era la plimbare cu o prietenă.
11:38
This woman was late picking up her godsister
219
698103
3852
Au văzut bicicleta unui copil și un scuter pe verandă
11:41
from a school in Broward County, Florida,
220
701979
2075
și s-au urcat pe ea.
11:44
running down the street with a friend of hers.
221
704757
2356
În timp ce prindeau viteză, o femeie a ieșit și a spus:
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
„Hei! Aia-i bicicleta copilului meu!”
Au lăsat-o, au plecat, dar au fost arestate.
11:51
and foolishly jumped on it.
223
711260
1632
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Greșise, făcuse ceva imprudent, dar avea 18 ani.
11:55
"Hey! That's my kid's bike!"
225
715539
2205
Avea două delicte juvenile.
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Între timp, acest bărbat a fost arestat pentru furt în Home Depot,
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
lucruri în valoare de 85 de dolari, o infracțiune minoră.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Dar mai avea două condamnări anterioare pentru jaf armat.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
Dar algoritmul a considerat-o pe femeie ca fiind un risc ridicat și nu pe el.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Doi ani mai târziu, ProPublica a aflat că ea nu recidivase.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Ei i-a fost greu să-și găsească un job cu acel cazier.
El, pe de altă parte, a recidivat
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
și acum ispășește o pedeapsă de opt ani de închisoare pentru o crimă ulterioară.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Evident, trebuie să examinăm cutiile negre
12:33
He, on the other hand, did reoffend
235
753218
2076
și să nu le lăsăm să aibă acest tip de putere necontrolată.
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
(Aplauze)
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Auditul e minunat și important, dar nu ne rezolvă toate problemele.
12:43
and not have them have this kind of unchecked power.
238
763481
2615
Luați algoritmul puternic al fluxului de știri de pe Facebook,
12:46
(Applause)
239
766120
2879
cel care clasează totul și decide ce să vă arate
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
de la toți prietenii și paginile pe care le urmăriți.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Ar trebui să vezi o altă poză de bebeluș?
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
(Râsete)
Un articol trist de la un cunoscut?
13:01
from all the friends and pages you follow.
243
781992
2284
O știre importantă dar complicată?
13:04
Should you be shown another baby picture?
244
784898
2275
Nu există un răspuns corect.
Facebook se optimizează pentru implicarea pe site:
13:07
(Laughter)
245
787197
1196
13:08
A sullen note from an acquaintance?
246
788417
2596
like-uri, distribuiri, comentarii.
13:11
An important but difficult news item?
247
791449
1856
În august 2014,
13:13
There's no right answer.
248
793329
1482
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
protestele au izbucnit în Ferguson, Missouri,
13:17
likes, shares, comments.
250
797518
1415
după uciderea unui adolescent afro-american de un polițist alb,
13:20
In August of 2014,
251
800168
2696
în condiții obscure.
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
Știrea despre proteste era peste tot,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
în feedul meu Twitter, nefiltrat algoritmic,
dar nicăieri pe pagina mea de Facebook.
13:30
under murky circumstances.
254
810015
1570
Au făcut asta prietenii mei de la Facebook?
13:31
The news of the protests was all over
255
811974
2007
Am dezactivat algoritmul Facebook,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
ceea ce părea greu, deoarece Facebook tot vrea să te facă
13:36
but nowhere on my Facebook.
257
816714
1950
să fii sub controlul algoritmului,
13:39
Was it my Facebook friends?
258
819182
1734
și am văzut că prietenii mei vorbeau despre asta.
13:40
I disabled Facebook's algorithm,
259
820940
2032
Era doar algoritmul care nu-mi arăta.
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
Am cercetat și am aflat că e o problemă răspândită.
13:46
come under the algorithm's control,
261
826344
2036
Povestea din Ferguson nu era prietenoasă cu algoritmii.
13:48
and saw that my friends were talking about it.
262
828404
2238
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Nu era „apreciabilă”.
Cine o să dea „like”?
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Nici măcar nu e ușor să lași un comentariu despre asta.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
Fără like-uri și comentarii,
algoritmul lăsa probabil și mai puțini oameni să vadă,
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
așa că noi n-am văzut.
14:03
It's not even easy to comment on.
268
843500
2206
În schimb, în acea săptămână,
14:05
Without likes and comments,
269
845730
1371
algoritmii Facebook au subliniat asta:
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
ALS Ice Bucket Challenge.
14:10
so we didn't get to see this.
271
850441
1542
Cauză demnă: îți torni apă rece, donezi pentru caritate, perfect.
14:12
Instead, that week,
272
852946
1228
14:14
Facebook's algorithm highlighted this,
273
854198
2298
Dar era super prietenoasă cu algoritmii.
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
Mașinăria a decis asta pentru noi.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
O conversație foarte importantă, dar dificilă,
14:22
But it was super algorithm-friendly.
276
862536
1904
ar fi putut fi eliminată
dacă Facebook ar fi fost singurul canal.
14:25
The machine made this decision for us.
277
865219
2613
14:27
A very important but difficult conversation
278
867856
3497
Aceste sisteme pot și greși
14:31
might have been smothered,
279
871377
1555
în feluri care nu seamănă cu sistemele umane.
14:32
had Facebook been the only channel.
280
872956
2696
Vă amintiți de Watson, sistemul IBM cu inteligență artificială,
14:36
Now, finally, these systems can also be wrong
281
876117
3797
care a șters pe jos cu concurenții umani la Jeopardy?
14:39
in ways that don't resemble human systems.
282
879938
2736
A fost un jucător grozav.
Dar atunci, în finala Jeopardy, lui Watson i s-a pus această întrebare:
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
„Cel mai mare aeroport al său e numit după un erou din al Doilea Război Mondial,
al doilea ca mărime din o luptă a acestui război.”
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
(Fredonează melodia finalei Jeopardy)
Chicago.
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
Cei doi oameni au răspuns corect.
Watson, pe de altă parte, a răspuns „Toronto”,
14:57
its second-largest for a World War II battle."
288
897615
2252
14:59
(Hums Final Jeopardy music)
289
899891
1378
pentru categoria unui oraș american.
15:01
Chicago.
290
901582
1182
15:02
The two humans got it right.
291
902788
1370
Sistemul impresionant a făcut și el o eroare
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
pe care un om n-ar face-o niciodată, un copil de clasa a doua n-ar face-o.
15:09
for a US city category!
293
909069
1818
Inteligența noastră artificială poate da greș
15:11
The impressive system also made an error
294
911596
2901
în moduri care nu se potrivesc cu tiparele de erori ale oamenilor,
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
în moduri neașteptate și pentru care trebuie să ne pregătim.
15:18
Our machine intelligence can fail
296
918823
3109
Ar fi groaznic ca cineva să nu primească un job pentru care e calificat,
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
dar ar fi de trei ori mai rău dacă ar fi din cauza depășirii seriei
15:25
in ways we won't expect and be prepared for.
298
925080
2950
în vreo subrutină.
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
(Râsete)
În mai 2010,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
un flash crash de pe Wall Street alimentat de o buclă de reacție
15:35
in some subroutine.
301
935467
1432
15:36
(Laughter)
302
936923
1579
în algoritmul de „vânzare” de pe Wall Street
15:38
In May of 2010,
303
938526
2786
a șters un trilion de dolari în 36 de minute.
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
15:45
in Wall Street's "sell" algorithm
305
945404
3028
Nici nu vreau să mă gândesc ce înseamnă „eroare”
în contextul armelor autonome letale.
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
15:53
I don't even want to think what "error" means
307
953722
2187
Deci da, oamenii au avut mereu prejudecăți.
15:55
in the context of lethal autonomous weapons.
308
955933
3589
Factori de decizie și gardieni,
în instanță, la știri, în război...
16:01
So yes, humans have always made biases.
309
961894
3790
ei iau decizii și asta vreau să subliniez.
16:05
Decision makers and gatekeepers,
310
965708
2176
Nu putem scăpa de aceste întrebări dificile.
16:07
in courts, in news, in war ...
311
967908
3493
Nu ne putem externaliza responsabilitățile către mașinării.
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
16:14
We cannot escape these difficult questions.
313
974487
3521
(Aplauze)
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Inteligența artificială nu ne dă un permis care să ne scape de etică.
16:22
(Applause)
315
982676
4208
Analistul de date Fred Benenson numește asta spălarea prin matematică.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
Avem nevoie de exact contrariul.
Trebuie să cultivăm suspiciunea algoritmului, controlul și investigația.
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Trebuie să ne asigurăm că avem contabilitate algoritmică,
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
revizie contabilă și transparență însemnată.
Trebuie să acceptăm că aducerea matematicii și informaticii
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
în problemele umane încurcate și pline de valori
16:48
auditing and meaningful transparency.
321
1008602
2445
nu aduce obiectivitate.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Mai degrabă, complexitatea problemelor umane invadează algoritmii.
16:54
to messy, value-laden human affairs
323
1014638
2970
Putem și trebuie să folosim informatica
16:57
does not bring objectivity;
324
1017632
2384
pentru a ne ajuta să luăm decizii mai bune.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Dar trebuie să ne recunoaștem responsabilitatea morală față de judecată
17:04
Yes, we can and we should use computation
326
1024148
3487
și să folosim algoritmii în acest cadru,
17:07
to help us make better decisions.
327
1027659
2014
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
nu ca mijloc de abdicare și externalizare a responsabilităților
unul față de celălalt, de la om la om.
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
Inteligența artificială e aici.
Asta înseamnă că trebuie să ținem și mai bine
17:22
to one another as human to human.
331
1042854
2454
de valorile și eticile umane.
17:25
Machine intelligence is here.
332
1045807
2609
Vă mulțumesc!
(Aplauze)
17:28
That means we must hold on ever tighter
333
1048440
3421
17:31
to human values and human ethics.
334
1051885
2147
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7