Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


გთხოვთ, ორჯერ დააწკაპუნოთ ქვემოთ მოცემულ ინგლისურ სუბტიტრებზე ვიდეოს დასაკრავად.

Translator: Levan Lashauri Reviewer: Mate Kobalia
00:12
So, I started my first job as a computer programmer
0
12739
4122
ჩემი პირველი სამსახური პროგრამისტად დავიწყე.
00:16
in my very first year of college --
1
16885
1956
ეს იყო კოლეჯის პირველ წელს,
00:18
basically, as a teenager.
2
18865
1507
როცა ფაქტიურად თინეიჯერი ვიყავი.
00:20
Soon after I started working,
3
20889
1732
მუშაობის დაწყებიდან მალევე,
00:22
writing software in a company,
4
22645
1610
რაც კომპანიისთვის პროგრამების წერას გულისხმობდა,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
კომპანიაში მომუშავე მენეჯერი მოვიდა ჩემთან
00:28
and he whispered to me,
6
28458
1268
და ჩამჩურჩულა:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"შეუძლია მას მიხვდეს, ვიტყუები თუ არა?"
00:33
There was nobody else in the room.
8
33806
2077
ოთახში მეტი არავინ იყო.
"ვის შეუძლია მიხვდეს? და რატომ ვჩურჩულებთ?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
მენეჯერმა ოთახში მდგარ კომპიუტერზე მიმანიშნა.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"შეუძლია მიხვდეს, რომ ვიტყუები?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
ამ მენეჯერს მდივანთან რომანი ჰქონდა.
00:53
(Laughter)
13
53999
1112
(სიცილი)
მე ჯერ კიდევ თინეიჯერი ვიყავი
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
და ჩურჩულით დავუყვირე:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"დიახ, კომპიუტერს შეუძლია მიხვდეს, რომ იტყუებით"
(სიცილი)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
მე კი ვიცინე, მაგრამ ახლა მე ვარ დასაცინი.
01:07
Nowadays, there are computational systems
19
67915
3268
დღესდღეობით არსებობს გამოთვლითი სისტემები,
01:11
that can suss out emotional states and even lying
20
71207
3548
რომლებსაც შეუძლიათ ადამიანის სახის დამუშავებით,
01:14
from processing human faces.
21
74779
2044
ემოციური მდგომარეობის და ტყუილის გამოცნობაც კი.
01:17
Advertisers and even governments are very interested.
22
77248
4153
სარეკლამოები და მთავრობებიც კი, ძალიან დაინტერესებულები არიან.
01:22
I had become a computer programmer
23
82319
1862
მე პროგრამისტი იმიტომ გავხდი,
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
რომ ერთ-ერთი იმ ბავშთაგანი ვიყავი, ვინც მათემატიკაზე და მეცნიერებაზე გიჟდება,
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
მაგრამ რაღაც მომენტში ბირთვულ იარაღზე შევიტყვე
და სერიოზულად დავფიქრდი სამეცნიერო ეთიკაზე.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
ამან შემაწუხა.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
თუმცა, ოჯახური გარემოებების გამო
01:37
I also needed to start working as soon as possible.
29
97943
3298
სამსახურის დაწყება სასწრაფოდ მჭირდებოდა.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
ამიტომ ტექნიკური სფეროს არჩევა გადავწყვიტე,
01:44
where I can get a job easily
31
104588
1796
სადაც სამსახურს უფრო ადვილად ვიშოვიდი
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
და სადაც არ მომიწევდა პრობლემურ ეთიკურ კითხვებთან ჭიდილი.
შედეგად კომპიუტერები ავარჩიე.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(სიცილი)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
ჰა ჰა ჰა.. მე ვარ დასაცინი.
დღესდღეობით, კოპიუტერული მეცნიერები ქმნიან პლატფორმებს,
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
რომლებიც აკონტროლებენ, თუ რას ნახულობს მილიარდობით ადამიანი ყოველდღე.
ისინი ქმნიან მანქანებს, რომლებიც წყვეტენ თუ ვის დაარტყან.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
ისინი ისეთ მანქანებს და იარაღებსაც კი ქმნიან,
02:12
that might kill human beings in war.
40
132944
2285
რომლებსაც ადამიანების მოკვლა შეუძლიათ ომში.
02:15
It's ethics all the way down.
41
135253
2771
აქ ყველგან ეთიკაა.
02:19
Machine intelligence is here.
42
139183
2058
მანქანური ინტელექტი აწმყოა.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
ჩვენ ამჟამად კომპიუტერებს მთელი რიგი გადაწყვეტილებების მისაღებად ვიყენებთ
02:25
but also new kinds of decisions.
44
145321
1886
და ასევე ახალი გადაწყვეტებისთვისაც.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
ჩვენ კომპიუტერებს ისეთ კითხვებს ვუსვამთ, რომლებსაც არ აქვთ ერთი სწორი პასუხი,
02:32
that are subjective
46
152427
1202
რომლებიც სუბიექტურია
02:33
and open-ended and value-laden.
47
153653
2325
და ღიაა ინტერპრეტაციებისა და შეფასებისთვის.
მაგალთად ვუსვამთ კითხვებს:
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"ვინ უნდა იქირაოს კომპანიამ?"
"რომელი მეგობრის, რომელი სიახლე უნდა გაჩვენოთ"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"რომელმა ნასამართლევმა უფრო დიდი შანსია, რომ გაიმეოროს დანაშაული"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"რომელი სიახლე, ან ფილმი უნდა შევთავაზოთ ხალხს?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
დიახ, ჩვენ დიდი ხანია ვიყენებთ კომპიუტერებს,
02:51
but this is different.
54
171988
1517
მაგრამ ეს სხვა რამეა.
02:53
This is a historical twist,
55
173529
2067
ეს ისტორიული შემობრუნებაა,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
რადგან ჩვენ ვერ დავაფუძნებთ კომპიუტერებზე ასეთ სუბიექტურ გადაწყვეტილებებს,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
როგორც ვაკეთებდით თვითმფრინავის მართვის, ხიდების აშენების,
03:06
going to the moon.
58
186425
1259
და მთვარეზე გაფრენის შემთხვევაში.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
თვითმფინავები ხომ უფრო უსაფრთხოა? ხიდებიც არ ინგრევა.
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
ამ შემთხვევებში მკაფიო წესებზე შევთანხმდით
03:16
and we have laws of nature to guide us.
61
196254
2239
და ბუნების კანონებით ვხემძღვანელობთ.
03:18
We have no such anchors and benchmarks
62
198517
3394
ჩვენ არ გვაქვს მსგავსი ნიშნულები და წესები
03:21
for decisions in messy human affairs.
63
201935
3963
ადამიანთა უწესრიგო ურთიერთობებში.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
ამ ყველაფერს ის უფრო ამძიმებს, რომ ჩვენი პროგრამები სულ უფრო ძლევამოსილი
03:30
but it's also getting less transparent and more complex.
65
210183
3773
და ამავე დროს ნაკლებად გასაგები და უფრო კომპლექსური ხდება
03:34
Recently, in the past decade,
66
214542
2040
ცოტა ხნის წინ, გასულ ათწლეულში,
03:36
complex algorithms have made great strides.
67
216606
2729
კომპლექსურ ალგირითმებს დიდი მიღწევები ჰქონდათ.
03:39
They can recognize human faces.
68
219359
1990
მათ ადამიანის სახეების ამოცნობა შეუძლიათ.
03:41
They can decipher handwriting.
69
221985
2055
ხელნაწერის გარჩევა შეუძლიათ,
03:44
They can detect credit card fraud
70
224436
2066
შეუძლიათ ყალბი საკრედიტო ბარათი ამოიცნონ
03:46
and block spam
71
226526
1189
და დაბლოკონ სპამი.
03:47
and they can translate between languages.
72
227739
2037
ასევე თარგმნონ სხვადასხვა ენებზე.
03:49
They can detect tumors in medical imaging.
73
229800
2574
მათ რენტგენის სურათზე სიმსივნის აღმოჩენა შეუძლიათ.
03:52
They can beat humans in chess and Go.
74
232398
2205
ისინი ჭადრაკში ადამიანს ამარცხებენ.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
ამ პროგრესის უმეტესობა ე.წ. "მანქანური სწავლებით" მიიღწევა.
მანქანური სწავლება განსხვავდება ტრადიციული პროგრამირებისგან,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
როცა კომპიუტერს ზუსტ და დეტალურ ინსტრუქციებს აძლევთ.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
ამ შემთხვევაში სისტემას ბევრ მონაცემს აწვდით,
მათ შორის უსტრუქტურო მონაცემს.
04:11
including unstructured data,
79
251584
1656
04:13
like the kind we generate in our digital lives.
80
253264
2278
ისეთი ტიპის მონაცემებს, რომლებსაც ჩვენ ციფრულ ცხოვრებაში ვქმნით
04:15
And the system learns by churning through this data.
81
255566
2730
და სისტემა ამ მონაცემების გარჩევას სწავლობს.
04:18
And also, crucially,
82
258669
1526
ასევე, საკვანძოა,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
რომ ეს სისტემები ერთპასუხიანი ლოგიკით არ მუშაობენ.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
ისინი მარტივ პასუხს არ იძლევიან; პასუხი უფრო სავარაუდოა:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"სავარაუდოდ ამას უფრო ეძებდით"
ამის დადებითი მხარე ისაა, რომ ეს მეთოდი მართლაც ეფექტურია.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
გუგლის ხელოვნური ინტელექტის სისტემების ხელმძღვანელმა მათ უწოდა:
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"მონაცემების ირაციონალური ეფექტურობა"
04:39
The downside is,
89
279791
1353
უარყოფითი მხარე კი,
04:41
we don't really understand what the system learned.
90
281738
3071
რომ ჩვენ რეალურად არ ვიცით რა ისწავლა სისტემამ.
04:44
In fact, that's its power.
91
284833
1587
პრინციპში, სწორედ ესაა მისი ძალა.
04:46
This is less like giving instructions to a computer;
92
286946
3798
ეს კომპიუტერისთვის ინსტრუქციების მიცემას არ ჰგავს.
04:51
it's more like training a puppy-machine-creature
93
291200
4064
ეს უფრო ლეკვ-მანქანის წვრთნაა.
04:55
we don't really understand or control.
94
295288
2371
ჩვენ რეალურად არ გვესმის და ვერ ვაკონტროლებთ.
04:58
So this is our problem.
95
298362
1551
ჩვენი პრობლემაც ესაა.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
პრობლემაა, როცა ხელოვნურ ინტელექტს რაღაც არასწორად ესმის.
05:04
It's also a problem when it gets things right,
97
304713
3540
ასევე პრობლემაა, როცა მას რაღაც სწორად ესმის,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
რადგან ჩვენ არც კი ვიცით რა, რა არის, როცა პრობლემა სუბიექტურია.
05:11
We don't know what this thing is thinking.
99
311929
2339
ჩვენ არ ვიცით ეს მოწყობილობა რას ფიქრობს.
05:15
So, consider a hiring algorithm --
100
315493
3683
განვიხილოთ კადრების ალგორითმი.
სისტემა, რომელსაც თანამშრომლები მანქანური სწავლების გამოყენებით აჰყავს.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
ასეთი სისტემა, არსებული თანამშეომლების მონაცემებზეა გაწვრთნილი,
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
რომ იპოვოს და შეარჩიოს
05:31
people like the existing high performers in the company.
104
331270
3038
არსებული მაღალი შედეგების მქონე თანამშრომლების მსგავსი ხალხი.
05:34
Sounds good.
105
334814
1153
მშვენივრად ჟღერს.
05:35
I once attended a conference
106
335991
1999
ერთხელ კონფერენციას დავესწარი,
რომელსაც კადრების მენეჯერები და აღმასრულებლები ესწრებოდნენ,
05:38
that brought together human resources managers and executives,
107
338014
3125
მაღალი თანამდებობის ხალხი,
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
რომლებიც მსგავს სისტემებს იყენებდნენ.
05:43
They were super excited.
110
343976
1646
ისინი აღტაცებულები იყვნენ,
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
მათ წარმოედგინათ, რომ ეს თანამშრომლების აყვანის პროცესს უფრო ობიექტურს გახდიდა
05:50
and give women and minorities a better shot
112
350323
3000
და ქალებს და უმცირესობებს, ადამიანი მენეჯერების
05:53
against biased human managers.
113
353347
2188
ტენდენციურობასთან შედარებით მეტ შანსს მისცემდა.
05:55
And look -- human hiring is biased.
114
355559
2843
და მართლაც ადამიანების მიერ შერჩევა ტენდენციურია.
ეს ვიცი.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
ერთ-ერთ ჩემ პირველ სამსახურში სადაც პროგრამისტი ვიყავი,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
ჩემი უფროსი ზოგჯერ მოვიდოდა ხოლმე,
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
ძალიან ადრე დილას, ან გვიან შუადღეს და მეტყოდა:
"ზეინეპ, მოდი, ლანჩზე წავიდეთ!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
მე გაკვირვებული ვიყავი ხოლმე ასეთ დროს.
06:16
It's 4pm. Lunch?
121
376915
2129
4 საათია, ლანჩი?
საშუალება არ მქონდა, ამიტომ ამ უფასო ლანჩზე მივდიოდი.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
მოგვიანებით აღმოვაჩინე რაც ხდებოდა.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
ჩემ უშუალო უფროსს თავისი უფროსისთვის არ უთქვამს,
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
რომ პროგრამისტი, რომელიც სერიოზული სამუშაოსთის აიყვანა
06:32
who wore jeans and sneakers to work.
126
392416
3930
თინეიჯერი გოგო იყო, რომელიც ჯინსებით და ბოტასებით დადიოდა სამსახურში.
მე კარგად ვმუშაობდი, უბრალოდ არასათანადოდ გამოვიყურებოდი
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
და შეუსაბამო ასაკის და სქესის ვიყავი.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
ასე რომ, სქესის და რასის გარეშე სამსახურში აყვანა
06:44
certainly sounds good to me.
130
404493
1865
ნამდვილად კარგად ჟღერს.
თუმცა, ამ სისტემებით ეს უფრო რთულია და აი რატომ:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
დღესდღეობით გამოთვლით სისტემებს ბევრი რამის ამოცნობა შეუძლიათ თქვენ შესახებ,
06:56
from your digital crumbs,
133
416783
1872
თქვენი ციფრული კვალის მიხედვით
06:58
even if you have not disclosed those things.
134
418679
2333
მაშინაც კი, თუ ეს მონაცემები არსად განგითავსებიათ.
07:01
They can infer your sexual orientation,
135
421506
2927
მათ შეუძლიათ ამოიცნონ თქვენი სექსუალური ორიენტაცია,
07:04
your personality traits,
136
424994
1306
პიროვნული თვისებები,
07:06
your political leanings.
137
426859
1373
პოლიტიკური გემოვნება.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
მათ მაღალი სიზუსტით პროგნოზირების უნარი აქვთ.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
გახსოვდეთ... ისეთი რამეების, რაც თქვენ არ გაგიმხელიათ.
07:15
This is inference.
140
435964
1591
ეს ვარაუდით ხდება.
07:17
I have a friend who developed such computational systems
141
437579
3261
მე მყავს მეგობარი, რომელმაც ასეთი გამოთვლითი სისტემა შექმნა.
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
ეს სისტემა სოციალური ქსელების მონაცემების მიხედვით
კლინიკური, ან პოსტნატალური დეპრესიის ალბათობას პროგნოზირებს.
07:24
from social media data.
143
444529
1416
07:26
The results are impressive.
144
446676
1427
შედეგები შთამბეჭდავია.
07:28
Her system can predict the likelihood of depression
145
448492
3357
მის სისტემას დეპრესიის პროგნოზირება
07:31
months before the onset of any symptoms --
146
451873
3903
ნაბისმიერი სიმპტომების გაჩენამდე, თვეებით ადრე შეუძლია...
07:35
months before.
147
455800
1373
თვეებით ადრე.
07:37
No symptoms, there's prediction.
148
457197
2246
პროგნოზი უსიმპტომებოდ.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
ის იმედოვნებს, რომ ამას ადრეული ინტერვენციისთვის გამოიყენებენ. მშვენიერია!
07:44
But now put this in the context of hiring.
150
464911
2040
ახლა ეს სამსახურში აყვანის კონტექსტში ჩავსვათ.
მაშ, ამ კადრების მენეჯერების კონფერენციაზე,
07:48
So at this human resources managers conference,
151
468027
3046
მე მივედი ერთი ძალიან დიდი კომპანიის მაღალი დონის მენეჯერთან
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
და ვუთხარი: "იქნებ თქვენ არ იცით
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
და სისტემა ისეთ ხალხს აგირჩევთ, რომელთაც დეპრესიის დიდი ალბათობა აქვთ მომავალში.
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
ისინი ამჟამად არ არიან დეპრესიაში, მომავალში კი ალბათობა დიდია.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
ან იქნებ ისეთ ქალს აარჩევს, რომელიც დიდი შანსია
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
შემდეგი ერთი ორი წლის განმავლობაში დაფეხმძიმდეს?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
ან იქნებ აგრესიული ხალხი აგირჩიოთ, რადგან ასეთია თქვენი სამუშაო გარემო?"
თქვენ ამას სქესების მიხედვით ჩაშლით ვერ მიხვდებით.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
ისინი შეიძლება დაბალანსებული იყოს.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
რადგან ეს მანქანური სწავლებაა და არა ტრადიციული კოდირება,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
არ არსებობს ცვლადი სახელად: "დეპრესიის მომატებული რისკი"
08:37
"higher risk of pregnancy,"
163
517926
1833
ან "დაფეხმძმების მომატებული რისკი"
08:39
"aggressive guy scale."
164
519783
1734
ან "აგრესიული მამაკაცის შკალა"
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
არა მხოლოდ ის არ იცით, როს მიხედვით არჩევს სისტემა,
08:45
you don't even know where to begin to look.
166
525698
2323
არამედ ისიც კი არ იცით, საიდან დაიწყოთ ამის გარკვევა.
08:48
It's a black box.
167
528045
1246
შავი ყუთია.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
მას პროგნოზირების უნარი აქვს, მაგრამ თქვენ ის არ გესმით.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"რა უსაფრთხოების საშუალებები გაქვთ" ვკითხე მე,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
"იმისთვის რომ დარწმუნდეთ, რომ თქვენი შავი ყუთი რამე საეჭვოს არ აკეთებს?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
მან ისე შემომხედა, თითქოს 10 ლეკვს ერთად დავაბიჯე კუდზე.
09:04
(Laughter)
172
544765
1248
(სიცილი)
შემომხედა და მითხრა:
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"ამაზე მეტის მოსმენას აღარ ვაპირებ"
09:13
And she turned around and walked away.
175
553458
2034
გატრიალდა და წავიდა.
გაითვალისწინეთ, ის არ უხეშობდა.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
მისი პოზიცია იყო: რაც არ ვიცი, ჩემი პრობლემა არაა, მომშორდი, ცივი მზერით.
09:23
(Laughter)
178
563906
1246
(სიცილი)
09:25
Look, such a system may even be less biased
179
565862
3839
ესეთი სისტემა მართლაც შეიძლება იყოს ნაკლებად ტენდენციური,
09:29
than human managers in some ways.
180
569725
2103
ვიდრე ადამიანი მენეჯერები გარკვეულწილად.
09:31
And it could make monetary sense.
181
571852
2146
და შეიძლება ეს ფინანსურადაც აზრიანი იყოს,
09:34
But it could also lead
182
574573
1650
მაგრამ ამან ასევე შეიძლება
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
სამუშაო ბაზრიდან დეპრესიის მომატებული რისკის მქონე ხალხის
მუდმივ და ფარულ განდევნას შეუწყოს ხელი.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
გვინდა კი, ასეთი საზოგადოების შენება,
09:46
without even knowing we've done this,
186
586373
2285
როცა არც კი ვიცით, რომ ამას ვაკეთებთ,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
რადგან გადაწყვეტულების მიღება, ისეთ მანქანებს მივანდეთ,
რომლებიც არც კი გვესმის.
09:53
Another problem is this:
188
593265
1458
კიდევ ერთი პრობლემა ისაა,
რომ ეს სისტემები ხშირად იწვრთნებიან მონაცემებზე, რომლებსაც ჩვენ ვქმნით.
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
09:59
human imprints.
190
599790
1816
ადამიანის კვალზე.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
ისინი შეიძლება ჩვენს ტენდენციურობებს ასახავდეს
და ეს სისტემებიც ჩეიძლება ჩვენს ტენდენციებს იზიარებდნენ,
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
აძლიერებდნენ მათ
10:10
and showing them back to us,
194
610974
1418
და უკან გვიბრუნებდნენ.
10:12
while we're telling ourselves,
195
612416
1462
ჩვენ კი ამ დროს თავს ვიტყუებთ:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"ჩვენ მხოლოდ ობიექტურ და ნეიტრალურ გამოთვლებს ვაწარმოებთ"
10:18
Researchers found that on Google,
197
618314
2677
მკვლევარებმა დაადგინეს, რომ გუგლში
ქალებმა უფრო პატარა შანსია მაღალანაზღაურებადი სამუშაოს რეკლამა ნახონ,
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
ვიდრე კაცებმა.
და აფრო-ამერიკული სახელების ძიებისას,
10:28
And searching for African-American names
199
628463
2530
უფრო დიდი შანსია კრიმინალური ხასიათის ამბავი ამოგიხტეთ
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
მაშინაც კი როცა ის არ არსებობს.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
ასეთმა ფარულმა ტენდენციურობებმა და შავი ყუთის ალგორითმებმა,
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
რომლებსაც მკვლევარები ზოგჯერ აღმოაჩენენ, ზოგჯერ კი არც ვიცით,
10:46
can have life-altering consequences.
204
646263
2661
შეიძლება დრამატულ შედეგებამდე მიგვიყვანოს.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
უისკონსინში ბრალდებულს 6 წელი მიუსაჯეს
პოლიციისგან გაქცევის გამო.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
თქვენ შეიძლება არ იცით,
მაგრამ განაჩენის გამოტანისას, ალგორითმები მზარდად გამოიყენება.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
მას უნდოდა გაეგო: როგორ გამოითვალეს?
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
ეს კომერციული შავი ყუთია.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
კომპანიამ უარი განაცადა მათი ალგორითმი ღია სასამართლოზე განეხილათ,
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
მაგრამ არასამთავრობო "ProPublica"-მ ეს ალგორითმი შეამოწმა,
11:17
with what public data they could find,
213
677952
2016
იმ გასაჯაროებული მონაცემებით რაც იპოვეს
11:19
and found that its outcomes were biased
214
679992
2316
და აღმჩნდა, რომ შედეგები ტენდენციური იყო
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
და პროგნოზირების უნარი საშინელი. შემთხვევითობაზე ოდნავ უკეთესი.
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
ის შავკანიან ბრალდებულებს, მომავალ კრიმინალებად
11:30
at twice the rate of white defendants.
217
690425
3895
ორჯერ უფრო ხშირად აფასებდა ვიდრე თეთრკანიანებს.
11:35
So, consider this case:
218
695891
1564
განვიხილოთ ასეთი შემთხვევა:
ამ ქალს ბროუარდის ოლქში, ფლორიდაში
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
სკოლიდან საკუთარი სულიერი დის წამოსაყვანად აგვიანდებოდა,
11:44
running down the street with a friend of hers.
221
704757
2356
როცა ქუჩაში მირბოდა მის მეგობართან ერთად,
მათ საბავშვო ველოსიპედი და სკუტერი შენიშნეს
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
და სისულელით შეხტნენ მათზე.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
იმ ადგილს რომ შორდებოდნენ, ქალი გამოვიდა და თქვა:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"ეი! ეს ჩემი ბავშვის ველოსიპედია!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
მათ დატოვეს ველოსიპედი და სკუტერი და წავიდნენ, მაგრამ ისინი მაინც დააკავეს.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
ის შეცდა, სულელურად მოიქცა, მაგრამ ის მხოლოდ 18 იყო.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
მას რამდენიმე ახალგაზრდული წვრილმანი დანაშაული ჰქონდა.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
ამ დროს, ეს კაცი მაღაზია "Home Depot "-ს გაქურდვისთვის დააკავეს
85 დოლარის ღირებულების საქონელი მოიპარა. საკმაოდ მსგავსი დანაშაული,
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
მაგრამ ის ადრე 2 შეიარაღებული ყაჩაღობისთვისაც იყო გასამართლებული.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
თუმცა, ალგორითმა უფრო მაღალი რისკის მქონედ ქალი შეაფასა და არა ის.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
2 წლის შემდეგ "ProPublica"-მ აღმოაჩინა რომ მას განმეორებითი დანაშაული არ ჩაუდენია.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
სამუშაოს შოვნა კი გაუძნელდა, ასეთი წარსულის გამო.
12:33
He, on the other hand, did reoffend
235
753218
2076
თავის მხრივ, იმ კაცმა დანაშაული გაიმეორა
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
და ამჟამად 8 წლიან სასჯელს იხდის ბოლო დანაშაულისთვის.
ცხადია, ჩვენი შავი ყუთები უნდა შევამოწმოთ
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
და არ უნდა მივცეთ მათ, ასეთი უკონტროლო ძალაუფლება.
(აპლოდისმენტები)
12:46
(Applause)
239
766120
2879
შემოწმება და კონტროლი მნიშვნელოვანია, მაგრამ ეს ყველა პრობლემას არ აგვარებს.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
ავიღოთ ფეისბუკის სიახლეების მძლავრი ალგორითმი.
აი ის, ყველაფერს რომ ახარისხებს და წყვეტს რა უნდა გაჩვენოთ,
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
ყველა მეგობრიდან და გვერდიდან, რომელის გამომწერიც ხართ.
13:04
Should you be shown another baby picture?
244
784898
2275
უნდა გაჩვენოთ თუ არა, კიდევ ერთი ბავშვის სურათი?
13:07
(Laughter)
245
787197
1196
(სიცილი)
13:08
A sullen note from an acquaintance?
246
788417
2596
ნაცნობის სევდიანი წერილი?
13:11
An important but difficult news item?
247
791449
1856
მნიშვნელოვანი, მაგრამ მძიმე სიახლე?
13:13
There's no right answer.
248
793329
1482
არ არსებობს სწორი პასუხი.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
ფეისბუკი თქვენი ქმედებების ოპტიმიზაციას აკეთებს
13:17
likes, shares, comments.
250
797518
1415
მოწონებები, გაზიარებები, კომენტარები.
2014 წლის აგვისტოში
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
ფერგიუსონში, მისური, თეთრკანიანი პოლიციელის მიერ
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
ბუნდოვან ვითარებაში აფრო-ამერიკელი თინეიჯერის მკვლელობას,
პროტესტის ტალღა მოჰყვა.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
პროტესტის ამბები
ჩემ ალგორითმულად დაუფილტრავ ტვიტერზე ყველგან იყო,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
მაგრამ ფეისბუკზე არსად ჩანდა.
შეიძლება ჩემი ფეისბუკ მეგობრების გამო იყო ასე?
13:39
Was it my Facebook friends?
258
819182
1734
13:40
I disabled Facebook's algorithm,
259
820940
2032
გავთიშე ფეისბუკის ალგორითმი,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
რაც რთულია, რადგან ფეისბუკი მუდმივად ცდილობს
13:46
come under the algorithm's control,
261
826344
2036
ალგორითმის კონტროლის ქვეშ მოგაქციოთ.
13:48
and saw that my friends were talking about it.
262
828404
2238
გათიშვის შემდეგ, ვნახე რომ მეგობრები საუბრობენ ამაზე.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
უბრალოდ ალგორითმი არ მაჩვენებდა ამას.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
გამოვიკვლიე და აღმოვაჩინე, რომ ეს გავრცელებული პრობლემაა.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
ფერგიუსონის თემა, ალგორითმისთვის არ იყო პრიორიტეტული.
არ იყო "მოწონებადი"
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
ვინ დააჭერდა "მოწონებას"?
14:03
It's not even easy to comment on.
268
843500
2206
მასზე კომენტარიც კი რთულია.
14:05
Without likes and comments,
269
845730
1371
მოწონებებისა და კომენტარების გარეშე,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
ალგორითმი უფრო ცოტა ადამიანს აჩვენებს მას,
14:10
so we didn't get to see this.
271
850441
1542
ამიტომაც ვერ ვნახულობდით მას.
14:12
Instead, that week,
272
852946
1228
სამაგიეროდ, იმ კვირას,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
ფეისბუკის ალგორითმმა ეს გამოკვეთა:
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
"ყინულიანი სათლის გამოწვევის" კამპანია.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
ღირებული რამაა; ვისხამთ ყინულიან წყალს და ვრიცხავთ შემოწირულობას. მშვენიერია.
14:22
But it was super algorithm-friendly.
276
862536
1904
ის ალგორითმისთვის ძალიან პრიორიტეტული იყო.
14:25
The machine made this decision for us.
277
865219
2613
მანქანამ ეს გადაწყვეტილება ჩვენ მაგივრად მიიღო.
14:27
A very important but difficult conversation
278
867856
3497
რთული, მაგრამ ძალიან მნიშვნელოვანი დისკუსია,
14:31
might have been smothered,
279
871377
1555
შეიძლება არ შემდგარიყო,
14:32
had Facebook been the only channel.
280
872956
2696
ფეისბუკი ერთადერთი საშუალება რომ ყოფილიყო.
და ბოლოს, ეს სისტემები შეიძლება
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
ადამიანებისთვის არადამახასიათებლად ცდებოდნენ.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
გახსოვთ უოტსონი, IBM-ის მანქანური ინტელექტის სისტემა,
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
რომელმაც ვიქტორინა "Jeopardy"-ში მონაწილე ადამიანი გაანადგურა?
ის დიდებული მოთამაშე იყო.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
თუმცა, ფინალში უოტსონს ჰკითხეს:
"მისი უდიდესი აეროპორტი მეორე მსოფლიო ომის გმირის სახელობისაა,
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
მისი სიდიდით მეორე აეროპორტი მეორე მსოფლიო ომის ბრძოლის სახელობის."
14:57
its second-largest for a World War II battle."
288
897615
2252
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Jeopardy-ს საფინალო მუსიკა)
15:01
Chicago.
290
901582
1182
ჩიკაგო.
15:02
The two humans got it right.
291
902788
1370
ორმა ადამიანმა სწორად უპასუხა.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
უოტსონმა უპასუხა: "ტორონტო"...
აშშ-ს ქალაქების კატეგორიაში.
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
შთამბეჭდავმა სისტემამ ისეთი შეცდომა დაუშვა,
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
რომელსაც ადამიანი არასდროს დაუშვებდა. მეორე კლასელი არ დაუშვებდა.
15:18
Our machine intelligence can fail
296
918823
3109
მანქანურმა ინტელექტმა შეიძლება ისეთი შეცდომები დაუშვას,
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
რომლებიც ადამიანური შეცდომების ხასიათში არ ჯდება.
და რომლებსაც შეიძლება არ ველოდოთ და მოუმზადებლები აღმოვჩნდეთ.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
სამწუხაროა, როცა სამუშაოზე შესაბამისი კადრი ვერ აღმოჩნდება,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
მაგრამ ბევრად უარესია, თუ ეს რომელიღაც ქვეპროგრამაში,
15:35
in some subroutine.
301
935467
1432
სტეკის გადავსების გამო მოხდა.
15:36
(Laughter)
302
936923
1579
(სიცილი)
15:38
In May of 2010,
303
938526
2786
2010 წლის მაისში,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
"უოლ სტრიტის" საფონდო ბირჟის ვარდნამ, რომელიც "უოლ სტრიტის"
15:45
in Wall Street's "sell" algorithm
305
945404
3028
"გაყიდვის" ალგორითმის, უკუკავშირის ციკლით იყო გამოწევეული,
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
ტრილიონი დოლარის ღირებულების დაკარგვა გამოიწვია 36 წუთში.
15:53
I don't even want to think what "error" means
307
953722
2187
წარმოსადგენადაც კი რთულია რას შეიძლება ნიშნავდეს "შეცდომა"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
ავტომატური ლეტალური იარაღის შემთხვევაში.
16:01
So yes, humans have always made biases.
309
961894
3790
ასე რომ, დიახ ადამიანები ყოველთვის ტენდენციურები არიან.
16:05
Decision makers and gatekeepers,
310
965708
2176
გადაწყვეტილების მიმღებები და დარაჯები,
16:07
in courts, in news, in war ...
311
967908
3493
სასამართლოებში, ახალ ამბებში, ომში...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
ისინი შეცდომებს უშვებენ, მაგრამ სწორედ ამაშია საქმე.
16:14
We cannot escape these difficult questions.
313
974487
3521
ჩვენ გვერდს ვერ ავუვლით ამ რთულ კითხვებს.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
ჩვენ ვერ გადავაბარებთ ჩვენს ვალდებულებებს მანქანებს.
16:22
(Applause)
315
982676
4208
(აპლოდისმენტები)
ხელოვნური ინტელექტი ვერ მოგცვემს ეთიკური პრობლემების თავიდან აცილების საშუალებას.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
მონაცემების სპეციალისტი ფრედ ბენენსონი ამას მათემატიკურ-წმენდას ეძახის.
ჩვენ ამის საპირისპირო გვჭირდება.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
ჩვენ ალგორითმის მიმართ ეჭვის, შესწავლის და კვლევის წახალისება გვჭირდება.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
უნდა დავრწმუნდეთ ჩვენ ალგორითმულ ანგარიშვალდებულებაში,
16:48
auditing and meaningful transparency.
321
1008602
2445
შემოწმებასა და გამჭვირვალობაში.
16:51
We need to accept that bringing math and computation
322
1011380
3234
ჩვენ უნდა გვესმოდეს, რომ მათემატიკის და გამოთვლის შემოტანას,
16:54
to messy, value-laden human affairs
323
1014638
2970
უწესრიგო, ღირებულებებით სავსე ადამიანურ ურთიერთობებში
16:57
does not bring objectivity;
324
1017632
2384
არ მოაქვს ობიექტურობა,
არამედ ადამიანური ურთიერთობების სირთულე იჭრება ალგორითმებში.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
დიახ, ჩვენ შეგვიძლია და უნდა გამოვიყენოთ გამოთვლა,
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
უკეთესი გადაწყვეტულებების მისაღებად,
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
მაგრამ ასევე მორალური პასუხისმგებლობა უნდა ავიღოთ გადაწყვეტილებებზე
და ამ სქემაში გამოვიყენოთ ალგორითმები
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
და არა ერთმანეთზე, როგორც ადამიანიდან ადამიანზე
17:22
to one another as human to human.
331
1042854
2454
პასუხისმგებლობების გადაბარების საშუალებად.
17:25
Machine intelligence is here.
332
1045807
2609
მანქანური ინტელექტი აწმყოა.
17:28
That means we must hold on ever tighter
333
1048440
3421
ეს ნიშნავს, რომ ჩვენ
კიდევ უფრო მეტად უნდა ჩავეჭიდოთ ადამიანურ ფასეულობებსა და ადამიანურ ეთიკას
17:31
to human values and human ethics.
334
1051885
2147
მადლობა.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(აპლოდისმენტები)
ამ საიტის შესახებ

ეს საიტი გაგაცნობთ YouTube-ის ვიდეოებს, რომლებიც სასარგებლოა ინგლისური ენის შესასწავლად. თქვენ ნახავთ ინგლისური ენის გაკვეთილებს, რომლებსაც ასწავლიან საუკეთესო მასწავლებლები მთელი მსოფლიოდან. ორჯერ დააწკაპუნეთ ინგლისურ სუბტიტრებზე, რომლებიც ნაჩვენებია თითოეულ ვიდეო გვერდზე, რომ იქიდან დაკვრა ვიდეო. სუბტიტრების გადახვევა სინქრონიზებულია ვიდეოს დაკვრასთან. თუ თქვენ გაქვთ რაიმე კომენტარი ან მოთხოვნა, გთხოვთ დაგვიკავშირდეთ ამ საკონტაქტო ფორმის გამოყენებით.

https://forms.gle/WvT1wiN1qDtmnspy7