Machine intelligence makes human morals more important | Zeynep Tufekci

180,005 views ・ 2016-11-11

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: morteza homayounfar Reviewer: soheila Jafari
00:12
So, I started my first job as a computer programmer
0
12739
4122
خب، من اولین شغلم را به عنوان یک برنامه نویس کامپیوتر شروع کردم
00:16
in my very first year of college --
1
16885
1956
در اولین سال کالجم
00:18
basically, as a teenager.
2
18865
1507
در واقع، به عنوان یک نوجوان
00:20
Soon after I started working,
3
20889
1732
درست پس از شروع به کار در
00:22
writing software in a company,
4
22645
1610
یک شزکت به عنوان برنامه‌نویس کامپیوتر ،
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
یک مدیر که در همان جا کار می‌کرد نزد من آمد،
00:28
and he whispered to me,
6
28458
1268
و با صدای آرام به من گفت:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"او می تونه بگه اگه من دروغ بگم؟"
00:33
There was nobody else in the room.
8
33806
2077
در اتاق هیچ کسی وجود نداشت.
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"کسی میتونه بگه اگه تو دروغ میگی؟ و چرا ما در حال پچ پچ کردن هستیم؟"
00:42
The manager pointed at the computer in the room.
10
42266
3107
مدیر کامپیوتر در اتاق را نشان داد.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"او می‌تونه بگه اگه من دروغ بگم؟"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
خب، آن مدیر رابطه نامشروع با منشی‌اش داشت.
00:53
(Laughter)
13
53999
1112
(خنده حاضرین)
00:55
And I was still a teenager.
14
55135
1766
و من هم هنوز یک نوجوان بودم
00:57
So I whisper-shouted back to him,
15
57447
2019
سپس من با صدای بلندی گفتم:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"بله، کامپیوتر می تونه بگه اگه تو دروغ بگی"
01:03
(Laughter)
17
63138
1806
(خنده حاضرین)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
خب، من خندیدم، ولی در واقع، خنده به خودم
01:07
Nowadays, there are computational systems
19
67915
3268
امروزه، سامانه‌های محاسباتی وجود دارد
01:11
that can suss out emotional states and even lying
20
71207
3548
که حالت احساسی و حتی دروغ رو از طریق تحلیل صورت انسان
01:14
from processing human faces.
21
74779
2044
می تونه بفهمه
01:17
Advertisers and even governments are very interested.
22
77248
4153
تبلیغ کننده‌ها و حتی دولت‌ها خیلی جالبند.
01:22
I had become a computer programmer
23
82319
1862
من یه برنامه نویس کامپیوتر شده بودم
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
زیرا من یکی از آن بچه‌های دیوانه ریاضی و علم بودم
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
اما در مسیر زندگی من در مورد سلاح‌های هسته‌ای چیزهایی یادگرفتم‌،
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
و واقعا در مورد اخلاق علمی نگران شدم.
01:34
I was troubled.
27
94050
1204
من وحشت زده بودم
01:35
However, because of family circumstances,
28
95278
2641
به هر حال، به دلیل موقعیت خانواده‌ام
01:37
I also needed to start working as soon as possible.
29
97943
3298
نیاز داشتم تا در اسرع وقت- کارم را شروع کنم
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
خُب با خودم فکر کردم بگذار تا یک رشته تکنیکی را بردارم
01:44
where I can get a job easily
31
104588
1796
که شغل راحتی باشه
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
و من با هیچ پرسش سخت اخلاقی مواجه نشوم؟
01:51
So I picked computers.
33
111022
1529
پس کامپیوترها را انتخاب کردم.
01:52
(Laughter)
34
112575
1104
(خنده حاضرین)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
خب، ها، ها، ها! همه خنده‌ها برای من هستند.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
امروزه، دانشمندان کامپیوتر در حال ساخت یک سیستم عامل هستند
01:59
that control what a billion people see every day.
37
119915
4209
که آنچه یک میلیارد آدم هر روز می‌بینند روکنترل می‌کنه
02:05
They're developing cars that could decide who to run over.
38
125052
3822
آنها خودروهایی را ساختند که می‌توانند تصمیم بگیرند که چه کسی زیر بگیرند.
02:09
They're even building machines, weapons,
39
129707
3213
آن ها حتی در حال ساخت ماشین‌هایی هستند، تسلیحاتی
02:12
that might kill human beings in war.
40
132944
2285
که ممکنه آدم ها رو در جنگ بکشه.
02:15
It's ethics all the way down.
41
135253
2771
همه اینها سقوط اخلاق‌ است.
02:19
Machine intelligence is here.
42
139183
2058
هوشمندی ماشین اینجاست.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
ما در حال استفاده از محاسباتی هستیم که همه تصمیمات ما را مرتب می‌کنه،
02:25
but also new kinds of decisions.
44
145321
1886
همچنین نوع‌های مختلف تصمیم‌ها را مرتب می‌کند.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
ما سوالاتی را می پرسیم هستیم که هیچ جواب معین درستی ندارند،
02:32
that are subjective
46
152427
1202
آنها ذهنی هستند
02:33
and open-ended and value-laden.
47
153653
2325
و بدون جواب معین و پر محتوا هستند.
02:36
We're asking questions like,
48
156002
1758
ما پرسش‌هایی شبیه اینها را می‌پرسیم:
02:37
"Who should the company hire?"
49
157784
1650
«شرکت کی باید استخدام کند؟»
02:40
"Which update from which friend should you be shown?"
50
160096
2759
«بکدام بروزرسانی از کدام دوست باید نشان داده شود؟»
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
«کدام متهم بیشتر شبیه خلافکارهاست؟»
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
«کدام بخش خبرها یا فیلم باید به مردم توصیه بشه؟»
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
ببیند، بله، ما مدت‌هاست است که در حال استفاده از کامپیوترها هستیم
02:51
but this is different.
54
171988
1517
اما این بار فرق داره.
02:53
This is a historical twist,
55
173529
2067
این یک چرخش تاریخی است،
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
زیرا ما نمی‌توانیم محاسبات را برای تصمیم‌های ذهنی نگه داریم
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
مانند روش محاسباتی برای پرواز هواپیما، ساخت پل‌ها
03:06
going to the moon.
58
186425
1259
و به ماه رفتن.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
آیا هواپیماها امن هستند؟ آیا این پل فرو می‌ریزد؟
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
این چنین است، ما منصفانه و براساس معیارهای روشن توافق کردیم
03:16
and we have laws of nature to guide us.
61
196254
2239
و ما قوانین طبیعت را برای راهنمایی داریم
03:18
We have no such anchors and benchmarks
62
198517
3394
ما چیزی شبیه مجری ها و معیارها برای تصمیم گیری
03:21
for decisions in messy human affairs.
63
201935
3963
درکارهای انسان آشفته نداریم.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
برای انجام کارهای پیچیده‌تر، تا نرم افزارهای ما بیشتر قدرتمند می‌شوند،
03:30
but it's also getting less transparent and more complex.
65
210183
3773
اما این می تواند کمتر شفاف و بیشتر پیچیده باشد.
03:34
Recently, in the past decade,
66
214542
2040
اخیرا، در دهه گذشته
03:36
complex algorithms have made great strides.
67
216606
2729
الگوریتم های پیچیده با گام‌های بلندی ساخته شده‌اند.
03:39
They can recognize human faces.
68
219359
1990
آنها می‌توانند صورت انسان را بازشناسایی کنند.
03:41
They can decipher handwriting.
69
221985
2055
آنها می‌توانند دست خط را تشخیص بدهند.
03:44
They can detect credit card fraud
70
224436
2066
آنها می‌توانند تقلب در کارت اعتباری را کشف کنند
03:46
and block spam
71
226526
1189
و اسپم‌ها را مسدود کنند
03:47
and they can translate between languages.
72
227739
2037
و آنها می‌توانند زبان‌ها را ترجمه کنند،
03:49
They can detect tumors in medical imaging.
73
229800
2574
می توانند تومورها را در تصاویر پزشکی کشف کنند.
03:52
They can beat humans in chess and Go.
74
232398
2205
آنها می‌توانند در بازیهای شطرنج و گو از آدمها ببرند.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
بیشتر این پیشرفت‌ها از روشی به نام "یادگیری ماشین" آمده‌اند.
04:00
Machine learning is different than traditional programming,
76
240175
3187
یادگیری ماشین با برنامه نویسی سنتی متفاوت هست،
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
که به کامپیوتر جزئیات دقیق دستورات پر زحمت را میدهید.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
این بیشتر شبیه اینه که شما یک سیستم گرفته‌اید و اطلاعات زیادی به آن می‌خورانید
04:11
including unstructured data,
79
251584
1656
شامل اطلاعات بدون ساختار،
04:13
like the kind we generate in our digital lives.
80
253264
2278
مانند اطلاعاتی که ما در زندگی دیجیتال خود تولید می‌کنیم.
04:15
And the system learns by churning through this data.
81
255566
2730
و سیستمی که بوسیله گردش در بین اطلاعات یاد میگیرد.
04:18
And also, crucially,
82
258669
1526
و همچنین بحرانی
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
آن سیستم‌هایی که زیر یک پاسخ سیگنال منطقی عمل نمی کنند
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
آن ها یک پاسخ ساده تولید نمی کنند این ها بیشتر "احتمال" هستند
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"این یک احتمالی است که بیشتر شبیه آنچه شما دنبال آن هستید "
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
حالا، بالاتر این است که: این شیوه واقعا قدرتمند است.
04:35
The head of Google's AI systems called it,
87
275117
2076
رییس سیستم‌های هوش مصنوعی (AI) گوگل این را نام گذاری کرد:
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"اثر غیر منطقی اطلاعات"
04:39
The downside is,
89
279791
1353
قسمت بدترش این است که:
04:41
we don't really understand what the system learned.
90
281738
3071
ما واقعا نمی‌فهمیم سیستم چه یاد می‌گیرد.
04:44
In fact, that's its power.
91
284833
1587
در حقیقت این قدرت آن است.
04:46
This is less like giving instructions to a computer;
92
286946
3798
این کمتر شبیهِ دادنِ دستورالعمل به کامپیوتر است،
04:51
it's more like training a puppy-machine-creature
93
291200
4064
این بیشتر شبیه یاد دادن به یک توله ماشین زندهاست
04:55
we don't really understand or control.
94
295288
2371
ما واقعا نمی‌فهمیم و کنترل نمی‌کنیم.
04:58
So this is our problem.
95
298362
1551
خب این مشکل ماست.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
این یک مشکل است وقتی که سیستم هوش مصنوعی چیزها را اشتباه یاد میگیرد.
05:04
It's also a problem when it gets things right,
97
304713
3540
این همچنین یک مشکل است وقتی که این چیزها را درست یاد میگیرد،
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
زیرا ما حتی نمی دانیم کدام به کدام است وقتی که این یک مشکل درونی است.
05:11
We don't know what this thing is thinking.
99
311929
2339
ما نمی‌دانیم در حال فکر کردن به چه چیزی است
05:15
So, consider a hiring algorithm --
100
315493
3683
یک الگوریتم استخدام را فرض کنید--
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
یک سیستمی که مردم را با استفاده از سیستم یادگیری ماشین استخدام می کند.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
مانند یک سیستمی که بر اساس اطلاعات کارمندان قبلی آموزش دیده شده است
05:28
and instructed to find and hire
103
328655
2591
و دستور دارد که پیدا کند و استخدام کند
05:31
people like the existing high performers in the company.
104
331270
3038
مردمی که بهروری بالایی در شرکت دارند.
05:34
Sounds good.
105
334814
1153
به نظر خوب میاد.
05:35
I once attended a conference
106
335991
1999
من یک بار در کنفرانسی حضور داشتم
05:38
that brought together human resources managers and executives,
107
338014
3125
که مدیران منابع انسانی و مدیران اجرایی دور هم جمع شده بودند،
05:41
high-level people,
108
341163
1206
افراد رده بالای شرکت‌ها
05:42
using such systems in hiring.
109
342393
1559
که از این سیستم‌های برای استخدام استفاده می کردند.
05:43
They were super excited.
110
343976
1646
آنها خیلی هیجان زده بودند
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
آنها فکر می کردند که این استخدام را بیشتر هدفمند و کمتر مغروضانه خواهند بود،
05:50
and give women and minorities a better shot
112
350323
3000
و به خانم ها و اقلیت یک شانس بهتری میدهد
05:53
against biased human managers.
113
353347
2188
بر خلاف غرض‌ورزی مدیران منابع انسانی
05:55
And look -- human hiring is biased.
114
355559
2843
ببینید-- استخدام افراد غرض ورزانه است.
05:59
I know.
115
359099
1185
من میدانم.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
منظورم اینه، در اولین شغل من به عنوان برنامه نویس
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
مدیر بخش من گاهی اوقات
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
در اول صبح یا آخر عصر پیش من می‌آمد
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
و میگفت: "زینب بیا بریم ناهار"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
من به خاطر زمان‌های عجیب گیج می‌شدم
06:16
It's 4pm. Lunch?
121
376915
2129
الان ساعت ۴ است، ناهار؟
06:19
I was broke, so free lunch. I always went.
122
379068
3094
من شکست می‌خوردم من همیشه برای ناهار مجانی می‌رفتم
06:22
I later realized what was happening.
123
382618
2067
بعدها فهمیدم که چه اتفاقی می‌افتاد
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
مدیران بالایی من در انتخابشان برای استخدام
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
یک دختر نوجوان که کفش کتانی و جین در محل کار می‌پوشید
06:32
who wore jeans and sneakers to work.
126
392416
3930
برای انجام یک کار جدی اشتباه نکرده بودند.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
من خوب کار می‌کردم، اما به نظرمیآمد که من مناسب نیستم
06:39
and was the wrong age and gender.
128
399400
1699
سن و جنسیتم نیز اشتباه بود.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
خُب نادیده گرفتن شدن جنسیت و نژاد من
06:44
certainly sounds good to me.
130
404493
1865
قطعا چیزی خوبی برای من بود.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
اما با این سیستم ها بغرنج‌تر و پیچیده‌تر شده و دلیلیش اینجاست:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
اخیرا، سیستم‌های محاسبه‌گر می‌توانند به همه چیزهای شما
06:56
from your digital crumbs,
133
416783
1872
از طریق خرده اطلاعات دیجیتالی شما پی‌ببرند،
06:58
even if you have not disclosed those things.
134
418679
2333
حتی اگر شما آن چیزها را فاش نکرده باشید.
07:01
They can infer your sexual orientation,
135
421506
2927
آنها به گرایش‌های جنسی‌تان ،
07:04
your personality traits,
136
424994
1306
ویژگی‌های شخصی‌تان،
07:06
your political leanings.
137
426859
1373
دانسته‌های سیاسی‌تان پی‌ببرند.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
آنها قدرت پیش بینی با صحت بالایی را دارند.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
به یاد داشته باشید، برای چیزهایی که شما حتی آنها را فاش نکرده‌اید
07:15
This is inference.
140
435964
1591
نتیجه گیری‌ و استنتاج است.
07:17
I have a friend who developed such computational systems
141
437579
3261
من یک دوستی دارم که سیستم های محاسبه گری را توسعه می‌دهد
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
تا شانس افسردگی بالینی یا بعد از وضع حمل را پیش بینی کند
07:24
from social media data.
143
444529
1416
با استفاده از اطلاعات رسانه های اجتماعی
07:26
The results are impressive.
144
446676
1427
نتیجه ها هیجان انگیز هستند.
07:28
Her system can predict the likelihood of depression
145
448492
3357
سیستمش احتمال افسردگی را می‌توان
07:31
months before the onset of any symptoms --
146
451873
3903
ماه‌های قبل از شروع علائم بیماری را پیش‌بینی کند--
07:35
months before.
147
455800
1373
ماه‌های قبل.
07:37
No symptoms, there's prediction.
148
457197
2246
هیچ علامتی از بیماری نیست، ولی پیش بینی می‌شود.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
او امیدوار است بزودی این را برای مداخلات (روانشناسی) استفاده کند . عالیه.
07:44
But now put this in the context of hiring.
150
464911
2040
اما حالا این در فضای استخدام قرار دهید.
07:48
So at this human resources managers conference,
151
468027
3046
بنابراین در این کنفرانس منبع مدیران انسانی
07:51
I approached a high-level manager in a very large company,
152
471097
4709
من به یک مدیر سطح بالا در یک شرکت بزرگ نزدیک شدم
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
و به او گفتم: "ببین، چه میشد اگر من برای تو فردی ناشناخته می‌شدم؟"
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
آیا سیستم تو در حال حذف مردم با احتمال بالای افسردگی در آینده، است ؟
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
آن ها الان افسرده نیستند، فقط شاید در آینده به احتمال زیاد دچار افسردگی شوند.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
یا اگر زنانی که احتمال دارد در یکی دو سال آینده باردار شوند
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
ولی الان حامله نیستد را کنار گذارده شوند؟
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
اگر این افراد پرخاشکر را استخدام شوند زیرا آن فرهنگ محیط کاریت است
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
تو با استفاده از نگاه کردن به تقسیم بندی جنسبت نمی توانی بگویی
08:27
Those may be balanced.
160
507888
1502
آن ها ممکنه متعادل باشند.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
و چون این یادگیری ماشین است و برنامه نویسی سنتی نیست
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
هیچ متغیری وجود ندارد که "بیشترین خطر افسردگی " نام گذاری شود
08:37
"higher risk of pregnancy,"
163
517926
1833
"بیشترین خطر حاملگی"
08:39
"aggressive guy scale."
164
519783
1734
"مقیاس پرخاشگری مردان"
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
نه تنها نمی دانست چگونه سیستم شما، انتخاب می کنه
08:45
you don't even know where to begin to look.
166
525698
2323
شما حتی نمی دانی که در کجا جستجو می‌کند
08:48
It's a black box.
167
528045
1246
این یک جعبه سیاه است.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
این قدرت پیش گویی دارد اما شما این را نمی‌فهمی
08:52
"What safeguards," I asked, "do you have
169
532486
2369
من پرسسیدم"حفاظت چیست؟"
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
« آیا باید مطمئن شوی که جعبه سیاه تان کار مشکوکی انجام نمی‌دهد؟»
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
او به من به نگاه کرد مثل اینکه من پا روی دُم ده تا توله گذاشتم!
09:04
(Laughter)
172
544765
1248
(خنده حاضرین)
09:06
She stared at me and she said,
173
546037
2041
او به من خیره شد و گفت:
09:08
"I don't want to hear another word about this."
174
548556
4333
«نمی‌خوام کلمه دیگری در این باره بشنوم»
09:13
And she turned around and walked away.
175
553458
2034
و او برگشت و قدم زنان دور شد.
09:16
Mind you -- she wasn't rude.
176
556064
1486
به خاطر داشته باشید او بی‌ادب نبود.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
کاملا روشن بود با نگاهش می‌گفت: نمی‌دونم، این مشکل من نیست، برو.
09:23
(Laughter)
178
563906
1246
(خنده حاضرین)
09:25
Look, such a system may even be less biased
179
565862
3839
نگاه کنید، یک سیستم ممکن است حتی کمتر جانبدارانه باشد
09:29
than human managers in some ways.
180
569725
2103
تا مدیران انسانی در همان زمینه.
09:31
And it could make monetary sense.
181
571852
2146
و این میتونه یک حس مالی ایجاد کنه
09:34
But it could also lead
182
574573
1650
اما این می‌تونه منجر بشه
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
به یک یکنواختی اما یواشکی بستن بازار کار مردم
09:41
of people with higher risk of depression.
184
581019
2293
که با ریسک بالای افسردگی همراه هستند.
09:43
Is this the kind of society we want to build,
185
583753
2596
آیا این نوع اجتماعی است که ما می‌خواهیم بسازیم؟
09:46
without even knowing we've done this,
186
586373
2285
بدون حتی دانستن اینکه ما این را انجام دادیم
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
زیرا ما ساختن تصمیم را تبدیل کردیم به ماشین که ما سرانجامش را نمی‌فهمیم
09:53
Another problem is this:
188
593265
1458
و مسئله دیگر این است:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
این سیستم ها اغلب روی اطلاعات تولید شده توسط کارهای ما آموزش داده می‌شوند،
09:59
human imprints.
190
599790
1816
آثار به جای مانده از انسان.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
خب، آنها فقط می‌توانند تمایلات ما را منعکس کنند،
10:06
and these systems could be picking up on our biases
192
606020
3593
و این سیستم‌های می‌توانند تمایلات ما را انتخاب کنند
10:09
and amplifying them
193
609637
1313
و آن را تقویت کرده
10:10
and showing them back to us,
194
610974
1418
و آن را دوباره به ما نشان دهند،
10:12
while we're telling ourselves,
195
612416
1462
در حالی که به خودمان می‌گویم،
10:13
"We're just doing objective, neutral computation."
196
613902
3117
«ما فقط در حال بررسی هستیم.»
10:18
Researchers found that on Google,
197
618314
2677
محققان در شرکت گوگل دریافتند،
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
زنان نسبت به مردان احتمال کمتری دارد که برای مشاغل با حقوق بالاتر قدام کنند.
10:28
And searching for African-American names
199
628463
2530
و نام‌های آفریقایی-آمریکایی را که جستجو کنید
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
احتمال بیشتر دارد که پیشینه جرم نشان دهد،
10:35
even when there is none.
201
635747
1567
حتی وقتی که واقعا جرمی وجود ندارد.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
مانند تمایلات پنهان و الگوریتم جعبه سیاه
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
که گاهی محققات آن را تحت پوشش قرار نمی دهند و ما از آن گاهی اطلاع نداریم.
10:46
can have life-altering consequences.
204
646263
2661
که می توانیم پر‌آمدهایی زندگی داشته باشد.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
در ویسکانسین یک متهم به شش سال زندان محکوم شد
10:54
for evading the police.
206
654141
1355
برای فرار از پلیس.
10:56
You may not know this,
207
656824
1186
شما ممکنه این را ندانید،
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
اما الگوریتم به طور افزاینده‌ای در آزادی مشروط و صدور حکم در حال استفاده هستند
11:02
He wanted to know: How is this score calculated?
209
662056
2955
او می خواهد بداند: چگونه این نمره محاسبه می شود؟
11:05
It's a commercial black box.
210
665795
1665
این یک جعبه سیاه تجاری است
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
شرکت درخواست اینکه الگوریتم در دادگاه به چالش کشیده بشود را رد کرد.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
اما پروپابلیکا، یک موسسه تحقیقاتی غیرانتفاعی خیلی از الگوریتم ها را
11:17
with what public data they could find,
213
677952
2016
با اطلاعات عمومی ای که آن ها می‌توانند پیدا کنند بررسی می‌کنند.
11:19
and found that its outcomes were biased
214
679992
2316
و دریافتند که این یک نتیجه از تمایلات بوده
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
و این قدرت پیش‌بینی اشتباه، نه فقظ شانسی( بلکه به عمد)
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
و به طور اشتباه متهمان سیاه را به عنوان مجرمان آینده دوبرابر نرخ مجرمان سفید
11:30
at twice the rate of white defendants.
217
690425
3895
برچست گذاری کرده بود.
11:35
So, consider this case:
218
695891
1564
خب، به این مورد دقت کنید:
11:38
This woman was late picking up her godsister
219
698103
3852
این خانم برای برداشتن دخترخوانده‌اش دیر رسید
11:41
from a school in Broward County, Florida,
220
701979
2075
از یک مدرسه در بروارد ایالت فلوریدا،
11:44
running down the street with a friend of hers.
221
704757
2356
با دوستش از خیابان می دوید.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
آن ها یک دوچرخه بچه و یک اسکوتر روی ایوان که قفل نشده بود را نشان دادند
11:51
and foolishly jumped on it.
223
711260
1632
و احمقانه روی آن پرید
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
وقتی آنها در حال سرعت گرفتن بودند یک زن آمد و گفت
11:55
"Hey! That's my kid's bike!"
225
715539
2205
هی! این دوچرخه بچه من است
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
آن ها دوچرخه را رها کردن و دور شدند ولی آن ها دستگیر شدند
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
او اشتباه کرد و او احمق بود ولی او تنها ۱۸ سال داشت
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
او یک تعدادی جرم‌های کوچک داشت.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
ضمنا، آن مرد برای سرقت از فروشگاه هوم دیپو دستگیر شده بود--
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
۸۵ دلار، که ارزشش به اندازه جرم کوچک بود.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
اما او محکومیت دو سرقت مسلحانه داشت.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
اما الگوریتم احتمال بالای جرم برای این زن نشان می‌داد، و نه برای این مرد.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
دو سال بعد، پروپابلیکا یافت که این نباید در حبس باشد.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
و با سایقه‌ای را که داشت برای او پیدا کردن شغل مشگل بود.
12:33
He, on the other hand, did reoffend
235
753218
2076
از طرف دیگر این مرد زندانی شد
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
و برای گناه گذشته‌اش برای هشت سال زندانی خواهد بود.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
روشن است، ما نیاز داریم تا جعبه سیاهمان را بازبینی و بررسی کنیم
12:43
and not have them have this kind of unchecked power.
238
763481
2615
و نه آن ها را، بلکه این نوع قدرت چک نشده را حسابرسی کنیم
12:46
(Applause)
239
766120
2879
(تشویق حضار)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
بررسی و باربینی خوب و مهم است اما آنها تمام مشکلات ما را حل نمی کنند.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
الگوریتم قدرت خبری فیسبوک را در نظر بگیرید.
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
می‌دانید، کسی که همه چیز را رتبه بندی می‌کند و تصمیم میگیرد که چه به شما نشان دهد
13:01
from all the friends and pages you follow.
243
781992
2284
از همه دوستان و همه صفحه‌هایی که شما دنبال می‌کنید.
13:04
Should you be shown another baby picture?
244
784898
2275
باید به شما عکس بچه‌ی دیگه را نشان دهد؟
13:07
(Laughter)
245
787197
1196
(خنده)
13:08
A sullen note from an acquaintance?
246
788417
2596
یک یادداشت عبوس از یک آشنا؟
13:11
An important but difficult news item?
247
791449
1856
یک خبر مهم اما قسمت‌های سختش؟
13:13
There's no right answer.
248
793329
1482
هیچ جواب درستی وجود ندارد.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
فیس بوک برای مشغولیت بیشتر در سایت بهینه شده :
13:17
likes, shares, comments.
250
797518
1415
لایک، اشتراگ گذاری، کامنت
13:20
In August of 2014,
251
800168
2696
در آگوست ۲۰۱۴
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
در شهر فرگوست ایالت میسوری معترضان
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
بعد از کشتن یک نوجوان آفریقایی- آمریکایی به وسیله یک پلیس سفید پوست
13:30
under murky circumstances.
254
810015
1570
زیر رویداد مبهم شورش کردند،
13:31
The news of the protests was all over
255
811974
2007
خبرهای معترضان در همه جا بود
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
الگورتیم من فید‌های تویتر را فیلتر نکرد
13:36
but nowhere on my Facebook.
257
816714
1950
اما در فیس بوکم هیچ جا باز نبود.
13:39
Was it my Facebook friends?
258
819182
1734
آیا اینها دوستان فیسبوکی من بودند؟
13:40
I disabled Facebook's algorithm,
259
820940
2032
من الگوریتم فیسبوکم را غیر فعال کردم،
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
که سخت بود زیرا فیسبوک خواسته های شما را حفظ میکند
13:46
come under the algorithm's control,
261
826344
2036
تا شما را زیر کنترل الگوریتم ها نگه دارد،
13:48
and saw that my friends were talking about it.
262
828404
2238
و می بینید که دوستان من در حال صحبت کردن درباره این حادثه بودند.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
این فقط الگوریتمی بود که این را به من نشان من داد.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
من تحقیق کردم و فهمیدم که این یه مشکل شایع بود
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
حادثه فرگوست یک الگوریتم دوستانه نبود.
14:00
It's not "likable."
266
840102
1171
دوست داشتنی نبود
14:01
Who's going to click on "like?"
267
841297
1552
چه کسی می خواد تا روی "like" کلیک کنید؟
14:03
It's not even easy to comment on.
268
843500
2206
این حتی ساده نیست تا کامنتی روی آن قرار دهید.
14:05
Without likes and comments,
269
845730
1371
بدون "like" و کامنت
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
احتمالا الگوریتم برای افراد کمتری را نشان داده می‌شد،
14:10
so we didn't get to see this.
271
850441
1542
بنابراین ما نتوانستیم این را ببینیم
14:12
Instead, that week,
272
852946
1228
در عوض، آن هفته،
14:14
Facebook's algorithm highlighted this,
273
854198
2298
الگوریتم فیس بوک این را برجسته کرده بود:
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
این چالش سطل آب یخ است.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
علت ارزش، خالی کردن آب یخ، کمک به موسسه خیریه خوب است
14:22
But it was super algorithm-friendly.
276
862536
1904
اما این الگوریتم دوستانه عالی بود.
14:25
The machine made this decision for us.
277
865219
2613
که ماشین این تصمیم را برای ما گرفت.
14:27
A very important but difficult conversation
278
867856
3497
و خیلی مهم است اما گفتگوی سختی است
14:31
might have been smothered,
279
871377
1555
ممکن است خفه شده باشد.
14:32
had Facebook been the only channel.
280
872956
2696
آیا فیسبوک فقط یک کانال داشت؟
14:36
Now, finally, these systems can also be wrong
281
876117
3797
خُب، این سیستم ها می‌توانند اشتباه باشند
14:39
in ways that don't resemble human systems.
282
879938
2736
در راه هایی که شباهت به سیستم انسانی ندارد.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
آیا شما واتسون، سیستم ماشین هوشمند آی بی ام
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
که با انسان مسابقه جوپرتری را داد را به خاطر دارید؟
14:49
It was a great player.
285
889131
1428
واتسون بازیگر خوبی در مسابقه بود.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
اما در آخرین جوپرتی، از واتسون پرسیده شد
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
«آیا بزرگترین فرودگاه که برای یک قهرمان جنگ جهانی دوم نام گذاری شد"
14:57
its second-largest for a World War II battle."
288
897615
2252
این دومین فرودگاه بزرگ برای مبارزه جنگ جهانی دوم نامگذاری شد.»
14:59
(Hums Final Jeopardy music)
289
899891
1378
(...)
15:01
Chicago.
290
901582
1182
شیکاگو.
15:02
The two humans got it right.
291
902788
1370
دو فرد درست جواب دادند
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
واتسون در طرف دیگر پاسخ داد «تورنتو»--
15:09
for a US city category!
293
909069
1818
برای یک شهر آمریکایی!
15:11
The impressive system also made an error
294
911596
2901
سیستم موثر همچنین یک اشتباه کرد
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
که یک فرد هیچ وقت این اشتباه را نخواهد کرد، حتی یک کلاس دومی.
15:18
Our machine intelligence can fail
296
918823
3109
ماشین هوشمند ما میتواند شکست بخورد
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
در جاهایی که نمی تواند الگوی خطای انسان ها را متناسب کند
15:25
in ways we won't expect and be prepared for.
298
925080
2950
در جاهایی که ما انتظار و آمادگی برای آن نخواهیم داشت
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
این نکبت بار خواهد بود که کسی که واجد شرایط هست شفلی را نگیرد،
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
اما سه برابر آن بدتر اینکه به دلیل خرده رفتارها
15:35
in some subroutine.
301
935467
1432
در روال عادی زندگی فرد آن شغل را نگیرد.
15:36
(Laughter)
302
936923
1579
(خنده حضار)
15:38
In May of 2010,
303
938526
2786
در ماه می ۲۰۱۰،
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
یک خرابی کوتاه مدت ناشی از یک حلقه فیدبک تقویت شد در وال استریت
15:45
in Wall Street's "sell" algorithm
305
945404
3028
در الگوریتم« فروش» وال استریت
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
یک تریلیون دلار ارزش را در ۳۶ دقیقه از بین برد.
15:53
I don't even want to think what "error" means
307
953722
2187
من حتی نمی‌خوام در مورد معنی‌های «خطا»
15:55
in the context of lethal autonomous weapons.
308
955933
3589
در زمینه سلاح های کشنده خودکار فکر کنم.
16:01
So yes, humans have always made biases.
309
961894
3790
خب بله، انسان‌ها همیشه تمایلات را می‌سازند.
16:05
Decision makers and gatekeepers,
310
965708
2176
تصمیم گیرنده‌ها و دربان‌ها
16:07
in courts, in news, in war ...
311
967908
3493
در دادگاه ها و در خبر ها و در جنگ...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
آنها اشتباه می کنند، اما این دقیقا نکته مورد نظر من است.
16:14
We cannot escape these difficult questions.
313
974487
3521
ما نمی توانیم از این سوالهای مشگل فرارکنیم.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
ما نمی‌توانیم مسئولیت هایمان را در قبال ماشین ها نادیده بگیریم.
16:22
(Applause)
315
982676
4208
(تشویق)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
هوش مصنوعی نمی‌تواند به ما یک کارت «خارج شدن از اخلاق به صورت رایگان» بدهد
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
دانشمند اطلاعات، فرد بنسون این را "شستشوی ریاضی" می‌نامد
16:38
We need the opposite.
318
998147
1389
ما به این تضاد نیاز داریم.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
ما نیاز داریم تا یک الگوریتم بد گمانی را با بررسی دقیق و موشکافانه رشد دهیم.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
ما نیاز داریم تا مطمئن باشیم که مسولیت الگوریتمی داریم،
16:48
auditing and meaningful transparency.
321
1008602
2445
حسابرسی و شفافیت معنایی نیاز داریم.
16:51
We need to accept that bringing math and computation
322
1011380
3234
ما نیاز داریم تا قبول کنیم که آورده های ریاضی و محاسباتی
16:54
to messy, value-laden human affairs
323
1014638
2970
برای ارزش انباشته و به هم ریخته و امور انسانی
16:57
does not bring objectivity;
324
1017632
2384
عینیت ندارد.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
بلکه ، پیچیدگی امور انسانی به الگوریتم ها حتما غلبه می‌کند.
17:04
Yes, we can and we should use computation
326
1024148
3487
بله ما می توانیم و ما باید از محاسبات استفاده کنیم
17:07
to help us make better decisions.
327
1027659
2014
تا برای داشتن تصمیمات بهتر به خودمان کمک کنیم
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
اما ما اعتراف می‌کنیم به مسئولیت اخلاقی و قضاوت
17:15
and use algorithms within that framework,
329
1035053
2818
و استفااه از الگورتیم هایی با آن چارچوب
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
نه به عنوان وسیله ای برای کناره گیری و واگذاری مسئولیت هایمان
17:22
to one another as human to human.
331
1042854
2454
به یک انسان دیگر.
17:25
Machine intelligence is here.
332
1045807
2609
هوش مصنوعی اینجاست.
17:28
That means we must hold on ever tighter
333
1048440
3421
این بدان معناست که ما باید محکم‌تر
17:31
to human values and human ethics.
334
1051885
2147
ارزش‌ها و اخلاق انسانی را نگه داریم.
17:34
Thank you.
335
1054056
1154
متشکرم
17:35
(Applause)
336
1055234
5020
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7