The era of blind faith in big data must end | Cathy O'Neil

242,900 views ・ 2017-09-07

TED


ভিডিওটি চালানোর জন্য অনুগ্রহ করে নিচের ইংরেজি সাবটাইটেলে ডাবল-ক্লিক করুন।

Translator: urjoshi sinha Reviewer: Palash Ranjan Sanyal
00:12
Algorithms are everywhere.
0
12795
1596
অ্যালগরিদম সব জায়গায় উপস্থিত|
00:15
They sort and separate the winners from the losers.
1
15931
3125
তারা পরাজিতদের বিজয়ীদের থেকে আলাদা করে|
00:19
The winners get the job
2
19839
2264
00:22
or a good credit card offer.
3
22127
1743
বা ক্রেডিট কার্ড অফার পায়|
00:23
The losers don't even get an interview
4
23894
2651
ক্ষতিগ্রস্তরা একটা সাক্ষাৎকারও পায়না বা
00:27
or they pay more for insurance.
5
27410
1777
তাদের বীমার জন্য বেশি টাকা দিতে হয়|
00:30
We're being scored with secret formulas that we don't understand
6
30017
3549
আমাদের গোপন সূত্র দিয়ে মাপা হচ্ছে যা আমরা বুঝতে পারিনা
00:34
that often don't have systems of appeal.
7
34495
3217
এবং যার বিরুদ্ধে আবেদন করার ব্যবস্থা নেই |
00:39
That begs the question:
8
39060
1296
তাই এই প্রশ্নটা ওঠে:
00:40
What if the algorithms are wrong?
9
40380
2913
যদি অ্যালগরিদম গুলো ভুল হয়ে তাহলে কি হবে?
00:44
To build an algorithm you need two things:
10
44920
2040
অ্যালগরিদম নির্মাণের জন্য দুটি জিনিসের
00:46
you need data, what happened in the past,
11
46984
1981
প্রয়োজন: আপনার দরকার তথ্য,অতীতে কি ঘটেছে,
00:48
and a definition of success,
12
48989
1561
এবং সাফল্যের একটি সংজ্ঞা,
00:50
the thing you're looking for and often hoping for.
13
50574
2457
আপনি কি খুঁজছেন এবং কিসের জন্য প্রত্যাশী |
00:53
You train an algorithm by looking, figuring out.
14
53055
5037
আপনি দেখে এবং বিবেচনা করে একটি অ্যালগরিদম কে শেখান |
00:58
The algorithm figures out what is associated with success.
15
58116
3419
অ্যালগরিদমটি সাফল্যের সাথে কি যুক্ত তা প্রকাশ করে।
01:01
What situation leads to success?
16
61559
2463
কোন পরিস্থিতি সফলতার দিকে এগিয়ে নিয়ে যায়?
01:04
Actually, everyone uses algorithms.
17
64701
1762
বাস্তবে সবাই অ্যালগরিদম ব্যবহার করে।
01:06
They just don't formalize them in written code.
18
66487
2718
তারা লিখিত কোডে তা প্রকাশ করেনা |
01:09
Let me give you an example.
19
69229
1348
একটি উদাহরণ নিন |
01:10
I use an algorithm every day to make a meal for my family.
20
70601
3316
আমি প্রতিদিন এক অ্যালগরিদম ব্যবহার করে আমার পরিবারের জন্য খাবার বানাই|
01:13
The data I use
21
73941
1476
আমার জন্য তথ্য হল
01:16
is the ingredients in my kitchen,
22
76214
1659
রান্নাঘরের সকল উপাদানগুলি,
01:17
the time I have,
23
77897
1527
আমার সময়,
01:19
the ambition I have,
24
79448
1233
আমার উচ্চাকাঙ্খা,
01:20
and I curate that data.
25
80705
1709
এবং আমি সেই তথ্যগুলি সংগঠিত করি |
01:22
I don't count those little packages of ramen noodles as food.
26
82438
4251
আমি খাবার হিসাবে রামেন নুডলস এর প্যাকেজগুলো গণনা করিনা |
01:26
(Laughter)
27
86713
1869
(হাসি )
01:28
My definition of success is:
28
88606
1845
আমার কাছে সাফল্যের বর্ণনা হল:
01:30
a meal is successful if my kids eat vegetables.
29
90475
2659
আমার বাচ্চারা সবজি খেলে একটি আহার সফল হয় |
01:34
It's very different from if my youngest son were in charge.
30
94001
2854
এটা আলাদা হত যদি আমার ছোট ছেলে এই কাজের কর্মকর্তা হত |
01:36
He'd say success is if he gets to eat lots of Nutella.
31
96879
2788
সে বলত আহার সফল তখনি হবে যখন সে অনেক নিউটেলা খেতে পারবে |
01:40
But I get to choose success.
32
100999
2226
কিন্তু এ ক্ষেত্রে আমি সফলতার বর্ণনা ঠিক করে দিচ্ছি|
01:43
I am in charge. My opinion matters.
33
103249
2707
আমি কর্মকর্তা | আমার মতামত গুরুত্বপূর্ণ |
01:45
That's the first rule of algorithms.
34
105980
2675
এটা অ্যালগরিদমের প্রথম নিয়ম।
01:48
Algorithms are opinions embedded in code.
35
108679
3180
অ্যালগরিদম কিছু মতামত যা কোডের মধ্যে উদ্ভিত করা থাকে|
01:53
It's really different from what you think most people think of algorithms.
36
113382
3663
এটি অধিকাংশ মানুষ যা ভাবে এর সম্পর্কে তার চেয়ে ভিন্ন|
01:57
They think algorithms are objective and true and scientific.
37
117069
4504
তারা মনে করেন অ্যালগরিদমগুলি উদ্ধেষপূর্ণ এবং সত্য এবং বৈজ্ঞানিক।
02:02
That's a marketing trick.
38
122207
1699
এটি একটি বিজ্ঞাপনের কৌশল|
02:05
It's also a marketing trick
39
125089
2125
একটি বিজ্ঞাপনের কৌশলের মতন
02:07
to intimidate you with algorithms,
40
127238
3154
অ্যালগরিদমের দ্বারা আপনাদের ভীতি বাড়ানো হয়,
02:10
to make you trust and fear algorithms
41
130416
3661
যাতে আপনারা অ্যালগরিদমকে বিশ্বাস করেন এবং ভয় পান
02:14
because you trust and fear mathematics.
42
134101
2018
কারণ আপনারা অঙ্ককে বিশ্বাস করেন এবং ভয় পান|
02:17
A lot can go wrong when we put blind faith in big data.
43
137387
4830
বিগ ডাটা এ অন্ধ বিশ্বাস করলে অনেক ভুল হতে পারে|
02:23
This is Kiri Soares. She's a high school principal in Brooklyn.
44
143504
3373
ইনি কিরি সোয়ার্স|তিনি ব্রুক্লিনের এক উচ্চ বিদ্যালয়ের প্রধান|
02:26
In 2011, she told me her teachers were being scored
45
146901
2586
২0১১ সালে, তিনি আমাকে বলেছিলেন যে তার শিক্ষকদের
02:29
with a complex, secret algorithm
46
149511
2727
একটি জটিল, গোপন অ্যালগরিদম দিয়ে অবহিত করা হচ্ছে
02:32
called the "value-added model."
47
152262
1489
জাকে বলা হয় "মূল্য-সংযোজন মডেল।"
02:34
I told her, "Well, figure out what the formula is, show it to me.
48
154325
3092
আমি তাকে বলেছিলাম, "আচ্ছা, সূত্রটা কী, তা আমাকে দেখিয়ে দাও।
02:37
I'm going to explain it to you."
49
157441
1541
আমি আপনাকে এটা ব্যাখ্যা করব|"
02:39
She said, "Well, I tried to get the formula,
50
159006
2141
তিনি বলেন, "আমি সূত্রটি পেতে চেষ্টা করেছি,
02:41
but my Department of Education contact told me it was math
51
161171
2772
কিন্তু আমাদের শিক্ষা বিভাগ আমাকে বলল এটি
02:43
and I wouldn't understand it."
52
163967
1546
গণিত এবং আমি তা বুঝতে পারবনা|"
02:47
It gets worse.
53
167086
1338
আরো খারাপ হতে পারে|
02:48
The New York Post filed a Freedom of Information Act request,
54
168448
3530
নিউইয়র্ক পোস্ট তথ্য অধিকারের স্বাধীনতা
02:52
got all the teachers' names and all their scores
55
172002
2959
আইন অনুযায়ী আবেদন করে সমস্ত শিক্ষকের নাম
02:54
and they published them as an act of teacher-shaming.
56
174985
2782
এবং নম্বরের ও সেগুলি শিক্ষক-শিষ্টাচারের রূপে প্রকাশ করে।
02:58
When I tried to get the formulas, the source code, through the same means,
57
178904
3860
যখন আমি সূত্রগুলো পাওয়ার চেষ্টা করি, সোর্স কোড গুলো, একই পথে,
03:02
I was told I couldn't.
58
182788
2149
আমায় বলা হয়ে যে আমায় তা দেওয়া হবেনা|
03:04
I was denied.
59
184961
1236
আমায় বাধা দেওয়া হয়|
03:06
I later found out
60
186221
1174
আমি পরে জানতে পারলাম
03:07
that nobody in New York City had access to that formula.
61
187419
2866
নিউ ইয়র্কে কারোই সেই কোড জানা নেই|
03:10
No one understood it.
62
190309
1305
কেউ তা বুঝতোনা |
03:13
Then someone really smart got involved, Gary Rubinstein.
63
193749
3224
তারপর একদিন এক শিক্ষিত মানুষ জড়িয়ে পড়লেন, গ্যারি রুবিনস্টাইন|
03:16
He found 665 teachers from that New York Post data
64
196997
3621
তিনি লক্ষ্য করলেন নিউ ইয়র্ক পোস্টের তথ্যে
03:20
that actually had two scores.
65
200642
1866
৬৬৫ শিক্ষকের দুটি নম্বর ছিল|
03:22
That could happen if they were teaching
66
202532
1881
এটা তখনই সম্ভব যদি তারা সপ্তম
03:24
seventh grade math and eighth grade math.
67
204437
2439
এবং অষ্টম দুই শ্রেণীতেই অঙ্ক পড়ান|
03:26
He decided to plot them.
68
206900
1538
তিনি এগুলি চিত্র লেখন করেন।
03:28
Each dot represents a teacher.
69
208462
1993
একটি দাগ একটি শিক্ষককে বোঝায়|
03:30
(Laughter)
70
210924
2379
(হাসি )
03:33
What is that?
71
213327
1521
এটা কি?
03:34
(Laughter)
72
214872
1277
(হাসি)
03:36
That should never have been used for individual assessment.
73
216173
3446
এরকম ব্যক্তিগতভাবে মূল্যায়ন করা সঠিক না।
03:39
It's almost a random number generator.
74
219643
1926
এটি প্রায় একটি এলোমেলো সংখ্যা উৎপাদক।
03:41
(Applause)
75
221593
2946
(তালি)
03:44
But it was.
76
224563
1162
কিন্তু তাই ছিল|
03:45
This is Sarah Wysocki.
77
225749
1176
ইনি সারা ওয়াসকি |
03:46
She got fired, along with 205 other teachers,
78
226949
2175
তাকে ওয়াশিংটনে,ডিসি স্কুল জেলার ২০৫ জন
03:49
from the Washington, DC school district,
79
229148
2662
অন্যান্য শিক্ষকের সাথে বহিষ্কার করা হয়,
03:51
even though she had great recommendations from her principal
80
231834
2909
যদিও তার স্কুলের প্রধান ও বাচ্চাদের পিতামাতাদের
03:54
and the parents of her kids.
81
234767
1428
থেকে ভালো সুপারিশ ছিল।
03:57
I know what a lot of you guys are thinking,
82
237210
2032
আমি জানি আপনারা এখানে কি ভাবছেন, বিশেষত
03:59
especially the data scientists, the AI experts here.
83
239266
2487
যারা তথ্য বৈজ্ঞানিক এবং এ.আই বিশেষজ্ঞ|
04:01
You're thinking, "Well, I would never make an algorithm that inconsistent."
84
241777
4226
আপনারা ভাবছেন,"আমরা কখনো এরকম অসঙ্গত অ্যালগরিদম তৈরী করবোনা|"
04:06
But algorithms can go wrong,
85
246673
1683
কিন্তু অ্যালগরিদমে ভুল হতে পারে,
04:08
even have deeply destructive effects with good intentions.
86
248380
4598
এমনকি ভাল উদ্দেশ্যর সঙ্গে গভীরভাবে ধ্বংসাত্মক প্রভাব থাকতে পারে।
04:14
And whereas an airplane that's designed badly
87
254351
2379
ঠিক যেভাবে খারাপ ভাবে নকশা করা
04:16
crashes to the earth and everyone sees it,
88
256754
2001
একটি বিমান যেমন মাটিতে ভেঙে পড়তে পারে,
04:18
an algorithm designed badly
89
258779
1850
একটি খারাপ ভাবে পরিকল্পিত অ্যালগরিদমও
04:22
can go on for a long time, silently wreaking havoc.
90
262065
3865
দীর্ঘ সময় ধরে চলে, ক্ষয় করতে পারে|
04:27
This is Roger Ailes.
91
267568
1570
ইনি রজার আইলেস |
04:29
(Laughter)
92
269162
2000
(হাসি )
04:32
He founded Fox News in 1996.
93
272344
2388
তিনি ১৯৯৬ সালে ফক্স নিউজ প্রতিষ্ঠা করেন।
04:35
More than 20 women complained about sexual harassment.
94
275256
2581
২0 জনের বেশি মহিলা যৌন হয়রানি সম্পর্কে অভিযোগ করেছে।
04:37
They said they weren't allowed to succeed at Fox News.
95
277861
3235
তারা জানিয়েছে যে তাদের ফক্স নাউসে সফলতা হাসিল করতে দেওয়া হয়নি|
04:41
He was ousted last year, but we've seen recently
96
281120
2520
গত বছর তিনি ক্ষমতাচ্যুত হন
04:43
that the problems have persisted.
97
283664
2670
কিন্তু আমরা দেখছি সমস্যাগুলি অব্যাহত।
04:47
That begs the question:
98
287474
1400
তাই প্রশ্নটি ওঠে:
04:48
What should Fox News do to turn over another leaf?
99
288898
2884
পাল্টানোর জন্য ফক্স নিউজের কি করণীয়?
04:53
Well, what if they replaced their hiring process
100
293065
3041
কি হবে তারা যদি নিয়োগের প্রক্রিয়াটি একটি মেশিন-লার্নিং
04:56
with a machine-learning algorithm?
101
296130
1654
অ্যালগরিদম দিয়ে প্রতিস্থাপন করে?
04:57
That sounds good, right?
102
297808
1595
তা শুনতে ভালো লাগে তাইনা?
04:59
Think about it.
103
299427
1300
এ বিষয় ভাবুন।
05:00
The data, what would the data be?
104
300751
2105
তথ্যটি কি হবে?
05:02
A reasonable choice would be the last 21 years of applications to Fox News.
105
302880
4947
একটি যুক্তিসঙ্গত পছন্দ হল ফক্স নিউজের সর্বশেষ ২১ বছরের অ্যাপ্লিকেশন।
05:07
Reasonable.
106
307851
1502
যৌক্তিক।
05:09
What about the definition of success?
107
309377
1938
এবং সাফল্যের বর্ণনাটি কি হবে?
05:11
Reasonable choice would be,
108
311741
1324
একটি যৌক্তিক উত্তর হল,
05:13
well, who is successful at Fox News?
109
313089
1778
ফক্স নিউজে কারা সফলতা লাভ করেছে?
05:14
I guess someone who, say, stayed there for four years
110
314891
3580
ধরুন যে চার বছর কাজ করেছে এবং
05:18
and was promoted at least once.
111
318495
1654
অন্তত যার একবার পদোন্নতি হযেছে।
05:20
Sounds reasonable.
112
320636
1561
যৌক্তিক শোনাচ্ছে।
05:22
And then the algorithm would be trained.
113
322221
2354
এবং তারপর অ্যালগরিদমটিকে শেখানো হবে।
05:24
It would be trained to look for people to learn what led to success,
114
324599
3877
এটা কীভাবে সাফল্যের দিকে পরিচালিত হবে তা জানতে লোকেদের সন্ধান করতে
05:29
what kind of applications historically led to success
115
329039
4318
প্রশিক্ষণ করা হবে, ঐতিহ্যগত ভাবে কোন অ্যাপ্লিকেশন সাফল্যলাভ
05:33
by that definition.
116
333381
1294
করেছে সেই বর্ণনার দ্বারা।
05:36
Now think about what would happen
117
336020
1775
এবার ভাবুন কি হবে
05:37
if we applied that to a current pool of applicants.
118
337819
2555
আমরা যদি এটা বর্তমানে একদল আবেদনকারীদের
05:40
It would filter out women
119
340939
1629
উপর প্রয়োগ করি। তাহলে তা
05:43
because they do not look like people who were successful in the past.
120
343483
3930
নারীদের বাদ দিয়ে দেবে কারণ নারীরা এক সময় সফল ছিলনা।
05:51
Algorithms don't make things fair
121
351572
2537
অন্ধের মতন অ্যালগরিদম প্রয়োগ
05:54
if you just blithely, blindly apply algorithms.
122
354133
2694
করলে তা যৌক্তিক হয়না
05:56
They don't make things fair.
123
356851
1482
তা ন্যায্য হয়না।
05:58
They repeat our past practices,
124
358357
2128
তা আমাদের অতীতের ব্যবহারগুলো,
06:00
our patterns.
125
360509
1183
পুনরায় অনুসরণ করে।
06:01
They automate the status quo.
126
361716
1939
তারা স্থিতাবস্তায় স্বয়ংক্রিয় পদ্ধতি
06:04
That would be great if we had a perfect world,
127
364538
2389
প্রয়োগ করে। যদি পৃথিবীতে সবাই নিখুঁত হত তাহলে তা
06:07
but we don't.
128
367725
1312
ঠিক ছিল,কিন্তু তা নয়।
06:09
And I'll add that most companies don't have embarrassing lawsuits,
129
369061
4102
এবং বেশিরভাগ সংস্থায় লজ্জাজনক কোন মামলা হয় না,
06:14
but the data scientists in those companies
130
374266
2588
তবে সেখানকার তথ্য বিজ্ঞানীদের তথ্যগুলি অনুসরণ
06:16
are told to follow the data,
131
376878
2189
করতে বলা হয়,
06:19
to focus on accuracy.
132
379091
2143
সঠিকতায় গুরুত্ব দিতে বলা হয়।
06:22
Think about what that means.
133
382093
1381
ভাবুন তার মানে কি।
06:23
Because we all have bias, it means they could be codifying sexism
134
383498
4027
যেহেতু আমাদের সকলের মধ্যে পক্ষপাতিত্ব রয়েছে,এর মানে তা কোন রকমের প্রাধান্য
06:27
or any other kind of bigotry.
135
387549
1836
বা ধর্মানুশাসনকে শ্রেণীবদ্ধ করে।
06:31
Thought experiment,
136
391308
1421
চিন্তাশীল পরীক্ষা নিরীক্ষা,
06:32
because I like them:
137
392753
1509
কারণ আমার তা ভাল লাগে:
06:35
an entirely segregated society --
138
395394
2975
একটি সম্পূর্ণ পৃথকীকৃত সমাজ --
06:40
racially segregated, all towns, all neighborhoods
139
400067
3328
জাতিগতভাবে পৃথকিত, সমস্ত শহর, সমস্ত এলাকা
06:43
and where we send the police only to the minority neighborhoods
140
403419
3037
এবং যেখানে আমরা পুলিশকে সংখ্যালঘু প্রতিবেশীদের
06:46
to look for crime.
141
406480
1193
অপরাধের খোঁজে পাঠাই।
06:48
The arrest data would be very biased.
142
408271
2219
06:51
What if, on top of that, we found the data scientists
143
411671
2575
তা ছাড়া,আমরা যদি তথ্য বৈজ্ঞানিদের খুঁজে বার করে
06:54
and paid the data scientists to predict where the next crime would occur?
144
414270
4161
তাদের টাকা দিয়ে ভবিষ্যতে কোন জায়গায় অপরাধ ঘটবে তা জানার জন্য তাহলে কি হবে?
06:59
Minority neighborhood.
145
419095
1487
সংখ্যালঘুদের পরিবেশে।
07:01
Or to predict who the next criminal would be?
146
421105
3125
বা এটা জানতে পরের অপরাধীটি কে হবে?
07:04
A minority.
147
424708
1395
একজন সংখ্যালঘু ব্যাক্তি।
07:07
The data scientists would brag about how great and how accurate
148
427769
3541
তথ্য বিজ্ঞানীরা তাদের মডেলের সঠিকতার
07:11
their model would be,
149
431334
1297
সম্পর্কে প্রশংসা করবে,
07:12
and they'd be right.
150
432655
1299
এবং তারা সঠিক।
07:15
Now, reality isn't that drastic, but we do have severe segregations
151
435771
4615
কিন্তু,বাস্তবতটা অতটা তীব্র নয় কিন্তু,
07:20
in many cities and towns,
152
440410
1287
অনেক শহরে পৃথকীকরণ বিরাজমান
07:21
and we have plenty of evidence
153
441721
1893
এবং আমাদের কাছে প্রমান আছে সেই
07:23
of biased policing and justice system data.
154
443638
2688
পক্ষপাতমূলক বিষয় এবং
07:27
And we actually do predict hotspots,
155
447452
2815
আমরা সে সব হটস্পটগুলির উপস্থিতি আন্দাজ করি
07:30
places where crimes will occur.
156
450291
1530
যেখানে পরের অপরাধটি ঘটবে।
07:32
And we do predict, in fact, the individual criminality,
157
452221
3866
এবং আমরা পূর্বাভাস করি এক একটি অপরাধ,
07:36
the criminality of individuals.
158
456111
1770
ব্যক্তিদের অপরাধ।
07:38
The news organization ProPublica recently looked into
159
458792
3963
সংবাদ সংস্থা প্রোপাবলিকা সম্প্রতি একটি
07:42
one of those "recidivism risk" algorithms,
160
462779
2024
"অপরাধপ্রবণতা ঝুঁকি" অ্যালগোরিদমের দিকে
07:44
as they're called,
161
464827
1163
তাকিয়ে দেখেছে, যা
07:46
being used in Florida during sentencing by judges.
162
466014
3194
ফ্লোরিডায় ব্যাবহার করা হয় বিচারকদের দ্বারা শাস্তি প্রদানের সময়।
07:50
Bernard, on the left, the black man, was scored a 10 out of 10.
163
470231
3585
বার্নার্ড,বাঁদিকের কালো মানুষটিকে ১০ এ ১০ নম্বর দেওয়া হয়।
07:54
Dylan, on the right, 3 out of 10.
164
474999
2007
ডাইলান, ডান দিকে,পায় ১০ এ ৩।
07:57
10 out of 10, high risk. 3 out of 10, low risk.
165
477030
2501
১০ এ ১০,অর্থাৎ উচ্চ ঝুঁকি। ১০ এ ৩,অর্থাৎ নিম্ন ঝুঁকি।
08:00
They were both brought in for drug possession.
166
480418
2385
তাদের দুজনের কাছেই নেশার পদার্থ পাওয়া যায়। দুজনেরই
08:02
They both had records,
167
482827
1154
অপরাধের তালিকায় নাম,
08:04
but Dylan had a felony
168
484005
2806
ডাইলান আগে এক গুরুতর অপরাধে জড়িত ছিল
08:06
but Bernard didn't.
169
486835
1176
কিন্তু বার্নার্ড তা নয়।
08:09
This matters, because the higher score you are,
170
489638
3066
এটি গুরুত্বপূর্ণ, কারণ আপনার যত উচ্চতর নম্বর,
08:12
the more likely you're being given a longer sentence.
171
492728
3473
আপনার লম্বা শাস্তি পাওয়ার সম্ভবনাটাও অতটা বেশি।
08:18
What's going on?
172
498114
1294
কি হচ্ছে এটা?
08:20
Data laundering.
173
500346
1332
তথ্য পাচার।
08:22
It's a process by which technologists hide ugly truths
174
502750
4427
এই প্রক্রিয়ার দ্বারা প্রযুক্তিবিজ্ঞানীরা কালো বক্স অ্যালগোরিদমগুলির
08:27
inside black box algorithms
175
507201
1821
মধ্যে কুশ্রী সত্য লুকিয়ে রাখে
08:29
and call them objective;
176
509046
1290
এবং তাদের উদ্দেশ্য বলে;
08:31
call them meritocratic.
177
511140
1568
কল্যাণকামী বলে।
08:34
When they're secret, important and destructive,
178
514938
2385
যখন তারা গুপ্ত, গুরুত্বপূর্ণ এবং ধ্বংসাত্মক হয়,
08:37
I've coined a term for these algorithms:
179
517347
2487
আমি এই অ্যালগোরিদমগুলির এক নামকরণ করেছি:
08:39
"weapons of math destruction."
180
519858
1999
"গণিতের দ্বারা ধ্বংসের অস্ত্র।"
08:41
(Laughter)
181
521881
1564
(হাসি )
08:43
(Applause)
182
523469
3054
(হাততালি)
08:46
They're everywhere, and it's not a mistake.
183
526547
2354
তারা সব জায়গায় উপস্থিত, এবং এটা কোন ভুল নয়।
08:49
These are private companies building private algorithms
184
529515
3723
এগুলি কিছু বেসরকারি সংস্থা যা তাদের ব্যক্তিগত প্রয়োজনে কিছু ব্যক্তিগত
08:53
for private ends.
185
533262
1392
অ্যালগোরিদম বানাচ্ছে।
08:55
Even the ones I talked about for teachers and the public police,
186
535034
3214
এমনকি যেগুলোর বিষয় আমি আলোচনা করলাম শিক্ষক ও সরকারি পুলিশের বিষয়ে,
08:58
those were built by private companies
187
538272
1869
সেগুলো কিছু বেসরকারি সংস্থা তৈরী করে
09:00
and sold to the government institutions.
188
540165
2231
তা সরকারি সংস্থাদের কাছে বিক্রি করেছে।
09:02
They call it their "secret sauce" --
189
542420
1873
তারা এটাকে তাদের "গোপন সস" বলে--
09:04
that's why they can't tell us about it.
190
544317
2128
তাই আমাদের সেই বিষয়ে জানতে দিতে চায়না।
09:06
It's also private power.
191
546469
2220
এটি বেসরকারি ক্ষমতা।
09:09
They are profiting for wielding the authority of the inscrutable.
192
549744
4695
তারা অবর্ণনীয় কিছু ব্যক্তিদের হাতে ক্ষমতা তুলে দিয়ে লাভ করছে।
09:16
Now you might think, since all this stuff is private
193
556934
2934
আপনারা হয়তো ভাবছেন, যেহুতু এইগুলো বেসরকারি বিষয়ে
09:19
and there's competition,
194
559892
1158
এবং প্রতিযোগিতা রয়েছে,
09:21
maybe the free market will solve this problem.
195
561074
2306
তাহলে হয়তো স্বাধীন বাজার এই সমস্যার সমাধান করবে।
09:23
It won't.
196
563404
1249
তা হবেনা।
09:24
There's a lot of money to be made in unfairness.
197
564677
3120
অসৎ পথে অনেক টাকা আয় হয়।
09:28
Also, we're not economic rational agents.
198
568947
3369
এছাড়া,আমরা অর্থনৈতিক যুক্তিসঙ্গত প্রতিনিধি নই।
09:32
We all are biased.
199
572851
1292
আমরা সকলে পক্ষপাতদুষ্ট।
09:34
We're all racist and bigoted in ways that we wish we weren't,
200
574780
3377
আমরা সবাই বর্ণবাদী সে সকল রূপে যা হয়তো আমরা চাইনা,
09:38
in ways that we don't even know.
201
578181
2019
বা হয়তো জানিনা,
09:41
We know this, though, in aggregate,
202
581172
3081
কিন্তু আমরা জানি, সামগ্রিকভাবে,
09:44
because sociologists have consistently demonstrated this
203
584277
3220
কারণ সমাজতাত্ত্বিকরা বারবার তাদের পরীক্ষার
09:47
with these experiments they build,
204
587521
1665
দ্বারা তা উল্লেখ করেছেন,
09:49
where they send a bunch of applications to jobs out,
205
589210
2568
যেখানে তারা একগুচ্ছ চাকরির আবেদনপত্র পাঠায়,
09:51
equally qualified but some have white-sounding names
206
591802
2501
সকলের সমান যোগ্যতা থাকে কিন্তু তার মধ্যে কারো
09:54
and some have black-sounding names,
207
594327
1706
নাম ভাল শোনায় কারো শোনায় না,
09:56
and it's always disappointing, the results -- always.
208
596057
2694
এবং এটা সবসময় হতাশাজনক, ফলাফলটা - সবসময়।
09:59
So we are the ones that are biased,
209
599330
1771
কাজেই আমরাই পক্ষপাতদুষ্ট,
10:01
and we are injecting those biases into the algorithms
210
601125
3429
এবং আমরা সেই দোষটা অ্যালগোরিদম মধ্যে প্রদান করি
10:04
by choosing what data to collect,
211
604578
1812
কোন তথ্য সংগ্রহ করা হবে তা বলে দিয়ে,
10:06
like I chose not to think about ramen noodles --
212
606414
2743
ঠিক যেমন আমি রামেন নুডলস সম্পর্কে ভাবতে পছন্দ করিনা--
10:09
I decided it was irrelevant.
213
609181
1625
আমি মনে করি এটি অপ্রাসঙ্গিক।
10:10
But by trusting the data that's actually picking up on past practices
214
610830
5684
কিন্তু অতীতের প্রথাগুলির উপর নির্ভর থেকে
10:16
and by choosing the definition of success,
215
616538
2014
এবং সফলতার সংজ্ঞা বেছে নিয়ে,আমরা
10:18
how can we expect the algorithms to emerge unscathed?
216
618576
3983
অ্যালগোরিদমগুলিকে ত্রুটিহীন মেনে নিতে পারি কি?
10:22
We can't. We have to check them.
217
622583
2356
আমরা পারিনা। আমাদের উচিত তা যাচাই করা ।
10:25
We have to check them for fairness.
218
625985
1709
আমাদের ন্যায্যতা যাচাই করতে হবে।
10:27
The good news is, we can check them for fairness.
219
627718
2711
ভাল খবর হল,আমরা তাদের ন্যায্যতা পরীক্ষা করতে পারি।
10:30
Algorithms can be interrogated,
220
630453
3352
অ্যালগরিদমগুলিকে জেরা করা যেতে পারে,
10:33
and they will tell us the truth every time.
221
633829
2034
এবং তারা প্রত্যেকবার সত্যিটাই বলবে।
10:35
And we can fix them. We can make them better.
222
635887
2493
আমরা তা ঠিক করতে পারি।আমরা তাদের ভাল করে তুলতে পারি।
10:38
I call this an algorithmic audit,
223
638404
2375
আমি এটাকে বলি অ্যালগরিদমিক নিরীক্ষা,
10:40
and I'll walk you through it.
224
640803
1679
এবং আমি এ বিষয়টি আপনাদের বোঝাবো।
10:42
First, data integrity check.
225
642506
2196
প্রথম, তথ্য অখণ্ডতা পরীক্ষা।
10:45
For the recidivism risk algorithm I talked about,
226
645952
2657
যে অপরাধপ্রবণতা ঝুঁকি অ্যালগরিদমগুলির সম্পর্কে বললাম,
10:49
a data integrity check would mean we'd have to come to terms with the fact
227
649402
3573
একটি তথ্য অখণ্ডতা পরীক্ষার অর্থ হবে আমরা এটা শিকার করি যে
10:52
that in the US, whites and blacks smoke pot at the same rate
228
652999
3526
মার্কিন যুক্তরাষ্ট্রে, সাদা এবং কালো দুজনরাই একই পরিমানে নেশা করে
10:56
but blacks are far more likely to be arrested --
229
656549
2485
অথচ একটি কালো মানুষের গ্রেফতার হওয়ার সম্ভবনা বেশি--
10:59
four or five times more likely, depending on the area.
230
659058
3184
এলাকার উপর নির্ভর করে সম্ভবত চার বা পাঁচ গুণ বেশি।
11:03
What is that bias looking like in other crime categories,
231
663137
2826
অন্য ধরণের অপরাধের মধ্যে এই পক্ষপাতিত্ব কিরকম রয়েছে,
11:05
and how do we account for it?
232
665987
1451
এবং কীভাবে আমরা এর জন্য দায়ী?
11:07
Second, we should think about the definition of success,
233
667982
3039
দ্বিতীয়ত, আমাদের সাফল্যের সংজ্ঞা সম্পর্কে ভাবা উচিত,
11:11
audit that.
234
671045
1381
তা নিরীক্ষা করা দরকার।
11:12
Remember -- with the hiring algorithm? We talked about it.
235
672450
2752
মনে আছে-সেই নিয়োগের অ্যালগরিদমের কথা যা আমি আলোচনা করলাম।
11:15
Someone who stays for four years and is promoted once?
236
675226
3165
কাউর চার বছর পর যদি একবার পদোন্নতি হয়?
11:18
Well, that is a successful employee,
237
678415
1769
সে এক সফল কর্মী, কিন্তু এটি একটি
11:20
but it's also an employee that is supported by their culture.
238
680208
3079
এমন কর্মী যে তার সংস্কৃতির দ্বারা সমর্থন পায়।
11:23
That said, also it can be quite biased.
239
683909
1926
এটিও খুব পক্ষপাতদুষ্ট হতে পারে।
11:25
We need to separate those two things.
240
685859
2065
আমাদের সেই দুটি জিনিস আলাদা করা উচিত।
11:27
We should look to the blind orchestra audition
241
687948
2426
আমরা উদাহরণ হিসাবে একটি অন্ধ অর্কেস্ট্রা শ্রুতি
11:30
as an example.
242
690398
1196
কল্পনা করতে পারি।
11:31
That's where the people auditioning are behind a sheet.
243
691618
2756
যারা নিজেদের শিল্প পেশ করছে তারা একটি চাদরের পিছনে।
11:34
What I want to think about there
244
694766
1931
আমি ভাবতে চাই
11:36
is the people who are listening have decided what's important
245
696721
3417
এক দল মানুষ যারা তা শুনছে তারা নির্ণয় নিয়ে নিয়েছে যে তারা কি শুনতে চায়
11:40
and they've decided what's not important,
246
700162
2029
এবং কোনটা প্রয়োজনী এবং কোনটা অপ্রয়োজনী,
11:42
and they're not getting distracted by that.
247
702215
2059
এবং তারা এর দ্বারা বিভ্রান্ত হচ্ছেনা।
11:44
When the blind orchestra auditions started,
248
704781
2749
যখন এরূপ অন্ধ অর্কেস্ট্রা অডিশন শুরু হয়,
11:47
the number of women in orchestras went up by a factor of five.
249
707554
3444
অর্কেস্ট্রায় মহিলাদের সংখ্যা পাঁচগুন্ বেড়ে উঠতে দেখা যায়।
11:52
Next, we have to consider accuracy.
250
712073
2015
আমাদের পরবর্তী কাজ, সঠিকতা বিবেচনা করা।
11:55
This is where the value-added model for teachers would fail immediately.
251
715053
3734
এই জায়গায় শিক্ষকদের জন্য তৈরী মূল্য-যুক্ত মডেলটি অবিলম্বে নিষ্ফল হবে।
11:59
No algorithm is perfect, of course,
252
719398
2162
কোন এলগোরিদমই সম্পূর্ণ নিখুঁত নয় অবশ্য,
12:02
so we have to consider the errors of every algorithm.
253
722440
3605
তাই আমাদের উচিত প্রতিটি আলগোরিদমের ত্রুটি বিবেচনা করা।
12:06
How often are there errors, and for whom does this model fail?
254
726656
4359
এতে ভুল কতটা সাধারণ, এবং কাদের বিষয় এই মডেল ব্যর্থ হয়?
12:11
What is the cost of that failure?
255
731670
1718
এই ব্যর্থতার খরচ কি?
12:14
And finally, we have to consider
256
734254
2207
এবং অবশেষে, আমাদের অ্যালগরিদমের
12:17
the long-term effects of algorithms,
257
737793
2186
দীর্ঘমেয়াদী প্রভাব বিবেচনা করতে হবে,
12:20
the feedback loops that are engendering.
258
740686
2207
প্রতিক্রিয়ার বৃত্তমান পথগুলি প্ররোচিত করে।
12:23
That sounds abstract,
259
743406
1236
এটি বিমূর্ত শোনায় ,
12:24
but imagine if Facebook engineers had considered that
260
744666
2664
ভাবুন যদি ফেইসবুকের প্রকৌশলীরা এটি ভেবে থাকতেন
12:28
before they decided to show us only things that our friends had posted.
261
748090
4855
আমাদের বন্ধুদের পোস্ট গুলো আমাদের দেখানোর আগে।
12:33
I have two more messages, one for the data scientists out there.
262
753581
3234
আমার আরও দুটি বার্তা আছে, এক তথ্য বিজ্ঞানীদের জন্য।
12:37
Data scientists: we should not be the arbiters of truth.
263
757270
3409
তথ্য বিজ্ঞানীরা: আমাদের সত্যের সালিশ হতে হবেনা।
12:41
We should be translators of ethical discussions that happen
264
761340
3783
আমাদের এই বৃহত্তর সমাজে নৈতিক আলোচনাগুলির
12:45
in larger society.
265
765147
1294
অনুবাদক হওয়া উচিত।
12:47
(Applause)
266
767399
2133
(হাততালি)
12:49
And the rest of you,
267
769556
1556
এবং বাকিদের জন্য, যারা
12:51
the non-data scientists:
268
771831
1396
তথ্য বৈজ্ঞানিক নন:
12:53
this is not a math test.
269
773251
1498
এটি অংকের পরীক্ষা নয়।
12:55
This is a political fight.
270
775452
1348
এটি একটি রাজনৈতিক যুদ্ধ।
12:58
We need to demand accountability for our algorithmic overlords.
271
778407
3907
আমাদের অ্যালগরিদমের জমিদারির বিরুদ্ধে দায়বদ্ধতা দাবি করতে হবে।
13:03
(Applause)
272
783938
1499
(হাততালি)
13:05
The era of blind faith in big data must end.
273
785461
4225
'বিগ ডাটা' এ অন্ধবিশ্বাসের যুগ শেষ করতে হবে|
13:09
Thank you very much.
274
789710
1167
13:10
(Applause)
275
790901
5303
ধন্যবাদ |
(হাততালি)
এই ওয়েবসাইট সম্পর্কে

এই সাইটটি আপনাকে YouTube ভিডিওগুলির সাথে পরিচয় করিয়ে দেবে যা ইংরেজি শেখার জন্য দরকারী। আপনি সারা বিশ্বের শীর্ষস্থানীয় শিক্ষকদের দ্বারা শেখানো ইংরেজি পাঠ দেখতে পাবেন। সেখান থেকে ভিডিও চালাতে প্রতিটি ভিডিও পৃষ্ঠায় প্রদর্শিত ইংরেজি সাবটাইটেলগুলিতে ডাবল-ক্লিক করুন। সাবটাইটেলগুলি ভিডিও প্লেব্যাকের সাথে সিঙ্কে স্ক্রোল করে৷ আপনার কোন মন্তব্য বা অনুরোধ থাকলে, এই যোগাযোগ ফর্ম ব্যবহার করে আমাদের সাথে যোগাযোগ করুন.

https://forms.gle/WvT1wiN1qDtmnspy7