Anne Milgram: Why smart statistics are the key to fighting crime

220,711 views ・ 2014-01-28

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Cem Turkel Gözden geçirme: berat güven
00:12
In 2007, I became the attorney general
0
12843
2591
2007'de New Jersey eyaletinin
00:15
of the state of New Jersey.
1
15434
1725
başsavcısı oldum.
00:17
Before that, I'd been a criminal prosecutor,
2
17159
2280
Öncesinde, ilk olarak
00:19
first in the Manhattan district attorney's office,
3
19439
2681
Manhattan bölge başsavcılığında,
daha sonra ise ABD Adalet Bakanlığı'nda savcı olarak görev aldım.
00:22
and then at the United States Department of Justice.
4
22120
2650
00:24
But when I became the attorney general,
5
24770
2201
Ama başsavcı olduğumda
00:26
two things happened that changed the way I see criminal justice.
6
26971
3895
cezai adalete bakışımı değiştiren iki şey oldu.
00:30
The first is that I asked what I thought
7
30866
2030
Birincisi çok temel olduğunu düşündüğüm
00:32
were really basic questions.
8
32896
2186
sorular sormamdı.
00:35
I wanted to understand who we were arresting,
9
35082
2856
Kimi tutukladığımızı, kimi suçladığımızı
00:37
who we were charging,
10
37938
1664
ve kimi devletin hapishaneleri
00:39
and who we were putting in our nation's jails
11
39602
2128
ve cezaevlerine attığımızı
00:41
and prisons.
12
41730
1416
anlamak istedim.
00:43
I also wanted to understand
13
43146
1648
Ayrıca, aldığımız kararların
00:44
if we were making decisions
14
44794
1329
bize daha güvenli bir ortam
00:46
in a way that made us safer.
15
46123
2518
sağlayıp sağlamadığını anlamak istedim.
00:48
And I couldn't get this information out.
16
48641
3252
Ve bunun cevabını alamadım.
00:51
It turned out that most big criminal justice agencies
17
51893
3357
Görünen o ki, benimki gibi büyük
00:55
like my own
18
55250
1302
cezai adalet organları
00:56
didn't track the things that matter.
19
56552
2382
önemli şeylerin hesabını tutmuyordu.
00:58
So after about a month of being incredibly frustrated,
20
58934
3318
Sinirle geçen yaklaşık bir aydan sonra
01:02
I walked down into a conference room
21
62252
1971
detektifler ve yığınlar dolusu
01:04
that was filled with detectives
22
64223
1890
dava dosyalarıyla dolu olan
01:06
and stacks and stacks of case files,
23
66113
2782
bir konferans salonuna indim
01:08
and the detectives were sitting there
24
68895
1176
dedektifler orada oturmuş,
01:10
with yellow legal pads taking notes.
25
70071
2234
sarı not defterlerine notlar alıyorlardı.
01:12
They were trying to get the information
26
72305
1586
Son beş yıldaki
01:13
I was looking for
27
73891
1218
tüm davalara tek tek bakarak
01:15
by going through case by case
28
75109
2045
benim aradığım bilgiye
01:17
for the past five years.
29
77154
1898
ulaşmaya çalışıyorlardı.
01:19
And as you can imagine,
30
79052
1653
Tahmin edebileceğiniz gibi
01:20
when we finally got the results, they weren't good.
31
80705
2643
nihayet sonuçları aldığımızda pek iyi değillerdi.
01:23
It turned out that we were doing
32
83348
1655
Görünüşe göre Trenton'daki ofisimizin
01:25
a lot of low-level drug cases
33
85003
2020
hemen yanındaki sokaklardaki
01:27
on the streets just around the corner
34
87023
1475
çok sayıda düşük seviye
01:28
from our office in Trenton.
35
88498
2268
uyuşturucu vakasıyla uğraşıyormuşuz.
01:30
The second thing that happened
36
90766
1467
Olan ikinci şey ise
01:32
is that I spent the day in the Camden, New Jersey police department.
37
92233
3674
bir günü Camden, New Jersey polis merkezinde geçirmemdi.
01:35
Now, at that time, Camden, New Jersey,
38
95907
1887
O zamanlar Camden, New Jersey
01:37
was the most dangerous city in America.
39
97794
2652
Amerika'daki en tehlikeli şehirdi.
01:40
I ran the Camden Police Department because of that.
40
100446
3827
Bu nedenle Camden Polis Merkezi'ne gittim.
01:44
I spent the day in the police department,
41
104273
2112
Günü merkezde geçirdim
01:46
and I was taken into a room with senior police officials,
42
106385
2726
ve Camden'daki suç oranını düşürmek için çok çalışan
01:49
all of whom were working hard
43
109111
1675
kıdemli polis memurlarının olduğu
01:50
and trying very hard to reduce crime in Camden.
44
110786
3257
bir odaya götürüldüm.
01:54
And what I saw in that room,
45
114043
1826
Ve o odada biz suç oranını
01:55
as we talked about how to reduce crime,
46
115869
2245
düşürme yollarını tartışırken
01:58
were a series of officers with a lot of little yellow sticky notes.
47
118114
3859
ellerinde bolca sarı Post-it olan birkaç memur vardı.
02:01
And they would take a yellow sticky and they would write something on it
48
121973
2846
Post-it'lerden bir tane alıp üzerine bir şeyler yazıp
02:04
and they would put it up on a board.
49
124823
1799
tahtaya yapıştırıyorlardı.
02:06
And one of them said, "We had a robbery two weeks ago.
50
126622
2171
İçlerinden biri şöyle dedi "İki hafta önce bir hırsızlık oldu.
02:08
We have no suspects."
51
128793
1711
Elimizde hiç şüpheli yok."
02:10
And another said, "We had a shooting in this neighborhood last week. We have no suspects."
52
130504
5027
Diğeri şöyle dedi. "Geçen hafta burada silahlı saldırı oldu. Hiç şüpheli yok."
02:15
We weren't using data-driven policing.
53
135531
2583
Veri güdümlü polisliği kullanmıyorduk.
02:18
We were essentially trying to fight crime
54
138114
2042
Suç ile Post-it notlarıyla
02:20
with yellow Post-it notes.
55
140156
2527
savaşmaya çalışıyorduk.
02:22
Now, both of these things made me realize
56
142683
2135
Bu iki şey
02:24
fundamentally that we were failing.
57
144818
3251
temelden başarısız olduğumuzu anlamamı sağladı.
02:28
We didn't even know who was in our criminal justice system,
58
148069
3123
Cezai adalet sistemimizde kimin olduğunu bile bilmiyorduk,
02:31
we didn't have any data about the things that mattered,
59
151192
3235
önemli olan şeylerle ilgili hiç verimiz yoktu
02:34
and we didn't share data or use analytics
60
154427
2568
ve suçu azaltmak için
02:36
or tools to help us make better decisions
61
156995
2151
verilerimizi paylaşmıyor, analizleri kullanmıyorduk,
02:39
and to reduce crime.
62
159146
2003
daha iyi karar vermemizi sağlayan araçları da kullanmıyorduk.
02:41
And for the first time, I started to think
63
161149
2224
Nasıl karar verdiğimizi
02:43
about how we made decisions.
64
163373
1910
ilk kez orada düşünmeye başladım.
02:45
When I was an assistant D.A.,
65
165283
1397
Bölge savcı yardımcısıyken
02:46
and when I was a federal prosecutor,
66
166680
1870
ve federal savcı iken
02:48
I looked at the cases in front of me,
67
168550
1746
önümdeki davalara bakardım
02:50
and I generally made decisions based on my instinct
68
170296
2626
ve genellikle içgüdülerime ve deneyimlerime göre
02:52
and my experience.
69
172922
1692
karar verirdim.
02:54
When I became attorney general,
70
174614
1659
Başsavcı olduğumda
02:56
I could look at the system as a whole,
71
176273
1639
sisteme bir bütün olarak bakabildim
02:57
and what surprised me is that I found
72
177912
1818
ve beni şaşırtan şey
02:59
that that was exactly how we were doing it
73
179730
1905
bütün sistemde de bu şekilde
03:01
across the entire system --
74
181635
2303
karar veriyor olduğumuzdu-
03:03
in police departments, in prosecutors's offices,
75
183938
2401
polis merkezlerinde, savcılıklarda
03:06
in courts and in jails.
76
186339
2800
mahkemelerde ve hapishanelerde.
03:09
And what I learned very quickly
77
189139
2197
Ve çabucak öğrendim ki
03:11
is that we weren't doing a good job.
78
191336
3633
iyi bir iş çıkarmıyorduk.
03:14
So I wanted to do things differently.
79
194969
2016
Bu yüzden bazı şeyleri değiştirmek istedim.
03:16
I wanted to introduce data and analytics
80
196985
2197
İşimize, veri ve analizleri
03:19
and rigorous statistical analysis
81
199182
2049
ve kesin istatistiksel analizi
03:21
into our work.
82
201231
1400
katmak istedim.
03:22
In short, I wanted to moneyball criminal justice.
83
202631
2970
Kısacası cezai adalete kazanma sanatı getirmek istedim.
03:25
Now, moneyball, as many of you know,
84
205601
2027
Kazanma sanatı, sizin de bileceğiniz gibi
03:27
is what the Oakland A's did,
85
207628
1569
Oakland A takımının yaptığı şey,
03:29
where they used smart data and statistics
86
209197
1973
akıllı veri ve istatistiği kullanıp
03:31
to figure out how to pick players
87
211170
1622
onlara oyun kazandıracak
03:32
that would help them win games,
88
212792
1521
oyuncuları seçmek
03:34
and they went from a system that was based on baseball scouts
89
214313
2980
ve beyzbol oyuncu avcılığını baz alan eski sistemden --
03:37
who used to go out and watch players
90
217293
1860
maçlara gidip, oyuncuları izleyip
03:39
and use their instinct and experience,
91
219153
1637
içgüdü ve deneyimlerini kullanarak
03:40
the scouts' instincts and experience,
92
220790
1743
oyuncuları seçerlerdi --
03:42
to pick players, from one to use
93
222533
1713
akıllı veri ve
03:44
smart data and rigorous statistical analysis
94
224246
2822
kesin istatistiksel analiz kullanarak
03:47
to figure out how to pick players that would help them win games.
95
227068
3371
maç kazandıracak oyuncuları seçmelerine yardımcı olan sisteme geçtiler.
03:50
It worked for the Oakland A's,
96
230439
1798
Oakland A's için işe yaramıştı
03:52
and it worked in the state of New Jersey.
97
232237
2219
New Jersey eyaleti için de yaradı.
03:54
We took Camden off the top of the list
98
234456
2073
Camden'ı Amerika'nın en tehlikeli şehri
03:56
as the most dangerous city in America.
99
236529
2171
olmaktan çıkardık.
03:58
We reduced murders there by 41 percent,
100
238700
3155
Oradaki cinayetleri yüzde 41 azalttık,
04:01
which actually means 37 lives were saved.
101
241855
2982
bu da aslında 37 kişinin hayatını kurtardık demek.
04:04
And we reduced all crime in the city by 26 percent.
102
244837
3740
Şehirdeki tüm suçu da yüzde 26 azalttık.
04:08
We also changed the way we did criminal prosecutions.
103
248577
3239
Cezai kovuşturma yöntemlerimizi de değiştirdik.
04:11
So we went from doing low-level drug crimes
104
251816
2005
Binamızın hemen dışında gerçekleşen
04:13
that were outside our building
105
253821
1642
düşük seviye uyuşturucu suçları yerine
04:15
to doing cases of statewide importance,
106
255463
2342
eyalet çapında önemi olan suçlarla ilgilendik,
04:17
on things like reducing violence with the most violent offenders,
107
257805
3158
en azılı suçluları yakalayıp şiddeti azaltmak,
04:20
prosecuting street gangs,
108
260963
1858
sokak çetelerini cezalandırmak
04:22
gun and drug trafficking, and political corruption.
109
262821
3408
silah ve uyuşturucu kaçakçılığı ve politik yolsuzluk gibi şeylerle.
04:26
And all of this matters greatly,
110
266229
2502
Bunların her biri çok önemli,
04:28
because public safety to me
111
268731
1945
çünkü bana göre kamu güvenliği
04:30
is the most important function of government.
112
270676
2536
hükûmetin en önemli işlevidir.
04:33
If we're not safe, we can't be educated,
113
273212
2298
Güvende olmazsak eğitilemeyiz,
04:35
we can't be healthy,
114
275510
1348
sağlıklı olamayız,
04:36
we can't do any of the other things we want to do in our lives.
115
276858
2945
hayatta yapmak istediğimiz diğer şeylerin hiçbirini yapamayız.
04:39
And we live in a country today
116
279803
1701
Bugün ciddi cezai adalet sorunlarıyla
04:41
where we face serious criminal justice problems.
117
281504
3134
karşı karşıya olan bir ülkede yaşıyoruz.
04:44
We have 12 million arrests every single year.
118
284638
3661
Her yıl 12 milyon tutuklama gerçekleşiyor.
04:48
The vast majority of those arrests
119
288299
2043
Bu tutuklamaların büyük çoğunluğu
04:50
are for low-level crimes, like misdemeanors,
120
290342
3012
hafif kabahatler ve düşük seviye suçlar için,
04:53
70 to 80 percent.
121
293354
1734
yüzde 70-80 kadarı.
04:55
Less than five percent of all arrests
122
295088
1991
Bütün tutuklamaların yüzde beşten azı
04:57
are for violent crime.
123
297079
1895
şiddet içeren suçlardan.
04:58
Yet we spend 75 billion,
124
298974
2055
Yine de yılda 75 milyar doları
05:01
that's b for billion,
125
301029
1418
oradaki "m" milyarı belirtir
05:02
dollars a year on state and local corrections costs.
126
302447
4127
eyalet ve yerel cezaevlerine harcıyoruz.
05:06
Right now, today, we have 2.3 million people
127
306574
2841
Şu anda hapishane ve tutukevlerinde
05:09
in our jails and prisons.
128
309415
1900
2,3 milyon insan bulunuyor.
05:11
And we face unbelievable public safety challenges
129
311315
2796
Şu anda inanılmaz kamu güvenliği problemleriyle boğuşuyoruz,
05:14
because we have a situation
130
314111
1939
çünkü öyle bir durumdayız ki
05:16
in which two thirds of the people in our jails
131
316050
2898
cezaevlerindeki insanların üçte ikisi
05:18
are there waiting for trial.
132
318948
1754
orada duruşma bekliyor.
05:20
They haven't yet been convicted of a crime.
133
320702
2135
Henüz suçları kanıtlanmış değil.
05:22
They're just waiting for their day in court.
134
322837
2119
Mahkeme günlerini bekliyorlar sadece.
05:24
And 67 percent of people come back.
135
324956
3548
Bu insanların yüzde 67'si geri dönüyor.
05:28
Our recidivism rate is amongst the highest in the world.
136
328504
3028
Suç tekrarlama oranımız dünyadaki en yükseklerden.
05:31
Almost seven in 10 people who are released
137
331532
2103
Hapishaneden çıkan her 10 kişinin
05:33
from prison will be rearrested
138
333635
1651
yaklaşık 7'si yeniden tutuklanıyor
05:35
in a constant cycle of crime and incarceration.
139
335286
3955
sabit bir suç işleme ve hapse atılma döngüsü var.
05:39
So when I started my job at the Arnold Foundation,
140
339241
2582
Arnold Vakfı'nda çalışmaya başladığımda
05:41
I came back to looking at a lot of these questions,
141
341823
2736
bu sorunların çoğuna tekrar bakmaya başladım
05:44
and I came back to thinking about how
142
344559
1654
ve New Jersey cezai adalet sistemini
05:46
we had used data and analytics to transform
143
346213
2383
veri ve analiz sistemleri kullanarak
05:48
the way we did criminal justice in New Jersey.
144
348596
2584
nasıl dönüştürdüğümüzü yeniden düşündüm.
05:51
And when I look at the criminal justice system
145
351180
2144
Şu anda ABD'nin cezai adalet sistemine
05:53
in the United States today,
146
353324
1656
baktığım zaman
05:54
I feel the exact same way that I did
147
354980
1639
New Jersey'de işe başladığım zamanla
05:56
about the state of New Jersey when I started there,
148
356619
2466
tıpatıp aynı hissediyordum,
05:59
which is that we absolutely have to do better,
149
359085
3228
kesinlikle daha iyisini yapmamız gerekiyor
06:02
and I know that we can do better.
150
362313
1923
ve biliyorum ki daha iyi yapabiliriz.
06:04
So I decided to focus
151
364236
1705
Bu yüzden de
06:05
on using data and analytics
152
365941
2217
kamu güvenliğindeki en kritik kararı
06:08
to help make the most critical decision
153
368158
2361
almaya yardımcı olması için
06:10
in public safety,
154
370519
1606
veri ve analizlere odaklandım
06:12
and that decision is the determination
155
372125
2021
ve bu kritik karar, biri tutuklandığında
06:14
of whether, when someone has been arrested,
156
374146
2535
kamu güvenliğine risk oluşturup oluşturmadığı
06:16
whether they pose a risk to public safety
157
376681
1915
ve tutuklanmasın gerekliliğini
06:18
and should be detained,
158
378596
1526
veya kamu güvenliğine risk teşkil etmiyorsa
06:20
or whether they don't pose a risk to public safety
159
380122
2356
salıverilmesi gerekip gerekmediğine
06:22
and should be released.
160
382478
1637
karar vermektir.
06:24
Everything that happens in criminal cases
161
384115
1919
Ceza davalarında olan her şey
06:26
comes out of this one decision.
162
386034
1772
bu tek karardan ortaya çıkar.
06:27
It impacts everything.
163
387806
1496
Bu her şeyi etkiler.
06:29
It impacts sentencing.
164
389302
1350
Verilen hükümleri etkiler.
06:30
It impacts whether someone gets drug treatment.
165
390652
1901
Birinin uyuşturucu tedavisi görmesini etkiler.
06:32
It impacts crime and violence.
166
392553
2323
Suç ve şiddeti etkiler.
06:34
And when I talk to judges around the United States,
167
394876
1937
Amerika'daki yargıçlarla konuştuğumda
06:36
which I do all the time now,
168
396813
1928
ki artık bunu sürekli yapıyorum,
06:38
they all say the same thing,
169
398741
1837
hepsi aynı şeyi söyledi
06:40
which is that we put dangerous people in jail,
170
400578
3107
tehlikeli insanları hapse attıklarını
06:43
and we let non-dangerous, nonviolent people out.
171
403685
3525
ve tehlikeli olmayan şiddet göstermemiş insanları saldıklarını.
06:47
They mean it and they believe it.
172
407210
2233
Söyledikleri şeye inanıyorlardı.
06:49
But when you start to look at the data,
173
409443
1733
Fakat verilere bakmaya başladığınızda
06:51
which, by the way, the judges don't have,
174
411176
2464
bu arada yargıçların elinde bu veri yok,
06:53
when we start to look at the data,
175
413640
1612
verilere bakmaya başladığımızda
06:55
what we find time and time again,
176
415252
2418
tekrar ve tekrar bulduğumuz şey
06:57
is that this isn't the case.
177
417670
1982
durumun aslında böyle olmadığıydı.
06:59
We find low-risk offenders,
178
419652
1681
Düşük riskli suçluların
07:01
which makes up 50 percent of our entire criminal justice population,
179
421333
3714
ki cezai adalet nüfusunun yüzde 50'sini oluştururlar
07:05
we find that they're in jail.
180
425047
2399
hapiste olduklarını gördük.
07:07
Take Leslie Chew, who was a Texas man
181
427446
2486
Mesela Leslie Chew, soğuk bir kış gecesi
07:09
who stole four blankets on a cold winter night.
182
429932
2884
dört battaniye çalan Teksas'lı bir adam.
07:12
He was arrested, and he was kept in jail
183
432816
2595
Tutuklandı, 3.500 dolar kefalet belirlendi,
07:15
on 3,500 dollars bail,
184
435411
2053
bu miktarı ödemeye gücü yetmezdi
07:17
an amount that he could not afford to pay.
185
437464
2776
ve hapiste tutuldu.
07:20
And he stayed in jail for eight months
186
440240
2588
Duruşmaya çıkana kadar
07:22
until his case came up for trial,
187
442828
2065
sekiz ay boyunca hapiste kaldı
07:24
at a cost to taxpayers of more than 9,000 dollars.
188
444893
3905
ve vergi mükelleflerine 9 bin dolardan fazla maliyeti oldu.
07:28
And at the other end of the spectrum,
189
448798
1997
Bunun tam zıddı davalarda da
07:30
we're doing an equally terrible job.
190
450795
2282
eşit seviyede berbat iş yapıyoruz.
07:33
The people who we find
191
453077
1572
Yüksek riskli suçlu olduğunu
07:34
are the highest-risk offenders,
192
454649
2019
ortaya çıkardığımız insanlar
07:36
the people who we think have the highest likelihood
193
456668
2497
serbest bırakıldıklarında yeniden suç işleme ihtimallerinin
07:39
of committing a new crime if they're released,
194
459165
1952
en yüksek olduğunu düşündüklerimiz,
07:41
we see nationally that 50 percent of those people
195
461117
2950
tüm ülkedeki bu insanların
07:44
are being released.
196
464067
1974
yüzde 50'si serbest bırakılıyor.
07:46
The reason for this is the way we make decisions.
197
466041
3174
Bunun sorumlusu karar verme yöntemlerimiz.
07:49
Judges have the best intentions
198
469215
1709
Riskle ilgili karar verdiklerinde
07:50
when they make these decisions about risk,
199
470924
1952
yargıçların niyetleri çok iyi olsa da
07:52
but they're making them subjectively.
200
472876
2484
kararları objektif vermiyorlar.
07:55
They're like the baseball scouts 20 years ago
201
475360
2146
20 yıl önce içgüdü ve deneyimlerini kullanarak
07:57
who were using their instinct and their experience
202
477506
2131
kimin ne risk taşıdığını anlamaya çalışan
07:59
to try to decide what risk someone poses.
203
479637
2679
beyzbolcu avcısı gibiler.
08:02
They're being subjective,
204
482316
1530
Öznel davranıyorlar
08:03
and we know what happens with subjective decision making,
205
483846
3060
ve öznel karar vermenin sonuçlarını biliyoruz,
08:06
which is that we are often wrong.
206
486906
2743
genellikle yanılırız.
08:09
What we need in this space
207
489649
1383
Bu alanda ihtiyacımız olan
08:11
are strong data and analytics.
208
491032
2552
güçlü veriler ve analizlerdir.
08:13
What I decided to look for
209
493584
1747
Aramaya karar verdiğim şey
08:15
was a strong data and analytic risk assessment tool,
210
495331
2836
yargıçların karşılarındaki insanın
08:18
something that would let judges actually understand
211
498167
2764
ne riskler taşıdığını
08:20
with a scientific and objective way
212
500931
2259
bilimsel ve objektif bir biçimde
08:23
what the risk was that was posed
213
503190
1647
anlamalarını sağlayacak
08:24
by someone in front of them.
214
504837
1610
güçlü bir veri ve analitik risk değerlendirme aracıydı.
08:26
I looked all over the country,
215
506447
1649
Ülkenin her yerini aradım
08:28
and I found that between five and 10 percent
216
508096
1942
ve öğrendim ki bütün ABD yargısının
08:30
of all U.S. jurisdictions
217
510038
1329
%5 ve %10 arasında bir bölümü
08:31
actually use any type of risk assessment tool,
218
511367
2978
bir risk değerlendirme aracı kullanıyordu
08:34
and when I looked at these tools,
219
514345
1625
ve bu araçlara baktığımda
08:35
I quickly realized why.
220
515970
1860
nedenini hızlıca anladım.
08:37
They were unbelievably expensive to administer,
221
517830
2690
Kontrol etmesi inanılmaz derecede zor,
08:40
they were time-consuming,
222
520520
1528
kullanması çok zaman alan
08:42
they were limited to the local jurisdiction
223
522048
2107
ve sadece yaratıldığı bölgedeki
08:44
in which they'd been created.
224
524155
1430
yargı sistemi ile sınırlı araçlardı.
08:45
So basically, they couldn't be scaled
225
525585
1793
Basitçe, ölçeklenemiyor
08:47
or transferred to other places.
226
527378
2209
veya başka yerlere transfer edilemiyorlardı.
08:49
So I went out and built a phenomenal team
227
529587
2237
Ben de evrensel bir risk değerlendirme aracı kurmak için
08:51
of data scientists and researchers
228
531824
2044
veri bilimciler, araştırmacılar
08:53
and statisticians
229
533868
1626
ve istatistikçilerden oluşan
08:55
to build a universal risk assessment tool,
230
535494
2845
olağanüstü bir ekip topladım,
08:58
so that every single judge in the United States of America
231
538339
2393
böylece ABD'deki her bir yargıcın
09:00
can have an objective, scientific measure of risk.
232
540732
4324
nesnel, bilimsel bir risk ölçütü olacaktı.
09:05
In the tool that we've built,
233
545056
1658
Kurduğumuz araçta
09:06
what we did was we collected 1.5 million cases
234
546714
2868
ABD'nin her yerinden,
09:09
from all around the United States,
235
549582
1698
şehirlerden, ilçelerden,
09:11
from cities, from counties,
236
551280
1644
ülkenin tüm eyaletlerinden
09:12
from every single state in the country,
237
552924
1511
ve federal bölgelerinden
09:14
the federal districts.
238
554435
1746
1,5 milyon dava topladık.
09:16
And with those 1.5 million cases,
239
556181
2189
Ön duruşma ile ilgili ABD'deki
09:18
which is the largest data set on pretrial
240
558370
1940
en büyük veri seti olan
09:20
in the United States today,
241
560310
1805
bu 1,5 milyon dava ile
09:22
we were able to basically find that there were
242
562115
1865
en önemli risk faktörünün
09:23
900-plus risk factors that we could look at
243
563980
3322
hangisi olduğuna karar verebileceğimiz
09:27
to try to figure out what mattered most.
244
567302
2866
900'den fazla risk faktörü olduğunu öğrenebildik.
09:30
And we found that there were nine specific things
245
570168
2081
Ülkenin her yerinde önemi olan
09:32
that mattered all across the country
246
572249
2235
ve en yüksek risk öngörü değeri olan
09:34
and that were the most highly predictive of risk.
247
574484
2977
dokuz özgül faktör olduğunu öğrendik.
09:37
And so we built a universal risk assessment tool.
248
577461
3705
Sonuçta evrensel bir risk değerlendirme aracı geliştirdik.
09:41
And it looks like this.
249
581166
1445
Böyle bir şeye benziyor.
09:42
As you'll see, we put some information in,
250
582611
2612
Göreceğiniz gibi sisteme birkaç bilgi giriyoruz
09:45
but most of it is incredibly simple,
251
585223
2013
ama çoğu inanılmaz derecede basit
09:47
it's easy to use,
252
587236
1432
ve kullanımı kolay
09:48
it focuses on things like the defendant's prior convictions,
253
588668
2969
sanığın önceki suçları, sabıka kaydı,
09:51
whether they've been sentenced to incarceration,
254
591637
1979
geçmiş şiddet içeren vukuatları,
09:53
whether they've engaged in violence before,
255
593616
2264
hatta duruşmaya gelmeme durumları
09:55
whether they've even failed to come back to court.
256
595880
2393
gibi şeylere odaklanıyor.
09:58
And with this tool, we can predict three things.
257
598273
2500
Bu araç ile üç şeyi öngörebiliriz.
10:00
First, whether or not someone will commit
258
600773
1853
Birincisi, birinin salıverildiğinde
10:02
a new crime if they're released.
259
602626
1565
tekrar suç işleyip işlemeyeceği.
10:04
Second, for the first time,
260
604191
1664
İkincisi, dünyada ilk defa
10:05
and I think this is incredibly important,
261
605855
1861
ve bence bu çok önemli
10:07
we can predict whether someone will commit
262
607716
1923
birinin salıverildikten sonra
10:09
an act of violence if they're released.
263
609639
1834
şiddet eylemlerinde bulunup bulunmayacağını öngörebiliyoruz.
10:11
And that's the single most important thing
264
611473
1887
Yargıçlarla konuştuğunuzda
10:13
that judges say when you talk to them.
265
613360
1807
söyleyecekleri en önemli şey budur.
10:15
And third, we can predict whether someone
266
615167
1828
Üçüncüsü, birisinin duruşmaya
10:16
will come back to court.
267
616995
1990
geri gelip gelmeyeceğini öngörebiliyoruz.
10:18
And every single judge in the United States of America can use it,
268
618985
3033
Bunu Amerika'daki her yargıç kullanabilir,
10:22
because it's been created on a universal data set.
269
622018
3812
çünkü evrensel bir veri seti üzerine inşa edildi.
10:25
What judges see if they run the risk assessment tool
270
625830
2609
Yargıçlar bu risk değerlendirme aracını kullandıklarında
10:28
is this -- it's a dashboard.
271
628439
2120
işte bu paneli görecekler.
10:30
At the top, you see the New Criminal Activity Score,
272
630559
2848
En üstte, Yeni Şuç Faaliyeti Puanı'nı görüyorsunuz.
10:33
six of course being the highest,
273
633407
1929
Altı tabii ki en yükseği,
10:35
and then in the middle you see, "Elevated risk of violence."
274
635336
2403
ortada "Yüksek şiddet riski" göreceksiniz.
10:37
What that says is that this person
275
637739
1746
Bu, kişinin yüksek bir
10:39
is someone who has an elevated risk of violence
276
639485
2060
şiddet riski olduğunu
10:41
that the judge should look twice at.
277
641545
1885
ve yargıcın dikkatli olması gerektiğini belirtir.
10:43
And then, towards the bottom,
278
643430
1336
Aşağılara doğru göreceğiniz
10:44
you see the Failure to Appear Score,
279
644766
1968
Duruşmada Bulunmama Puanı
10:46
which again is the likelihood
280
646734
1392
birisinin duruşmaya
10:48
that someone will come back to court.
281
648126
3013
gelme ihtimalini belirtir.
10:51
Now I want to say something really important.
282
651139
2213
Çok önemli bir şey söylemek istiyorum.
10:53
It's not that I think we should be eliminating
283
653352
2727
Yargıçların içgüdü ve deneyimlerini
10:56
the judge's instinct and experience
284
656079
2244
bu süreçten elememiz
10:58
from this process.
285
658323
1604
gerektiğini düşünmüyorum.
10:59
I don't.
286
659927
1058
Kesinlikle hayır.
11:00
I actually believe the problem that we see
287
660985
2007
İnandığım şey, bu sistem hatalarının,
11:02
and the reason that we have these incredible system errors,
288
662992
2854
düşük dereceli şiddet göstermemiş suçluları hapse atıp
11:05
where we're incarcerating low-level, nonviolent people
289
665846
3087
yüksek derecede tehlikeli insanları serbest bırakmamızın
11:08
and we're releasing high-risk, dangerous people,
290
668933
3172
sebebinin nesnel bir risk ölçütünün
11:12
is that we don't have an objective measure of risk.
291
672105
2723
mevcut olmamasıdr.
11:14
But what I believe should happen
292
674828
1300
Olması gerektiğine inandığım şey
11:16
is that we should take that data-driven risk assessment
293
676128
2800
veri güdümlü risk değerlendirmesini alıp
11:18
and combine that with the judge's instinct and experience
294
678928
3041
yargıçların içgüdü ve deneyimleriyle birleştirerek
11:21
to lead us to better decision making.
295
681969
2958
daha iyi bir karar oluşumu sağlamak.
11:24
The tool went statewide in Kentucky on July 1,
296
684927
3303
Araç, 1 Temmuz günü tüm Kentucky'de kullanılmaya başladı
11:28
and we're about to go up in a number of other U.S. jurisdictions.
297
688230
3351
birkaç ABD yargı kurumuna daha girmek üzereyiz.
11:31
Our goal, quite simply, is that every single judge
298
691581
2591
Amacımız önümüzdeki beş yıl içinde
11:34
in the United States will use a data-driven risk tool
299
694172
2192
ABD'deki her yargıcın veri güdümlü bir
11:36
within the next five years.
300
696364
2091
risk aracı kullanmasıdır.
11:38
We're now working on risk tools
301
698455
1352
Şu anda savcıların ve polis memurlarının da
11:39
for prosecutors and for police officers as well,
302
699807
3284
kullanabileceği risk araçları üzerinde çalışıyoruz,
11:43
to try to take a system that runs today
303
703091
2700
günümüzde de 50 yıl öncesi gibi
11:45
in America the same way it did 50 years ago,
304
705791
2796
içgüdü ve deneyime dayalı olan
11:48
based on instinct and experience,
305
708587
2097
sistemin yerine
11:50
and make it into one that runs
306
710684
1855
veri ve analitik bazlı
11:52
on data and analytics.
307
712539
2469
bir sistem getirmek için.
11:55
Now, the great news about all this,
308
715008
1921
İyi haber şu ki,
11:56
and we have a ton of work left to do,
309
716929
1617
yapacak bir ton işimiz var
11:58
and we have a lot of culture to change,
310
718546
1857
ve değiştirmemiz gereken bir kültür var
12:00
but the great news about all of it
311
720403
1746
fakat iyi haber şu ki
12:02
is that we know it works.
312
722149
1868
işe yaradığını biliyoruz.
12:04
It's why Google is Google,
313
724017
2153
Google'ın, Google olma nedeni bu
12:06
and it's why all these baseball teams use moneyball
314
726170
2462
ve beyzbol takımları bu nedenle maç kazanmak için
12:08
to win games.
315
728632
1781
kazanma sanatı kullanıyorlar.
12:10
The great news for us as well
316
730413
1737
Amerikan cezai adalet sistemini
12:12
is that it's the way that we can transform
317
732150
1896
dönüştürebilecek olmamız da
12:14
the American criminal justice system.
318
734046
2321
bizim için harika bir haber.
12:16
It's how we can make our streets safer,
319
736367
2357
Böylece sokakları daha güvenli yapabilecek
12:18
we can reduce our prison costs,
320
738724
2299
hapishane maliyetlerini düşürecek
12:21
and we can make our system much fairer
321
741023
2067
ve sistemimizi daha dürüst ve adil
12:23
and more just.
322
743090
1725
yapabileceğiz.
12:24
Some people call it data science.
323
744815
2162
Bazıları buna veri bilimi diyor.
12:26
I call it moneyballing criminal justice.
324
746977
2301
Ben cezai adaleti kazanma sanatılamak diyorum.
12:29
Thank you.
325
749278
1804
Teşekkür ederim.
12:31
(Applause)
326
751082
4093
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7