Studie: algoritme Dat is "Biased Against Blacks" achter slechte inmededeling recidive voorspellingen

$config[ads_kvadrat] not found

Ferguson Police Probe Finds Pattern Of Bias

Ferguson Police Probe Finds Pattern Of Bias
Anonim

Algoritmen zijn net zo bevooroordeeld als de mensen die ze maken. Een onderzoek door ProPublica ontdekte dat Northpointe, makers van een algoritme dat probeert de kans op een andere misdaad van een gedetineerde te voorspellen, voorspelt dat zwarte mensen een grotere kans hebben om een ​​misdaad te plegen nadat ze zijn uitgestapt dan blanke mensen.

Het algoritme creëert een "risicobeoordeling" -score voor gedetineerden. Het wordt in het hele land gebruikt als leidraad bij het vrijgeven van gevangenisstraffen. Na het analyseren van gegevens voor meer dan 7000 mensen in Broward County, Florida, is de realiteit van racistische algoritmen duidelijk: zwarte verdachten waren bijna twee keer zoveel kans dan blanke beklaagden om een ​​voorspelling te krijgen van het plegen van een ander misdrijf.

De analyse gecontroleerd voor variabelen zoals geslacht en criminele achtergrond. Toch werden zwarte mensen voorspeld omdat 77 procent meer kans heeft om een ​​geweldsmisdrijf in de toekomst te plegen en 45 procent waarschijnlijk toekomstige misdaden begaat. Ook verontrustend is dat slechts 20 procent van de voorspellingen van Northpointe over wie toekomstige geweldsmisdrijven zal plegen accuraat zijn.

Northpointe gebruikt 137 vragen om te oordelen over het potentieel van mensen die een misdrijf plegen. Zoals ProPublica meldt, vermijden de vragen om ronduit over de race te vragen. Sommige vragen kunnen echter met elkaar in verband staan.

Voorbeelden van de vragen zijn: "Is er ooit een van je ouders naar de gevangenis of gevangenis gestuurd?" En "Hoe vaak heb je tijdens de gevechten te maken gehad?" Er zijn ook ja / nee-vragen zoals "Een hongerige persoon heeft een recht stelen. "Andere factoren zijn onder meer opleidingsniveaus en of een persoon al dan niet een baan heeft.

ProPublica heeft de exacte methoden beschreven voor hoe zij de gegevens van Northpointe in een verklarende post benaderden en analyseerden, en Northpointe stuurde een brief naar ProPublica waarin stond dat het bedrijf "het er niet mee eens is dat de resultaten van hun analyse, of de claims op basis daarvan worden gemaakt. analyse, correct zijn of dat ze de uitkomsten van de toepassing van het model accuraat weergeven."

De resultaten van ProPublica, zo niet ongelooflijk verrassend, zijn zorgwekkend. Risicobeoordelingen worden gebruikt voor het bepalen van voorwaardelijke vrijlating en het bepalen van obligatiebedragen; ze maken zelfs deel uit van criminele straffen in negen staten.

Technologie is niet de ultieme oplossing voor elk probleem, vooral omdat de technologie net zo gebrekkig is als de mensen die het maken.

$config[ads_kvadrat] not found