Software & Hardware Used in Formula 1
Net als een professionele kok of een hartchirurg is een machine-learning-algoritme alleen zo goed als de training die het ontvangt. Naarmate algoritmen meer en meer de regie nemen en beslissingen nemen voor mensen, komen we erachter dat veel van hen niet de beste opleiding hebben ontvangen, omdat ze menselijke en gendergebaseerde vooroordelen nabootsen en zelfs nieuwe problemen creëren.
Om deze redenen gaat het met name over het feit dat meerdere staten, waaronder Californië, New York en Wisconsin, algoritmen gebruiken om te voorspellen welke mensen opnieuw misdaden begaan nadat ze zijn gedetineerd. Erger nog, het lijkt zelfs niet te werken.
In een krant die woensdag in het tijdschrift is gepubliceerd Science Advances, een paar computerwetenschappers van het Dartmouth College ontdekten dat een veel gebruikt computerprogramma voor het voorspellen van recidive niet meer klopt dan volledig ongetrainde burgers. Dit programma, genaamd Correctional Offender Management Profiling for Alternative Sanctions, analyseert 137 verschillende factoren om te bepalen hoe waarschijnlijk het is dat iemand na vrijlating een ander misdrijf zal plegen. COMPAS beschouwt factoren zoals middelengebruik, sociaal isolement en andere elementen waarvan criminologen theoretiseren tot recidive kunnen leiden, waarbij mensen worden geclassificeerd als hoog, gemiddeld of laag risico.
En ja, risicobeoordeling klinkt geweldig. Waarom hebben we niet meer gegevens om rechtbanken te helpen bepalen wie een groter risico is? Maar wat Dartmouth-computerwetenschappers Julia Dressel en Hany Farid ontdekten, was dat ongeoefende personen het recidive-risico correct beoordeelden met ongeveer dezelfde nauwkeurigheid als COMPAS, wat suggereert dat de veronderstelde kracht van het algoritme er niet is.
In één proef die slechts een fractie van de informatie bevatte die door COMPAS werd gebruikt (zeven factoren in plaats van 137 en exclusief ras), evalueerde een groep menselijke vrijwilligers op het internet, met vermoedelijk geen training in criminele risicobeoordeling, casusrapporten. Ze hebben de recidive van een persoon correct geschat met een nauwkeurigheid van 67 procent, vergeleken met de nauwkeurigheid van 65 procent van COMPAS.
Neem even de tijd om dat binnen te laten. Ongetrainde mensen op internet waren iets beter in staat te voorspellen of iemand terug zou gaan naar de gevangenis dan de tool die letterlijk is ontworpen om te voorspellen of een persoon terug zou gaan naar de gevangenis. En het wordt erger. Nadat je de race van een verdachte hebt toegevoegd, waren de foutpositieve en foutnegatieve percentages van de vrijwilliger binnen slechts een paar procentpunten van COMPAS. COMPAS is dus niet alleen niet zo goed in het voorspellen van recidive, het is net zo vatbaar voor racistische vooroordelen als mensen. Tot zover de koude logica van computers.
De onderzoekers maakten vervolgens een lineair model dat overeenkwam met het voorspellingspercentage van COMPAS met slechts twee factoren: leeftijd en aantal eerdere overtuigingen. Voor de duidelijkheid, deze voorspelling zou ook oneerlijk zijn, maar het toont wel aan hoe gebrekkig COMPAS is.
En hoewel dit onderzoek nieuw is, zijn de grote dekkingen die het omhelst niet. In een onderzoek uit 2016, ProPublica verslaggevers ontdekten dat COMPAS niet alleen onbetrouwbaar is, maar dat het systematisch bevooroordeeld is tegen Afro-Amerikanen, waarbij zwarte mensen consistent worden beoordeeld als een groter risico dan blanken die ernstiger misdaden hebben gepleegd. Hopelijk helpt dit nieuwe onderzoek de weg vrijmaken voor een beter risicobeoordelingsproces in het strafrechtelijk systeem.
Het feit dat COMPAS op zijn best nutteloos is en in het slechtste geval ten onrechte suggereert, suggereert dat op computer gebaseerde risicobeoordelingen de onrechtvaardigheden zouden kunnen verdiepen die het rechtssysteem geacht wordt aan te pakken. Aangezien risicobeoordelingscores kunnen worden toegepast bij elke stap van het strafproces, ook bij het vaststellen van iemands band, het bepalen of ze een voorwaardelijke vrijlating krijgen en in sommige staten zelfs voor het bepalen van de zin van een persoon, suggereert dit onderzoek een ernstige behoefte aan onderzoek het gebruik van COMPAS en andere programma's opnieuw.
Microsoft gaat precriminatie met een app die recidive voorspelt
In een webcast met politie-afdelingen eerder dit jaar liet een senior Microsoft-programmeur weten dat het bedrijf diep bezig was met het ontwikkelen van een app die kan voorspellen of een gevangene zes maanden na de release weer achter de tralies zit.
Studie: algoritme Dat is "Biased Against Blacks" achter slechte inmededeling recidive voorspellingen
Algoritmen zijn net zo bevooroordeeld als de mensen die ze maken. Een onderzoek door ProPublica wees uit dat Northpointe, makers van een algoritme dat probeert de kans op een andere misdaad van een gedetineerde te voorspellen, voorspelt dat zwarte mensen een grotere kans lopen om een misdaad te plegen nadat ze zijn uitgestapt dan witte pe ...
Slaan vrouwen: hoe en wanneer een slecht, slecht meisje slaan
Volg deze tips over hoe en wanneer je op de juiste manier moet slaan in plaats van af te ronden, het pak slaag in te nemen en een vrouw te riskeren boos op je te worden.