S’està provant l’algorisme a San Francisco per establir una fita prèvia a l’assaig

$config[ads_kvadrat] not found

ON S'EST FAIT TOUS VIRER....

ON S'EST FAIT TOUS VIRER....
Anonim

El sistema de justícia penal es troba enmig d’un canvi algorítmic. Al voltant de 30 jurisdiccions, incloent-hi els estats sencers d'Arizona, Kentucky i Nova Jersey, així com ciutats com San Francisco i Chicago, han provat un algorisme que estableix el cost de la fiança segons les dades dels antecedents penals de tot el país. No tots els jutges necessàriament estan preparats per portar les recomanacions digitals de cor.

L’algorisme s’ha creat per la Fundació Laura i John Arnold, amb seu a Houston, i s’anomena l’avaluació de la seguretat pública, o PSA. L’objectiu de l’algorisme és treure els biaixos de l’establiment de la fiança mitjançant l’ús de dades de 1,5 milions de casos presencials. En el passat, però, els algorismes han comportat els mateixos biaixos de les persones que les fabriquen.

Nou factors entren en l’algorisme, segons el lloc web de la fundació:

  • Si la infracció actual és violenta
  • Si la persona té un càrrec pendent en el moment de la detenció
  • Si la persona té una condemna prèvia contra delicte
  • Si la persona té una condemna criminal prèvia
  • Si la persona té una condemna prèvia per un delicte violent
  • L'edat de la persona en el moment de la detenció
  • Si la persona no va aparèixer en una audiència prèvia dels dos últims anys
  • Si la persona no va aparèixer en una audiència prèvia a la prova prèvia fa més de dos anys
  • Si la persona ha estat sentenciada prèviament a l'empresonament.

L’algorisme no té en compte la raça, el sexe, els ingressos, l’educació, l’ocupació o el barri. Això, segons la fundació, fa que PSA sigui neutral.

Tot i així, els jutges de San Francisco no han seguit de manera constant les recomanacions San Francisco Chronicle informes.

San Francisco es va mudar a utilitzar l'algorisme després que la ciutat fos demandada per un grup nacional de drets civils que reclamava una fiança exorbitant més que els rics. Les persones riques que van cometre delictes menors estaven comprant la seva sortida de la presó, mentre que les persones pobres que no podien permetre's les quantitats de fiança excessives es van deixar a la cel·la de retenció fins que es podia programar un judici.

Se suposava que el PSA anivellaria les condicions de joc, més enllà de la delinqüència immediata. L’algorisme utilitza dades històriques per a jutjar la probabilitat que una persona cometi un altre crim o eviti el judici si es posa sota fiança, Informe de la minoria estil. Si la probabilitat és alta, la fiança es fixa més alta i viceversa.

Un algorisme similar creat per Northpointe va ser utilitzat per guiar les dates de llançament del presoner. ProPublica va publicar els resultats d’una investigació al maig que va trobar que les puntuacions d’avaluació de riscs donades per l’algorisme de Northpointe van predir de manera desproporcionada que els negres tindrien més probabilitats de cometre un altre crim que els blancs després de sortir. Només el 20% de les prediccions de Northpointe eren exactes.

Les tecnologies de mapes avançades i les grans dades, per altra banda, també ajuden a la policia a identificar i policia els punts criminals.

L’algorisme de la fundació té com a objectiu evitar un biaix similar eliminant els indicadors demogràfics. Tanmateix, no es veurà si funciona realment, fins que els jutges realment comencin a dependre d’algorismes sobre precedents i intuïcions.

$config[ads_kvadrat] not found