Digital

El racismo, un pecado en el que incurren también (que da gusto) los algoritmos

algoritmosCuando una persona acusada de un delito se enfrenta a una sentencia judicial en Estados Unidos, el juez puede echar mano de toda una pléyade de factores para imponer al imputado un castigo que se ajuste verdaderamente al crimen cometido.

Entre esos factores destaca (y se utiliza cada vez más) el denominado "risk assessment score" (puntuación de valoración de riesgo), un número alumbrado por un algoritmo que calcula la probabilidad con la que el acusado cometerá (o no) otro crimen en el futuro.

¿El problema? Que según un reciente informe publicado por ProPublica, los algoritmos responsables del "risk assessment score" de una persona procesada son dueños de severos prejuicios contra la gente de raza negra.

El “risk assessment score” tiene influencia sobre muchísimos aspectos de la sentencia final del magistrado, desde el monto de la fianza al tiempo de permanencia en prisión del acusado.

Si una persona procesada presenta un alto riesgo de reincidencia, el juez terminará aplicándole probablemente penas más duras para disuadirle de volver a delinquir en el futuro.

Para llevar a cabo su informe, ProPublica puso bajo la lupa datos de más de 7.000 personas procesadas en el condado de Broward (Florida), cuyos “risk assessment scores” llevan la firma de la empresa de software Northpointe.

Según ProPublica, esos “risk assessment scores” son de todo menos atinados. De hecho, sólo el 20% de las personas que Northpointe predice que reincidirán vuelven realmente a cometer delitos.

Y lo que resulta aún más grave, la fórmula aplicada por Northpointe para calcular el “risk assessment score” de un persona procesada falla casi dos veces más a la hora de etiquetar como reincidentes a acusados de raza negra que a acusados de raza blanca.

Además, y dejando a las claras que los algoritmos de Northpointe son claramente racistas, el “risk assessment score” de los acusados de raza blanca es sistemática más bajo que el asignado a las personas procesadas de color.

Ante las graves acusaciones vertidas en su informe por ProPublica, la empresa de software Northpointe se ha visto obligada a salir a la palestra para negar que la raza sea un factor explícito a la hora de alumbrar los “risk assessment scores”. Sin embargo, sí reconoce que algunos de los factores utilizados en el cálculo de ese “risk assessment score” están estrechamente relacionados con la raza, como el nivel de educación, el trabajo del acusado, su clase social y el historial criminal de sus amigos y familiares.

Te recomendamos

Eficacia

Atresmedia

ADN by DAN

icemd

Compartir