Usuario:Computer science ethic/COMPAS (software)

De Wikipedia, la enciclopedia libre

 

COMPAS (del inglés Correctional Offender Management Profiling for Alternative Sanctions) es una herramienta de gestión de casos y un sistema de soporte a decisiones desarrollado y propiedad de Northpointe (ahora Equivant) utilizada por las cortes de los Estados Unidos para evaluar la probabilidad de que un acusado se convierta en reincidente.[1][2]

COMPAS ha sido utilizado por los estados de Nueva York, Wisconsin, California, el Condado de Broward de Florida y otras jurisdicciones.[3]

Evaluación de riesgos[editar]

El software COMPAS utiliza un algoritmo para evaluar el riesgo potencial de reincidencia. Northpointe creó escalas de riesgo para la reincidencia general y violenta, y para la mala conducta previa al juicio. Según la Guía del Practicante de COMPAS, las escalas fueron diseñadas utilizando comportamientos y conductas psicológicas "de muy alta relevancia para la reincidencia y las carreras criminales".[4]

  • Escala de Riesgo de la liberación previa al juicio: El riesgo previo al juicio es una medida de la posibilidad de que un individuo no comparezca y/o cometa nuevos delitos graves mientras está en libertad. Según la investigación que informó la creación de la escala, "los cargos actuales, los cargos pendientes, el historial de arrestos previos, el fracaso previo al juicio, la estabilidad residencial, el estado laboral, los lazos comunitarios y el abuso de sustancias" son los indicadores más significativos que afectan la puntuación de riesgos previos al juicio.[4]
  • Escala de Reincidencia General : La escala de Reincidencia General está diseñada para predecir nuevos delitos tras la liberación y después de que se dé la evaluación COMPAS. La escala utiliza el historial criminal y asociados de un individuo, la participación en drogas y los indicios de delincuencia juvenil.[5]
  • Escala de Reincidencia Violenta: La puntuación de Reincidencia Violenta está destinada a predecir delitos violentos después de la liberación. La escala utiliza datos o indicadores que incluyen el "historial de violencia, el historial de incumplimiento, los problemas vocacionales/educativos de una persona, la edad de admisión de la persona y la edad de la persona en el primer arresto".[6]

La Escala de Riesgo de Reincidencia Violenta se calcula de la siguiente manera:

dónde  es la puntuación de riesgo de reincidencia violenta,  es un multiplicador de peso,  es la edad actual,  es la edad en el primer arresto,  es la historia de la violencia, es el nivel de educación vocacional, y  es historia de incumplimiento. El peso, , está "determinado por la fuerza de la relación del objecto con la reincidencia de ofensas personales que observamos en los datos de nuestro estudio".[7]

Críticas y sentencias judiciales[editar]

En julio de 2016, la Corte Suprema de Wisconsin dictaminó que los puntajes de riesgo de COMPAS pueden ser considerados por los jueces durante la sentencia, pero debe haber advertencias dadas a los puntajes para representar las "limitaciones y precauciones" de la herramienta.[3]

Una crítica general al uso de software patentado como COMPAS es que, dado que los algoritmos que utiliza son secretos comerciales,no pueden ser examinados por el público y las partes afectadas, lo que puede ser una violación del debido proceso. Además, se ha demostrado que los algoritmos simples, transparentes y más interpretables (como la regresión lineal)realizan predicciones aproximadamente como el algoritmo COMPAS.[8][9][10][11]

Otra crítica general de los algoritmos basados en el aprendizaje automático es que, dado que dependen de los datos, si los datos están sesgados, el software probablemente producirá resultados sesgados.[12]

Precisión[editar]

En 2016, Julia Angwin fue coautora de una investigación de ProPublica sobre el algoritmo.[13]​ El equipo encontró que "los negros tienen casi el doble de probabilidades que los blancos de ser etiquetados como de mayor riesgo pero no reinciden", mientras que COMPAS "comete el error opuesto entre los blancos: son mucho más propensos que los negros a ser etiquetados como de menor riesgo, pero continúan cometiendo otros delitos".[8][13][14]​ También encontraron que solo el 20 por ciento de las personas que se predijo que cometerían delitos violentos en realidad lo hicieron.[13]

En una carta, Northpointe criticó la metodología de ProPublica y declaró que: "[La compañía] no está de acuerdo en que los resultados de su análisis, o las afirmaciones que se hacen basadas en ese análisis, sean correctas o que reflejen con precisión los resultados de la aplicación del modelo".[13]

Otro equipo del Community Resources for Justice, un grupo de expertos en justicia penal, publicó una refutación de los hallazgos de la investigación.[15]​ Entre varias objeciones, la refutación del CRJ concluyó que los resultados de la Propublica: "contradicen varios estudios integrales existentes que concluyen que el riesgo actuarial puede predecirse libre de sesgos raciales y/o de género".[15]

Un estudio posterior ha demostrado que el software COMPAS es más preciso que las personas con poca o ninguna experiencia en justicia penal y menos preciso que los grupos de individuos.[16]​ Encontraron que: "En promedio, obtuvieron la respuesta correcta el 63 por ciento de su tiempo, y la precisión del grupo aumentó al 67 por ciento si sus respuestas se agruparon. COMPAS, por el contrario, tiene una precisión del 65 por ciento".[8]

Lecturas[editar]

Véase también[editar]

Referencia[editar]

  1. Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel (17 de octubre de 2016). «A computer program used for bail and sentencing decisions was labeled biased against blacks. It’s actually not that clear.». Washington Post (en inglés estadounidense). ISSN 0190-8286. Consultado el 29 de noviembre de 2021. 
  2. Bornstein, Aaron M. (21 de diciembre de 2017). «Are Algorithms Building the New Infrastructure of Racism?». Nautilus. Consultado el 29 de noviembre de 2021. 
  3. a b Kirkpatrick, Keith (23 de enero de 2017). «It's not the algorithm, it's the data». Communications of the ACM 60 (2): 21-23. ISSN 0001-0782. doi:10.1145/3022181. Consultado el 29 de noviembre de 2021. 
  4. a b Northpointe 2915. p. 27. 
  5. Northpointe 2015. p. 26. 
  6. Northpointe 2015. p. 28. 
  7. Northpointe 2015. p. 29. 
  8. a b c Yong, Ed (17 de enero de 2018). «A Popular Algorithm Is No Better at Predicting Crimes Than Random People». The Atlantic (en inglés). Consultado el 29 de noviembre de 2021. 
  9. Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia (3 de agosto de 2018). «Learning Certifiably Optimal Rule Lists for Categorical Data». arXiv:1704.01701 [cs, stat]. Consultado el 29 de noviembre de 2021. 
  10. «Opening the Lid on Criminal Sentencing Software». today.duke.edu (en inglés). Consultado el 29 de noviembre de 2021. 
  11. Angelino, Elaine; Larus-Stone, Nicholas; Alabi, Daniel; Seltzer, Margo; Rudin, Cynthia (3 de agosto de 2018). «Learning Certifiably Optimal Rule Lists for Categorical Data». arXiv:1704.01701 [cs, stat]. Consultado el 29 de noviembre de 2021. 
  12. O'Neil, Cathy (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (en inglés). Crown. p. 87. ISBN 978-0-553-41881-1. Consultado el 29 de noviembre de 2021. 
  13. a b c d Mattu, Julia Angwin,Jeff Larson,Lauren Kirchner,Surya. «Machine Bias». ProPublica (en inglés). Consultado el 29 de noviembre de 2021. 
  14. Israni, Ellora Thadaney (26 de octubre de 2017). «Opinion | When an Algorithm Helps Send You to Prison». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 29 de noviembre de 2021. 
  15. a b Flores, Anthony; Lowenkamp, Christopher; Bechtel, Kristin. "False Positives, False Negatives, and False Analyses" (PDF). Consultado el 29 de noviembre de 2021. 
  16. Dressel, Julia; Farid, Hany (17 de enero de 2018). «The accuracy, fairness, and limits of predicting recidivism». Science Advances 4 (1): eaao5580. ISSN 2375-2548. PMC 5777393. PMID 29376122. doi:10.1126/sciadv.aao5580. Consultado el 29 de noviembre de 2021.