Sesgo de la máquina
Enviado por Danae Müller Puig • 9 de Marzo de 2020 • Apuntes • 2.851 Palabras (12 Páginas) • 166 Visitas
Sesgo de la máquina
Hay software utilizado en todo el país para predecir futuros delincuentes. Y está sesgado contra los negros.
EN UNA TARDE DE PRIMAVERA EN 2014, Brisha Borden llegaba tarde a recoger a su ahijada de la escuela cuando vio la bicicleta Huffy azul de un niño desbloqueado y un scooter Razor plateado. Borden y un amigo agarraron la bicicleta y el scooter e intentaron conducirlos por la calle en el suburbio de Coral Springs en Fort Lauderdale.
Justo cuando las chicas de 18 años se daban cuenta de que eran demasiado grandes para los pequeños medios de transporte, que pertenecían a un niño de 6 años, una mujer vino corriendo detrás de ellos y dijo: "Eso es cosa de mis hijos". Borden y su amiga De inmediato dejó caer la bicicleta y el scooter y se alejó.
Pero ya era demasiado tarde: un vecino que presenció el atraco ya había llamado a la policía. Borden y su amiga fueron arrestados y acusados de robo y hurto menor por los artículos, que fueron valorados en un total de $ 80.
Compare su crimen con uno similar: el verano anterior, Vernon Prater, de 41 años, fue recogido por robar herramientas por valor de $ 86.35 en una tienda cercana de Home Depot.
Prater era el criminal más experimentado. Ya había sido condenado por robo a mano armada e intento de robo a mano armada, por lo cual estuvo cinco años en prisión, además de otro cargo por robo a mano armada. Borden también tenía un historial, pero era por delitos menores cometidos cuando era una menor.
Sin embargo, algo extraño sucedió cuando Borden y Prater fueron encarcelados: un programa de computadora escupió un puntaje que predice la probabilidad de que cada uno cometa un crimen futuro. Borden, que es negro, recibió una calificación de alto riesgo. Prater, que es blanco, recibió una calificación de bajo riesgo.
Dos años después, sabemos que el algoritmo informático lo hizo exactamente al revés. Borden no ha sido acusado de ningún delito nuevo. Prater está cumpliendo una pena de prisión de ocho años por irrumpir posteriormente en un almacén y robar miles de dólares en productos electrónicos.
Puntuaciones como esta, conocidas como evaluaciones de riesgos, son cada vez más comunes en los tribunales de todo el país. Se utilizan para informar las decisiones sobre quién puede ser liberado en cada etapa del sistema de justicia penal, desde la asignación de montos de fianza, como es el caso en Fort Lauderdale, hasta decisiones aún más fundamentales sobre la libertad de los acusados. En Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington y Wisconsin, los resultados de tales evaluaciones se dan a los jueces durante la sentencia penal.
La calificación del riesgo de un acusado de un delito futuro a menudo se realiza junto con una evaluación de las necesidades de rehabilitación del acusado. El Instituto Nacional de Correcciones del Departamento de Justicia ahora alienta el uso de tales evaluaciones combinadas en cada etapa del proceso de justicia penal. Y un proyecto de ley de reforma de sentencias histórico pendiente actualmente en el Congreso exigiría el uso de tales evaluaciones en las cárceles federales.
En 2014, el entonces Fiscal General de los EE. UU. Eric Holder advirtió que los puntajes de riesgo podrían estar inyectando sesgos en los tribunales. Llamó a la Comisión de Sentencias de los Estados Unidos para estudiar su uso. "Aunque estas medidas fueron elaboradas con la mejor de las intenciones, me preocupa que minen inadvertidamente nuestros esfuerzos para garantizar una justicia individualizada e igualitaria", dijo, y agregó que "pueden exacerbar las disparidades injustificadas e injustas que ya son demasiado comunes en nuestro sistema de justicia penal y en nuestra sociedad ".
Sin embargo, la comisión de sentencia no inició un estudio de puntajes de riesgo. Así lo hizo ProPublica, como parte de un examen más amplio del poderoso efecto, en gran medida oculto, de los algoritmos en la vida estadounidense.
Obtuvimos los puntajes de riesgo asignados a más de 7,000 personas arrestadas en el condado de Broward, Florida, en 2013 y 2014 y verificamos cuántos fueron acusados de nuevos delitos en los próximos dos años, el mismo punto de referencia utilizado por los creadores del algoritmo.
El puntaje resultó notablemente poco confiable para pronosticar crímenes violentos: solo el 20 por ciento de las personas que predijeron cometer crímenes violentos realmente lo hicieron.
Cuando se tuvo en cuenta una gama completa de delitos, incluidos delitos menores como conducir con una licencia vencida, el algoritmo fue algo más preciso que un lanzamiento de moneda. De los considerados susceptibles de reincidencia, el 61 por ciento fueron arrestados por cualquier delito posterior dentro de dos años.
También descubrimos importantes disparidades raciales, tal como temía Holder. Al pronosticar quién volvería a ofender, el algoritmo cometió errores con los acusados en blanco y negro aproximadamente al mismo ritmo pero de maneras muy diferentes.
La fórmula era particularmente probable que señalara falsamente a los acusados negros como futuros delincuentes, etiquetándolos erróneamente de esta manera a casi el doble de tasa que los acusados blancos.
Los acusados blancos fueron mal etiquetados como de bajo riesgo con mayor frecuencia que los acusados negros.
¿Podría esta disparidad explicarse por los delitos anteriores de los acusados o el tipo de delitos por los que fueron arrestados? No. Realizamos una prueba estadística que aisló el efecto de la raza del historial criminal y la reincidencia, así como de la edad y el sexo de los acusados. Los acusados negros aún tenían un 77 por ciento más de probabilidades de ser considerados como de mayor riesgo de cometer un crimen violento futuro y un 45 por ciento más de probabilidades de ser pronosticado para cometer un crimen futuro de cualquier tipo. (Lea nuestro análisis).
El algoritmo utilizado para crear los puntajes de riesgo de Florida es producto de una compañía con fines de lucro, Northpointe. La compañía disputa nuestro análisis.
En una carta, criticó la metodología de ProPublica y defendió la precisión de su prueba: “Northpointe no está de acuerdo en que los resultados de su análisis, o las afirmaciones que se hacen con base en ese análisis, sean correctos o que reflejen con precisión los resultados de la aplicación del modelo ".
El software de Northpointe se encuentra entre las herramientas de evaluación más utilizadas en el país. La compañía no divulga públicamente los cálculos utilizados para llegar a los puntajes de riesgo de los acusados, por lo que ni los acusados ni
...