WWWhat's new

El Uso de Algoritmos en el Sistema Judicial: ¿Solución o Más de lo Mismo?

Justicia Algorítmica

La creciente dependencia de algoritmos de evaluación de riesgo en el sistema judicial estadounidense ha sido motivo de debate. Estos algoritmos, diseñados para evaluar la probabilidad de que un acusado vuelva a comparecer ante el tribunal o represente un peligro, son cada vez más comunes en las cortes para decidir sobre la liberación bajo fianza. Sin embargo, estudios recientes, como el de Sino Esthappan, investigador de la Universidad Northwestern, revelan que estos algoritmos, en lugar de reducir los sesgos humanos, podrían estar ocultando problemas más profundos en el sistema de justicia.

¿Cómo Funcionan los Algoritmos de Evaluación de Riesgo?

Estos algoritmos comparan el historial criminal y otros factores de cada acusado con datos de miles de casos previos. A partir de esta comparación, emiten una calificación que varía entre “bajo”, “medio” o “alto” riesgo, o simplemente una puntuación numérica, que se presenta a los jueces en audiencias preliminares. En teoría, estos puntajes ayudan a los jueces a tomar decisiones más imparciales, evitando que los sesgos humanos influyan en el destino de un acusado.

La Realidad de su Uso: Selección Estratégica por Parte de los Jueces

El estudio de Esthappan sugiere que, en la práctica, los jueces no siguen de manera estricta las recomendaciones algorítmicas. En cambio, usan estos puntajes de manera estratégica, adaptándolos a sus propios criterios y motivaciones. En entrevistas con 27 jueces de diversas regiones, Esthappan observó que muchos recurrían a los algoritmos para justificar decisiones controvertidas, especialmente en casos de delitos graves. Cuando una evaluación algorítmica sugería un bajo riesgo en un caso de violencia doméstica o abuso sexual, los jueces tendían a ignorarla. En cambio, en casos de menor perfil, como delitos relacionados con la pobreza o adicción, los jueces estaban más dispuestos a seguir las recomendaciones del algoritmo, percibiendo un riesgo reputacional mínimo.

Algoritmos y el Riesgo de Reforzar Sesgos Raciales

Aunque los defensores de estas herramientas destacan su “neutralidad”, estudios previos, como el realizado por ProPublica en 2016, han demostrado que los algoritmos pueden ser notablemente inexactos y hasta reforzar sesgos raciales. En el caso de Broward County, Florida, el algoritmo mostró un sesgo en el cual etiquetaba a los acusados negros con mayor frecuencia como futuros delincuentes en comparación con los blancos. Esthappan apunta que estos problemas se agravan debido a que los algoritmos se basan en datos históricos que están “codificados racialmente” debido a prácticas de vigilancia históricamente discriminatorias.

¿Son los Algoritmos la Solución o Parte del Problema?

Megan Stevenson, experta en justicia criminal de la Universidad de Virginia, sugiere que estos algoritmos pueden ser vistos como «juguetes tecnocráticos» que no solucionan los problemas de fondo de un sistema judicial sobrecargado. Ella argumenta que, aunque parecen eliminar la “aleatoriedad” de las decisiones judiciales, no han mostrado un impacto significativo en los resultados. Además, Esthappan plantea una pregunta crucial: ¿realmente el problema radica en los sesgos de los jueces o en una estructura judicial que requiere decisiones apresuradas con información limitada?

Los Costos de la Detección Preventiva: Dilema de Libertad y Justicia

La dependencia de los jueces en estos puntajes puede tener consecuencias para los acusados de bajo riesgo que permanecen encarcelados sin necesidad. Esthappan señala que mantener a alguien en la cárcel antes de un juicio afecta su trabajo, su familia y su vida cotidiana, a pesar de no haber sido condenado. Sin embargo, pocos jueces sienten que mantener a alguien en prisión por error dañe su reputación, mientras que dejar en libertad a alguien que luego cause daño sí podría hacerlo.

Reflexiones Finales: ¿Un Futuro Judicial Sin Algoritmos?

Desde wwwhatsnew.com, creemos que estos hallazgos invitan a una profunda reflexión sobre la verdadera función de los algoritmos en el sistema judicial. Si bien los algoritmos pueden ofrecer apoyo, está claro que aún no son la solución definitiva para un sistema que necesita una reforma estructural. Como menciona Esthappan, el problema va más allá de los sesgos algorítmicos; es una cuestión cultural en la justicia penal que requiere un enfoque más humano y menos dependiente de datos históricos sesgados. En última instancia, estos algoritmos no son ni buenos ni malos por sí mismos; su impacto dependerá de cómo y por qué los utilicemos.

Salir de la versión móvil