En España, el uso de la inteligencia artificial (IA) para la evaluación de riesgos en casos de violencia doméstica ha suscitado un debate significativo. El sistema conocido como VioGén se implementa mediante un cuestionario de 35 preguntas que la policía utiliza para evaluar el nivel de riesgo de una víctima. Esta tecnología pretende ayudar a determinar si una persona necesita protección adicional tras denunciar un incidente de violencia. Sin embargo, la realidad es que los resultados obtenidos a menudo han sido preocupantes.
Un caso particularmente trágico es el de Lobna Hemid, quien tras sufrir un ataque por parte de su esposo, se presentó en la comisaría para denunciar el hecho. A pesar de la gravedad de la situación, la herramienta de evaluación determinó que su riesgo era «bajo». Poco tiempo después, Hemid fue asesinada por su agresor. Este caso, entre otros, ha generado dudas sobre la efectividad de depender tanto de un algoritmo para decisiones críticas en situaciones tan delicadas.
El problema aquí no es simplemente la IA, sino cómo se utiliza y en qué contextos. Los algoritmos como VioGén pueden ofrecer una orientación basada en datos, pero no pueden reemplazar la intuición y la empatía humanas necesarias para comprender la complejidad de los casos de violencia doméstica. En muchos casos, los oficiales de policía pueden no estar suficientemente capacitados para interpretar correctamente los datos proporcionados por el sistema o para tomar decisiones que van más allá de las respuestas binarias del cuestionario.
Además, la implementación de tecnologías como VioGén parece ser una manera de delegar responsabilidades importantes sin abordar los problemas subyacentes en la forma en que se manejan estos casos. Hay una notable desconexión entre el uso de la tecnología y la necesidad de un enfoque más humano y comprensivo. La falta de intervención humana en estos procesos puede llevar a resultados fatales, como se ha visto en varios casos.
En WWWhat’s new, hemos explorado cómo la tecnología puede ser tanto una herramienta poderosa como un arma de doble filo. Este tema resuena con otros artículos donde se discuten los límites y las responsabilidades éticas del uso de la IA en contextos sensibles. La tecnología debe ser una herramienta para mejorar la vida de las personas, no un reemplazo insensible para la atención y el juicio humano.
En mi opinión, es crucial que los sistemas de evaluación de riesgos incorporen más componentes humanos. Los trabajadores sociales, psicólogos y otros profesionales con experiencia en violencia de género deberían formar parte del proceso de evaluación y apoyo a las víctimas. Este enfoque integral no solo mejoraría la precisión de las evaluaciones de riesgo sino que también proporcionaría un sistema de apoyo más robusto para las víctimas.
Entonces, ¿qué papel debe jugar la tecnología en la protección de las víctimas de violencia doméstica? En lugar de depender únicamente de un algoritmo, es fundamental combinar estas herramientas con la experiencia y el juicio humano. Esto no solo aumentaría la confianza en el sistema, sino que también aseguraría que las decisiones críticas se tomen de manera informada y compasiva.