En muchos fallos tecnológicos actuales no falta teoría ética; falta un dueño claro del problema. Con la IA y los sistemas semiautónomos aparece una situación incómoda: la decisión final es el resultado de muchas manos y varias capas de software, y cada capa tiene una explicación plausible para lavarse las manos. Si un modelo de selección de personal discrimina, el equipo de datos puede señalar al producto (“solo entrené lo que pediste”), producto puede señalar al negocio (“la empresa necesitaba velocidad”), cumplimiento puede señalar a la documentación (“me aseguraron que era justo”), y la dirección puede señalar a un comité (“para eso estaba el proceso”). El daño es real; la cadena de causas, difusa.
Los marcos clásicos de responsabilidad, pensados para productos relativamente estables, se atragantan con sistemas que se reentrenan, cambian con los datos y toman decisiones que nadie “aprobó” explícitamente en cada caso. Es como intentar atribuir la culpa de un atasco a una sola persona cuando hay miles de coches, obras y semáforos coordinándose mal. La salida no pasa por aceptar la “autonomía” como excusa, sino por rediseñar la gobernanza para que siempre exista un responsable identificable por fase: datos, entrenamiento, despliegue, mantenimiento y retirada. Continúa leyendo «Ética, código y conciencia: los dilemas tecnológicos que ya no podemos ignorar»