Bucles de retroalimentación de la justicia, qué son y por qué te afecta

Publicado el

Justicia en la Inteligencia Artificial Equilibrio entre Ética y Tecnología

Hoy quiero hablarte de algo fascinante y, seamos honestos, un poco inquietante: los bucles de retroalimentación de la justicia en los sistemas de inteligencia artificial (IA). No te preocupes, lo vamos a desmenuzar como si estuviéramos tomando un café y charlando. La idea es que entiendas no solo de qué va el tema, sino también por qué nos afecta a todos.

Imagina esto: un banco utiliza un sistema de aprendizaje automático para decidir quién recibe un préstamo. Este sistema tiene un sesgo y tiende a negar créditos a ciertas personas basándose en datos históricos. ¿Qué pasa después? Estas personas tienen menos oportunidades para mejorar su situación económica, lo que refuerza la idea del sistema de que “no son confiables”. Y así empieza el ciclo. Esto es un bucle de retroalimentación. ¿Te suena justo? A mí tampoco.


La raíz del problema: ¿qué es el MIDS?

Para entender bien el tema, tenemos que hablar del concepto técnico detrás de todo esto: el desplazamiento de distribución inducido por el modelo (MIDS). Pero no te asustes con el nombre. Básicamente, significa que los modelos de IA no solo toman decisiones, sino que también influyen en los datos futuros. Es como si sus acciones tuvieran consecuencias que luego regresan para afectar su propio comportamiento.

Por ejemplo, un sistema de recomendaciones en una plataforma de streaming que te muestra siempre comedias. ¿Qué pasa si tú realmente querías explorar otros géneros? El sistema no lo sabe porque está atrapado en su burbuja, alimentándose de sus propias decisiones pasadas.


Tres caras de un mismo problema

El MIDS puede aparecer de varias formas, pero las tres más comunes son estas:

1. Predicción performativa

Aquí es cuando la predicción de un modelo cambia la realidad misma. Es como una profecía autocumplida. Por ejemplo, si un sistema dice que alguien no pagará su préstamo, el banco podría negárselo. Esto hace que esa persona no tenga oportunidad de demostrar lo contrario, confirmando lo que el modelo predijo. Es un poco como decir: “Sabía que no lo lograrías”, pero sin darle a la persona ni una sola oportunidad real.

2. Colapso del modelo

Este es un problema más técnico, pero imagina que un modelo de IA genera datos falsos para entrenar nuevos sistemas. Si esos datos tienen errores o sesgos, la siguiente generación de modelos será aún peor. Es como copiar un examen de alguien que ya lo hizo mal y seguir acumulando errores.

3. Amplificación de disparidades

Este es más social. Si un modelo funciona mal para un grupo (por ejemplo, personas de una etnia específica), esas personas dejarán de usarlo. Esto significa que el sistema tendrá menos datos sobre ellas y, por lo tanto, empeorará su rendimiento en el futuro. Es como si se cerrara la puerta de una habitación donde nadie te entiende.


Por qué nos afecta a todos

Tal vez estés pensando: «Esto suena mal, pero yo no uso sistemas de IA en mi vida diaria». Déjame decirte que sí lo haces, incluso si no te das cuenta. Desde los algoritmos que determinan las noticias que ves en redes sociales hasta los que deciden si tu currículum llega a la mesa de un reclutador, la IA está en todas partes. Y si estos sistemas están sesgados, todos sufrimos las consecuencias.

En WWWhatsnew.com hemos hablado muchas veces de cómo la tecnología afecta nuestra vida diaria. No se trata solo de innovación, sino de cómo hacemos que esta sea ética y justa. Este tipo de bucles de retroalimentación son una prueba más de que necesitamos vigilar muy de cerca lo que hacemos con la IA.


¿Qué podemos hacer para romper el ciclo?

Ahora bien, no todo está perdido. Hay formas de combatir estos bucles. Una de las soluciones más interesantes es lo que se conoce como reparación algorítmica (AR). Básicamente, la idea es usar la IA para arreglar las injusticias del pasado.

¿Cómo funciona esto?

En lugar de tratar a todos por igual, la AR intenta dar más a quienes menos han tenido. Por ejemplo, al entrenar un modelo, podrías asegurarte de que haya representación justa de todos los grupos, incluso aquellos que históricamente han sido marginados. Esto no solo mejora la justicia, sino que también hace que los sistemas sean más precisos.

Estrategias clave

  • Muestreo estratificado: Asegurarse de que todos los grupos tengan representación equitativa en los datos de entrenamiento.
  • Datos no sintéticos: Usar datos reales en lugar de generados artificialmente para evitar acumulación de sesgos.
  • Anotación humana: Dejar que personas reales revisen y ajusten los datos para garantizar su calidad.

A mí me encanta la tecnología, pero creo firmemente que no es neutral. Lo que hacemos con la inteligencia artificial refleja quiénes somos como sociedad. Si permitimos que los sesgos históricos se filtren en estos sistemas, solo perpetuaremos las desigualdades. Pero si usamos herramientas como la reparación algorítmica, podemos hacer algo realmente positivo.