Google ha decidido retirar su modelo de inteligencia artificial Gemma de AI Studio luego de una acusación de difamación por parte de la senadora estadounidense Marsha Blackburn. El incidente, que ha generado tensiones entre el gigante tecnológico y representantes conservadores del gobierno estadounidense, pone bajo la lupa los riesgos de confiabilidad y responsabilidad en los sistemas de inteligencia artificial generativa.
El detonante fue una consulta hecha a Gemma en la que se preguntaba si la senadora Blackburn había sido acusada de violación. La respuesta generada por el modelo afirmaba falsamente que, durante una campaña para el Senado estatal en 1987, un patrullero estatal la había acusado de presionarlo para obtener medicamentos con receta y que existía una relación no consensuada. Blackburn negó categóricamente estos hechos, aclarando que su primera campaña fue en 1998 y que no existen registros, fuentes o individuos que respalden tales afirmaciones. Además, los enlaces incluidos por el modelo llevaban a páginas de error o noticias no relacionadas.
El problema de las «alucinaciones» en los modelos de lenguaje
La respuesta incorrecta de Gemma forma parte de un fenómeno bien conocido en el desarrollo de modelos de lenguaje: las alucinaciones de la IA, momentos en que un sistema genera datos falsos con una aparente seguridad. Aunque los desarrolladores reconocen este comportamiento como un reto técnico, cuando las alucinaciones afectan la reputación de personas específicas, el asunto escala de lo experimental a lo legal.
Durante una audiencia reciente del Comité de Comercio del Senado, Blackburn también mencionó la demanda del activista conservador Robby Starbuck contra Google, en la que se denuncia que los modelos de IA de la empresa difundieron afirmaciones difamatorias que lo describían como «violador de niños» y «abusador sexual en serie». Ante estas señalamientos, el vicepresidente de Asuntos Gubernamentales y Políticas Públicas de Google, Markham Erickson, reconoció que las alucinaciones son un problema conocido y que están trabajando para mitigarlo.
Blackburn, sin embargo, fue tajante en su carta al CEO Sundar Pichai: este tipo de errores no pueden considerarse simples fallas técnicas, sino actos de difamación producidos por una inteligencia artificial operada por Google. En sus palabras, esto va más allá de un problema técnico: es una responsabilidad editorial.
Debate sobre el sesgo ideológico y regulaciones
Este episodio también se inserta en una discusión más amplia sobre el supuesto sesgo ideológico en las herramientas de inteligencia artificial. Voces cercanas al expresidente Donald Trump han sostenido que muchas IA presentan una inclinación liberal que penaliza a figuras conservadoras. En ese contexto, Trump firmó este año una orden ejecutiva que prohíbe la llamada «IA woke», en un intento de evitar lo que consideran una censura automatizada.
Blackburn, quien apoyó la eliminación de una moratoria que evitaba regulaciones estatales sobre IA, ha sido una de las figuras políticas que más presionan para que las tecnológicas respondan por los posibles perjuicios derivados de sus modelos. Su carta a Pichai refuerza esa postura, alegando que las fallas de Gemma demuestran un patrón recurrente de errores en contra de figuras conservadoras.
La posición de Google y el uso previsto de Gemma
En una publicación nocturna en X (anteriormente Twitter), Google evitó referirse directamente a las acusaciones de Blackburn, pero explicó que ha detectado que usuarios no desarrolladores estaban utilizando Gemma en AI Studio para hacer consultas factuales. Aclaran que ese no era el propósito original del modelo ni del entorno de desarrollo, ya que Gemma fue diseñado como un modelo de código abierto y liviano para integrarse en aplicaciones, no como un asistente conversacional para el público general.
Por eso, Google ha optado por retirar temporalmente a Gemma de AI Studio, su plataforma web para la creación de aplicaciones con IA, aunque los modelos seguirán disponibles mediante API para desarrolladores que sepan manejarlos de forma adecuada. La medida sugiere una intención de limitar el uso erróneo o fuera de contexto de la tecnología.
Desafíos en la intersección entre tecnología, política y verdad
El caso de Gemma pone en evidencia lo complejo que resulta equilibrar innovación tecnológica, libertad de expresión y garantías legales. En la práctica, cuando una IA como Gemma responde a preguntas sobre figuras públicas, actúa como un espejo digital que refleja no solo datos disponibles, sino también sesgos, vacíos informativos y errores de entrenamiento.
El debate no es menor: ¿Debe una empresa ser responsable por las declaraciones falsas que emite un modelo automatizado? Y si el modelo está disponible como herramienta abierta para desarrolladores, ¿quién debe rendir cuentas cuando el uso se desvía de lo previsto?
Para el usuario promedio, este incidente refuerza la necesidad de ser crítico y consciente de que las respuestas de una IA no equivalen a verdades absolutas. Para los desarrolladores, subraya la importancia de definir claramente los límites de uso de sus herramientas. Y para los legisladores, marca una nueva frontera donde la regulación de la IA ya no es una cuestión técnica, sino política y social.
