Sudáfrica retiró su primera política nacional de IA porque la redactaron con IA y tiene citas inventadas: 6 de 67 referencias no existen

Publicado el

Sudáfrica retiró su primera política nacional de IA porque la redactaron con IA y tiene citas inventadas: 6 de 67 referencias no existen

El gobierno de Sudáfrica publicó el 10 de abril de 2026 en el Boletín Oficial su borrador de política nacional de IA para consulta pública. Dieciséis días después, el 26 de abril, el Ministerio de Comunicaciones y Tecnologías Digitales lo retiró. La razón es tan irónica como aleccionadora: el documento regulatorio sobre el uso responsable de la inteligencia artificial contenía referencias académicas generadas por inteligencia artificial que no existen. Lo cubre TechSpot basándose en la confirmación del ministro Solly Malatsi.

Al menos seis de las 67 citas del borrador apuntan a artículos académicos, revistas o autores que no existen. Son alucinaciones clásicas de un modelo de lenguaje: referencias plausibles en formato —título, autor, año, revista— pero totalmente ficticias en contenido. El ministro Malatsi fue directo en su comunicado: los contenidos IA se incluyeron sin verificación humana, lo que «no debería haber pasado», y habrá medidas disciplinarias para los responsables del borrado y control de calidad.

Qué contenía el borrador y por qué importaba

El documento era la primera política nacional de IA de Sudáfrica, un país que aspira a posicionarse como el hub tecnológico de África. Incluía propuestas para crear tres organismos nuevos: una comisión nacional de IA, una junta de ética de IA y una autoridad regulatoria de IA. También detallaba incentivos fiscales, subvenciones y desgravaciones para atraer inversión privada en infraestructura de IA. El Gabinete lo había aprobado el 25 de marzo y el 1 de abril.

La detección de las referencias falsas la realizaron grupos de derechos civiles —principalmente Article One— y periodistas de investigación que revisaron la bibliografía del documento. Las citas no solo apuntaban a artículos inexistentes sino que atribuían investigaciones relevantes a académicos reales que nunca habían escrito sobre esos temas. Una variante particularmente dañina: otorgar autoridad aparente a afirmaciones políticas falsas usando nombres de investigadores con credibilidad real.

La crisis no se quedó en el Ministerio de Comunicaciones. Tras el escándalo, investigadores encontraron más de 100 referencias no rastreables en un Libro Blanco revisado del Departamento de Interior sobre ciudadanía e inmigración, lo que llevó a nuevas suspensiones de funcionarios y a una auditoría gubernamental de todos los documentos de política producidos desde el lanzamiento de ChatGPT en 2022.

El patrón global que este caso ilustra

Sudáfrica no es el primer gobierno en tropezar con este problema. Un abogado y científico de datos que mantiene una base de datos pública de casos relacionados tenía registrados más de 900 casos judiciales en EE.UU. donde abogados habían presentado escritos con referencias a sentencias inexistentes generadas por IA, antes de que se añadieran los cuatro casos previos en Sudáfrica. La diferencia es de escala: un escrito jurídico con referencias falsas puede desestimarse; una política nacional con referencias falsas compromete la legitimidad de todo el proceso regulatorio.

El problema específico de usar IA para redactar política pública es que los modelos de lenguaje son muy buenos generando textos con apariencia de autoridad: vocabulario técnico correcto, estructura académica, tono oficial. Son mucho menos fiables cuando se trata de citar fuentes reales, porque los modelos de lenguaje no «saben» qué artículos existen; generan lo que les parece plausible basándose en patrones de texto, no en bases de datos bibliográficas verificadas.

El ministro Malatsi dio la respuesta correcta: «esto demuestra por qué la supervisión humana vigilante sobre el uso de la IA es fundamental.» La pregunta es si ese principio se convertirá en proceso concreto —verificación bibliográfica humana obligatoria antes de publicar cualquier documento de política— o quedará como declaración de intenciones.

Para entender por qué la regulación de IA en EE.UU. sigue caminos muy distintos, el análisis sobre la estrategia de Trump de estándar federal único de IA y la preempción de leyes estatales ilustra bien el contraste: mientras EE.UU. desregula a nivel estatal, Sudáfrica intentó regular y tropezó con su propia herramienta. Ni la desregulación irresponsable ni la regulación con IA sin supervisión son modelos exportables.

Mi valoración

Llevo cubriendo la irrupción de la IA en administraciones públicas desde 2023, y el caso de Sudáfrica me parece el ejemplo más pedagógico de lo que sucede cuando se da a la IA el rol de autor sin reservarse el rol de revisor.

Lo que más me convence de la respuesta del ministro Malatsi es la honestidad: no minimizó el fallo, lo llamó por su nombre y anunció consecuencias. Lo que más me preocupa es la auditoría posterior: si hay más de 100 referencias no rastreables en otro documento del mismo gobierno, el problema no es accidental sino sistémico. Un ministerio que usa IA para redactar sin protocolos de verificación no comete un error puntual; tiene una cultura de trabajo que necesita rediseñarse de raíz.

La pregunta a 12 meses no es si Sudáfrica publicará una nueva política de IA —lo hará—, sino si otros gobiernos actualizarán sus procesos de redacción antes de sufrir un escándalo similar. Los incentivos para que los funcionarios usen IA para acelerar la redacción de documentos son reales; los protocolos de verificación son costosos y ralentizan el proceso. Sin un mandato explícito, muchos optarán por la velocidad hasta que la siguiente alucinación se haga pública.

Preguntas frecuentes

¿Qué son exactamente las «citas alucinadas» en un documento de política?

Las alucinaciones bibliográficas son referencias académicas generadas por un modelo de IA que tienen la forma correcta —autor, título, revista, año— pero apuntan a artículos, revistas o investigadores que no existen o que nunca escribieron sobre ese tema. En el caso de Sudáfrica, al menos seis de las 67 citas del borrador de política de IA caían en esa categoría, detectadas al intentar verificar las fuentes originales.

¿Qué consecuencias tuvo el incidente para los responsables?

El ministro Malatsi anunció «medidas disciplinarias» para quienes fueron responsables de la redacción y del control de calidad del documento. El Departamento de Interior también suspendió a dos funcionarios de alto rango tras detectarse referencias similares en un Libro Blanco sobre ciudadanía. El gobierno lanzó una auditoría de todos los documentos de política producidos desde 2022.

¿El borrador de política de IA de Sudáfrica se va a publicar de nuevo?

Sí, según las declaraciones del ministro. La intención es revisar el borrador, eliminar las referencias falsas y volver a publicarlo para consulta pública. El ministro no dio un calendario. La mayor parte de las propuestas de fondo —comisión de IA, junta de ética, autoridad regulatoria, incentivos fiscales— se espera que se mantengan en la versión revisada.