Wikipedia prohíbe oficialmente el texto generado por IA en sus artículos (con dos excepciones)

Publicado el

Imagen subrealista y minimalista que representa una inteligencia artificial generando imágenes a partir de texto. Un robot humanoide crea visuales abstractos en un fondo blanco, simbolizando el proceso creativo de modelos como Reve Image 1.0.

La Wikipedia en inglés ha aprobado una política que prohíbe explícitamente el uso de modelos de lenguaje (LLMs) para generar o reescribir contenido de artículos. La votación, mediante un Request for Comment (RfC), se cerró el 20 de marzo con 44 votos a favor y solo 2 en contra. Es la norma más contundente que ha adoptado hasta ahora la enciclopedia colaborativa más grande del mundo contra el contenido generado por IA.

La política anterior, que muchos editores consideraban provisional, solo prohibía usar IA para crear artículos nuevos desde cero. La nueva norma extiende la prohibición a reescribir o expandir artículos existentes con texto generado por LLMs. Genera un artículo con IA y publícalo en Wikipedia: prohibido. Copia un párrafo de ChatGPT para expandir una sección: prohibido. Usa un agente de IA autónomo para editar páginas: prohibido.

Las dos excepciones son estrechas y específicas. Primera: los editores pueden usar LLMs para refinar su propia escritura (como un corrector gramatical o de estilo), siempre que revisen manualmente que el modelo no haya introducido contenido propio ni alterado el significado del texto original. Segunda: pueden usar LLMs para producir un borrador inicial de traducción, siempre que dominen ambos idiomas y verifiquen cada frase.

El detonante inmediato fue un caso de principios de marzo: un agente de IA autónomo llamado TomWikiAssist fue descubierto creando y editando múltiples artículos en Wikipedia sin supervisión humana. El caso ilustró el problema central: generar contenido con IA tarda segundos, pero verificarlo y limpiarlo tarda horas, cargando desproporcionadamente a la comunidad de editores voluntarios.

Hay un riesgo circular que los editores destacaron durante el debate: el texto impreciso o alucinado generado por IA entra en Wikipedia, es scrapeado por las empresas de IA como datos de entrenamiento, y reentra en modelos futuros, amplificando los errores. Wikipedia es una de las fuentes de datos de entrenamiento más importantes para prácticamente todos los LLMs del mercado, lo que hace que la contaminación de su contenido tenga consecuencias que van mucho más allá de la enciclopedia.

La política solo aplica a la Wikipedia en inglés. Cada versión lingüística tiene autonomía sobre sus propias reglas. La Wikipedia en español, por ejemplo, ya prohíbe los LLMs para crear artículos nuevos o expandir los existentes, pero sin las excepciones específicas para traducción y edición.

Mi lectura: Wikipedia acaba de trazar una línea clara que la mayoría de plataformas de contenido no se atreve a trazar. Mientras el resto de internet se inunda de «AI slop» (contenido generado por IA de baja calidad), Wikipedia dice: aquí no. El problema de aplicación es real —detectar texto generado por IA sigue siendo una ciencia imperfecta—, pero la señal importa. Wikipedia está diciendo que la verificabilidad humana, la neutralidad editorial y las fuentes citadas son más importantes que la eficiencia de producción. En 2026, eso es casi contracultural.

Preguntas frecuentes

¿Qué prohíbe exactamente Wikipedia? Usar LLMs para generar o reescribir contenido de artículos en la Wikipedia en inglés. No se puede copiar texto de ChatGPT, Gemini o cualquier otro modelo.

¿Qué excepciones hay? Dos: usar IA como corrector de estilo/gramática (revisando manualmente los cambios) y usar IA para borradores iniciales de traducción (verificando cada frase).

¿Aplica a todas las Wikipedias? No. Solo a la Wikipedia en inglés. Cada versión lingüística decide sus propias reglas.