Grokipedia: una “Wikipedia” sin editores humanos

Publicado el

Representación surrealista de inteligencia artificial apoyando el conocimiento humano en Wikipedia

Cuando Elon Musk lanzó Grokipedia como alternativa a Wikipedia, la promesa era simple de explicar y difícil de cumplir: una enciclopedia creada por IA sin el filtro de una comunidad humana revisando, corrigiendo y discutiendo cada frase. Según contó Gizmodo, Musk venía tiempo criticando a Wikipedia como “Wokipedia” y defendiendo que hacía falta un proyecto alineado con otra sensibilidad política. Su respuesta fue automatizar el proceso de escritura y dejar que un sistema genere artículos a escala, como si en vez de una redacción con editores hubiera una imprenta que no duerme.

El problema de una enciclopedia así no es que “use IA”, sino qué sustituye: la fricción. En Wikipedia, esa fricción son discusiones, políticas internas, avisos de falta de fuentes, reversión de vandalismo y un historial público que permite ver cómo cambia una entrada. En una enciclopedia generada automáticamente, la fricción se reduce y la tentación de llenar huecos con texto convincente crece, como cuando alguien completa un crucigrama “a ojo”: encaja, pero no por eso es correcto.

Cuando ChatGPT empieza a citarla, cambia el juego

La señal de alarma de esta semana no fue un nuevo artículo polémico, sino algo más silencioso: que ChatGPT empezara a incluir Grokipedia como fuente citada. The Guardian informó de pruebas en las que el modelo más reciente de OpenAI, GPT-5.2, citó Grokipedia varias veces al responder preguntas de temas diversos, desde estructuras políticas en Irán hasta figuras académicas británicas. Gizmodo dice haber replicado comportamientos similares con consultas cercanas.

Que un chatbot cite un sitio no significa necesariamente que “se lo crea” ni que su respuesta sea falsa de forma automática, pero sí indica que ese contenido está entrando en el circuito de referencias. Es como si una biblioteca empezara a colocar en la mesa de “recomendados” un libro que nadie ha revisado y cuya bibliografía no está clara: quizá algunas páginas estén bien, pero la confianza por defecto se erosiona.

El matiz importante es que, según relató The Guardian, Grokipedia no aparecía en preguntas donde el sitio ya tenía fama de ofrecer encuadres engañosos, sino en asuntos más específicos o menos transitados. Eso encaja con un riesgo real de la web actual: en los temas “raros” hay menos vigilancia pública, menos periodistas especializados y menos artículos de calidad compitiendo por posicionarse. Ahí, cualquier texto con apariencia enciclopédica puede colarse.

El sesgo no siempre grita: a veces susurra en el encuadre

Una parte central del debate es cómo cambia el significado cuando cambias el marco. Gizmodo ponía ejemplos claros: en Grokipedia, los hechos del 6 de enero de 2021 en el Capitolio de EE. UU. se describen con un lenguaje más suave, mientras que Wikipedia utiliza una caracterización más dura y contextualizada. Con grupos políticos pasa algo similar: Grokipedia puede presentarlos como defensores de la “soberanía nacional”, mientras Wikipedia los define con términos que implican extremismo y odio, según los casos mencionados.

Ese tipo de diferencias no siempre son “mentiras” en sentido estricto; muchas veces son elecciones de vocabulario que empujan al lector. En la vida cotidiana ocurre igual: no es lo mismo decir “me equivoqué” que “tuve un pequeño desajuste”, aunque ambos intenten explicar lo mismo. En un chatbot, ese empujón importa porque el usuario suele leer la respuesta como un bloque compacto, sin detenerse a auditar cada adjetivo.

Otro punto delicado es cómo Grokipedia trata teorías como la del “Gran Reemplazo”. Wikipedia la etiqueta explícitamente como teoría conspirativa; el encuadre más tibio cambia la percepción de legitimidad. Y ahí el riesgo no es solo informativo, sino social: la desinformación más efectiva suele ser la que se presenta con tono académico, no la que llega con mayúsculas y exclamaciones.

“Grooming” de modelos: cuando la web se convierte en pienso para chatbots

Investigadores llevan tiempo alertando de un fenómeno que se ha bautizado como grooming de LLM: inundar internet con contenido generado por IA para influir en lo que los modelos aprenden o en lo que recuperan cuando buscan fuentes. No hace falta imaginar un plan maestro; basta con entender incentivos. Si publicar miles de textos cuesta casi cero, habrá actores dispuestos a hacerlo para posicionar narrativas, ganar visibilidad o simplemente ocupar espacio.

La metáfora útil aquí es la de una cocina industrial: si la despensa se llena de ingredientes baratos y ultraprocesados, el cocinero puede seguir sirviendo platos con buena pinta, pero el sabor y la nutrición se resienten. Los sistemas que citan fuentes “de la web” corren el riesgo de alimentarse de esa despensa contaminada, sobre todo cuando el usuario pregunta por algo que no tiene mucha cobertura en medios fiables.

Según Similarweb, citado en el texto de Gizmodo, Grokipedia habría tenido un pico fuerte de visitas en EE. UU. en su arranque y luego habría caído a una base diaria mucho más pequeña. Frente a eso, Wikipedia sigue moviendo volúmenes masivos de lecturas. Esa asimetría alimenta una sospecha que ya circulaba: que el objetivo principal no sea convencer a humanos, sino estar “presente” para máquinas. No hace falta que la gente lo lea si lo leen los sistemas.

Lo que dice OpenAI, lo que temen los críticos

OpenAI, según recogió The Guardian, defendió que su modelo busca apoyarse en un rango amplio de fuentes públicas y que aplica filtros de seguridad para reducir el riesgo de enlazar contenidos asociados a daños graves, mostrando citas para que el usuario sepa de dónde sale la información. Es una postura comprensible desde el diseño del producto: enseñar fuentes aumenta transparencia y permite que el lector verifique.

La fricción está en el detalle: la transparencia no resuelve el problema si el usuario no reconoce que una fuente es dudosa o si la fuente parece “enciclopédica” y por eso recibe credibilidad automática. Para mucha gente, ver una cita al pie equivale a ver una garantía. En realidad, una cita solo indica procedencia, no calidad.

Tampoco parece un caso aislado. El artículo mencionaba que usuarios en redes habían visto referencias similares en Claude, el chatbot de Anthropic. Si varios sistemas empiezan a enlazar la misma “enciclopedia automática”, el riesgo deja de ser anecdótico y se convierte en un patrón de ecosistema.

“Model collapse”: cuando los modelos aprenden del reflejo y pierden matices

El otro concepto clave del texto es el model collapse, descrito a partir de un estudio de 2024: si entrenas modelos cada vez más con texto producido por otros modelos, la calidad puede degradarse. La idea es intuitiva si piensas en una fotocopia de una fotocopia: cada generación pierde detalle, introduce artefactos y se vuelve más homogénea. En lenguaje, esa pérdida puede verse como menos diversidad de ideas, peor rendimiento en casos minoritarios y más errores que se retroalimentan.

El investigador Ilia Shumailov, citado por Gizmodo, lo explicaba en dos fases: primero se pierde variación y se empeora en datos minoritarios; más tarde el sistema puede “romperse” de forma más general. Llevado al día a día, sería como aprender historia leyendo resúmenes de resúmenes: al principio te manejas, pero con el tiempo confundes fechas, simplificas causas y terminas con un relato pulido que ya no es fiable.

Grokipedia entra en esta conversación como símbolo de algo mayor: la IA no solo responde; también rellena internet con material que otros sistemas pueden usar después. Si no hay diques, la web se vuelve un circuito cerrado.

Cómo navegar este escenario sin perder el norte

Para los usuarios, la recomendación práctica no pasa por desconfiar de todo, sino por ajustar el nivel de verificación al impacto de la pregunta. Si estás buscando una fecha, una definición técnica o un contexto histórico sensible, conviene mirar si la respuesta se apoya en fuentes con reputación editorial clara. Cuando aparece un sitio nuevo, poco conocido o abiertamente ideológico, toca levantar la ceja y contrastar. La cita es una pista, no un sello.

Para las plataformas, el reto es diseñar sistemas de citas que no traten todas las fuentes como equivalentes. No se trata solo de bloquear dominios, sino de entender señales de calidad: historial editorial, mecanismos de corrección, trazabilidad de fuentes primarias y consistencia con referencias independientes. Si una “enciclopedia sin editores” empieza a colarse, quizá el sistema de ranking necesita aprender a diferenciar una biblioteca de un folleto bien maquetado.

Lo que se está viendo con Grokipedia sugiere un futuro incómodo: una carrera entre quien publica texto automático a gran escala y quien intenta mantener la higiene informativa. No es el “fin de internet”, pero sí un recordatorio de que la confianza, una vez se desgasta, cuesta mucho reconstruirla.