La polémica alrededor de Grok, el sistema de IA generativa integrado en X, ha escalado de nuevo en Europa por una acusación especialmente grave: la supuesta capacidad de generar imágenes íntimas no consentidas de personas reales, incluyendo menores. Según ha contado Engadget citando a Reuters, la Autoridad de Protección de Datos de Irlanda, la DPC (Data Protection Commission), ha anunciado la apertura de una investigación sobre cómo X trata y procesa datos personales de individuos de la UE y del Espacio Económico Europeo en relación con esos contenidos.
El detonante, tal y como se ha difundido, viene de un análisis realizado por la organización británica Center for Countering Digital Hate (CCDH). En una ventana de 11 días (del 29 de diciembre al 9 de enero), la entidad afirma que se generaron alrededor de tres millones de imágenes sexualizadas, y estima que unas 23.000 corresponderían a menores. Son cifras que, por su naturaleza y volumen, funcionan como una alarma de incendios: no prueban por sí mismas todas las responsabilidades legales, pero sí justifican que el regulador pregunte qué controles existían, por qué fallaron y cómo se gestionó el riesgo.
La DPC y su papel como “árbitro” de GDPR para X en Europa
Que sea Irlanda quien investigue no es casualidad. Muchas grandes tecnológicas operan en la UE con sede europea en Irlanda, y eso convierte a la DPC en “autoridad principal” para múltiples expedientes transfronterizos. En este caso, el propio regulador explica que ha estado en contacto con la compañía (a la que se refiere como X Internet Unlimited Company) desde que aparecieron los primeros reportes públicos sobre la posibilidad de pedir a la cuenta @Grok que generara imágenes sexualizadas de personas reales, incluidas niñas y niños.
La clave aquí es GDPR (Reglamento General de Protección de Datos). Aunque a veces se piensa que GDPR trata solo de “cookies” o “emails”, en realidad es una norma sobre cómo se puede usar información que identifica a alguien. Y en el terreno de la IA generativa, los límites se ponen especialmente tensos: si el sistema puede producir una imagen sexualizada atribuible a una persona real, el impacto en privacidad y dignidad es enorme. Es como si una imprenta automatizada pudiera fabricar “documentos falsos” sobre tu intimidad con solo escribir tu nombre; el problema no es solo el papel, sino el daño social y personal que causa.
Qué podría estar en juego bajo GDPR
La investigación, por lo descrito por la DPC, busca comprobar si X cumple “obligaciones fundamentales” de protección de datos en este contexto. Sin entrar en tecnicismos legales innecesarios, el regulador suele mirar cuestiones como la base legal para tratar datos, la minimización, la seguridad, la transparencia y la protección reforzada cuando hay menores.
En un caso como este, es razonable esperar preguntas del tipo: ¿qué datos personales se procesan cuando alguien solicita generar o modificar una imagen? ¿Cómo se evita que el sistema use identidades reales para crear contenido sexual explícito? ¿Qué mecanismos existen para detectar, bloquear y eliminar material ilícito? ¿Cómo se responde cuando el contenido involucra a niñas o niños? En GDPR, la vara de medir sube cuando el riesgo para los derechos de las personas es alto. Y aquí el riesgo no es abstracto: hablamos de daños potencialmente irreparables para víctimas, con consecuencias psicológicas, sociales y reputacionales.
También importa el concepto de “protección de datos desde el diseño”. Dicho de forma cotidiana: si construyes una casa, no esperas a que llueva para pensar en el tejado. Con IA que genera imágenes, el “tejado” son filtros, limitaciones y sistemas de verificación que no dependan solo de la buena fe del usuario.
La investigación paralela bajo la Digital Services Act
Este caso no ocurre en el vacío. Según la misma información publicada por Engadget y atribuida a Reuters, en enero la Comisión Europea inició una investigación distinta para evaluar si X ha cumplido la Digital Services Act (DSA). La DSA no es GDPR: su foco no es “datos personales” sino la responsabilidad de las plataformas frente a riesgos sistémicos, contenido ilegal y mecanismos de mitigación.
La conexión con Grok está en cómo la IA puede amplificar problemas que antes requerían más esfuerzo. Si antes alguien necesitaba habilidades para manipular imágenes, ahora puede bastar una frase escrita. La DSA, justamente, exige a plataformas grandes que evalúen riesgos, apliquen medidas proporcionales y demuestren que no actúan a ciegas. En términos sencillos: si conduces un autobús, no vale decir “yo solo pongo el volante”; te toca mostrar que hay frenos, revisiones y normas para evitar accidentes.
La brecha entre lo que se promete y lo que se verifica
X dijo a mediados de enero que estaba evitando que Grok editara fotos de personas reales para ponerles “ropa reveladora”. Sin embargo, el relato periodístico citado indica que pruebas posteriores habrían mostrado resultados inconsistentes: un reportero afirma que Grok seguía generando versiones sexualizadas e incluso añadía anatomía explícita. Sin necesidad de recrear detalles, la idea central es preocupante: cuando una plataforma anuncia un bloqueo, el estándar esperado es que sea robusto, medible y difícil de sortear.
Este tipo de discrepancias suele ser gasolina para los reguladores por un motivo muy práctico: en seguridad, lo que cuenta no es el comunicado, sino el comportamiento real del sistema. Es como instalar una alarma que suena en la demostración, pero se queda muda cuando alguien fuerza la puerta.
Por qué la IA generativa complica los controles tradicionales
La moderación de contenido “clásica” trabaja con cosas que ya existen: un vídeo subido, una foto compartida, un texto publicado. La IA generativa cambia el orden: el contenido puede “nacer” dentro de la propia plataforma, a demanda. Esto obliga a controlar el momento de creación, no solo el de publicación. Y ahí aparecen dilemas técnicos y de gobernanza.
Los filtros pueden fallar por ambigüedad del lenguaje, por trucos deliberados para esquivar controles o por limitaciones del modelo. El problema se agrava cuando se trata de personas reales, porque identificar si un rostro corresponde a alguien específico, o si una petición apunta a un individuo, no siempre es trivial. Aun así, cuando el daño potencial es alto —y tratándose de menores, lo es al máximo—, el margen de error tolerable se reduce drásticamente.
Qué consecuencias puede tener para X y qué señales esperar
Una investigación de la DPC bajo GDPR puede terminar en órdenes de cambio, restricciones de procesamiento y sanciones económicas. La DSA, por su parte, tiene su propio marco de medidas y penalizaciones, orientado a corregir fallos sistémicos y asegurar que la plataforma aplica mitigaciones efectivas.
Más allá de multas, el efecto práctico suele ser otro: cambios rápidos en producto. Si el regulador considera que ciertos usos son demasiado riesgosos, es habitual ver límites más estrictos, bloqueos por defecto, registros más detallados de incidentes, canales de denuncia más eficaces y respuestas más ágiles ante contenido ilegal. Para el usuario común, esto se traduce en menos “libertad” para ciertos prompts y más fricción en funciones de imagen, especialmente cuando hay caras de personas reales o material potencialmente sensible.
Lo que este caso dice del futuro de las plataformas con IA
Este episodio refuerza una idea que ya se repite en Europa: integrar IA en una red social no es solo una mejora de funciones, es una ampliación de responsabilidad. Si el sistema puede fabricar contenido dañino con facilidad, la plataforma tiene que demostrar que su arquitectura prioriza la seguridad, la protección de menores y el cumplimiento legal. Y eso no se logra con un botón de “reportar” colocado al final del camino; se logra con decisiones de diseño, auditoría y control desde el primer día.
El debate de fondo también toca una tensión cultural: muchos usuarios esperan creatividad y rapidez; los reguladores exigen garantías, trazabilidad y prevención del daño. La pregunta que irá ganando peso es simple de entender y difícil de ejecutar: ¿qué nivel de riesgo está dispuesta a aceptar una plataforma cuando el contenido lo produce una máquina dentro de su propio ecosistema?
