Imagina que le muestras una imagen completamente en negro a una inteligencia artificial y le preguntas qué ve. La respuesta lógica sería «nada» o «una imagen oscura». Pero los modelos de IA visual más avanzados de 2026 —incluidos los que se están probando para asistir a radiólogos en hospitales— responden con descripciones detalladas y seguras de objetos que no existen en la imagen. Y lo hacen con la misma confianza con la que describirían una fotografía real.
Eso es exactamente lo que un nuevo estudio publicado por investigadores y recogido por Tech Xplore acaba de demostrar. Los modelos de IA multimodal —sistemas de inteligencia artificial capaces de procesar tanto texto como imágenes simultáneamente, como GPT-4V, Gemini Pro Vision o Claude 3— pueden fingir comprensión visual de imágenes que no contienen información real. No es un fallo menor: es una grieta estructural en la tecnología que prometía transformar la medicina, la conducción autónoma y la vigilancia.
¿Qué son exactamente las alucinaciones visuales en modelos de IA?
Una alucinación visual en IA se produce cuando un modelo multimodal genera una descripción plausible y detallada de una imagen que no contiene lo que el modelo afirma ver. No hablamos de errores de clasificación —confundir un perro con un gato—, sino de algo más profundo: el modelo inventa contenido visual que no existe.
El mecanismo es el mismo que causa las alucinaciones textuales que ya sabemos que son un límite matemático, no un error de ingeniería. Los modelos de lenguaje no «entienden» el mundo: calculan probabilidades estadísticas sobre qué palabra —o qué descripción visual— tiene más sentido a continuación. Si la pregunta es «¿qué hay en esta imagen?», el modelo calcula la respuesta más probable basándose en su entrenamiento, no en lo que realmente «ve».
La diferencia con las alucinaciones de texto es que las visuales son más difíciles de detectar. Cuando ChatGPT inventa una cita bibliográfica, puedes buscarla en Google y comprobar que no existe. Cuando un modelo de IA le dice a un radiólogo que ve un nódulo sospechoso en una radiografía que no tiene ninguno, la verificación requiere experiencia médica.
¿Cómo afecta esto a las aplicaciones médicas de la IA?
El estudio llega en un momento particularmente sensible. Hace apenas un año, los titulares proclamaban que la IA pronto asistiría a radiólogos en la interpretación de imágenes médicas. Startups como Viz.ai y Aidoc ya despliegan herramientas de IA en hospitales para detectar ictus, embolias pulmonares y fracturas en tomografías computarizadas.
Pero si el modelo puede generar descripciones confiables de patologías que no existen, el riesgo clínico es evidente. Un falso positivo —la IA detecta algo que no está ahí— puede llevar a procedimientos invasivos innecesarios. Un falso negativo —la IA ignora algo real porque está «alucinando» otra cosa— puede ser peor.
No se trata de prohibir la IA en medicina. Se trata de entender que la tecnología actual tiene un límite fundamental que no se resuelve con más datos de entrenamiento ni con modelos más grandes. Es un problema de arquitectura, no de escala.
¿Por qué los modelos responden con tanta seguridad sobre cosas que no ven?
La explicación técnica es incómoda para las empresas que venden estos modelos. Los modelos multimodales aprenden asociaciones estadísticas entre imágenes y texto durante su entrenamiento. Si han visto millones de radiografías de tórax etiquetadas como «normal» o «con nódulo», aprenden patrones estadísticos sobre qué respuesta es más probable.
El problema aparece cuando la imagen de entrada no encaja en ningún patrón claro —ruido, imagen en negro, artefactos—. En lugar de responder «no puedo interpretar esta imagen», el modelo elige la respuesta estadísticamente más probable dado el contexto de la pregunta. Si le preguntas «¿ves algo anormal en esta radiografía?» mientras le muestras ruido estático, el modelo calcula que, dado que le están preguntando sobre anomalías, probablemente debería describir una.
Es como un estudiante de medicina al que le pones un examen con una pregunta sin sentido: en lugar de dejar la respuesta en blanco, escribe algo que suena convincente. La diferencia es que al estudiante le suspenden y al modelo de IA le creen.
¿Se puede resolver el problema de las alucinaciones visuales?
A corto plazo, las soluciones se centran en mitigación más que en eliminación. Existen técnicas para reducir las alucinaciones en IA que funcionan razonablemente bien en texto —como el RAG (Retrieval-Augmented Generation), que obliga al modelo a citar fuentes verificables—, pero su aplicación a imágenes es más compleja.
Una estrategia prometedora es entrenar a los modelos con una categoría explícita de «no sé» o «imagen no interpretable». Suena obvio, pero la mayoría de modelos actuales no están entrenados para abstenerse: están entrenados para responder siempre. Enseñarles a callarse cuando no saben es, irónicamente, más difícil que enseñarles a hablar.
En entornos de producción, empresas como AWS ya ofrecen herramientas específicas para reducir alucinaciones en sistemas de IA desplegados, combinando verificación cruzada, umbrales de confianza y supervisión humana. Pero ninguna de estas soluciones es perfecta. Son parches sobre un problema que, según la investigación matemática reciente, podría ser inherente a cómo funcionan los modelos de aprendizaje profundo.
¿Qué deberías tener en cuenta como usuario?
Si usas herramientas de IA que procesan imágenes —desde asistentes que identifican plantas hasta apps que analizan tu piel en busca de lunares sospechosos—, hay una regla de oro: nunca tomes una decisión crítica basándote exclusivamente en lo que la IA te dice que ve.
La IA visual de 2026 es extraordinariamente buena identificando patrones en condiciones controladas. Pero cuando la imagen es ambigua, ruidosa o simplemente vacía, el modelo no te dirá «no sé». Te dirá algo que suena razonable. Y eso es exactamente lo peligroso.
Estamos en una fase donde la tecnología es lo suficientemente buena para ser útil y lo suficientemente imperfecta para ser peligrosa. Saber dónde está ese límite es, probablemente, la habilidad más valiosa que puedes desarrollar como usuario de inteligencia artificial en 2026.
