OpenAI se encuentra en una encrucijada. La empresa ha desarrollado una herramienta capaz de detectar imágenes creadas por su modelo generativo de arte DALL-E 3, pero se muestra reacia a lanzarla al público. ¿La razón? Cuestiones de precisión, ética y definiciones borrosas sobre lo que realmente constituye una imagen generada por inteligencia artificial.
Según Sandhini Agarwal, investigadora de OpenAI, la herramienta tiene un nivel de precisión «realmente bueno». Sin embargo, no cumple con los estrictos estándares de calidad de la empresa. OpenAI busca una precisión extraordinariamente alta, apuntando a un 99% de fiabilidad en la detección de imágenes no modificadas generadas por DALL-E 3.
Más allá de la precisión, OpenAI enfrenta un dilema filosófico. ¿Debería una imagen editada múltiples veces y combinada con otras imágenes seguir siendo considerada como generada por IA? La empresa está buscando opiniones de artistas y otros grupos que podrían verse significativamente afectados por la implementación de tal herramienta.
OpenAI no está sola en este terreno. Empresas como Google, Imatag y Steg.AI también están explorando técnicas de detección y marca de agua para medios generativos. Sin embargo, la industria aún no ha llegado a un estándar unificado, lo que añade otra capa de complejidad al asunto.
Cuando se le preguntó si la herramienta de OpenAI podría adaptarse para detectar imágenes generadas por otras herramientas de IA, Agarwal no ofreció una respuesta definitiva. Sin embargo, sugirió que la expansión de la herramienta es una posibilidad que podría explorarse en función de su recepción.
Cómo se podría detectar una imagen generada por IA
Desde un punto de vista técnico, hay varias estrategias que podrían emplearse para detectar si una imagen ha sido generada por una inteligencia artificial:
Análisis de Patrones y Texturas
Los modelos generativos como GANs (Redes Antagónicas Generativas) o modelos como DALL-E 3 de OpenAI suelen tener ciertos patrones o texturas que son específicos de su método de generación. Un algoritmo de detección podría ser entrenado para reconocer estos patrones específicos.
Metadatos
Las imágenes generadas por IA a menudo carecen de los metadatos que normalmente se encontrarían en las imágenes tomadas por cámaras digitales. Aunque este método no es infalible, podría servir como una señal. De todas formas, si capturamos la imagen, los metadatos se pierden, por lo que no es precisamente infalible.
Anomalías en la Distribución de Píxeles
Las imágenes generadas por IA pueden tener distribuciones de píxeles que difieren de las imágenes capturadas por medios tradicionales. Algoritmos de detección podrían buscar estas anomalías para determinar la probabilidad de que una imagen sea generada por IA.
Comparación de Características
Se pueden extraer características de alto nivel de la imagen y compararlas con un conjunto de datos de imágenes conocidas por ser generadas por humanos o por IA. Técnicas de aprendizaje automático como máquinas de soporte vectorial (SVM) o redes neuronales podrían ser útiles aquí.
Técnicas de Esteganografía
Algunos modelos de IA pueden ser diseñados para incrustar marcas de agua invisibles en las imágenes que generan. Estas marcas de agua podrían ser detectadas posteriormente para confirmar que la imagen fue generada por una IA específica.
Análisis Espectral
Las imágenes generadas por IA pueden tener características únicas en el dominio de la frecuencia que las distinguen de las imágenes naturales. Transformadas de Fourier u otras técnicas de análisis espectral podrían aplicarse para este propósito.
Uso de Redes Neuronales Convolucionales (CNN)
Se podrían entrenar CNN específicas para diferenciar entre imágenes generadas por humanos e imágenes generadas por IA. Estas redes podrían ser muy efectivas, especialmente si se entrenan con un conjunto de datos grande y diverso.
No es un tema sencillo, por lo que tendremos debate para rato.
Más información en TechCrunch.