La distinción entre contenido genuino y generado por inteligencia artificial (IA) se ha vuelto cada vez más difusa. La proliferación de tecnologías de IA capaces de crear imágenes, audio y vídeos indistinguibles de los realizados por humanos, ha generado una necesidad imperiosa de herramientas que puedan verificar la autenticidad del contenido digital. Una solución emergente en este campo es «AI or Not», un servicio web diseñado para detectar contenidos generados por IA y autenticar su origen, aunque en 2023 ya os dije que el tema es complicado.
«AI or Not» proporciona un conjunto de herramientas destinadas a identificar si un contenido ha sido generado mediante modelos de IA populares como Stable Diffusion, Midjourney o DALL-E. Estos algoritmos analizan patrones, artefactos y características específicas de las imágenes para determinar si fueron creadas por un humano o una máquina. Este servicio es esencial para plataformas que quieren asegurarse de la autenticidad del contenido que publican o venden.
Verificación de contenido en imágenes
El servicio permite subir imágenes en formatos comunes como JPEG y PNG, y ofrece un análisis detallado que identifica el modelo de IA específico utilizado en la creación de una imagen. Esta función es crucial para combatir la desinformación y asegurar la integridad del contenido en medios de comunicación y redes sociales.
Autenticación de audio
En el ámbito del audio, «AI or Not» verifica si una voz ha sido generada por IA, lo cual es vital para la industria musical y los creadores de contenido que buscan proteger sus derechos de autor y la autenticidad de su trabajo.
Verificación de documentos y vídeos
Con la futura incorporación de la detección de vídeos, «AI or Not» planea expandir su alcance para incluir la verificación de vídeos en procesos KYC (Conozca a Su Cliente), una herramienta indispensable para prevenir fraudes y validar la identidad en servicios financieros y otras industrias.
La herramienta también ofrece servicios para verificar documentos de identidad, comprobando si las selfies o documentos usados en procesos KYC han sido manipulados mediante IA. Esta funcionalidad es clave para las instituciones financieras que buscan cumplir con las regulaciones antifraude y antilavado de dinero.
Empresas como Deeptrace y Sensity han desarrollado tecnologías parecidas que ayudan a las organizaciones a detectar deepfakes y otros contenidos generados por IA. Estas soluciones también se utilizan ampliamente para asegurar la autenticidad del contenido y proteger la propiedad intelectual en diversas industrias.
A medida que la tecnología evoluciona, también lo hace la necesidad de mecanismos que mantengan la integridad y la verdad en el contenido que consumimos diariamente. Esperemos que vayan mejorando su puntería.