Grok pone el “candado” a la edición de imágenes con IA: por qué el pago no resuelve el problema de los desnudos falsos

La herramienta Grok, el chatbot impulsado por Elon Musk dentro de X (la red social antes conocida como Twitter), ha restringido la generación y edición de imágenes con IA a usuarios que paguen una suscripción. El ajuste llega después de una oleada de críticas por el uso del sistema para crear imágenes sexualizadas, incluidos casos de deepfakes sexuales de mujeres y, de forma especialmente grave, de menores.

El propio bot respondió a usuarios en X con un mensaje directo: la creación y edición de imágenes queda “limitada a suscriptores de pago”. Dicho de otra manera, si no pasas por caja, esa función desaparece. Si pagas, tienes que facilitar datos personales y una tarjeta, un detalle que no es menor cuando se habla de herramientas capaces de manipular imágenes sensibles.

La decisión no reduce solo “la comodidad” de los curiosos. Cambia el acceso a una capacidad técnica concreta: tomar una foto real y transformarla con un par de indicaciones, como si fuera un editor con superpoderes. El problema es que esos superpoderes también se han usado para algo tan viejo como la malicia humana, solo que con una nueva capa de automatización. Continúa leyendo «Grok pone el “candado” a la edición de imágenes con IA: por qué el pago no resuelve el problema de los desnudos falsos»

Google permite verificar si un video fue generado con su inteligencia artificial

En un esfuerzo por mejorar la transparencia sobre el contenido creado con inteligencia artificial, Google ha ampliado la capacidad de su app Gemini para verificar no solo imágenes, sino también videos generados o editados con sus propios modelos de IA. Esta función, disponible desde diciembre de 2025, permite que cualquier persona pregunte directamente a la app si un video fue realizado utilizando tecnología de Google, con solo subir el archivo y escribir la frase: «¿Fue generado con Google AI?».

La detección no se limita a un simple «sí» o «no». Gemini está diseñada para analizar cuidadosamente tanto la pista visual como la de audio en busca de una marca de agua digital llamada SynthID, que Google califica como imperceptible al ojo humano pero detectable por sus algoritmos. En lugar de ofrecer una respuesta genérica, la app muestra momentos concretos del video donde se encuentra esta marca, detallando en qué segundo aparece y si está en la imagen o en el sonido. Continúa leyendo «Google permite verificar si un video fue generado con su inteligencia artificial»

¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?

La proliferación de herramientas de inteligencia artificial ha provocado que cada vez más personas recurran a ellas para generar contenido escrito, ya sea por motivos profesionales, educativos o creativos. Este auge ha puesto en el centro del debate la necesidad de diferenciar lo creado por humanos de lo producido por máquinas. Para ello, han surgido detectores de contenido generado por IA que intentan cumplir esta tarea, aunque no sin dificultades.

En el caso del texto, estos sistemas suelen buscar lo que se conoce como «patrones característicos» del lenguaje artificial. Algunos indicios comunes son la excesiva coherencia o la previsibilidad en las frases, el uso reiterado de ciertas palabras que se han vuelto populares en contenidos de IA (como «explora», «profundiza» o «destaca») y estructuras gramaticales demasiado pulidas.

El razonamiento detrás de estos detectores es simple: los modelos de lenguaje como ChatGPT tienden a elegir la opción más probable en cada palabra. Esto genera un estilo uniforme, con menos errores y con transiciones que podrían parecer más artificiales que humanas. Sin embargo, esta línea divisoria se está volviendo cada vez más difusa. A medida que los modelos se perfeccionan y los usuarios humanos adoptan ciertos giros propios del estilo generado por IA, los detectores se ven en apuros para trazar límites claros. Continúa leyendo «¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?»

YouTube prueba una herramienta de detección de semejanza para luchar contra los deepfakes

La aparición de los deepfakes ha transformado la forma en que percibimos los contenidos digitales. Estas imitaciones hiperrealistas, generadas mediante inteligencia artificial, pueden poner en jaque la confianza en lo que vemos en pantalla. Ya no basta con observar un rostro para asumir que el video es genuino. Esta realidad es especialmente alarmante para figuras públicas, cuyas imágenes y voces son fácilmente accesibles y, por tanto, susceptibles de ser replicadas con fines maliciosos o engañosos.

En un contexto donde la desinformación visual se propaga con velocidad, YouTube ha empezado a probar una herramienta llamada «likeness detection» (detección de semejanza) con el fin de ayudar a los creadores de contenido a identificar si su imagen está siendo utilizada sin su consentimiento en videos generados por IA. Continúa leyendo «YouTube prueba una herramienta de detección de semejanza para luchar contra los deepfakes»

IA contra deepfakes al vuelo: el escudo digital de 2025

En 2025, las tecnologías de IA anti-deepfakes en tiempo real se han convertido en una pieza clave para frenar la propagación de contenidos falsos. Empresas como Reality Defender han desarrollado sistemas capaces de detectar manipulaciones en audio, video e imágenes durante su transmisión, alertando de forma instantánea a usuarios y organizaciones.

Su papel es especialmente relevante en entornos críticos: videoconferencias, redes sociales o canales de mensajería corporativa, donde una imagen o voz falsa puede provocar desde daños reputacionales hasta fraudes millonarios. Continúa leyendo «IA contra deepfakes al vuelo: el escudo digital de 2025»

El bot de Perplexity ya puede generar videos con IA en X: qué hace y cómo funciona

Perplexity AI, conocido por su enfoque en la búsqueda conversacional, ha dado un paso llamativo al incorporar la generación de videos por inteligencia artificial en su bot disponible en la red social X (antes Twitter). Esta novedad posiciona a Ask Perplexity como el primer chatbot de esa plataforma que permite a cualquier usuario crear videos con solo etiquetarlo y escribir un mensaje. Continúa leyendo «El bot de Perplexity ya puede generar videos con IA en X: qué hace y cómo funciona»

Google integra Veo 3 en YouTube Shorts: ¿avance creativo o ruido artificial?

Google ha anunciado la integración de su generador de vídeos con IA Veo 3 en YouTube Shorts, una decisión que podría cambiar las reglas del juego para los creadores de contenido. La noticia fue compartida por el CEO de YouTube, Neal Mohan, durante su intervención en el festival Cannes Lions, y plantea varias preguntas importantes sobre el futuro del contenido digital. Continúa leyendo «Google integra Veo 3 en YouTube Shorts: ¿avance creativo o ruido artificial?»

AvatarFX: el salto de Character.AI a los videos animados con inteligencia artificial

Character.AI, la popular plataforma de chat con personajes generados por inteligencia artificial, ha dado un paso inesperado pero significativo: acaba de presentar AvatarFX, un modelo que permite animar a sus personajes con apariencia y voz, dándoles una presencia en video que antes no era posible. Aunque aún está en fase beta cerrada, la noticia ya está generando una mezcla de entusiasmo e inquietud en el mundo tecnológico.

Pero ¿qué es exactamente AvatarFX, cómo funciona y por qué levanta tantas preguntas sobre seguridad y ética? Vamos a desmenuzarlo paso a paso, como si estuviéramos armando un rompecabezas. Continúa leyendo «AvatarFX: el salto de Character.AI a los videos animados con inteligencia artificial»

MoCha: la inteligencia artificial de Meta que da vida a personajes con voz y emoción

Hasta hace poco, crear un personaje animado que hablara con naturalidad y expresara emociones realistas era una tarea reservada a los estudios de cine con presupuestos millonarios. Hoy, la inteligencia artificial empieza a democratizar esta capacidad, poniendo en manos de más personas herramientas que antes parecían ciencia ficción. Uno de los ejemplos más sorprendentes es MoCha, una tecnología desarrollada por Meta en colaboración con la Universidad de Waterloo, que permite generar personajes parlantes a partir de un texto y una muestra de voz.

Este proyecto, cuyo nombre completo es Movie Character Animator, tiene el potencial de cambiar cómo se producen contenidos audiovisuales, desde vídeos para redes sociales hasta proyectos educativos o incluso películas independientes. Continúa leyendo «MoCha: la inteligencia artificial de Meta que da vida a personajes con voz y emoción»

InfiniteYou: la inteligencia artificial de ByteDance que puede crear fotos falsas realistas a partir de una sola imagen

Imagina poder tomarte una sola foto y, a partir de ahí, generar infinitas versiones de ti mismo: en distintos lugares, con diferentes atuendos o hasta en escenarios que nunca pisaste. No se trata de ciencia ficción ni de un nuevo filtro de TikTok, sino de InfiniteYou, un modelo de inteligencia artificial creado por ByteDance, la empresa detrás de TikTok.

Este nuevo sistema, aunque aún en fase de investigación, propone una tecnología que lleva la creación de imágenes generadas por IA a un nivel más personal, preciso… y polémico. En lugar de generar rostros aleatorios, InfiniteYou parte de una foto real de una persona para producir versiones falsas, pero extremadamente detalladas y reconocibles de ese mismo individuo.

Vamos a explorar cómo funciona, qué lo diferencia de otras herramientas similares, sus posibles usos, y por supuesto, los riesgos éticos que ya están en el aire. Continúa leyendo «InfiniteYou: la inteligencia artificial de ByteDance que puede crear fotos falsas realistas a partir de una sola imagen»