ByteDance promete reforzar los límites de Seedance 2.0 tras las quejas por vídeos virales con Cruise, Pitt y personajes de Disney

La semana pasada, ByteDance lanzó Seedance 2.0, un generador de vídeo con IA que, en cuestión de días, se coló en la conversación pública por un clip viral en el que aparecían versiones creadas por ordenador de Tom Cruise y Brad Pitt peleando. El impacto no fue solo por lo verosímil del resultado, sino por lo que sugiere: hoy cualquiera puede “montar una escena” con caras, gestos y estilos reconocibles, como si la identidad de una persona o la estética de una franquicia fueran piezas de LEGO.

Ese tipo de demostraciones tienen un doble filo. Por un lado, muestran el potencial creativo de la IA generativa en vídeo; por otro, encienden una alarma inmediata entre artistas, estudios y titulares de derechos, porque el salto desde la experimentación a la suplantación es corto. La diferencia entre un homenaje y una apropiación no siempre está en la calidad del vídeo, sino en el permiso. Continúa leyendo «ByteDance promete reforzar los límites de Seedance 2.0 tras las quejas por vídeos virales con Cruise, Pitt y personajes de Disney»

Cuando la inteligencia artificial inquieta: qué hay detrás de la ansiedad por la IA y cómo convivir con ella

Hay una inquietud nueva que aparece en conversaciones cotidianas, en consultas médicas y en reuniones de trabajo: una especie de cosquilleo mental que no llega a ser pánico, pero tampoco se va. Se parece a esa sensación de entrar en tu app bancaria y descubrir que han movido todos los botones: sabes que sigue siendo “tu banco”, pero te sientes menos seguro. A eso mucha gente ya le pone nombre: ansiedad por la IA.

En un texto difundido por la University of Melbourne, el médico Grant Blashki describe esa incomodidad persistente como una respuesta lógica a un cambio acelerado que rediseña sistemas sociales y laborales sin que la mayoría sienta que participa en la decisión. Un dato clave ayuda a entenderlo: encuestas recientes muestran que el público general suele estar más preocupado por la inteligencia artificial que los propios expertos, con especial tensión alrededor del empleo y la conexión humana, mientras que la desinformación inquieta a ambos grupos. Continúa leyendo «Cuando la inteligencia artificial inquieta: qué hay detrás de la ansiedad por la IA y cómo convivir con ella»

Seedance 2.0: el generador de vídeo con IA de ByteDance que inquieta a Hollywood y reabre la guerra del copyright

Hace no tanto, los primeros experimentos de IA generativa de vídeo parecían trucos de feria: clips breves, rostros que se deformaban como plastilina y movimientos con esa “rareza” que delata a una máquina. En 2023 circuló un ejemplo muy comentado con la cara de Will Smith mezclándose de forma inquietante con un plato de espaguetis, una de esas piezas que daban risa… hasta que te quedabas mirando demasiado tiempo. Dos años después, el mismo tipo de escena ya no se apoya en lo grotesco, sino en lo verosímil: un Will Smith comiendo pasta con textura, gestos y hasta sonidos que buscan parecer reales.

Ese salto sirve para entender por qué la última actualización de Seedance, el sistema de ByteDance para crear vídeos a partir de texto, ha provocado tanto ruido. Según ha contado Futurism, la nueva versión, identificada como Seedance 2.0, está generando fragmentos que en redes sociales se ven como si fueran metraje “encontrado” de películas conocidas o clips de celebridades en situaciones inventadas. Si hace un par de años la IA era como un aprendiz que aún manchaba el lienzo, ahora se comporta como alguien que ya sabe imitar pinceladas y técnicas con una soltura que confunde al ojo. Continúa leyendo «Seedance 2.0: el generador de vídeo con IA de ByteDance que inquieta a Hollywood y reabre la guerra del copyright»

Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda

Hay información personal que molesta si se filtra, como un número de teléfono que empieza a recibir spam, y hay información que puede complicarte la vida de verdad, como un número de pasaporte o de permiso de conducir expuesto en una página indexada. Google ha actualizado Resultados sobre ti para que su “radar” no se quede solo en datos de contacto sensibles, sino que también pueda localizar en Google Search resultados que incluyan identificadores emitidos por el gobierno, como el número de la Seguridad Social (en el contexto de Estados Unidos), el del pasaporte o el del carné de conducir.

La diferencia es importante porque estos números suelen funcionar como “llaves maestras” en muchos trámites. Si se publican por error en un PDF, en una captura o en una base de datos, el riesgo no es solo que alguien los vea: es que alguien los use para intentar suplantarte, abrir cuentas o convencer a un servicio de que “eres tú”. Es como pasar de tener una alarma que te avisa si la puerta está entornada a una que detecta si alguien ha dejado una copia de tus llaves en el felpudo. No apaga el fuego, pero te avisa antes.

Google ha explicado esta ampliación en su blog corporativo The Keyword, destacando que la herramienta ya se ha utilizado por más de diez millones de personas para vigilar la aparición de información personal en resultados. Medios como The Verge y Engadget han contextualizado el anuncio como parte de un paquete más amplio de controles de privacidad y de retirada de contenidos sensibles en búsquedas. Continúa leyendo «Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda»

La IA generativa dispara el cibercrimen en Europa: así cambiaron los ataques en 2025

Durante años, muchas estafas digitales tenían un aire artesanal: correos torpes, faltas de ortografía, plantillas repetidas y un tono que sonaba a copia barata. En 2025, la Inteligencia Artificial convirtió ese “ruido” en mensajes pulidos y adaptados a cada víctima. La diferencia se nota como cuando pasas de recibir un panfleto genérico a una llamada en la que te hablan por tu nombre, conocen tu puesto y mencionan un trámite que efectivamente tienes pendiente.

Esta escalada no se limita a escribir mejor. La IA generativa permite producir miles de señuelos en minutos, variar el contenido para esquivar filtros y ajustar el lenguaje para activar emociones concretas: prisa, miedo, autoridad o curiosidad. En seguridad, ese factor psicológico es gasolina. Si el ataque te empuja a actuar antes de pensar, la tecnología ya ha hecho su parte. Continúa leyendo «La IA generativa dispara el cibercrimen en Europa: así cambiaron los ataques en 2025»

Grok pone el “candado” a la edición de imágenes con IA: por qué el pago no resuelve el problema de los desnudos falsos

La herramienta Grok, el chatbot impulsado por Elon Musk dentro de X (la red social antes conocida como Twitter), ha restringido la generación y edición de imágenes con IA a usuarios que paguen una suscripción. El ajuste llega después de una oleada de críticas por el uso del sistema para crear imágenes sexualizadas, incluidos casos de deepfakes sexuales de mujeres y, de forma especialmente grave, de menores.

El propio bot respondió a usuarios en X con un mensaje directo: la creación y edición de imágenes queda “limitada a suscriptores de pago”. Dicho de otra manera, si no pasas por caja, esa función desaparece. Si pagas, tienes que facilitar datos personales y una tarjeta, un detalle que no es menor cuando se habla de herramientas capaces de manipular imágenes sensibles.

La decisión no reduce solo “la comodidad” de los curiosos. Cambia el acceso a una capacidad técnica concreta: tomar una foto real y transformarla con un par de indicaciones, como si fuera un editor con superpoderes. El problema es que esos superpoderes también se han usado para algo tan viejo como la malicia humana, solo que con una nueva capa de automatización. Continúa leyendo «Grok pone el “candado” a la edición de imágenes con IA: por qué el pago no resuelve el problema de los desnudos falsos»

Google permite verificar si un video fue generado con su inteligencia artificial

En un esfuerzo por mejorar la transparencia sobre el contenido creado con inteligencia artificial, Google ha ampliado la capacidad de su app Gemini para verificar no solo imágenes, sino también videos generados o editados con sus propios modelos de IA. Esta función, disponible desde diciembre de 2025, permite que cualquier persona pregunte directamente a la app si un video fue realizado utilizando tecnología de Google, con solo subir el archivo y escribir la frase: «¿Fue generado con Google AI?».

La detección no se limita a un simple «sí» o «no». Gemini está diseñada para analizar cuidadosamente tanto la pista visual como la de audio en busca de una marca de agua digital llamada SynthID, que Google califica como imperceptible al ojo humano pero detectable por sus algoritmos. En lugar de ofrecer una respuesta genérica, la app muestra momentos concretos del video donde se encuentra esta marca, detallando en qué segundo aparece y si está en la imagen o en el sonido. Continúa leyendo «Google permite verificar si un video fue generado con su inteligencia artificial»

¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?

La proliferación de herramientas de inteligencia artificial ha provocado que cada vez más personas recurran a ellas para generar contenido escrito, ya sea por motivos profesionales, educativos o creativos. Este auge ha puesto en el centro del debate la necesidad de diferenciar lo creado por humanos de lo producido por máquinas. Para ello, han surgido detectores de contenido generado por IA que intentan cumplir esta tarea, aunque no sin dificultades.

En el caso del texto, estos sistemas suelen buscar lo que se conoce como «patrones característicos» del lenguaje artificial. Algunos indicios comunes son la excesiva coherencia o la previsibilidad en las frases, el uso reiterado de ciertas palabras que se han vuelto populares en contenidos de IA (como «explora», «profundiza» o «destaca») y estructuras gramaticales demasiado pulidas.

El razonamiento detrás de estos detectores es simple: los modelos de lenguaje como ChatGPT tienden a elegir la opción más probable en cada palabra. Esto genera un estilo uniforme, con menos errores y con transiciones que podrían parecer más artificiales que humanas. Sin embargo, esta línea divisoria se está volviendo cada vez más difusa. A medida que los modelos se perfeccionan y los usuarios humanos adoptan ciertos giros propios del estilo generado por IA, los detectores se ven en apuros para trazar límites claros. Continúa leyendo «¿Cómo funcionan los detectores de contenido generado por inteligencia artificial?»

YouTube prueba una herramienta de detección de semejanza para luchar contra los deepfakes

La aparición de los deepfakes ha transformado la forma en que percibimos los contenidos digitales. Estas imitaciones hiperrealistas, generadas mediante inteligencia artificial, pueden poner en jaque la confianza en lo que vemos en pantalla. Ya no basta con observar un rostro para asumir que el video es genuino. Esta realidad es especialmente alarmante para figuras públicas, cuyas imágenes y voces son fácilmente accesibles y, por tanto, susceptibles de ser replicadas con fines maliciosos o engañosos.

En un contexto donde la desinformación visual se propaga con velocidad, YouTube ha empezado a probar una herramienta llamada «likeness detection» (detección de semejanza) con el fin de ayudar a los creadores de contenido a identificar si su imagen está siendo utilizada sin su consentimiento en videos generados por IA. Continúa leyendo «YouTube prueba una herramienta de detección de semejanza para luchar contra los deepfakes»

IA contra deepfakes al vuelo: el escudo digital de 2025

En 2025, las tecnologías de IA anti-deepfakes en tiempo real se han convertido en una pieza clave para frenar la propagación de contenidos falsos. Empresas como Reality Defender han desarrollado sistemas capaces de detectar manipulaciones en audio, video e imágenes durante su transmisión, alertando de forma instantánea a usuarios y organizaciones.

Su papel es especialmente relevante en entornos críticos: videoconferencias, redes sociales o canales de mensajería corporativa, donde una imagen o voz falsa puede provocar desde daños reputacionales hasta fraudes millonarios. Continúa leyendo «IA contra deepfakes al vuelo: el escudo digital de 2025»