Deepfakes: cómo detectar vídeos, voces e imágenes falsas generadas con IA

Ves un vídeo de un político diciendo algo escandaloso. Suena como él, se mueve como él, el fondo parece real. Pero nunca lo dijo. Es un deepfake: un contenido audiovisual generado o manipulado con inteligencia artificial para que parezca auténtico. Y en 2026, con herramientas como Kling 3.0, Veo 3 de Google o los generadores de vídeo e imagen de Freepik, crear uno convincente está al alcance de cualquiera con un portátil y 15 minutos.

Después de analizar decenas de deepfakes virales —desde vídeos de políticos hasta estafas con voces clonadas de familiares pidiendo dinero— he comprobado que la tecnología ha avanzado hasta el punto donde la detección visual a simple vista ya no es fiable. La mejor defensa no es tecnológica sino cognitiva: verificar la fuente antes de creer el contenido. Continúa leyendo «Deepfakes: cómo detectar vídeos, voces e imágenes falsas generadas con IA»

Cómo detectar noticias falsas y desinformación: herramientas y hábitos que funcionan

Un titular alarmante se comparte 10.000 veces en dos horas. Para cuando alguien lo verifica y descubre que es falso, el daño ya está hecho. La desinformación no se combate solo con fact-checkers: se combate con hábitos de consumo que frenan la reacción automática de compartir antes de verificar.

Después de años verificando información como parte de nuestro trabajo editorial — contrastando fuentes, rastreando orígenes de imágenes virales, comprobando citas atribuidas a figuras públicas — hemos comprobado que el 80% de las noticias falsas se detectan con un solo hábito: buscar la fuente original antes de compartir. Continúa leyendo «Cómo detectar noticias falsas y desinformación: herramientas y hábitos que funcionan»

Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación

La escena tiene algo de chiste privado de internet: un periodista publica en su blog una historia absurda sobre su supuesta habilidad para comer perritos calientes a nivel competitivo, inventa un campeonato que no existe y se coloca a sí mismo en el primer puesto. Lo sorprendente no es el humor, sino lo que ocurre después: en menos de un día, varios chatbots de IA repiten esa información como si fuera fiable. Eso es lo que contó el periodista Thomas Germain en un reportaje para la BBC, y lo que luego recogió Futurism al poner el foco en un problema más amplio: lo fácil que resulta empujar a modelos populares a decir cosas falsas sobre personas reales.

La clave está en que muchos asistentes no se limitan a “recordar” lo que aprendieron durante su entrenamiento. Cuando no tienen una respuesta clara, salen a buscarla. Y ahí aparece la rendija: si el buscador interno del sistema encuentra una página que parece relevante y “convincente”, puede incorporarla como apoyo. Es como preguntarle a alguien por la mejor paella de una ciudad y que, en lugar de consultar a vecinos o críticos, se fíe del primer folleto que le ponen en la mano. Continúa leyendo «Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación»

La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado

El término IA slop se está usando para describir un tipo de contenido generado por IA que parece hecho a toda prisa: imágenes y vídeos poco convincentes, repetitivos, diseñados para enganchar clics y reacciones sin aportar gran cosa. Es como la comida ultraprocesada del feed: no siempre sabe bien, pero está formulada para que sigas picando. Un ejemplo citado por la BBC muestra una escena imposible, niños con rasgos incoherentes y detalles anatómicos absurdos, colocados en una situación melodramática que busca likes. Lo sorprendente no es solo que exista, sino que llegue a cifras masivas de interacción sin que mucha gente lo cuestione.

Durante un tiempo, detectar estas piezas era como ver una chapa mal pintada en una puerta de madera: las costuras cantaban. Manos raras, texto ilegible, sombras imposibles. El problema es que la tecnología mejora y la familiaridad también juega en contra. Cuando te acostumbras a que tu timeline sea un bazar, dejas de inspeccionar cada producto antes de comprarlo. Continúa leyendo «La era del IA slop: cuando el “relleno” sintético invade las redes sociales y prende la mecha del enfado»

Grokipedia: una “Wikipedia” sin editores humanos

Cuando Elon Musk lanzó Grokipedia como alternativa a Wikipedia, la promesa era simple de explicar y difícil de cumplir: una enciclopedia creada por IA sin el filtro de una comunidad humana revisando, corrigiendo y discutiendo cada frase. Según contó Gizmodo, Musk venía tiempo criticando a Wikipedia como “Wokipedia” y defendiendo que hacía falta un proyecto alineado con otra sensibilidad política. Su respuesta fue automatizar el proceso de escritura y dejar que un sistema genere artículos a escala, como si en vez de una redacción con editores hubiera una imprenta que no duerme.

El problema de una enciclopedia así no es que “use IA”, sino qué sustituye: la fricción. En Wikipedia, esa fricción son discusiones, políticas internas, avisos de falta de fuentes, reversión de vandalismo y un historial público que permite ver cómo cambia una entrada. En una enciclopedia generada automáticamente, la fricción se reduce y la tentación de llenar huecos con texto convincente crece, como cuando alguien completa un crucigrama “a ojo”: encaja, pero no por eso es correcto. Continúa leyendo «Grokipedia: una “Wikipedia” sin editores humanos»

Las novedades en inteligencia artificial que marcaron el cierre de 2025

El 2025 ha sido un año de transformaciones aceleradas en el mundo de la inteligencia artificial, dejando una estela de avances concretos en medicina, defensa, entretenimiento, seguridad digital y legislación. Los desarrollos han sido tan diversos como impactantes, y muestran una consolidación del papel de la IA como motor de cambio en múltiples industrias. A medida que se cierra el año, repasamos algunos de los hitos más relevantes y sus implicaciones en el corto y largo plazo. Continúa leyendo «Las novedades en inteligencia artificial que marcaron el cierre de 2025»

Chatbots políticos: cuando la IA cambia percepciones y también desinforma

La inteligencia artificial ha dejado de ser una simple herramienta de asistencia para convertirse en un actor influyente dentro de las decisiones humanas, incluidas las políticas. Investigaciones recientes publicadas en Nature y Science han demostrado que los chatbots políticos pueden modificar la percepción de los votantes, incluso cuando estos están convencidos de su elección inicial. Lo sorprendente es que estas conversaciones, aunque breves, tienen efectos reales y medibles sobre las actitudes hacia ciertos candidatos.

En un experimento realizado con más de 2.300 ciudadanos estadounidenses durante la campaña presidencial de 2024, se evidenció que conversar por apenas seis minutos con un chatbot que promovía al candidato opuesto podía mover la opinión de los participantes varios puntos en la escala de simpatía. Esto no significaba un cambio directo en la intención de voto, pero sí una mayor apertura hacia el candidato rival. Como si un vendedor muy insistente lograra que alguien que odiaba el brócoli empiece a pensar que «tampoco está tan mal con un poco de queso». Continúa leyendo «Chatbots políticos: cuando la IA cambia percepciones y también desinforma»

Trump lanza Truth+: una plataforma de streaming envuelta en controversia

La esfera mediática estadounidense acaba de recibir un nuevo actor: Truth+, la nueva plataforma de streaming impulsada por el expresidente Donald Trump. El lanzamiento ha sido presentado como una alternativa «no woke» a los grandes canales de noticias y entretenimiento, pero las críticas apuntan a que se trata de un escaparate más para contenidos de propaganda y desinformación alineados con la ultraderecha. Continúa leyendo «Trump lanza Truth+: una plataforma de streaming envuelta en controversia»

X incorpora IA en Community Notes para combatir la desinformación a gran escala

La plataforma X (anteriormente conocida como Twitter) ha comenzado a experimentar con una nueva estrategia para enfrentar uno de los grandes desafíos digitales de nuestro tiempo: la desinformación. Para ello, ha decidido integrar modelos de lenguaje de inteligencia artificial (IA) en su sistema Community Notes, una iniciativa comunitaria lanzada en 2021. Esta combinación busca aumentar la velocidad y el alcance de las notas aclaratorias que ayudan a contextualizar publicaciones potencialmente engañosas.

Continúa leyendo «X incorpora IA en Community Notes para combatir la desinformación a gran escala»

Desinformación sobre autos eléctricos: un obstáculo silencioso en el camino hacia la movilidad sostenible

A medida que los vehículos eléctricos (EVs) ganan terreno como una de las claves para reducir las emisiones de carbono, un nuevo estudio revela un problema menos visible pero profundamente arraigado: la desinformación. Investigadores de la Universidad de Queensland, en colaboración con instituciones alemanas, han detectado que las creencias falsas sobre los EVs son más comunes de lo esperado, incluso entre quienes ya conducen uno. Continúa leyendo «Desinformación sobre autos eléctricos: un obstáculo silencioso en el camino hacia la movilidad sostenible»