Anthropic pone números al riesgo de la inyección de prompts: lo que cambia cuando la seguridad deja de ser un eslogan

Durante años, la inyección de prompts ha sido ese problema incómodo que todo el mundo conoce y casi nadie cuantifica. Para los equipos de seguridad, era como hablar de goteras sin poder medir cuánta agua entra: se intuía el riesgo, se aplicaban parches, se revisaban buenas prácticas, pero faltaba una métrica que permitiera comparar proveedores con algo más que promesas.

Eso es lo que Anthropic intenta cambiar con la publicación de una system card extensa (212 páginas, fechada el 5 de febrero) en la que desglosa tasas de éxito de ataques de inyección de prompts según el “tipo de superficie” del agente, el número de intentos y si se activan o no salvaguardas. La idea clave es simple y potente: si un ataque escala con persistencia, el riesgo real no se entiende mirando un único intento, igual que no se evalúa la resistencia de una cerradura probándola una sola vez. Continúa leyendo «Anthropic pone números al riesgo de la inyección de prompts: lo que cambia cuando la seguridad deja de ser un eslogan»

Modelos de machine learning para detectar phishing: por qué los datos ganan a las reglas

El phishing es ese “doble” que se cuela en tu vida digital con la misma chaqueta que tu banco, tu servicio de correo o tu tienda favorita. A simple vista, la web parece legítima; el logo está donde toca, el botón de “iniciar sesión” tiene el color correcto y el mensaje te mete prisa con una excusa creíble. El objetivo es sencillo: que introduzcas usuario y contraseña, o que aceptes una acción que abra la puerta a un robo de credenciales.

Durante años, muchas defensas se han apoyado en reglas fijas: listas negras de dominios, patrones conocidos en URLs o señales “clásicas” como errores tipográficos. El problema es que los atacantes cambian el disfraz cada vez que alguien aprende a reconocerlo. Por eso, cuando una técnica se vuelve popular en la defensa, también se vuelve popular en el ataque para esquivarla. Aquí es donde los enfoques basados en datos y machine learning empiezan a marcar diferencias: no buscan un único “síntoma” rígido, sino combinaciones de señales que, juntas, delatan el engaño. Continúa leyendo «Modelos de machine learning para detectar phishing: por qué los datos ganan a las reglas»

Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda

Hay información personal que molesta si se filtra, como un número de teléfono que empieza a recibir spam, y hay información que puede complicarte la vida de verdad, como un número de pasaporte o de permiso de conducir expuesto en una página indexada. Google ha actualizado Resultados sobre ti para que su “radar” no se quede solo en datos de contacto sensibles, sino que también pueda localizar en Google Search resultados que incluyan identificadores emitidos por el gobierno, como el número de la Seguridad Social (en el contexto de Estados Unidos), el del pasaporte o el del carné de conducir.

La diferencia es importante porque estos números suelen funcionar como “llaves maestras” en muchos trámites. Si se publican por error en un PDF, en una captura o en una base de datos, el riesgo no es solo que alguien los vea: es que alguien los use para intentar suplantarte, abrir cuentas o convencer a un servicio de que “eres tú”. Es como pasar de tener una alarma que te avisa si la puerta está entornada a una que detecta si alguien ha dejado una copia de tus llaves en el felpudo. No apaga el fuego, pero te avisa antes.

Google ha explicado esta ampliación en su blog corporativo The Keyword, destacando que la herramienta ya se ha utilizado por más de diez millones de personas para vigilar la aparición de información personal en resultados. Medios como The Verge y Engadget han contextualizado el anuncio como parte de un paquete más amplio de controles de privacidad y de retirada de contenidos sensibles en búsquedas. Continúa leyendo «Google facilita borrar tu identificación y fotos íntimas no consentidas de los resultados de búsqueda»

ExpressVPN se mueve más allá del VPN con cuatro apps de ciberseguridad: contraseñas, correo enmascarado, IA cifrada y defensa de identidad

ExpressVPN, conocida principalmente por su VPN, ha decidido ensanchar su propuesta con una suite de ciberseguridad formada por cuatro aplicaciones independientes: ExpressKeys (gestor de contraseñas), ExpressMailGuard (relay de correo enmascarado), ExpressAI (plataforma de IA cifrada) e Identity Defender (monitorización y respuesta ante riesgos de identidad). La noticia la adelantó Engadget, que enmarca el movimiento como una evolución coherente: no se trata de inventar una categoría nueva, sino de empaquetar y pulir funciones que muchas personas ya usan repartidas en servicios distintos.

La estrategia también tiene un punto práctico: todo queda integrado en la estructura de precios por niveles de ExpressVPN. Para quienes ya pagan por el servicio, la idea es que el “extra” se sienta como añadir destornilladores y llaves Allen a una caja que antes solo traía un martillo. Para quienes comparan opciones, la propuesta intenta simplificar: un proveedor, varias capas de protección, menos cuentas sueltas por internet. Continúa leyendo «ExpressVPN se mueve más allá del VPN con cuatro apps de ciberseguridad: contraseñas, correo enmascarado, IA cifrada y defensa de identidad»

Trusted Access for Cyber: la apuesta de OpenAI por acelerar la defensa sin abrir la puerta al abuso

En seguridad informática hay una tensión constante: las herramientas que ayudan a proteger también pueden facilitar ataques si caen en malas manos. OpenAI parte de esa realidad para presentar Trusted Access for Cyber, un piloto que busca colocar capacidades avanzadas “primero en manos defensoras” mientras se limita el riesgo de uso indebido, según ha explicado la propia compañía.

El contexto es importante. OpenAI sostiene que hemos pasado de modelos que completaban líneas sueltas a sistemas capaces de trabajar de forma autónoma durante horas o incluso días, resolviendo tareas complejas. En términos de seguridad, eso puede traducirse en localizar fallos, proponer parches, escribir pruebas, revisar configuraciones o sintetizar información de incidentes con mucha más velocidad. Imagínalo como cambiar de una linterna a un foco: ilumina más, pero si lo apuntas al lugar equivocado también puede deslumbrar. Continúa leyendo «Trusted Access for Cyber: la apuesta de OpenAI por acelerar la defensa sin abrir la puerta al abuso»

La estafa más común en Wallapop: por qué “salir de la app” te deja sin red de seguridad

Comprar y vender productos reutilizados se ha normalizado en España por motivos muy terrenales: ahorrar, alargar la vida útil de las cosas y evitar compras innecesarias. El problema es que, cuando una costumbre se vuelve masiva, también se vuelve interesante para quien busca atajos… y dinero fácil. Wallapop lo retrata con datos de un estudio propio: el 68% de los españoles percibe más intentos de fraude digital, solo el 20% dice no haber sufrido ningún intento de estafa y el 74% reconoce no sentirse preparado para identificar una ciberestafa. La sensación de sofisticación tampoco es menor: un 60% cree que las técnicas son cada vez más complejas, como si el “timo del tocomocho” se hubiese mudado al móvil con traje y corbata.

Con ese contexto, la plataforma apunta a un patrón claro: la estafa más repetida en 2025 no se apoya tanto en un fallo técnico como en un gesto humano muy simple, casi cotidiano: aceptar hacer el pago o el envío fuera de la aplicación. Continúa leyendo «La estafa más común en Wallapop: por qué “salir de la app” te deja sin red de seguridad»

La IA generativa dispara el cibercrimen en Europa: así cambiaron los ataques en 2025

Durante años, muchas estafas digitales tenían un aire artesanal: correos torpes, faltas de ortografía, plantillas repetidas y un tono que sonaba a copia barata. En 2025, la Inteligencia Artificial convirtió ese “ruido” en mensajes pulidos y adaptados a cada víctima. La diferencia se nota como cuando pasas de recibir un panfleto genérico a una llamada en la que te hablan por tu nombre, conocen tu puesto y mencionan un trámite que efectivamente tienes pendiente.

Esta escalada no se limita a escribir mejor. La IA generativa permite producir miles de señuelos en minutos, variar el contenido para esquivar filtros y ajustar el lenguaje para activar emociones concretas: prisa, miedo, autoridad o curiosidad. En seguridad, ese factor psicológico es gasolina. Si el ataque te empuja a actuar antes de pensar, la tecnología ya ha hecho su parte. Continúa leyendo «La IA generativa dispara el cibercrimen en Europa: así cambiaron los ataques en 2025»

España supera los 22 millones de ciberamenazas en el último trimestre de 2025: por qué la web y los USB siguen siendo la grieta

Entre octubre y diciembre de 2025 se registraron en España más de 22 millones de incidentes de ciberseguridad en ordenadores de usuarios, sumando amenazas online y ataques locales. Si bajamos el dato a tierra, en un trimestre de 92 días esto equivale a unos 239.457 incidentes diarios, como si cada jornada aparecieran cientos de miles de intentos de colarse por distintas rendijas.

El reparto explica por dónde entran. Por un lado, 9.236.615 detecciones llegaron a través de la navegación web (páginas comprometidas, descargas engañosas o redirecciones). Por otro, 12.793.448 fueron incidentes locales, asociados a dispositivos externos como memorias USB o discos conectados físicamente al equipo. El resultado es una imagen muy reconocible: seguimos moviéndonos entre dos hábitos normales —abrir el navegador y enchufar “cosas”— que, cuando hay un atacante al otro lado, se convierten en autopistas de riesgo. Continúa leyendo «España supera los 22 millones de ciberamenazas en el último trimestre de 2025: por qué la web y los USB siguen siendo la grieta»

OpenAI y Leidos unen fuerzas para llevar la IA a las agencias federales de EE. UU.

OpenAI acaba de cerrar una alianza con Leidos, una de esas compañías que rara vez aparecen en conversaciones cotidianas, pero que sostienen buena parte de la maquinaria administrativa de Estados Unidos. Según una nota de prensa difundida el jueves y recogida por Gizmodo, el objetivo es “desplegar inteligencia artificial” para apoyar prioridades nacionales y mejorar la eficiencia y eficacia de agencias públicas, con foco en ámbitos tan delicados como seguridad nacional, defensa e infraestructura. La frase que más llama la atención es la que presenta el movimiento como un despliegue de IA para “transformar operaciones federales”, un mensaje pensado para decisores que viven rodeados de procesos lentos, sistemas antiguos y montañas de documentación.

Para entender por qué esto importa, conviene imaginar el gobierno como un enorme aeropuerto que nunca cierra. Hay aviones despegando (servicios al ciudadano), maletas que se pierden (trámites atascados), personal coordinando pistas (logística y adquisiciones) y, en el centro, un conjunto de pantallas viejas que todavía funcionan, pero a base de parches. Leidos se dedica justo a que ese aeropuerto siga operando sin colapsar, integrando tecnologías y gestionando sistemas complejos para la administración. Continúa leyendo «OpenAI y Leidos unen fuerzas para llevar la IA a las agencias federales de EE. UU.»