Meta logra un fallo histórico: NSO Group no podrá volver a atacar usuarios de WhatsApp

El conflicto entre WhatsApp y NSO Group ha sido uno de los casos más representativos en el cruce entre tecnología, derechos humanos y ciberseguridad. Tras años de litigios, un tribunal federal de Estados Unidos ha dado la razón a Meta, propietaria de WhatsApp, con un dictamen que establece una prohibición permanente para que la empresa israelí vuelva a utilizar su software espía contra usuarios de la aplicación de mensajería.

La decisión judicial implica que NSO Group no podrá nunca más utilizar su tecnología para infiltrarse en las comunicaciones dentro de WhatsApp, una aplicación que cuenta con más de 2.000 millones de usuarios en todo el mundo. Según Meta, este dictamen representa una victoria significativa en la protección de los derechos digitales, especialmente para periodistas, activistas y defensores de derechos humanos. Continúa leyendo «Meta logra un fallo histórico: NSO Group no podrá volver a atacar usuarios de WhatsApp»

Una identidad imposible de clonar: el hidrogel que protege objetos del fraude

Verificar si un objeto es auténtico o una copia perfecta es un reto constante en ámbitos como la medicina, la industria electrónica o la seguridad. Desde implantes médicos hasta microchips, cualquier elemento crítico que pueda ser falsificado representa un riesgo tangible. A diferencia de los sistemas digitales, donde la criptografía puede blindar la información, los objetos físicos no tienen un equivalente infalible. Códigos de barras, hologramas o número de serie pueden ser copiados si se conocen los detalles de fabricación.

Ante este panorama, un grupo de investigadores ha presentado una propuesta innovadora: un hidrogel conductor con una firma física irrepetible. Esta tecnología, publicada en la revista Advanced Materials, abre la puerta a una nueva forma de autenticación que se basa no en la información visible, sino en la complejidad interna del propio material. Continúa leyendo «Una identidad imposible de clonar: el hidrogel que protege objetos del fraude»

Google refuerza su defensa contra estafas con nuevas funciones en Android y cuentas personales

Las estafas por mensajes de texto se han vuelto tan comunes como los correos electrónicos sospechosos de hace una década. Y con tecnologías como la clonación de voz o los deepfakes entrando en juego, detectar un fraude no es tarea fácil. Ante este panorama, Google Messages incorpora dos nuevas funciones diseñadas para prevenir que los usuarios caigan en trampas digitales.

Por un lado, se han implementado enlaces más seguros. Cuando una persona recibe un mensaje sospechoso, el sistema bloqueará el acceso automático a los enlaces incluidos, mostrando una advertencia clara. Solo si el usuario marca el mensaje como «no es spam» podrá acceder al enlace. Esto actúa como un semáforo digital: antes de cruzar, el sistema te obliga a mirar bien hacia los lados. Continúa leyendo «Google refuerza su defensa contra estafas con nuevas funciones en Android y cuentas personales»

Google mejora la recuperación de cuentas con ayuda de tus contactos de confianza

Perder el acceso a una cuenta de Google puede convertirse en un verdadero dolor de cabeza, especialmente si se extravía el dispositivo principal o se olvidan las credenciales. En respuesta a esta problemática común, Google ha lanzado una serie de herramientas enfocadas en hacer que el proceso de recuperación sea más accesible y menos frustrante. Entre las novedades, destaca una opción que permite apoyarse en personas de confianza para recuperar el acceso. Continúa leyendo «Google mejora la recuperación de cuentas con ayuda de tus contactos de confianza»

La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos

En el entrenamiento de los modelos de lenguaje grande (LLMs), se tiende a pensar que la calidad y la cantidad masiva de datos son garantes de seguridad. Pero un reciente estudio de Anthropic, en colaboración con el UK AI Safety Institute y el Alan Turing Institute, ha puesto esta idea patas arriba. La investigación ha demostrado que no hace falta contaminar grandes cantidades de datos para comprometer un modelo: basta con apenas 250 documentos maliciosos para insertar una puerta trasera o «backdoor» funcional en modelos de hasta 13.000 millones de parámetros.

Esto no es una simple advertencia teórica. La investigación señala que incluso los modelos entrenados con datasets optimizados y gigantescos, como los basados en el enfoque Chinchilla-optimal, son vulnerables si se introduce un pequeño conjunto de entradas cuidadosamente diseñadas. Es como si una sola gota de tinta bastara para enturbiar un balde entero de agua. Continúa leyendo «La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos»

Una nueva vulnerabilidad en chips pone en jaque la privacidad en la inteligencia artificial

Un reciente estudio realizado por investigadores de la Universidad Estatal de Carolina del Norte ha revelado un punto crítico de exposición en los sistemas de inteligencia artificial (IA), esta vez no desde el software, sino desde el propio hardware. La vulnerabilidad, bautizada como GATEBLEED, permite a los atacantes extraer información sobre los datos de entrenamiento utilizados por un modelo de IA, incluso sin tener acceso directo a su memoria. Este hallazgo plantea nuevas preocupaciones en torno a la privacidad y la seguridad de los datos en entornos cada vez más dependientes de aceleradores especializados.

Lo llamativo de esta amenaza es su capacidad para aprovechar una característica de diseño de los chips, conocida como power gating, que en esencia es una técnica para ahorrar energía apagando partes del procesador cuando no están en uso. Pero, como si se tratara de dejar huellas en la arena al caminar descalzo, esta función deja trazas medibles en los tiempos de ejecución que pueden ser analizadas para deducir si ciertos datos estuvieron presentes durante el entrenamiento del modelo. Continúa leyendo «Una nueva vulnerabilidad en chips pone en jaque la privacidad en la inteligencia artificial»

Google refuerza la defensa cibernética con inteligencia artificial: así funcionan CodeMender, SAIF 2.0 y el AI VRP

La inteligencia artificial ya no es solo una herramienta de productividad o creatividad. En el terreno de la ciberseguridad, está comenzando a desempeñar un papel fundamental en la defensa contra amenazas cada vez más sofisticadas. Google, consciente de los riesgos emergentes que trae consigo la automatización inteligente, ha presentado una serie de iniciativas para fortalecer la seguridad de los sistemas que utilizan IA, al mismo tiempo que aprovecha su potencial para proteger infraestructuras digitales a gran escala. Continúa leyendo «Google refuerza la defensa cibernética con inteligencia artificial: así funcionan CodeMender, SAIF 2.0 y el AI VRP»

Google presenta CodeMender, su agente de IA para blindar la seguridad del código

La seguridad del software siempre ha sido uno de los grandes dolores de cabeza para desarrolladores y empresas. Los fallos de seguridad no solo pueden comprometer datos sensibles, sino que también tienen un coste alto en tiempo, reputación y recursos. Ante este panorama, Google ha dado un paso importante al presentar CodeMender, un agente autónomo potenciado por inteligencia artificial que promete facilitar la detección y corrección de vulnerabilidades en el código fuente. Continúa leyendo «Google presenta CodeMender, su agente de IA para blindar la seguridad del código»

Google endurece la verificación de edad en Búsquedas y bloquea cuentas sin previo aviso

Cada vez son más los usuarios que se encuentran con una inesperada sorpresa al intentar usar Google Search: el sistema les bloquea el acceso y exige una verificación de edad. No se trata de una restricción puntual ni de un error aislado, sino de una medida que está empezando a implementarse de forma escalonada y que ya ha causado estragos en comunidades como Reddit, donde varios usuarios han reportado estar completamente excluidos del uso habitual de su cuenta. Continúa leyendo «Google endurece la verificación de edad en Búsquedas y bloquea cuentas sin previo aviso»

Meta extiende el acceso a sus modelos Llama a gobiernos europeos y asiáticos

Eta ha dado un paso significativo al ampliar el acceso a sus modelos de inteligencia artificial Llama a gobiernos de Europa y Asia, incluyendo a Francia, Alemania, Italia, Japón y Corea del Sur, así como a organismos vinculados con la Unión Europea y la OTAN. Esta decisión representa una nueva fase en la estrategia de la compañía para posicionar su tecnología como una herramienta clave en entornos gubernamentales, especialmente en contextos relacionados con la seguridad nacional. Continúa leyendo «Meta extiende el acceso a sus modelos Llama a gobiernos europeos y asiáticos»