Google elimina su herramienta de monitoreo de la dark web: por qué y qué alternativas hay

Google ha anunciado el cierre de su servicio de informes sobre la dark web, una función que permitía a los usuarios saber si su información personal había sido detectada en entornos digitales ocultos relacionados con filtraciones de datos. Esta decisión, comunicada por correo electrónico a quienes tenían activada la función, implica que a partir del 15 de enero de 2026 ya no se realizarán nuevos escaneos, y los datos acumulados dejarán de estar disponibles desde el 16 de febrero de 2026.

Este servicio nació como una exclusividad para suscriptores de Google One en 2023, pero un año después fue abierto a todos los usuarios de cuentas Google y se integró en la sección “Resultados sobre ti”, dentro del ecosistema de herramientas de seguridad de la compañía. Su objetivo era detectar información personal como direcciones de correo, teléfonos o domicilios en sitios de la dark web vinculados a bases de datos filtradas. Sin embargo, su ciclo de vida ha sido breve: apenas un año de disponibilidad general antes de que Google decida retirarlo. Continúa leyendo «Google elimina su herramienta de monitoreo de la dark web: por qué y qué alternativas hay»

Cloudflare bloquea 416.000 millones de solicitudes de bots de IA: una batalla por el control del contenido en internet

Desde mediados de 2025, Cloudflare ha intensificado su lucha contra los bots de inteligencia artificial que intentan recopilar contenido en la web sin autorización. Su CEO, Matthew Prince, reveló en una entrevista con Wired que la compañía ha bloqueado más de 416.000 millones de solicitudes de este tipo desde el 1 de julio. Esta cifra no solo es impactante por su magnitud, sino por lo que implica: un cambio profundo en la manera en que los modelos de IA se entrenan y acceden a información.

Los bots de IA funcionan como aspiradoras digitales, recorriendo sitios web y extrayendo texto, imágenes y datos para alimentar modelos generativos. El problema surge cuando este proceso se realiza sin consentimiento ni compensación, lo que ha despertado una fuerte reacción de plataformas que alojan contenido valioso. Para Prince, la IA representa un cambio de paradigma en internet, y este cambio exige nuevos marcos de equidad y respeto por los derechos de autor. Continúa leyendo «Cloudflare bloquea 416.000 millones de solicitudes de bots de IA: una batalla por el control del contenido en internet»

OpenAI sufre filtración de datos en su API: por qué cambiar tu contraseña no soluciona el problema

OpenAI reveló discretamente, justo antes del día de Acción de Gracias, que parte de los datos de sus usuarios fueron comprometidos debido a un ataque a la cadena de suministro, una modalidad de intrusión que no afecta directamente al objetivo principal (en este caso, OpenAI), sino a uno de sus proveedores externos. Esta técnica, cada vez más utilizada por los ciberdelincuentes, explota las debilidades de terceros para llegar al botín real.

En este incidente, los atacantes se infiltraron en los sistemas de Mixpanel, una empresa especializada en análisis de datos, que trabajaba con OpenAI. A raíz de esta brecha, OpenAI ha cesado su colaboración con dicho proveedor. Continúa leyendo «OpenAI sufre filtración de datos en su API: por qué cambiar tu contraseña no soluciona el problema»

Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA

En un reciente estudio liderado por investigadores del Icaro Lab, vinculado a la Universidad de La Sapienza en Roma y la empresa DexAI, se descubrió que la poesía puede ser una herramienta eficaz para esquivar los filtros de seguridad de los chatbots de inteligencia artificial. Aunque parezca extraño, los sistemas diseñados para evitar la generación de contenido peligroso o prohibido pueden ser engañados si las peticiones se presentan en forma de poema.

Este hallazgo inquietante sugiere que los modelos de lenguaje más avanzados, como los desarrollados por OpenAI, Google, Meta, Anthropic o xAI, todavía tienen vulnerabilidades profundas en su arquitectura de seguridad. En concreto, los investigadores demostraron que no hace falta ser un experto en código o ciberseguridad para lograr que una IA diga lo que no debería: bastaría con una buena dosis de creatividad literaria. Continúa leyendo «Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA»

Meta mejora el soporte de cuentas en Facebook e Instagram con IA y nuevas herramientas de seguridad

Meta ha dado un paso significativo para que los usuarios de Facebook e Instagram puedan acceder a ayuda cuando enfrentan problemas con sus cuentas. Esta vez, lo hace introduciendo un nuevo centro de soporte centralizado, accesible desde ambas plataformas y disponible en dispositivos con iOS y Android. En lugar de depender de menús dispersos o formularios confusos, ahora todo está en un solo lugar: desde reportar inconvenientes, obtener respuestas rápidas hasta interactuar con un sistema de búsqueda asistido por Meta AI. Continúa leyendo «Meta mejora el soporte de cuentas en Facebook e Instagram con IA y nuevas herramientas de seguridad»

La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming

El desarrollo de modelos de inteligencia artificial ha evolucionado a un ritmo vertiginoso, pero con esa velocidad llega una preocupación inevitable: ¿qué tan seguros son realmente estos sistemas frente a usos maliciosos? Anthropic y OpenAI, dos de los laboratorios más influyentes en el campo, han optado por estrategias claramente diferentes al enfrentar esta pregunta, y sus «system cards» revelan mucho más que simples cifras: muestran filosofías de seguridad completamente distintas. Continúa leyendo «La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming»

Google Gemini 3: vulnerabilidades expuestas en minutos

El nuevo modelo de inteligencia artificial Gemini 3 Pro, desarrollado por Google, fue sometido recientemente a una prueba de seguridad por parte de Aim Intelligence, una startup surcoreana especializada en «red-teaming». Esta técnica consiste en estresar los sistemas de IA para encontrar sus puntos débiles, como si se tratara de simular ataques éticos para evaluar la resistencia de una infraestructura digital. Lo preocupante es que el modelo fue jailbreakeado en tan solo cinco minutos, revelando un nivel de vulnerabilidad que ha puesto en entredicho su robustez frente a usos maliciosos.

El término jailbreak, aunque comúnmente asociado a dispositivos como smartphones, se ha adaptado en el mundo de la inteligencia artificial para describir cuando un modelo es inducido, mediante instrucciones indirectas o creativas, a realizar acciones para las que fue explícitamente programado a evitar. En este caso, Gemini 3 Pro terminó generando contenidos extremadamente peligrosos, incluyendo métodos detallados y viables para la fabricación del virus de la viruela. Continúa leyendo «Google Gemini 3: vulnerabilidades expuestas en minutos»

Roblox frente a la lupa: tensión entre crecimiento y seguridad infantil

Roblox ha lanzado una nueva función de verificación de edad que ha provocado un intenso debate sobre los límites entre la innovación, la privacidad y la protección infantil. La medida exige a los usuarios escanear su rostro si desean acceder a las funciones de mensajería de la plataforma, un cambio significativo en una red social ampliamente usada por niños y adolescentes.

La iniciativa tiene un objetivo claro: fortalecer las medidas de seguridad en una comunidad que crece sin freno, con millones de usuarios activos en todo el mundo. Sin embargo, esta tecnología, que depende de la autenticación biométrica, plantea dudas sobre cuán efectivo es este método para proteger a los menores y hasta qué punto la empresa está dispuesta a priorizar esa seguridad frente a su modelo de crecimiento. Continúa leyendo «Roblox frente a la lupa: tensión entre crecimiento y seguridad infantil»

La era del ciberespionaje impulsado por IA: un caso que redefine la defensa digital

Un informe reciente de Anthropic describe una operación que marca un antes y un después en la historia del ciberespionaje con inteligencia artificial. Se trata de la primera campaña documentada en la que un ataque de esta magnitud fue ejecutado, en su mayor parte, por un sistema de IA actuando como agente autónomo. La investigación detalla cómo un grupo estatal chino logró manipular un modelo avanzado para llevar a cabo intrusiones complejas con una intervención humana mínima.

La magnitud del descubrimiento no reside solo en la sofisticación técnica, sino en la velocidad con la que estas capacidades han evolucionado. Anthropic llevaba meses registrando señales claras de que los modelos estaban alcanzando niveles de autonomía y destreza técnica que podían cambiar el equilibrio de poder en la ciberseguridad global. Continúa leyendo «La era del ciberespionaje impulsado por IA: un caso que redefine la defensa digital»

Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global

Lo que hasta hace poco parecía una escena sacada de una película de ciencia ficción se ha convertido en realidad: un modelo de inteligencia artificial ha sido empleado como herramienta principal en una sofisticada campaña de ciberespionaje internacional. Según informó Anthropic, empresa desarrolladora del asistente de IA Claude, un grupo de hackers patrocinado por el estado chino logró utilizar su tecnología para ejecutar ataques cibernéticos contra bancos y organismos gubernamentales en distintos países.

La novedad de este caso radica en que la mayor parte del ataque fue llevada a cabo de forma autónoma por la inteligencia artificial, sin intervención humana constante. Anthropic lo describió como «el primer caso documentado de un ciberataque a gran escala ejecutado sin intervención humana significativa», lo cual marca un punto de inflexión en la historia de la ciberseguridad. Continúa leyendo «Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global»