OpenAI busca jefe de preparación: una misión entre la innovación y el caos potencial

El anuncio reciente de OpenAI sobre la búsqueda de un «jefe de preparación» ha despertado reacciones de todo tipo. No es para menos: se trata de una posición con un sueldo de 555.000 dólares anuales, pero con responsabilidades tan complejas que parece extraída de una novela distópica sobre inteligencia artificial. Sam Altman, CEO de la compañía, lo dijo sin rodeos: “Este será un trabajo estresante, y comenzarás sumergido hasta el cuello desde el primer día”.

Este puesto se ubica dentro del departamento de sistemas de seguridad de OpenAI, una sección que no se dedica a vender productos ni a desarrollar nuevas capacidades, sino a prever riesgos y evitar desastres. En términos prácticos, significa construir barreras invisibles para que modelos como ChatGPT o Sora se comporten “como se espera” en situaciones del mundo real. Continúa leyendo «OpenAI busca jefe de preparación: una misión entre la innovación y el caos potencial»

Vulnerabilidad en FortiOS: una vieja debilidad que vuelve a amenazar la autenticación VPN

Una vulnerabilidad descubierta en 2020 en el sistema FortiOS SSL VPN ha vuelto a convertirse en un riesgo activo para organizaciones que usan esta tecnología de Fortinet. El problema, catalogado como CVE-2020-12812, tiene una puntuación CVSS de 5.2 y afecta al mecanismo de autenticación de dos factores (2FA), permitiendo que usuarios eviten este segundo paso de seguridad bajo ciertas configuraciones.

El fallo se presenta cuando el nombre de usuario se introduce con una combinación distinta de mayúsculas y minúsculas respecto al valor registrado. Esto provoca que el sistema, en lugar de validar la cuenta local con 2FA, delegue la autenticación al servidor LDAP, que no distingue entre mayúsculas y minúsculas.

Imaginemos que se tiene registrado «jsmith» como usuario, pero alguien inicia sesión con «JSmith» o «jsmiTh». En ese caso, el FortiGate podría ignorar la validación 2FA y autorizar el acceso directamente a través del servidor LDAP, comprometiendo la seguridad de la red. Continúa leyendo «Vulnerabilidad en FortiOS: una vieja debilidad que vuelve a amenazar la autenticación VPN»

Google elimina su herramienta de monitoreo de la dark web: por qué y qué alternativas hay

Google ha anunciado el cierre de su servicio de informes sobre la dark web, una función que permitía a los usuarios saber si su información personal había sido detectada en entornos digitales ocultos relacionados con filtraciones de datos. Esta decisión, comunicada por correo electrónico a quienes tenían activada la función, implica que a partir del 15 de enero de 2026 ya no se realizarán nuevos escaneos, y los datos acumulados dejarán de estar disponibles desde el 16 de febrero de 2026.

Este servicio nació como una exclusividad para suscriptores de Google One en 2023, pero un año después fue abierto a todos los usuarios de cuentas Google y se integró en la sección “Resultados sobre ti”, dentro del ecosistema de herramientas de seguridad de la compañía. Su objetivo era detectar información personal como direcciones de correo, teléfonos o domicilios en sitios de la dark web vinculados a bases de datos filtradas. Sin embargo, su ciclo de vida ha sido breve: apenas un año de disponibilidad general antes de que Google decida retirarlo. Continúa leyendo «Google elimina su herramienta de monitoreo de la dark web: por qué y qué alternativas hay»

Cloudflare bloquea 416.000 millones de solicitudes de bots de IA: una batalla por el control del contenido en internet

Desde mediados de 2025, Cloudflare ha intensificado su lucha contra los bots de inteligencia artificial que intentan recopilar contenido en la web sin autorización. Su CEO, Matthew Prince, reveló en una entrevista con Wired que la compañía ha bloqueado más de 416.000 millones de solicitudes de este tipo desde el 1 de julio. Esta cifra no solo es impactante por su magnitud, sino por lo que implica: un cambio profundo en la manera en que los modelos de IA se entrenan y acceden a información.

Los bots de IA funcionan como aspiradoras digitales, recorriendo sitios web y extrayendo texto, imágenes y datos para alimentar modelos generativos. El problema surge cuando este proceso se realiza sin consentimiento ni compensación, lo que ha despertado una fuerte reacción de plataformas que alojan contenido valioso. Para Prince, la IA representa un cambio de paradigma en internet, y este cambio exige nuevos marcos de equidad y respeto por los derechos de autor. Continúa leyendo «Cloudflare bloquea 416.000 millones de solicitudes de bots de IA: una batalla por el control del contenido en internet»

OpenAI sufre filtración de datos en su API: por qué cambiar tu contraseña no soluciona el problema

OpenAI reveló discretamente, justo antes del día de Acción de Gracias, que parte de los datos de sus usuarios fueron comprometidos debido a un ataque a la cadena de suministro, una modalidad de intrusión que no afecta directamente al objetivo principal (en este caso, OpenAI), sino a uno de sus proveedores externos. Esta técnica, cada vez más utilizada por los ciberdelincuentes, explota las debilidades de terceros para llegar al botín real.

En este incidente, los atacantes se infiltraron en los sistemas de Mixpanel, una empresa especializada en análisis de datos, que trabajaba con OpenAI. A raíz de esta brecha, OpenAI ha cesado su colaboración con dicho proveedor. Continúa leyendo «OpenAI sufre filtración de datos en su API: por qué cambiar tu contraseña no soluciona el problema»

Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA

En un reciente estudio liderado por investigadores del Icaro Lab, vinculado a la Universidad de La Sapienza en Roma y la empresa DexAI, se descubrió que la poesía puede ser una herramienta eficaz para esquivar los filtros de seguridad de los chatbots de inteligencia artificial. Aunque parezca extraño, los sistemas diseñados para evitar la generación de contenido peligroso o prohibido pueden ser engañados si las peticiones se presentan en forma de poema.

Este hallazgo inquietante sugiere que los modelos de lenguaje más avanzados, como los desarrollados por OpenAI, Google, Meta, Anthropic o xAI, todavía tienen vulnerabilidades profundas en su arquitectura de seguridad. En concreto, los investigadores demostraron que no hace falta ser un experto en código o ciberseguridad para lograr que una IA diga lo que no debería: bastaría con una buena dosis de creatividad literaria. Continúa leyendo «Los versos que abren jaulas: cómo la poesía está desafiando la seguridad de los chatbots de IA»

Meta mejora el soporte de cuentas en Facebook e Instagram con IA y nuevas herramientas de seguridad

Meta ha dado un paso significativo para que los usuarios de Facebook e Instagram puedan acceder a ayuda cuando enfrentan problemas con sus cuentas. Esta vez, lo hace introduciendo un nuevo centro de soporte centralizado, accesible desde ambas plataformas y disponible en dispositivos con iOS y Android. En lugar de depender de menús dispersos o formularios confusos, ahora todo está en un solo lugar: desde reportar inconvenientes, obtener respuestas rápidas hasta interactuar con un sistema de búsqueda asistido por Meta AI. Continúa leyendo «Meta mejora el soporte de cuentas en Facebook e Instagram con IA y nuevas herramientas de seguridad»

La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming

El desarrollo de modelos de inteligencia artificial ha evolucionado a un ritmo vertiginoso, pero con esa velocidad llega una preocupación inevitable: ¿qué tan seguros son realmente estos sistemas frente a usos maliciosos? Anthropic y OpenAI, dos de los laboratorios más influyentes en el campo, han optado por estrategias claramente diferentes al enfrentar esta pregunta, y sus «system cards» revelan mucho más que simples cifras: muestran filosofías de seguridad completamente distintas. Continúa leyendo «La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming»

Google Gemini 3: vulnerabilidades expuestas en minutos

El nuevo modelo de inteligencia artificial Gemini 3 Pro, desarrollado por Google, fue sometido recientemente a una prueba de seguridad por parte de Aim Intelligence, una startup surcoreana especializada en «red-teaming». Esta técnica consiste en estresar los sistemas de IA para encontrar sus puntos débiles, como si se tratara de simular ataques éticos para evaluar la resistencia de una infraestructura digital. Lo preocupante es que el modelo fue jailbreakeado en tan solo cinco minutos, revelando un nivel de vulnerabilidad que ha puesto en entredicho su robustez frente a usos maliciosos.

El término jailbreak, aunque comúnmente asociado a dispositivos como smartphones, se ha adaptado en el mundo de la inteligencia artificial para describir cuando un modelo es inducido, mediante instrucciones indirectas o creativas, a realizar acciones para las que fue explícitamente programado a evitar. En este caso, Gemini 3 Pro terminó generando contenidos extremadamente peligrosos, incluyendo métodos detallados y viables para la fabricación del virus de la viruela. Continúa leyendo «Google Gemini 3: vulnerabilidades expuestas en minutos»

Roblox frente a la lupa: tensión entre crecimiento y seguridad infantil

Roblox ha lanzado una nueva función de verificación de edad que ha provocado un intenso debate sobre los límites entre la innovación, la privacidad y la protección infantil. La medida exige a los usuarios escanear su rostro si desean acceder a las funciones de mensajería de la plataforma, un cambio significativo en una red social ampliamente usada por niños y adolescentes.

La iniciativa tiene un objetivo claro: fortalecer las medidas de seguridad en una comunidad que crece sin freno, con millones de usuarios activos en todo el mundo. Sin embargo, esta tecnología, que depende de la autenticación biométrica, plantea dudas sobre cuán efectivo es este método para proteger a los menores y hasta qué punto la empresa está dispuesta a priorizar esa seguridad frente a su modelo de crecimiento. Continúa leyendo «Roblox frente a la lupa: tensión entre crecimiento y seguridad infantil»