OpenAI advierte: la prompt injection podría no tener “cura” definitiva en agentes de navegador como ChatGPT Atlas

OpenAI está poniendo el foco en un riesgo que, para los agentes de IA dentro del navegador, no es un detalle técnico sino un problema estructural: la prompt injection. Hablamos de instrucciones maliciosas escondidas dentro de contenido aparentemente normal, como un correo, una página web o un documento, que intentan “mandar” sobre el agente. La diferencia con los chatbots clásicos es clave: un chatbot responde, pero un agente de navegador actúa. Si puede leer tu correo, abrir documentos, navegar por servicios web y escribir con tus permisos, se convierte en un objetivo mucho más atractivo.

OpenAI describe que, en modo agente, ChatGPT Atlas “ve” las páginas y usa clics y pulsaciones de teclado igual que una persona. Esa comodidad también amplía la superficie de ataque: el agente trabaja dentro del mismo contexto que tú, con acceso a señales, sesiones y datos que un atacante querría secuestrar. Es como darle a alguien las llaves del coche para que te haga recados; si un tercero logra colarse en el asiento del copiloto y susurrarle direcciones falsas, el coche puede acabar en un destino inesperado. Continúa leyendo «OpenAI advierte: la prompt injection podría no tener “cura” definitiva en agentes de navegador como ChatGPT Atlas»

La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming

El desarrollo de modelos de inteligencia artificial ha evolucionado a un ritmo vertiginoso, pero con esa velocidad llega una preocupación inevitable: ¿qué tan seguros son realmente estos sistemas frente a usos maliciosos? Anthropic y OpenAI, dos de los laboratorios más influyentes en el campo, han optado por estrategias claramente diferentes al enfrentar esta pregunta, y sus «system cards» revelan mucho más que simples cifras: muestran filosofías de seguridad completamente distintas. Continúa leyendo «La batalla silenciosa de la seguridad en la IA: Anthropic y OpenAI muestran filosofías opuestas en red teaming»

OpenAI mejora GPT-4o: Redacción creativa más fluida y avances en seguridad con red teaming automatizado

OpenAI, líder en inteligencia artificial (IA), ha anunciado una importante actualización de su modelo GPT-4o, diseñado para mejorar su capacidad de redacción creativa, fluidez en respuestas y procesamiento de archivos. Además, la compañía compartió avances en red teaming automatizado, un método innovador para identificar vulnerabilidades en sistemas de IA. Estas novedades prometen llevar la interacción con inteligencia artificial a un nuevo nivel de precisión, seguridad y utilidad.

Continúa leyendo «OpenAI mejora GPT-4o: Redacción creativa más fluida y avances en seguridad con red teaming automatizado»