Durante años, la inyección de prompts ha sido ese problema incómodo que todo el mundo conoce y casi nadie cuantifica. Para los equipos de seguridad, era como hablar de goteras sin poder medir cuánta agua entra: se intuía el riesgo, se aplicaban parches, se revisaban buenas prácticas, pero faltaba una métrica que permitiera comparar proveedores… Continúa leyendo »
Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts
A medida que ChatGPT y otros asistentes de IA dejan de ser solo “cajas de texto” y empiezan a navegar, abrir archivos o conversar con aplicaciones conectadas, cambia la escala del riesgo. No es lo mismo pedir una receta que pedirle al sistema que consulte un panel interno, lea un documento confidencial y prepare un informe. Cada nueva puerta que se abre hacia el exterior es una oportunidad para que alguien intente colarse.
OpenAI ha puesto el foco en un problema concreto: la inyección de prompts o prompt injection, una familia de ataques en la que un tercero intenta engañar al modelo para que siga instrucciones maliciosas o termine revelando datos sensibles. Si lo pensamos como una conversación normal, es como cuando alguien se mete en medio y, con tono convincente, intenta que cuentes algo privado “porque es urgente” o “porque lo pide tu jefe”. En IA, esa voz puede venir escondida en una web, en un archivo, en un correo o incluso en el texto que una app conectada le pasa al asistente.
Según explicó OpenAI en un comunicado fechado el 13 de febrero de 2026, su respuesta llega con dos novedades: Lockdown Mode y las etiquetas Elevated Risk para ciertas capacidades que, por su naturaleza, introducen un riesgo adicional. Continúa leyendo «Lockdown Mode en ChatGPT: el “modo búnker” para frenar la inyección de prompts»