Como ya sabes, OpenAI ha abierto la puerta a un mundo donde crear chatbots personalizados es más accesible que nunca. No se necesita ser un experto en programación para diseñar una versión propia de ChatGPT, conocidos como GPTs personalizados. Esta posibilidad, si bien emocionante, ha levantado serias preocupaciones de seguridad que merecen nuestra atención.
La propuesta de OpenAI es sencilla pero potente. Con solo una suscripción, cualquier persona puede diseñar un chatbot para fines tan variados como ofrecer consejos sobre vida nómada digital o buscar en millones de documentos académicos. La flexibilidad y facilidad de uso son los pilares de esta innovación.
A pesar de la conveniencia, un hallazgo preocupante ha emergido. Investigadores han descubierto que estos GPTs personalizados pueden ser inducidos a revelar información privada, incluyendo sus instrucciones de configuración y archivos de personalización. Esta vulnerabilidad pone en riesgo datos personales y empresariales, un tema no menor en nuestra era digital.
Lo que me sorprende es la facilidad con la que los investigadores de la Universidad Northwestern han logrado acceder a estos datos. Con un éxito del 100% en la extracción de archivos y un 97% en obtener las instrucciones del sistema, queda claro que la seguridad no ha sido una prioridad suficiente en el desarrollo de estos GPTs.
El proceso para crear un GPT personalizado es intuitivo. Se brindan instrucciones específicas y se pueden cargar documentos o conectar APIs para ampliar las capacidades del bot. Sin embargo, esta facilidad trae consigo un riesgo: la posibilidad de que información sensible o específica del dominio acabe siendo expuesta sin consentimiento. Por un lado, tenemos una herramienta que democratiza el acceso a la inteligencia artificial. Por otro, enfrentamos el reto de proteger la privacidad y la información sensible. Las técnicas de inyección de prompt y jailbreaking han demostrado que es posible manipular estos chatbots para que actúen de formas no deseadas, exponiendo datos críticos.
OpenAI, hasta el momento, no ha respondido concretamente a estos problemas de seguridad. Sin embargo, han mencionado que están trabajando continuamente para actualizar y fortalecer las medidas de seguridad. Es un recordatorio de que en el campo de la IA, la innovación siempre debe ir de la mano con la responsabilidad y la ética.
La seguridad y privacidad no deben ser un añadido, sino una parte integral del diseño de cualquier tecnología, especialmente en el ámbito de la inteligencia artificial, por lo que, mientras no se encuentra solución, evitad siempre poner datos o solicitar privados en los chatbots que creais.