PrivateAI lanza PrivateGPT para mejorar la privacidad en grandes modelos de lenguaje

Publicado el

private ai

Los grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI se han vuelto muy populares en diversas aplicaciones, incluyendo chatbots, asistentes virtuales y traducción de idiomas. Sin embargo, su uso también ha generado preocupaciones por la privacidad y la protección de datos personales.

Para abordar estas preocupaciones, PrivateAI ha lanzado PrivateGPT, una herramienta de «privacidad» para LLMs que automáticamente redacta información sensible y datos personales identificables (DPI) de las consultas de los usuarios. PrivateAI utiliza su propio sistema de inteligencia artificial para redactar más de 50 tipos de DPI antes de que se envíen a ChatGPT, reemplazándolos con datos ficticios para permitir que los usuarios realicen consultas sin exponer información sensible a terceros.

La importancia de la privacidad en la era de la IA

La privacidad y la protección de datos son preocupaciones cada vez más importantes en la era de la inteligencia artificial (IA), especialmente cuando se trata de aplicaciones que manejan información personal. La recopilación, uso y divulgación de información personal sin el consentimiento del usuario puede llevar a graves violaciones de la privacidad y a la pérdida de confianza en las empresas y organizaciones que manejan dicha información.

Por esta razón, es importante que los desarrolladores y proveedores de soluciones de IA implementen medidas para garantizar la privacidad y la protección de datos en sus aplicaciones. PrivateGPT y otras herramientas similares son una respuesta a estas preocupaciones.

La necesidad de anonimizar los datos

PrivateAI no es la única empresa que está diseñando soluciones para mejorar las capacidades de protección de datos de ChatGPT y otros LLMs. En marzo, Cado Security lanzó Masked-AI, una herramienta de código abierto que enmascara datos sensibles antes de enviar solicitudes a la API de OpenAI.

Masked-AI y PrivateGPT utilizan técnicas de anonimización de datos para enmascarar información personal antes de enviarla a ChatGPT u otras aplicaciones de IA, reemplazando así los DPI con datos ficticios, por lo que no se expone nunca la información personal y se reduce el riesgo de violaciones de privacidad y cumplimiento normativo.

La creciente preocupación por la privacidad y la protección de datos en la era de la IA nos permitirá ver más proyectos de este tipo en el futuro. Estaremos atentos. De momento, copmo consejo: no pongáis nunca información confidencial en ChatGPT.