«ChatGPT For Me» es la nueva función de Rewind.ai, una herramienta de búsqueda personal que registra todo lo que el usuario hace en su ordenador para ofrecerle un historial completo de sus acciones. La nueva característica de esta aplicación es un chatbot GPT-4 al que se le puede preguntar cualquier cosa acerca de lo que ha hecho el usuario en su dispositivo. Sin embargo, su implementación no está exenta de polémica debido a los temores de privacidad que ha suscitado.
La idea de un buscador personalizado que conozca todos los detalles sobre la vida digital de una persona puede parecer útil, pero también representa un escenario aterrador de vigilancia y monitoreo constante. Sin embargo, la empresa detrás de esta aplicación asegura que ha encontrado una forma de equilibrar la comodidad de la función y la privacidad del usuario. Según el CEO de Rewind.ai, Dan Siroker, la privacidad fue el principal obstáculo que enfrentaron en el desarrollo de ChatGPT For Me.
El chatbot utiliza grandes modelos de lenguaje (LLM) para procesar las preguntas de los usuarios y encontrar respuestas precisas. El problema es que, para hacerlo, se necesita enviar algunos datos del usuario a la nube, lo que puede generar dudas sobre la privacidad de la información. Siroker asegura que la empresa ha encontrado una forma de enviar solo los textos necesarios y no compartir información adicional.
Cómo se usa
El proceso comienza con una pregunta del usuario en el ChatGPT For Me, como «¿qué hice el viernes pasado?«, que se envía a la base de datos de Rewind.ai para obtener una lista de información relevante. La información necesaria se envía a los servidores de OpenAI’s ChatGPT como texto, y la respuesta se devuelve a la aplicación Rewind, donde se interpreta y se referencia con los datos locales.
No obstante, aunque los usuarios no envían capturas de pantalla, audio o vídeo, todavía están enviando texto, lo que puede generar preocupaciones sobre el tipo de información que se está enviando y cómo se maneja. Es importante que los usuarios sean conscientes de la información que están compartiendo y decidan si están dispuestos a asumir el riesgo.
La privacidad es un tema complejo que afecta a todas las aplicaciones y servicios que utilizan grandes modelos de lenguaje y otras tecnologías avanzadas. Si bien es importante que los usuarios tengan herramientas para ayudarles a administrar su información, también es importante que las empresas sean transparentes acerca de cómo manejan esa información y qué medidas de seguridad están implementando.
Imaginad que un día estás limpiando contraseñas en lastpass y los textos se envíen a la nube para hacer el resumen diario… feo.
Aún así, el proyecto ChatGPT For Me de Rewind.ai es un ejemplo interesante de cómo las empresas están utilizando grandes modelos de lenguaje para ofrecer nuevas funcionalidades, aunque también ilustre los riesgos y desafíos que enfrentan las empresas en cuanto a privacidad y seguridad.