Microsoft comenzará a almacenar tus chats con Bing para evitar abusos

Publicado el

Bing

El equipo de Microsoft está actualizando sus políticas y términos con respecto a sus servicios con IA.

En esta actualización se suman nuevos términos sobre las responsabilidades de los usuarios, y cómo Microsoft tratará el contenido que se comparta, por ejemplo, usando el chatbot de Bing.

Microsoft actualiza sus términos para sus servicios con IA

Microsoft actualizó sus políticas y Términos de Servicios bajo una cláusula titulada «Servicios de IA» que reúne cinco nuevos términos.

Uno de los primeros puntos prohíbe que los usuarios usen ingeniera inversa para extraer o descubrir información interna de los algoritmos o sistemas tras la IA. Y por supuesto, tampoco se permite la extracción de datos.

También hay un nuevo término que prohíbe expresamente tomar datos o servicios de la IA para usarlos en otro servicio de inteligencia artificial, ya sea directamente o indirectamente.

Como ves, son términos que Microsoft tendría que haber manifestado desde el primer día que permitió el uso del chatbot de Bing, ya que esto les habría impedido el abuso de esta herramienta y ahorrado muchos dolores de cabeza.

Microsoft almacenará tus conversaciones con el chatbot de Bing

Pero no termina aquí la actualización que Microsoft comenzará a implementar a partir del 30 de septiembre. El equipo de Microsoft también ha mencionado un cambio con respecto al uso del contenido cuando se recurre a los servicios de IA de Microsoft, como el chatbot de Bing:

Como parte de la prestación de los servicios de IA, Microsoft procesará y almacenará sus entradas al servicio, así como la salida del servicio, con el fin de monitorear y prevenir usos o salidas abusivos o dañinos del servicio.

Así que, Microsoft almacenará tus chats con el chatbot de Bing como medida de protección. No se informa en la descripción de la nueva política cuánto tiempo Microsoft guardará este contenido, así que tendremos que esperar futuros comentarios para conocer cómo funcionará esta nueva dinámica.

Por otro lado, hay que tener en cuenta que este almacenamiento de contenido podría tener una excepción. Recordemos que una de las características de la versión empresarial de Bing Chat es respetar la «protección de datos comerciales», tal como informó Microsoft en un comunicado anterior:

Lo que entra y sale permanece protegido. Los datos de chat no se guardan, nadie en Microsoft puede ver sus datos y sus datos no se usan para entrenar los modelos.

Así que, a los usuarios que usan el chatbot de Bing desde su versión empresarial no les afecta este último término, ya que no se almacenarán sus chats o conversaciones.

Comparte en: