Los términos de uso de Microsoft Copilot para usuarios individuales, actualizados en octubre de 2025 y viralizados en abril de 2026, contienen esta cláusula en mayúsculas: «Copilot es solo para propósitos de entretenimiento. Puede cometer errores y puede no funcionar como se espera. No confíes en Copilot para consejos importantes. Usa Copilot bajo tu propio riesgo.»
El mismo documento declara que Microsoft no ofrece ninguna garantía sobre los resultados de Copilot, que los usuarios no deben asumir que las respuestas están libres de infracciones de copyright, marcas o derechos de privacidad, y que la responsabilidad de cualquier contenido publicado recae exclusivamente en el usuario.
La cláusula aplica a Copilot para consumidores; Microsoft 365 Copilot empresarial queda excluido. Pero la contradicción entre el marketing («herramienta transformadora de productividad») y los términos legales («entretenimiento solamente») ha generado un debate intenso. Datos de Recon Analytics: solo el 3,3% de los usuarios con acceso a Copilot Chat pagan por él (15 millones de 450 millones de licencias). El NPS de precisión de Copilot cayó de -3,5 a -24,1 entre julio y septiembre de 2025. El 44,2% de los usuarios que dejaron de usarlo citaron «desconfianza en las respuestas» como razón principal.
Mi valoración: otros asistentes de IA tienen disclaimers similares («puede generar información inexacta»), pero ninguno dice «solo para entretenimiento». Ni Claude, ni ChatGPT, ni Gemini usan esa formulación. Microsoft fue más lejos porque tiene más exposición al consumidor (Copilot está integrado en Windows, Office, Edge) y necesita protección legal proporcional. Pero cuando tu propio departamento legal clasifica tu producto estrella como entretenimiento mientras tu departamento de marketing lo vende como productividad empresarial, tienes un problema de credibilidad que ningún disclaimer puede resolver.
Preguntas frecuentes
¿Copilot empresarial también es «solo entretenimiento»? No. La cláusula aplica a Copilot para individuos. Microsoft 365 Copilot tiene términos separados. ¿Otros chatbots dicen lo mismo? No. Claude, ChatGPT y Gemini advierten sobre errores pero ninguno usa «solo para entretenimiento». ¿Por qué importa? Empresas que usan Copilot para generar código, contratos o comunicaciones lo hacen «bajo su propio riesgo» según los propios términos de Microsoft.
