OpenAI ya no está obligado a conservar todos los datos de ChatGPT: lo que implica la decisión judicial

Publicado el

chat gpt

Todo comenzó en 2023, cuando The New York Times demandó a OpenAI por una supuesta infracción de derechos de autor. La acusación principal se centraba en que OpenAI habría utilizado contenido protegido del periódico para entrenar sus modelos de lenguaje, sin compensación ni autorización previa. Esta denuncia se enmarca en una serie de disputas legales más amplias sobre el uso de obras protegidas en el desarrollo de modelos de inteligencia artificial generativa.

Como parte de la demanda, el tribunal ordenó a OpenAI conservar todos los registros de conversación generados por ChatGPT, una medida preventiva que buscaba facilitar el análisis del periódico sobre posibles usos indebidos de su contenido. Esta orden, emitida en mayo de 2025, implicaba que la compañía debía retener logs que normalmente se eliminarían para proteger la privacidad de los usuarios.

La decisión judicial que cambia las reglas

El 9 de octubre de 2025, la jueza federal Ona T. Wang firmó una nueva orden que elimina la obligación general de OpenAI de conservar y separar todos los registros de salida de ChatGPT que normalmente serían borrados. Esto significa que, a partir del 26 de septiembre, OpenAI puede reanudar su práctica habitual de eliminación de datos, excepto en casos específicos.

Este cambio no es total ni inmediato. La jueza especificó que los registros guardados bajo la orden anterior seguirán estando disponibles y que OpenAI debe seguir reteniendo los datos relacionados con las cuentas de ChatGPT que han sido marcadas por el New York Times. A medida que el diario continúa revisando los registros, puede seguir añadiendo más cuentas a esta lista, lo que mantiene abierta la posibilidad de futuras investigaciones.

Balance entre privacidad y transparencia

Uno de los puntos más debatidos en este proceso ha sido el conflicto entre la necesidad legal de conservar datos y la promesa de privacidad hacia los usuarios. OpenAI argumentó que la orden de conservación era excesiva y representaba un riesgo para la privacidad, ya que implicaba almacenar conversaciones privadas que los usuarios podrían haber asumido que se eliminarían con el tiempo.

Este dilema es similar al de tener que guardar todas las conversaciones telefónicas de una compañía por si en algún momento hiciera falta revisarlas legalmente, algo que resultaría invasivo y poco sostenible a largo plazo. La decisión judicial actual representa un intento de equilibrio entre los derechos de autor y la privacidad de los usuarios.

Implicaciones para el desarrollo de la IA

Este caso no solo afecta a OpenAI, sino que marca un precedente importante para toda la industria de la inteligencia artificial. Las empresas que desarrollan modelos basados en grandes cantidades de datos deberán tener en cuenta los riesgos legales asociados al uso de contenidos protegidos.

Al mismo tiempo, esta decisión podría influir en cómo se diseñan los sistemas de almacenamiento y eliminación de datos, ya que se ha abierto el debate sobre hasta qué punto es necesario conservar datos para rendir cuentas sin comprometer la privacidad.

Perspectivas futuras del litigio

Aunque esta decisión libera a OpenAI de una carga significativa, el caso legal con el New York Times aún está lejos de resolverse. El periódico continúa investigando si su contenido fue utilizado sin autorización, y mantiene la posibilidad de solicitar nuevas medidas si encuentra pruebas suficientes.

Es probable que en los próximos meses surjan nuevos debates sobre la naturaleza de los datos utilizados en el entrenamiento de modelos como ChatGPT, y sobre qué mecanismos son adecuados para proteger tanto la propiedad intelectual como la confianza del usuario.