En un nuevo giro en el mundo de la inteligencia artificial, Suchir Balaji, un exinvestigador de OpenAI, ha hablado públicamente sobre las prácticas de la empresa y su uso de datos con derechos de autor. Balaji, que pasó casi cuatro años trabajando en OpenAI, ayudó a recopilar y organizar grandes volúmenes de datos de internet para entrenar modelos de IA como ChatGPT. Sin embargo, tras reflexionar sobre las implicaciones legales y éticas de este proceso, decidió abandonar la compañía en agosto de 2024.
¿Qué motivó su salida?
Balaji, de 25 años, admitió que al principio no se cuestionaba si OpenAI tenía el derecho legal para utilizar los datos que estaba recopilando, muchos de los cuales estaban protegidos por derechos de autor. Asumía que, al tratarse de información pública disponible en internet, era libre para ser utilizada. Sin embargo, con el tiempo, y especialmente después del lanzamiento de ChatGPT en 2022, comenzó a dudar de la legalidad y ética de estas prácticas.
“Si crees lo que yo creo, tienes que dejar la empresa”, comentó en una serie de entrevistas con The New York Times. Para Balaji, la utilización de datos con derechos de autor sin el consentimiento de sus creadores no solo era una violación de la ley, sino también un peligro para la integridad de internet. Esta reflexión lo llevó a renunciar, aunque actualmente no ha aceptado otro trabajo y se dedica a proyectos personales.
Un problema creciente en la IA
La preocupación por el uso de datos protegidos para entrenar modelos de IA no es nueva. Desde que las compañías como OpenAI y otras startups comenzaron a lanzar herramientas basadas en modelos de lenguaje grande (LLMs), las cuestiones legales y éticas han estado en el centro del debate. Estos modelos son entrenados utilizando vastas cantidades de texto de internet, muchas veces sin respetar los derechos de autor ni pedir el consentimiento de los creadores originales del contenido.
Balaji no es el único que ha alzado la voz sobre este tema. Un exvicepresidente de Stability AI, una startup especializada en tecnologías generativas de imagen y audio, también ha expresado preocupaciones similares, argumentando que el uso de datos sin autorización es perjudicial para la industria y la sociedad en general.
El impacto en el futuro de la IA
Este tipo de críticas generan preguntas sobre el futuro de la inteligencia artificial y su relación con los derechos de autor. A medida que los modelos de IA continúan evolucionando, la presión sobre las empresas para desarrollar tecnologías éticas y legales es cada vez mayor. El caso de Balaji y otros expertos que han decidido abandonar sus puestos es una señal de que la industria de la IA podría estar enfrentando un cambio importante en la manera en que aborda el uso de datos.
La conversación sobre los derechos de autor en la IA está lejos de terminar, y parece que este será un tema central en las discusiones futuras sobre la regulación y desarrollo de tecnologías generativas.