Como seguramente ya habréis leído en todos los rincones del planeta digital, el Parlamento Europeo ha dado su sello de aprobación a la primera ley de inteligencia artificial (IA) de su tipo, estableciendo un faro de regulación en un mar de innovación desbordada.
Son muchos los puntos que se han tratado, y aunque aún no es definitiva, ya se pueden extraer muchos datos sobre cómo afectará esta ley a ChatGPT.
Podemos resumirlo en cinco puntos, que comento al final de cada uno:
- Transparencia en la generación de contenido: La ley exige que las aplicaciones como ChatGPT indiquen claramente cuando el contenido ha sido generado por IA. Esto implica que los usuarios deben poder distinguir fácilmente entre el contenido creado por humanos y el generado por IA, asegurando así una mayor transparencia y ayudando a prevenir la desinformación. Esto no consigo entenderlo, no sé cómo ChatGPT conseguirá que las personas no copien y peguen el contenido transformándolo en el camino. Nunca ha sido fácil diferenciar un texto creado con una IA de un texto creado por un humano, y no consigo imaginar ningún recurso que permita eso. Como mucho, ChatGPT puede poner una marca de agua y generar el contenido en una imagen, pero aún así se puede extraer el contenido con una herramienta OCR y usarlo normalmente. Igual lo que me falta es imaginación.
- Respeto por los derechos de autor: ChatGPT tendrá que garantizar que los datos utilizados para entrenar sus modelos respeten los derechos de autor. Esto podría requerir ajustes en los procesos de recopilación y uso de datos para asegurar que todo el material utilizado en el entrenamiento de la IA cumpla con las leyes de propiedad intelectual, lo que podría influir en cómo se desarrolla y mejora el modelo a lo largo del tiempo. Es decir ¿ChatGPT debe entrenarse de nuevo con datos que cumplan las leyes de IA en Europa? ¿habrá una versión en Europa con datos limitados y otra fuera, mucho más poderosa, con todos los datos usados? Es lo que entiendo con esta norma. Tampoco lo veo claro.
- Cumplimiento con los sistemas de alto riesgo: Aunque ChatGPT se utiliza en una amplia gama de aplicaciones, desde educativas hasta de entretenimiento, cualquier uso que se considere de alto riesgo estará sujeto a regulaciones más estrictas. Esto significa que, dependiendo de cómo se aplique ChatGPT, podría necesitar pasar por evaluaciones de riesgo y cumplir con requisitos adicionales para garantizar que su uso no perjudique a los ciudadanos de la UE. Aquí estoy de acuerdo, creo que eso es más fácil de implementar.
- Innovación y competitividad: La ley también busca fomentar la inversión y la innovación en el ámbito de la IA dentro de Europa. Para OpenAI, la empresa detrás de ChatGPT, esto podría representar tanto desafíos como oportunidades. Por un lado, podría enfrentarse a regulaciones más estrictas que sus competidores fuera de la UE; por otro lado, podría beneficiarse de un marco legal claro que facilite la colaboración y el desarrollo de proyectos de IA en Europa. Creo que actualmente, con tantos protagonistas en el sector, no tendrá problemas con este tema.
- Adaptabilidad a cambios normativos: Dado que la ley de IA de la UE establece un precedente y podría influir en futuras regulaciones en otras partes del mundo, es crucial para los desarrolladores de ChatGPT mantenerse adaptables y receptivos a los cambios normativos. Esto incluye estar preparados para ajustar sus sistemas y procesos de desarrollo en respuesta a las nuevas regulaciones y garantizar el cumplimiento continuo. Tampoco veo problemas con esto.
Conclusión
La conclusión es la del título. Dudo mucho que ChatGPT pueda cumplir con los dos primeros puntos, por lo que no le veo mucho futuro dentro de las fronteras de la UE.