Estoy a favor de que la IA se regule, por supuesto. Creo que es correcto establecer límites para que no se violen derechos de autor, para que no se usen nuestros datos personales sin permiso para entrenar sistemas de IA y para muchas otras cosas que se han comentado en la nueva ley europea sobre Inteligencia Artificial, pero hay varias cosas que no se están teniendo en cuenta, y que los que trabajamos en el sector percibimos constantemente.
Una vez más, parece que las leyes las están redactando personas que no saben mucho del sector, y eso genera aplausos entre los que desconocen los «secretos» de la materia. Mientras tanto, países como China y Estados Unidos siguen creciendo como la espuma, vendiendo soluciones a los europeos que no consiguen generarlas desde dentro.
Es importante considerar un equilibrio delicado: por un lado, una regulación excesiva podría actuar como un freno para el progreso tecnológico, mientras que, por otro, una regulación insuficiente podría llevar a consecuencias negativas en términos de ética y privacidad. Legislaciones demasiado estrictas o rígidas podrían limitar la capacidad de los investigadores y empresas para experimentar y desarrollar nuevas tecnologías. Por ejemplo, restricciones excesivas en el uso de datos podrían impedir el desarrollo de algoritmos más eficientes y precisos. En contraste, una regulación bien diseñada y flexible podría fomentar la innovación al establecer un marco claro y seguro para la experimentación y el desarrollo.
Veamos algunos ejemplos, para dejarlo claro.
Hace poco estuve en un congreso de Inteligencia Artificial aplicada a la medicina. Algunas de las personas que participaron en las mesas de debate comentaban que tenían que comprar datos médicos a países como China, para poder crear modelos de IA aquí. El problema es que somos diferentes genéticamente, por lo que muchas veces las conclusiones de los modelos entrenados en España no pueden ser aplicadas al haber sido entrenadas con personas de otras razas.
Sí, porque existen razas, y asumirlo no es ser racista, es ser realista. De hecho existen diferencias genéticas tan importantes entre poblaciones cercanas que muchas veces perdemos la noción de lo diferentes que somos desde un punto de vista genético. Hace poco leí que personas del Reino Unido enfermaban al tomar un medicamento que aquí en España es muy común (nolotil). Imaginad si se usan datos de gente de aquí para modelar sistemas de IA para el mercado farmaceutico de allí, el resultado podría ser desastroso.
Mientras tanto, comentaban en el debate, se están entrenando modelos con listas de 190 pacientes que firmaron el permiso para usar sus datos para entrenamiento. Sí, 190, una cantidad ridícula, seguramente insuficiente para poder crear un modelo fiable sobre cualquier cosa.
¿Qué falta? ¿Qué habría que hacer? ¿Tendríamos que poner un «banner de cookies» delante de los hospitales para que la gente permita el uso anonimizado de sus datos para entrenamiento de sistemas de IA?
Porque recordemos que a los modelos no le simporta el nombre de la persona que tuvo cáncer, o del paciente que se rompió la rodilla. Solo necesita las imágenes y los datos para poder sacar conclusiones, datos como edad, sexo, raza, país de origen, otras enfermedades… no necesitan apellidos, solo datos para poder entrenar modelos que pueden salvar vidas.
Y si entramos en el mundo de la dermatología, la cosa se complica, porque si queremos crear soluciones que traten enfermedades de la piel, tendremos que crear modelos con datos que indiquen el color de la piel de las personas, es inevitable. Los modelos sí necesitan diferenciar razas, sí necesitan conocer colores de piel, sí necesitan conocer detalles que la nueva ley llama «sensibles».
Los datos son datos, y necesitamos que sean datos locales para que las soluciones sean efectivas. Si queremos que Europa, o España, en particular, sea competente en el sector, tenemos que dejar de comprar datos a otros países para crear modelos locales, porque en muchas ocasiones eso será tirar el dinero.
Por otro lado, decir que un texto generado por IA debe ser marcado como tal, es como decir que los profesionales de las finanzas deben indicar si su trabajo ha recibido ayuda de Excel, o si un diseñador gráfico ha usado Photoshop para alterar algo de su dibujo.
No podemos generalizar, tenemos que ser conscientes de a dónde queremos llegar y no poner más piedras en el camino, que bastante tenemos ya con tener que apretar al banner de cookies 300 veces por día para poder navegar por Internet.
Idealmente, la regulación de la IA debería ser lo suficientemente flexible para adaptarse a los cambios rápidos en la tecnología, al mismo tiempo que proporciona un marco ético y de privacidad claro. Debería fomentar la innovación y la competencia leal, mientras protege los derechos e intereses de los ciudadanos. También es esencial que los legisladores trabajen en colaboración con expertos en tecnología, empresas y otros protagonistas del sector para entender mejor las complejidades y las implicaciones de la IA.