WWWhat's new

Nueva certificación para la ética en Inteligencia Artificial, un sello para indicar cómo ha sido entrenada

sello IA

Sello de entrenamiento justo de IA

La inteligencia artificial generativa (GenAI) está repleta de polémica. El uso de datos protegidos para entrenamiento ya ha sido confirmado por grandes empresas, y en este contexto un nuevo paradigma emerge con «Fairly Trained», una iniciativa encabezada por Ed Newton-Rex, ex ejecutivo de Stability AI. Esta propuesta busca certificar a las empresas de GenAI que utilizan datos de entrenamiento con licencia, asegurando el consentimiento de los creadores de dicho contenido. Este movimiento surge como respuesta a la creciente preocupación sobre el uso de material con derechos de autor en el entrenamiento de herramientas de IA, como ChatGPT y los generadores de arte de Stability AI.

La práctica habitual en la industria de GenAI de entrenar modelos con contenido protegido por derechos de autor ha generado un intenso debate. Creadores y titulares de derechos expresan su descontento por el uso no consentido de su trabajo, mientras que las empresas de GenAI defienden su postura apelando al principio de «uso justo«. Sin embargo, este argumento ha sido cuestionado, dando lugar a la necesidad de un modelo más ético y justo en el uso de datos con derechos de autor.

Un punto crítico en «Fairly Trained» es la ausencia de certificaciones para modelos de generación de texto como ChatGPT. Según Newton-Rex, estos modelos no cumplen con los criterios debido a su dependencia de grandes cantidades de contenido con derechos de autor. OpenAI, la empresa detrás de ChatGPT, sostiene que es prácticamente imposible desarrollar tales modelos sin usar este tipo de contenido, subrayando una disyuntiva central en el campo de la GenAI.

Personalmente, veo la iniciativa de «Fairly Trained» como un paso crucial hacia un equilibrio entre innovación tecnológica y respeto por la propiedad intelectual. Aunque el camino hacia modelos de IA que respeten plenamente los derechos de autor es complejo, la existencia de esta certificación plantea una alternativa viable. La visión de Newton-Rex de modelos de lenguaje entrenados con menos datos y bajo licencias adecuadas abre una ventana de esperanza hacia un futuro más ético en la IA.

La iniciativa «Fairly Trained» representa un esfuerzo significativo para alinear el desarrollo de la GenAI con prácticas éticas y el respeto por los derechos de autor. Aunque el reto es grande, especialmente en el ámbito de los modelos de texto, su existencia señala un cambio de paradigma en cómo la industria y los consumidores perciben y utilizan la inteligencia artificial.

Personalmente creo que el sello «Fairly Trained» tiene el potencial de desempeñar un papel significativo en el futuro de la inteligencia artificial generativa (GenAI), especialmente en términos de ética y responsabilidad. Veamos algunos aspectos clave que sustentan esta perspectiva:

Aunque el impacto a largo plazo de «Fairly Trained» dependerá de varios factores, incluyendo la adopción por parte de la industria, la evolución de la tecnología, y el marco regulatorio, definitivamente tiene el potencial de influir positivamente en el desarrollo ético y responsable de la inteligencia artificial generativa.

Tenéis los detalles en fairlytrained.org

Salir de la versión móvil