Nueva certificación para la ética en Inteligencia Artificial, un sello para indicar cómo ha sido entrenada

Publicado el

sello IA

La inteligencia artificial generativa (GenAI) está repleta de polémica. El uso de datos protegidos para entrenamiento ya ha sido confirmado por grandes empresas, y en este contexto un nuevo paradigma emerge con «Fairly Trained», una iniciativa encabezada por Ed Newton-Rex, ex ejecutivo de Stability AI. Esta propuesta busca certificar a las empresas de GenAI que utilizan datos de entrenamiento con licencia, asegurando el consentimiento de los creadores de dicho contenido. Este movimiento surge como respuesta a la creciente preocupación sobre el uso de material con derechos de autor en el entrenamiento de herramientas de IA, como ChatGPT y los generadores de arte de Stability AI.

La práctica habitual en la industria de GenAI de entrenar modelos con contenido protegido por derechos de autor ha generado un intenso debate. Creadores y titulares de derechos expresan su descontento por el uso no consentido de su trabajo, mientras que las empresas de GenAI defienden su postura apelando al principio de «uso justo«. Sin embargo, este argumento ha sido cuestionado, dando lugar a la necesidad de un modelo más ético y justo en el uso de datos con derechos de autor.

Un punto crítico en «Fairly Trained» es la ausencia de certificaciones para modelos de generación de texto como ChatGPT. Según Newton-Rex, estos modelos no cumplen con los criterios debido a su dependencia de grandes cantidades de contenido con derechos de autor. OpenAI, la empresa detrás de ChatGPT, sostiene que es prácticamente imposible desarrollar tales modelos sin usar este tipo de contenido, subrayando una disyuntiva central en el campo de la GenAI.

Personalmente, veo la iniciativa de «Fairly Trained» como un paso crucial hacia un equilibrio entre innovación tecnológica y respeto por la propiedad intelectual. Aunque el camino hacia modelos de IA que respeten plenamente los derechos de autor es complejo, la existencia de esta certificación plantea una alternativa viable. La visión de Newton-Rex de modelos de lenguaje entrenados con menos datos y bajo licencias adecuadas abre una ventana de esperanza hacia un futuro más ético en la IA.

La iniciativa «Fairly Trained» representa un esfuerzo significativo para alinear el desarrollo de la GenAI con prácticas éticas y el respeto por los derechos de autor. Aunque el reto es grande, especialmente en el ámbito de los modelos de texto, su existencia señala un cambio de paradigma en cómo la industria y los consumidores perciben y utilizan la inteligencia artificial.

Personalmente creo que el sello «Fairly Trained» tiene el potencial de desempeñar un papel significativo en el futuro de la inteligencia artificial generativa (GenAI), especialmente en términos de ética y responsabilidad. Veamos algunos aspectos clave que sustentan esta perspectiva:

  • Conciencia y Responsabilidad Corporativa: Con el creciente enfoque en la ética y la responsabilidad social corporativa, las empresas pueden sentirse motivadas a obtener este tipo de certificaciones para demostrar su compromiso con prácticas éticas. El sello «Fairly Trained» puede convertirse en un distintivo que diferencie a las empresas que respetan los derechos de autor y el consentimiento de los creadores.
  • Preferencias del Consumidor: A medida que los usuarios se vuelven más conscientes de las implicaciones éticas del uso de la tecnología, es probable que prefieran productos y servicios que respeten los derechos de autor y la propiedad intelectual. Esto podría hacer que la certificación «Fairly Trained» sea un factor importante en las decisiones de compra.
  • Presión Regulatoria y Legal: Los avances en la GenAI están atrayendo la atención de legisladores y reguladores. Una certificación como «Fairly Trained» podría alinearse con futuras regulaciones que exijan prácticas más éticas en el entrenamiento de modelos de IA, especialmente en lo que respecta al uso de contenido con derechos de autor.
  • Innovación en el Entrenamiento de Modelos de IA: La existencia de un sello como «Fairly Trained» podría incentivar la investigación y el desarrollo de nuevos métodos de entrenamiento de IA que no dependan de grandes cantidades de datos con derechos de autor. Esto podría fomentar la innovación en el campo.
  • Sensibilización y Educación: La iniciativa también tiene el potencial de educar al público y a las industrias sobre la importancia de los derechos de autor y el uso ético de los datos en la IA, lo que puede llevar a un cambio en la cultura empresarial y en la percepción pública.

Aunque el impacto a largo plazo de «Fairly Trained» dependerá de varios factores, incluyendo la adopción por parte de la industria, la evolución de la tecnología, y el marco regulatorio, definitivamente tiene el potencial de influir positivamente en el desarrollo ético y responsable de la inteligencia artificial generativa.

Tenéis los detalles en fairlytrained.org