Llega una herramienta que previene el uso de obras de arte en la capacitación de modelos de IA

Publicado el

cambios IA

Ya comentamos en más de una ocasión que muchos de los modelos de IA generativa, sobre todo, aquellos que utilizan el modelo de funcionamiento de texto a imagen, han sido capacitados utilizando conjuntos de datos de obras con derechos de autor sin permiso de los mismos.

Son pocas las excepciones por la que se compensan a los autores o se les permite excluir sus trabajos en la capacitación de modelos, siendo por ello que ha llegado como alternativa una solución llamada envenenamiento de las imágenes, en el que se emplean diferentes métodos para engañar a los modelos en el momento de su capacitación.

Nightshade fue de las primeras opciones en llegar, y que por cierto, desde esta misma semana ya se encuentra disponible, y ahora llega Kin.art, lanzada hoy mismo tras varios meses de desarrollo, creada por Flor Ronsmans De Vry, desarrollada de la plataforma de gestión de comisiones de arte del mismo nombre, junto con Mai Akiyoshi y Ben Yu.

Lo nuevo de Kin-art previene la utilización de las obras

A diferencia de Nightshade, Kin.art es una herramienta que se dedica a ocultar partes de una obra e intercambiar los metadatos de la propia imagen como método de envenenamiento en el proceso de capacitación de los modelos.

Acorde a Ronsmans De Vry a TechCrunch:

Diseñar un paisaje donde el arte tradicional y el arte generativo puedan coexistir se ha convertido en uno de los principales desafíos que enfrenta la industria del arte. Creemos que esto parte de un enfoque ético de la formación en IA, donde se respeten los derechos de los artistas

Se puede combinar con otras soluciones a modo de protección adicional

Señala además que su herramienta es superior en algunos aspectos a otras existentes debido a que Kin.art no requiere modificación criptográfica de imágenes, lo que puede ser costoso, donde si bien se puede usar únicamente, también es posible utilizarla en combinación con otras soluciones a modo de protección adicional.

Según sus palabras:

Otras herramientas que existen para ayudar a proteger contra el entrenamiento de IA intentan mitigar el daño después de que su obra de arte ya haya sido incluida en el conjunto de datos por envenenamiento. En primer lugar, evitamos que su obra de arte se inserte

La nueva herramienta se encuentra a disposición gratuita de los artistas, si bien ellos deberán subir sus obras previamente a la plataforma, y de ahí llevarles a la utilización de las funciones y servicios que forman parte de su negocio principal.

La nueva herramienta, según Ronsmans De Vry, se pondrá a disposición de terceros en el futuro:

Después de probar nuestra solución en nuestra propia plataforma, planeamos ofrecerla como un servicio para permitir que cualquier sitio web pequeño y plataforma grande proteja fácilmente sus datos del uso sin licencia. oseer y poder defender los datos de su plataforma en la era de la IA es más importante que nunca… Algunas plataformas tienen la suerte de poder controlar sus datos bloqueando el acceso de quienes no son usuarios, pero otras necesitan proporcionar servicios de cara al público. servicios y no tienen este lujo. Aquí es donde entran en juego soluciones como la nuestra.

Más información: TechCrunch
Enlace: Kin.art

Comparte en: