Llega una herramienta que previene el uso de obras de arte en la capacitación de modelos de IA

Ya comentamos en más de una ocasión que muchos de los modelos de IA generativa, sobre todo, aquellos que utilizan el modelo de funcionamiento de texto a imagen, han sido capacitados utilizando conjuntos de datos de obras con derechos de autor sin permiso de los mismos.

Son pocas las excepciones por la que se compensan a los autores o se les permite excluir sus trabajos en la capacitación de modelos, siendo por ello que ha llegado como alternativa una solución llamada envenenamiento de las imágenes, en el que se emplean diferentes métodos para engañar a los modelos en el momento de su capacitación.
Continúa leyendo «Llega una herramienta que previene el uso de obras de arte en la capacitación de modelos de IA»