DALL-E es el nombre usado para hacer referencia a una herramienta capaz de generar imágenes a partir de un texto descriptivo, la cual se convirtió en todo un éxito desde que fuera presentada.
Gracias a DALL-E puedes tener la oportunidad de crear imágenes interesantes y únicas donde lo único que se requiere es escribir un texto que especifique el tipo de imagen que deseas.
Así también, DALL-E brinda a los usuarios la posibilidad de editar imágenes con rostros humanos. Sin embargo, su uso estuvo restringido debido a la preocupación que tenían sus desarrolladores de que la herramienta estuviera siendo aprovechada con malas intenciones.
Para hacer la herramienta pública, OpenAI tuvo que aplicar algunos filtros que impidieran la creación de imágenes con contenido sexual, político y violento.
Es así que ahora los usuarios dispondrán de diferentes maneras para llevar a cabo la edición de imágenes. Tras subir una fotografía de alguien DALL-E se encargará de generar variaciones de la misma, así como también alterar aspectos específicos como la ropa o el peinado.
Gracias a las posibilidades de edición que otorga, DALL-E resulta una herramienta de gran utilidad para todos aquellos usuarios que trabajan en el sector creativo como fotógrafos y cineastas.
En una carta dirigida a sus clientes acerca de la decisión de hacer DALL-E accesible nuevamente OpenAI expresó:
Gracias a las mejoras introducidas en nuestro sistema de seguridad, DALL-E está ahora preparado para dar soporte a estos encantadores e importantes casos de uso, minimizando al mismo tiempo el potencial de daño de los deepfakes.
Todo esto forma parte de un proceso de negociación en curso entre generadores de arte a partir de IA con sus usuarios, tomando en cuenta además los daños potenciales ocasionados por esta tecnología.
En el caso de OpenAI, esta empresa ha sido cautelosa en el enfoque dado a su herramienta generadora de imágenes, aunque esto ha hecho que otras como Stable Diffusion la superen al tener menos restricciones.
Sin embargo, es esta falta de restricciones de Stable Diffusion lo que ha facilitado el desarrollo de deepfakes de connotación sexual, algo que en DALL-E han trabajado para evitar que pueda llevarse a cabo.
Añadido a esto, OpenAI ha establecido en sus condiciones de uso que las personas no suban imágenes de alguien sin su consentimiento, aunque esto no siempre del todo eficaz con el actual modelo de acceso.