Descubrimiento en Google: Modelos de IA más pequeños superan expectativas en generación de imágenes

Publicado el

robot pintando

Dicen que el tamaño no importa, y parece que en el mundo de la IA eso también se aplica, por lo menos en la generación de imágenes.

Así se concluye de un nuevo estudio realizado por un equipo de investigadores de Google Research y la Universidad Johns Hopkins., quienes han compartido unos hallazgos que podrían cambiar nuestra comprensión sobre el desarrollo de los modelos de inteligencia artificial, especialmente aquellos dedicados a la generación de imágenes.

Tradicionalmente, se ha creído que cuanto mayor es el modelo, mejores son sus resultados. Sin embargo, este estudio pone en tela de juicio esa premisa y nos ofrece una perspectiva diferente.

Los modelos de difusión latente (LDMs) son herramientas avanzadas de IA capaces de crear imágenes de alta calidad a partir de descripciones textuales. La investigación se ha centrado en explorar cómo el tamaño de estos modelos afecta su rendimiento y eficiencia. Para ello, se han evaluado 12 modelos LDM con un rango impresionante de parámetros, desde los 39 millones hasta los 5 mil millones.

Contra todo pronóstico, los resultados mostraron que los modelos más compactos no solo competían de tú a tú con los gigantes, sino que, en ciertas circunstancias, los superaban. Esta superioridad se hacía evidente especialmente bajo condiciones de recursos computacionales limitados, donde la eficacia y la eficiencia se vuelven cruciales.

Mi reflexión personal al respecto es que este descubrimiento enfatiza la importancia de optimizar el uso de nuestros recursos tecnológicos. La accesibilidad y la sostenibilidad se están convirtiendo en prioridades, repensar nuestra estrategia hacia modelos de IA más pequeños y eficientes podría ser la clave para una tecnología más inclusiva y menos demandante en términos de recursos. Estos hallazgos desafían nuestras nociones preconcebidas y abren la puerta a un futuro en el que los sistemas de IA sean más accesibles, que podamos ejecutar localmente, por ejemplo, sin depender de grandes servidores.

La idea de que modelos menos demandantes puedan operar en dispositivos individuales sin necesidad de enormes infraestructuras computacionales es, sin duda, prometedora.

Referencia del estudio

  • Bigger is not Always Better: Scaling Properties of Latent Diffusion Models  https://arxiv.org/pdf/2404.01367.pdf