Cómo reducir «alucinaciones» en IA usando AWS

Publicado el

En el marco del evento AWS re:Invent 2024, Amazon Web Services (AWS) presentó una serie de herramientas diseñadas para abordar algunos de los mayores desafíos en la implementación de inteligencia artificial generativa. Entre las novedades destaca Automated Reasoning checks, un servicio innovador para mitigar el problema de las «alucinaciones» en los modelos de IA, y Model Distillation, una técnica que busca optimizar el uso de modelos al transferir conocimientos entre ellos.

¿Qué son las «alucinaciones» en la inteligencia artificial?

En el mundo de la inteligencia artificial generativa, el término «alucinaciones» se refiere a respuestas que no son correctas ni coherentes con la realidad. Esto sucede porque los modelos no «saben» nada en el sentido tradicional, sino que generan respuestas basadas en patrones y probabilidades aprendidas de grandes volúmenes de datos. Por ejemplo, si preguntas a un modelo sobre un hecho histórico y este «alucina», podría inventar una respuesta con datos inexistentes.

Automated Reasoning checks se posiciona como una solución innovadora para este problema. Según AWS, este servicio valida las respuestas de los modelos comparándolas con una base de datos que el cliente proporciona como “verdad fundamental”. Este enfoque permite que el modelo genere respuestas más confiables al identificar inconsistencias en tiempo real y, en caso de error, ofrecer una corrección basada en datos verificados.

¿Cómo funciona Automated Reasoning checks?

El sistema permite a los clientes subir sus propias bases de datos o reglas, lo que establece un estándar de precisión. Cuando el modelo genera una respuesta, Automated Reasoning checks verifica su exactitud frente a esta información base. Si detecta una discrepancia, proporciona una alternativa validada junto con la respuesta errónea, permitiendo a los usuarios evaluar la calidad del resultado generado.

Empresas como PwC ya están utilizando esta herramienta para desarrollar asistentes de IA destinados a sus clientes, lo que subraya el potencial de este servicio en entornos empresariales donde la precisión es clave.

Innovaciones adicionales: Model Distillation

Otra de las herramientas anunciadas es Model Distillation, un método para transferir las capacidades de un modelo grande a uno más pequeño. Por ejemplo, una empresa podría usar este servicio para reducir costos al convertir un modelo como Llama 405B en una versión más ligera, como Llama 8B, que consume menos recursos.

AWS afirma que este proceso es sencillo: los usuarios proporcionan muestras de datos y Amazon Bedrock realiza el trabajo pesado, ajustando el modelo más pequeño y, si es necesario, generando datos adicionales para completar el proceso. Aunque esta técnica implica una ligera pérdida de precisión (menos del 2%, según AWS), ofrece una gran ventaja en términos de eficiencia y costos operativos.

Más allá de las «alucinaciones»: colaboración entre agentes de IA

En línea con las tendencias actuales, AWS también presentó una función llamada multi-agent collaboration, que permite a los clientes asignar tareas específicas a diferentes agentes de IA dentro de un mismo proyecto. Por ejemplo, en un análisis financiero, un agente puede encargarse de procesar los datos, otro de interpretarlos y un «supervisor» de integrar los resultados. Esta estructura facilita la ejecución de proyectos complejos al dividir las tareas en componentes manejables.

Implicaciones para el futuro

Desde WWWhatsnew.com creemos que estas herramientas reflejan un esfuerzo significativo por parte de AWS para abordar las limitaciones actuales de la inteligencia artificial generativa. Automated Reasoning checks, en particular, podría transformar cómo las empresas confían en modelos de IA para tareas críticas, al reducir los riesgos asociados con la información incorrecta. Por otro lado, Model Distillation democratiza el acceso a modelos potentes al hacerlos más accesibles y rentables.

Aunque estas innovaciones son prometedoras, es importante recordar que la lucha contra las alucinaciones es un proceso continuo. Como lo expresó un experto citado en el evento, intentar eliminarlas por completo es tan difícil como intentar separar el hidrógeno del agua: los modelos están diseñados para predecir, no para garantizar precisión absoluta.

En mi opinión, herramientas como estas no solo benefician a las grandes empresas, sino que también democratizan el uso de la IA en startups y negocios emergentes, donde los recursos son limitados. Sin embargo, el éxito real de estas soluciones dependerá de su desempeño en escenarios del mundo real, un aspecto que AWS aún debe demostrar con datos concretos.