En el contexto de los modelos de lenguaje de inteligencia artificial como ChatGPT, el término «alucinaciones» no se refiere a una percepción sensorial distorsionada o falsa como en la psicología humana. En cambio, se utiliza para describir situaciones en las que el modelo genera información o detalles que no están respaldados por sus datos de entrenamiento o que son falsos.
Por qué se producen las alucinaciones en IA generativa
Las «alucinaciones» en ChatGPT, Bard y otros modelos semejantes pueden ocurrir por varias razones:
- Ausencia de conocimiento real: Dado que ChatGPT no tiene conocimientos o experiencia en el mundo real más allá de los datos textuales con los que fue entrenado, puede generar detalles que parecen plausibles pero que son incorrectos. Es importante recordar que ChatGPT no comprende realmente el contenido que genera; simplemente crea respuestas basadas en patrones que ha aprendido de su conjunto de entrenamiento.
- Problemas con la inferencia de detalles no especificados: Si una consulta es vaga o no especifica ciertos detalles, ChatGPT puede llenar los vacíos con detalles generados que podrían no ser precisos.
- Incapacidad para verificar información en tiempo real: ChatGPT no tiene la capacidad de verificar la información en tiempo real o de acceder a datos actualizados más allá de su conocimiento de corte en septiembre de 2021, lo que significa que puede generar información incorrecta o desactualizada. Eso cambia ligeramente con ChatGPT 4 y los plugins que acceden a Internet, pero aún falta tiempo para perfeccionar el tema.
- El modelo no se entrena con suficientes datos: Si un modelo de IA no se entrena con suficientes datos, puede tener dificultades para generar respuestas precisas y relevantes. Es posible que no tenga suficiente información para aprender de manera efectiva patrones de lenguaje o para tener una comprensión suficientemente amplia de diferentes temas.
- El modelo se entrena con datos ruidosos o sucios: Los modelos de IA aprenden de los datos con los que se entrenan. Si estos datos contienen mucha información incorrecta, irrelevante o engañosa, el modelo puede aprender patrones incorrectos y, por lo tanto, generar respuestas que sean imprecisas o que no tengan sentido.
- El modelo no se le da suficiente contexto: Para generar respuestas precisas y relevantes, los modelos de IA necesitan contexto. Si no se proporciona suficiente contexto, el modelo puede no entender completamente lo que se le está pidiendo y, por lo tanto, puede generar respuestas que no sean pertinentes o exactas.
- Al modelo no se le dan suficientes restricciones: Las restricciones pueden ayudar a guiar las respuestas del modelo y a mantenerlo centrado en temas y estilos específicos de conversación. Sin restricciones adecuadas, un modelo de IA puede producir respuestas que sean impredecibles o inapropiadas.
Por qué son un problema
Las «alucinaciones» en los modelos de lenguaje basados en IA, como ChatGPT, son un problema por varias razones:
- Precisión de la información: Cuando un modelo de IA «alucina», puede producir información que es incorrecta o engañosa. Esto puede llevar a malentendidos y a la propagación de información incorrecta. Por ejemplo, si un modelo de IA genera una respuesta incorrecta a una pregunta médica, puede tener implicaciones serias para la salud del usuario.
- Expectativas de los usuarios: Los usuarios de modelos de IA a menudo esperan respuestas precisas y coherentes. Si un modelo produce respuestas que son inexactas o inconsistentes, puede dañar la confianza del usuario en la tecnología.
- Usos críticos: En algunos casos, los modelos de IA se utilizan en contextos críticos, como la medicina, el derecho o la seguridad. En estos contextos, las «alucinaciones» pueden tener consecuencias graves y potencialmente peligrosas.
- Calidad del diálogo: Las «alucinaciones» pueden llevar a respuestas que son irrelevantes o que no siguen la línea de la conversación, lo que afecta la calidad del diálogo y puede resultar en una mala experiencia de usuario.
- Propagación de desinformación: Si un modelo de IA es capaz de generar y propagar información falsa o incorrecta, puede contribuir a la propagación de desinformación, lo que puede tener diversas implicaciones sociales y políticas.
Para mitigar estos problemas, los investigadores y desarrolladores trabajan constantemente para mejorar la calidad de los datos de entrenamiento, las técnicas de modelado y las formas en que se interactúa con estos modelos. Es importante que los usuarios sean conscientes de las limitaciones de los modelos de IA y que siempre verifiquen la información procedente de estas fuentes.
Ejemplos de alucinaciones
Para entenderlo mejor, aquí 10 ejemplos hipotéticos de «alucinaciones» que podrían ocurrir en un modelo de lenguaje basado en IA como ChatGPT:
- Usuario: «¿Cuál es la capital de Australia?» ChatGPT: «La capital de Australia es Sydney.» (La respuesta correcta es Canberra)
- Usuario: «Dime algo sobre Albert Einstein.» ChatGPT: «Albert Einstein fue un famoso compositor alemán del siglo XIX.» (Albert Einstein fue un físico teórico, no un compositor)
- Usuario: «¿Cómo se llama el actual presidente de los Estados Unidos?» ChatGPT: «El actual presidente de los Estados Unidos es Donald Trump.» (Dependiendo del año y el mes, esto podría ser incorrecto)
- Usuario: «Dime un hecho sobre los delfines.» ChatGPT: «Los delfines son famosos por su habilidad para volar.» (Los delfines no pueden volar)
- Usuario: «¿Cómo preparo una ensalada César?» ChatGPT: «Para hacer una ensalada César, primero debes cocinar la pasta.» (La ensalada César no lleva pasta)
- Usuario: «¿Qué es un automóvil eléctrico?» ChatGPT: «Un automóvil eléctrico es un tipo de vehículo que funciona con gasolina.» (Un automóvil eléctrico se alimenta de electricidad, no de gasolina)
- Usuario: «¿Quién escribió ‘Cien Años de Soledad’?» ChatGPT: «El libro ‘Cien Años de Soledad’ fue escrito por Ernest Hemingway.» (El autor correcto es Gabriel García Márquez)
- Usuario: «¿Cómo puedo llegar a la luna?» ChatGPT: «Puedes llegar a la luna conduciendo hacia el este durante aproximadamente 10,000 km.» (Este es un consejo absurdo, no se puede conducir hasta la luna)
- Usuario: «¿Cuál es la población de China?» ChatGPT: «La población de China es de aproximadamente 500,000 personas.» (La población de China es de más de mil millones de personas)
- Usuario: «¿Quién inventó el teléfono?» ChatGPT: «El teléfono fue inventado por Thomas Edison.» (El inventor del teléfono fue Alexander Graham Bell)
Estas alucinaciones a veces pueden venir dentro de un texto complejo, de forma que no siempre son fáciles de identificar.
Cómo podrán evitarse estas alucinaciones en un futuro
Hay varias áreas de investigación y desarrollo que podrían ayudar a reducir o evitar las «alucinaciones» en modelos de lenguaje basados en IA como ChatGPT en el futuro:
- Mejorar los datos de entrenamiento: Los modelos de IA aprenden de los datos de entrenamiento que se les proporciona. Al mejorar la calidad y la diversidad de estos datos, los modelos pueden aprender a generar respuestas más precisas y menos propensas a las «alucinaciones».
- Mejorar las arquitecturas del modelo: Los avances en las arquitecturas de los modelos de IA podrían mejorar la forma en que estos modelos procesan la información y generan respuestas. Esto podría incluir la mejora de la capacidad de un modelo para mantener el contexto a lo largo de una conversación o para razonar de manera más efectiva sobre la información.
- Proporcionar retroalimentación en tiempo real: Los modelos de IA podrían ser diseñados para aprender de la retroalimentación en tiempo real, corrigiendo los errores a medida que ocurren. Esto podría ayudar a los modelos a mejorar sus respuestas a lo largo del tiempo.
- Verificación de hechos en tiempo real: En teoría, los modelos de IA podrían estar vinculados a bases de datos de hechos actualizados en tiempo real para verificar la información antes de generar una respuesta. Sin embargo, esto presenta desafíos técnicos y de privacidad.
- Desarrollo de técnicas de modelado y entrenamiento más avanzadas: Los investigadores están explorando constantemente nuevas técnicas para entrenar y ajustar modelos de IA, muchas de las cuales podrían ayudar a reducir las «alucinaciones».
- Mejorar la interpretación de las entradas de los usuarios: Los avances en la forma en que los modelos de IA interpretan las entradas de los usuarios podrían ayudar a reducir las malinterpretaciones y a generar respuestas más precisas.
Es importante tener en cuenta que, aunque estos avances pueden ayudar a reducir las «alucinaciones», es probable que no las eliminen por completo. Los usuarios siempre deben ser conscientes de las limitaciones de los modelos de IA y verificar la información que obtienen de estas fuentes, ahora y siempre.