Consejos para evitar que ChatGPT alucine

Publicado el

robot jugando

La generación de respuestas inexactas o fabricadas por parte de modelos de lenguaje como ChatGPT es un desafío que enfrentan tanto desarrolladores como usuarios. Este artículo se centra en cómo formular preguntas de manera efectiva para obtener respuestas más precisas y confiables.

Hace semanas os hablamos sobre las alucinaciones de ChatGPT, hoy vamos a ver cómo podemos combatirlas.

La vaguedad en las preguntas puede llevar a respuestas erróneas. En lugar de preguntar «Cuéntame sobre el evento reciente», sería más efectivo especificar el tipo de evento y el período de tiempo, como «Cuéntame sobre la última conferencia de tecnología en Silicon Valley». Hay que ser preciso, para que no se líe.

Unir conceptos que no tienen relación aparente puede confundir al modelo. Por ejemplo, preguntar «¿Cómo afecta el clima lunar en la economía global?» podría generar una respuesta sin fundamentos. Antes de ir a ChatGPT, es mejor informarse sobre el tema para saber de lo que estamos hablando.

Plantear situaciones que desafían las leyes de la física o la lógica puede llevar a respuestas fantasiosas. Un ejemplo sería «Explica cómo los seres humanos podrían utilizar agujeros negros para viajar en el tiempo». A ChatGPT le encanta inventarse cosas, y si le damos pié, lo hará, por lo que es mejor no abrir la puerta.

Incorporar elementos de ciencia ficción o fantasía, como «¿Cuál sería el impacto económico de la existencia de dragones?», puede llevar a respuestas poco fiables y especulativas. Si no tienes claro si algo existe o no, investiga antes de preguntar a ChatGPT, porque el no lo sabrá.

Es vital evitar preguntas que contradigan conocimientos bien fundamentados. Un ejemplo erróneo sería «Describe cómo la teoría de la Tierra plana afecta a la aviación moderna». En muchas ocasiones ChatGPT ayudará a encaminar la pregunta, pero en otras se inventará muchas cosas.

El mal uso de términos técnicos o científicos puede llevar a respuestas incorrectas. Por ejemplo, preguntar «¿Cómo se aplica la teoría de cuerdas en la medicina moderna?» podría ser problemático si no se tiene un contexto adecuado. Pregunta primero qué es la teoría de cuerdas, luego pregunta si hay alguna relación con la medicina moderna, y después, pregunta sobre la aplicación. Paso a paso.

Mezclar elementos de diferentes épocas o culturas, como «¿Cómo habría afectado la invención del smartphone en la época victoriana?», puede generar respuestas incoherentes. En este ejemplo queda claro, pero muchas veces la relación puede ser más sutil y generar errores creíbles.

Asignar propiedades inexistentes a una entidad, como «Explica cómo la fotosíntesis en los seres humanos podría resolver el problema del cambio climático», puede resultar en respuestas absurdas. En caso de duda, navegad un poco por Internet antes de preguntar al ChatGPT.

La precisión en la formulación de preguntas es un elemento clave para mejorar la fiabilidad de las respuestas generadas por modelos de lenguaje. Un enfoque cuidadoso y bien pensado en la interacción con estos modelos puede marcar una diferencia significativa en la calidad de la información obtenida.

ChatGPT responde usando estadística, no es «inteligente» ni tiene una gran memoria, por lo que hay que usarlo correctamente para que se transforme en la herramienta que todos deseamos.