Es importante tener en cuenta que ChatGPT es un chat que parece humano, que dice las cosas con una seguridad sorprendente, y que hay que coger con pinzas la información proporcionada, ya que no siempre es correcta.
Esas pinzas deben ser aún más delicadas cuando hablamos de temas de salud. Obtener recomendaciones sobre tratamiento de enfermedades en ChatGPT no es una buena idea, y aquí os muestro otro caso para dejarlo claro.
Debido al reciente interés sobre gripe aviar en el mundo, después de que la OMS avisara de que es posible que el virus comience a transmitirse más hacia humanos, le pregunté a ChatGPT algunas cosas básicas sobre el asunto:
Hasta aquí bien, pero pregunté algo más:
Aquí se inventa los números, ya que según la OMS, el número no llega a 900:
Buena oportunidad para corregir a ChatGPT
Como veis, es otra demostración de que la información obtenida no es exacta. Ya se ha equivocado antes con fórmulas sencillas de física, o con libros de autores famosos de ciencia ficción, por lo que cuando veáis un número en ChatGPT, poned las alertas al máximo.
Como modelo de lenguaje AI entrenado por OpenAI, a veces puede cometer errores al responder preguntas. Estos errores pueden deberse a una variedad de factores, como una interpretación incorrecta de la pregunta, una falta de contexto o información más reciente sobre el tema, aunque muchas veces se trata de interpretación incorrecta de los datos con los que ha sido alimentado.