Un ejemplo de cómo ChatGPT puede mentir mucho y hacerlo creíble

Publicado el

ChatGPT puede inventarse muchas cosas, pero puede hacerlo de forma tan creíble que es capaz de inventarse referencias, y hasta urls.

En este ejemplo veréis un caso tremendo en el que se ha inventado una estatua nueva en Barcelona, y me ha estado prometiendo que es verdad hasta el final, cuando ha reconocido su error.

Le pido que me diga algo que pocos saben de Barcelona, y entre otras cosas, me dice:

ChatGPT se equivoca

Aquí la mosca apareció detrás de la oreja… solo hay una estatua de la libertad en Barcelona, dentro de la Biblioteca Arús, cerca del Arco del Triunfo, no hay nada así en el puerto, por lo que le pido referencias:

ChatGPT se equivoca

Me dice el lugar exacto (donde está Colón), y me da la url de la web del ayuntamiento que hace referencia a la supuestamente famosa «diosa de la libertad», porque sí, me dice que sí existe, pero que se llama comúnmente como «Diosa de la Libertad»… muy raro todo.

El caso es que esa url que me ha dicho, no existe, da página no encontrada, y nunca ha existido, porque mirando el histórico de Internet en archive.org, me dice que nunca ha existido esa página.

Le pido más fuentes, y se inventa más urls:

ChatGPT se equivoca

Ninguna de esas direcciones web existen, dan todas página no encontrada, y archive.org sigue sin encontrarlas en el pasado.

ChatGPT se equivoca

Le digo a ChatGPT que todas esas fuentes son falsas, que todas dan error 404, y me envía de nuevo a una página inexistente del ayuntamiento de Barcelona donde deice que hay hasta fotos (todo mentira)

ChatGPT se equivoca

Al final reconoce su error, pero dice que no se ha inventado ninguna url (su palabra contra la mía, está claro, porque esas urls nunca han existido). Ha confundido a la estatua de Colón con la Estatua de la libertad… telita.

ChatGPT se equivoca

Un claro ejemplo de por qué hemos de ir con pies de plomo, principalmente si usamos ChatGPT como fuente de información, algo que desaconsejo siempre.

Comparte en: