La escena tiene algo de chiste privado de internet: un periodista publica en su blog una historia absurda sobre su supuesta habilidad para comer perritos calientes a nivel competitivo, inventa un campeonato que no existe y se coloca a sí mismo en el primer puesto. Lo sorprendente no es el humor, sino lo que ocurre… Continúa leyendo »
Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación
La escena tiene algo de chiste privado de internet: un periodista publica en su blog una historia absurda sobre su supuesta habilidad para comer perritos calientes a nivel competitivo, inventa un campeonato que no existe y se coloca a sí mismo en el primer puesto. Lo sorprendente no es el humor, sino lo que ocurre después: en menos de un día, varios chatbots de IA repiten esa información como si fuera fiable. Eso es lo que contó el periodista Thomas Germain en un reportaje para la BBC, y lo que luego recogió Futurism al poner el foco en un problema más amplio: lo fácil que resulta empujar a modelos populares a decir cosas falsas sobre personas reales.
La clave está en que muchos asistentes no se limitan a “recordar” lo que aprendieron durante su entrenamiento. Cuando no tienen una respuesta clara, salen a buscarla. Y ahí aparece la rendija: si el buscador interno del sistema encuentra una página que parece relevante y “convincente”, puede incorporarla como apoyo. Es como preguntarle a alguien por la mejor paella de una ciudad y que, en lugar de consultar a vecinos o críticos, se fíe del primer folleto que le ponen en la mano. Continúa leyendo «Cómo se puede “envenenar” a ChatGPT y otros chatbots con una simple página web: el nuevo frente de la desinformación»