Inteligencia Artificial y su impacto en los buscadores de Internet

Publicado el

pinocho-robot

La inteligencia artificial ha transformado la forma en que buscamos y consumimos información en línea. Pero, ¿qué sucede cuando esta tecnología comienza a socavar la confiabilidad de los resultados que obtenemos? Por lo visto, y como era fácil de imaginar, la inteligencia artificial generativa está afectando la precisión y la confiabilidad de los motores de búsqueda, tanto al de Google como al de Bing.

Recientemente, Bing presentó información errónea sobre Claude Shannon, un matemático e ingeniero famoso por su trabajo en teoría de la información. El motor de búsqueda afirmó que Shannon había escrito un artículo en 1948 sobre algoritmos de búsqueda, algo que nunca sucedió. Este error no solo pone en duda la precisión de Bing, sino que también plantea preguntas sobre la fiabilidad de los motores de búsqueda en la era de la inteligencia artificial.

El error en Bing se originó a partir de respuestas generadas por chatbots, específicamente Pi de Inflection AI y Claude de Anthropic. Estos chatbots produjeron lo que se conoce como «alucinaciones«, o información fabricada a partir de la nada, falsa, que luego fue recogida por el algoritmo de búsqueda de Bing.

Implicaciones más amplias

Este incidente no es un caso aislado. Francesca Tripodi, profesora asistente en la Universidad de Carolina del Norte en Chapel Hill, advierte que los modelos de lenguaje grandes son susceptibles a los mismos problemas. Estos modelos pueden generar información errónea o engañosa, especialmente cuando los datos en los que fueron entrenados carecen de información precisa sobre un tema en particular.

Todos hemos pasado por eso. ChatGPT puede inventarse información fácilmente. Si esa información la publicamos en un artículo, y otros medios la recogen y la republican, a medio y largo plazo, se dará como cierta (incluso puede acabar apareciendo en Wikipedia, confirmada por varias fuentes que no sabían que estaban arrastrando un dato falso).

Medidas correctivas

Microsoft ha ajustado el algoritmo de Bing para evitar mostrar contenido de baja autoridad. Sin embargo, el problema subyacente sigue siendo un desafío significativo que requiere una solución más integral para garantizar la fiabilidad de los resultados de búsqueda.

Lo que hoy es una web de baja autoridad, mañana puede ser de alta, y el contenido publicado «alucinado» puede acabar siendo más visible de lo previsto.

Otros peligros

Por otro lado tenemos el riesgo de manipulación intencionada de los resultados de búsqueda. La generación de contenido falso o engañoso ya no requiere un alto nivel de habilidades técnicas, lo que abre la puerta a tácticas de manipulación más sofisticadas.

La proliferación de contenido generado por IA en páginas de SEO, publicaciones en redes sociales y blogs aumenta el riesgo de que los resultados de búsqueda se vean comprometidos. Esto podría llevar a un ciclo de desinformación generada por IA, un problema que va más allá de simples ajustes algorítmicos.

El incidente con Bing y las hallucinaciones de chatbots son un recordatorio de que la tecnología, por avanzada que sea, no está exenta de fallos. Es imperativo que la industria tecnológica tome medidas proactivas para abordar estos problemas, en lugar de simplemente reaccionar a los fallos después de que ocurren.