Cuando hablamos de SEO hablamos de técnicas que pueden usarse en las páginas web para que tengan más visibilidad en los buscadores. Son más de 200 variables las que Google utiliza para decidir si una página debe mostrarse antes que otra, variables que han ido cambiando de importancia con el tiempo, afectadas por algoritmos como Panda o Penguin.
Los profesionales SEO tenían un trabajo relativamente sencillo hace algunos años: conseguir «links de buena calidad» que apunten a las páginas de sus clientes. El problema es que esa técnica acabó generando un mercado negro de compra y venta de enlaces que permitía que aparecieran en primera posición páginas cuyo contenido era realmente pobre, pero que tenían muchos enlaces comprados a lo largo y ancho de Internet.
Ese fue uno de los primeros cortes del nuevo Google: bajar la visibilidad, y en algunos casos eliminarla, de todas las páginas que participan de compra y venta de enlaces, de las que compraron links en el pasado o de las que siguen comprándolos en el presente. Es muy sencillo detectar las webs que participan de este mercado, por lo que Google no tiene ningún tipo de problema en identificarlas.
Si los enlaces van perdiendo importancia, está claro que lo que debe ganar es el contenido, pero es imposible tener personas que lean todo lo que se publica en Internet y mucho más imposible aún determinar lo que es bueno o es malo de forma objetiva.
Es ahí donde entra la Inteligencia artificial.
Cuando analizamos las redes de preguntas y respuestas como Quora, vemos que hay un sistema de votos que permiten destacar los mejores comentarios de los usuarios. Cuando hablamos de millones de datos, de millones de respuestas a millones de preguntas, con millones de votos, hablamos también de una información que puede analizarse por sistemas de aprendizaje automático para definir lo que es un buen contenido y lo que no lo es.
Los sistemas de Inteligencia artificial usados por los buscadores deben rastrear contenido constantemente y analizar de forma automática si el mismo es o no es bueno. Es decir, que deben verificar si la información es cierta, si tiene referencias, si es o no actual, si está o no completa, si tiene conclusiones… los sistemas de inteligencia artificial están aprendiendo a definir si un contenido es o no es bueno, y a largo plazo podrán hacerlo mucho mejor que un ser humano, ya que tienen acceso a mucha más información en menos tiempo, por lo que son capaces de verificar si un texto tiene o no fundamento.
Es decir, que será la Inteligencia artificial, el resultado del entrenamiento que se realiza constantemente por las máquinas, el encargado de decidir si un texto aparecerá antes o después en los buscadores, por lo que al final, será una máquina la que decida lo que debe o no leerse.
No creo que un ordenador consiga nunca sustituir a un periodista, pero sí será capaz de determinar si un artículo es o no es bueno.