Google prepara un nuevo algoritmo para las búsquedas

Publicado el

bert

Google lleva mucho tiempo trabajando en el sector de las búsquedas en Internet, pero aún está lejos de llegar a la perfección.

Son miles de millones de búsquedas todos los días, y el 15 por ciento de esas consultas son nuevas, por lo que Google necesita sistemas que ayuden a entender mejor lo que se está pidiendo y a traer los mejores resultados.

En un nuevo artículo publicado hoy, la empresa dice que que la búsqueda se trata de comprender el lenguaje:

Nuestro trabajo es descubrir qué estás buscando y mostrar información útil de la web, sin importar cómo deletrees o combines las palabras en tu consulta. Si bien hemos seguido mejorando nuestras capacidades de comprensión del idioma a lo largo de los años, a veces todavía no lo hacemos bien, especialmente con consultas complejas o conversacionales. De hecho, esa es una de las razones por las cuales las personas a menudo usan palabras clave, escribiendo cadenas de palabras que piensan que entenderemos, pero en realidad no es cómo harían una pregunta de forma natural.

Con el aprendizaje automático han conseguido entender mucho, y en los últimos cinco años han dado un gran paso para entender lo que estamos preguntando en el buscador.

Ahora anuncian la aplicación de modelos BERT a la búsqueda, una técnica basada en redes neuronales para el pre-entrenamiento de procesamiento de lenguaje natural (PNL) llamada Representaciones de codificador bidireccional de transformadores, o BERT. Esta tecnología permite a cualquiera entrenar su propio sistema de respuesta a preguntas de última generación. Los modelos BERT pueden tener en cuenta el contexto completo de una palabra al observar las palabras que vienen antes y después, particularmente útil para comprender la intención detrás de las consultas de búsqueda.

Aunque el software ya lleva un año aplicándose de una u otra forma, también necesitaban nuevo hardware. Algunos de los modelos que pueden construir con BERT son tan complejos que superan los límites de lo que pueden hacer con el hardware tradicional, por lo que, por primera vez, usan los TPU en la nube más recientes para ofrecer resultados de búsqueda y obtener información más relevante rápidamente .

¿Y cómo nos afecta?

Al aplicar los modelos BERT a los fragmentos destacados y clasificados en la Búsqueda, pueden hacer un trabajo mucho mejor para encontrar información útil. De hecho, cuando se trata de resultados de clasificación, BERT ayudará a Search a comprender mejor una de cada 10 búsquedas en los Estados Unidos, en inglés, y con el tiempo lo llevarán a más idiomas y localidades.

Este nuevo sistema ayuda para consultas más largas y más conversacionales, o búsquedas en las que las preposiciones son muy importantes para el significado, ya que el buscador podrá comprender el contexto de las palabras en cada consulta. En inglés es especialmente importante, ya que un «to» o un «for» en una palabra puede cambiar el significado de forma tremenda.

BERT cambiará radicalmente la forma de usar un buscador en Internet, y eso afectará tanto a los usuarios como a los profesionales SEO.

Comparte en: