Google nos ayudará a comprender cómo procesa nuestros sitios web a la hora de indexarlos

entendiendo una página web

Quienes disponemos de sitios web en Internet, uno de los aspectos en los que hemos prestado más atención es en el ofrecimiento de una estética visual atractiva y dinámica, algo que lo habremos logrado mediante el uso de JavaScript y CSS. Quizás no seamos lo suficientemente conscientes de las dificultades que tienen los rastreadores de contenidos a la hora de procesar nuestros sitios web debido al uso de JavaScript, de manera que no procesarán igualmente nuestros sitios web dichos rastreadores a cómo lo procesan los navegadores web modernos que usamos los usuarios.

En este sentido, desde el blog para Webmasters de Google nos dan una serie de pautas que deberemos tener en cuenta para que tanto Googlebot como para el resto de rastreadores de contenidos puedan indexar los contenidos de nuestros espacios web, indicándonos además de que en los últimos meses, el sistema de indexado de Google ha estado procesando un número sustancial de página web de la forma más parecida a cómo lo haría el navegador web de cualquier usuario que lo tenga con JavaScript activado.

Entre las pautas tenemos la recomendación de que permitamos a Googlebot obtener datos en JavaScript y CSS, facilitando mejor el indexado de nuestros contenidos. También tenemos la recomendación de revisar el servidor web de nuestro sitio para que pueda gestionar las solicitudes de rastreo de recursos. La degradación elegante es otro elemento que nos ponen en consideración para que los usuarios puedan disfrutar de nuestros contenidos, aunque sus navegadores no dispongan de implementaciones de JavaScript compatibles, o incluso si lo tienen inhabilitado o desactivado. También es ideal para los rastreadores de contenidos que no pueden ejecutar JavaScript.

También nos señalan que la ejecución de JavaScript puede ser un proceso opaco o complejo para los sistemas, en cuyo caso no podrán procesar nuestros sitios web por completo ni de la forma adecuada. Además, algunos recursos JavaScript eliminan contenido en los sitios web en lugar de añadirlo, imposibilitando su indexado.

En definitiva, que aunque nosotros veamos páginas web elegantes y dinámicas, a los ojos de los rastreadores de contenidos, como Googlebot, no lo serán, suponiendo dificultades para indexar todos sus contenidos. En este sentido, desde la propia publicación señalan que están trabajando en una herramienta que ayudará a los responsables de sitios web a comprender mejor como procesa Google sus propios sitios web, teniendo la intención de ponerla a disposición dentro de unos días dentro de las Herramientas para webmasters.

Imagen de Shuttherstock

Fco. José Hidalgo

Conocido como Cyberfrancis, es entusiasta de los medios audiovisuales, de la creación gráfica y de internet en general.Desempeñó labores de moderación de la comunidad Distrito Internautas durante 3 años, escribió para WSL durante 4 años y actualmente colabora en Wwwhat´s New. Además, compagina su colaboración con la inclusión de los temas de social media.