Para comprobar si tu Robots.txt tiene el formato correcto

En la categoría de utilidades para sitios web ya os he comentado varias aplicaciones que podemos usar para crear y configurar archivos htaccess, algo fundamental para que nuestra web se comporte de forma correcta ante cualquier circunstancia. Ahora le ha tocado el turno a otro archivo no menos importante: robots.txt.

Robots.txt checker se encarga de analizar el archivo de cualquier sitio web, comprobando si tiene la estructura correcta y avisando en caso de que se encuentre algún error que pueda perjudicar a la lectura de nuestra web por parte de los diferentes buscadores.

Muy recomendable para ampliar nuestros conocimientos sobre un tema que afecta a todos los que vivimos creando proyectos en la web.

Juan Diego Polo

Estudió Ingeniería de Telecomunicaciones en la UPC (Barcelona), trabajando como ingeniero, profesor y analista desde 1998 hasta 2005, cuando decidió emprender creando wwwhatsnew.com.