martes, febrero 07, 2006

Google Sitemaps amplía la información suministrada

Desde hoy, los webmasters que utilizan la herramienta 'Google Sitemaps' tienen a su disposición más información proporcionada por el buscador. Tal y como se anuncia en este post de su blog oficial, ahora se podrá analizar el estado de nuestro fichero 'robots.txt', además de estadísticas ampliadas sobre el PageRank de nuestras páginas, o las palabras más comunes tanto en los contenidos de nuestro sitio web, como en el texto de los links que enlazan hacia el mismo.

El fichero 'robots.txt' se ha convertido en un 'cuasi-estándar' para poner límites a los robots de los buscadores a la hora de que éstos rastreen nuestras páginas web. Dentro de nuestras páginas privadas de 'Google Sitemaps', en la pestaña 'robots.txt', podemos encontrar la información que el robot de Google interpreta sobre lo que le queremos decir.

Por ejemplo, nos muestra la hora del último acceso al fichero y nos advierte en caso de que estemos bloqueando al robot para que éste rastree la página principal (ver imagen). También incluye en la parte inferior un útil simulador de lo que haría el Googlebot para cada una de las URLs que le indiquemos, anticipándonos así a comportamientos inesperados (ver imagen).

En la pestaña 'Stats > Crawl Stats', en la parte inferior obtenemos datos sobre la página web de nuestro sitio web que cada mes posea mayor valor de PageRank (ver imagen). Y en la pestaña 'Stats > Page Analysis', podremos ver cuáles son los términos que más utilizamos dentro de los contenidos de nuestras páginas web, así como con qué palabras otros webmasters enlazan a nuestro sitio (ver imagen).

Este conjunto de nuevas funcionalidades son un aliciente más para que los webmasters utilicemos en nuestros sitios web los ficheros 'SiteMaps' con los que el buscador rastrea mejor todos nuestros contenidos.

No hay comentarios.:

Publicar un comentario