Tecnología

Un paso más en el análisis SEO: la información de los archivos log

seoo
Escrito por Autor Invitado

Como especialistas en SEO cuando realizamos un proyecto no debemos conformarnos con saber cómo avanzan nuestras palabras clave en los resultados de búsqueda ni cuántos usuarios han accedido a nuestro site, necesitamos ir más allá.  Para realizar un análisis SEO completo es necesario conocer determinados factores como son el estado de indexación de nuestras páginas webs, errores de código, etc. Estos factores no sólo afectan a la usabilidad del usuario sino también a nuestro posicionamiento orgánico.  Una de las fuentes principales para obtener esta información es el análisis de los archivos log.

Los archivos log ofrecen información 100% real sobre el comportamiento de los motores de búsqueda en nuestra página web. Nos permiten saber si los motores de búsquedas están indexando nuestras páginas webs, qué páginas rastrean, el Status Code de HTTP, qué robots nos rastrean, etc.

Su principal ventaja frente a otras herramientas es que mediante los archivos log tenemos acceso a la información de nuestra web desde fuera de los navegadores. Por tanto, vamos a encontrar un número de peticiones al servidor muy superior que el que encontraremos en herramientas como Google Analytics.

Pero… ¿qué es un archivo log?

Son archivos que contienen todas las solicitudes que el servidor recibe. Los archivos log registran datos en un servidor. Cada vez que un servidor o sistema operativo realiza una petición a una página web (sin importar a la sección que sea) se añade una línea con la información en el archivo log.

Según el sistema que se utilice, este archivo tendrá más o menos información, pero siempre encontraremos, determinada información como mínimo. En cada fila tendremos información sobre la IP desde la que se realiza la petición, fecha y hora, código de estado http.

Y ahora… ¿qué hago con esta información?

Lo primero de todo va a ser extraer toda la información:

[if !supportLists]         [endif]User-agent
[if !supportLists]         [endif]Fecha y Hora
[if !supportLists]         [endif]Status Code de HTTP
[if !supportLists]         [endif]Tiempo Total

Para realizar el análisis SEO vamos a centrarnos, fundamentalmente, en el Useragent y el Status Code de HTTP. De esta forma tendremos localizada la información por navegadores o robots (por ejemplo) y localizaremos rápidamente las URL que estén dando problemas.

Si queremos analizar, por ejemplo, el comportamiento de GoogleBot (robot de Google) en nuestra página web, deberíamos filtrarlo mediante la casilla de UserAgent localizando el periodo adecuado (en caso de que haya entrado varias veces en un día, sólo analizaremos une de los períodos).

Comprobamos qué páginas están indexando los robots. Junto al tiempo que ha tardado el robot en rastrear la página web, reharemos una columna con el total del tiempo estimado. Cuanto más tiempo esté el robot indexando, más páginas analizará. Normalmente, cuantas más páginas indexe el robot, mayor será la autoridad del dominio. Pero no siempre esto es positivo ya que podemos tener una página web con una gran cantidad de páginas irrelevantes que no nos interesa que se indexen ya que restarán importancia a las páginas principales. Si observamos que el robot indexa dichas páginas, lo mejor es impedir su indexación mediante el archivo robots.txt.

Comprobamos el http Status, las cifras 4XX y 5XX, son errores que debemos corregir. Los parámetros 302, muestran redirecciones temporales; éstas impiden que se transmita el Link Juice de la URL, por lo que debe ser convertido en una 301 (redirección permanente).

Últimamente, las páginas webs están aumentando el número de usuarios que reciben a través del tráfico de referencia spam. Mediante los archivos log podemos localizar los robots que han accedido a la web y conocer su comportamiento. Podemos analizar si sólo ha descargado el archivo html o también ha descargado archivos relacionados, si tan sólo ha entrado en la home o también en páginas concretas.

Analizar todos estos datos y corregirlos, aunque en ocasiones sea costoso, nos puede reportar grandes ventajas en el posicionamiento orgánico de nuestra página web.

angela_egeaLa autora de este artículo es Ángela Egea, licenciada en Publicidad y RR.PP. y especialista en SEO. Actualmente navegando entre sites y haciendo malabares con las keywords en la agencia creativa Quelinka.
 

Sobre el autor de este artículo

Autor Invitado