Analítica Web Open Source para no iniciados

Básicamente existen dos formas de obtener logs de un sitio web para realizar análisis:

  • Los propios logs del servidor web del sitio.
  • Mediante huellas javascript que realizan peticiones a otros servidores.

Esta segunda opción provee de unos logs más enriquecidos y que permiten realizar una analítica más profunda. Es el caso de SmartSource Data Collector de WebTrends, SiteCatalyst de Omniture, Google Analytics y Urchin (ambos de Google), Hitbox…

Este artículo es más bien un pequeño taller para aquellos departamentos de marketing y/o sistemas que quieran probar in situ las bondades de este tipo de herramientas.

Para empezar hemos optado por una herramienta open source muy simple pero que servirá para comprender el funcionamiento de las herramientas basadas en huellas javascript: phpMyVisites.

Requisitos previos: Servidor web con PHP y base de datos MySQL.

  • Descargar phpmyvisites de su página web.
  • Descomprimir en el servidor web.
  • Crear una base de datos y usuario en MySQL.
  • Usar un navegador para acceder vía web a la herramienta.
  • Seguir los pasos de instalación.
  • Pedirá usuario, contraseña y nombre de la base de datos.
  • Por último se realizará la configuración de un sitio web a analizar (se pueden añadir más posteriormente).
  • Una vez configurado el sitio se obtiene una huella javascript para introduccir en el código de las webs a etiquetar.
  • A diferencia de otras herramientas, phpMyVisites recibe una petición a una página PHP de la propia herramienta y registra en la base de datos la información recogida. Lo normal (en otras herramientas) es que la huella haga una petición al servidor de analítica y registre en el log del servidor web la información recogida para su posterior análisis. Obviamente la solución propuesta por phpMyVisites no es para sitios con excesivo tráfico.

Con estos pasos realizados e incluyendo el código javascript en las páginas ya podemos ver los resultados en phpMyVisites accediendo vía web. Cuenta con la ventaja de mostrar resultados en tiempo real, sin falta de realizar análisis previos. Por contra es una herramienta muy simple.

Por último en el panel de administración se pueden configurar algunas opciones como reportes, envío de correos, boletines, crear usuarios… También se explica como contabilizar descargas de documentos, definir variables…

Además esta herramienta cuenta con un panel de gestión de plugins. Un plugin muy interesante es ClickHeat, al estilo de SmartView en WebTrends, que permite mostrarnos sobre la propia página la densidad de clics.
Para activarla seguir los siguientes pasos:

  • En el panel de Administración ir a “Manage plugins” y activar Clickheat.
  • Se mostrará en el menú “Páginas vistas”, acceder a él y seguir los pasos de configuración.
  • Un vez listo se mostrará el icono en la parte superior y un enlace con el código javascript para incluir en las páginas que se desee obtener un “heatmap” (mapa con densidad de clics).

Aquel que lo desee puede consultar la documentación de la herramienta para profundizar en su funcionamiento y configuración: documentación phpMyVisites

fuente:Asociación Española de Analítica Web de

SEO y Analítica Web II

Volvemos a la carga con la Analítica Web y el SEO. Habiendo ya esbozado unos KPIs sugeridos, pasamos a tablas (a las que recurrir a la vista de los datos), limitaciones (de la Analítica Web) y trucos (para solventarlas).

Tablas de Análisis

De poco nos sirve un rompedor KPI si no somos capaces de actuar sobre sus resultados. Y hay una línea muy fina entre la aceptación contemplativa y el análisis revelador.

Por eso, del mismo modo que tenemos que acertar con el ámbito de alcance y las métricas usadas para cada indicador/KPI, no se nos puede escapar este segundo paso.

Sin perder mucho más tiempo, aquí propongo una serie de tablas destinadas a desglosar los datos arrojados por los indicadores propuestos (prefiero dejar la palabra “segmentar” para aquellas tablas y acciones que permitan clasificar a nuestros visitantes en diferentes compartimentos):

  • Pages by crawler (robot) requests
  • Pages by number of Yielded Phrases
  • Conversions (counter) per Organic Search Phrase
  • Revenue per Organic Search Phrase
  • Conversions (counter) per Yielded Page (SEO)

(van en inglés por facilitar su análisis comparativo –Benchmarking– y no salirnos de lo comúnmente utilizado en el mercado, a riesgo de enfadar a uno de los principales testigos de honor de este aforo: El idioma castellano )

Como puede verse, la idea es permitir la investigación una vez que el indicador no nos satisface (resultados negativos frente a periodo de control o crecimiento inferior al objetivo). En la mayor parte de los casos, este desglose consiste en una muestra de detalles por página, frase de búsqueda o ranking de resultados (no uso esta última dimensión aquí).

Acción

De este modo, nuestras acciones de mejora podrían incluir (a partir de los datos observados) el repaso “en casa” y “en la calle” a las páginas que:

– Han mostrado estar únicamente indexadas para un número muy limitado de palabras.
– No han sido siquiera “escaneadas” por los spiders de buscadores (Googlebot en el caso de Google).
– Han sido escaneadas pero no indexadas.
– Han sido indexadas para no mostradas, por aparecer más allá de la primera o segunda página de resultados.
– Han sido mostradas y vistas, pero el usuario no ha pasado de su visualización (al resto de la casa, a tomar acción, a darnos sus datos, a contratar… a Convertir).

Y este repaso podrá prestar especial atención al detalle de palabras de búsqueda arrojado por algunas de las tablas arriba indicadas.

¿Funciona?

Como cuando vemos a Arguiñano cocinando, habrá que esperar y ver cómo sale de la olla (aunque en la tele te pasan tres anuncios y a la vuelta ya ha pasado la media hora de cocción).

En en el caso de SEO, la cocción es lenta. Por lo que tendremos que esperar unas semanas antes de volver a coger el Scorecard para comprobar que hemos tenido éxito o pasar a la siguiente acción.

Maravilloso, pero ¿qué herramienta me da a mi los datos de actividad de robot, indexación por herramienta de búsqueda o posición en resultados?

Aquí está el problema. Ninguna herramienta de Analítica Web. Porque han nacido para jugar “en casa”. La Analítica Web es en realidad la Analítica de Tu Web. Bienvenido a la república independiente de tu web. Tus contenidos.

Es por eso que necesitamos recurrir a herramientas complementarias, cuya información alimentará igualmente nuestro Scorecard (del mismo modo que lo hacen con frecuencia datos externos de negocio o benchmarking).

Aquí no me voy a explayar, con lo que me limito a enumerar unas cuantas posibilidades, muchas de ellas de sobra conocidas por los expertos SEO. Se trata de herramientas que miden lo que ocurre “en la calle”:

  • Google Webmaster Tools (si nos centramos en Google, que es lo que ocurre ahora mismo en el mercado español).
  • Google Trends for Websites.
  • WebTrends WebPosition (a pesar de que Google ya ha dejado claro que no le gustan los spiders externos, WebTrends se ha puesto las pilas y asegura que ha implantado una política de “escaneo” compatible con las directrices de Google).
  • Herramientas de análisis de logs: Parece la vuelta a la prehistoria, pero ¿Cómo si no obtener los datos de Crawlers contra páginas si Googlebot no lee JavaScript?. Al final no hablamos de algo tan drástico, sino de tener la posibilidad de procesar unos cuantos logs de servidor HTTP cuando la situación lo exija. El mercado está inundado de herramientas gratuitas a estos efectos (pienso en Webalizer) y algunas de las herramientas que ya usamos bajo el método JavaScript (mediante instalación local) sirven igualmente para procesar logs (caso de WebTrends Analytics o Unica NetInsight).

Me dejo únicamente fuera algunos trucos expuestos el otro día para adecuar nuestras herramientas de uso ordinario (Omniture, WebTrends, Google Analytics) a la obtención de algunos de los KPIs y Tablas expuestos (asumiendo que ya contamos con algunas de las ayudas externas arriba expuestas).

fuente: Asociación Española de Analítica Web de