Barcamp 2009 – Habia una vez web analytics

Juan Damia de Anlaytics 2.0

El grado de desarrollo del análisis web esta formado por:

  1. Adquisición de trafico
  2. Análisis de comportamiento de los usuarios
  3. Optimización Web
  4. Conexión multi-canal.

La realidad es que el valor de conversion no es el unico factor que hay que tener en cuanta.

Para eso nos ayuda Analytics y lo tenemos que usar como herramienta para la correcta medición del trafico de nuestra Web para despues poder usar esos datos en optimizar el sitio.

Les dejo el post generado por Analytics 2.0 sobre la presentación.

http://analytics20.org/es/eventos/barcamp-eventos/y-paso-un-tercer-barcamp-con-web-analytics-se-me-pianta-un-lagrimon/

 

Analytics – Buenas recomendaciones

Ultimamente estuve leyendo varias cosas sobre el Google Analytics.

Les dejo los links que mas me interesaron para compartirlos con todos ustedes:

Por ahora les dejo esos, seguramente seguiran entrando buenos posts y los seguire subiendo

Salu2

Agustín

La Analítica Web es antónimo de Despilfarro

Empecemos el año que se vaticina como el de la Gran Crisiscon un mensaje de tranquilidad:

Nadie va a dejar de invertir en medición porque todo el mundo quiere saber en qué se está gastando el dinero. Al contrario, veremos más inversión en los mecanismos de control y optimización del gasto publicitario.

En otras palabras, en tiempos de control de costes, lo primero que todos necesitamos es averiguar cuántos vasos de zumo podemos servir a partir de un número determinado de naranjas exprimidas.

Trasladando esto al microsomos del Marketing Online:

Voy a gastarme 4 naranjas mensuales en búsqueda esponsorizada (”PPC”) y banners (”CPM” mayormente), pagando media naranja de comisión a las agencias que me gestionen ambas cosas (que podrían ser dos diferentes, cada una especializada en un tipo de campaña).

Además, voy a gastarme otra naranja y media en un software o servicio de mailings para hacer varias campañas de marketing directo por correo electrónico.

Ya llevo 6 naranjas consumidas mensualmente. ¿Cuántos vasos de zumo he obtenido?

No lo sé.

¿Estoy dispuesto a gastar un gajo de naranja para saberlo si cada naranja tiene 8 gajos?

¿O prefiero no despilfarrar ese gajo y dejar que acompañe al resto en el gasto mensual que no puedo medir?

Veamos.

1. Podría gastar las 6 naranjas y recibir esta información a posteriori (de las dos agencias que me gestionan el PPC y los banners respectivamente)

2. Podría gastar 5 naranjas y 7 gajos en publicidad y dedicar un sólo gajo a obtener esto:

– Informe que me dice qué campañas han funcionado mejor

– Informe que denuncia palabras en PPC que aparentemente funcionan (atraen tráfico o muestran una elevada tasa de click de paso/”CTR”) y por tanto engañan a la agencia, pero que en combinación con procesos internos demuestran atraer a tráfico de muy baja calidad (usuarios que no pertenecen a nuestro mercado natural)

– Informe que denuncia esfuerzos de SEO (posicionamiento natural) mal enfocados

– Informe que demuestra que las campañas gestionadas por la agencia B funcionan mejor que las gestionadas por la agencia A

– Informe de monitorización rutinaria de campañas de mailing y banners mostrando qué combinaciones de mensajes, destinatarios/medios y páginas de aterrizaje funcionan mejor

¿¿Y todo eso por 1 gajo??

Veamos cuánto he ahorrado:

  • El coste de las palabras no fructíferas ha sido de 1 naranja.
  • El coste de las campañas de banner cuyas páginas de aterrizaje no han sido bien concebidas representa 4 gajos.
  • La mala distribución de mensajes, páginas de aterrizaje y listas de correo (consecuencia de la falta de medición) echa por tierra el 50% de posibilidades de las campañas de mailing (a un coste de 6 gajos).
  • El coste del SEO mal enfocado es de 3 meses de coste de oportunidad.
  • El sobrecoste de la agencia menos eficiente representa 4 gajos.

Beneficio total: 3 naranjas.

Y ni siquiera hemos ponderado otras ganancias fácilmente cuantificables:

– Conocemos mejor a nuestra audiencia (en función de la web y campaña de origen podremos tener una buena visión acerca de los diferentes segmentos).
– Estaremos resolviendo patologías en el uso de nuestros procesos transaccionales.

Conclusión

Si quieres controlar costes, empieza por averiguar en qué te estas gastando el dinero. El ROI(Retorno en la Inversión) de tu gasto en medición está más que demostrado con tu capacidad de obtener el ROI de tu gasto en marketing y optimización de procesos en Internet.

fuente: Asociación Española de Analítica Web de 

Selección de 50 recursos para exprimir a Google Analytics

Excelente post de CosasSencillas.com

Aunque para la mayoría de los usuarios Analytics, no deja de ser una interfaz muy interesante con gráficos, pero en eso no solo se queda la cosas. Google Analyticses un servicio gratuito de estadísticas de sitios web. Ofrece información agrupada según los intereses de tres tipos distintos de personas involucradas en el funcionamiento de una página: ejecutivos, técnicos de marketing y webmasters.

Se pueden obtener informes como el seguimiento de usuarios exclusivos, el rendimiento del segmento de usuarios, los resultados de la campaña de marketing, el marketing de motores de búsqueda, las pruebas de versión de anuncios, el rendimiento del contenido, el análisis de navegación, los objetivos y proceso de redireccionamiento o los parámetros de diseño web.

Pero para mi sorpresa, a través del blog anieto2k, descubro un artículo sobre Google Analytics, se trata de 50 Resources for Getting the Most Out of Google Analytics. En el artículo mencionado nos proporciona una buena lista de recursos que de seguro nos yudarán a todos, desde el principiante hasta los que lo usan a diario, a aprender a sacar el mayor provecho de esta gran herramienta. Sin duda estos recursos te pueden ayudar a exprimir Google Analytics para tenerlo completamente dominado y trabajando a tu merced.

Espero que les sea tan útil como para mí

Salu2

Agustín

Conciliando datos de diferentes herramientas

Resulta bastante habitual la “convivencia” de varias herramientas en el seguimiento de la actividad de un mismo sitio web. Desde aquellos casos en los que se está realizando una migración y se desea cotejar, dentro de un mismo intervalo temporal, los datos vertidos por la herramienta nueva frente a la antigua, hasta la más habitual coexistencia permanente, de una herramienta de pago con una o varias cuya licencia de uso es gratuita.

En ambos casos las disparidades experimentadas son una realidad con la que “luchamos” a diario. Asumiendo la utilización de sistemas de medición basados en tags, voy a profundizar en las posibles causas que las justifican siguiendo los pasos que componen el proceso natural que define el funcionamiento de las herramientas de analítica web:

1. Envío/Recepción de información

Cada una de las herramientas emplea un “snippet” JavaScript propio que ese ejecuta al margen del resto y que fuerza el envío síncrono de información en la carga de la página desde el navegador del usuario. Se trata de operaciones independientes, que establecen comunicaciones con diferentes servidores, alojados en ubicaciones separadas.

En otras palabras, diferentes datos viajan en diferentes trenes, por diferentes vías y con diferentes destinos … ¿se puede garantizar que todos llegarán a su destino? Evidentemente la respuesta es NO.

2. Procesamiento de los datos recopilados

Como ya habíamos hablado en otras ocasiones, el estado de alineación de los fabricantes de herramientas con las definiciones propuestas por la WAA es dispar. Cada cual ha optado -o no- por poner “las cartas sobre la mesa”, como ya expusimos semanas atrás aquí.

Sobre esta premisa solo cabe decir que algunas métricas y dimensiones habitualmente empleadas (sobre todo las basadas en marcas de tiempo o el seguimiento del visitante/sesión) varían de unas herramientas a otras, por lo que cualquier análisis de disparidades necesariamente tiene que tomar esas diferencias en consideración.

3. Presentación de resultados

Aunque menos relevante para la mayoría de los casos, cabe reseñar que algunas herramientas utilizan el muestreo (sampling) en la presentación de los informes, esto es, los datos presentados se basan en un subconjunto de los datos recopilados únicamente.

La presentación de informes en tiempo real, basados en grandes volúmenes de tráfico, son la principal justificación para la utilización de esta técnica que,  siendo más precisos, presenta diferentes variantes que pueden dotarla de mayor protagonismo (recomiendo este post para profundizar en este tema).

 

La carrera de obstáculos, invita a pensar que la situación ideal pasa por la utilización de una única herramienta. Avinash hizo hace unas semanas un checklist muy interesante al respecto en su blog.

Se trata de un tema difícil de resumir, por lo que asumo los riesgos de mi empeño por condensar conceptos e ir de lleno a por los “greatest hits”… espero que sirva de ayuda!

fuente: Asociación Española de Analítica Web de 

¿Más visitas que páginas vistas?

Por desgracia, todavía queda mucha gente analizando logs de servidor web (y no obtenidos mediante Tag). No discutiremos ahora sus razones (que son muchas), pero sí uno de los problemas recientemente planteados en la gestión de campañas a partir de logs:

En mi dashboard obtengo más visitas que paginas vistas.

¿Cómo puede ser esto posible?

En primer lugar indicar que las páginas vistas miden la visualización de archivos con formatos como html, htm, jsp, etc..y por otro lado las visitas se miden a través del acceso de una ip o cookie que visita el sitio web.

En archivos de (web server) logs tenemos, además de páginas, otros elementos (hits) como son las imágenes jpg, gifs, o las hojas de estilo css. Esto no se incluye como página vista porque en realidad no son páginas.

Pues bien, puede darse el caso de que otros sitios web linquen a imágenes de tu propio sitio web, es decir, se hace una petición de una imagen al servidor, en la herramienta por tanto aparecerá una visita, pero ninguna página vista.

En este caso se debería decidir que es lo que mejor conviene, si excluir estas visitas, que realmente no han accedido al sitio web, o tenerlas en cuenta ya que están accediendo a un recurso de nuestro sitio web.

Una vez más, un dilema que no se presentara cuando usemos Tags (o huellas).

fuente: Asociación Española de Analítica Web de 

Analítica Web sí, accesibilidad también

Dentro de un proyecto de Analítica Web, es muy común encontrarse con escenarios en los que es necesario utilizar funciones que permitan “forzar” el envío de datos para llevar a cabo el seguimiento de distintos eventos. Algunos ejemplos de estas situaciones podrían ser:

  • Descargas de documentos
  • Clicks en elementos promocionales
  • Suscripciones a un canal RSS
  • Uso de reproductores (audio/video)
  • Utilización de widgets
  • Acciones en formularios

Una vez que ya hemos decidido los elementos sobre los cuales vamos a realizar el análisis del comportamiento de los usuarios, tenemos que proceder a la modificación del código fuente para poder recopilar datos que nos permitan “alimentar” los informes.

Implementación

La implementación es bastante sencilla, ya que consiste en invocar a la función encargada de enviar los datos (que obviamente variará dependiendo de la herramienta de analítica que se esté implantando) en el momento que el usuario interactúe con el elemento que vamos a medir. Esto se traduce a los distintos eventos de JavaScriptonClick, onChange, onBlur, etcétera.

Cuando consultamos la documentación de las distintas herramientas, con frecuencia nos encontramos con ejemplos como el siguiente:

<a href=”http://www.miweb.com/fichero.pdf” title=”Enlace de descarga”onClick=”javascript:nombreFuncion(’/descargas/nombreFichero’); “>

En este caso podemos ver como se efectúa la llamada a la función en el evento onClick de un enlace de descarga de un documento PDF.

Algunos cuestionan este mecanismo alegando (con razón) que se trata de una mala práctica puesto que no separa la capa de comportamiento de las capas de contenido, afectando (entre otras cosas) a la accesibilidad y al cumplimiento de los estándares web.

Afortunadamente, existen alternativas para poder hacer las dos cosas: recoger los datos necesarios para las herramientas de analítica Web y cumplir con los estándares.
Los equipos de desarrollo tienen la posibilidad de valorar si el esfuerzo extra merece la pena.

Por último, para aquél que esté interesado en el tema (y aún no la conozca) le recomiendo que le eche un vistazo a JQuery.

fuente: Asociación Española de Analítica Web de 

Cuando Eli Goldratt conoció Web Analytics

Los proyectos web deben maximizar su beneficio, para ello es necesario sacarle el máximo provecho a “la capacida instalada”, o sea a lo que ya tenemos.

El máximo provecho se obtiene generando que mas “cosas de las que queremos que ocurran” finalmente pasen. La cantidad de cosas que pasan por un sistema se denomina throughput.

El throughput es la cantidad efectiva de flujo que hay en un sistema. O sea, si simplificamos al maximo nuestro proyecto web y decimos que el sistema está compuesto por tres pasos.

  1. Campana de SEM.
  2. Pagina de producto.
  3. Venta.

Entonces supongamos que tenemos 50 personas que hacen click en la campana de SEM, 30 que hacen click en un producto y 10 que compran. El throughput cuanto será en este sistema? Solo 10!

O sea por el sistema pasan solo 10 cosas de las que queremos que pasen.

Ahora bien, en todos los pasos tenemos restricciones. Del total de impresiones no tenemos todos clicks, de todos los clicks no todos son landings, de todas las landings no todos se interesan por un producto y finalmente de todos los que se interesan por un producto compran (podríamos agregar un paso más, MUY importante, no todos los que compran vuelven a hacerlo, o sea “Recompra”).Veamos un ejemplo bien representativo de lo que se hace actualmente.

Supongamos un proyecto donde tenemos un sitio de ecommerce, el sitio de e-commerce recibe leads (o potenciales clientes) de una campana de banners.En este caso el proceso va a ser:

  1. clicks 1.000.
  2. vista de producto 200.
  3. compra 50.

Cuál es el throughput del sistema? Bueno, parece simple, solo 50 unidades.

Para vender más generalmente los manager incrementan el presupuesto publicitario, que básicamente lo que hace es solo incrementar de manera directa la cantidad de clicks.

Ahora bien, porque aumentar la cantidad de impresiones para llevar más gente al site, si el problema no está ahí. O sea, claro que vamos a generar un efecto en las ventas ya que es un sistema, o sea un conjunto de cosas interrelacionadas que tienen un objetivo común.

O sea modificando cualquier actividad, vamos a modificar el comportamiento del resto del sistema. Ahora, si en lugar de ver todo separado analizamos el throughput, la respuesta parece ser mucho más sencilla.

El problema, o restricción esta en las ventas. A que deberíamos aspirar como paso 1 en el sistema del modelo de ejemplo? Deberíamos antes que nada ver que impide que de 200 interesados solo 50 compren.

Esa y solo esa es en este momento nuestra restricción. Y cualquier modificación que hagamos en ese paso va a generar mucho mas resultados que cualquier otra.

Por qué? Piensen en el villar, golpeamos una bola blanca con un taco con una fuerza determinada, está a su vez golpea otra bola con menor fuerza y así a cada bola posterior. Si necesitamos golpear con fuerza a la última bola, deberíamos pegarle directamente a esta.

En este caso es igual, debemos apuntar nuestros esfuerzos de manera directa a nuestro “cuello de botella”. Y cabe agregar, SOLO a nuestro cuello de botella.

Apuntar varias cosas a la vez no solo reduce el efecto en el cuello de botella (los recursos son escasos y cuanto más cosas haga, menos invierto en cada una de ellas), sino que además modifica todo el sistema dejándonos sin control sobre las acciones implementadas.

fuente: Analytics 2.0 en español de

Ask your vendor

Como ya comentaba hace unas semanas, la revisión de la WAA de las métricas y definiciones utilizadas en la industria nos invitaba a preguntar al fabricante de nuestra herramienta pues, en algunos casos, se habían identificado criterios dispares.

Se acerca el cierre del borrador de la revisión (se consolida a final de año) y algunos fabricantes/profesionales afines de reconocida reputación, en un ejercicio de transparencia a mi entender, han ido haciendo público su “estado de alineación” con las definiciones publicadas. Dejo aquí algunos enlaces que he ido recopilando y que espero pueden resultar interesantes:

Siguiendo una entrada al respecto en el blog de Eric T. Perterson, parece que los siguientes en publicarlo serán Omniture y NedStat…

fuente: Asociación Española de Analítica Web de

Analítica Web Open Source para no iniciados

Básicamente existen dos formas de obtener logs de un sitio web para realizar análisis:

  • Los propios logs del servidor web del sitio.
  • Mediante huellas javascript que realizan peticiones a otros servidores.

Esta segunda opción provee de unos logs más enriquecidos y que permiten realizar una analítica más profunda. Es el caso de SmartSource Data Collector de WebTrends, SiteCatalyst de Omniture, Google Analytics y Urchin (ambos de Google), Hitbox…

Este artículo es más bien un pequeño taller para aquellos departamentos de marketing y/o sistemas que quieran probar in situ las bondades de este tipo de herramientas.

Para empezar hemos optado por una herramienta open source muy simple pero que servirá para comprender el funcionamiento de las herramientas basadas en huellas javascript: phpMyVisites.

Requisitos previos: Servidor web con PHP y base de datos MySQL.

  • Descargar phpmyvisites de su página web.
  • Descomprimir en el servidor web.
  • Crear una base de datos y usuario en MySQL.
  • Usar un navegador para acceder vía web a la herramienta.
  • Seguir los pasos de instalación.
  • Pedirá usuario, contraseña y nombre de la base de datos.
  • Por último se realizará la configuración de un sitio web a analizar (se pueden añadir más posteriormente).
  • Una vez configurado el sitio se obtiene una huella javascript para introduccir en el código de las webs a etiquetar.
  • A diferencia de otras herramientas, phpMyVisites recibe una petición a una página PHP de la propia herramienta y registra en la base de datos la información recogida. Lo normal (en otras herramientas) es que la huella haga una petición al servidor de analítica y registre en el log del servidor web la información recogida para su posterior análisis. Obviamente la solución propuesta por phpMyVisites no es para sitios con excesivo tráfico.

Con estos pasos realizados e incluyendo el código javascript en las páginas ya podemos ver los resultados en phpMyVisites accediendo vía web. Cuenta con la ventaja de mostrar resultados en tiempo real, sin falta de realizar análisis previos. Por contra es una herramienta muy simple.

Por último en el panel de administración se pueden configurar algunas opciones como reportes, envío de correos, boletines, crear usuarios… También se explica como contabilizar descargas de documentos, definir variables…

Además esta herramienta cuenta con un panel de gestión de plugins. Un plugin muy interesante es ClickHeat, al estilo de SmartView en WebTrends, que permite mostrarnos sobre la propia página la densidad de clics.
Para activarla seguir los siguientes pasos:

  • En el panel de Administración ir a “Manage plugins” y activar Clickheat.
  • Se mostrará en el menú “Páginas vistas”, acceder a él y seguir los pasos de configuración.
  • Un vez listo se mostrará el icono en la parte superior y un enlace con el código javascript para incluir en las páginas que se desee obtener un “heatmap” (mapa con densidad de clics).

Aquel que lo desee puede consultar la documentación de la herramienta para profundizar en su funcionamiento y configuración: documentación phpMyVisites

fuente:Asociación Española de Analítica Web de

El porcentaje de rebote afecta al posicionamiento

Me ha parecido muy interesante este artículo que corrobora un elemento que desde hace ya un año tenía bastante presente a la hora de realizar posicionamiento en buscadores.

Uno de los elementos que los buscadores tienen en cuenta y que saben gracias a muchas de las herramientas (como pueden ser las barras de herramientas, sus navegadores propios o retocados, sus sistemas de analíticas, o los propios resultados de búsqueda) es el tiempo de permanencia en un sitio web.

Lógicamente, este tiempo de permanencia suele ir muy relacionado con la cantidad de páginas vistas que uno pasa en el sitio… de forma que por norma general si tiene un alto tiempo de permanencia tu porcentaje de rebote suele ser menor…

Lo curioso del artículo es que lo haya probado a demostrar, aunque personalmente a mi no me acaban de cuadrar muchos los gráficos que propone… ya que debería ser inversamente proporcional, y a menor porcentaje, mayor número de visitas… por cierto, que hace tiempo, por lo que parece, hubo alguien que también probó este mismo experimento…

fuente: OJObuscador de

Google Analytics dentro de Flash

Hasta ahora uno de los problemas más grandes de la analítica web era poder medir la navegación que se hacía dentro de los contenidos en Flash o Flex.

Ahora, gracias a una aplicación llamada Google Analytics for Flash se podrá medir, por ejemplo, las visualizaciones de vídeos o la navegación que se hace dentro de uno de ellos.

Por ahora se cubre:

  • Flash visual component
  • Flash AS3 library
  • Flex MXML component
  • Flex AS3 library

fuente: OJObuscador de

WordCampBA 2008 – Charla 3 Analytics para blogs

Web Analytics para Blogs

Andrés Snitcofsky   @ams

Porque se bloguea?

  • Ganar dinero
  • Ser famoso
  • Aprender
  • Ser reconocido por los pares

Existen mil razones. Igualmente existen mil métricas y herramientas distintas para evaluar los blogs.

Procesos para definir mediciones:

  1. Definir objetivos (porque lo hacemos?)
  2. Establecer acciones
  3. Seleccionar métricas (KPI) relevantes
  4. Definir la mejor herramienta para medir
  5. Medir y tomar acciones

Se debe estudiar el tiempo de estudio y periodo en análisis y buscar el tiempo óptimo

Herramientas:

Reportes personalizados y definidos por el usuario para poder segmentar lo que más buscan nuestros visitantes

Análisis de información demográfica.

  • Woopra Tiene un plugin para WordPress

Chat con MUY buenas estadísticas.

Ver el sitio en tiempo REAL

Revisar los tags para que entre menor cantidad de visitas basura.

Interacción y engagement

Se hace una ponderacion de las mediciones definidas por el usuario.

Tracking tolls

Ver como evoluciona la metrica de suscriptores al blog

  • Blog Metrics
  • Analytics para blogs (esta en Beta)

HOWA – Hands on Web Analytics

Desgraciadamente, no pude ir al HOWA, un evento especificamente sobre herramientas de analisis web.

Por suerte Juanette colgo la maayoria de las presentaciones en la pagina del HOWA.

Es realmente interesante todo lo que se dijo, especialmente las mejoras que esta introduciendo Google a su analytics que se esta orientando mucho a las empresas. Seguramente, la unica falencia que encuentre yo en el Google Analytics, sea que no guarda info por mas de 2 años.

Les dejo el vinculo con la info del HOWA:

Presesntaciones

salu2

Agus

Analytics – Introducción y mediciones básicas – Primera parte

Cuando en el plan de marketing planteamos hacer una inversión de publicidad Online, lo primero que nos preguntan es «Como pensas medirla?». La realidad es que la pregunta no es mala, ni desacertada.

La respuesta depende del tipo de sitio que estemos publicitando. Vamos a tomar varios ejemplos para cada caso para ver si se me entiende un poco mejor.

Si tenemos un portal temático, la promoción del sitio que queramos hacer, no es la misma que si tenemos un sitio de comercio electrónico.

Para el portal lo principal es conseguir contactos de los usuarios hacia los anunciantes, ya sea por medio de redireccionamientos, formularios completos, etc. En cambio para el sitio de comercio electrónico, el análisis lo hará en base las ventas por visita. (Estos son solo un ejemplo de las mediciones que se pueden tomar de cada sitio).

Para poder analizar muchas variables en un solo tablero de control es que existen sistemas como Google Analytics.

Este sistema nos permite ver diversos reportes, de los cuales, muchos nos servirán y otros no tanto.

El tema es entender QUE necesitamos medir.

Si lo que necesitamos medir es el uso de formularios debemos plantear distintos objetivos. Cuantos? Tantos como formularios tengamos. Este cumplimiento de objetivos también sirve para el sitio de comercio electrónico, pero de diferente medida. En los objetivos podemos medir que tan bien hechos están nuestros formularios, ya que nos dice que hace la gente ante el mismo (lo completa entero, lo abandona, o no empieza a completarlo). Esto no es la medida mágica para un sitio, es una pata de una mesa con MUCHAS patas.

Otra de las cosas que se pueden tener en cuenta a la hora de mediciones es la tasa de abandono del sitio. Aca es especial el analisis dependiendo del sitio. Si es un blog, tener una alta tasa de abandono, en un blog donde en la pagina principal tenemos todos los post de nuestro sitio, no es un problema, de hecho seguramente tienda a 100%. Entonces de aca debemos analizar, tambien, el tema de la usabilidad del sitio en relacion a las pagina, si una persona entra por la Home page y despues no puede volver a la misma, el indice de abandono por la Home va a ser muy baja. Estas son las cosas que hay que tener en cuenta, a demas de un numero frio que no nos da un comportamiento absoluto.

Con esto no quiero decir que sean las únicas medidas que hay que tener en cuenta, pero sí que cada análisis que hagamos tiene una medida adecuada. Lo único que tenemos que saber es que medición debemos tener en cuenta para cada medición necesaria.

Bueno, espero que les sirva y en breve la 2 parte

Salu2

Agus

Charla 2: Analytics – Tablero de comandos para proyectos web

Gran charla donde explico una forma de hacer un tablero de control EXCELENTE.

Paso a tratar de explicar:

Columna 1: GENERAL DE PROYECTO

Columna 2: TARGET: se va a dividir en la cantidad de objetivos hacia los que queremos hacer el analisis

Columna 3: Objetivos: Deben figurar los objetivos que estamos esperando para cada Target

Columna 4: Estrategias: Camino para alcanzar los objetivos

Columna 5: Metrica: Métricas tangibles para medir el alcance de los objetivos

Columna 6/7/8: Meses de estudio: Deberian figurar:

  1. Mes actual (en estudio)
  2. Mes anterior (mes de analisis -1 mes)
  3. Mes actual del año anterior )mes actual – 12 meses)

Columna 9: Resultados: Que vamos aprendiendo de cada estadistica

Columna 10: Notas: Datos de relevancia que pudieron afectar la campaña que estamos midiendo.

Gran charla

SEO y Analítica Web II

Volvemos a la carga con la Analítica Web y el SEO. Habiendo ya esbozado unos KPIs sugeridos, pasamos a tablas (a las que recurrir a la vista de los datos), limitaciones (de la Analítica Web) y trucos (para solventarlas).

Tablas de Análisis

De poco nos sirve un rompedor KPI si no somos capaces de actuar sobre sus resultados. Y hay una línea muy fina entre la aceptación contemplativa y el análisis revelador.

Por eso, del mismo modo que tenemos que acertar con el ámbito de alcance y las métricas usadas para cada indicador/KPI, no se nos puede escapar este segundo paso.

Sin perder mucho más tiempo, aquí propongo una serie de tablas destinadas a desglosar los datos arrojados por los indicadores propuestos (prefiero dejar la palabra “segmentar” para aquellas tablas y acciones que permitan clasificar a nuestros visitantes en diferentes compartimentos):

  • Pages by crawler (robot) requests
  • Pages by number of Yielded Phrases
  • Conversions (counter) per Organic Search Phrase
  • Revenue per Organic Search Phrase
  • Conversions (counter) per Yielded Page (SEO)

(van en inglés por facilitar su análisis comparativo –Benchmarking– y no salirnos de lo comúnmente utilizado en el mercado, a riesgo de enfadar a uno de los principales testigos de honor de este aforo: El idioma castellano )

Como puede verse, la idea es permitir la investigación una vez que el indicador no nos satisface (resultados negativos frente a periodo de control o crecimiento inferior al objetivo). En la mayor parte de los casos, este desglose consiste en una muestra de detalles por página, frase de búsqueda o ranking de resultados (no uso esta última dimensión aquí).

Acción

De este modo, nuestras acciones de mejora podrían incluir (a partir de los datos observados) el repaso “en casa” y “en la calle” a las páginas que:

– Han mostrado estar únicamente indexadas para un número muy limitado de palabras.
– No han sido siquiera “escaneadas” por los spiders de buscadores (Googlebot en el caso de Google).
– Han sido escaneadas pero no indexadas.
– Han sido indexadas para no mostradas, por aparecer más allá de la primera o segunda página de resultados.
– Han sido mostradas y vistas, pero el usuario no ha pasado de su visualización (al resto de la casa, a tomar acción, a darnos sus datos, a contratar… a Convertir).

Y este repaso podrá prestar especial atención al detalle de palabras de búsqueda arrojado por algunas de las tablas arriba indicadas.

¿Funciona?

Como cuando vemos a Arguiñano cocinando, habrá que esperar y ver cómo sale de la olla (aunque en la tele te pasan tres anuncios y a la vuelta ya ha pasado la media hora de cocción).

En en el caso de SEO, la cocción es lenta. Por lo que tendremos que esperar unas semanas antes de volver a coger el Scorecard para comprobar que hemos tenido éxito o pasar a la siguiente acción.

Maravilloso, pero ¿qué herramienta me da a mi los datos de actividad de robot, indexación por herramienta de búsqueda o posición en resultados?

Aquí está el problema. Ninguna herramienta de Analítica Web. Porque han nacido para jugar “en casa”. La Analítica Web es en realidad la Analítica de Tu Web. Bienvenido a la república independiente de tu web. Tus contenidos.

Es por eso que necesitamos recurrir a herramientas complementarias, cuya información alimentará igualmente nuestro Scorecard (del mismo modo que lo hacen con frecuencia datos externos de negocio o benchmarking).

Aquí no me voy a explayar, con lo que me limito a enumerar unas cuantas posibilidades, muchas de ellas de sobra conocidas por los expertos SEO. Se trata de herramientas que miden lo que ocurre “en la calle”:

  • Google Webmaster Tools (si nos centramos en Google, que es lo que ocurre ahora mismo en el mercado español).
  • Google Trends for Websites.
  • WebTrends WebPosition (a pesar de que Google ya ha dejado claro que no le gustan los spiders externos, WebTrends se ha puesto las pilas y asegura que ha implantado una política de “escaneo” compatible con las directrices de Google).
  • Herramientas de análisis de logs: Parece la vuelta a la prehistoria, pero ¿Cómo si no obtener los datos de Crawlers contra páginas si Googlebot no lee JavaScript?. Al final no hablamos de algo tan drástico, sino de tener la posibilidad de procesar unos cuantos logs de servidor HTTP cuando la situación lo exija. El mercado está inundado de herramientas gratuitas a estos efectos (pienso en Webalizer) y algunas de las herramientas que ya usamos bajo el método JavaScript (mediante instalación local) sirven igualmente para procesar logs (caso de WebTrends Analytics o Unica NetInsight).

Me dejo únicamente fuera algunos trucos expuestos el otro día para adecuar nuestras herramientas de uso ordinario (Omniture, WebTrends, Google Analytics) a la obtención de algunos de los KPIs y Tablas expuestos (asumiendo que ya contamos con algunas de las ayudas externas arriba expuestas).

fuente: Asociación Española de Analítica Web de

SEO y Analítica Web

Para los que no estan al tanto (AUN) de la importancia del SEO y de como hacerlo eficientemente, les dejo el siguiente articulo que es excelente:

Para no variar, voy a resumir un poco lo que el otro día vine a contar (en un tiempo récord) en el Internet Marketing Conference de Barcelona.

Hablaba de SEO, tema no poco manido.

Pero lo que más me interesaba era exponer la naturaleza “híbrida” de dichas actividades de “posicionamiento orgánico” en buscadores. Sólo a partir de su aceptación pueden comprenderse las limitaciones que las herramientas de Analítica Web presentan en su medición. Y con ello asimilado estamos a un paso de su superación.

Porque no hablamos de marketing interactivo, ni hablamos de relaciones públicas, ni hablamos de adecuación a estándares, ni siquiera de optimización de contenidos…

SEO se ha erigido en una disciplina “sui generis” que requiere intervenciones en casa y en la calle, esto es: En nuestra web y en las de otros.

Pero esto ya lo sabían quienes hacen SEO. Y mi particular misión es ayudarles a medir y mejorar. Y dejar de nuevo claro que no hay nada más duro que trabajar a ciegas.

En casa

En la medida en la que requiere adaptar contenidos, estructura, descripciones, mapas de dependencia y meta información, SEO constituye una labor de puesta en orden puertas adentro.

Pero ¿qué puertas?. Buena pregunta. Sobre todo ahora que es precisamente gracias a los buscadores que nuestros visitantes entran por la ventana y frecuentemente no pasan de esa primera habitación. Porque cada habitación tiene vida propia.

Ya no hablamos de nuestra web, sino de nuestros contenidos. Nuestra colección de contenidos, dispuestos a volar solos y de un modo u otro atraer a la clientela hacia nuestra particular mansión (o choza) virtual. Con mucha suerte.

(Con esto en mente, a lo mejor no debería uno solicitar que “le hagan una web”, sino que “le monten una plataforma de compartición de contenidos”!).

Vale. ¿Cómo nos afecta?

Hay que medir estos esfuerzos. Y hay que hacerlo con esta idea en la cabeza: Nuestros contenidos son un equipo formado por elementos individualizables, y una vez que uno de sus miembros (pensemos en agentes secretos) engancha a un visitante está en sus manos el atraer a dicho visitante hacia los cuarteles generales (punto de reunión del equipo), en la que tiene lugar la materialización del negocio (monetización del proceso, recopilación de información… Conversión).

Con esto en mente, la misión está clara: Queremos medir la capacidad que cada miembro del equipo (página, widget, vídeo…) tiene, de modo individual, para enganchar a visitantes.

Aquí nos interesa conocer sus argumentos de venta, de seducción (palabras de búsqueda utilizadas).

Además, queremos medir la capacidad que dicho miembro tiene para arrastrar a dichos visitantes a nuestros cuarteles generales (la mansión, la choza… la web), así como el nivel de éxito vinculado a dichos visitantes.

Y lo mejor de todo esto es que seguimos jugando en casa. Porque aunque vuelen por libre, los miembros del equipo están vinculados al resto (y la empresa que la opera) mediante un práctico retransmisor que permite su seguimiento exhaustivo ( salvando los casos excepcionales en que un miembro ve su retransmisor bloqueado por el entorno).

El retransmisor es la Analítica Web. Que ha nacido para jugar en casa.

En la calle

En la medida en la que requiere pescar vínculos relevantes, propagar la voz, ser oído y moverse en los círculos adecuados, SEO se encuadra en el ámbito de las relaciones públicas.

Y todo lo arriba mencionado se escapará al control de nuestras herramientas de gestión doméstica. Porque los transmisores que tan bien funcionan con nuestro “equipo de contenidos” no se pueden colocar indiscriminadamente a contenidos ajenos.

Pero ya dije el otro día que de esto (de optimizar aquello que no controlamos) saben mucho en el mundo del PR (RRPP, Relaciones Públicas), acostumbrados a evaluar lo que, sucediendo fuera, nos afecta terriblemente. Y acostumbrados a influir en esa opinión, en esa reputación.

Objetivos SEO para el Analista Web

Con todo lo dicho dicho, entramos en harina para pensar en alto en la línea habitual:

1. ¿Qué queremos?

A lo bestia, como digo a veces, nuestros objetivos “absolutos” son estos:

  • Encontrabilidad (gran palabra. Fea, pero grande): Mejorar la capacidad que tienen nuestros contenidos de ser encontrados. Aquí me remito a lo ya expuesto por anterioridad en Búsqueda Empresarial.
  • Obtención de los mejores resultados posibles para las palabras asociadas a nuestro mercado, productos/servicios o marca.
  • Capacidad de dirigir nuestros esfuerzos hacia grupos de palabras que aportan mayores beneficios

Si ahora nos centramos un poco más y empezamos a orientar nuestra reflexión hacia la medición y mejora, nos quedamos con una lista más depurada aún (lo que llamamos Objetivos Relativos):

  • Maximizar el número de palabras susceptibles de renderización (muestra + clic) por página (por miembro del equipo)
  • Mejorar el número de páginas renderizadas por herramientas de búsqueda
  • Aumentar el ratio de indexación de nuestras páginas
  • Descubrir qué palabras y páginas de aterrizaje (”landing pages”) aportan mayor índice de conversión
  • Sacar el máximo provecho de nuestro long tail (grupo de palabras que no representan un volumen significativo tomadas una a una, pero tomadas en grupo pueden superar a las que regularmente se asocian a un alto porcentaje de renderizaciones -típicamente las vinculadas a nuestras marcas-)

Vale. Con todo esto, vámonos a por los KPIs:

Para empezar, me quedo con esta lista, directamente vinculada a los objetivos relativos expuestos:

  1. Indexation Rate (Unique Pages)
  2. Index to Crawl ratio
  3. Organic Search Yielded Pages ratio (Page Yield)
  4. Average of Yielded Keywords per Yielded Page (Keyword Yield)
  5. Brand to Non-brand ratio
  6. Conversions (counter) to Yielded Pages ratio
  7. Visitors per Keyword

Para continuar, dejo al que quiera ir aportando algún comentario y mañana sigo con la exposicion del resto: Cómo obtener los datos que alimentan estos KPIs con las limitaciones existentes en las herramientas actuales (que han nacido para jugar “en casa”, insisto) y cómo escoger las tablas de segmentación correspondientes a cada uno de ellos.

fuente:Asociación Española de Analítica Web de

Yahoo! Web Analytics a primera vista (secreta)

Desde hoy, Yahoo! comenzará a ofrecer su nuevo producto analizador de sitios Web llamado “Yahoo! Web Analytics” a clientes selectos. Obviamente en versión beta.

Realmente está a otro nivel. Claro, también es para otro nivel de clientes.

Yahoo! Web Analytics es mucho más poderoso y flexible que Google Analytics por una simple razón: Su enfoque es para pequeñas a grandes empresas y corporaciones que necesiten de información en tiempo real de todo lo que está pasando en su sitio.

“Tiempo real” es la gran ventaja. En la demostración se vio como un usuario se paseaba por un sitio web de noticias, se puede seguir todos sus pasos, ver qué artículos lee, y que enlaces aprieta y cuánto tiempo se queda pegado en una página en particular. Luego podemos ver un resumen de comportamiento. Notable.

Ver el comportamiento en tiempo real de un usuario no es necesariamente cosa nueva, pero la manera en que Yahoo! Web Analytics lo interpreta mediante gráficos precisos y resúmenes de acciones es lo que lo hace destacarse.

Imaginense la informacion que podemos conseguir, en cuanto al e-marketing. Viendo las entradas reales en tiempo real, podemos analizar el impacto primario del mail, etc.

Este servicio nació de la adquisición en mayo pasado de IndexTools por parte de Yahoo! y ya lo está ofreciendo a empresa en una primera etapa. Muy pronto también pretenden entregarlo al resto de nosotros, los consumidores finales para que veamos y entendamos lo que hacen esos 3 usuarios en nuestros blogs personales.

Link: Introducing Yahoo! Web Analytics (Yahoo!)

fuente: FayerWayer de

Revisión de la “Official WAA Definition of Web Analytics”

Desde hace un par de semanas está disponible en la siguiente dirección el documento/glosario con la última revisión de las definiciones oficiales de la WAA.

Incorpora, como principal novedad, una sección “Ask your vendor” en aquellos casos en los que se han observado disparidades entre las formas de calcular una determinada métrica por parte de los diferentes fabricantes.

El documento, en fase de revisión/borrador actualmente, será consolidado al finalizar el año. A través del siguiente enlace pueden realizarse comentarios/sugerencias al comité de estándares al cargo de esta publicación.

fuente: Asociación Española de Analítica Web de