Etiquetas
Este martes pasado, 28 de mayo, se realizó una nueva edición (la 4ª) del GAUC (Google Analytics User Conference) en España, esta vez en Barcelona (en el Media-TIC de Cibernarium) y en única edición, reuniendo muchos expertos y usuarios de la herramienta de medición de Google, Analytics.
Asistí y… he aquí mi ‘resumen’: Todo sobre el GAUC 2013.
Ponencias:
[toggle_container keep_open=»false» initial_open=»»]
[toggle title=»1- Paul Muret: The future of Measurement«]
Tras la entrada y presentación por parte de Enric Quintero (@enricquintero), de Metriplica, empezó la primera ponencia con Paul Muret, uno de los fundadores de Urchin y actual director de Ingeniería de Google Analytics, con el tema: The future of Measurement.
Paul hizo un rápido recorrido por el pasado tecnológico para terminar con… ‘el futuro ya está aquí’ con Google Glass, Google Chauffeur y Google Now, haciendo especial hincapié en los cambios importantes y rápidos en cuanto a dispositivos, canales, mercados,…
Como novedades…
- Más importancia a las secciones de Adquisición- Interacción y Conversión
- Secciones que cambiarán de nombre
- Más potencia, personalización y facilidad para segmentar
- Mayor personalización para las fuentes de tráfico (definir canales, poner normas o reglas, mejora de las atribuciones,…)
[/toggle]
[toggle title=»2- Pere Rovira: Big (Data) y Google Analytics (Premium)«]
La segunda ponencia corrió a cargo de Pere Rovira, de Webanalytics – Havas Media, hablándonos del Big (Data) y Google Analytics (Premium).
Pere se centró en 4 funcionalidades de Google Analytics (Premium) íntimamente relacionadas con el Big Data:
- Sampling: esta característica desaparece en la versión Premium de la herramienta (si nos descargamos sus informes) en contraposición con la versión free que trabaja, por ejemplo con muestras del 40-50%. El analista, ante estas distintas situaciones, debe responder en cada caso (sobre todo dependiendo de la cantidad de datos), preguntas como: ¿Qué no podremos hacer si hay sampling? ¿Cómo influirá en nuestro negocio?
- Universal Analytics: esta nueva funcionalidad marca un antes y después en la herramienta al permitir obtener datos del mundo offline dentro de nuestra herramienta de analítica. Empezamos midiendo webs, después apps móviles, más tarde las acciones en Social Media, campañas offline (en TV,…) y ahora, con Universal Analytics, podemos usar más protocolos y dispositivos para enviar datos a Google Analytics, pasando a recoger/medir variables o factores que no sólo pueden estar relacionados con las webs sinó los que pueden afectar a personas, a clientes,… Un ejemplo de ello sería enviar a Analytics el tiempo que hace (meteorológicamente hablando) y, de esta forma, podríamos analizar si este factor puede influir en el negocio. Por último, Pere hizo hincapié en que no podremos cambiar muchos de estos factores (como el ejemplo mencionado) pero sí que nos servirán para ‘predecir’ tendencias o situaciones en base a ellos.
- La granularidad de datos, siempre a tener en cuenta, cambia si pensamos en BigQuery (https://developers.google.com/bigquery/) y su integración en la versión Premium de Analytics (hace una semana). BigQuery es el sistema de Google para manipular enormes cantidades de datos desde múltiples fuentes y permitiendo acceder a los mismos mediante un lenguaje similar al SQL (queries) y combinarlos con los datos de Analytics.
- Por último, las dimensiones que se incrementan en la versión Premium al disponer de 50 variables personalizadas, permitiendo introducir, de forma estructurada, muchos más datos, incrementando las posibilidades de analítica.
Tras este repaso surgieron algunas estadísticas dignas de reflexión y fruto de las dificultades tópicas que suelen existir en el trabajo diario entre ‘analistas’ y ‘marketeros’: ‘sólo un 5% de los profesionales del marketing tienen un libro de estadística’, ‘sólo un 11% de decisiones en marketing se toman en base a los datos’.
La solución pasa por trabajar conjuntamente y seguir varios consejos:
- Utilizar un buen método: intentar trabajar con pocos datos (los imprescindibles) y centrarse en conseguir objetivos.
Datos (Adquisición / Conversión / Fidelización) —-> Impacto económico (Ingresos, costes, satisfacción)
Objetivos > KPIs > Target > Hipótesis > Testing
- No confundir causa y efecto
- Los datos estadísticos pueden no mostrar datos importantes (promedios & dispersión)
- La multiplicidad de datos es necesaria: no es suficiente centrarse exclusivamente en los datos de una herramienta. Hay que utilizar encuestas, tests de usuarios, …
- Sigue habiendo un problema de visualización de datos: faltan mejores gráficos.
- Hay que pensar en la automatización de ciertos procesos y disponer más tiempo para analizar e interpretar.
- Hay que romper con algún tópico cultural: ¿Prefieres ser millonario o rey? El ‘jefe rey’ es el que manda, el ‘jefe millonario’ es el que deja hacer al analista porque sabe que así ganará más dinero.
[/toggle]
[toggle title=»3- Alfonso Duro: DoubleClick: Marketing Manager«]
Alfonso Duró, Director de Cuentas de DoubleClick en España, nos habló de DoubleClick: Marketing Manager – Attribution 360.
DoubleClick es la plataforma y red de publicidad online de Google que provee a los editores de páginas web y anunciantes con la tecnología necesaria para distribuir las promociones una vez que llegan a un acuerdo.
Alfonso hizo un repaso del tema de las atribuciones, desde la 1ª impresión hasta la conversión final, señalando la necesidad de atribuir un valor a los canales implicados en la asistencia a la conversión final y dejar de centrarnos en el modelo ‘Last-Click’
DDM (DoubleClick Digital Manager) engloba varias herramientas facilitando la medición, comparación y análisis de todas las partes implicadas hasta llegar a la conversión por lo que es capaz de obtener más y mejores datos sobre los canales que asisten en todo el proceso. Todo ello, utilizando un solo código de seguimiento y una sóla herramienta (DDM) con una sóla interface.
Todo ello comporta un ahorro del 30% en tiempo, un mejor rendimiento de las campañas alcanzando incrementos de ROI del 50% y medir no sólo los datos post-clic sino también las anteriores, lo que proporciona una visión más global (360º).
[/toggle]
[toggle title=»4- Enric Quintero: Midiendo con GA el on y el off «]
La 4ª ponencia corrió a cargo de Enric Quintero (@enricquintero) de Metriplica (@metriplica). Su título, Midiendo con GA el on y el off en un caso real, despertó el interés desde un inicio.
Enric empezó con la recomendación de un libro: The New Normal, de Peter Hinssen del que destacó algunos puntos interesantes:
- La cantidad de información (infoxicación) no es un problema. Sólo hay que filtrar bien.
- Cada vez aparecerán más ‘Information Companies’ o empresas que venderán la información como oportunidad. Un nuevo modelo de negocio. Por ejemplo, Nike dispone de un dispositivo que colocado en las zapatillas de corredores recoge/envía información interesante (geolocalización, rutas, comportamiento,..) para la empresa, para el usuario y para…posibles otras empresas.
- Todo va muy rápido…y no queda otra opción que arriesgar y apostar por las ideas, proyectos,…
Tras esta 1ª introducción realizó 7 predicciones sobre la explotación de la información:
- El Big Data servirá para integrar todas las fuentes y acciones por lo que se usará para tomar decisiones. Cada vez oiremos más términos como ‘data recycling’ (uso de bases de datos existentes para aumentar la capacidad de análisis y toma de decisiones) u ‘Omni-channel marketing’ (venta/marketing por múltiples canales).
- Ese ‘algo’ capaz de unir o en el que puedan confluir todas las acciones de los distintos canales es el Smartphone. Todo el mundo tiene uno (o más) y una de sus principales características es la movilidad (nos acompaña siempre).
- Las acciones son en ‘tiempo real’ y los datos también estarán disponibles en ‘tiempo real’. La personalización tomará más protagonismo por lo que necesitaremos datos al instante.
- Todo estará en el cloud o nube por lo que muchas cosas, como el Business Intelligence, cambiarán. Los datos no son lo más importante, lo es más el provecho que puede derivar de los mismos.
- La información de los usuarios dejará de ser gratis aunque ellos cada vez tendrán más poder sobre los mismos. Triunfarán las empresas que mejor utilicen esta información de los usuarios y ésta será la clave de la fidelización.
- Las cookies se acabarán ya que sólo sirven para el mundo online, sirven para los canales y no para los usuarios y tienen una serie de problemas implícitos (ejem., tras su borrado las siguientes visitas se contabilizan como ‘nuevo visitante’)
- La medición pasará a ser offline y se medirá de forma similar al online.
Para seguir avanzando y empezar a centrarse en la novedad que nos aguardaba, Enric Quintero enumeró 3 tecnologías recientes relacionadas con la medición offline:
- Video Analytics (http://es.wikipedia.org/wiki/Video_analytics)
- In-Store position (más info en http://spotfire.tibco.com/blog/?p=18354)
- Wi-Fi Analytics: utilizar las red wifi para detectar los smartphones cercanos….puede ser una revolución!
En relación con la Wi-Fi Analytics, Enric Quintero nos presentó ‘LITBE’, acrónimo de ‘lighting intelligence’ (más info), un dispositivo ‘Tagging Boxes’ que permite captar el ID (MAC address) de los smartphones que se conectan a una red wifi.
El dispositivo, desarrollado conuntamente por Beabloo, Luxiona y Metriplica puede colocarse dentro de los focos de luz (al necesitar una entrada de corriente) y de forma estratégica dentro de un local físico (ejem tienda).
Una secuencia que ilustraría su funcionamiento podría ser: en el local entra una persona que lleva un Smartphone el cual busca una red wifi, el dispositivo LITBE lo detecta y ‘escanea’ sólo el ID del móvil (se asegura la privacidad del propietario) que se encripta y es enviado a la herramienta de medición.
¿Qué podemos hacer con LITBE?
Podemos:
- Saber la cantidad de personas que hay dentro del local (y la cantidad que hay fuera ya que es posible limitar el radio de acción de cada dispositivo).
- Saber el recorrido de los visitantes, tiempos de permanencia en zonas,…
- Discriminar entre nuevos y recurrentes
- Asignar objetivos y conversiones a estos datos recogidos (dentro de la herramienta de medición)
- Hacer Heatmaps (mapas de calor) de las distintas zonas del local
- Integrar y cruzar los datos obtenidos con los datos de acciones online (web analytics) o con los de otras tecnologías como las mencionadas anteriormente (Video Analytics,..)
La participación de Enric concluyó con una prueba ‘in situ’ del dispositivo. Una de las ponencias con más gancho para los asistentes. Más info.
[/toggle]
[toggle title=»5- Ander Jáuregui: Google Tag Manager«]
Entrada la tarde, Ander Jáuregui (@Ander_R4), de The Cocktail, inició el nuevo ciclo con Google Tag Manager (GTM), una sesión práctica.
Destacó el principal beneficio de la herramienta: el ‘fin’ (con matizaciones) de la dependencia del analista respecto al departamento de IT/desarrollador, además de ser gratuito y comportar un ahorro considerable de tiempo ya que permite, implementando un solo tag que actuará como contenedor de otros, utilizar otros tags sin tener que implementarlos en la web.
Por defecto, GTM ya dispone de una serie de tags (todos tienen que ser asíncronos) como el de G. Analytics, AdWords, DoubleClick, remarketing, … y, para otros casos, permite una elevada (a veces ‘peligrosa’) personalización como Custom Image Tags y Custom HTML Tags (este último permite acceder al DOM e ‘inyectar’ código js o jQuery).
GTM tiene varios elementos como el contenedor, los tags, reglas, macros y el data layer, que contemplará todas las variables (KPIs, objetivos,…) con sus valores junto a su código.
Ander, junto con su compañera desarrolladora, fue describiendo las características y funcionalidades de cada uno de los elementos mencionados a medida que todos los asistentes podíamos seguirlo en una web de prueba.
Por último, destacó la falta de documentación y algunas limitaciones técnicas de la herramienta, como su uso en iframes.
[/toggle]
[toggle title=»6- Jaume Clotet: Mobile analytics, novedades y aplicaciones con GA«]
Jaume Clotet, de Watt, se encargó de Mobile analytics, novedades y aplicaciones con GA.
Su primer paso, tras la presentación, fue enumerar las distintas formas que G. Analytics tiene de recolectar información:
- Web tracking (el clásico con el script de js para trackear)
- Mediante el SDK de Android
- Con el SDK de iOS
- Con Measurement Protocol
Destacó que este último es nuevo (aún en fase beta) y se basa en recoger las interacciones (event/hit) de los usuarios en nuevos entornos. No utiliza js (javascript) sino que los datos se envían como hits mediante peticiones http utilizando google-analytics/collect (más info).
Por otro lado, Jaume mencionó la nueva interface (ya aparece por defecto aunque sea beta) que google analytics ofrece para el seguimiento/medición de las apps móviles, coexistiendo en estos momentos ambas interfaces (la de la web y la nueva para apps móviles). Ambas son parecidas, diferenciándose en que la nueva dispone de nuevos menús, permite crear objetivos, muestra errores de la app, muestra las compras realizadas,…
El hecho de que muchos usuarios se conecten (nos conectemos) desde varios dispositivos es uno de los problemas aún no resueltos y que repercuten en la analítica ya que G. Analytics realiza el seguimiento obteniendo un ID (client ID : cid) para cada dispositivo y además, los datos tienen un ámbito mostral (no censal).
Este es el principal motivo por el que aparece ‘User ID’, una nueva variable que recogería todas las ‘client ID’ de una misma persona (igualmente, por privacidad y protección de datos, no puede contener datos sensibles para Google). De esta manera, dentro de la app podemos tener una variable específica de usuario y que se mantenga aunque el usuario se conecte desde distintos dispositivos.
A efectos prácticos, dentro de la sección ‘Cross Device’ del G. Analytics será dónde localicemos el User ID pudiendo acceder a nuevos informes como el de ‘rutas de dispositivos’, el cual nos recordaría al actual embudo multicanal.
El problema de todo ello es que no existe una implementación por defecto por lo que debe correr a nuestro cargo.
Por último, Jaume mostró cómo realizar una auditoría de una implantación en una app siguiendo los pasos:
- Buscar la IP del ordenador
- Conectar el Smartphone a la IP del ordenador mediante wifi
- Utilizar alguna herramienta sniffer para debuguear, como Charles, para ver en el ordenador las solicitudes/respuestas realizadas desde la app.
[/toggle]
[toggle title=»7- Guillermo Vilarroig: Cómo usar las novedades de Google Analytics«]
La última ponencia cayó en manos de Guillermo Vilarroig, de Overalia: Cómo usar las novedades de Google Analytics (costes, moneda, enhance attribution campaign)
Guillermo nos habló de ROI, RPC (Revenue Per Clic), … y la necesidad de importar los datos de coste dentro de la herramienta de medición para analizar e interpretar correctamente, por ejemplo, distintas campañas en distintos canales o medios (como en Baidu, Yanex, etc.).
Los pasos básicos para ello son:
- Etiquetar correctamente las URLs de campaña
- Crear archivo csv de costes (codificado en UTF-8, con tamaño máximo de 5 Mb y con un formato establecido)
- Carga del archivo a G. Analytics (con la posibilidad de utilizar alguna herramienta como GA Data Uploader, la herramienta de Lunametrics,…)
Tras todo el proceso, ya podremos disponer de los datos, cruzarlos con los recogidos por la herramienta y obtener las métricas y KPIs necesarios.
Ver entrada en bog de Overalia sobre esta charla.
[/toggle]
[/toggle_container]
Un cordial saludo!!