20 Tips de Medición con Google analytics, mi charla en el SEonthebeach 5º aniversario

Este fin de semana se celebró el ansiado SEonthebeach, el evento de marketing online más gamberro y distendido que existe (diría que en el mundo entero). Sin duda este año Sico y su gente se superaron, nos lo pasamos como nunca y aprendimos de un buen puñado de cracks de distintas disciplinas. Es genial cuando ves que un evento logra arreglar cada año los pequeños fallos del anterior y añadir un par de extras que terminen de redondearlo.

sob17-foto

En esta ocasión di una pequeña charla sobre 20 tips de medición con Google analytics:
“Todo lo que no mides… (y deberias)”. En ella se presentan técnicas que hemos ido desarrollando en IKAUE con el tiempo, todas contrastadas y efectivas para un caso u otro: La idea que cada uno se quede 2 o 3 que aplicar a sus negocios. Y creo que fue justo eso lo que sucedió pues tras darla no paró de pararme gente y cada uno habían elegido justo 1 o 2 tips que me prometian iban a probar de forma inmediata. A todos vosotros, ya sabeis, cualquier duda al implementarlos decidme y haré lo que pueda 😉

Sin más os dejo aqui la charla colgada en slideshare, espero que os gustase a los que la visteis y os gusten los slides a los que no:

Y como no, dejo también un resumen de tweets que dejó la gente durante y después de la misma…

sob17-0

sob17-1

sob17-2

sob17-3

sob17-4

sob17-11

sob17-12

sob17-5

sob17-6

sob17-7

sob17-8

sob17-9

sob17-10

Source: http://feeds.feedburner.com/ikhuerta

20 Tips de Medición con Google analytics, mi charla en el SEonthebeach 5º aniversario

Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360

¿Tienes dudas sobre si seguir con Google Analytics Standard o pasarte a Google Analytics 360? La herramienta de medición de Google (Google Analytics) ofrece dos versiones como seguramente ya sabrás: la versión gratuita (conocida como Google Analytics o Google Analytics Standard) y la versión de pago, también conocida como Google Analytics 360 (antes nombrada Google Analytics

The post Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360 appeared first on Blog de Analítica Web, Optimización y Conversión – Doctor Metrics.


Source: http://feeds.feedburner.com/DoctorMetrics

Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360

Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360

¿Tienes dudas sobre si seguir con Google Analytics Standard o pasarte a Google Analytics 360? La herramienta de medición de Google (Google Analytics) ofrece dos versiones como seguramente ya sabrás: la versión gratuita (conocida como Google Analytics o Google Analytics Standard) y la versión de pago, también conocida como Google Analytics 360 (antes nombrada Google Analytics

The post Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360 appeared first on Blog de Analítica Web, Optimización y Conversión – Doctor Metrics.


Source: http://www.doctormetrics.com/feed/

Elegir la herramienta correcta: Google Analytics Standard vs Google Analytics 360

Entendiendo AppMeasurement de Adobe Analytics

Se lee en 3 minutos

AppMeasurement.js es una librería de vital importancia para Adobe Analytics, ya que en ella se define toda la funcionalidad importante del lado cliente de Adobe Analytics, es decir, aquí se define cómo Adobe Analytics funciona en el navegador.

Esta librería sustituye a la Antigua s_code.js, del cual toda persona que lleve unos años en el mundo de la analítica digital habrá oído hablar casi seguro, pero es más ligera y más rápida.

En el post de hoy explicaremos qué hace y por qué es necesaria si vas a trabajar con Adobe Analytics.

La librería está compuesta de cuatro partes bien diferenciadas:

  1. Una sección para la configuración de variables
  2. La declaración del doPlugins
  3. Una sección para definir los plugins utilizados
  4. El core de la propia librería, que habitualmente no es necesario tocar

1. Configuración de variables

Configuración de la report suite utilizada

En la primera sección, donde se realiza la configuración de las variables, hay que inicializar el proceso, para lo cual se llama a la función s_gi, pasándole como argumento el ID de la report suite:

config-report-suite

Estas dos líneas de código se encargan de decirle al sistema qué “report suite” tiene que atacar. Cuando se llama a la función s_gi, se crea una nueva instancia de AppMeasurement si es que no existía para la s_account especificada. En caso contrario, es decir, si ya existía una instancia de AppMeasurement, la función devolverá la instancia ya existente. Así se garantiza que no se creen varias instancias de este objeto para la misma cuenta.

Configuraciones de los tracking Servers
s.trackingServer=”INSERT-TRACKING-SERVER-HERE”

Indica al sistema a qué servidor de Adobe debe enviar los datos.

Otras configuraciones

  • Configuración de la moneda
    Si en la recolección de datos, va a haber datos relacionados con valores monetarios, es necesario configurar la variable s.currencyCode, principalmente si en la medición se recogen diferentes tipos de monedas, ya que de esta forma el sistema podrá hacer la conversión automáticamente.
  • Configuraciones del seguimiento de links
    Estas variables se configuran para especificar cómo queremos que funcione el seguimiento automático de los “exit links”, “download links” e “internal links”.

2. DoPlugins()

En la segunda sección se define el método de callback s.doPlugins(). Este método se ejecuta siempre antes de que se haga una llamada de traqueo a los servidores de Adobe.

Esto quiere decir que siempre que se haga un s.t() o s.tl(), el sistema toma el “objeto s” definido en la carga de la librería y a continuación, se modifica con información adicional, como la hora actual, la versión de Javascript soportado en el navegador, si Java está habilitado o no, los tamaños de pantalla, etc. Una vez que ha hecho eso, se llama al método s.doPlugins() y cuando éste finaliza se envía la solicitud HTTP GET a los servidores de recopilación de Adobe.

El método s.doPlugins() permite modificar el objeto “s” justo antes de enviarlo.
El siguiente ejemplo muestra cómo se da valor a la variable “prop1” con un valor por defecto, además de cómo se obtiene el valor de un parámetro de la consulta para otorgárselo posteriormente a otra variable del objeto “s” (usando el plugin getQueryParam).

plugin-config

3. Definición de los plugins usados

Llegado a este punto puede que te estés preguntando qué son los plugins; pues bien, se trata de “pequeños” scripts de código Javascript que se colocan en la librería AppMeasurement para posteriormente usarlos dentro del método s.doPlugins ().
Adobe ofrece una serie de plugins para usarlos siempre que sea necesario.

4. Core

La última parte de la librería es el core de la misma, y es lo que se encuentra justo debajo del “DO NOT ALTER ANYTHING BELOW THIS LINE !” En esta parte del archivo, se define toda la funcionalidad importante del lado del cliente de Adobe Analytics, como la función s_gi encargada de la creación del “s object“, o los métodos s.t y s.tl.  Aquí también se definen las “variables automáticas”, como el tamaño de la pantalla, el ancho y la altura del navegador, la versión Javascript del navegador, la hora local, la URL de la página, etc.

En resumen, se puede decir que el AppMeasurement es el motor principal de toda medición basada en Javascript en Adobe Analytics.


Source: http://www.analiticaweb.es/feed/

Entendiendo AppMeasurement de Adobe Analytics

Data Feeds en Adobe Analytics: el poder del raw data

Se lee en 3 minutos

En ocasiones, el dato que enviamos a Adobe Analytics no viaja correctamente a la herramienta o llega de una manera incompleta o distorsionada. En la gran mayoría de los casos, esta incidencia tiene su origen en una recolección errónea del dato, como por ejemplo un data layer defectuoso, un despliegue incorrecto del tag manager o una llamada al servidor mal construida. Sin embargo, en otras ocasiones el problema no parece estar localizado en la configuración técnica, sino en la recepción, procesamiento y almacenamiento del dato en el lado del servidor.

Es aquí donde entra en juego Data Feeds, un servicio que permite recuperar toda la información bruta que reciben los servidores de Adobe. Esta funcionalidad, que hasta febrero de 2017 estaba únicamente disponible a través del client care, ha sido abierta a todos los usuarios con privilegios de administrador. Básicamente, Data Feeds vuelca en un servidor FTP un archivo con el dato bruto de hits recibidos. El formato de este archivo es una tabla tabulada en donde cada fila contiene cada una de las server call enviadas a Adobe.

Imagen 1: modelado de la llamada al servidor en una tabla de datos
Imagen 1: modelado de la llamada al servidor en una tabla de datos

¿Cuál es la diferencia entre Adobe Data Feeds y Adobe Data Warehouse?

Aunque en apariencia este servicio pueda resultar muy similar a Adobe Data Warehouse, en realidad, la base de datos desde donde se extrae la información es distinta. En el caso de Adobe Data Feeds, procede directamente del dato bruto recibido en los servidores de Adobe, ya sean server calls desde la web, llamadas API o entradas externas por data source. Por su parte, Data Warehouse almacena el dato procesado, esto es tras aplicarse una serie de reglas que pueden modificar su contenido (processing rules, VISTA rules, etc). Por decirlo de otro modo, los servicios extraen la información en fases distintas del procesamiento del dato.

Imagen 2: Reglas de procesamiento en Adobe Analytics. www.maassmedia.com
Imagen 2: Reglas de procesamiento en Adobe Analytics. Fuente: www.maassmedia.com

Este matiz es muy importante, ya que puede indicarnos cuándo utilizar uno u otro servicio. Normalmente, Adobe Data Warehouse es más útil en tareas de análisis, modelado de datos y reporting, ya que nos ofrece una información más consolidada, limpia y cercana a las necesidades reales. Por su parte, Adobe Data Feeds está orientado a la validación del dato desde un punto de vista técnico, ya que nos permite bucear por una ingente cantidad de datos que no tienen su reflejo en la interfaz gráfica de Adobe, como por ejemplo flags que indican si el hit es un evento duplicado (duplicated_event), si la recepción de la llamada está truncada (truncated_hit) o si el hit ha sido excluido por la herramienta (exclude_hit).

¿Cómo funciona Adobe Data Feeds?

Para poder utilizar Adobe Data Feeds, necesitas acceder a Adobe Analytics con un usuario que tenga privilegios de administrador. Encontrarás la funcionalidad en el menú superior, colgando del elemento Admin. Clica en él y vuelve a clicar en Add para añadir una nueva petición a tu feed.

Imagen 3: Creación de un nuevo feed
Imagen 3: Creación de un nuevo feed

Una vez dentro, verás una pantalla donde podrás configurar el envío del archivo. En general, la página se subdivide en tres secciones: Feed Information, Destination y Data Column Definitions.

Imagen 4: Pantalla de creación de feed
Imagen 4: Pantalla de creación de feed
  • Feed Information: aquí puedes configurar el nombre del feed, el repositorio desde donde quieres extraer la información, el intervalo de procesamiento (Diary en el caso de que quieras que se envíe un archivo diario o Hourly en el caso de que quieras que el FTP se actualice cada hora), la latencia del envío y las fechas durante las que quieres que se realice esta actualización.
  • Destination: aquí puedes configurar el servidor FTP en donde quieres almacenar la información. Ten en cuenta que el tamaño de los archivos puede ser considerable, por lo que asegúrate de que dispones de espacio.
  • Data Column Definitions: aquí puedes configurar qué información quieres enviar al FTP. Adobe Feeds dispone de hasta 621 dimensiones distintas, que puedes añadir como columnas en la tabla resultante. Piensa que, a diferencia de Adobe Data Warehouse, no puedes aplicar ni segmentos ni métricas a las dimensiones. Si quieres filtrar esta información, deberás valerte de lenguajes tales como Python o R. Por último, puedes configurar el formato del archivo resultante: recomendamos que la opción de packaging type esté configurada como single file, que hará que la información se descargue en un único archivo comprimido.

Cuando el procesamiento se haya realizado correctamente, recibirás un correo informándote de que ya puedes entrar en el FTP y descargar el archivo. Accede a través de un cliente del estilo de FileZilla y descárgate el archivo comprimido. Extrae su contenido y abre con Python, R o similares el archivo hit_data.tsv, que es el que contiene la información solicitada. ¡Ahora ya solo queda bucear en el dato!

¿Alguna vez has utilizado Adobe Data Feeds?, ¿cuál ha sido tu experiencia?

 

Fuente de la imagen destacada: cpacanada


Source: http://www.analiticaweb.es/feed/

Data Feeds en Adobe Analytics: el poder del raw data

Crear un dashboard de análisis de Logs SEO con Google Big Query y Google Data Studio

La semana pasada fuimos otra vez al Clinic SEO del eShow de Barcelona. En este caso nos llevamos una metodología que sabíamos que iba a gustar a muchos SEOs. Explicamos los pasos necesarios que hay que dar para poder disponer de Dashboards accionables sobre la información de los logs de nuestro servidor: Es decir, cómo fabricar un Analytics del rastreo que hace Google de nuestras webs y asi poder optimizar mejor la indexación de nuestros proyectos.

logs

El proceso aunque no se libra de la carga técnica de empezar a lidiar con nuevas herramietnas (sobretodo si nunca antes habías necesitado usar bigquery) lo tenemos ya lo suficientemente depurado como para poder presentarlo como pasos a seguir sin demasiadas complicaciones en la mayor parte de los casos.

Espero que con esta charla hayamos abierto una nueva puerta a mucha gente que no podía acceder hasta ahora al mundo del análisis de logs que tantas sorpresas (buenas y malas) te da en el mundo del seo.

No hay ni que decir que cualquier comentario, duda o crítica serán muy bien recibidos.


Source: http://feeds.feedburner.com/ikhuerta

Crear un dashboard de análisis de Logs SEO con Google Big Query y Google Data Studio

Del OFF al ON: cómo cambia el consumidor en el entorno digital

Se lee en 3 minutos

El mundo digital ha supuesto, para el consumidor, un cambio en sus formas de comunicación y en las experiencias de compra a las que estaba acostumbrado. Este nuevo espacio incluye todas las innovaciones y tecnologías aprendidas por el ser humano hasta la fecha y las lleva más allá.

El entorno digital desafía y seduce a nuestro cerebro de formas completamente nuevas, permitiendo que los objetivos y las tareas conscientes sean perseguidos dentro de un contexto de nuevos procesos no conscientes, todo ello mezclado con una serie de nuevos medios dinámicos como las webs, apps, RRSS, etc.

Una de las ideas que debemos tener en cuenta, es que Internet mantiene al consumidor en un estado de actividad mental mucho mayor que, por ejemplo, cuando está delante de un medio tradicional como la TV. Esta diferencia hace que debamos replantearnos su comportamiento y las acciones que las empresas deben llevar a cabo para mejorar y optimizar sus negocios en este contexto digital.

Del consumo pasivo a la búsqueda activa
Del consumo pasivo a la búsqueda activa

Alineando nuestros objetivos con los del consumidor

El acceso a Internet, ya sea mediante una app o una web, lleva asociado un propósito, intención o tarea al contrario de lo que suele ocurrir mientras alguien está viendo la TV donde, en la mayoría de casos, la gente no busca nada más que entretenimiento. El objetivo del acceso al medio cambia la forma en que se debe analizar y mejorar la relación entre empresa y cliente.

En un contexto “activo” como Internet, es muy importante que la publicidad mostrada por el anunciante sea relevante y esté alineada con la información que busca el usuario o con su objetivo. En este contexto la publicidad puede sumar y apoyar la tarea del usuario y no solamente interrumpir, como puede pasar en otros contextos tradicionales, donde a la mayor parte de los usuarios, la publicidad les molesta y no suelen recordarla. Es, aquí, donde servicios como los DMP’s cobran una importancia cada vez mayor para entregar el mensaje adecuado a la persona correcta y en el momento preciso.

El problema de muchas organizaciones suele ser que “disparan” publicidad en todas direcciones con el objetivo de impactar a “cuantos más usuarios mejor” sin tener en cuenta los objetivos de los mismos y sus intereses de compra.

Un ejemplo de publicidad alineada con el objetivo del usuario es la publicidad en buscadores, el ejemplo es bastante sencillo pero nos ayuda a visualizar de qué estamos hablando. Es por eso que, normalmente, las campañas en buscadores tienen un ROI mucho más directo que otro tipo de campañas cuyas acciones están más encaminadas a reforzar lo que se conoce como la ruta indirecta (afectando a la memoria, reconocimiento de marca, etc.), ya que el usuario busca algo concreto y el buscador le ofrece anuncios muy relacionados con el objetivo de su búsqueda.

El mensaje correcto, en el momento adecuado, mejorará nuestra efectividad
El mensaje correcto, en el momento adecuado, mejorará nuestra efectividad

El usuario: interactividad y control

Como he indicado anteriormente y en contraposición a Internet, otros medios como la TV se consumen de forma pasiva. El usuario pone un canal y deja que sea éste el que determina qué contenidos va a consumir y con qué pausas lo van a interrumpir. Internet abre la puerta a otro modelo de consumo de información que se diferencia del anterior en dos puntos: la interactividad, ya que acceder a Internet es en sí una actividad interactiva que permite a los usuarios participar de forma activa en una experiencia dinámica con un determinado medio o canal, así como con otros usuarios, lo que permite tener una experiencia mucho más completa y satisfactoria.

El control de la experiencia digital. Internet permite a los usuarios controlar cómo interactúan con el contenido que quieren y están viendo. Con un simple clic pueden salir de una web, compartir información, cerrar un anuncio o llegar a comprar algún producto.

Podemos llegar a pensar, y muchas veces lo hacemos, que una mayor interactividad es mejor que una interactividad baja, pero no es necesariamente así. Si una web no tiene un diseño que equilibre las capacidades interactivas con las demandas cognitivas, un mayor número de interacciones puede estar indicándonos errores en nuestra experiencia de usuario. Lo mismo podemos aplicar a la variable “control”, dejar en manos del usuario un control total, avanzado, de una situación que no domina, puede tener un efecto adverso en su experiencia.

Exceso de control puede estropear experiencia usuario
Dar todo el control al usuario puede estropear su experiencia de usuario

La reducida distancia entre el marketing y la venta

Quizás una de las cosas de las que más conscientes somos es de la inmediatez de Internet en comparación con la de los canales “tradicionales”. Ahora, un consumidor puede ver un producto, desearlo, comprarlo y tenerlo en casa en un tiempo récord. Solo basta con ver servicios como Amazon Prime Now, gracias al cual en una hora podemos tener un producto que unos momentos antes desconocíamos en nuestra puerta.

Esta inmediatez, dependiendo del producto, nos permite añadir a nuestras estrategias de marketing tradicionales otras mucho más directas, ya que la necesidad de permanecer en la memoria del usuario por días o semanas, desde que se ve expuesto a nuestros anuncios hasta que surge la oportunidad de compra, se ve muy reducida.

Satisfacer las necesidades del usuario, saber cómo actúa y alinear nuestros objetivos e intereses con los suyos es la base a la hora de gestionar o analizar la presencia digital de cualquier empresa.


Source: http://www.analiticaweb.es/feed/

Del OFF al ON: cómo cambia el consumidor en el entorno digital

Facebook y R Statistics para el Social Mining

En el presente post de Marzo hablaremos acerca de la API de Facebook y cómo hacer con R la extracción y minería de los datos, todo ello atacando directamente a la API. Para lograr lo anterior, la comunidad de programadores de R ha desarrollado un package muy eficiente. ¿Qué es Graph API explorer? Se trata

The post Facebook y R Statistics para el Social Mining appeared first on Blog de Analítica Web, Optimización y Conversión – Doctor Metrics.


Source: http://feeds.feedburner.com/DoctorMetrics

Facebook y R Statistics para el Social Mining

Facebook y R Statistics para el Social Mining

En el presente post de Marzo hablaremos acerca de la API de Facebook y cómo hacer con R la extracción y minería de los datos, todo ello atacando directamente a la API. Para lograr lo anterior, la comunidad de programadores de R ha desarrollado un package muy eficiente. ¿Qué es Graph API explorer? Se trata

The post Facebook y R Statistics para el Social Mining appeared first on Blog de Analítica Web, Optimización y Conversión – Doctor Metrics.


Source: http://www.doctormetrics.com/feed/

Facebook y R Statistics para el Social Mining

Integrating Google Optimize with Google Tag Manager

You may need to know if the current page has any Google Optimize Experiment running, to track that info on any tool, or to fire some vendor tag based on the current experiments statuses.

The following snippet will take care of sending a dataLayer push if there’s any active experiment running, including:

  • The Experiment ID
  • The Optimize Container ID where the experiment is running on
  • The current experiment variation being shown to the current user/device
(function() {
    for (var gtm in window.google_tag_manager) {
        if (gtm.match(/^GTM/)) {
            if (google_tag_manager[gtm].experiment) {
                dataLayer.push({
                    'event': 'optimize-experiment-active',
                    'optimize-container-id': gtm,
                    'optimize-exp-name': google_tag_manager[gtm].experiment.split("$")[0],
                    'optimize-exp-variation': 'Variation: ' + google_tag_manager[gtm].experiment.split("$")[1]
                });
            }
        }
    }
})();

Then just create the needed dataLayer type variables to read the pushed data and use it on your tags/triggers.

The dataLayer push will look like:

{
    event: "optimize-experiment-active", 
    optimize-container-id: "GTM-XXXXXX", 
    optimize-exp-name: "GTM-XXXXXX_OPT-YYYYY",
    optimize-exp-variation: "Variation: 1"
}

 

The post Integrating Google Optimize with Google Tag Manager appeared first on David Vallejo – Consultor Google Analytics.


Source: http://feeds.feedburner.com/Thyngster

Integrating Google Optimize with Google Tag Manager