Categorías
General

Indexación Seo: Optimizando el ‘Crawl Budget’ en Listados y Filtrados

https://m4p.es/indexacion-seo-optimizando-el-crawl-budget-en-listados-y-filtrados/ Indexación Seo: Optimizando el ‘Crawl Budget’ en Listados y Filtrados 2016-02-25 13:00:44 admin Blog post General accont

Hoy vamos con una de SEO que lleva entre borradores ya más de un año. Vamos a hablar del «Crawl Budget» y de su gestión en los sitemaps más complejos para ello: los listados. ¿Qué podemos hacer para guiar a las arañas de la forma más eficiente posible y así mejorar nuestra indexación en consecuencia nuestro posicionamiento. ¿Vamos?

Qué es el Crawl Budget

Este es un concepto de Indexación que viene a definir cuanto tiempo dedican los robots de Google a rastrear nuestro site y sacar información de él. Cada web tiene asignado un Crawl Budget distinto, es decir, a cada web Google le destina un tiempo distinto para analizarla. Este tiempo viene determinado por varios factores, la mayoría relativos a lo que solemos llamar Autoridad del site. En otras palabras la mayor parte de los factores que afectan a tu posicionamiento en relación a tu competencia también afectan al Crawl Budget.

¿Cómo podemos saber nuestro Crawl Budget?

Lo mejor que podemos hacer es acudir a Google Search Console. Dentro de este tenemos un informe muy útil aunque poco detallado que encontramos en en «Rastreo >> Estadísticas de Rastreo».

En esta sección encontraremos un informe como el que sigue:

Y que nos describe 3 conceptos relacionados directamente con el Crawl Budget (aunque ninguno llega a definirlo directamente)

  • Páginas rastreadas al día: Es la información que más nos interesa, pero la menos relacionada con el tiempo dedicado por Google. Nos indica cuantas páginas (URLs Únicas) han visitado las arañas de Google cada día
  • Kilobytes rastreados al día: Ya no nos habla de páginas sino del peso de estos archivos. Es decir, cuanta información recoge sobre nosotros al día Google
  • Tiempo de descarga de una página: Nos permite unir los otros dos conceptos y terminar de redondear la información sabiendo la media de tiempo que tarda un el robot en descargar como media las páginas

Al final la métrica que realmente queremos no la tenemos (que sería tiempo dedicado por las arañas a tu site por día) y es que Google nunca nos pone las cosas del todo fácil. Para rascar un poco más deberíamos irnos al analisis de Logs que a pesar de existir casi desde el principio de las webs se ha vuelto a poner de moda este último año.

Lo que si tenemos que tener claro, como comentaba antes, que ese tiempo es más o menos estable y varía de la misma forma que lo hace la autoridad de tu site. Existen excepciones a esto que basicamente se resumen en que cuando Google detecta que tiene mucho trabajo de indexación por delante (migraciones, caidas de la web, cambios de diseño, etc.) suele esforzarse un poco más y subir tu crawl budget un tiempo, al menos hasta que entienda que vuelve a tener controlada la situación.

Sea como sea, esta situación nos lleva a que no hace falta que destinemos esfuerzos a mejorar el Crawl Budget de Google pues ya estamos haciendo ese mismo trabajo por otras vías (AI, LinkBuilding, LinkBaiting, Branding, etc.).

Donde tenemos que trabajar es en optimizar ese Crawl Budget para sacarle más partido

Las ventajas de ser Rastreado

Para tener claro que debo optimizar lo primero es entender que objetivo persigo con ello. ¿que busco al gestionar de forma eficiente mi Crawl Budget?

Existen varias posibles ventajas, unas que no son discutibles y otras de esas en las que pones a 10 seos a discutir sobre ellas y tienes no 10 sino 11 o 12 opiniones distintas.

En la parte indiscutible tenemos nuestras necesidades de indexación del site:

  • Indexación de lo importante: Es normal que Google no recoja o priorice todas las páginas de nuestro site… ¿sorpresa? No tanto… En webs pequeñas no suele haber problemas, pero en grandes sites muchas veces la cantidad de páginas que ofrezco al buscador es superior a las que mi Crawl Budget me permite indexar. A veces no las vemos todas por temas de contenido duplicado pero en muchas otras ocasiones directamente el contenido no queda indexado en Google. Estas páginas no tienen ni siquiera la oportunidad de aparecer en los resultados de búsqueda por lo que tenemos una perdida de oportunidad de ser encontrados importante con ellas
  • Otra factor importante es la frecuencia de refresco del contenido. En páginas profundas GOogle puede tardar mucho tiempo en asimilar los cambios que hemos provocado y eso entorpece nuestro trabajo

En la parte más discutible sobre el rastreo de páginas tenemos

  • Ciertas voces que opinan que ser más rastreado aporta más autoridad. Es decir que el hecho de que las arañas pasen mucho por una URL supondría que esa URL gane más autoridad. A mi esta teoría no me convence porque no hay forma de valorar si se trata de correlación o causalidad. ¿Que es lo que sucede realmente? 1. ¿Que aumento mi autoridad y por eso gano más rastreo en la URL? o 2. ¿Que al aumentar el trasteo (con técnicas parecidas a las que aumentan la autoridad) gano más autoridad? Si bien yo creo más en lo segundo no son pocos SEOs los que argumentan a favor de la primera opción…
  • Otra de las teorías nos dice que el numero de cambios de la web condiciona más el rastreo que la autoridad. Es cierto que los cambios afectan pero yo no he visto grandes diferencias de rastreo entre webs muy dinámicas y webs prácticamente estáticas en autoridades similares (todo y que como sabemos intuir que dos webs tienen autoridad similar es muy difícil)

Sea como sea, os lo creáis o no, estas dos posibles ventajas también tenemos que tenerlas en cuenta. Es como las señales sociales, nos dicen que no afectan, pero a ver quien va a hacer ascos a unas cuantas menciones desde Twitter o el cada vez más extinto Google+.

Cómo optimizar tu Crawl Budget

¿Qué puedo optimizar de todo esto? Pues volviendo a los gráficos que teníamos antes y aplicándoles un poco de lógica tengo varias palancas que tocar. Intentare resumirlas a modo de listado.

Mejorar la velocidad de carga supone mejorar el número de páginas rastreadas al día

Y esto es de cajón. Si decimos que Google nos destina X tiempo diario a rastrear nuestra web, cuanto más fácil se lo pongamos mejor aprovecharemos ese tiempo. En conclusión, si una página tarda la mitad de tiempo en cargar que otra y tenemos el mismo Crawl Budget debería rastrearnos el doble de páginas vistas.

Esto no es del todo cierto, pues hay parte del proceso de indexación que no es relarivo a la carga sino al proceso que hace Google del HTML pero si que existe una relación directa entre ambas métricas. ¿Y cómo afecto a la velocidad de carga? Bueno, para eso solo hay 2 vías: o hacemos que el servidor sirva más datos en menos tiempo o hacemos que las páginas pesen menos. Sea lo que sea estamos en el terreno del WPO.

En el siguiente gráfico tenéis un ejemplo de como afectamos al número de páginas rastreadas al día con cambios de WPO:

Lo que veis es un site que ha realizado una migración. En esta se han mejorado los tiempos de respuesta del servidor y de paso se ha bajado un poco el peso de las páginas. Las gráficas por si solas tienen tan poco detalle que cuesta ve más allá de que tras la migración se nos ha aplicado un aumento del Crawl Budget temporal hasta que Google ha recogido el nuevo site. A partir de ahí vemos los cambios en nuestras métricas donde observamos:

  • Que el tiempo de descarga de las páginas ha bajado sensiblemente.
  • El número de KB descargados al día ha subido un poco, esto se debe al cambio de respuesta del servidor que ahora sirve en menos tiempo más datos.
  • Y El número de páginas rastreadas al día ha aumentado, no parece mucha distancia pero si nos fijamos hablamos de entre un 20% y un 40% de incremento en páginas indexadas, lo que se dice pronto.
  • Eliminar URLs del rastreo, supone garantizar el rastreo de otras

    De esta forma si evito que los robots pierdan tiempo por contenido que se que no me va a aportar visitas o directamente soy consciente de que caerá en el saco de contenido duplicado lo que estoy haciendo es facilitar la indexación de páginas donde si tengo negocio que rascar.

    Así que gran parte del trabajo en optimización pasa por delimitar que partes de nuestra web queremos indexar.

    Aumentar links (internos o externos) hacia una página aumenta el rastreo de la misma

    Por último ya llegando al detalle, cuantos más links incluyamos hacia una página más parte de nuestro Crawl Budget se destinara a la misma. Esto supone que podemos definir distintas tipologías de páginas y forzar que unas sean rastreadas con mayor seguridad que otras «simplemente» variando nuestros links internos o jugando con la famosa estructura web o artquitectura de la información.

    Cada una de estas líneas de trabajo como vemos va a tener unas dificiltades y nos será más o menos útil en distintos casos a los que nos enfrentemos.

    Llegamos al caso práctico: la indexación de listados y filtrados de contenido

    Como ejemplo vamos a tomar una de las partes de la web que más problemas suele ofrecer: la indexación de listados complejos.

    Creando el camino de la araña

    El primer problema que solemos encontrarnos con esta parte es dotar de vías de rastreo a las arañas. Esto no lo hemos tratado en este post, pero no tiene demasiada complejidad: para que un contenido sea accesible necesitamos que una araña pueda llegar a él y la mejor vía para esto es que en otra página a la que ya accedan las arañas aparezcan links directos hacia las nuevas que deben descubrirse.

    En las paginaciones de listados (listados con pagina 1, 2, 3, etc) Esto no suele tener mayor problema: añadimos estas paginaciones como links y la araña ya tiene una vía para acceder a ellos.

    En los filtrados (reordenaciones por distintos criterios, filtros por distintas categorías o tipologías, distintas formas de visualizar el listado, etc.) ya podemos tener ciertos problemas. Para que la araña llegue a ellos necesitamos que todo sean links y muchas veces por defecto nos ofrecen estos recursos con elementos de formulario o con programaciones javascript a medida que las arañas tienen muchas dificultades para seguir.

    Así que el primer paso es conseguir que nuestros listados (al menos los que nos aporten algo) sean indexables y eso muchas veces ya supone cierto trabajo onpage definiendo links y filtros internos.

    Si quieres aprender un poco sobre esto tienes este viejo post (que cortitos eran los posts entonces… :P) con 4 nociones sobre el tema:

    >> El arte de los filtros y las categorías

    Detectando problemas en el Crawl Budget

    Supongamos que ya estamos en el escenario ideal donde las distintas categorías ya han sido transformadas en links y el camino para la araña esta totalmente listo. Ahora es cuando nos podremos encontrar con problemas de Crawl Budget. Miramos que páginas son las que va a indexar el buscador y nos encontramos con una salvajada de opciones, esto pasa… He tenido sites con apenas 50 o 100 productos de los que a partir de los links de listados se rastrean más de 40.000 urls distintas, muchas de ellas totalmente inútiles. ¿Cómo? Pues a base de serguis links de filtrado (los mismos que provocabamos en el paso anterior) que al sumar distintas opciones van multiplicando las urls de listado…

    Pensemos solo en un listado donde tenemos:
    – Paginaciones (hasta 14 páginas de 5 productos cada una)
    – Categorizacion por tipologías (8)
    – Categorización por zonas (6)
    – 3 modos de visualizacion (3)
    – Ordenar por distintos criterios (4)
    – De forma ascendente o descendente (2)

    Si multiplicamos las posibilidades nos salen más de 15.000 posibles URLs y eso sin contar errores de ordenación de los parámetros que pueden hacer más grave el problema. Para colmo una gran cantidad de las mismas tienen contenido prácticamente duplicado y la diferenciación de titles y descripcións sabemos que va a ser mínima.

    En consecuencia, vamos a perder gran parte de nuestro Crawl Budget en la carga de listados… ¿Qué hacemos?

    Planificando la optimización del crawl budget

    Simpre debemos jugar con todas las herramientas disponibles, antes las hemos enumerado asi que podemos verlas una a una:

    WPO

    Tenemos que mejorar las velocidades de carga de las páginas. Para esto decíamos que podíamos operar a nivel de servidor y de página.

    En el servidor parte del problema va a venir por el tiempo de carga en procesar estas consultas complejas con tantos criterios, para solucionarlo nada mejor que una caché que mantenga estas selecciones como míminmo unos minutos y permita deolver todas estas páginas en milisegundos, si puede ser desde la propia RAM del servidor.

    En la parte de front los problemas serán de dos tipos: mejoras de la maqueta (minimización, revisión de etiquetas inutiles, sprites css, etc.) y evitar la sobrecarga de elementos pesados como imágenes y vídeos, eliminando los que podamos y haciendo asíncrona la carga de los más molestos y/o menos perceptibles.

    Todo muy técnico pero muy útil también.

    Priorización de páginas

    Para poder saber qué páginas nos interesa más indexar nos vemos obligados a analizar que páginas rastreables existen. Para ello hacernos con un crawler (por ejemplo Screaming Frog) nos ayudará mucho, pues nos aportará el listado de las páginas existentes. Los análisis de logs tambien pueden ser útiles aunque corremos el riesgo de no llegar con ellos a páginas que si que existen pero que hace mucho que ningún bot o usuario solicita.

    Una vez tenemos nuestro listado de URLs rastreables tenemos que priorizarlas por criterios SEO:

    En cuanto al posicionamiento de las propias páginas debemos preguntarnos:
    – ¿Qué valor tienen las visitas que puedan llegar a esas páginas?
    – ¿Qué oportunidades tengo de posicionarlas por alguna keyword?
    – ¿Qué capacidad tengo de diferenciarlas o de asignarles keywords distintas?

    Y en cuanto a cuanto aportan estas páginas a otras (por ejemplo las de productos)
    – ¿Qué links ofrecen estas páginas?
    – Y ¿Qué necesidad tengo de que las arañas vean esos links?

    Link Sculpting: Jugando con los links

    Una vez tengo mis páginas priorizadas es el momento de jugar con los links. Aquí podemos hacer gran parte del trabajo simplemente provocando los links hacia las páginas más interesantes se repitan en todas las páginas de listados mientras que las poco relevantes solo obtengan links en capas más profundas de la web. También tenemos la oportunidad de simplemente eliminar links hacia ciertas zonas aunque al hacer esto hay que tener mucho cuidado con no caer en cloaking (encubrimiento al mostrar distinto contenido a usuarios que a arañas) y en otras técnicas penalizables precisamente por ser formas de engañar a las arañas.

    Más interesante si cabe es jugar con las directrices de indexación, buscando la forma más idonea para tu proyecto de provocar que las arañas simplemente no entren en todo ese contenido que para ti no tiene ninguna prioridad. Sabemos que existen una gran cantidad de vías por las que manipular la indexación de un site y guiar a las arañas. Hace no demasiado hice unas tablas de recursos de indexación que a día de hoy siguen vigentes para resumir todas nuestras opciones.

    Al final, la gran duda es ¿cual uso para cada caso? Y sobre eso quizas hay suficiente migua como para poner un post completo pero intentaré hacer un resumen…

    Tal y como yo lo veo hay 2 problemas distintos:

    1) Paginación
    – Aquí sueles querer que el bot pase al menos unas pocas paginas (pero no hasta la 30 y menos hasta la 200)
    – Pero que consuma el minimo tiempo posible

    2) Filtrados y categorizaciones
    – Donde tendremos parámetros que no queremos indexar
    – Y otros que si quremos y no tocaremos.

    Lo dicho, al final se trata de ver que hacemos con los que no queremos indexar de entre todas las posibilidades que tenemos…

    Vías de no indexación en listados… ¿Cual usar?

    Suponiendo que ya hemos analizado que páginas nos aporta indexar y cuales no tenemos que trabajar esa desindexación o al menos esa reducción del crawl budget en beneficio de otras páginas.

    Hay varias posibles soluciones:

    • Rel next y Prev (documentación)
      Solo aplica a paginaciones. Es lo que pide Google que hagamos con ellas, pero no ahorra crawl budget ni aporta mucho aparte del control de duplicidades (vamos que no indexe pagina 2, pero el tiempo lo pierde igual).
    • noindex,follow. (documentación)
      A la antigua, mejora algo el crawl budget pero pasa menos autoridad a los links que contiene. Incluso menos que con un Rel=»next/prev»
    • canonical hacia pagina sin ese filtro (documentación)
      Te cargas la indexacion del filtro o de la página (la tienes que conseguir por otro lado)
      Lo que si haces es mejorar algo de crawl budget.
      Por otro lado contradices las indicaciones de Google pues el contenido en realidad si es el mismo, pero vamos, no veo que te puedan decir gran cosa por hacer algo así.
    • robots.txt con urls tipo «page=» (documentación)
      Al bloquear el acceso a la araña arreglas el Crawl Budget en su mayor parte.
      Es la forma más bruta de hacerlo, así te cepillas de un tiro toda indexación posible de estas páginas.
    • Directamente gestionar esos links con envios por POST o gestión de cookie (documentación)
      Arreglas el Crawl Budget del todo, pero no puedes provocar esas urls para campañas de marketing ni para nada que no sea el propio buscador.
      Solo con esta técnica no evitas la indexación salvo que realmente no permitas las visualizaciones por GET .
      Por otro lado. ¿Se podría considerar cloaking a una URL que ofreces limpia pero que ofrecer contenido cambiado por el envio por detras de cookie? Difícilmente pero es una puerta que no apatece abrir.
    • Marcar en Google Search Console esos parámetros como que no afectan al contenido (documentación)
      Al final al hacer esto estás mintiendo a Google. Lo que pasa es que al hacerlo funciona. Al menos parcialmente.
      Arreglas algo el crawl budget, pero resulta dificil cuantificar en qué medida.
    • Marcar en Google Search Console esos parámetros filtran o reordenan el contenido (documentación)
      Otra vez es en teoría lo que deberíamos hacer si queremos ser 100% correctos pues así le decimos claramente que esas variables son filtros.
      Sin embargo, según mi experiencia es como el rel=»next/prev», es lo que toca hacer, pero haciéndolo no arreglas nada. El tiempo de indexación lo pierdes igual y sigues perdiendo indexación en muchas páginas.

    Ya veis, ¿no hay ninguna opción 100% buena verdad?

    Mi solución particular…(y solo mia)

    Os comento lo que yo hago normalmente en sites grandes:

    – Rel Next y prev para paginaciones.
    – Evitar por robots la indexación a partir de la página X (dependiendo del catalogo, pero normalmente no pasar de 5)
    – Canonical en todas las urls de filtros que no acaben de aportarte nada.
    – Y parámetros marcados como que no afectan al contenido en las mismas urls.

    Esto suponiendo que no tengamos un problema grave de Crawl Budget, que no siempre existe esa suerte y hay webs donde las arañas se vuelven locas.

    En webs donde el problema es muy gordo suele ser más efectivo tirar de robots.txt y bloquear la inmensa mayoría de filtros directamente (además de eliminarles los links, si es posible)

    Para gustos colores

    La verdad es que especiencias hay miles pero siempre son un poco distintas y lo que funciona en un proyecto no lo hace tan bien en otro.

    ¿Vosotros que hacéis? ¿Creéis que hay alguna forma especialmente mejor o peor que las demás de gestionar el Crawl Budget? Seria genial oírlo, os espero en los comentarios!

    Source: http://feeds.feedburner.com/ikhuerta

    Indexación Seo: Optimizando el ‘Crawl Budget’ en Listados y Filtrados

Categorías
Analítica Web Google Analytics Google Tag Manager

Getting super clean content reports in Google Analytics using GTM

https://m4p.es/getting-super-clean-content-reports-in-google-analytics-using-gtm/ Getting super clean content reports in Google Analytics using GTM 2016-02-24 15:50:01 admin Blog post Analítica Web Google Analytics Google Tag Manager accont

In Google Analytics the urls are case sensitive, therefore in our content reports /index.html will be different to /Index.html, and querystring values will make Google Analytics to think that even if it’s the same page it will recorded as a new one, /index.html?cache=off and /index.html?cache=on will be recorded as 2 different pageviews for example.

The first problem its easily fixable with a lowercase filter within the views, but the querystring parameters it’s going to be a problem … I bet you’re saying that you can just add them to the Exclude URL Query Parameters list within your view configuration page and Yes! that’s right, but I’m pretty sure that you’re likely going to end having some marketing campaigns adding new parameters, or IT adding some parameters to get some funcionality switched on (like enabling some caching feature or whatever).

So today, we’ll be using Google Tag Manager to solve this problem of having all our content reports fragmented due the unexpected querystring parameters in our pages. So let’s think about it, wouldnt be easier to identify the real parameters and getting ride of the rest that are not expected for the page functionality?, If you think about it, it’s likely a better way to do it, we can know which parameters will be used in our site, but we cannot think on unexpected ones.

To achive this, we’re going to make use of just one single variable in Google Tag Manager, yeah that’s it, just one single Custom Javascript variable.

We’ll just need to configure the paramList array on the code top, and add there all the querystring parameters that we want to keep. Any other parameter that is not listed in our array will be removed from the querystring value that is going to be recorded by Google Analytics

function(){
  try{
    
        // We'll need to defined the QS values we want to keep in our reports         
        var paramsList = ["two","one","three"];

        // CrossBrowser inArray polyfill 
        if (!Array.prototype.indexOf) {  
            Array.prototype.indexOf = function (searchElement /*, fromIndex */ ) {  
                "use strict";  
                if (this == null) {  
                    throw new TypeError();  
                }  
                var t = Object(this);  
                var len = t.length >>> 0;  
                if (len === 0) {  
                    return -1;  
                }  
                var n = 0;  
                if (arguments.length > 0) {  
                    n = Number(arguments[1]);  
                    if (n != n) { // shortcut for verifying if it's NaN  
                        n = 0;  
                    } else if (n != 0 && n != Infinity && n != -Infinity) {  
                        n = (n > 0 || -1) * Math.floor(Math.abs(n));  
                    }  
                }  
                if (n >= len) {  
                    return -1;  
                }  
                var k = n >= 0 ? n : Math.max(len - Math.abs(n), 0);  
                for (; k < len; k++) {  
                    if (k in t && t[k] === searchElement) {  
                        return k;  
                    }  
                }  
                return -1;  
            }  
        }  
        var qsParamsSanitizer= function(qs,permitted_parameters){
        var pairs = qs.slice(1).split('&');
        var result = {};
        pairs.forEach(function(pair) {
            pair = pair.split('=');
            result[pair[0]] = decodeURIComponent(pair[1] || '');
        });

        var qsParamsObject = JSON.parse(JSON.stringify(result));
        for (var p in qsParamsObject){
            if(permitted_parameters.indexOf(p)==-1)
                delete qsParamsObject[p];
        }
        var rw_qs = '?' + 
                Object.keys(qsParamsObject).map(function(key) {
                    return encodeURIComponent(key) + '=' +
                        encodeURIComponent(qsParamsObject[key]);
                }).join('&');
        if(rw_qs=="?") rw_qs="";
        return rw_qs;
     }        
     return qsParamsSanitizer(document.location.search,paramsList);
    }catch(e){
       // let's let GA to use the current location.href if
       // for some reason our code fails.
       return undefined;
    }
}

Now, we only need to set our pageview tag “page” parameter so Google Analytics uses the new sanitized array instead of the one that it’s on the url.

We’re done!. Let’s see how it works with a screenshot

Now you just need to sit down, and wait some hours to start seeing your reports in a clean way and with no fragmentation. Happy analyzing!


 

 

Categorías
Analítica Web Google Analytics Google Tag Manager

Tricks to deal with customized Google Analytics and Google Tag Manager integrations

https://m4p.es/tricks-to-deal-with-customized-google-analytics-and-google-tag-manager-integrations/ Tricks to deal with customized Google Analytics and Google Tag Manager integrations 2016-02-20 18:18:23 admin Blog post Analítica Web Google Analytics Google Tag Manager accont

In the past years, I worked on implementing Google Analytlics and Google Tag Manager in a lot of differences scenearios and almost any kind of integrations. So I’m gonna show you some code snippets that may help you integrating Google Tag Manager and Google Analytics into your libraries in the best way possible.

Checking is Universal Analytics is available

Most integrations I’ve seen does check for the ga object within the DOM before trying to push something to it. This is really nice, and a check that should be done ALWAYS, but Universal Analytics allows you to change the default name for the “ga” object, so under those situations our code may not work as we’re expecting.

Luckly for us, Universal Analytics creates another variable, named window.GoogleAnalyticsObject, that will allow us to grab the current object name being used by Universal Analytics.

So using the following code will allow us to check is Google Analytics is really available even if the current name has been changed:

if(window.GoogleAnalyticsObject && typeof(window[GoogleAnalyticsObject])=="function"){ 
   // Code Here
}

Checking for current dataLayer object name for Google Tag Manager

Google Tag Manager users the “dataLayer” name by default, but it may changed to use any other name.

This piece of code will allow us to find the right dataLayer name dinamically:

var gtm_datalayer_names=[];
if(typeof(google_tag_manager)!="undefined")
    for(i in google_tag_manager){
        if(google_tag_manager[i].gtmDom==true){
            gtm_datalayer_names.push(i);        
        }        
}

The we could do something like:

window[gtm_datalayer_names[0]].push({});

We’ll even be able to send pushes to all the different dataLayer available on the current page:

if(gtm_datalayer_names.length>0){
        var i = window.gtm_datalayer_names.length;
        while(i--){
           var dlName = gtm_datalayer_names[i];
           window[gtm_datalayer_names] = window[gtm_datalayer_names] || [];                 
           window[gtm_datalayer_names[i]].push({
              'event': 'my-event-name',
              'dataLayerName': gtm_datalayer_names[i]
           });                                           
        }    
}

Categorías
Reviews

Aprende a rankear en nichos de alta competencia (hablo de Dietas10.net)

https://m4p.es/aprende-a-rankear-en-nichos-de-alta-competencia-hablo-de-dietas10-net/ Aprende a rankear en nichos de alta competencia (hablo de Dietas10.net) 2016-02-09 18:46:18 admin Blog post Reviews accont

Hoy vamos a hablar en el blog de uno de los casos de éxito SEO más sonados de los últimos tiempos. Dietas10.net. Aquí pueden pasar dos cosas esenciales…

Que ya conozcas el blog (entonces esto te interesa si quieres conocer todavía más) o que no conozcas aún este blog, entonces esto te interesará el doble!

Vamos a hablar de la web, de como encontrar nichos para Adsense de 70 euros el click (como lo oyes) y te daré mi opinión sobre el curso que han lanzado sobre esto.
Source: http://blogger3cero.com/feed/

Aprende a rankear en nichos de alta competencia (hablo de Dietas10.net)

Categorías
COMUNICACIÓN SXXI

Herramientas para saber en qué posición está mi web – monitoreando keywords

https://m4p.es/herramientas-para-saber-en-que-posicion-esta-mi-web-monitoreando-keywords/ Herramientas para saber en qué posición está mi web – monitoreando keywords 2016-02-09 08:56:23 admin Blog post COMUNICACIÓN SXXI accont

Todos sabemos lo importante que es la buena elección de palabras clave para nuestros blogs y web para atraer visitas orgánicas. ¿Verdad? –si quieres saber cómo encontrar las mejores keywords, léete nuestro artículo-. Pero también es de vitalcontrolar la posición en la que se encuentra tu web en los buscadores para cada una de las palabras clave que intentas posicionar.

Es imprescindible que hagas una monitorización de las posiciones en las que se encuentra tu web o blog para las keywords que has elegido para saber si tus estrategias SEO van por buen camino o hay mucha competencia que se encuentra en posiciones más altas en el ranking. ¿Y cómo hacerlo?

Fácil, usando una de las herramientas que te proponemos desde Oink –verás que hay de grauitas y de pago- y siendo muy constante. Te recomendamos que crees un documento Excel- o que te descargues la plantilla que te regalamos al final de nuestro post sobre informes SEO– y que vayas apuntando los resultados cada semana o cada dos.

Herramientas para saber en qué posición se encuentra tu web

Antes de empezar con las diferentes herramientas –de ordenador y onlines, gratuitas y de pago- te contaremos cómo saber las posiciones de tu web por diferentes palabas clave con Google mismo. Es la manera más segura y de conocer tus posiciones pero también la más lenta y laboriosa.

¿Cómo hacerlo? Primero de todo, debes entrar en la navegación privada de Google –Archivo / Nueva ventana de incógnitoen Chrome y Archivo / Nueva ventana privada en Firefox– para no contaminar tus búsquedas –Google te conoce demasiado bien-. Además, tienes que eliminar la caché.

Luego, ve a los ajustes de la búsqueda de tu navegador para -clicando en Configuración / Ajustes de búsqueda-. Clica en “No mostrar nunca resultados de Google Instant”y aumenta el número de resultados por página a mostrar a 100 para no tener que ir cambiando de página cuando realices las búsquedas.

ajustes de busqueda google

Empieza a hacer las diferentes búsquedas para cada una de las keywords que quieres posicionar y busca –ctrl+f– en qué posición se encuentra tu página. Recoge los resultados en un documento Excel para ir monitorizando tus palabras clavecada cierto tiempo y ver si mejoras o empeoras en el ranking.

 

Herramientas para saber en qué posición se encuentra mi web

Gratuitas

 

Se trata de una aplicación que se instala en tu ordenador donde puedes monitorear la posición de las keywords por las que quieres que tu web se posicione. Puedes analizar múltiples dominios y diferentes keywords, agruparlas, segmentarlas, etc. Además, te deja escoger en qué buscador quieres conocer tus posiciones -Google, Yahoo o Bing- y desde qué país.

Puedes ir monitoreando las keyword y las URLs que se encuentran en esa posición cada cierto tiempo para ver si ha cambiado respecto a la búsqueda anterior gracias a un gráfico muy simple e intuitivo.

Problema bastante importante: solamente se puede utilizar con Windows. Los pringados de Mac no lo podemos instalar.

rankerizer posiciones web palabras clave

 

 

Se trata de otra herramienta para instalar en tu ordenador –y sí, otra que solamente se puede usar con Windows– muy parecida a Rankerizer, con el pequeño inconveniente de que Free Monitor for Google –como su nombre indicasolamente permite monitorizar las posiciones de nuestras URLs en Google.

Puedes analizar y monitorizar diferentes dominios y seleccionar, eso sí, el país desde el que quieres realizar las búsquedas. Para cada keyword, la herramienta te muestra la URL de tu dominio que está posicionada y te permite ver los 50 primeros resultados de búsqueda para esta palabra clave, siendo perfecto para conocer qué competencia se encuentra en las primeras posiciones.

free monitor for google herramienta palabras clave

 

 

Serplab es una herramienta gratuita online que te permite hace un seguimiento de la posición de tu web para un grupo de palabras clave. Al ser gratuita tiene sus pequeños defectos: tienes que hacer la búsqueda manual para cada uno de los dominios que te gustaría monitorizar y debes borrar las cookies de tu navegador y hacer las búsquedas desde fuera de tu cuenta de Google para evitar errores en los resultados. Sin embargo, si te registras –de manera gratuita– ya no tienes que salir de tu cuenta y puedes monitorear las keywords de tus proyectos, guardando los datos de los últimos 60 días. Pretty good para ser una herramienta totalmente gratuita, ¿no crees?

serplab herramienta monitorear palabras clave

 

 

Otra manera de comprobar en qué posición te encuentras para unas keywords determinadas, es Google Search Console –antiguo Google Webmaster Tools-. En la pestaña Tráfico de Búsqueda / Análisis de Búsqueda puedes ver cuáles son las keywords que han utilizado tus usuarios para encontrarte, qué URL de destino tiene cada una y en qué posición se encuentra en Google.

Esta herramienta te permite hacer búsquedas tanto de texto como de imagen y vídeo, ideal para comprobar si tuestrategia SEO de imágenes está dando sus frutos. También puedes escoger el periodo de tiempo en el que realizar las búsquedas, el tipo de dispositivo empleado y el país de procedencia.

google search console analisis de la busqueda

Eso sí, tiene algún defecto –¡no podía ser perfecta!-. Solamente te muestra resultados de los últimos 90 días y no te hace, de manera automática, un seguimiento de las keywords que elijas: debes descargarte el documento CSV e ir rellenándolo, manualmente, cada vez que quieras saber la posición de cada palabra clave.

 

Freemium / de pago

 

Esta herramienta es de pago aunque tiene una versión gratuita bastante completa, así que, si no tienes que monitorear muchos dominios y keywords, te sirve, ya que deja seguir el rastro de dos URLs y 50 términos.

Su panel de administración es muy sencillo, intuitivo y visual, ofreciéndote mucha información para conocer en qué posición se encuentra tu web según las palabras clave que hayas insertado. Te deja hacer la búsqueda tanto en Google como en otros buscadores y escoger el país, ciudad o región. También te permite comparar tus posiciones con las de la competencia, para saber cómo lo están haciendo.

Una herramienta muy chapeau para monitorear tus posiciones y las de otras web de la competencia, de manera sencilla y rápida.

proranktrackr herramienta posiciones palabras clave

 

La herramienta SEO que más nos gusta también te permite conocer las posiciones de tus URLs para diferentes palabras clave y monitorearlas a lo largo del tiempo para ver sus cambios.

Desde el apartado Investigación Orgánica podemos ver las posiciones en la que nos encontramos para cada keyword –no las añadimos nosotros, sino que nos las da SEMrush– y el tráfico que nos aporta cada una de ellas, la URL que está posicionando y la tendencia de búsqueda. Además, puedes conocer la competencia que tienes para cada palabra clave –imporantísimo– ya que la herramienta te deja un enlace a las SERP de Google con la búsqueda, el nivel de competencia y el número de palabras comunes que compartes.

También podemos ver los cambios que han sufrido las keywords por las que nos queremos posicionar, ver si existen de nuevas o si algunas han desaparecido de los resultados.

semrush keywords nuevas

 

 

Esta herramienta para ordenador-tanto para Windows como para Mac, ¡bien!– tiene una versión básica gratuita que solamente nos deja monitorizar un dominio. Al igual que las otras herramientas, su funcionamiento es muy sencillo: sólo debes escoger la URL a analizar, las palabras clave por las que queremos posicionar, los buscadores en los que queremos que busque y el país. Nos mostrará información sobre las posiciones alcanzadas –si estamos dentro de las primeras 100– a lo largo del tiempo, ofreciéndonos un historial con todos los cambios que han ocurrido.

cuterank herramienta monitorear palabras clave

 

 

Positionly es una gran herramienta online para monitorizar tu web y las de la competencia y saber en qué posición se encuentran tus URLs para determinadas palabras clave. Puedes escoger el país y el navegador donde realizar las búsquedas. Además, permite un análisis de los backlinks de los dominios monitorizados. Es una herramienta de pago pero puedes probarla durante 14 días de manera gratuita.

positionly herramienta ranking palabras clave

 

Extensiones de navegadores para conocer en qué posición está mi web

También podemos utilizar extensiones de navegador –para Chrome y Firefox- para monitorizar las posiciones de tu web en Google. Eso sí, ten en cuenta que, al ser una aplicación online, es posible que vuestro historial en el navegador afecte a los resultados obtenidos.

 

Se trata de una extensión para Chrome muy sencilla con la que puedes realizar una búsqueda por URL y keyword para saber su posición. Eso sí, la información que nos da es mucho menor que con las herramientas que ya hemos explicado, pero es una buena manera de conocer la posición de una URL determinada para una keyword de manera muy rápida.

Sí que puedes ver la evolución de la posición en las búsquedas que has realizado pero no podemos automatizar ests búsquedas, así que nos toca hacerlas manualmente. Eso sí, te permite descargar los resultados en CSV para que puedas hacer una monitorización a lo largo del tiempo.

 

Esta extensión par Firefox es muy parecida a SEO SERP con la que puedes monitorizar diferentes proyectos a la vez. Solamente tienes que seleccionar la URL que quieres analizar y las keywords por las que te gustaría posicionar. Al igual que SEO SERP, debes hacer las búsquedas de manera manual aunque puedes descargar los resultados en un archivo CSV.

ORIGINAL http://oinkmygod.com/herramientas-monitorear-posicion-web/

La entrada Herramientas para saber en qué posición está mi web – monitoreando keywords aparece primero en BLOG de Fernando Ruiz.


Source: http://fernando.ruizanton.com/blog/feed/

Herramientas para saber en qué posición está mi web – monitoreando keywords

Categorías
COMUNICACIÓN SXXI

El futuro de Vozpópuli en el nuevo periodismo

https://m4p.es/el-futuro-de-vozpopuli-en-el-nuevo-periodismo/ El futuro de Vozpópuli en el nuevo periodismo 2016-02-08 08:52:20 admin Blog post COMUNICACIÓN SXXI accont

Artículo Original de Miguel Alba http://vozpopuli.com/actualidad/75667-el-futuro-de-vozpopuli-en-el-nuevo-periodismo

Inauguro este rincón como director de Vozpópuli. Sin mochilas de ningún tipo en mis espaldas. Hijo de la transición, harto de que mi generación (la de los cuarenta y pocos y los treinta muchos años) aún siga separada por algo que escuchamos de nuestros abuelos, cuando el mundo se mueve a golpe de 140 caracteres en los diferentes patios globales que se abren por las ondas del wifi. Sin entender los separatismos cuando cada vez somos más ciudadanos del Mundo. Debuto en una España convulsa. Noqueada por la difícil aritmética de las urnas. Y con la brújula sin acabar de definir el rumbo. Pero no empezaré hablando de política. Aunque sí de líneas rojas, ese tag tan en boca de los políticos en esta escenografía de los pactos.

Inauguro este rincón compartiendo con todos vosotros (los que ya nos leéis y aquellos que nos seguiréis descubriendo por la red) mi proyecto para Vozpópuli. El ideario es sencillo: hacer PERIODISMO. Contar buenas historias tras chequearlas con los aludidos. Denunciando a derecha e izquierda. También al centro, si es que realmente existe. Haciendo preguntas incómodas. Con tolerancia cero hacia los corruptos. Enfrente de quienes tienen la ensoñación de romper nuestro país. Sin pretensiones de liderar campañas contra nadie (sea político, empresa del Ibex o cualquier otro tipo de lobby) pero tampoco de favorecerlas. Separándonos del discurso oficial que sólo busca el pensamiento único. Y, por supuesto, denunciando las puertas giratorias como rutina instalada para devolver servicios prestados.

El ideario es sencillo: hacer PERIODISMO. Sin pretensiones de liderar campañas contra nadie pero tampoco favorecerlas
Sobre esa base, bajo la batuta de Jesús (Cacho), hemos logrado colarnos en la barra de favoritos de 2,5 millones de usuarios únicos mes. La cifra aún está por detrás del valor de la marca Vozpópuli, de su verdadera influencia. Desde siempre, la apuesta de esta casa ha sido la de la calidad por encima de la estadística. El objetivo ha sido la noticia propia, la exclusiva (gracias a ellas nos hemos convertido en referencia), sobre el escaparate y su distribución. Una apuesta que tiene sus frutos desde hace tiempo. Es práctica común, por no decir habitual, que noticias de este medio se repliquen en otros (tanto escritos como televisiones) o agencias (no siempre con cita, por desgracia). Otro mal del periodismo actual: canibalizarnos y faltarnos el respeto entre los periodistas para evitar dar el aplauso con la cita al compañero que se lo merece, aunque sea la competencia.

El ideario tiene tres líneas rojas innegociables: ser libres, ser fiables y ser honestos. Las dos primeras aparecen sobre nuestra mancheta. Pero no son sólo un eslogan. Las tres circulan por el ADN de mi redacción. Presiones no han faltado en estos más de cuatro años para coartarnos. Y presiones no seguirán faltando. Algunas ya las he vivido como subdirector. Así es este mundo cuando te acercas con la sal a la herida. Con la noticia ante quienes están dispuestos a maniobrar hasta donde haga falta para frenar el scoop. A veces por evitar el sonrojo y otras, las que más, para tapar un escándalo. Insisto. Llego sin mochilas de ningún tipo.

El ‘core’ de Vozpópuli sigue, y seguirá siendo el mismo, la información de calidad y exclusiva sobre política, economía, finanzas, empresas, corrupción, tribunales y medios. Pero en esta nueva etapa, Vozpópuli comenzará paulatinamente a incrementar su oferta informativa con la que acompañará su gran transformación digital y el redimensionamiento necesario para afrontar la revolución industrial que está viviendo el periodismo. Una época en la que hay que huir de los gurús que prometen tener la varita mágica. Una época en la que ya no sólo el papel ha muerto sino que está empezando a caducar la versión de ordenador, la famosa versión clásica.

Casi el 60% del tráfico de Vozpópuli se alimenta desde los dispositivos móviles (smartphones y tablets). Las redes sociales o los agregadores (Meneáme) inyectan noticias a los lectores sin esa ordenación clásica de los manuales de periodismo. Lejos quedan ya aquellos tiempos en que la noticia importante abría a cinco columnas con foto, como nos decían en la facultad. Ahora, las noticias se esconden detrás de una url y varios tags, sin saber qué lugar ocupan en la caduca versión clásica.

Sería absurdo (e irresponsable) abstraerse de las ataduras del negocio periodístico actual
El periodismo se ha instalado en una dinámica en la que la forma, entendida como presentación, y las funcionalidades de sus plataformas importan tanto como el fondo de la noticia. Incluso, más. A diario vemos como entre las noticias más leídas de los periódicos, las curiosidades o el vídeo viral sobrepasa, duplica o quintuplica a las noticias construidas a golpe de buenas fuentes. Todo un puñal en el corazón de los periodistas. Lo confieso.

Pero toca renovarse. Hace poco leí una previsión que asusta por lo desconocido: en menos de una década, un 30% de la población activa habrá cambiado a profesiones que ahora todavía siquiera existen. Los recursos (vídeos, infografías, vines, tags, meta title, seo…), el dichoso algoritmo de Google, la indexación de las noticias, las diferentes métricas de estadísticas… nos han obligado a los responsable de los medios a transformarnos también en estrategas. Lo que más importa al periodista es lo que se cuenta. Lo que tanto importa al estratega es cómo se cuenta, en qué red se cuenta, a qué hora se cuenta, con qué hashtag, la necesidad de un buen SEO (posicionamiento)… Antes, en el pasado del papel, las noticias de hoy se cambiaban por las de mañana. Ahora, sin embargo, pese al tsunami informativo del mundo digital, la huella de cada noticia queda grabada en la red para siempre. Apareciendo y desapareciendo, cual Guadiana, en función de que un [email protected] en un rincón del mundo decida rescatarla días, meses o incluso años después de ser publicada por primera vez. Otra reflexión que nos obliga a ser más fiables.

El periodismo actual es un mundo nuevo, a medio explorar, cargado de pruebas y errores, que debe concluir en el equilibrio entre la forma y el fondo. La noticia y la estadística de su tráfico. La calidad sobre la cantidad. Como digo, mi compromiso como director de Vozpópuli es la primacía de la calidad, pero sería absurdo (e irresponsable) abstraerse de las ataduras del negocio periodístico actual. Más cuando las empresas, BBVA es el pionero de esta tendencia (info.bbva.com), han comenzado a lanzar portales con contenidos que pretenden captar a esos usuarios únicos a los que nos dirigimos los medios digitales.

En esa dura competencia, con un panorama superpoblado de medios digitales, pelea en la que han entrado decididamente los grandes periódicos impresos, se irá desgranando el futuro mapa del periodismo online que pasa inexorablemente por fusiones de cabeceras u otro tipo de sinergias. Un proceso, que aún siquiera ha comenzado, pero que sólo podrán liderar quienes hayan realizado la transformación digital necesaria para varios ejercicios en la que se encuentra inmersa Vozpópuli.

En dura competencia se irá desgranando el futuro panorama del periodismo online
En ese apasionante reto ando con Luis (Salinas), María (Piccolo) y Diego (Guillén Ligori), detrás de bambalinas. Delante, desde nuestro front office, la buena materia prima diaria me llega de Fede (Castaño), Alejandro (Vara), los Fonseca (Óscar y Carlos), Angela (Martialay), Raúl (Pozo), Alberto (Ortín), Segundo (Sanz), Rubén (Arranz), Balta (Montaño), Mario (Moratalla), Nico (Sarriés), Karina (Sainz-Borgo), Fermín (de la Calle), Gelín (Menéndez), Fran (Guillén), Bea (Téllez), Manu (Sánchez), Javier (Benegas), Alfonso (Aguilera), Marisa (de Toro), Marina (Alías), Jorge (Solis), Laura (Diez), María (Pérez) , Leticia (Núñez), Diego (Molpeceres), Antonio (Moreno), Gonzalo (Cabeza), Angel (Alonso), Pepo (@Kurioso), Javi (Raposo) y Laura (López). Javier (Martínez) lidera nuestro propio laboratorio digital, al que da soporte Rubén (García), y Manel (López), el apartado comercial.

Con ellos, algunos más que están camino del aterrizaje en la redacción, y junto al apoyo de Jesús, nuestro editor que sólo tiene alma de periodista, inicio esta nueva etapa con la aspiración de que Vozpópuli contribuya a que tengamos una España mejor, más justa, más plural, más libre, menos corrupta y que entierre para siempre el ‘y tú más’. Un proyecto en el que cuento también con todos vosotros. Con vuestras sugerencias, vuestras quejas y vuestras denuncias.

Hablamos. Cada lunes, en este rincón.

@miguelalbacar

La entrada El futuro de Vozpópuli en el nuevo periodismo aparece primero en BLOG de Fernando Ruiz.


Source: http://fernando.ruizanton.com/blog/feed/

El futuro de Vozpópuli en el nuevo periodismo

Categorías
Google Adsense

Cómo colocar Adsense en tu blog como un Pro sin ser programador

https://m4p.es/como-colocar-adsense-en-tu-blog-como-un-pro-sin-ser-programador/ Cómo colocar Adsense en tu blog como un Pro sin ser programador 2016-02-05 19:46:45 admin Blog post Google Adsense bootstrap

En el artículo de hoy vamos a seguir hablando de Adsense y nos vamos a centrar en enseñar cómo colocar los anuncios de las formas más efectivas.

¿Lo bueno? Es que hemos hecho un post donde explicamos paso a paso como poner Adsense tanto en WordPress como en Blogger.

Lo hemos diseñado todo de tal modo que no necesitas tener ningún conocimiento de programación, solo seguir el tutorial. ¡Mira nuestras combinaciones para subir CTR dentro!
Source: http://blogger3cero.com/feed/

Categorías
Google Adsense

Multiplica x2 tu CTR con estos plugins de Google Adsense

https://m4p.es/multiplica-x2-tu-ctr-con-estos-plugins-de-google-adsense/ Multiplica x2 tu CTR con estos plugins de Google Adsense 2016-02-05 19:46:45 admin Blog post Google Adsense

En el artículo de hoy vamos a seguir hablando de Adsense y nos vamos a centrar en enseñar cómo colocar los anuncios de las formas más efectivas.

¿Lo bueno? Es que hemos hecho un post donde explicamos paso a paso como poner Adsense tanto en WordPress como en Blogger.

Lo hemos diseñado todo de tal modo que no necesitas tener ningún conocimiento de programación, solo seguir el tutorial. ¡Mira nuestras combinaciones para subir CTR dentro!
Source: http://blogger3cero.com/feed/

Categorías
analítica digital Analítica Web Google Analytics Marketing Online medición Modelos de atribución Negocio

El modelo de atribución basado en datos de Google Analytics y su aplicación a la política

https://m4p.es/el-modelo-de-atribucion-basado-en-datos-de-google-analytics-y-su-aplicacion-a-la-politica/ El modelo de atribución basado en datos de Google Analytics y su aplicación a la política 2016-02-04 09:38:34 admin Blog post analítica digital Analítica Web Google Analytics Marketing Online medición Modelos de atribución Negocio bootstrap

La solución a la formación del gobierno de España bien podría solucionarse aplicando el modelo de atribución basado en datos de Google Analytics.

Mucho hemos hablado y seguiremos hablando de los distintos modelos de atribución pero hoy profundizaremos un poco más sobre el modelo basado en datos de Google Analytics a través de un ejercicio para tratar de solucionar el problema de la formación de gobierno.

El modelo de valor de Shapley

Los amigos de Google no es que hayan inventado nada nuevo, sino que se han basado en el algoritmo de Valor de Shapley desarrollado por Lloyd Shapley (premio Nobel de economía) para distribuir de forma justa los resultados de un equipo que coopera y obtiene una cierta ganancia de esa cooperación. Para intentar ayudar un poco a nuestras fuerzas políticas, vamos a explicar el modelo aplicándolo a la actual situación.

Resultado elecciones generales 2015. Fuente El País

Resultado elecciones generales 2015. Fuente El País

Para simplificar algo el ejercicio, tal y como se hace en el Congreso, dividiremos las fuerzas políticas en los cuatro principales partidos y el grupo mixto. Para alcanzar la mayoría absoluta, necesitamos los 176 escaños. La distribución quedaría:

Captura de pantalla 2016-02-03 a las 11.17.21

En nuestro caso, no van a existir ideologías políticas y todos podrán pactar con todos, existiendo 31 combinaciones posibles.

Reparto partidos

Pero sólo 16 de estas combinaciones (en verde), entre los distintos partidos políticos, alcanzarán el objetivo de conversión o, en nuestro caso, la mayoría absoluta que supere los 176 escaños.

Aquí es donde entra en juego un concepto que viene perfecto para los análisis de atribución, la redundancia. Un partido político será redundante en una coalición, cuando no sea imprescindible para que esa coalición resulte vencedora.

De esta forma, los distintos partidos políticos estarían en coaliciones vencedoras, sin ser redundantes, en los siguientes números de casos:

  •  – PP no es redundante en 10 coaliciones vencedoras
  •  – PSOE no es redundante en 6 coaliciones vencedoras
  •  – Podemos no es redundante en 6 coaliciones vencedoras
  •  – Ciudadanos no es redundante en 2 coaliciones vencedoras
  •  – El Grupo Mixto no es redundante en 2 coaliciones vencedoras

Con estos valores y aplicando el valor de Shapley, el reparto justo de los 314.488 millones de euros de presupuesto para 2016, en el caso de que se formará un gobierno de gran coalición con todos los partidos, quedaría de la siguiente forma:

  •  – PP, 956,92 millones de €
  •  – PSOE, 574,15 millones de €
  •  – Podemos, 574,15 millones de €
  •  – Ciudadanos, 191,38 millones de €
  •  – El Grupo Mixto, 191,38 millones de €

¿Sorprende el reparto?

Aplicación en la analítica digital

El modelo de valor de Shapley, de una forma global y teórica, es lo que aplica Google a la hora de realizar el modelo de atribución basado en datos (Data Driven). Este modelo de atribución ofrece una visión mucho más holística, incluyendo el beneficio de la colaboración que tienen los distintos canales de marketing online para conseguir las conversiones. Es una mejora interesante frente a los modelos de atribución predeterminados (última interacción, primera interacción, lineal, declive en el tiempo…), que presentan más limitaciones.

En la imagen, al comparar varios modelos, podemos ver la conversión que asigna Google Analytics a cada canal de marketing online.

Comparación de modelos Google Analytics

Comparación de modelos Google Analytics

 

Mientras el modelo de última interacción le asigna más conversiones al tráfico directo y las búsquedas orgánicas, el modelo de análisis basado en datos le asigna un número mayor de conversiones al Display.

Dentro del análisis de atribución de Google Analytics Premium encontramos también los nuevos informes de “Análisis ROI “y una herramienta que promete bastante, el “Explorador de modelos”. Pero ambos todavía en modo BETA.

 

Explorador de modelos Google Analytics

Explorador de modelos Google Analytics

 

Sí es importante señalar que el modelo Data Driven (basado en datos) analiza todos los productos de Google que hayamos enlazado con Analytics. Será muy importante conectar Adwords, DoubleClick,… así como tener correctamente configurados los distintos objetivos y en caso de que corresponda, el seguimiento del comercio electrónico. Señalar también que sólo esta disponible en la versión Premium de Google Analytics

Conclusiones

El modelo de atribución basado en datos, aunque no llega a solucionar del todo el problema para la formación del Gobierno de España, es un paso hacia delante y, sobre todo, puede ser un gran aliado a la hora de desarrollar modelos de atribución personalizados más exactos. Será interesante seguir avanzando incluyendo información de otras fuentes como CRM, Big Data, etc. que vayan mejorando el modelo.

El futuro a medio plazo se muestra muy excitante en el sector. Todos estamos expectantes en ver lo que van a permitir estas herramientas – sobre todo al integrarlas con otras a medio plazo – en cuanto a posibilidades de maximizar y optimizar resultados, mejorando efectos multiplicadores entre las distintas estrategias y acciones de marketing online. Sin duda, el papel del analista digital será imprescindible en este nuevo escenario, aumentando el valor añadido al negocio.

Source: http://www.analiticaweb.es/feed/

Categorías
ajustes básicos imprescindibles on page Posicionamiento SEO Social Media y 2.0 wordpress

11 Ajustes imprescindibles de SEO On Page en WordPress

https://m4p.es/11-ajustes-imprescindibles-de-seo-on-page-en-wordpress/ 11 Ajustes imprescindibles de SEO On Page en WordPress 2016-02-04 09:31:50 admin Blog post ajustes básicos imprescindibles on page Posicionamiento SEO Social Media y 2.0 wordpress

En este post te voy a contar de forma sencilla los ajustes de SEO On Page que en tu WordPress deberás realizar o tener en cuenta, todo ello sin necesidad de saber sobre SEO On Page. Se trata además de una actualización de este post tras haber impartido un webinar sobre SEO On Page en …

La entrada 11 Ajustes imprescindibles de SEO On Page en WordPress aparece primero en RaMGoN.


Source: http://ramgon.es/feed/

11 Ajustes imprescindibles de SEO On Page en WordPress