El nuevo SEO, Google y la medición de la calidad

Siempre digo que el SEO es un mundo de modas. Tenemos de todo, a los influencers dejando claro de qué hay que hablar en cada momento, a una masa de SEOs que valora lo que le gusta y lo que no le gusta y en definitiva una serie de tendencias que cada año se imponen sobre distintas opiniones. A veces sigues la ola rápido, otras tardas más en asumir por donde van los tiros y lo cierto es que en ocasiones estas modas tienen sentido y otras son solo eso, «modas». Diferenciar lo que importa de lo que solo es tendencia -ya que no todo lo «de moda» importa siempre demasiado- se termina volviendo es todo un arte…

Cada año, cual canción del verano, ciertos temas se imponen y se asumen como ciertos. Cada año el mismo ciclo. ¿Pero que pasa este año? ¿No hay novedades? En una mirada superficial así parecería: Muchos sistemas de refritos con otro nombre, y mucho detalle suelto pero que no cambia la esencia del SEO. No hay grandes tips ni nada que nos obligue a revisar nuestras webs a todos.

Eso podría parecer, ¡pero vaya que si hay cambios! Lo que pasa es que quizás sean más transcendentales y difíciles de describir de lo que solemos estar acostumbrados. Y de eso va este post, del gran cambio que poco a poco está tomando forma y que cada día es más patente: Si nos fijamos bien, los distintos «temas de moda» confluyen para hablarnos en realidad de un único gran cambio:

Google ya no quiere contenido, quiere calidad

No es algo de lo que se hable siempre directamente, pero si que hay un trasfondo en cada pequeña novedad que nos lleva siempre por el camino de la calidad. Ya no del contenido, sino la calidad por la calidad en todo lo que influye en nuestro posicionamiento. Así que hoy hablaremos de calidad y SEO a sabiendas de que la Calidad es un aspecto muy subjetivo, que debe ser interpretado por maquinas que de por sí no entienden nada que no exista en su base programación y bases de datos…

quality

Un poco de introducción…

Llevamos algo más de un añito intentando subir el nivel y terminar de entender cómo es ahora la optimización perfecta. Cada uno avanza en su línea de experiencia y poco a poco algunos conceptos van asentándose para todos, pero en muchas ocasiones lo que tenemos es una gran amalgama de detalles que cuesta poner en conjunto hasta terminar de entender lo que está pasando con la evolución del algoritmo de Google.

Y es que en SEO creo que es muy sano simplificar las cosas hasta un nivel que sea comprensible para todos, pasar de esos 200 o 2.000 criterios de clasificación a un sistema lógico en el que las piezas se identifiquen sin problemas y sean más simples para todos. Es la única forma de no volverte loco y darle sentido a tanto detalle suelto. Para ello, nosotros en IKAUE tenemos nuestro «Diamante SEO», que divide lo que aprecia google de nosotros en 3 conceptos: indexación, semántica y autoridad.

diamante-seo

Este esquema (que no es el único, ni tiene por que ser el mejor, por supuesto) nos resulta ideal para entender como se conectan los distintos aspectos de la percepción que hace Google -y cualquier buscador- sobre nuestras webs. Aunque sabemos que es solo un esquema que no lo cubre todo. Así que para empezezar con una buena base a la hora de estudiar la calidad como criterio de posicionamiento debemos intentar situar esta en nuestro esquema y desde ahí seguir profundizando.

En nuestro caso, vemos que por lo general resulta complejo situar los aspectos referentes a la calidad en el diamante, pues afecta a las tres piezas del esquema a la vez. El propio concepto de calidad es ambiguo y nos habla de que un mismo recurso puede valorarse no sólo por existir sino por cómo se ha resuelto al ser creado. Tras darle muchas vueltas lo que vemos es que lo que provocamos al mejorar la calidad de una pieza del diamante afecta en realidad a como se percibe una pieza distinta. Es decir, por ejemplo, si mejoro la calidad semántica de un contenido con ello lo que hago realmente es mejorar la autoridad de ese contenido. Por eso nos cuesta tanto situarla en un esquema…

Así que en un intento de dibujar los aspectos principales que priman en la calidad del buscador vemos que no tiene sentido aplicarla directamente a estos 3 conceptos, sino que hay que relacionarla relacionada con la interacción entre ellos. Así pues una forma de dibujar la calidad sería esta:

  • De la indexación a la semántica: Nos encontramos con la fuerza que cogen los distintos sistemas de microdatos pero sobretodo con la capacidad que tiene Google de entender lo que ve y lee realmennte el usuario en las webs.
  • De la indexación a la autoridad: Nos encontramos con que los típicos aspectos de calidad técnica del site (formatos, pesos, velocidad de carga) y que se completan con la interpretación que hace Google de los aspectos de aportación de autoridad tales como calidad de los links
  • De la semántica a la autoridad: Quizás uno de los cambios más relevantes: la calidad (entendida de la forma más humana posible) afecta de forma directa e irremediable a la autoridad de los contenidos. Y en este esquema además sabemos que reputación de marca cada día es un factor más sobre la calidad de su propio contenido.
  • y de la autoridad a la semántica: Donde ya sabíamos que la semántica del origen de los factores de autoridad afectaba a la semántica del contenido pero ahora tenemos a un nuevo jugador en la autoridad: la experiencia de usuario que, medida de distintas formas, nos permite saber si un contenido ha sido consumido o ha generado rechazo.

diamante-seo-con-calidad

Son muchos detalles. Ninguno contradice las bases del SEO pero si que entre todos la completan. Podríamos decir incluso, que la búsqueda de la calidad se ha convertido en el nivel avanzado del SEO. Y es que podemos hacer SEO como siempre lo hemos hecho, incluso añadiría que es imposible hacerlo bien sin tener en cuenta las bases que manejamos desde hace años, pero lo cierto es que hay otro nivel con el que jugar y el SEO siempre va a estar peor hecho si seguimos hablando de mecánicas sueltas y no de una estrategia que tenga como trasfondo la calidad de todo lo que haces.

Como se dice en el mundillo: «El SEO no muere, se transforma», y parece que nos están obligando a transformar nuestras estrategias en conceptos algo más inteligentes que URLs y textos de 500 palabras…

Google y la calidad

La calidad de los resultados de búsqueda siempre ha estado en la boca de la gente de Google, desde sus primeras comunicaciones. Esto nos deja claro que, tengan o no éxito en obtenerla, la calidad es su máxima prioridad. Hablamos de un producto -Google Search- que en su superficie es tan simple como una caja donde escribes tu necesidad y esta responde. La calidad de esta respuesta es realmente el único parámetro por que el que podemos juzgar la herramienta y por lo tanto debe ser el principal objetivo para sus responsables.

Sin embargo esta calidad ha sido y es puesta en entredicho en multitud de ocasiones. Los SEOs estan ahí, muchos de ellos con ansias de llenar de spam el buscador, y algunos son realmente buenos en esta tarea. Así que Google en busca de esa calidad ha tenido que meter la sobreoptimización como elemento negativo. Así nacieron los updates y algoritmos negativos (los más famosos con nombres de tiernos animales blancos y negros) y empezó el juego del gato y el ratón entre SEOs y Google que si algo ha provocado es que nuestro trabajo haya pasado a dar resultados impredecibles (ya nadie garantiza subidas de un 100% como pasaba hace pocos años). Un juego, seamos claros, en el que Google -como era de esperar- va ganando poco a poco a la mayoría provocando que el SEO a largo plazo cada día sea un tono más blanco que el anterior. Cuando te pillan duele, y cada día te pillan más.

Pero, más allá de estas acciones de limpieza anti-spam, Google lleva tiempo enfrentándose a la necesidad de ser capaz de realizar un cualitativo de sus búsquedas de forma automatizada. Tiene a sus Quality Raters (personas que evalúan manualmente los resultados) pero Google necesitaba trabajar en algún sistema que le permitiese separar el contenido útil del prescindible para ayudarle a elaborar sus rankings no solo valorarlos…

¡Y algo hizo! las cosas parece que empiezan a cambiar. Lo que empezamos a intuir estos días es la prueba de que lo está consiguiendo… No significa que Google no siga lleno de Spam -ni mucho menos-, sino que cada día es más bueno en su labor de priorizar el contenido útil sobre toda la porquería que hay por Internet.

Google y el Machine Learning

Nos ponemos a hablar de calidad y es inevitable que nos salga humo por la boca. Es terreno de Guruseo y charlatanería. Y es que mi este concepto de calidad solo deja de ser palabrería y cobra sentido en el momento en el que empezamos a utilizar técnicas propias de la inteligencia artificial como parte del algoritmo de Google. Google Search quiere ser una persona. O más bien quiere pensar como lo hace la masa de personas, porque así es como consigue entender qué es la calidad fuera de simples procesos matemáticos donde solo la cantidad y la comparación directa de palabras pueden indicarle este tipo de aspectos tan poco matemáticos.

Para los que aun no lo sepan, el machine learning («aprendizaje de maquinas» no queda lo suficientemente guay, ¡y lo sabes!) es una forma por la cual hacer «aprender» a las maquinas -ordenadores más bien- a base de gran cantidad de ejemplos de comportamiento -en este caso de las personas-. Para simplificar podríamos entender que se trata de programas dedicados a recoger información desestructurada sobre lo que hacen las personas frente a cierta situación más o menos subjetiva. A partir de ahí con procesos muy variables sacan patrones de comportamiento y así son capaces -en teoría- de dar resultados que repliquen esa creatividad o subjetividad de los individuos. Como fuentes de datos tenemos casi cualquier posibilidad (depende de como haya sido programado este aprendizaje puede haber incluso validaciones a mano). Tenemos sistemas que «simplemente» leen libros o textos para aprender a expresarse, otros que sacan patrones de datos estadísticos o sistemas ya montados para que las personas ayuden a las maquinas a aprender (un ejemplo muy claro sería el Google Image Labeler).

MachineLearningDiagram

Para terminar de aclarar del todo el concepto: El machine learnign no es inteligencia artificial -no responde a preguntas directas, ni mantiene una amena charla con John Connor mientras mantiene su escopeta en alto- pero es una base firme por la que se puede empezar a desarrollar y mejorar esta famosa inteligencia artificial y así encontrar soluciones humanas a problemas humanos. Con este tipo de técnicas y los patrones que surgen de ellas, poco a poco se están consiguiendo grandes logros al crear diálogos, respuestas automatizadas o interpretaciones automatizadas de gran cantidad de situaciones. Hay hasta una película rodada sobre un guión escrito por una máquina, que según parece es infumable, por supuesto -pobres máquinas, aun están aprendiendo- pero ya solo que consigan acabar un guión es más que notorio.

En fin, «Machine Learning»… Lo que resulta tan fácil de describir en palabras se transforma en la práctica en una ciencia que avanza a pasos agigantados y en la que muchísimas grandes empresas están invirtiendo millonadas. Entre ellos Google/Alphabet , donde por supuesto no hablamos sólo de búsquedas sino de multitud de aplicaciones. Algunas son más evidentes para el gran público como el nuevo Google Asistant -destinado a ser el corazón de Google Home y de nuestros móviles-, el reconocimiento de fotos o los coches autónomos. A estas se unen aplicaciones más cercanas a nuestro trabajo como SEOs como algunas partes de los updates de Google Panda o el reconocimiento de intención de la búsqueda que se realiza desde que el algoritmo cambió sus bases y paso a llamarse Hummingbird. Todo esto sale del mismo tipo de acciones y al final este gran mundo se resume actualmente en pequeñas aplicaciones que dan respuestas sorprendentes a casos concretos porque han estudiado el comportamiento humano (analizando millones de ejemplos) y por lo tanto pueden en mayor o menor medida replicarlo.

Google Brain Team y Google Search Rank Brain

Que Google se toma en serio todo lo que tienen que ver con sistemas de inteligencia artificial lo tenemos patente solo con mirar a uno de sus equipos/departamentos más famosos en la actualidad: Google Brain, un equipo dedicado fundamentalmente a mejorar el conocimiento sobre estos ámbitos en Google y en su empresa madre Alphabet. Especialmente interesante me parece la ronda de respuestas que lanzaron hace poco en Reddit (en inglés), aclarando a qué se dedican, qué buscan y como colaboran.

largescale-deep-learning-for-building-intelligent-computer-systems-a-keynote-presentation-from-google-1-638

Google Brain sería el pilar más académico de estas investigaciones pero no perdamos el norte y volvamos al buscador. Hablábamos de machine learning y en esta línea es inevitable terminar descubriendo como todo este uso sistemático del machine learning acaba, como no, teniendo una integración directa en todo el algoritmo. Esto sucedió hace ya unos meses con un producto que acabó siendo presentado con un nombre propio en octubre de 2015: RankBrain.

Google Rank Brain

Un añadido que se nos presenta ya como la 3ra señal más importante que toma Google para mostrar sus resultados en el buscador. Sobre cómo afecta a la interpretación de las búsquedas existe en realidad cierta polémica. Puedes buscar por internet sobre ¿qué es o qué hace Rank Brain? y verás más posts mezcando temas que no tienen nada que ver y elucubrando que diciendo realmentne lo que es.

Oficialmente sabemos que interpreta las búsquedas para ser capaz de mostrar resultados que respondan a la intención de búsqueda real del usuario, pero no por ello tengan que contener las palabras buscadas. Es decir, busca interpretar de forma humana lo que realmente buscamos. Ahí es nada. También sabemos con certeza que donde si lo están usando es en búsquedas nuevas (búsquedas que nunca antes habían sido hechas) para saber que busca realmente el usuario con ellas. Unas búsquedas que gracias al mobile y a las búsquedas por voz se van disparando y que lo harán aún más si Google Assitant termina de triunfando.

Ya dentro del terreno de la opinática el mundo SEO tiene de todo para nosotros.

-Empezamos por la más famosa: que recoge tu experiencia de búsquedas previa para saber que ofrecerte (lo que sabemos que Google hace, pero yo dudo que esto este dentro de RankBrain, más bien parece que es solo una capa de personalización más simple).
– Otras teorías nos hablan de que para búsquedas semejantes permite a Google posicionar dando pesos distintos algunos criterios de autoridad y por lo tanto así se adapta mejor a lo que realmente busca el usuario (algo que suena muy chulo y creible pero es difícil de demostrar que esté pasando realmente).
– Y luego ya llegan ideas raras que realmente no se como la gente ha terminado asociando con RankBrain.

Sea como sea, RankBrain no es el único sistema de Machine Learning de Google Search, solo es el único con nombre propio y función claramente definida dentro de la interpretación de las búsquedas. Dentro de la valoración de tus páginas, que es lo que nos ocupa tenemos otras aplicaciones que iremos perfilando.

Si te interesa este mundillo del machine learning y aun no te queda claro de que va te paso algunas lecturas con las que hacerte una idea:
Machine learning Revolution de Moz y en inglés.
Machine learning changiong Seo de Search Engline Journal y en inglés.
Artículo sobre Machine Learning en El mundo y en español.

¿Cómo nos afecta la calidad que percibe Google a los SEO?

Como decíamos Google aplica lo que es capaz de intuir sobre la calidad de nuestras webs y contenidos de distintas y diversas formas. Prácticamente a cada uno de los criterios SEO les aplica este barómetro. Esto ya lo hacía hace tiempo, la diferencias radica en que ahora tiene más recursos para hacer sus valoraciones mucho más humanas y darse cuenta de que es «bueno» y que es «una mierda».

¿Significa esto que el SEO haya cambiado radicalmente? En absoluto. Los pasos siempre se dan muy poco a poco y estos criterios de calidad existen, pero no lo son todo ni mucho menos. Son solo la parte en la que ahora se está evolucionando. Pero no eliminan nada de todo el SEO que ya se venía haciendo. Seguidamente vamos a hablar de muchos matices y elementos a tener en cuenta al trabajar con nuestras webs pero por favor no entendamos que estos son los únicos. Todo lo demás sigue estando ahí y al menos a día de hoy sigue siendo más que vital para posicionar correctamente.

Para empezar a bajar al detalle vamos a ir siguiendo las partes del diamante que os presentaba al principio. Vamos a repasar cómo trabajar esta calidad en la web pieza a pieza…

La calidad en la indexación

La indexación es ese proceso por el que Google recoge y clasifica los contenidos dispersos por Internet. Habrá quien te diga que el rastreo es una cosa y la indexación otra. Bien, a mi me da igual. Al menos en este texto entenderemos el rastreo como un proceso necesario para poder realizar la indexación.

Esta es quizás la parte más técnica del diamante que dibujabamos antes. Pero aun así no se libra de esta interpretación de la calidad que realiza Google. Así que vemos que hay 2 grandes grupos de criterios a tener en cuenta (los viejos más técnicos y los nuevos más «inteligentes»). Poco a poco iremos viendo como esta dualidad la encontramos por todo el «nuevo google».

1. La perfección de la web y clasificación según su etiquetado

Aquí no hay nada que no sepamos hace tiempo. Se trata de valorar y clasificar a las webs por sus características de calidad técnica. Este tipo de criterios están ahí desde hace tiempo y vamos viendo como simplemente se ha hecho más obvio que afectan al posicionamiento.

Los elementos quizás más notorios en este ámbito serían:

  • La velocidad de proceso y conexión de los servidores
  • El peso de la web, de su HTML y de los recursos que usa para imprimirla
  • La adaptación a distintos dispositivos de la web (por ejemplo mobile)
  • El etiquetado y las ayudas que ofrecemos para dejar entender nuestro HTML y nuestros contenidos. Principalmente hablamos de HTML5, etiquetas REL y de Schema (microdata o Json-LD, lo mismo da)

Para todo esto tenemos herramientas de trabajo de sobra (pageSpeed, GSC, PingDom, Structured Data Testing Tool, etc.) y el trabajo sobre estos criterios sin dejar de ser esencialpara hacer buen SEO puede llegar a ser casi mecánico (ya se que exagero, pero algo automático si que se vuelve).

Todo muy sencillo y capaz de meterse en un manual, pero como anunciábamos ya no todo son datos técnicos. A todo esto tenemos que sumarle la calidad medida de una forma más humana.

2. La detección no técnica de criterios de calidad

Fuera de la parte técnica vamos descubriendo que Google también intenta averiguar -le ayudemos o no-, qué es lo que está recogiendo realmente. Ahí están sus avances técnicos y en machine learning dándolo todo. Sabemos que es capaz de identificar qué lugar ocupan los elementos en el diseño final, qué tamaño tienen y por lo tanto cuan relevantes serán estos contenidos para el usuario cuando los vea e interactúe con ellos. Unos cuantos millones de ejemplos de uso que hacen los usuarios al encontrarse este tipo de elementos y ya tenemos algoritmo de calidad (que fácil es describir las cosas cuando no hay que programarlas, ¿verdad?)

A nosotros sobre este aprendizaje nos van llegando píldoras en forma de pequeños updates oficiales: como el que penaliza la publicidad excesiva, el que prioriza el contenido above-the-fold, el que disminuye drásticamente el peso a contenidos y links ocultos y que necesitan clicks del usuario para ser mostrados. Esas son las píldoras, pero la base es que Google está empezando a interpretar los diseños de una forma parecida a como nosotros lo hacemos cuando los vemos. ¿Los criterios de usabilidad por lo tanto están afectando al seo? Pues no al SEO Base , pero a su calidad si, y esto va a ir a más. Llegamos a un punto donde empezamos a poner seriamente en duda que la calidad del HTML afecte al SEO. Mientras etiquetemos bien los bloques del HTML5 (header, nav, article, etc.), hagamos un correcto etiquetado de referencias (hreflang, lang, version mobile, etc) y marquemos los datos estructurados más relevantes el resto del HTML ¿Tiene sentido? Pues la sensación es que cada vez importa menos el HTML y en cambio cobra más importancia su visualización final.

Una mención especial sobre todo esto merece el tema de la medición de la calidad de los links. Un tema importantísimo tanto para temas de Autoridad OnPage (Arquitectura de la información, Link Sculping, etc.) como de autoridad OffPage (links naturales y Link Building). Aquí se dicen muchas cosas que yo soy muy reacio a creer y que nos dicen que los clicks reales de los usuarios son tenidos en cuenta para valorar los enlaces. Ya hablemos de si Google sabe esto gracias a que roba los datos de Google Analytics o si lo hace de tu historial de Chrome (desktop o mobile) a mi me parecen más teorías «conspiranoicas» que una realidad comprobable.

Reconozco que gustó mucho el post de Sistrix sobre este tema por como lo desarrollaban y como te llevan por esta pregunta tan actual. Pero igual que les menciono y pongo en valor todo su argumento podéis ver que no comparto la conclusión. Es una posibilidad, pero me parece demasiado arriesgada. Estas acciones de ser ciertas serían de dudosa legalidad y con un altísimo impacto social si Google fuese descubierto practicándolas. Dudo mucho que «desde arriba» se barajen estas posibilidades. No se, me crié en internet con el «don’t be evil» de fondo…

Aquí el machine learning otra vez creo que es la clave. Nadie dice que Google no pueda valorar la actividad de miles de analytics (principalmente suyos) o los datos de los que dispone y acumula gracias a nuestros navegadores. Pero dudo mucho de que se trate de un uso directo que ataque a nuestra privacidad de forma personal. Toda esta información de la que disponen tiene mucho más sentido como muestras con las que nutrir a distintos programas de machine learning para sacar patrones que sepan predecir si un link es visible o no, si es bueno o malo y si se ha puesto ahí para hacer link building o realmente tiene sentido su incorporación para el contenido.

Y es que sabemos que esos patrones sobre los links ya han sido en parte extraídos. Existen y están mejorando día a día. En su versión más drástica se llaman Google Penguin y en su versión más dinámica lo aplican con el comportamiento de su «Reasonable Surfer» para ponderar el valor de los links al indexarlos.

La conclusión que podemos sacar sobre la indexación es que Google busca VER e INTERPRETAR como un usuario. Aun no sabe hacerlo bien, pero cada día lo hace mejor.

La calidad en la semántica

La semática es el pilar de comprensión del algoritmo. Aquí es donde se evalúan los significados de los textos que posicionamos y por lo tanto es donde entramos de cabeza en el mundo de las keywords.

Como siempre tenemos una parte más técnica y otra más humanizada por la que observar este problema.

1. La calidad semántica, observada técnicamente

Aquí nos damos de bruces con las creencias más antiguas en SEO: Necesitamos contenido textual y con una dimensión mínima para entender que nuestro contenido es de calidad. El mejor ejemplo -que no prueba- sobre esto siempre fue la Wikipedia. «Mira como siempre salen los primeros, esto es porque sus artículos son textuales y superlargos». Difícil de rebatir, pero no por ello cierto.

Otros conceptos puramente técnicos serían la vieja «densidad de keyword», el «peso de contenidos según sus etiquetas HTML» y algoritmos más o menos simples de lectura e interpretación del contenido. Todos ellos son conceptos aun vigentes en muchas charlas pero también desfasados y matizados por otros más modernos y certeros.

Siguiendo dentro del ámbito técnico tenemos los poco a poco más famosos términos de:

  • El posicionamiento por semánticas: que nos deja claro que la keyword exacta cada vez tiene menos sentido y lo que tenemos que hacer es ir a posicionar significados
  • Co-citación y Co-ocurrencia: Donde destacaría la explicación base que Jesus Lopez por lo clara que es ¿Qué es la Co-citación y la co-ocrrencia? y los casos profundos que suele ofrecer Cesar Aparicio en sus charlas y posts.
  • Y la Semántica latente: Que de forma totalmente ligada a la co-citación resume aún mejor la forma por la que los buscadores «entienden el contenido». Aquí os destacaría dos post casi contradictorios en su forma de expresarlo: Por un lado el de Human Level por lo exacto y claro del mismo. Y por otro el de Chuiso precisamente por aterrizar el concepto justo al revés, de forma más bruta y directa pero con un ejemplo práctico que puede ayudar a muchos a interiorizarlo.

Estos son ejemplos claros de como se puede entender la semántica de forma matemática pero bastante más compleja que una simple repetición de keyword. Hasta aquí todo podemos entenderlo más o menos bien. Normalizarlo y trabajar. Y lo cierto es que sin duda esta es la base de la semántica y no dudo que siga siendo una parte muy fuerte del análisis semántico que realizan las maquinas, pero estaremos de acuerdo que un análisis de cercanía en frases o citaciones no es suficiente para «comprender» lo que dicen las personas en las webs. Esta claro, que Google quiere avanzar bastante más en este terreno…

2. La calidad semántica, más cerca de la realidad

Aquí tengo que recomendaros por encima de todo este post de search Engine Land

What is Quality Content

Donde Patrick Stox pega un genial repaso a la pregunta «¿qué debe considerar Google contenido de calidad?». Se nos habla a través de documentaciones, guías de referencia y declaraciones de distintos aspectos que de forma reiterada nos guían hacia los principios de calidad que forman el trasfondo de la búsqueda que hace Google. Si no lo habéis leído apuntad el link que merece la pena.

Entre un paseo entre inputs, documentaciones y declaraciones nos deja ver la evidencia: Google no quiere que sepamos que interpreta por calidad y que no, pero le interesa que entendamos de forma clara lo que es baja calidad.

Las conclusiones prácticas que podemos sacar de este artículo serían las siguientes:

  • E-A-T: Expertise, Authoritativeness and Trustworthiness. Indicador/es de la calidad del contenido según la experiencia (tiempo y conocimiento), autoritatividad (capacidad de tomar una buena decisión) y credibilidad (capacidad para no equivocarse y no ser puesto en duda). Es decir es un sistema de medición de lo crack y fiable que es la fuente. Para ello Google necesita una información vital: reconocer quien es el responsable del contenido y/o mímimo de la web. Por eso nos anima a tener un buen «Quienes somos» y a firmar los posts.
  • PQ (page Quality) Un criterio basado en la CANTIDAD de contenido principal (MC-Main Content) de ALTA CALIDAD. Entendiendo como contenido de alta calidad aquel que hacen falta tiempo, esfuezo y conocimiento para crear. Es decir, o al menos yo lo leo así: cantidad de contenido que aporta valor diferencial que hasta entonces no existía en internet.
  • Respuesta a la Intencionalidad de búsqueda Entendiendo que Google divide las búsquedas según tipos de interés y por lo tanto si entiende que alguien busca descripción primará contenidos contrastados y con detalle pero si la búsqueda tiene una intención más ociosa blogs, vídeos y juegos saldrán beneficiados. Esta adaptación a la intención de búsqueda resulta especialmente interesante. ¿Que debo ofrecer en mis fichas de eCommerce? Pues dependerá de la keyword por las que queramos posicionarlas y por lo tanto su intencionalidad de búsqueda. Si solo vamos a por el nombre de producto, describirlo mejor que nadie y aportar valor sobre sus detalles parece la mejor opción, pero no la única.

Es un post para leer y reeler. Aun no hay normas en este sentido pero se van viendo por donde van los tiros y que este mundo de «hay que añadir 500 palabras de contenido a todas las páginas» tiende a desaparecer. Nos vamos a por la apuesta de valor y la diferenciación, aspectos mucho más cercanos a la realidad de los usuarios. Ya no se trata de que no debo duplicar contenido sino que debo dar al usuario información que el resto no de.

En coclusión lo que vemos sobre semántica es que Google lo que intenta es COMPRENDER y PONER EN VALOR la información de fondo de nuestras páginas. Acercándose así a la opinión que podría tener una persona al ver un contenido

La calidad en la autoridad

La autoridad es ese término con el que definimos toda esa amalgama de criterios que se usan para determinar si una página es más importante que otra. En circusntancias ideales dos webs con identica semántica (algo que no puede pasar porque se trataría de webs duplicadas y por lo tanto penalizables) se ordenarían en los resultados de búsqueda dependiendo de su autoridad. Por supuesto, sabemos muy poco sobre como se hace este cálculo realmente y la mayor parte de los SEOs trabajamos con indicadores de autoridad de terceros que sabemos que no son exactos pero que ayudan a entender todo esto…

Como en los dos casos anteriores mezclamos criterios antiguos con nuevos:

1. La autoridad técnica

Se resume en criterios acumulativos que se aplican de formas muy diversas:

  • Tienes tantos links, desde tantos dominios, que a su vez tenían tantos links desde tantos dominios.
  • Tienes un historial digno o eres un newbie o un piratilla.
  • Tu web es un cacharro al que le cuesta imprimir cada página o vuela sirviendo el contenido en tiempo record…

Nada que no sepamos y con lo que no trabajemos desde hace tiempo. El post me está quedando muy largo así que permitirme que no me enrede más con esto.

2. La autoridad y la calidad

Y aquí entramos en el terreno más afectado por todos estos cambios. Y es que sólo con lo que ya hemos comentado en puntos anteriores vemos que los criterios de calidad han cambiado mucho.

Pero quedemosnos solo con los 2 inputs principales:

1- Los links no se indexan ni valoran como antes sino que además dependen de la interpretación del diseño y el contexto que hace Google De la web.

2- La calidad del contenido afecta tanto a la autoridad de este contenido como a la que traspaso con sus links.

A esto sumamos distintos criterios que no sabemos cuanto llevan ahí pero que desde luego hace un par de años ni siquiera mirábamos y ahora sabemos que han cobrado bastante relevancia.

De entre todos los nuevos destacaría a dos de ellos:

1- La relevancia del creador (marca/autor) marca como criterio de calidad.

Y es que Google ya nos lo dice por activa y por pasiva. No importa solo como es tu web, cómo es tu contenido o cuantos links recibe… El E-A-T (Expertise, Authoritativeness and Trustworthiness) del que hablabamos en semántica va muy ligado a esto. Esto significa que quien redacta el texto (o a quien asigna Google esta redacción) aporta autoridad dependiendo de su reputación percibida por el buscador. Y aqui podríamos diferenciar 3 tipos de asociaciones auqnue en realdiad todas son más o menos lo mismo:

  • El dominio que contiene el cotenido como elemento más simple de asociación entre contenido-creador.
  • La marca/empresa, como una entidad superior al dominio y que se ve reflejada no solo en el mundo web, sino que tiene que ver por ejemplo con las búsquedas que realiza la gente o con la citación de sus nombres de marca aun sin links.
  • El autor, como persona física que escribe y que Google hace años nos obligó a etiquetar por todo internet para sacar su foto en los SERPS. El autor, cuyo etiquetado HTML está en desuso porque Google averiguo como detectarlo por si solo. Este aporta su propia semántica y autoridad.

En fin, que la autoridad se ha vuelto más real (que no justa). Ahora tenemos claro que no es lo mismo un texto de actualidad lo escriba un periódico que un chaval con su blog. O que tu tienda de barrio no puede competir con Carrefour sin hacer muchísimo más que ellos en SEO. El caso de la TV ya es más que evidente. Trabajas con una web sin ser una gran referencia para Google. Empiezas a hacer TV y el posicionamiento se dispara sin que los links o menciones online aún lo hayan hecho. Google sabe que ya eres mucho más relevante que antes y tus contenidos valen más.

2- La experiencia real del usuario como criterio de calidad

El otro gran añadido es también una gran incógnita en cuanto a cómo se mide. Google busca saber si cuando un usuario hace click en un resultado que él ofrece queda conforme o no. De esta forma debería poder automatizar que los resultados que más disgustan a los usuarios bajen posiciones dejando el top10 para los más satisfactorios.

Sabemos que esto está pasando pues vemos como páginas con contenidos que debería ser clasificado como mediocre por su contenido textual se mantiene en los tops al responder perfectamente a las necesidades del usuario aunque sea simplemente ofreciedno links hacia otras páginas…

¿Cómo mide esto? Tenemos dos posibilidades y un extra a añadirles:

  • Lo que todos sabemos es que se calculan los llamados «short Clicks», clicks que rápidamente provocan que el resultado vuelva a su búsqueda. Sobre esto ya escribí un post en 2012 explicando cómo puede medir Google lo que ahora conocemos como short clicks (como pasa el tiempo).
  • Pero a muchos no les parece suficiente y nos instan a que Google debe estar buscando registrar la UX completa. Nos dicen que deberíamos mejorar el CTR dentro de Google demostrando así que nuestro resultado es atractivo. De ahi salen además mil bots de dudosa utilidad. Otras opiniones aún más drásticas nos marcan a Google Analytics o Google Chrome como los grandes chivatos de Google. Cada uno que crea lo que quiera

Yo os volvería a pedir que añadieseis el machine learning a la ecuación. Con millones de ejemplos y valoraciones… ¿por qué no va a saber Google o al menos intuir si al usuario le va a gustar lo que ve? Si el diseño le dará confianza a seguir navegando, si el contenido es lo que espera recibir, si la publicidad no es excesiva, etc… No digo que no use datos reales sino que a veces nos fijamos solo en datos cuantitativos cuando hay puntos de la UX que son predecibles por una persona y por lo tanto en parte lo són también para una maquina.

Como conclusión diremos que Google está acercando los conceptos de autoridad clásicos a los de RELEVANCIA y UTILIDAD de las páginas. Conceptos mucho más humanos que links, menciones y dominios

Trabajando el nuevo SEO:
Hay 2 SEOs, pero nada muere ni deja de ser importante…

Tras todos estos detalles deberíamos entender que ahora hay una nueva forma de hacer SEO. Mucho más compleja en la parte del algoritmo pero mucho más humana en la práctica. La lógica y el sentido común siguen siendo nuestra mejor baza para averiguar como trabaja el buscador. Más aun cuando sabemos que cada vez más sus decisiones se basan justo en analizar como reaccionamos nosotros (con nuestra lógica y sentido común) a las páginas web. Así pues «hacer las cosas bien» siempre es garantía de estar haciendo un buen SEO.

Este nuevo análisis añade una capa de complejidad a nuestro trabajo sin eliminar o sustituir nada de lo que había antes.

Por fin llegó la era del SEO centrado en el usuario

Llevamos oyendo hablar de esto mucho tiempo. Si te orientas al usuario harás buen SEO. Esto siempre ha sido cierto pero solo en parte. Por un lado el usuario no necesita muchas cosas que a Google le son esenciales y por otro muchos detalles para ayudar al usuario no eran (ni son aun) percibidos por el buscador.

Así que como filosofía siempre ha estado bien esta afirmación. Pero no es hasta los últimos tiempos que realmente podemos empezar a afectar al posicionamiento con acciones dedicadas al 100% al usuario: Tocar diseño, ajustes de navegación, pequeñas mejoras en la comprensión de los textos, informaciones útiles para el usuario multimedia o que forman poco texto, etc… Todo esto ya afecta a tu posicionamiento y antes no lo hacía.

El usuario es el centro de Google, así que hay que hacerle feliz, no queda otra.

Por otro lado cada vez va perdiendo más importancia la parte técnica. Antes dos webs que parecían iguales, siendo una buena en su optimización SEO técnica y la otra mala, tenían posicionamientos realmente distintos (hasta el punto de no ver apenas a la segunda en el buscador) poco a poco esta diferenciación va siendo menos notoria pues si el usuario es feliz con ambas webs, Google debe tender a equipararlas.

Asúmelo, se acabo eso de entendamos y expliquemos las normas del algoritmo

La verdad es que nunca lo hemos terminado de entender, todo sea dicho. Pero cada vez vamos a entenderlo menos. Y Aun así todo esfuerzo dedicado a comprender por qué pasa lo que pasa en los resultados de Google siempre va a merecer la pena. Vivimos de ello. El cambio radica en que tenemos que asumir que, cada vez más, se nos escapan y escaparán cosas.

Y luego hay otro tema a tener en cuetna. Lo cierto es que si bien en SEO no hay trucos ni magia siempre han existido técnicas aisladas que se aplican incluso por la gente que no sabe por qué lo hace. Y siempre han funcionado. ¿Siempre? No, en realidad no, llevamos ya un tiempo que este tipo de mierdiptimizaciones no sirven para nada. Esto es cada día más real y por lo tanto más evidente por lo que debemos dejar de basarnos en técnicas y centrarnos en crear estrategias globales. Basta ya de alts en las imágenes y usar negritas… En serio, el SEO hace mucho que no va de eso. Poco a poco se ha transformado más en un: «Cómo damos valor al usuario», «Como nos diferenciamos de la competencia» y luego claro «y por qué semánticas puedo apostar y tener éxito».

Hemos evolucionado, pero las bases siguen siendo lo primero

Este nuevo camino es apasionante, nadie lo niega. Pero debemos evitar cometer el error de creer que ahora todo es usuario, diseño y UX. Nada más lejos de la realidad, las bases del SEO siguen ahí y siguen teniendo mucha fuerza en el posicionamiento. Si no sabes indexar, maquetar, crear una buena AI, etc. No vas a hacer un buen SEO. Te aprovecharás de que ahora Google te entiende mejor pero no llegarás al nivel de otros.

A día de hoy las bases siguen siendo más importantes que lo demás. Aplícalas o no digas que haces SEO. De hecho, si tus recursos/conocimientos son limitados harás mejor preocupándote del SEO básico y de tus usuarios por otro lado sin pensar en el SEO que ideando estrategias solo centradas en el «nuevo SEO».

A mi lo que más me preocupa de todo esto es el riesgo que tenemos con esta nueva tendencia: El número de personas que van a empezar a decir que hacen SEO y que solo hablarán de aspectos de comunicación está creciendo y va a crecer mucho más. Yo no digo que haya que ser programador para hacer SEO (ni mucho menos) pero lo que no puedes es soltar un discurso sobre el usuario y no tener ni idea de como funciona un robot al rastrear la web o no sepas validar una simple maqueta HTML. La diferencia entre el humo absoluto y una buena estrategia está en el trasfondo que aporta alguien que conoce todas las piezas de lo que se está planificando. Por desgracia, cada vez vamos a ver más este tipo de perfil (que no sabe de SEO pero vende este nuevo SEO) y esto al no tener resultados va a desprestigiar al sector… Va a pasar como ya ha pasado antes y lo sabemos todos, pero que sea inevitable no lo hace positivo.

Esto va a ir a más

Y acabo ya solo recordando que esto es solo el principio. Las máquinas no paran de aprender y de hecho ya han aprendido cosas que no hemos percibido aun. Hoy mismo, los algoritmos de machine learning se están comiendo millones de datos nuevos en todo el mundo. Bienvenido sea, lo divertido del SEO es que siempre hay cosas que hacer. Estaremos expectantes a ver que lo siguiente que nos comunican desde Google y que updates nos sorprenden moviendo todos los resultados arriba y abajo. Lo que esta claro es que si que están cambiando las cosas: Pero quizás demasiado y de forma demasiado constante como para que seamos conscientes en el día a día.

Source: http://feeds.feedburner.com/ikhuerta

El nuevo SEO, Google y la medición de la calidad

Google Analytics 360 Suite: un mundo alrededor

Se lee en 3 minutos

An enterprise-class solution for a multi-screen  world”. Así titulaba Google el post donde presentaba su nueva suite de analítica e integración de datos diseñada para negocios de clase Enterprise: Google Analytics 360 Suite. El gigante de Mountain View pretende con ella aportar la ansiada visión customer centric, partiendo de la base de que el customer journey está formado por micromomentos de decisión, y de que es en ellos donde realmente es crucial llegar al usuario con el mensaje adecuado. Y es que todo pasa por entender el momento, aunque cada vez sea más difícil tener una visión completa de un usuario que tiende a ser más multidispositivo.

ga-suite

De acuerdo al mismo post, Google Analytics 360 Suite se ha creado con la intención de dar respuesta a las necesidades de los marketers, como son:

 – Tener la visión del customer journey al completo. Para tomar las decisiones adecuadas se necesita completa visibilidad de lo que está pasando en todos los puntos en los que se interacciona con el cliente, esto es, tanto en el mundo offline como en el online, incluyendo todos los canales y dispositivos.

 – Proporcionar las experiencias adecuadas a las personas adecuadas. Busca posibilitar el accionamiento inmediato del  dato a través de la integración de las herramientas de la suite no solo entre sí, sino con el resto de productos de Google (AdWords, DoubleClick, etc.).

 – Proporcionar insights útiles, no solo datos. En lugar de dejar la responsabilidad del procesado del big data al usuario final, trata de hacer el análisis del lado de la herramienta y así lograr que los insights sean fáciles de obtener.

 – Facilitar la compartición de la información.

Un vistazo a la suite

Actualmente, Google Analytics 360 Suite está formado por seis herramientas, cuatro de las cuales son nuevas. Aunque estas últimas aún están en Beta limitada, es interesante echarle un vistazo a los aspectos más interesantes de lo que la suite nos va a ofrecer.

 

Google Analytics 360

Lo que antes se denominaba Google Analytics Premium, actualizado. Su objetivo es permitir analizar el comportamiento de usuario mediante la combinación de dato online y offline. Así, se podrá entender el customer journey a través de los diferentes activos digitales y físicos.

Además, está diseñado para ser integrado con AdWords, DoubleClick Bid Manager y otros productos de Google, facilitando interpretar el funcionamiento de las acciones de marketing (conversiones post-impresión, post-click, etc), así como accionar el dato (por ejemplo mediante listas de remarketing).

Google Audience Center 360 (beta)

El DMP de Google. Si hablar del futuro de lo digital es hablar de DMPs, Google no se podía quedar atrás. Google Audience Center 360 combina todos los datos en un único punto. Además, gracias a la integración nativa con DoubleClick, se obtiene acceso a datos propiedad de Google y a datos de más de 50 proveedores. De esta forma, se podrá tener una visión customer centric que ayudará a conocer el comportamiento de los usuarios a través de dispositivos, canales y campañas. Una vez conocidas las audiencias, activarlas mediante las integraciones con AdWords y DoubleClick puede convertir a esta herramienta en una pieza fundamental de la estrategia de medios.

Google Optimize 360 (beta)

La herramienta de testing y personalización de la suite. Busca mejorar la experiencia de usuario en el site a partir de la creación de experimentos basados en hipótesis derivadas del análisis del dato recogido. Permite realizar test A/B, multivariantes o de redirección.

Google Attribution 360

Lo que antes se denominaba Adometry se ha vuelto a hacer desde cero para integrar los datos de medios offline y online, y así ayudar a los anunciantes a entender cómo está funcionando, realmente, su inversión en medios. Unifica y analiza todos los flujos de datos (incluyendo data-driven attribution, modelado del mix de medios y atribución de TV) para crear un modelo real del funcionamiento de las campañas.

Además, su integración con otros productos de Google potencian el valor de esta herramienta, permitiendo por ejemplo enviar datos a DSPs y RTBs para mejorar la compra programática.

Google Tag Manager 360

Esta herramienta proporciona agilidad en las implementaciones mediante la posibilidad de añadir, modificar o eliminar tags sin necesidad de alterar el código de la página.

Google Data Studio 360 (beta)

Una nueva herramienta de representación del dato. Permite crear informes con tablas y gráficos muy visuales de una forma sencilla a partir de datos de Google Analytics 360 Suite, Google BigQuery, Google Sheets, CSVs,etc.

 

Si os estáis preguntando cuándo será la release de la suite al completo, no hay más noticias salvo que se hará de forma progresiva, aunque si eres usuario de Google Analytics Premium o Adometry, quizá ya puedas ver los productos renombrados. Ahora solo queda esperar para poder probar la nueva suite de Google 🙂

 

Fuentes imágenes: Google, brianclifton.com


Source: http://www.analiticaweb.es/feed/

Google Analytics 360 Suite: un mundo alrededor

Activa tus datos de GA y optimiza tus Campañas de AdWords y DoubleClick

Uno de los grandes pilares de Google, en lo que a la gestión de campañas se refiere, ha sido su apuesta por democratizar las campañas publicitarias. Ha puesto su empeño en el desarrollo de plataformas amigables (Google AdWords, DoubleClick Digital Marketing, etc.), de manera que cualquier tipo de usuario (desde una pequeña Pyme a una gran empresa) tenga la posibilidad de promocionar su negocio de la mejor manera posible.

Para apoyar este enfoque, Google lleva unos años haciendo ver a sus usuarios que la mejor manera de optimizar sus campañas es apoyarse en los datos del comportamiento de sus usuarios con sus activos digitales, en lugar de experimentar basándose sólo en la visión personal de lo que cada uno piensa que es la mejor opción para una campaña.

Ambas visiones (apertura de la gestión de las campañas a cualquier tipo de usuario, y toma de decisiones basada en datos) las ha fortalecido a través de las continuas mejoras en su herramienta Google Analytics (y su versión Premium), así como las continuas integraciones entre GA/GAP y plataformas como AdWords y DoubleClick.

GA Adwords

Fuente: adwords.blogspot.com

Hoy queremos hablaros de 2 nuevas funcionalidades que Google Analytics ha desarrollado con el objetivo de ayudar a los usuarios en la optimización y gestión de sus campañas; se trata de los Objetivos y Listas Inteligentes.

Objetivos inteligentes

Se trata de un nuevo tipo de Objetivo de Conversión de GA (adicional al resto: URL de Destino, Duración, etc.), cuyo objetivo es que puedan ser utilizados para exportarse a AdWords (y por tanto también ser visualizados en DoubleClick for Search) y activar la puja por “CPA objetivo” en aquellas campañas en las que resultaba complicado poder activarla (porque no dispongan de eCommerce o un objetivo de conversión muy frecuente que permita disponer de 15 conversiones en los últimos 30 días).

Fuente: Google Analytics

Fuente: Google Analytics

De manera automática, Google Analytics revisará todas las visitas al activo digital (Web o APP), y dará una valoración a cada una en base al aprendizaje adquirido a lo largo del tiempo sobre múltiples indicadores que permiten segmentar usuarios con más probabilidades de realizar una conversión. De esta manera, a las “visitas mejor valoradas” les asignará una conversión de Objetivo Inteligente.

Algún ejemplo de indicadores utilizados por Google son: duración de la sesión, páginas por sesión, ubicación, dispositivo y navegador.

Inicialmente, los criterios para seleccionar las visitas “mejor valoradas” se obtendrán a partir del 5% del tráfico de AdWords al activo digital; para después utilizar esos criterios en el 100% del tráfico de la web (a través de cualquier fuente de tráfico).

Para poder crear objetivos inteligentes (desde el mismo menú donde se crean el resto de Objetivos de Conversión), debemos cumplir determinados requisitos previos y tener en cuenta ciertas limitaciones sobre su uso:

Requisitos

  1. Se deben tener enlazadas las cuentas de Google Analytics y AdWords (por lo tanto, debemos ser administradores en ambos).
  2. La cuenta de AdWords enlazada debe haber enviado al menos 1000 clics a la vista de Google Analytics seleccionada durante el mes anterior.
  3. La vista no debe recibir más de un millón de hits al día.
  4. La opción productos y servicios de Google debe estar seleccionada en la configuración de la cuenta de Google Analytics.

Limitaciones

  1. Los Objetivos Inteligentes no son personalizables (Google realiza el análisis de los indicadores en base a sus algoritmos).
  2. Al igual que el resto de Objetivos de Conversión, se contabilizará sólo un objetivo inteligente por visita como máximo.
  3. Por el momento (aunque esta previsto que esto cambie), sólo está disponible para vistas de activos web, no para vistas de APPs
  4. La funcionalidad no está disponible para Vistas con más de 1 millón de Hits al día.

Una vez creado el nuevo Objetivo Inteligente en GA, podremos disponer de él para importarlo desde Google AdWords (sección Conversiones->Importar Objetivos) y comenzar desde ese momento a recibir datos y poder utilizarlos para programar sus pujas y publicación de anuncios a partir de la herramienta de puja por “CPA objetivo”.

Dentro de GA podremos analizar los resultados de los Objetivos Inteligentes desde el informe Conversiones > Objetivos > Objetivos inteligentes. En él visualizaremos las visitas que han resultado en la conversión de un objetivo inteligente, frente a las que no. También tendremos disponible la dimensión Objetivos inteligentes en la realización de informes personalizados.

 Listas inteligentes

Otra de las potentes funcionalidades que Google Analytics ha desarrollado para los usuarios que tienen enlazada su cuenta con AdWords son las Listas Inteligentes de Remarketing.

En las Listas Inteligentes de Remarketing se utiliza un modelo de aprendizaje automático similar al de los objetivos inteligentes, para identificar a los usuarios que tienen más probabilidades de realizar una conversión en sesiones posteriores.

Estas listas resultan de una gran ayuda, por parte de Google y su algoritmo, para poder generar campañas específicas para aquellos usuarios que estarían más interesados en nuestro negocio. Estas listas se utilizarían sobre nuestras campañas de AdWords (donde las podríamos combinar también con Listas de Remarketing generadas desde DoubleClick for Search),

Fuente: Google Analytics

Fuente: Google Analytics

Las Listas Inteligentes se generaran en base a dos grupos de requerimientos:

  1. Para los sitios web que generan al menos 500 transacciones de eCommerce al mes y 10.000 páginas vistas diarias, Google creará una lista inteligente basada en los factores únicos que influyen en que los usuarios realicen conversiones.
  2. Para los sitios web que no generan esas transacciones y páginas vistas mínimas, Google creará una lista inteligente basada en los datos de conversión de empresas similares al suyo (de entre los que comparten sus datos de conversión de forma anónima con Google Analytics).

Un dato interesante sobre estas listas es que el modelo suele actualizarse a diario en base a los datos a los que Analytics tiene acceso. De esta manera, los usuarios entrarán automáticamente en una audiencia de remarketing, o se eliminarán de ella, en función de dicho modelo.

Si Google Analytics no pudiese utilizar los datos para actualizar una lista inteligente durante más de 90 días, la lista volvería a un modelo basado en empresas similares.

Esperamos que este artículo os anime a activar vuestros datos de Google Analytics y optimizar vuestras campañas de AdWords.

Estaremos encantados de que nos contéis vuestras experiencias.

Source: http://www.analiticaweb.es/feed/

[Guía] Cómo destacar tu negocio en Google con My Business

Google My Business es una de las herramientas de Google para negocios más importante a tener en cuenta, puesto que permite la gestión de factores clave para el posicionamiento y visibilidad de nuestro negocio o marca, no sólo en las búsquedas de Google, sino también en otros servicios como Google Maps y Google Plus. Si …

La entrada [Guía] Cómo destacar tu negocio en Google con My Business aparece primero en RaMGoN.


Source: http://ramgon.es/feed/

[Guía] Cómo destacar tu negocio en Google con My Business

El nuevo Google Plus, se cierra el círculo

¡Ya tenemos nuevo Google Plus! ¿Qué trae de nuevo? Esa es la gran pregunta, pero quizás deberíamos preguntarnos: ¿Qué no trae de nuevo? En definitiva, una pregunta que muchas personas se llevan haciendo desde los inicios, qué es Google Plus. A cada nuevo cambio y actualización de rediseño Google nos había acostumbrado a traer con …

La entrada El nuevo Google Plus, se cierra el círculo aparece primero en RaMGoN.


Source: http://ramgon.es/feed/

El nuevo Google Plus, se cierra el círculo

Nueva Api de Google Search: ¿Por qué todos los SEOs estamos tan contentos?

Hace justo una semana (el 5 de agosto) Google nos soltaba su bomba del verano… Google Search Console (antiguo GWT) ampliaba su API incluyendo extracciones de datos de Search Analytics. El post es todo un notición que quizás ha quedado un poco tapada primero por lanzarlo en pleno inicio del mes de agosto y segundo […]
Source: http://feeds.feedburner.com/ikhuerta

TED.com & Youtube ¿Qué hace que una campaña se merezca ser compartida?

Bajó el título What Makes an “Ads Worth Spreading”, Google y TED.com  organizan una competición para encontrar las campañas publicitarias más interesantes del último año.

Para ello buscan las campañas más interesantes según 6 criterios:

  1. Compromiso o beneficio social
  2. Discursos o charlas
  3. Educación
  4. Valor de marca
  5. Momento o realidad cultural
  6. Maravilla creativa

La diferencia con otros festivales de publicidad y marketing es que en este se premia aquellas campañas que pueden servir de ejemplo y reto para las agencias y compañías. Lo que buscan es crear un cambio en la publicidad y que no sea sólo vender, sino implicar e impactar en los usuarios.

Se pueden ver todos en las siguientes listas:

Todos son imperdibles, pero por hacer una pequeña selección:

Pequeña selección de spots premiados en los TED Ads Worth Spreading

MELBOURNE – METRO RAIL Dumb Ways To Die
[youtube https://www.youtube.com/watch?v=IJNR2EpS0jw&w=560&h=315]
Engagement Citoyen – The Return of Ben Ali – Memac Ogilvy Tunisia
[youtube https://www.youtube.com/watch?v=Nu-WjbD9NbE?list=PL14522659D60B6EC1]

Batelco – Infinity
[youtube https://www.youtube.com/watch?v=qvl7kG82EfI?list=PLBD58063C79DCF01B&w=560&h=315]

The Topsy Foundation – “Selinah”
[youtube https://www.youtube.com/watch?v=tdolrSzXj4A?list=PLBD58063C79DCF01B&w=560&h=315]

Find Your Understanding: Expedia Find Yours
[youtube https://www.youtube.com/watch?v=ThzdsnXeE28?list=PL9Xlh2Jq9l7WOfq4yjkBk3G35xE7pG3dA&w=560&h=315]

HORNBACH – THE INFINITE HOUSE
[youtube https://www.youtube.com/watch?v=EEfiHmHf2pU?list=PLBD58063C79DCF01B&w=560&h=315]

Dulux Walls Ad – Director’s Cut
[youtube https://www.youtube.com/watch?v=uPpMWaSPt-s?list=PLBD58063C79DCF01B&w=560&h=315]

Coca-Cola Security Cameras
[youtube https://www.youtube.com/watch?v=ceTBF1Hik5I?list=PL9Xlh2Jq9l7WOfq4yjkBk3G35xE7pG3dA&w=560&h=315]

Target Kaleidoscopic Fashion Spectacular
[youtube https://www.youtube.com/watch?v=LEJmVRpo8OA?list=PLBD58063C79DCF01B&w=560&h=315]

2012 TED Ads Worth Spreading

2012 TED Ads Worth Spreading
[youtube https://www.youtube.com/watch?v=videoseries?list=PL9Xlh2Jq9l7WOfq4yjkBk3G35xE7pG3dA&w=560&h=315]

Ads Worth Spreading » Challenge overview http://www.ted.com/pages/aws_overview

  • THE GUARDIAN – Three Little Pigs
  • CHANNEL 4 – Meet the Super Humans
  • MELBOURNE – METRO RAIL Dumb Ways To Die
  • TNT Daily – Dose of Drama
  • EXPEDIA – Find Your Understanding
  • DODGE RAM – The Farmer
  • DELL – Annie
  • COCA COLA – Security Cameras
  • GLAXOSMITHKLINE – The Crowd
  • RAINFOREST ALLIANCE – Follow the Frog

2011 TED Ads Worth Spreading

TED Ads Worth Spreading Winners 2011
[youtube https://www.youtube.com/watch?v=HiL3s_K4gFE?list=PL14522659D60B6EC1]

  • Sharpie – Start with Sharpie – Draftfcb
  • CANAL+ – The Bear – Euro RSCG BETC
  • Chipotle – Back to the Start – Creative Artists Agency
  • Mazda – Defy Convention – Team Cosmo
  • NTT Docomo – Xylophone – Drill Inc
  • Microsoft Xbox – The Kinect Effect – twofifteenmccann
  • L’Oréal Paris – Aimee Mullins – R/GA
  • Engagement Citoyen – The Return of Ben Ali – Memac Ogilvy Tunisia
  • Prudential – Day One: Linda – Droga5
  • Rethink Breast Cancer – Your Man Reminder – john st.

2010 TED Ads Worth Spreading

Ted Talks: 10 Ads Worth Sharing

[youtube https://www.youtube.com/watch?v=videoseries?list=PLBD58063C79DCF01B]

  • Chrysler Eminem Super Bowl Commercial – Imported From Detroit
  • Batelco – INFINITY by spyfilms
  • Dot. The world’s smallest stop-motion animation character shot on a Nokia N8 by nokia
  • The girl effect: The clock is ticking by girleffect http://www.girleffect.org/
  • Dulux Walls Ad – Director’s Cut by letscolour
  • The Topsy Foundation – “Selinah” by Upstairs Post
  • Target Kaleidoscopic Fashion Spectacular by standardhotels
  • Savory Institute: Changing Our Future by ForesightMultimedia
  • HORNBACH – THE INFINITE HOUSE by Thiago Elias

A lo mejor también te interesa

Source: http://www.librodeapuntes.es/feed

Re:Brief un proyecto de google para “reinventar” la publicidad en Internet

El pasado 28/03/2012 google presentaba su iniciativa Re:Brief un proyecto para “reinventar” la publicidad en Internet una película-documental en el que Google reúne a varios grandes creativos para que imaginen cómo habrían sido sus campañas si Internet hubiese existido.

Entre ellos están Harvey Gabor, Amil Gargano, Paula Green, Bob Pasqualina, and Howie… creadores de campañas de empresas como Coca Cola o Volvo y cuyos anuncios crearon un hito en la publicidad e imagen de marca.

Pues esta película ya se ha publicado y está disponible online y gratuitamente en http://www.projectrebrief.com

[youtube https://www.youtube.com/watch?v=cvDoGt1tJy8&w=450&h=253]

Deep Ramanathan: Los ratios de click han bajado de un 35% a un 0.09%. La gente está cansada de ver siempre el mismo tipo de publicidad.

Si estuviésemos tan obsesionados con el contenido y las ideas como con la tecnología, empezaríamos a hacer algún progreso.

Siempre adapta tu técnica a la idea… no la idea a tu técnica.

Ahí es donde entra google y pone la tecnología al servicio de la Idea… y el anuncio del coche que ves… resulta que está subiendo por tu calle (utilizando imágenes de google street view) y que a través de la ventana del copiloto ves la lluvia… igual que si mirases por tu ventana. Entonces la publicidad se convierte en otra cosa… en algo cercano, más humano y en una nueva experiencia.

Una historia que nos muestra un interesante proceso de trabajo y la necesidad de mejorar el marketing online.

Source: http://www.librodeapuntes.es/feed