10 Herramientas de validación y marcado de Datos Estructurados para e-commerces: Google, Yandex, Bing, Facebook y Pinterest


Estas herramientas son una ayuda para saber el nivel de validación y reconocimiento que tiene el etiquetado que has realizado sobre tu sitio web. Si eres un e-commerce, hay mucho por hacer, solo un 0,22% de los sites españoles tiene marcado de datos estructurados (fuente: Searchmetrics en #SMX).

Google – Herramienta de pruebas de datos estructurados

Esta herramienta va permitir ver cómo se van a ver los rich snippets (fragmentos enriquecidos) dentro de los SERP’s en función de la implementación que se haya hecho con microdatos (opción recomendada por Google), microformatos o RDFa. Google actualmente está ofreciendo fragmentos enriquecidos de opiniones, personas, productos, empresas y organizaciones, recetas, eventos y música. No requiere ningún registro para poder consultar la validación.

Herramienta de Datos Estructurados - Google

Herramienta de Datos Estructurados – Google

Ejemplo: URL de Producto marcada con http://www.schema.org/product y http://www.schema.org/offer

Visualización de un Rich Snippet con datos de Schema.org Product

Visualización de un Rich Snippet con datos de Schema.org Offer

Ejemplo de Schema.org validado por la herramienta de Datos Estructurados de Google

Ejemplo de Schema.org validado por la herramienta de Datos Estructurados de Google

Que el contenido sea marcado, no significa que sistemáticamente aparecezca en los fragmentos enriquecidos, éstos pueden tardar algún tiempo en aparecer en los resultados de búsqueda. Igualmente, su inclusión no garantiza que Google vaya a utilizar el marcado de fragmentos enriquecidos o que influya en el ranking de los resultados de búsqueda (indicación dada por Google en su ayuda a Webmasters). En el ejemplo anterior, si bien pasa la validación, como tal no es reconocido el rich snippet. Los contenidos marcados con el protocolo Open Graph también pueden ser validados con esta herramienta.

Este tipo de avances/reconocimientos por parte de los buscadores, empieza a utilizarse de forma fraudulenta, así que si ves algún rich snippet fraudulento, puedes comunicarlo a través de esta herramienta:

Herramienta para denunciar Rich Snippets fraudulentos

Herramienta para denunciar Rich Snippets fraudulentos

Google – Asistente para el marcado de datos estructurados

Para utilizar este asistente necesitas logarte en Google. Este asistente te muestra cómo añadir schema.org a un sitio web o a correos electrónicos en formato HTML. Este asistente te enseña a marcar páginas web que contengan alguno de los siguientes schema.org tipos de datos: Artículos, Películas, Aplicaciones de software, Eventos, Producto, Episodios de televisión, Empresas locales y Restaurantes.

Asistente de datos Estructurados de Google

Asistente de datos Estructurados de Google

Para etiquetar un contenido, previamente hay que seleccionar la URL en función de los tipos reconocidos. Ejemplo: http://www.t2o.es/contacto/

Asistente de datos estructurados Google - Empresa Local www.t2o.es

Asistente de datos estructurados Google – Empresa Local http://www.t2o.es

El 30 de mayo, Google anunciaba que reconocía nuevos tipos de datos para ser marcados.

Yandex – Microformat Validator

Este validador de datos estructurados igualmente reconoce microdatos, microformatos, schema.org, Open Graph y RDF. Puede introducirse la URL o el fragmento de HTML donde se implementa el marcado. No requiere ningún registro para poder consultar la validación.

Siguiendo con el ejemplo anterior: La URL a validar (http://www.todocuadros.com/tienda/reproducciones-oleo/monet/impression-sunrice)

Herramienta de datos estructurados Yandex

Herramienta de datos estructurados Yandex

Validador de datos estructurados Yandex

Vista previa Resultado de la validación de datos estructurados en Yandex

Bing – Markup Validator

Al igual que Google y Yandex, este validador muestra el marcado de  microdatos HTML, microformatos, RDFa, Schema.org y OpenGraph. Para su uso requiere un registro previo.

Herramienta de datos estructurados de Bing

Herramienta de datos estructurados de Bing

Datos Estructurados de Bing

Datos Estructurados de Bing de wws.todocuadros.com

En el caso de Yahoo! su validador Yahoo Searchmonkey Validator está Offline.

Pinterest – Rich Pins Validator

En el mes de mayo Pinterest lanzaba su propio validador de pins enriquecidos. Por el momento, y a la espera del feedback de los usuarios, Pinterest reconoce el marcado de productos, recetas o películas. Previa implementación del etiquetado de rich pins en el sitio web, hay que tener en cuenta que para “Productos” soporta el etiquetado de oEmbed (preferible por su flexibilidad) o el marcado semántico de  Schema.org y Open Graph; en el caso de las “Recetas” el marcado es Schema.org (Recipe) y el formato hRecipe;  y para “Peliculas”, igualmente soporta Schema.org (Movie).

Validador Rich Pins de Pinterest

Validador Rich Pins de Pinterest

Un buen ejemplo de cómo interpreta el marcado de Open Graph el validador, es la aplicación que hace Wayfair a los productos de su sitio web:

Ficha de producto Wayfair

Ficha de producto Wayfair

Código de etiquetado Open Graph de un producto

Código de etiquetado Open Graph de un producto

;arcado de un producto Wayfair con Open Graph

Marcado de un producto Wayfair con Open Graph y validado por Rich Pins de Pinterest

Para aquellas marcas que tienen su catálogo de productos en esta red social, es una buena oportunidad para “adelantar” información sobre el producto que los usuarios repinean en los tableros de las marcas.

Facebook – Debug

Con este herramienta vas a ver la validación del etiquetado Open Graph. Los cuatro metadatos básicoss que debería tener una páginas son: og:title, og:type, og:image y og:url. De forma adicional, puedes incorporar los metadatos: og:audio, og:description, og:determiner, og:locale, og:locale:alternate, og:site_name y og:video (algunas de estas propiedades tienen metadatos extras: og:video, og:image, og:audio).

Validador de etiquetado Open Graph de Facebook

Validador de etiquetado Open Graph de Facebook

Siguiendo con el ejemplo del producto de Wayfair (http://www.wayfair.com/Doughmakers-Pebbleware-Great-Grand-Cookie-Sheet-10071-DHM1004.html)

Validación del etiquetado Open Graph en ficha de la ficha de product

Validación del etiquetado Open Graph en ficha de la ficha de product

El contenido que se incluye en las etiquetas og:title, og:description y og:url es el que se presentará cuando se comparte una URL  en el muro del usuario. Ejemplo:

La descripción de producto de Wayfair en Facebook

La descripción de producto de Wayfair en Facebook

Junto al etiquetado en cabecera de Open Graph, también este sitio está utilizando Schema.org/GoodRelations en la definición de determinadas características del producto (http://schema.org/Product, http://schema.org/PriceSpecification, http://schema.org/Offer, http://schema.org/InStock, http://schema.org/PaymentMethod, http://schema.org/AggregateRating, http://schema.org/Review, http://schema.org/Rating), que posteriormente quedan reflejadas en el rich snippet de los SERP’s de Google (en Bing.es no reconoce estos microdatos). Ejemplo:

Marcado Schema.org/stock en Wayfair

Marcado Schema.org/stock en Wayfair

Rich Snippet de Wayfair en Google con información de Producto y Valoraciones

Rich Snippet de Wayfair en Google con información de Producto y Valoraciones

Los siguientes validadores/convertidores están orientados a la marcado en RDF/XML:

RDF Validator and Converter

Esta herramienta valida snippets maracados con RDF o Notatio3.

Herramienta Validación de marcado RDF

Herramienta Validación de marcado RDF

Sindice Web Data Inspector

Es una herramienta para validar contenido estructurado: archivos RDF, páginas HTML con microformatos embebidos y páginas XHTML con RDFa embebido.

Validador de datos estructurados Sindice Data Inspector

Validador de datos estructurados Sindice Data Inspector

GoodRelations Validator

Esta herramienta valida el marcado introduciendo la URL, subiendo el fichero con el marcado o incluyendo el código (vocabulario para e-commerces).

W3C RDF Validator

Este validador de la W3C funciona de forma similar a los anteriores: introducir la URI o pegar el documento RDF/XML. Hace una representación de la triple A con el correspondiente modelo de datos, así como una visualización gráfica opcional.

Validador de RDF de la W3C

Validador de RDF de la W3C

La Optimización SEO de tu eCommerce empieza por su Buscador interno: Best Practices de Buscadores


Que el eCommerce crece de forma imparable es una realidad, debido a los datos de consumo y evolución que nos llegan sobre este “sector”, éstos deberían ser suficiente indicador como para estar pendientes en aspectos como: selección del gestor de contenidos SEO friendly, usabilidad del sitio, su WPO (Web Performance Optimization), su CRO (Conversion Rate Optimization), copy persuasivo, y un buscador interno potente. En este post vamos a ver esto último, los aspectos fundamentales que deberían tener los buscadores internos, como herramienta de conversión básica y que en muchos casos son muy descuidados.

Principales datos de crecimiento del eCommerce y tendencias de consumo

En un informe bastante completo de Morgan Stanley (eCommerce Disruption: A Global Theme – Transforming Traditional Retail) se ofrecen datos bastante interesantes de las perspectivas de crecimiento que está teniendo el eCommerce a nivel mundial, así como sus tendencias de consumo por mercados. Es interesante ver cómo pese a estar España en la cola de los países europeos, hay una clara tendencia positiva de aquí al 2016 (dicen que el 2014 se acaba la crisis, lo mismo esto ayuda 🙂 )

Fuente: eCommerce Disruption: A Global Theme – Transforming Traditional Retail). Morgan Stanley

Fuente: eCommerce Disruption: A Global Theme – Transforming Traditional Retail). Morgan Stanley

Evolución del eCommerce a nivel mundial

Evolución del eCommerce a nivel mundial. Fuente: Fuente: eCommerce Disruption: A Global Theme – Transforming Traditional Retail). Morgan Stanley

Algunos datos de consumo/comportamiento de usuarios que he visto en los últimos meses. Por tipo de producto consumido:

  • Un 53% de los usuarios compra libros, música y películas
  • Un 38% computadoras, aparatos y videojuegos
  • Un 53% ropa y accesorios
  • Un 29% televisiones y otros electrodomésticos
  • Un 33% productos de salud y belleza
  • Un 25% juguetes
  • Un 20% equipos para le hogar y jardín
  • Un 14% equipos para tiempo libre y deportes

Por tipología de búsqueda y tendencias de consumo:

  • El 85% de los usuarios de internet en todo el mundo compra en línea
  • El ingreso mundial del comercio electrónico espera alcanzar un billón de dólares para el 2013
  • El 40% de sus encuestados buscan artículos en eCommerce (estudio de SurveyMonkey)

Qué básicos deberían ser considerados si eres dueño de un eCommerce:

  1. Un buscador interno puede reducir significativamente el abandono del sitio y convertir a los visitantes en clientes de pago.
  2. Los buscadores internos que permiten búsquedas semánticas reducen de forma significativa los ratios de abandono en un 2% frente al 40% de sitios cuyo buscador es puramente textual (experiencia de FootSmart), ya que ayudan a contextualizar mucho mejor las búsquedas long tail (ejemplo: camisetas azules con dibujos para mujer).
  3. Las búsquedas semánticas incrementan la visibilidad de productos ubicados dentro del sitio web a niveles más profundos.
  4. Ofrecer venta cruzada (cross-selling) a través de de sus landing (cuando no exista el producto por el que el usuario ha llegado al sitio, o si de ese producto existe otro modelo, color, tamaño, etc). Esto incentiva y personaliza mucho más la búsqueda.
  5. Incorporar características del autocompletado en el proceso de búsqueda: supone un ahorro de tiempo en la búsqueda y ayuda a contextualizar lo que se está buscando (los usuarios que aterrizan en páginas que sugieren un autocompletado, tienen hasta 6 veces más probabilidades de conversión. Experiencia recogida por Printerland a través de la tecnología SLI Systems).
  6. Contextualización del buscador dentro de la página (texto indicativo dentro de la caja de búsqueda e indicación de “buscar”. La mejora de la búsqueda dentro del sitio  puede ayudar a mejorar hasta el 83% los ratios de conversión -ver FootSmart-)
  7. Migas de pan/Breadcrumbs de valor/”inteligentes” que ayuden en el proceso de selección de resutlados.

Otros aspectos que no están intrínsecamente ligados al buscador interno pero que mejorar procesos de conversión si se incorporan en las fichas finales de producto (esto para otro post 🙂 ):

  • Que existan reviews dentro de la landing de producto (este punto tiene sus pros y contras, por lo que antes de incorporar software que gestione este aspecto debería valorarse con criterio).
  • Incorporación de microdata (schema.org) para marcar contenido con mayor nivel semántico.

Algunos ejemplos que me han gustado bastante y que responde a varios puntos de los anteriormente indicados:

La Casa del Libro

  • Dentro de la caja de búsqueda indica la tipología de términos que el usuario puede utilizar para empezar a hacer una búsqueda.
  • Cada libro tiene su espacio delimitado para una clara visualización: datos de precio, valoraciones, si es de segunda mano, la acción de compra y sus filtros laterales.
  • Permite realizar una búsqueda inteligente. Los términos utilizado en la búsqueda te los contextualiza (categoriza por tipología) y los va autocompletando.
Buscador de La Casa del Libro

Buscador de La Casa del Libro. Te indica por qué tipos de términos puedes empezar a buscar

Buscador de La Casa del Libro

Contextualiza el término de búsqueda en diferentes categorías

Filtros del buscador de La Casa del Libro

El resultado de la búsqueda es delimitado con sus características y ofrece filtros

Walmart

  • Este retailer norteamericano ha desarrollado su propio buscador semántico denominado Polaris, está basado en tecnología Kosmix (a raíz de la adquisición que hizo WalmartsLabs de esta empresa).
  • Actualmente sigue en fase de desarrollo, y los próximos pasos de este buscador serán entender cómo combinar los datos sociales y de móvil.
  • Internamente dan datos de incrementos de conversión a raíz de la implementación del buscador interno del 10-15%
  • Aspectos interesantes del buscador: tiene autocompletado de los términos ofreciendo todas las posibles variaciones de término buscado, puedes realizar una búsqueda de un término por departamentos.
  • En el resultado de una búsqueda te contextualiza en qué departamentos tienes ese producto, tiene filtros por precio, color, marca, el rating realizado por los usuarios, qué productos tienen coste o no de envío, que retailers tienen ese producto y te relaciona el producto con otros.
  • La ficha final de producto es muy completa en cuanto a detalles para la compra: selector de tamaño, color, precio, visualización del producto desde varios ángulos, establecimiento donde puedes comprarlo, si está en stock, si tiene costes de envío y botones sociales.
Buscador semántico de Walmart

Buscador semántico de Walmart

Filtros por producto. Buscador semántico de Walmart

Filtros por producto. Buscador semántico de Walmart

Ficha de producto. Filtros por producto. Buscador semántico de Walmart

Ficha de producto. Buscador semántico de Walmart

PriceGrabber  (recomendado por @seotallica)

  • Este comprador de precios ofrece una gran cantidad de funcionalidades avanzadas, algunas de las más interesantes: comparativa entre productos (hasta 3), el histórico de precios por el que ha pasado el producto, puedes incluir una alerta para ver si ese producto varía de precio (puedes utilizar tu cuenta de Facebook para logarte), te indica si el precio del producto se encuentra en su “Best Price” en función del histórico que haya tenido.
Comparativa de precios en Price Grabber

Comparativa de precios en Price Grabber

Histórico de precio de un producto en Price Grabber

Histórico de precio de un producto en Price Grabber

  • Tiene filtros muy personalizados en función del tipo de producto. Por ejemplo: en el caso del calzado, llega a detallar por tipo de material del que está hecho el calzado.
  • Tiene un sistema muy atractivo de indicar que diferentes establecimientos tienen un precio diferente y cuál es el mejor (‘Compare Now’) o llevarte directamente a un proveedor final que tiene el producto (‘See it’).
Comparativa productos en Price Grabber

Comparativa productos en Price Grabber con “Compare Now” o “See it”

Payless

  • Al igual que Urban Outfitters tiene un buscador sencillo, lo más interesante son los resultados de la búsqueda y el nivel descriptivo de sus fichas de producto final: revisiones de consumidores, con un rating desglosado por estilo, calidad, confort y valor, estas revisiones pueden ser compartirlas con botones sociales.
Reviews de Payless para cada uno de sus productos

Reviews de Payless para cada uno de sus productos

  • Junto a esto, en la ficha de producto puedes seleccionar qué establecimientos están más próximos a ti para comprar, así como la relación de productos en los que podrías estar interesados.
Fichas de producto de Payles. Ubicación física de sus tiendas

Fichas de producto de Payles. Ubicación física de sus tiendas

BestBuy

  • BestBuy está trabajando en la semántica de su catálogo a través de su buscador (Proyecto Alpha Metis). Utiliza datos estructurados en formato RDF, utiliza el vocabulario de GoodRelations (vocabulario web para eCommerces, ya está integrado con Schema.org) para ofrecer información detallada del producto, estándares de la Web Semántica de la W3C y la plataforma NetKernel.
  • Tiene implementado el sistema Linked Data (Five stars, reviews ponderadas de 1 a 5).
  • Al igual que la Casa del Libro, en la caja de búsqueda indica qué tipo de término puedes utilizar para empezara a buscar.
  • Este buscador gestiona bastante bien el misspelling de productos mal escritos (algunas pruebas que hice y que me devolvieron resuldatos correctos como si no se hubiese escrito mal: ‘ipone 4’, ‘sansun galaxi’ o ‘heapones’).
Ficha de producto de Best Buy

Ficha de producto de Best Buy

Datos de disponibilidad de un producto en Best Buy

Datos de disponibilidad de un producto en Best Buy

  • La ficha descriptiva de producto y los filtros son bastante avanzados (en la línea de PriceGrabber). Algunos de los puntos que me han parecido más interesantes: puedes seleccionar el establecimiento más próximo para la compra (como Payless) y puedes comprar hasta 4 productos resultado de una búsqueda (esta funcionalidad es muy potente, con un nivel descriptivo muy bueno).
Comparativa de productos en Best Buy

Resumen: Comparativa de productos en Best Buy (Móviles)

Wayfair

  • Este sitio web también utiliza Schema.org para marcar las características descriptivas de todos sus productos.
  • De entre las varias funcionalidades que te ofrece el resultado de una búsqueda, destacar la parte de FAQ’s que tienen por producto, es contenido propio generado por los usuarios.
Faq's por productos en Wayfair

Faq’s por productos en Wayfair

¿Cómo se consume en móvil/tablet?

A todo lo anteriormente indicado, hay que añadirle y tomar conciencia del consumo y búsqueda de productos a través de dispositivo móviles, por este motivo, los propietarios de eCommers deberán realizar igualmente la integración de estos buscadores semánticos internos en el proceso de adaptación de sus sitios web. Algunos datos que respaldan esta necesidad:

  • El 70% de las búsquedas móviles “llevan a la acción” en 1 hora, la motivación es mayor que desde desktop/portátil
  • Un 40% de los usuarios busca en Tablet y un 60% busca en móvil
  • El 40% de las personas selecciona otro resultado si el proporcionado no es mobile friendly
  • Un 45% de los usuarios entre 18 y 29 años realizan búsquedas en el móvil diarias
  • El 56% de los usuarios utiliza el móvil para comparar precios en la tienda

(**) Fuentes muy interesantes si eres propietario de un eCommerce: Retail online integration, Digital Life Group, Semantic Web, Schema.org y GoodRelations.

Cómo identificar prescriptores de mi marca en una Estrategia de Link Building [Herramientas gratuitas]


En el último #Linklove en Londres pudimos ver cómo las últimas actualizaciones del algoritmo de Google centradas en enlaces (Google Penguin, octubre 2012) hacía que el discurso de los ponentes estuviese orientado en trabajar estrategias de enlaces basadas en la “generación de contenidos de calidad/interés” y las “relaciones personales“. Algunos de los tips más destacados y recurrentes comentados:

  1. Los enlaces naturales difícilmente son escalables
  2. La gente ve contenido y si el gusta, lo enlaza
  3. Necesidad de tener contenido y generarlo para atraer enlaces
  4. Los sitios no enlazan sitios, el enlace natural nace cuando la gente ve contenido.

En estas ponencias se mencionaron varias herramientas muy útiles para identificar personas que pueden ayudar a trabajar una estrategia de link building:

linklove-herramientas-linkbuilding-II linklove-herramientas-linkbuilding-III linklove-herramientas-linkbuilding-IV linklove-herramientas-linkbuilding-V

herramienta para link building

De éstas, me gustaría destacar Twtrland.com, GPlusData.com y Little Bird (en Beta) como herramientas que ayudarían a la hora de seleccionar un potencial prescriptor para un producto, marca, evento, etc:

Twtrland.com

Herramienta gratuita, puedes sincronizar la herramienta con tu perfil de Twitter. Cuando son cuentas con un número elevando de seguidores, los resultados están muy actualizados. Lo más destacado:

  • Promedio de Tweets por día
  • RTs por 100 Tweets
  • Replies por 100 Tweets
  • % usuarios por sexo y procedencia
  • Seleccionar por: localización, tags o expertos (esta categorización es bastante buena, pero sesgada en el ámbito anglosajón -previsible-). Puedes organizarla por nº de followers que tiene la cuenta o RTs/100Tweets
  • % de Tweets que salen con enlace
  • Tags con los intereses de ese perfil
  • Top followers que tienes en tu cuenta
Funcionamiento Herramienta Twtrland

Panel de datos que oferece la herramienta Twtrland cuando se hace una búsqueda por una cuenta

Funcionamiento Herramienta Twtrland

Funcionamiento Herramienta Twtrland cuando se realiza un búsqueda por expertos SEO en España

¿Cuándo es interesante utilizar esta herramienta? pues cuando quieres identificar influencers categorizados por temas, tags o ubicaciones geográficas dentro de la Red Social Twitter.

GPlusData

Esta herramienta analiza y presenta información de más de 125 millones de perfiles de usuarios y 1,5 millones de páginas en Google+, es una herramienta hecha por y para analizar datos estadísticos de Google+. Es gratuita y puedes sincronizar la herramienta con tu cuenta de Google+. Lo más destacado (si bien tiene datos para aburrir):

  • Puedes identificar por Personas, Paginas y Engagement las que más rápido crecen, las que tienen más +1 y las que tienen más interacciones durante el día, la semana y/o mes.
  • En su caja de búsqueda, puedes incorporar la palabra clave por la que quieres hacer la búsqueda y delimitar por varios conceptos.
  • Los resultados los ordena por el número de seguidores que tiene la persona/página, y dentro de estos resultados, puedes seleccionar por filtros, que se corresponden los los campos descriptivos del perfil que tiene Google+: idioma, estado sentimental, sexo, edad, etc.
  • La parte más interesante y potente de la herramienta, es hacer click sobre los perfiles, aquí te ofrece el ranking que tiene ese usuario por número de seguidores, engagement, shares, el promedio de alcances que tienen sus publicaciones, los +1’s que hace por mes y semana.
  • Cada perfil de usuario/página tiene el indicador de Pluskred: es un valor numérico que representa la influencia de ese usuario dentro de la red.
  • Da los datos evolutivos de seguidores de un perfil durante el último mes.
  • La distribución horaria de las publicaciones que realiza durante el día en su perfil.
Panel de GPlusData de Google+

Panel de GPlusData de Google+

Indicadores de influencia dentro de GPlusData

Indicadores de influencia dentro de GPlusData de un perfil de persona o página

Datos evolutivos de seguidores en un perfil de Google+

Datos evolutivos de seguidores en un perfil de Google+ durante el último mes

¿Cuándo es interesante utilizar esta herramienta? cuando quieres identificar influencers categorizados por formación académica, país, ciudad y experiencia laboral descrita en los perfiles de la Red Social Google Plus.

Little Bird

Esta herramienta está en Beta, únicamente tendrás que registrarte para probarla (es rápida la respuesta que dan para el login y password, con ésto verás los informes que ya tienen generados por defecto y esperar a entrar en su beta), algunos de los datos más interantes vistos:

  • Puedes crear tus propios dashboards por temas
  • Podrás tener información sobre ese tema: los top blogs por volumen de enlaces entrantes, los Top 5 tweets más compartidos durante la semana y el día, y comparar dos cuentas de Twitter sobre la temática que hayas definido (esta es la parte más interesante de la herramienta, ya que te permite tener una visión de quién tiene visibilidad sobre un tema desde diferentes plataformas).
  • Un panel con la cuentas de Twitter emergente, las más seguidas y las más antiguas.
  • Tiene el concepto de “insiders”, básicamente, son perfiles de Twitter especializados en la temática que definas en el dashboard, con éstos vas a poder ver qué se genera sobre la temática que te interesa y quién está presente, así como realizar comparativas de evolución.
Funcionamiento de la herramienta Littlebird

Funcionamiento de la herramienta Littlebird

Menú desplegable dentro del panel temático que se crea en Little Bird

Menú desplegable dentro del panel temático que se crea en Little Bird

Panel de Little Bird por cada tema que se cree en el dashboard

Panel de Little Bird por cada tema que se cree en el dashboard

¿Cuándo es interesante utilizar esta herramienta? habrá que esperar a tener la beta con derecho a crear el propio dashboard, pero de entrada tiene muy buena pinta para identificar influencers dentro de una comunidad temática. Tiene su propio tour virtual para entender la herramienta.

Las presentaciones realizadas durante el #LinkLove puedes verlas aquí, altamente recomendable (me gusta lo de ‘altamente’, muy de moda últimamente en los TL, junto con ‘ultimate’ y ‘actionable‘ son muy RT to action 😉 ) la de Hannah Smith (23,787Ways to Build Links in 30 Minutes) y Rand Fishkin (How CEOs Can Be Great Marketers). Igualmente en el Twitter stream puedes ver algunos de los más destacados, enjoy!

Por qué debería tener en cuenta el Contenido, lo Social y el Móvil en mi estrategia SEO


Establecer predicciones en SEO hace que sean francamente inciertas, pese a esto, si que se pueden identificar ciertas tendencias en función de cómo ha ido evolucionando el principal buscador (Google). Durante 2012, Google ha tenido tres actualizaciones de algoritmo bastante relevantes:

  • Durante 2012 Google Panda ha tenido varias actualizaciones, el año se cerraba con la versión 23  (en diciembre 2012), y el 2013 se estrena con una nueva actualización. Su objetivo es eliminar de los resultados naturales contenido irrelevante y carente de valor para los usuarios.
  • En Abril 2012 entra en escena Google Penguin, cuyo objetivo es eliminar de los resultados naturales, sitios posicionados de forma fraudulenta a través de prácticas de link building de baja calidad. La última actualización (la 3ª) se produce en octubre 2012.
  • En septiembre de 2012, hay una actualización del algoritmo EMD (Exact-Match Domain), cuyo objetivo es eliminar o en gran medida controlar, que en los SERP’s desaparezcan dominios de baja calidad con concordancia exacta en el nombre (cuyo objetivo final es forzar el posicionamiento por palabras clave).

En función de estos cambios de Google, podemos orientarnos en 6 puntos sobre los que veo relevante prestar atención de cara la visibilidad de un sitio (y su contenido) dentro de los Resultados Naturales:

1. Mayor presencia de las marcas en los resultados y más a raíz de la actualización de los EMD

  • Actualmente una marca tiene presencia en los SERP’s través de: Google Suggest, Google Adword, Google shopping, Google Local, resultados naturales y Google Plus. Esta presencia de marca ha ido potenciándose a lo largo de los años.
  • Esto queda reflejado en agosto 2012 cuando se pasa de 10 a 7 resultados, pudiendo una marca saturar estos 7 primeros resultados. Igualmente, hay una expansión de resultados de un mismo dominio para búsqueda más genérica, con un claro beneficiario, la marca.
posicionamiento de T2O media

Posicionamiento de T2O media en los resultados de una búsqueda por marca

  • Seguirá habiendo una pérdida de peso (mayor control) de los dominios con concordancia exacta –Exact-Match domains (EMD)– cuyo objetivo sea forzar el posicionamiento de forma “fraudulenta”, en beneficio de aquellos dominios que aplican el fair play independientemente de que su nombre de dominio pueda llegar a tener concordancia exacta.

2. Mayor empuje a la Web Semántica

  • Seguirá dando peso a la microsegmentación de la información a través de la microdata y respaldada por el formato Schema.org.
  • La visibilidad de este marcado lo vamos a seguir viendo a través de los Rich Snippets en los SERP’s e irá mejorando su reconocimiento y enriquecimiento a la hora de presentar mayor número de información.
Ejemplos de rich snippets

Ejemplos de rich snippets. Fuente: Google

  • Un ejemplo de su interés queda reflejado en la actualización de su herramienta de Webmaster Tool (de Google) donde se ayuda a categorizar la información de forma sencilla (Datos estructurados).
Formulario de microdatos Webmaster Tool

Formulario de microdatos Webmaster Tool

  • Desde su lanzamiento en el mes de mayo a nivel global y su expansión a versiones regionales (mes diciembre 2012), seguirá empujando Knowledge Graph son sólo para búsquedas populares, sino también muy vinculadas a las marcas como ya ha ocurrido para algunas búsquedas en EEUU (el lanzamiento de Facebook Graph Search, será un aliciente más para ver cómo evolucionan ambos y el valor que aportan a los usarios dentro de unos resultados cada vez más personalizados).
Funcionamiento de knowledge graph

Visibilidad del funcionamiento de Knowledge Graph. Presencia en el lateral derecho  de los contenidos

3. Mayor Peso Social como Factor de Ranking

  • Google Plus va a seguir siendo un indicador para el factor de ranking y visibilidad de un contenido, de ahí que si que creo que sea necesario trabajar la presencia de las marcas dentro de la red (en este hilo del 14/01/2013 “Does Sharing on Google+ Still Get a Page Indexed?” Rand Fishkin hace un test para ver si un contenido compartido únicamente desde la red es indexado sin necesidad de ser enlazado desde ningún sitio, y la velocidad de indexación de éste).
  • Google Plus seguirá trabajado en mejorar su optimización tanto dentro de la propia red (su analítica interna, estructura semántica de las URLs de perfiles, etc).
  • Los indicadores sociales como factor de ranking deberán formar parte de la estrategia de visibilidad de una marca en buscadores, algunos de los aspectos que deberán ser valorados/trabajados son indicados aquí (Jayson DeMers)  y aquí (Dana Lookadoo).

4. Mayor peso a la autoría de los contenidos a través de Authorship y Contenido de Calidad

  • Durante el 2012 el AuthorRank ha marcado un antes y un después a la hora de asignar la autoría de un contenido publicado en internet y el peso que te confiere de cara al posicionamiento.
Cómo funciona el TrustRank

Cómo funciona el TrustRank. Fuente: seogadget.com

  • Ya en el 2011 se explicaba el funcionamiento e impacto que iba a tener, y durante el 2012 se da una mayor explicación a su impacto en Quicksprout, Seomoz Search Engine Land, así como los potenciales indicadores para valorar esa autoría:
    • La media del Pagerank del contenido del autor
    • La media  de los +1 y shares que recibe el autor en Google+
    • El número de personas que tiene el autor en su red Google+
    • Las conexiones recíprocas que tenga con otros autores cuyo Author Rank sea alto
    • El número y autoridad de los sitios en los que al autor ha publicado su contenido
    • El nivel de engagement que tiene el contenido del autor (ej: número de comentarios y respuestas dadas por el propio autor)
    • Presencia en otro tipo de páginas (ej: Wikipedia)
    • Número de suscriptores y engagement de los videos publicados en Youtube donde es autor
    • Métricas de relevancia dentro de las redes sociales y sobre las que Google tiene “confianza” (Twitter, Quora, Linkedin, Slideshare, etc)
    • Y presencia con autoría de contenidos en Google Books o Google Schoolar
Factores del AuthorRank

Factores del AuthorRank posibles a la hora de potenciar el contenido de un autor. Fuente: Seomoz.org

  • Desde el mes de agosto 2012, Google lanza el mensaje de penalización de aquellos sitios que violen el copyright de otros sitios web.
  • Un contenido que garantice su calidad, va a garantizar la experiencia de usuario dentro del sitio, ayudando a viralizarlo y comercializarlo.
  • Clara penalización a medio plazo de prácticas de generación de contenido carentes de objetivo.
  • Esta corriente en busca de contenido de calidad que ayude a usuarios y buscadores, derivará en líneas de negocio orientadas al Content Marketing, Brand Building o #RCS (Real Company Stuff).

5. Control en la calidad de la popularidad externa del sitio

6. Presencia en Móvil

  • Si 2011 se cerraba con grandes expectativas para el crecimiento en el uso de móvil, en diciembre de 2012 se ha llegado a tener una penetración en España del 63% de smartphones frente al 55% europeo.
  • Google está empujando muy fuerte la búsqueda a través de móvil, lleva más de un año sugiriendo cómo debe ser una versión óptima para móvil (Building Smartphone-Optimized Websites), 2013 tendrá un claro incremento en cuanto a uso y desarrollo.
  • Esto hace que a nivel de SEO surja un “nuevo entorno” de para la optimización de contenidos muy centrado en comportamientos de búsqueda (un buen punto de partida en el artículo “How to do a Mobile SEO Audit“).

En este Vídeo de T2O media, os contamos 3 Tendencias en SEO que resumen los principales puntos comentados anteriormente:

Junto a las tendencias de SEO, mis compañeros Cristina Álvaro (SEM Director) y Luis Garriga (Performance Director) nos ayudan a ver qué podemos esperar de SEM y Performace para 2013:

Conferencia sobre Reputación on line en Buscadores: presencia e impacto. Madrid, 19 de Noviembre


El próximo 19 de noviembre, la Cámara Franco-Española de Comercio e Industria (La Chambre) en colaboración con T2O media, y dentro del 4ª Ciclo sobre Redes Sociales, presentaré durante aproximadamente 1 hora, los aspectos críticos para que una Pyme y/o empresa media/grande pueda llevar acabo una estrategia de Reputación online en Buscadores.

Coordenadas para esta conferencia en la que también estará Stéphanie Haye ( Socia de LVS2) hablandado de herramietnas y casos prácitos:

  • Las incripciones las puedes hacer a través de este formulario.
  • Programa: 

18h15 – 18h30 – Recepción de los asistentes
18h30 – 20h00
Definición y desarrollo de una estrategia de Reputación online en Buscadores para empresas
Gestión y Monitorización de la Reputación online
 20h00 – Clausura y vino español

  • Ponentes:

Esther Checa, SEO&SMO Director, T2O Media
Stéphanie Haye, Socia, LVS2

  • Precios:

Socios:        Gratis
No socios : 20€

  • Lugar:

Cámara Franco-Española de Comercio e Industria
Capitán Haya, 38 – 4
28020 Madrid – Metro Cuzco

Conferencia sobre Reputación online en Buscadores

Aquí tienes la presentación sino pudiste asistir:

En este blog también puede echar un vistazo a varios posts sobre la gestión y metodología para llevar acabo una campaña de Reputación online en buscadores,  es una forma sencialla de ir adquiriendo los principales conceptos e ir desarrollando tu propia estrategia 🙂

El 77% de los clics se realiza en los 3 primeros resultados naturales [CTR en SEO]


La semana pasada Search Engine Wactch se hacía eco del white paper publicado por Compete sobre “Seeing Between the Lines… of the Search and the Click“.  Este estudio está basado en un panel de usuarios (datos del Q4 de 2011, sobre el mercado norteamericano) con el objetivo de conocer el comportamiento de éstos en las búsquedas, respondiendo principalmente a estas tres preguntas: qué volumen de los SERPs contienen anuncios, dónde hacen los usuarios click en los SERPs y qué porcentaje de los anuncios son orgánicos.

Algunos de los datos más interesantes sobre SEO de este white paper (es gratutio y te lo puedes descargar previo registro) son:

  • Un 45% de los SERPs (Seach Engine Results Page) no llevan publicidad, frente a un 55% de los resultados que llevan al menos 1 texto publicitario.
  • Un 85% de los resultados que se muestran son orgánicos y el 15% son de pago.

% de publicidad que hay en los resultados naturales

  • El 53% de los click se realiza sobre el primer resultado, seguido de un 15% para el segundo resultados y un 9% en el tercer resultado. Concentrando el 77% de los clics en el Top 3.
  • Otros datos relevantes vinculados a los enlaces de pago, es que el 61% de los anunciantes aparecen en el lateral derecho, sin embargo el 85% de los consumidores hace click en los enlaces de la parte superior de la página.

% de Clicks en los resultados naturales

Limitaciones en el cálculo del CTR

Estos datos resultan siempre muy atractivos para la comunidad SEO (en mayor medida), permitiendo ver el comportamiento de los usuarios con carácter general, así como para la “justificación” de negocio (en algunos casos) que puede aportar este área dentro de una estrategia de marketing online, si bien, hay que ser consciente que los porcentajes de  CTR (Click-Through rate) que arrojan estos estudios pueden venir segados en gran medida por:

  • Mercado sobre el que se realiza el estudio
  • Volumen de la muestra
  • La geolocalización de los resultados
  • Intencionalidad y tipología de la búsquedas (ej: informacional, transaccional, navegacional)
  • Variación en la ponderación de los resultados producto de la actualización de los algoritmos (ej: presencia de señales sociales)
  • Evolución en la experiencia  y madurez del usuario en las búsquedas
  • Presencia de nuevos dispositivos a la hora de presentar resultados de una búsqueda (smartphones, tablets, etc)
  • Estabilidad temporal de los resultados
  • Incorporación constante de nuevas tipologías de contenidos indexados (ej: vídeo, local, shopping, imágenes, noticia)
  • Estacionalidad de la búsqueda por determinadas palabras clave (ej: aire acondicionado)
  • La competencia de las palabras clave en función del sector (ej: seguros, gambling, viajes)

Estudios sobre CTRs en los SERPs

Pese al sesgo que pueden tener, es bastante relevante ver la metodología utilizada (y limitaciones que muestran) para calcular el CTR dentro de los SERPs para los resultados naturales. Algunos estudios que muestran estos esfuerzos, trasladan la imposibilidad de establecer claros porcentajes de tráfico en función de la posición, como en el caso del estudio realizado por Slingshotseo y resumido en el artículo: “Mission ImposSERPble: Establishing Click-through Rates

En este estudio (“Google CTR Study Whitepaper“) se comparan los CTRs de los resultados naturales en Google y en Bing: dentro de los SERPs de Google el resultado en posición 1ª recibe un CTR del 18.20% y el que se encuentra en posición 2ª, recibe un 10.05%. Si se está posicionado en Bing, el resultado 1º recibe un 9.66% y un 5.51% para el.

El CTR total promedio de los resultados orgánicos para 1ª página se estima en un 52,32% para Google, y en el caso de Bing un 26.32% (resumen: lo que viene siendo, la noche y el día).

CTR de Google vs Bing

De los últimos artículos/informes que he leído y en los que se hace una propuesta sobre cómo establecer un CTR dentro de los SERPs, cabe rescatar el estudio realizado por Roman Bębenista y publicado en Seomoz.org en “Click Through Rates in Google SERPs for Different Types of Queries” en el que se muestran CTRs basados en la tipología de las consultas realizadas en Google. Algunos de los datos más interesantes de este estudio:

  • CTR promedio en función de Consultas:
    1. Consultas sobre producto
    2. Consultas generales
    3. Consultas de marca
    4. Long tail (con 3, 4, y 5 palabras)
  • CTR promedio de Marca: Los usuarios hacen más de 3 veces clic en los resultados de la 1ª página. El usuario no está tan centrado en la posición del resultado, sino en lo que se dice sobre lo que está buscando, de ahí que consulte varias fuentes (páginas web, blogs, perfiles, sociales, etc).
  • CTR promedio de Producto: Los usuarios que buscan por producto si que les impacta en gran medida el primer resultado (CTR promedio del 53%), y realizan más de 2 clics en los resultados de la primera página, esto puede ir vinculado principalmente a la comparación que pueden hacer sobre una misma oferta.
  • CTR promedio general: Todas aquellas consultas generales que no son de marca o producto, el promedio de CTR está muy equilibrado.
  • Siendo el CTR del long tail uno de los aspectos más relevantes debido a la calidad de tráfico que aporta.
  • En función de los CTRs que obtuvo por estas consultas, plantea ejecutar una estrategia SEO basada en trabajar primero palabras clave de producto, segundo las generales y finalmente las de marca, utilizando las de long tail para generar landing pages.

Uno de los aspectos que veo de mayor relevancia e impacto a la hora de establecer el CTR en función de la posición, es la intencionalidad de búsqueda del usuario, de ahí que siga siendo muy interesante el estudio que realizaron hace un par de años las profesoras Mari-Carmen Marcos y Cristina González-Caro de la Universidad Pompeu Fabra sobre “Comportamiento de los usuarios en la página de resultados de los buscadores. Un estudio basado en eye tracking“.

A través de éste se refleja el comportamiento del clic en función de si las búsquedas que realizan los usuarios son: informacionales, transaccionales o navegacionales (estudio similar fue realizado un año antes en The Search Taxonomy: Getting Inside the Mind of the Searcher).

Eye tracking de los resultados de una búsqueda

Otros estudios (ya han quedado antiguos pero siempre es recomendable ver la metodología utilizada en éstos) que han tratado el cálculo y/o comportamiento del CTR en resultados naturales son:

¿Y? Conclusión

La discusión sobre el “hipotético” CTR que puede aportar el posicionamiento de un resultado natural, es uno de los caballos de batalla a los que la comunidad SEO se tiene que enfrentar cuando los clientes piden “previsiones/proyecciones/invéntate algo para justificar el presupuesto” de incrementos de tráfico por posición (entre otras cosas :)).

Por tanto, este tipo de estudios y la experiencia de los profesionales SEO hace que estos datos apoyen/empujen/arropen el impacto de negocio que puede suponer a un cliente un proyecto SEO, si bien hay que ser realista, y es que la propia evolución de los buscadores (principalmente basada en las actualizaciones de sus algoritmos) hace que las estimaciones que se proponen, sean eso, estimaciones.

I Love Viernes Penguin


I Love ViernesPues este chiquipost no tiene otro motivo que agradecer a los medios, twitteros y facebookeros que se han hecho eco del vídeo “¿Qué es Google Penguin y cómo adaptarnos al nuevo algoritmo?”, que ya tenemos en Youtube y que desde T2O media han dedicado tiempo y cariño para darlo visibilidad @xmcguede@javigarcia y @iracunde.

Buen finde! 😉

Qué es Penguin, impacto en Link Building, herramientas, tips de control y evolución del anchor text


Antes de entrar a ver cómo puedo detectar si mi sitio ha sido penalizado y/o si puede ser penalizado producto de los enlaces entrantes que recibo, herramientas para analizar y, la evolución e impacto que va a tener el anchor text (texto de ancla) dentro de una estrategia de enlaces entrantes, es importante tener claro algunos conceptos:

I. Qué es Google Penguin

  • Es una actualización del algoritmo de Google que nace con el objetivo de penalizar prácticas fraudulentas.
  • Principalmente sobre sitios web con enlaces entrantes de muy baja calidad y misma procedencia, así como su sobre optimización por palabras clave.
  • Mientras que la actualización de Panda tenía el objetivo de la penalización de sitios con baja calidad de contenido, Penguin, nace con el objetivo de penalizar sitios con una sobre optimización del anchor text (texto de ancla) tanto internos como externos, procedentes de sitio se baja calidad.
  • Con esta actualización, Google está limpiando de sus índices sitios que copaban posiciones dentro de los resultados naturales de forma “fraudulenta” o por lo menos con un índice de calidad muy bajo.
  • Hace su aparición el 24 de abril, y la última actualización se hizo a finales de mayo 1.1 (frente a Panda que está en la 3.9 actualización en julio)

II. Señales de posibles penalizaciones

Desde la primera aparición de Google Penguin, el buscador ha ido lanzando señales a los sitios web que podrían estar realizando prácticas consideradas como fraudulentas, algunas de éstas han sido ya indicadas por Dr. Pete Meyers en “Penguins, Pandas, and Panic at the Zoo“:

  • Sobre optimización  exacta de los texto de ancla en enlaces entrantes procedentes de fuentes de baja calidad
  • Sobre optimización de textos de ancla internos
  • Baja calidad de sitios (plataformas de artículos y blogs spam)  donde se han incluido los enlaces
  • Keyword stuffing en los enlaces internos/externos

El 20 de julio, Google realizó un envío masivo a webmaster alertándoles de que sus sitios podían estar incurriendo en prácticas fraudulentas.

Notificación de Google a través de la herramienta Webmaster ToolPara posteriormente el 23 de julio tener que recular hacia un mensaje más tranquilizador.

Notificacion de Matt Cutts sobre las notificaciones a través de Webmaster Tool

Independientemente de estos mensajes, hay una realidad a la que nos tenemos que habituar y reorientar las estrategias de enlaces entrantes, ya que la actualización del algoritmo y el peso que se le está atribuyendo al anchor text como factor de ranking (hasta ahora) para ayudar a posicionar por una palabra clave, empieza a variar en exceso y los patrones se hacen cada vez más complicados de identificar.

Comunicado en Google’s official blog

Comunicado en Google’s official blog

III. Herramientas que nos van ayudar a identificar una posible penalización

Si bien Google a reculado en el mensaje masivo enviado a través de las cuentas de Webmaster Tool, si que es crítico que a través de estas herramientas se realicen puntos de control en:

1. Herramientas de Webmasters

A través de la Herramienta de Webmaster Tool de Google, en su seccón de Tráfico > Enlaces a su sitio, vamos a poder ver la tipología y volumen de enlaces que apuntan a cada una de las páginas de mis sitio web. Igualmente, esta información va a poder ser exportada.  El seguimiento evolutivo de los enlaces que Google reoconoce, nos van a dar pistas de si hay un volumen inusual de éstos, y sobre todo, si todos apuntan a una misma página, en caso se identificar una actividad “sospechosa” de enlaces entrantes que pueden estar afectando, ésto puede ser comunicado a través de Formulario a Google. A través de esta herramientas, se recibirán también las notificaciones de Google, de las cuales es recomendable que se esté al tanto.

Captura de enlaces entrantres a Webmater Tool Central

Captura de enlaces entrantres a Webmater Tool Central

A través de la herramienta Bing Webmaster Tools (nueva funcionalidad), en su opción de Configurar mi sitio > Disawow Links, nos va a permitir desautorizar enlaces que apunten a mi sitio web, indicando las fuentes que pueden ser “maliciosas para mi dominio”, esta limitación la puedes hacer a nivel de página, directorio o dominio (esta funcionalidad sería ideal que la tuviese Google, ¿cómo lo ves Matt :)?)

Control de enlaces a través de Bing Webmaster Tools

Control de enlaces a través de Bing Webmaster Tools

John Doherty en “Strategies for Diagnosing Penguin and Recovering” hace una propuesta metodológica muy práctica para identificar si aquellas palabras clave que hay sufrido algún tipo de descenso son producto de una sobre optimización. Para ello utiliza datos evolutivos del tráfico de las palabra clave que tiene el sitio web pre y pos a la aparición del Google Penguin, y los cruza el volumen de textos de ancla y enlaces asociados que reporta la herramienta Open Site Explorer. A esta propuesta que realiza John Doherty, es recomendable que se utilicen otros puntos de control para la toma de decisiones (quitar enlaces, dónde frenar para no seguir saturando por las mismas palabras clave, periodos de consecución de enlaces o tipo de enlaces):

2. Link Detective

Con esta herramienta (versión gratuita&pago) vamos a poder ver una distribución del volumen de enlaces entrantes ubicados por plataforma (en algunos casos tiene un categorización muy subgeneris, pero si que nos da una idea clara de dónde hay más peso). Esta herramienta se tiene que cruzar con la exportación del fichero SCV de OpenSite Explorer (ver capturas y pasos en “Herramientas de Link Building: Cómo sacar datos de Link Detective y Open Site Explorer”).

Distribución de enlaces con Link Detective

Con esta exportación podemos ver en qué tipos de plataformas se encuentran los enlaces que apuntan a nuestro sitios web, y si éstos siguen vivos, con lo cual, es un muy buen indicador para ir dando los primeros pasos para ir reorientado la estrategia.

3. Ahrefs.com

Para conocer la distribución de los tipos de enlaces que estás recibiendo tu sitio puedes utilizar Ahrefs.com (versión gratuita&pago). Entre otras funcionalidades que da la herramienta de forma gratuita, podrás ver el número de enlaces que recibes y pierdes todos los meses, y la distribución numerica de TLDs (a diferencia de Open Site Explorer que te la da en porcentajes).

Herramienta Ahrefs

Herramienta Ahrefs backlinks

Con estos datos, podemos ver el evolutivo de reconocimiento de los enlaces por parte de los buscadores en el tiempo, así como si hay pérdidas, y su tipología (principalmente fijarse en “Text”, “follow” y “dofollow”).

4. Neils Bosma’s SEO Tools

Es importante comprobar si los sitios que me enlazan siguen indexados, ya que Google ha empezado a desindexar sitios, principalmente directorios tanto de PR, como de artículos y directorios generales. En este caso, se puede utilizar la herramienta Neils Bosma’s SEO Tools for Excel.

5. Open Site Explorer

Es una herramienta bastante completa que ofrece un volumen muy importante de información sobre las características de los enlaces que apuntan a un sitio web, entre las principales funcionalidades con las que podemos quedarnos:

Volmen de textos de ancla procedentes de los dominios de raíz y volumen total de páginas que enlazan con ese anchor text. Con esta información vamos a poder ver la saturación de textos de ancla que me dan un conjunto de dominios y las páginas de éstos.

Volumen de textos de ancla del dominio orange.es

Volumen de textos de ancla del dominio orange.es

Lo datos de la tabla anterior, deberían ser cruzados con la opción de “Inbound Links” ya que aquí podemos ver con más detalle las paginas exáctamente que me enlazan, tipo de enlace y texto de ancla utilizado para enlazar.

Volumen de páginas que están dando lo enlaces entrantes al dominio

Volumen de páginas que están dando lo enlaces entrantes al dominio

Otra funcionalidad muy práctica que me da la herramienta, es ver el volumen de enlaces internos que tiene el sitio y cómo éstos apuntan a las diferentes páginas con los anchor text. De cara a evitar una sobre saturación de anchor text por palabra clave hacia una páginas, esta herramienta nos podría ayudar a identificarlo.

Análisis de Internal Links

Análisis de Internal Links

6. Otras listas de herramientas que puedes utilizar para tu estrategia de Link Building:

IV. Buenas Prácticas o cómo evitar Penguin

1. Trabajar una estrategia de enlaces con sentido común, aprovechar los picos de visibilidad que puede tener la empresa: si vas a lanzar un producto, vas a tener presencia dentro de un congreso, has participado en la elaboración de un informe, etc.Entonces potenciar las acciones de link building: Notas de prensa, artículos contratados con bloggers, menciones en redes sociales. Es un momento ideal para conseguir un equilibrio, entre el ruido y presencia que tiene la marca en diferentes sitios, y la materialización de los enlaces que pueden conseguirse.

2. Trabajar una estrategia progresiva en el tiempo de consecución de enlaces.

3. Las características principales de los enlaces por los que se debería apostar, si bien hay que entender que todos éstos criterios no se van a localizar en un enlace, pero si cumples con una parte, entonces vas bien:

  • Que estén en el mismo idioma los sitios que me enlacen
  • Temas relacionados con mi producto/temática
  • Enlaces relevantes
  • Enlaces con antigüedad
  • Enlaces de sitios con autoridad
  • Enlaces con un origen y procedencia clara
  • Anchor text variado: enlazar con la marca;  enlazar por la kw; enlazar con el dominio; enlazar con variaciones (sinómimos); enlazar palabras clave con pulsa aquí, más info, click aquí, leer más, dominio.com, marca…; evitar el enlace recíproco de forma sistemática, para evitar que se perciba una vinculación antinatural; calidad vs cantidad de los enlaces.

4. A la hora de ubicar enlaces:

  • Las palabras clave distribuirlas y usarlas de forma alternativa sin saturar entre las páginas target del sitio.
  • La Página principal y páginas interiores. No centrar la estrategia de enlaces sólo en la página de inicio, si bien, por defecto ésta es la página que más enlaces recibirá.

5. Tipología de Sitio:

  • Trabajar claramente enlaces en blogs que a nivel semántico sean similares.
  • Variedad a sitios: por ejemplo, generar un post/artículo sobre la marca/producto y posteriormente, trabajar la entrada den laces procedentes de: bookmarks; redes sociales; RT’s de Twitter, G +1, Me gusta, Share; publicar en la red Google +;  menciones en Facebook; recibir menciones desde otros artículos /post.
  • Si hay que quitar enlaces, entonces hacerlo sobre los sitios sobre los que más se tiene control.
  • No tocar los enlaces de sitios con autoridad, independientemente de que éstos nos estén aportardo un anchor text exacto.

Otras recomendaciones más que deberíamos tener en cuenta (éstas se pueden aplicar tanto para la compra, como para el intercambio natural), son las propone Nick Leroy en Dear Google, How To Buy Links And Get Away With It. Para ampliar estos puntos, también es muy recomendable ver “Vídeo Clinic SEO Linkbuilding y Penguin”, la presentación de Felipe García en la  I edición del Congreso SEO para SEOs, los tips que apuntaba Miguel Pascual en el III Congreso SEO Profesional con su ponencia “Link Building en redes de Blogs” (recopilación de todos los tweets de congreso by @izenius), su presentación del Congreso Web en Zaragoza 2012  y los breves tips que damos desde T2O media sobre la actualización del algoritmo de Google. Para llevar un plan de trabajo a medio-largo plazo, echa un vistazo a la propuesta de James Agate en “The 6 Month Link Building Plan for an Established Website”.

V. Reorientación en la estrategia de Textos de Ancla (Anchor Text)

En una de las últimas actualizaciones realizadas por Google (pérdida de valor en la transferencia de popularidad del PageRank, evaluación del texto de ancla y caso omiso al atributo nofollow) se recogían varios cambios sobre el peso que estaba adquiriendo el texto de ancla (anchor text) como factor de ranking, y de ésta se desprende claramente un descenso de peso y una mayor variación en los patrones a la hora de identificar su ponderación (muy interesante el análisis que realiza Nick Leroy):

  • Interconexión local: antes de que un grupo de resultados sean presentados en función de una consulta, se analizan los enlaces de este subconjunto de resultados y estos enlaces pueden ayudar a empujar resultados, a priori esto dejaría de tener peso debido a que Google parece que está presentado resultados en función de la co-ocurrencia de términos de los resultados basados en la frase indexada.
  • Encontrar sitios relacionados: Google puede estar utilizado el aspecto de “páginas relacionadas” sobre la base de los enlaces que apuntan a éstas.
  • Basado en el idioma de recuperación de la información: utiliza el idioma del texto de ancla de un enlace para entender el idioma de la página a la que se apunta.
  • Enlaces basados en cluster: Google probablemente ha agrupado páginas web basadas en la similitud de los enlaces que las apuntan y que aparecen en los resultados.
  • Puntuación personalizadas del PR: basada en la puntuación del texto de ancla.
  • Texto de ancla indexado: uso del texto de ancla para determinar la relevancia de las páginas a las que apunta.
  • Análisis de enlaces basados en un histórico: aparición y desaparición de los enlaces; aumento y disminución; y peso de los enlaces en base a la frescura; peso de los enlaces en base a la autoridad del enlace; y, relación del texto de ancla con el contenido de la página.
  • Peso del enlace sobre la base de la segmentación de las páginas: peso del enlace en función de la ubicación física de la página.
  • Propagación de la relevancia entre páginas enlazadas: esta relevancia podía basarse sobre el número de click entre las páginas.

A esto hay añadir la propia evaluación que realizaron un grupo de expertos en Seomoz en el 2011 sobre los factores de ranking, y entre ellos se destacaba el futuro de la búsqueda, en ésta se puede ver la pérdida de peso del anchor text como factor de ranking por volumen de consenso entre los expertos, y un incremento del peso de las señales sociales.

earch  Engine Ranking Factors 2011

Search Engine Ranking Factors 2011 http://www.seomoz.org/article/search-ranking-factors

Una de las últimas encuestas realizadas (Anchor text future according to 19 experts, también en Slideshare) esta semana a un grupo de expertos sobre el futuro y evolución del anchor text como aspecto para el ranking, concluye en gran medida en la pérdida del peso del mismo.

VI. Conclusiones

Si bien desde los propios buscadores se lanza el mensaje de la búsqueda de otros criterios para ponderar la popularidad de un sitio, es decir los aspectos sociales, desde Google se deja caer que esto todavía le cuesta al buscador ponderar (en palabras del propio Matt Cutts) sin embargo, esta es la evolución natural por la que pasarán los buscadores, y que desde las agencias de SEO/freelances expertos en Link Building se debería trabajar en paralelo generando “señales sociales” producto de acciones en:

  • Campañas en medios sociales
  • Participación en comunidades
  • Conferencias, mesas redondas, intervenciones en las Q&A de una conferencia, etc
  • Generación de comunicados de prensa
  • Generación noticias
  • Participación en las conversaciones en línea

Finalmente, hacer mención a las presentaciones especializadas en Link Building de #MozCon donde hay muy buenos tips:

Hoy mas que nunca, la práctica de Link Building está más abierta que nunca y debe pasar una fase de reorientación para evitar futuras penalizaciones, fundamental.

Gestión de la Reputación online en Buscadores: Herramientas para medir el impacto y la presencia (III parte)


[Este artículo forma parte de un capítulo dedicado a la Reputación online en buscadores en el Libro30 Claves para entender el poder. Léxico de la nueva Comunicación Política”]

En los dos anteriores posts (Gestión de la Reputación online en Buscadores: Variables de medición (II parte) y Gestión de la Reputación online en Buscadores: Origen y herramientas (I parte)) se analizaron las plataformas sobre las que se podría llevar a cabo una estrategia en buscadores y cómo identificar las variables de medición.

El principal escollo de a la hora de medir la presencia e impacto dentro de las plataformas sociales es cómo éstas cuantifican el sentiment de los usuarios, actualmente, no hay ninguna herramienta que puedan ponderar de forma automática el valor semántico de la  opiniones de los usuarios, es decir, no hay capacidad para procesar el valor semántico del discurso.

Por tanto, la monitorización que hacen las herramientas orientadas a medir la actividad social están limitadas principalmente a valoraciones cuantitativas (datos), si bien hacen un esfuerzo de ponderación automática sobre el sentiment de los usuarios, que posteriormente va a requerir un trabajo muy manual para medir las valoraciones cualitativas.

Sobre la base de estas limitaciones actuales es importante conocer qué opciones existen en el mercado para poder llevar a cabo una monitorización de reputación on line, para ello, es necesario tener en cuenta:

I. MOTORES DE BÚSQUEDA

Esto podremos saberlo a través de la búsqueda recurrente sobre determinados palabras clave objeto de monitorización. Por norma general están vinculadas a: nombre de marca, nombre de persona, y la combinación de éstas con términos como “estafa”, “opiniones”, “experiencia”, “recomendación”, “precio” y todos aquellas palabras clave sinónimas que denoten la búsqueda de experiencias y opiniones por parte de otros usuarios. Por este motivo, es importante que se haga un seguimiento sistemático sobre: nombre de persona, nombre de la marca, nombre del producto y tu competencia más directa.

opiniones zapatillas de deporte

Sugerencia de Google en la búsqueda de opiniones sobre zapatillas + [Producto genérico]

opiniones de Samsung Galaxy

Opiniones + [Producto] de Samsung Galaxy, el primer y segundo resultado corresponden con un comparador de móviles con opiniones de usuarios y un Foro

La monitorización recurrente sobre estos términos de búsqueda, va a hacer que se identifiquen rápidamente la presencia de contenidos relativos a la persona y/o marca, y de ésta se puedan hacer las siguientes valoraciones:

  • Tipología de contenidos con los que se tiene presencia.
  • Tipología de plataformas en las que aparece la mención/opinión sobre la persona y/o marca.
  • Clima de las opiniones: positivos (fortaleza), negativos (áreas de mejora) o neutros.
  • Categorización temáticamente este tipo de opiniones (opinión sobre la calidad de un producto, valoración sobre un servicio prestado, comparativa de precios, recomendaciones en base a una experiencia, etc)
precio crema Eestee Lauder Revitalizing Supreme

El Top 10 de resultados naturales no presenta ningún contenido controlado por la propia marca (ejemplo: su propio sitio web), los resultados corresponden principalmente a blogs

Resultados naturales de La Caixa

En el Top 10 tiene presencia los resultados del portal de La Caxia y, los comparadores Arpem y Ciao

Es importante que la monitorización sea llevada a cabo como mínimo sobre la base de los primeros 10 resultados, principalmente, porque es donde se concentra el mayor porcentaje de selección de resultados por parte del usuario (basado en estudios de eye tracking y según la intencionalidad de la búsqueda).

II. PLATAFORMAS SOCIALES

Cuando la conversación nace dentro de las plataformas sociales, el análisis de éstas va depender en gran medida de las métricas que ofrecen las propias plataformasa la hora de determinar cómo el usuario interactúa dentro, por ejemplo:

  • Peso del usuario dentro de la plataforma (ejemplo: followers en Twitter, amigos en Facebook , o suscriptores en un Blog)
  • Engament del usuario (ejemplo: RT en Twitter, Me gusta en Facebook o los comentarios que se dejan en el post de un blog)
  • Viralidad del contenido (ejemplo: número de comentarios en un post)

Podemos categorizar la tipología de herramientas existentes en el mercado en función de múltiples criterios: si son gratuitas o no, si integran un gran número de plataformas para su análisis, si son especializadas en el análisis de alguna plataforma en concreto, etc, bien el interés final va a ser tener una herramienta que recoja el mayor número de datos para el análisis.

La siguiente propuesta no trata de aglutinar la totalidad de herramientas existentes (básicamente porque sería imposible) en el mercado, pero si es una propuesta de herramientas que por cobertura y funcionalidades pueden ayudar al trabajo de monitorización de la reputación on line:

III. PAUTAS DE INTERVENCIÓN

Una vez que es identificado dónde tiene presencia la marca y/o persona, y se quiere intervenir e interactuar con los usuarios, es importante tener un workflow de interacciones para garantizar y ayudar a una conversación clara con éstos.
Este aspecto es crítico, sobre todo para empresas donde pueden intervenir un número importante de departamentos (ejemplo: departamento de atención al cliente, marketing, comunicación) a la hora de dar respuesta a un usuario, este workflow puede ayudar a evitar descoordinación a la hora trasladar el mensaje; en el caso de los partidos políticos, el comportamiento debería ser igual.

Otro aspecto que se convierte en crítico, es cómo los empleados de una compañía deberían intervenir en plataformas sociales y cómo este contenido es atribuido a la imagen de marca, por tanto, es necesario que una empresa que quiere tener presencia dentro plataformas sociales desarrolle un protocolo de intervención para sus empleados, esto asegurará en un buen número de casos, no alimentar situaciones de crisis en las que pueda verse inmersa la compañía. Comportamiento similar deberían tener los partidos políticos, organizaciones públicas y privadas, y entidades en general que quieran trabajar su visibilidad dentro del entorno social.

Un buen ejemplo de metodología de intervención es la que se recoge en el documento público de Air Force Public Affairs, Agency Emerging Technology Division, donde muestran el protocolo de actuación que deberá ser seguido a la hora de intervenir dentro de redes sociales.

Evolución semántica de Google: de Metaweb a Knowledge Graph, más web semántica


La semana pasada Google lanzaba Knowledge Graph (16 de mayo) con el objetivo de facilitar la labor de entendimiento de una consulta y presentación de información ajustada a la intencionalidad con la que la realizaba el usuario,  es decir, que en el proceso de búsqueda de información por parte de un usuario si éste utiliza el lenguaje natural, que el buscador tenga capacidad de interpretar estos términos y presentar los resultados de información acorde con su motivación de búsqueda.

Hasta ahora el comportamiento de los buscadores era presentar documentos acorde con la concordancia del término de búsqueda, pero la evolución natural por el que quieren pasar todos los buscadores, y en el caso de Google está tomando la delantera (Wolfram Alpha sigue con “vida” si bien la proyección que se le esperaba, no ha despegado como alternativa clara a los grandes buscadores), es presentar resultados en función de la motivación real del usuario.

¿Qué nos aporta Knowledge Graph?

  • Con Knowledge Graph se pretende buscar cosas, personas o lugares sobre las que Google tiene conocimientos y presentar información relevante sobre éstas en el proceso de búsqueda, este actividad se nutre de la inteligencia colectiva de la web acercándose al “mundo de las personas”.
  • Para poder presentar esta información y responder a la intencionalidad de la búsqueda, Google está haciendo uso de Freebase, Wikipedia, CIA World Factbook, así como un análisis constante de lo que busca la gente y su propio proceso de rastreo e identificación de lo que hay en la web.
  • Debido a la ambigüedad del lenguaje y cómo esto puede impactar en un proceso de búsqueda, Knowledge Graph trabaja para entender el contexto/el matiz de la búsqueda cuando un usuario introduce los términos de búsqueda.
  • El ejemplo que se pone es cuando un usuario realiza una búsqueda por Taj Mahal ¿está buscado información sobre el monumento o sobre el músico?, con Knowledg Graph parece que ahora se va a tener capacidad para responder a la intencionalidad del usuario. Por el momento, la presentación de estos resultados, está siendo trabajada dentro de Google.com y hay que estar logado – ejemplo término de búsqueda: “diesel” ¿marca, el músico australiano o material energético? – para ver los resultados en el lateral derecho.
Interpretación semántica de Google para el término de búsqueda "diesel"

Interpretación semántica de Google para el término “diesel”, ver lateral derecho

  • Knowledge Graph va a tener capacidad para entender lo que se está buscado, y por tanto, hacer un resumen de contenidos relevantes sobre el término de búsqueda. La pregunta que se plantea Google (en este caso Amit Singhal) es cómo ellos mismos saben cuales son los aspectos más relevantes de cada elemento, aquí Google vuelve “a tirar” del análisis de consumo de información que realizan los usuarios cuando hacen una búsqueda, para saber qué es relevante y qué no. Un ejemplo de  información agregada de personas con “menor recorrido” histórico – ejemplo: Rick Astley, quién no se acuerda de Never Gonna Give You Up 😉 – permite obtener un volumen relevante de información en tiempo real.
comportamiento semántico de Google

Resumen en el lateral derecho de aspectos relevantes de Rick Astley

  • Esta vinculación entre los diferentes elementos de una entidad pueden ser presentados de forma resumida porque están relacionados entre ellos en el Knowledge Graph.
  • La vinculación de los elementos de una entidad permitirán identificar/descubrir aspectos que hasta ahora podían ser desconocidos.
  • Esta funcionalidad (Knowledge Graph) del buscador de momento está siendo implementada en la versión inglesa norteamericana, en smartphones y tablets.

Tienes más información sobre el funcionamiento de Knowledge Graph en el Blog Oficial de Google y en su vídeo de presentación:

De la cadena de caracteres al lenguaje natural

Esta evolución de Google viene siendo trabajada desde antes de la compra de Metaweb (Freebase) -base de datos abierta sobre personas, lugares y cosas, relacionados entre si –  en julio de 2010, en el que ya se hacía mención del esfuerzo que estaba realizando el buscador para entender preguntas más complejas más allá de tener capacidad para responder búsquedas como “tiempo en Madrid” o “presidente de España”.

[Vídeo]: Explicación del funcionamiento de Metaweb

En la presentación que hizo Andrew Hogue en Google Tech Talk “The Structured Search Engine”  ya dejaba entrever la evolución que estaba teniendo en Buscador de Google y sus próximos lanzamientos.

[Vídeo]: Google Tech Talk “The Structured Search Engine, enero 2011″

Un análisis también bastante interesante es el que realiza Justin Briggs en Entity Search Results, a través del cual explica cómo los buscadores (y en concreto Google) están pasando de reconocer las cadenas de caracteres a las Entidades, y  la relación de éstas con sus atributos.

Evolución y actualización del algoritmo

A esto hay que sumarle, la constante evolución que está teniendo el buscador desde el año pasado, en el que las actualizaciones de algoritmo siempre incorporan elementos vinculados al reconocimiento de la autoría de los contenidos, a la sinonimia de los términos y a la frecuencia de actualización de los contenidos. Desde comienzo de año, es relevante destacar las actualizaciones de febrero, marzo y abril de 2012, donde ya hay indicios claros del trabajo que Google está haciendo para poder relacionar contenidos y su vinculación semántica:

  • Actualización de febrero de 2012 realizan actualizaciones sobre las búsquedas relacionadas e incremento de
    trabajo en el reconocimiento de las páginas oficiales.
  • En marzo de 2012 se actualizan aspectos relacionados con mejorar la indexación de las páginas de los perfiles públicos -sitios sociales- (codename “Prof-2” ), mejorar el reconocimiento de nombres (codename “NameDetector”), señales de personalización (codename “PSearch”), y uno de los más importante, la sinonimia entre los términos (codename “Synonyms” y codename “Gemini”).
  • En abril de 2012, centra su actualización en la mejora del reconocimiento de la autoría de las páginas y la predicciones de autocompletados (codename “Autocomplete”).

Otros elementos que han marcado esta evolución han sido: el apoyo al sistema de microdata Schema.org (agosto 2011), reconocimiento de la microdata dentro de los resultados naturales a través de los Rich Snippets  -actualmente Google reconoce los fragmentos enriquecidos de los contenidos de opiniones, contactos, productos, empresas y organizaciones, eventos, música y contenido de vídeo-, herramienta de verificación de microdata, el impacto del Social Graph -vinculación, relación y autoría de los perfiles sociales-, autoría de la información, reconocimiento del marcado Authorship o las  insignias de verificación de perfiles y páginas.

¿Cómo puede influir la evolución semántica de los Buscadores en la labor SEO?

Sin duda alguna, la evolución por la que pasará la aplicación de prácticas de optimización SEO estarán más orientadas como mínimo en cuatro aspectos principales:

  • Análisis e investigación de tendencias de consumo de información por parte de los usuarios
  • Comportamientos de búsqueda por parte de los usuarios
  • Trabajar el marcado semántico de los contenidos que se generen (Microdata)
  • Trabajara con un lenguaje de etiquetado reconocido por los principales buscadores: HTML5

Artículos relacionados:

Search Engines and Entities By Bill Slawski, 13 de junio de 2012