Por qué debería tener en cuenta el Contenido, lo Social y el Móvil en mi estrategia SEO


Establecer predicciones en SEO hace que sean francamente inciertas, pese a esto, si que se pueden identificar ciertas tendencias en función de cómo ha ido evolucionando el principal buscador (Google). Durante 2012, Google ha tenido tres actualizaciones de algoritmo bastante relevantes:

  • Durante 2012 Google Panda ha tenido varias actualizaciones, el año se cerraba con la versión 23  (en diciembre 2012), y el 2013 se estrena con una nueva actualización. Su objetivo es eliminar de los resultados naturales contenido irrelevante y carente de valor para los usuarios.
  • En Abril 2012 entra en escena Google Penguin, cuyo objetivo es eliminar de los resultados naturales, sitios posicionados de forma fraudulenta a través de prácticas de link building de baja calidad. La última actualización (la 3ª) se produce en octubre 2012.
  • En septiembre de 2012, hay una actualización del algoritmo EMD (Exact-Match Domain), cuyo objetivo es eliminar o en gran medida controlar, que en los SERP’s desaparezcan dominios de baja calidad con concordancia exacta en el nombre (cuyo objetivo final es forzar el posicionamiento por palabras clave).

En función de estos cambios de Google, podemos orientarnos en 6 puntos sobre los que veo relevante prestar atención de cara la visibilidad de un sitio (y su contenido) dentro de los Resultados Naturales:

1. Mayor presencia de las marcas en los resultados y más a raíz de la actualización de los EMD

  • Actualmente una marca tiene presencia en los SERP’s través de: Google Suggest, Google Adword, Google shopping, Google Local, resultados naturales y Google Plus. Esta presencia de marca ha ido potenciándose a lo largo de los años.
  • Esto queda reflejado en agosto 2012 cuando se pasa de 10 a 7 resultados, pudiendo una marca saturar estos 7 primeros resultados. Igualmente, hay una expansión de resultados de un mismo dominio para búsqueda más genérica, con un claro beneficiario, la marca.
posicionamiento de T2O media

Posicionamiento de T2O media en los resultados de una búsqueda por marca

  • Seguirá habiendo una pérdida de peso (mayor control) de los dominios con concordancia exacta –Exact-Match domains (EMD)– cuyo objetivo sea forzar el posicionamiento de forma “fraudulenta”, en beneficio de aquellos dominios que aplican el fair play independientemente de que su nombre de dominio pueda llegar a tener concordancia exacta.

2. Mayor empuje a la Web Semántica

  • Seguirá dando peso a la microsegmentación de la información a través de la microdata y respaldada por el formato Schema.org.
  • La visibilidad de este marcado lo vamos a seguir viendo a través de los Rich Snippets en los SERP’s e irá mejorando su reconocimiento y enriquecimiento a la hora de presentar mayor número de información.
Ejemplos de rich snippets

Ejemplos de rich snippets. Fuente: Google

  • Un ejemplo de su interés queda reflejado en la actualización de su herramienta de Webmaster Tool (de Google) donde se ayuda a categorizar la información de forma sencilla (Datos estructurados).
Formulario de microdatos Webmaster Tool

Formulario de microdatos Webmaster Tool

  • Desde su lanzamiento en el mes de mayo a nivel global y su expansión a versiones regionales (mes diciembre 2012), seguirá empujando Knowledge Graph son sólo para búsquedas populares, sino también muy vinculadas a las marcas como ya ha ocurrido para algunas búsquedas en EEUU (el lanzamiento de Facebook Graph Search, será un aliciente más para ver cómo evolucionan ambos y el valor que aportan a los usarios dentro de unos resultados cada vez más personalizados).
Funcionamiento de knowledge graph

Visibilidad del funcionamiento de Knowledge Graph. Presencia en el lateral derecho  de los contenidos

3. Mayor Peso Social como Factor de Ranking

  • Google Plus va a seguir siendo un indicador para el factor de ranking y visibilidad de un contenido, de ahí que si que creo que sea necesario trabajar la presencia de las marcas dentro de la red (en este hilo del 14/01/2013 “Does Sharing on Google+ Still Get a Page Indexed?” Rand Fishkin hace un test para ver si un contenido compartido únicamente desde la red es indexado sin necesidad de ser enlazado desde ningún sitio, y la velocidad de indexación de éste).
  • Google Plus seguirá trabajado en mejorar su optimización tanto dentro de la propia red (su analítica interna, estructura semántica de las URLs de perfiles, etc).
  • Los indicadores sociales como factor de ranking deberán formar parte de la estrategia de visibilidad de una marca en buscadores, algunos de los aspectos que deberán ser valorados/trabajados son indicados aquí (Jayson DeMers)  y aquí (Dana Lookadoo).

4. Mayor peso a la autoría de los contenidos a través de Authorship y Contenido de Calidad

  • Durante el 2012 el AuthorRank ha marcado un antes y un después a la hora de asignar la autoría de un contenido publicado en internet y el peso que te confiere de cara al posicionamiento.
Cómo funciona el TrustRank

Cómo funciona el TrustRank. Fuente: seogadget.com

  • Ya en el 2011 se explicaba el funcionamiento e impacto que iba a tener, y durante el 2012 se da una mayor explicación a su impacto en Quicksprout, Seomoz Search Engine Land, así como los potenciales indicadores para valorar esa autoría:
    • La media del Pagerank del contenido del autor
    • La media  de los +1 y shares que recibe el autor en Google+
    • El número de personas que tiene el autor en su red Google+
    • Las conexiones recíprocas que tenga con otros autores cuyo Author Rank sea alto
    • El número y autoridad de los sitios en los que al autor ha publicado su contenido
    • El nivel de engagement que tiene el contenido del autor (ej: número de comentarios y respuestas dadas por el propio autor)
    • Presencia en otro tipo de páginas (ej: Wikipedia)
    • Número de suscriptores y engagement de los videos publicados en Youtube donde es autor
    • Métricas de relevancia dentro de las redes sociales y sobre las que Google tiene “confianza” (Twitter, Quora, Linkedin, Slideshare, etc)
    • Y presencia con autoría de contenidos en Google Books o Google Schoolar
Factores del AuthorRank

Factores del AuthorRank posibles a la hora de potenciar el contenido de un autor. Fuente: Seomoz.org

  • Desde el mes de agosto 2012, Google lanza el mensaje de penalización de aquellos sitios que violen el copyright de otros sitios web.
  • Un contenido que garantice su calidad, va a garantizar la experiencia de usuario dentro del sitio, ayudando a viralizarlo y comercializarlo.
  • Clara penalización a medio plazo de prácticas de generación de contenido carentes de objetivo.
  • Esta corriente en busca de contenido de calidad que ayude a usuarios y buscadores, derivará en líneas de negocio orientadas al Content Marketing, Brand Building o #RCS (Real Company Stuff).

5. Control en la calidad de la popularidad externa del sitio

6. Presencia en Móvil

  • Si 2011 se cerraba con grandes expectativas para el crecimiento en el uso de móvil, en diciembre de 2012 se ha llegado a tener una penetración en España del 63% de smartphones frente al 55% europeo.
  • Google está empujando muy fuerte la búsqueda a través de móvil, lleva más de un año sugiriendo cómo debe ser una versión óptima para móvil (Building Smartphone-Optimized Websites), 2013 tendrá un claro incremento en cuanto a uso y desarrollo.
  • Esto hace que a nivel de SEO surja un “nuevo entorno” de para la optimización de contenidos muy centrado en comportamientos de búsqueda (un buen punto de partida en el artículo “How to do a Mobile SEO Audit“).

En este Vídeo de T2O media, os contamos 3 Tendencias en SEO que resumen los principales puntos comentados anteriormente:

Junto a las tendencias de SEO, mis compañeros Cristina Álvaro (SEM Director) y Luis Garriga (Performance Director) nos ayudan a ver qué podemos esperar de SEM y Performace para 2013:

Anuncios

Comparativa SEO vs SEM en cifras [Infografía]


En esta infografía de Visual.ly nos muestra datos comparativos del impacto de una campaña SEO vs. SEM, así cómo el comportamiento de los usuarios a la hora de hacer click en los resultados de una búsqueda. Algunos de los principales resultados:

  • Un 42% de los usuarios hace click en el primer resultado posicionado, sólo el 8% hace click en el segundo resultado
  • Cuando se hace una búsqueda sólo el 23% de los clicks van a PPC
  • Cuando se está comprando solo el 33% de los clicks van a enlaces PPC
  • En un proceso de compra, los enlaces de PPC producen un 25% menos de conversión que en SEO
  • En cuanto al comportamiento de los usuarios frente a los resultados es interesante ver como el:
  1. 62% hace click en los resultados de la primera página
  2. 23% hace click en los resultados de la segunda página o posteriores
  3. 80% de las búsquedas no satisfactorias tienen un proceso de refinamiento con nuevas keywords
  • Un 40% de las campañas SEO tienen un ROI del 500% frente al 22% de las campañas de PPC.
  • En Estados Unidos hubo 10.5 billones de búsquedas en 2009, suponiendo un incremento del 106% desde 2005

Comparativa de Clicks SEO SEM

Auditoría SEO de un sitio web: puntos de análisis


A través de ésta infografía, se muestra de forma básica qué aspectos on site y off site pueden ser considerados en un primer análisis a un sitio web, con ésto, va a permitir identificar carencias y puntos de mejora.

Auditoría SEO Checklist

De forma más elaborada Geoff Keyton en “Technical Site Audit Checklist” propone un checklist más elaborado para llevar a cabo una auditoría técnica sobre el sitio web, los principales puntos de control son:

1. Visibilidad de la indexación que tienen los buscadores sobre el sitio web

  •  Indexación de las páginas
  • Búsqueda por marca y términos vinculados a la marca
  • Comprobar la caché

2. Contenido

  •  Contenido de la página de inicio
  • Landing pages
  • Contenido de relevancia
  • Uso apropiado de keywords target
  • Canibalización de keywords
  • Correcto del marcado semántico a través del etiquetado
  • Cantidad de contenido vs Publicidad (Ads)

3. Contenido Duplicado

  •  Comprobar la existencia de URLs por contenido único
  • Comprobar la existencia de contenido duplicado a través de la búsqueda (ej. scraped)
  • Contenido duplicado en subdominios
  • Chequear la versión segura del sitio
  • Chequear otros sitios de la compañía

4. Accesibilidad del sitio

  •  Comprobar el fichero robots.txt
  • Deshabilitar Javascript, cookies y CSS
  • Comprobar si se está haciendo uso de cloacking
  • Comprobar la existencia de las páginas de error 4xx y 5xx

5. Arquitectura del sitio

  • Analizar la arquitectura
  • Landing pages
  • Número de páginas por categoría
  • Paginación existente en la navegación
  • Número de clicks que se hacen desde diferentes contenidos en el sitio (entre 2 y 5 clicks)
  • Priorización del contenido de relevancia

6.  Aspectos técnicos

  • Uso de redireccionamientos (ej. 301, 302)
  • Uso de JavaScript
  • Uso de iframes
  • Uso de flash
  • Velocidad de la página
  • Uso de los Alt en el texto
  • Chequear errores que arroja la herramienta Google Webmaster Tools
  • XML Sitemaps

7. Canonicalización

  •  Gestión a través de 301’s, Google Webmaster Tools, etiqueta Rel canonical
  • Uso de URLs absolutas frente a URLs relativas

8. URLs

  • Existencia de URLS claras, evitando en exceso el uso de parámetros o sesiones ID
  • URLs cortas (a ser posible menos de 115 caracteres, favorece sobre todo aspectos de usabilidad)
  • URLs descriptivas

9. Linking Interno

  •  Número de enlaces en una página (ej. 100 es un buen número, pero no una regla)
  • Enlaces verticales
  • Enlaces horizontales
  • Enlaces que están en el contenido
  • Enlaces en el pie
  • Uso del anchor text interno
  • Comprobar enlaces rotos

10. Etiquetado: Etiqueta Title

  •  Contenido únicas en el Title por página
  • Keywords de calidad
  • Las Keywords principales deberían estar al inicio de la etiqueta Title
  • Uno del nombre de la marca dentro de la etiqueta
  • Que tenga una longitud entre 65-75 caracteres

11. Etiquetado: Etiquetas Meta

  •  Uso de la etiqueta Keywords
  • Uso de la etiquetas description
  • Uso de la etiqueta Meta robots

También puedes ver traducida completamente este checklist de Auditoría SEO en Seotallica.

White Hat Cloacking: cómo evitar posibles penalizaciones


En el SMX West de este año, se le plantearon a Matt Cutts varias preguntas sobre cómo Google podría interpretar prácticas White Hat Cloacking, al respecto fue categórico:

“White hat cloaking is a contradiction in terms at Google. We’ve never had to make an exception for “white hat” cloaking. If someone tells you that — that’s dangerous.”

Si bien es una presentación antigua, en ella se recogen los escenarios y situaciones planteadas a Matt Cutts en el SMX West en marzo de 2011, sobre cómo Google puede penalizar a sitios web que presenten contenido diferente a usuarios y al buscador.

Cómo crear una Landing Page: elementos de la página


En la siguiente infografía se muestra 10 elementos claves a tener en cuenta a la hora de diseñar una Landing Page:

1. Tener un buen titular como encabezamiento.
2. Que los encabezamientos secundarios sean claros y concisos.
3. Tener una gramática impecable.
4. Incorporar testimonios de clientes que apoyen el mensaje de los servicios que se venden.
5. Uso de letras negritas para la llamada a la acción (call to action).
6. Los botones y las llamadas a la acción deberá estar ubicados en sitios destacados dentro de la página.
7. Facilitar el acceso a los enlaces que tenga la página.
8. Utilizar imágenes y videos relacionados con el contenido (copy) de la página.
9. Mantener el contenido y mensaje de la landing dentro del marco Above the fold
10. Testear de forma constante el  comportamiento y resultados de los usuarios.

Se cierra la infografía con los tipos de colores que son buenos utilizar en función de la tipología de sitios.

Cómo crear una landing page

Otro buen artículo que recoge una propuesta de aspectos a tener en cuenta para que una landing page tenga éxito es “Seven Tips for Creating Killer Product Pages”.

Guía SEO: códigos de estatus HTTP


Desde Seomoz.org, Dr. Pet  propone a través de una guía básica y muy visual el comportamiento de los códigos de estado HTTP y redireccionamientos (200, 301, 302, 404, 500, 503 y Rel Canonical). A través de ésta, podemos ver el comportamiento de los usuarios cuando realizan una consulta, el robot y la tranferencia de link
juice entre las páginas.

Guia SEO sobre estatus de código HTTP

Si bien esta guía ha tratado de recoger el comportamiento y funcionamiento de éstos, hay una serie de precisiones que hace, vinculadas principalemnte a aspectos de diseño y de idoneidad para ser incluidas (ej: Rel-canonical no es un código de estado, pero vió que que era interesante incluirlo).

Qué es SEO: Guías de Posicionamiento Natural


En esta exhaustiva presentación de SEOMoz, se recogen una serie de datos bastante interesante sobre cómo funcionan los motores de búsqueda, comportamiento de los usuarios en la búsqueda, cómo crear sitios web accesibles, estrategias de link building y el impacto de los social media en la web.

También en esta presentación realizada por T2O media para el WebCongress Malaga (Congreso de Marketing online en Mágala, 2010) podrás acceder a una introducción al Posicionamiento Natural (SEO) con casos prácticos sobre mejores prácticas para optimizar un sitio web.

SEO para desarrolladores web – Guía rápida HTML y XHTML


En el blog de Scott Klarr se hace una recopilación de guías rápidas sobre HTML y XHTML en formato pdf.

html-y-xmtl-para-seo

También puedes consultar la guía rápida de SEO.

SEO para desarrolladores web – Guía rápida de seo


A través de la guía rápida que lazó hace unos meses seomoz.org  (The Web Developers SEO Cheat Sheet), se puede consultar de forma rápida puntos como:
seomoz1
  • Las etiquetas HTML más relevantes para SEO
  • Límites impuestos por los motores de búsqueda de cara a la indexación de los sitios web
  • La sintaxis recomendada para la etiqueta <Title>
  • Aspecto canónicos
  • Agentes de usuario (User-agents) importantes de los robots motores de búsqueda
  • Cómo evitar involuntariamente el rastreo de los robots de los motores de búsqueda
  • La sintaxis del meta Robots
  • La sintaxis de Robots.txt
  • La sintaxis del mapa de sitio (Sitemap)

Existe una revisión y ampliación posterior de esta guía rápida de seo en seomoz.org

Cómo seleccionar las palabras clave (II)


Una vez que ya se tiene idea de cuales pueden ser las palabras clave por la que pueden buscar los usuarios, es cuando se puede hacer uso de las herramientas automáticas. 

Herramientas para la selección de palabras clave: 

  1. Las herramientas de búsqueda de palabras clave son esenciales para ver qué están buscando realmente los usuarios.
  2. Estas herramientas ofrecen sus datos procedentes de los últimos meses, y en algunos casos, en el último año.
  3. Permiten obtener una idea de cuales son los términos por los que se busca y su frecuencia.
  4. La consulta a estas herramientas es manual, introduciendo cada uno de los términos, y obteniendo el volumen de búsquedas de éstos.
  5. Se les puede hacer una consulta por un término o grupo de términos, y de éstos se obtienen resultados como: sus términos relacionados, sinónimos, variaciones, plurales, errores ortográficos. 

Actualmente existe en el mercado, una amplia  oferta de herramientas que ayudan a realizar esta selección, a continuación se muestran tres herramientas cuya consulta es gratuita (Wordtracker tiene su versión de pago): 

  1. Google’s Adwords Keyword Tool: http://adwords.google.com/select/KeywordToolExternal   
  2. Yahoo’s Keyword Selection Tool: http://inventory.overture.com/d/searchinventory/suggestion/ 
  3. Wordtracker: http://www.wordtracker.com/free-trial.html   

Selección de las palabras clave: 

  • A través de la consulta que se haga a estas herramientas de sugerencias de términos, ya se puede ir elaborando la lista de palabras clave, ya que algunas serán adecuadas para el negocio y otras totalmente irrelevantes. 
  • Copiar y pegar las palabras clave en un fichero Excel, y organizarlas en función de las listas temáticas que se hayan creado. Esto ayudará a tener una visión más amplia de la selección que se ha hecho, así como las posibles combinaciones que se se pueden crear entre estos grupos temáticos.

Fuente: Search Engine Watch

Ver: Cómo seleccionar las palabras clave (I)