Posts Tagged ‘algoritmo de google’

Cambios en el algoritmo de Google

 Algoritmo de Google

cambio algoritmo de google

Al principio era relativamente fácil “engañar” a Google y conseguir de forma sencilla un buen posicionamiento. Bastaba con generar muchos enlaces que apuntaran a nuestra web, intercambiándolos con otros usuarios o incluso pagando por ellos. Otra forma de posicionarse en los primeros resultados era repetir constantemente las palabras clave enel contenido de la web. El resultado fue, que empezaron a aparecer sitios web de baja calidad en las primeras posiciones y Google tuvo que invertir en mejorar su algoritmo de Google para intentar mostrar los mejores resultados posibles.

En la actualidad el algoritmo de Google actualiza su indexación con frecuencia casi diaria. La mayoría de las veces realiza pequeños ajustes que pasan desapercibidos, pero cada cierto tiempo realiza un gran cambio que suele afectar a un gran porcentaje de búsqueda, enviando al olvido a sitios web que gozaban de un posicionamiento privilegiado.

Por este motivo, debemos estar muy atentos a todos los cambios y actualizaciones que se van publicando, para ver cómo pueden afectar a nuestro sitio web y tomar la medidas oportunas.

A continuación os voy a detallar cuáles han sido los últimos grandes cambios que se han producido en el algoritmo de indexación de Google y en qué manera han afectado a los resultados.

Google Caffeine

algoritmo de Google. googlecaffeinelogo

El primer cambio importante en el algoritmo de Google en los ultimos años fue Caffeine, que salió en agosto de 2009. Caffeine buscaba reducir los tiempos de búsqueda y actualizar la información con los nuevos servicios que incluían Facebook y Twitter. Consiguió reducir el tiempo de respuesta en búsquedas a la mitad en numerosos tests, y mejoró el rendimiento del motor de búsqueda.

 

Google Panda

algoritmo de Google - Panda

La actualización del algoritmo de Google Panda fue lanzada a principios de 2011. El objetivo de este cambio era eliminar de las primeras posiciones del buscador los sitios con contenido de baja calidad, páginas web sobre-optimizadas con palabras clave, contenido reproducido y exeso de publicidad que buscaban posicionarse en los primeros resultados para atraer público a su sitio web sin ofrecer ningún valor añadido al usuario.

En el momento de su lanzamiento, supuso una revolución porque afectó al 12% de las búsquedas.

Google Panda afectó principalmente a:

  • Sitios web con contenido duplicado.
  • Sitios que copiaban contenido de otras webs.
  • Sitios que participaban en granjas de enlaces. Las granjas de enlaces son portales web con cientos o miles de enlaces sin clasificar y creados con la intención clara de manipular los resultados orgánicos de las páginas enlazadas.

El algoritmo de Google Panda valora positivamente el contenido original, actualizado y que ofrezca un valor añadido al usuario. Por lo tanto, penaliza (o al menos no beneficia) a las páginas que copian contenidos de terceros o que obstacuizan la navegación del usuario para generar un mayor número de páginas vistas.

Desde entonces y hasta ahora, Google ha lanzado un total de 27 actualizaciones en relación con este objetivo.

Las actualizaciones de mayor impacto fueron la primera (24 de febrero de 2011), que se lanzó en EEUU y afectó al 11,8% de las consultas y la sexta (12 de agosto de 2011), lanzada a nivel mundial y que afectó al 9% de las búsquedas.

El resto de las actualizaciones, han tenido un nivel de incidencias por debajo del 3%.

En el año 2014 se han producio las dos últimas actualizaciones denominadas como Google Panda 4.0 lanzada el 19 de mayo y Google Panda 4.1 lanzada el 23 de septiembre.

Este (17 de julio de 2015) Panda a sufrido su actualización 4.2. El cambio había sido anunciado previamente por Gary Illyes. Se trata de un refresco que, por cuestiones técnicas, tardará meses en completarse. Debido a esto se espera que el impacto se perciba de forma gradual. El despliegue es global y afecta al 2-3% de las consultas en inglés.

Google Penguin

google-penguin-marketing-de-contenidos

El algoritmo de Google Penguin fue lanzado en abril de 2012.

El objetivo de Google Penguin fue mejorar la calidad de los resultados ofrecidos por Google, centrándose en eliminar el spam y los enlaces de baja calidad. El spam se puede definir como contenido basura, mensajes no solicitados, o sin un remitente claro.

Se centra, por lo tanto, en factores off-page, es decir, en elementos externos a los portales web.

Google Penguin da valor a las buenas prácticas y a la búsqueda de la “excelencia”, y trata de penalizar los portales que buscan un posicionamiento fácil mediante técnicas de sobreoptimización o la compra de enlaces. La sobreoptimización se puede ver como un conjunto de acciones orientadas a manipular un sitio web para que se posicione mejor, sin tener en cuenta el usuario. Es decir, cuando pasamos al abuso. Por ejemplo:

  • Un sitio web que recibe cientos o miles de recomendaciones en muy poco tiempo.
  • Contenidos duplicados para mejorar la densidad de las palabreas clave (uso repetitivo de las mismas).
  • Texto oculto. Por ejemplo, programándolo con el mismo color que el fondo.
  • Keyword Stuffing

Este algoritmo de Google Penguin valora, entre otros:

  • La limpieza en el perfil de links: Es tan importante que te enlacen otras páginas como que no te enlacen las que no son de tu temática o que no hayan sido penalizadas por Google.
  • Perfil en Google+: Google penguin valora la creación de un perfil dentro de la red social, así como tener actividad en el mismo.
  • La difusión del contenido enlas redes sociales, por ejemplo a través de los botones “Compartir” o los “Me gusta”.
  • La calidad cuando hacemos Guest Blogging (Guest Blogging consiste en publicar contenido en el blog de otro a cambio de un enlace hacia el nuestro).
  • La capacidad del sitio web para ser visualizado correctamente en cualquier equipo, incluyendo móviles y tablets.
  • La usabilidad del portal web.
  • La calidad y originalidad de los contenidos, en el sentido de ser contenidos nuevos, no copiados, y que aporten valor.

Por el contratio penaliza a :

  • Las páginas cuyos enlaces repiten constantemente el mismo texto.
  • Las páginas que reciben enlaces de webs de baja calidad, como directorios, redes de enlaces o granjas de enlaces.
  • Las páginas que reciben enlaces de páginas en otros idiomas sin que haya una vinculación clara.
  • En cuanto a las actualizaciones, Google Penguin ha lanzado varias. La primera, el 24 de abril de 2012, tuvo una incidencia del 3,1% en las búsquedas, seguida de Penguin 2.0 (22 de mayo de 2013) que alteró el 2.3% de las búsquedas. El resto de actualizaciones, 25 de mayo de 2012, 5 de octubre de 2012 y 4 de octubre de 2013, han tenido un nivel de incidencia mucho menor.

Recientemente se ha lanzado Penguin 3.0, el 17 de octubre de 2014. Este último lanzamiento se ha caracterizado por ser mucho mejor que sus antecesores, focalizando sus esfuerzos en las redes de blogs creadas exclusivamente para linkbuilding (generar enlaces) y la sobreoptimización de los tectos de los enlaces. Esta versión no parece muy diferente de las anteriores, aunque será importante al permitir que muchas web se recuperen de la penalización algorítmica que se les aplicó y por la que rectificaron sus acciones.

Gary Illyes, Webmaster Trends Analyst en Google, confirmó en Twitter que la próxima actualización del pingüino será lanzada antes de finales de 2015.

Google EMD

algoritmo de Google exact-match-domain-EMD

Google EMD fue una actualización del algoritmo lanzada en septiembre de 2012. El objetivo era reducir la aparición de resultados de poca calidad frente a las búsquedas con coincidencia exacta del dominio.

Hasta ese momento, disponer de un dominio que coincidiera exactamente con una palabra clave muy utulizada, posibilitaba tener una posición privilegiada sin hacer mucho más desde los primeros días. Ejemplos de EMD serían:

  • Abogadosmadrid.com
  • Vuelosbaratos.es
  • Cerrajerosbarcelona.com

La actualización de Google penaliza:

  • Aquellos sitios web que siendo de baja calidad aprovechan la coincidencia de su dominio con la palabra clave para conseguir una buena posición.

Eso no significa que no se pueda tener un dominio de este tipo. De hecho, esuna técnica SEO muy recomendable. S´lo los sitios web que se aprovechan “descaradamente” de este hecho para mejorar el posicionamiento son los que han sido y serán penalizados.

Google Hummingbird (Colibrí)

algoritmo de google colibri

Este algoritmo de Google “Colibrí” empezó a rodar en la última semana de Agosto de 2013 pero no fue presentado hasta un mes después, el 26 de septiembre de 2013, coincidiendo con el 15 aniversario de Google. El nombre, “Colib´ri”, responde a las principales cualidades de este algoritmo, rapidez y precisión.

¿Por qué es tan importante?

  • Colibrí no supone una actualización, sino un algoritmo totalmente diferente que utiliza partes antiguas y nuevas. Esto no ocurría desde el último algoritmo de Google Caffeine, en 2009.
  • Ha afectado al 90% de las búsquedas, aunque el impacto visible no ha sido demasiado significativo, ya que la variación de posiciones de las webs en los resultados de búsqueda no ha sido muy grande.
  • Añade nuevas funcionalidades y modifica los criterios de ordenación de resultados.

Google detecta una nueva tendencia enlas búsquedas. Los usuarios comienzan a ver a Google como alguien en quien confiar, lo que les lleva a naturalizar las búsquedas, cambiando las palabras clave por preguntas que podrían estar dentro de una conversación real.

Esta nueva forma de interactuar con Google se acentúa con la utilización de dispositivos móviles – Incluyendo las nuevas Google Glasses – para realizar consultas y por la posibilidad de hacerlas a través de voz. Los usuarios huyen de las búsquedas largas y complejas y esperan cada vez más respuestas concisas y cercanas a lo que quieren encontrar. Lo natural es hacer una pregunta y que alguien te responda de la manera más eficaz posible, por encima de la utilización de términos clave.

Colibrí nace para solucionar esta situación, centrando sus esfuerzos en:

  • Mejorar la búsqueda semántica, aquélla que ofrece resultados por encima de las coincidencias léxicas, centrándose en el significado real, en la intención de búsqueda.
  • Mejorar la búsqueda conversacional, aquélla que cambia Keywords por preguntas y listado de resultados por respuestas.
  • Mejorar el gráfico de conocimiento, con el que se pueden realizar comparaciones de productos.

Google, a su manera aspira a ser lo más humano posible, intentando comprender lo que quiere el usuario, buscando el signigicado y el concepto, por encima de las coincidencias de palabras. El objetivo de Google Colibrí es responder, conversar y anticipar.

Google Colibrí es un algoritmo más rápido y preciso a la hora de modificar los resultados de la búsqueda, que realiza a través de los factores:

  • Relevancia en redes sociales.
  • Interacción que se produce entre el usuario y la página.
  • Calidad del contenido.
  • Enlaces.

Las implicaciones de este algoritmo de Google son:

  • Habrá que centrarse más en el contenido de la página y un conjunto de palabras clave relacionadas en vez de unas pocas Keywords principales.
  • El papel del móvil y de las redes sociales crece

Este próximo 20116 Google Colibrí va ha tener un papel muy importante en el posicionamiento de nuestras webs.

Google Pigeon

algoritmo de google pigeon

Este cambio en el algoritmo de Google fue lanzado el 24 de julio de 2014 y ha tenido gran efecto sobre los resultados de las búsquedas locales (aquellas que tienen referencia a una ubicación física, como por ejemplo, “restaurantes en Valencia”).

Con este cambio, Google tiene como objetivo mejorar la experiencia de los usuarios cuando realizan búsquedas locales ofreciéndoles resultados cercanos a donde se encuentran. De esta forma, directorios locales como Google Maps/Google+ Local/Google MyBusiness, Páginas Amarillas, Yelp o Tripadvisor han mejorado su visibilidad. Este cambio ha incentivado mejorar el SEO Local.

Google Responsive “Mobilegeddon”

algoritmo de google -movil-

El 21 de abril de 2015 Google vuelve a ser noticia. Los sitios web que no cuenten con un diseño responsive se verán afectados por la nueva actualización de su algoritmo en el que los sites que no estén optimizados para dispositivos móviles perderán posicionamiento en los resultados de búsqueda de Google realizadas desde estos dispositivos, lo cual repercutirá negativamente en el nivel de visibilidad y por consiguiente en la tasa de captación de tráfico orgánico.

Si quieres estar informado de todos los cambios que va realizando google en su algoritmo y ver el histórico de sus actualizaciones lo puedes consultar en el siguiente enlace:

http://moz.com/google-algorithm-change

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies