Conoce los cambios de algoritmo de Google más importantes de su historia

Google siempre ha tenido una máxima, a parte de la de «Don´t be evil» que ya no se cree nadie y que cambiaron finalmente por «Do the right thing«, como ves cada vez han ido siendo más laxos, de no ser malos a hacer lo correcto, pero bueno, la máxima que sí cumplen a rajatabla es la de «ofrecer al usuario la respuesta correcta en la menor cantidad de tiempo«.

Cada vez hay más webs en internet, los SEOs van encontrando técnicas para manipular los resultados de Google, cambian las tendencias de búsqueda (por ejemplo en búsquedas locales, algoritmo Pigeon) y formas de consumir contenido los usuarios (lenguaje más natural, algoritmo Hummingbird) y por ende, el algoritmo de Google debe ir actualizándose para poder combatir todo eso.

Voy a tratar de recopilar aquí aquellos cambios en el algoritmo más conocidos o que más «guerra nos han dado a los SEOs», existen más, claro, Google realiza cientos o miles de actualizaciones en su algoritmo cada año, pero pocas son las que hacen públicas y menos de las que dan información concreta.

 

🤖 Algoritmos Google

No puedes conocer todos los cambios en el algoritmo de Google porque se hacen literalmente miles de ellos al cabo del año, la mayoría pasan inadvertidos para nosotros, son las actualizaciones más importantes las que Google hace oficiales y a las que da nombre (otras veces es la comunidad la encargada de ponérselo) las que podemos analizar para hacer un estudio sobre los cambios en su algoritmo.

A continuación te dejo con una lista de los más importantes sucedidos en los últimos años, pero no te equivoques con su año de lanzamiento, aunque algunos como Panda se lanzó en 2011, parece una fecha muy lejana, lo cierto es que se han ido actualizando y mejorando con los años, sigue combatiendo aquello para lo que fue diseñado pero ahora de una forma más potente.

 

☑ Panda

El algoritmo de Panda apareció en una época en la que los contenidos de baja calidad tenían muchas posibilidades de rankear en Google, sitios con contenido duplicado, sobre optimizados para determinadas keywords, en definitiva, thin content.

Entonces, «el bueno» de Navneet Panda (el desarrollador de esta actualización) (yo también me decepcioné cuando me enteré la primera vez que el nombre no venía por el adorable osito blanco y negro) decidió desarrollar una actualización del algoritmo que analizara a fondo los sitios web y su contenido para penalizar a aquellos que no aportaban valor al visitante.

Este algoritmo penaliza o resta posicionamiento a aquellas páginas webs que no ofrecen una buena experiencia a los usuarios y con buena experiencia me refiero a encontrar la solución a la búsqueda que han planteado con contenido original y fresco.

Se centra en:  contenido 

Año de aparición:  2011 

✅ Resolver penalización por Panda

Si tu sitio web ha sido afectado por la actualización de Panda lo más sencillo es, primero resolver los problemas que tengas en tu web, en este caso estamos hablando de contenido de calidad muy pobre o duplicado y como sabes, la herramienta de los amigos de Safecont es especialista en resolver esta problemática.

Otra buena herramienta que además es gratuita es Siteliner, te permite encontrar páginas con contenido duplicado o porcentaje de similaridad muy alto en tu dominio, además de enlaces rotos y otras cuestiones que afecten a contenido de tu web, puedes solucionarlo con los datos que te muestran online o descargar los informes (en .pdf, .csv…) y hacerlo tranquilamente e incluso descargar un archivo .xml (sitemap) para subir a GSC.

Una vez tengas el sitio preparado con contenido de calidad, resueltas las duplicidades internas (si existían), etcétera… llegará la hora de pedir una reconsideración a Google, si fue una penalización manual puedes avisar a Google para que vuelva a analizar tu sitio y levante esa penalización si el problema que la generó está resuelto.

 

☑ Penguin

Desde los inicios Google ha estado en contra de la generación de backlinks artificiales a nuestros sitios web, aunque siempre ha habido una relación amor / odio, es decir, estoy en contra pero doy a entender a los webmasters que los enlaces dan autoridad y claro, nosotros como webmasters queremos autoridad para nuestros sitios.

Antes de Peguin tenían más difícil controlar esto de los enlaces, casi cualquier enlace podía aportar valor, por aquel entonces los directorios web estaban a la orden del día y herramientas que te permitían enviar tu web a 500 directorios de golpe eran muy usadas, granjas de enlaces por todos lados y toda una serie de «barbaridades» que hoy nos pondrían los pelos de punta pero que entonces funcionaban.

Esta actualización persigue precisamente a aquellos sitios cuyo perfil de enlaces haya sido manipulado para obtener ventajas en el posicionamiento, pero sobretodo a aquellos enlaces de mala calidad, no tanto la compra de enlaces que bien planeada puede potenciar mucho nuestro crecimiento sino la creación de miles de enlaces de muy baja calidad.

Si has tenido un crecimiento repentino de enlaces, has abusado de anchor text de keyword, tienes gran cantidad de porcentaje de enlaces apuntando a la home o en general son enlaces de baja calidad… estás en el punto de mira de Penguin.

Pero no olvides que existen penalizaciones algorítmicasmanuales, las primeras son las provocadas cuando tu web entra dentro del rango que está tratando de limpiar la actualización del algoritmo, son más difíciles de detectar, las segundas en cambio son provocadas por acciones de una persona del equipo de Spam de Google y pueden recibir reportes de webs a través del formulario de Spam report de GSC, osea que una tercera persona puede denunciar que tu web no cumple las reglas.

Aunque la actualización de algoritmo no logre tumbar tu web, si estás haciendo las cosas mal, no dejas de estar en peligro ante las revisiones manuales, de éstas te enterarás rápido porque te llegará un mensaje informándote de la penalización en tu panel de Google Search Console.

Se centra en:  enlaces 

Año de aparición:  2012 

Con la última actualización de Penguin de la que se tiene constancia, Penguin 4.0 (2016) Google pone su foco en aquellos enlaces que no son de nuestra temática para evitar el traspaso de autoridad a nuestro sitios, es decir, como hemos hablando antes en el blog, si tienes una web de piscinas no tiene mucho sentido que te coloquen un enlace desde una web de una funeraria, por mucha autoridad que tenga.

Con un análisis semántico Penguin trata de evitar el traspaso de autoridad de los backlinks de sitios con temática diferente, esto además de ser coherente mejora la experiencia de usuario y la navegabilidad de los sitios.

✅ Resolver penalización por Penguin

Herramientas como Semrush o aHrefs nos pueden ser muy útiles a la hora de seguir una estrategia limpia de linkbuilding, controlando los anchor text usados, las páginas enlazadas, qué autoridad tienen los dominios que nos enlazan, etc.

Pero si tienes un problema serio con Penguin puedes recurrir a herramientas especializadas (algo más caras) en detectar enlaces tóxicos como LinkDetox con la que podrás conocer de forma más exacta qué enlaces te están realmente perjudicando en tu posicionamiento.

Una vez tengas detectados los enlaces que te están perjudicando la mejor forma de mandar señales positivas a Google de que «queremos ir por el camino correcto» es en este caso enviando un archivo disavow a través de Google Search Console, en el que añadimos todos aquellos enlaces que queremos que Google deje de tener en consideración para nuestro ranking.

⚠ OJO! Antes de enviar un archivo disavow, asegúrate bien de que envías los enlaces correctos, y siempre trata de eliminarlos de forma manual de los sitios webs (si es que los creaste tú) antes de utilizar el disavow.

 

☑ Hummingbird

El hummingbird o colibrí (en español) se centra en mejorar el entendimiento semántico y knowledge graph de los contenidos que procesa Google, al igual que RankBrain del que hablaremos a continuación, no es una actualización del algoritmo «al uso» en este caso es un algoritmo completo que no viene a penalizar webs sino a ayudar a entender mucho mejor.

* El uso de la imagen de un colibrí da a entender el motivo del desarrollo de este algoritmo, conseguir de forma rápida y precisa la información que busca el usuario (son unos genios inventando símiles estos de Google, eh!)

No se centra en el ranking de las webs sino en entender cómo buscan los usuarios, así los SEOs estamos un poco a salvo porque no nos penaliza directamente, pero nos sirve para entender cómo funciona el buscador y sobre todo que tenemos que mejorar cómo Google entiende nuestro contenido porque en base a eso ofrecerá la respuesta a los usuarios.

Una de las mejores formas de hacer entender a Google de qué tipo de contenido estamos hablando en nuestra web es con el uso de microdatos (Schema.org) que nos permite hacer una marcación interna para que Google sepa si estamos hablando de una receta, un evento, un negocio físico, una persona, una marca…

Se centra en:  experiencia de usuario 

Año de aparición:  2013 

Lo que buscaba Google con este algoritmo es ofrecer resultados más rápidos y precisos a consultas complejas, es decir, entender la consulta de búsqueda de forma completa y no como palabras aisladas, de esta forma puede ofrecer resultados más exactos y acertados a consultas más elaboradas o con lenguaje natural.

✅ Resolver penalización por Hummingbird

Realmente Hummingbird no penaliza a los sitios web, ya que como hemos visto no afecta a los rankings, sino en mejorar el entendimiento de Google de las consultas de búsqueda de los usuarios.

 

☑ Pigeon

Una actualización de la que no se habló mucho pero que tiene mucha implicación en el posicionamiento local, es decir, de negocios físicos, si es tu caso entérate bien de cómo funciona la actualización de pigeon (paloma en español) ya que es la que puso orden no sólo en los local packs de las SERPs sino en los resultados de Google Maps.

De hecho se desarrolló porque uno de los directorios más grandes de internet Yelp, se quejaba de que los resultados de Google Maps aparecían por delante de sus resultados aún cuando contenían la keyword «yelp».

Las búsquedas locales han tomado especial importancia estos últimos años, ya no servía el algoritmo general, ya que si alguien realiza una búsqueda local espera resultados localizados y era necesario desarrollar un algoritmo propio que se encargara de esta «nueva» forma de buscar de los usuarios.

Pero se planteaba un nuevo reto, ¿cómo posicionar los resultados locales? Es decir, qué ranking había que aplicar a aquellos resultados que iban a pelear por aparecer en la primera posición en búsquedas locales, que hasta ahora se pueden resolver con un local pack en la SERP.

Algunos de los factores que debes empezar a trabajar ahora si quieres posicionar de forma local tu negocio son los siguientes:

  • Ficha optimizada en Google My Business
  • Enlaces en directorios especializados (Yelp, TripAdvisor, Páginas Amarillas, etc…)
  • Imágenes geolocalizadas
  • Contenido original
  • Opiniones de usuarios

Se centra en:  búsquedas locales 

Año de aparición:  2014 

✅ Resolver penalización por Pigeon

El algoritmo de Pigeon no penaliza webs, su función es ofrecer una experiencia más satisfactoria a aquellos usuarios que realizan una búsqueda local, es decir, si yo busco «dónde comer» espero encontrar una serie de resultados según mi ubicación actual (Restaurantes cercanos) no un artículo que me hable de la historia del buen comer en Segovia por ejemplo.

 

 

☑ RankBrain

Con esta mejora del proceso Google puso a trabajar la inteligencia artificial (AI) como parte del algoritmo de Google, con RankBrain se pretende dar una única respuesta válida a aquellos usuarios que usaban un patrón de búsqueda similar, o búsquedas nuevas, pero el cambio no es tanto el objetivo, sino la forma de conseguirlo.

No es una actualización como las demás, sino más bien una mejora de proceso, pero dado que es la tercera señal más importante de posicionamiento en las SERPs debes conocer un poco más a fondo su funcionamiento y cómo puede afectar.

Ya no hay un código escrito para procesar los resultados sino es que la propia máquina la que mediante aprendizaje debe aprender a resolver estas situaciones de nuevas consultas o búsquedas.

Y ocurre mucho más de lo que imaginas, más del 10% del total de búsquedas que se realizan en Google son palabras, términos o frases nunca usadas hasta ahora, así un sistema autónomo que aprenda a interpretar estas nuevas consultas y resolver su significado antes de ofrecer unos resultados tiene mucho sentido.

Se centra en:  unificar búsquedas 

Año de aparición:  2015 

Se puede entender como parte de Hummingbird ya que hace uso del análisis semántico para poder asociar a entidades ya conocidas palabras o frases semánticamente desconocidas.

La ventaja principal que nos permite a los usuarios es dejar de realizar búsquedas como robots, pudiendo usar un lenguaje mucho más natural ya que Google puede procesarlo y entenderlo.

✅ Resolver penalización por RankBrain

Realmente RankBrain no es una actualización del algoritmo como las anteriores, no persigue penalizar sitios web, «tan sólo» persigue unificar búsquedas entendiendo las querys de los usuarios para poder dar un mismo resultado a aquellos que busquen lo mismo pero con distintas palabras.

☑ Fred

¿Has oído hablar de los algoritmos penalizadores? Pues Fred es un algoritmo que ha venido a «cargarse» toda aquella web que abusa de la publicidad, a decir verdad, para mi gusto mucho ha tardado, pues hay webs sobretodo en medios que la navegación por ella es una auténtica tortura para los usuarios.

Webs con anuncios de popups invasivos, webs que colocan banners de AdSense en sitios cercanos al texto para confundir con el click, las típicas flechitas que se colocaban en el lateral de los anuncios verticales de texto de Adsense para destacarlos, etc… En definitiva un uso de la publicidad abusivo y que ofrece una pobre experiencia de usuario a los visitantes de la web.

Se centra en:  publicidad abusiva 

Año de aparición:  2017 

✅ Resolver penalización por Fred

Simplemente analiza si tu web está usando cualquier tipo de publicidad abusiva / engañosa y resuélvelo, a veces puede que no controles tú la publicidad que se muestra si lo haces a través de alguna plataforma que sirve anuncios, si es así asegúrate que se pueden restringir dichos anuncios desde la plataforma.

 

☑ Medical Update

Una de las últimas actualizaciones de contenido que hemos vivido es la llamada Medical Update, llamada así porque en principio se pensó que sólo afectaba a webs de temática médica y salud, aunque luego se compró que afectó en parte a otras temáticas.

Si has oído hablar del término EAT (Expertise, Authoritativeness and Trustworthiness), debes saber que ha sido clave en esta actualización y el porqué lo vas a deducir muy pronto, su traducción al español es experiencia, autoridad y fiabilidad, y tiene mucho sentido que Google persiga y más en una temática tan delicada como la médica todos aquellos contenidos que no vengan respaldado por un experto.

También existe una actualización anterior denominada Payday Loan que realiza este mismo «trabajo de limpieza» con resultados YMYL (Your Money Your Life), es decir, aquellas webs que pueden afectar a tu vida o tu salud, temática de préstamos, médicos (como éste), inversiones, etc.

El Medical Update buscaba limpiar de basura todos aquellos miles de resultados de información falsa acerca de temas médicos que se colaban en las primeras posiciones, dando relevancia a portales expertos con una serie de profesionales y expertos en temas médicos que se aseguraban de ofrecer sólo contenido contrastado y de calidad.

Con esto se quiere evitar que si te encuentras una uña rota y buscas en Google «motivos uña rota», encuentres un artículo que te hable de que un «primo suyo» se murió porque se le gangrenó una uña… o vete a saber qué.

Se centra en:  autoridad del contenido 

Año de aparición:  2018 

✅ Resolver penalización por Medical Update

Este es un tema difícil de tratar, porque no tiene un camino único para solucionar, muchos expertos hablan acerca de la necesidad de crear páginas de perfiles en la web, de añadir enlaces que referencian a expertos como medida de dar más autoridad al contenido, etc.

 

☑ Florida 2

Una de los últimas y más importantes actualizaciones del algoritmo de Google llegó hace menos de un año y en palabras de John Mueller este cambio afecta de forma global a todas las webs y países en los que esté presente el buscador de Google, es decir, no a determinados sectores como podría pasar con el «Medical Update» sino a todas las webs.

Realmente lo que sí se sabe es que trata de mejorar el impacto que los resultados tienen en las intenciones de búsqueda de los usuarios, es decir, mostrar un resultado que cumpla con la intención del usuario a la hora de ejecutar la búsqueda.

Se centra en:  global 

Año de aparición:  2019 

✅ Resolver penalización por Florida 2

Al ser un algoritmo que afecta de forma global a todas las búsquedas es difícil conocer métodos para resolver una penalización de este tipo, una vez más Google nos anima a «resolver» penalizaciones de la forma más segura, creando contenido de calidad y fresco y trabajando para ofrecer una web accesible y rápida a nuestros visitantes.

 

Detectar cambios en el algoritmo

La mejor forma de mantenerse al día de los cambios en los algoritmos de Google es Twitter, sí, eso y seguir a varios expertos SEO, una vez se detecten cambios en el algoritmo tardará pocos minutos entre que se lleve a cabo y alguien publique un tuit tipo «Me ha bajado el tráfico en una web de salud, ¿a alguien más le ha ocurrido?» y a partir de ahí se va tirando del hilo y encontrando información.

Eso, o suscribirte a herramientas como Semrush Sensor que «monitorizan» las SERPs y las actividades que se desarrollan en ella, de forma que te pueden avisar si detectan un movimiento de cambios de posiciones significativos.

¿Qué hacer cuando cambie un algoritmo?

Nada. Si estás haciendo las cosas bien no tienes que tocar nada, Google actualiza sus algoritmos para mejorar la respuesta a los usuarios, para mejorar su servicio y la experiencia de los usuarios en su web, por lo que si estás haciendo las cosas bien en tu página no te perjudica en absoluto.

Ahora bien, si estás abusando de la creación de enlaces, si estás añadiendo contenido de dudosa calidad o técnicas similares, entonces sí, cada actualización de Google te pillará «con el culo apretao», lo que no quiere decir, que si no estás trabajando bien estas técnicas de blackhat puedas librarte de la quema.

En cualquier caso lo primero que debemos mantener ante la aparición de una nueva actualización es la calma, emplear los primeros días en modificar cosas puede hacernos perder el tiempo y no conseguir resultados en absoluto, más si crees que no debería haberte afectado, porque no es raro que Google publique algunos roll backs pasados unos días, esto es, deshacer los cambios del update si afectó a webs que no debía.

 

Penalizaciones por algoritmo de Google

Resolver penalizaciones algorítmicas es complicado en el sentido de que para saber si te ha afectado o no, hay que tener cierta experiencia, para no equivocar la bajada de tráfico con algo estacional, una caída de posicionamiento o similar.

Herramientas para revisar penalizaciones

Hemos visto de forma precisa herramientas que nos pueden ayudar a salir de una penalización para cada actualización del algoritmo que analizamos en más profundidad, pero a veces lo difícil es saber qué actualización del algoritmo es la que te ha penalizado, por eso herramientas como esta de Barracuda, son muy útiles ya que plasman en una gráfica el tráfico de nuestra web superponiendo las fechas claves en actualizaciones del algoritmo de Google.

Así podemos ver de forma clara si una bajada de tráfico tiene como origen un cambio de tendencia, es estacional simplemente o por el contrario nos han penalizado.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ir arriba