Actualmente el 95% de la población Española utiliza Google como buscador principal de información. Los resultados que se muestran en las páginas de resultados (SERP) en Google al realizar una búsqueda no son aleatorios.
Qué es y cómo funciona el algoritmo de Google
La posición de cada resultado en las SERP tiene un criterio establecido por Google, en base a unas pautas que determinan la calidad del contenido y relevancia de cada página web. Esto se da gracias a un algoritmo, es decir, una serie de operaciones sistemáticas de cálculo que van relacionadas a factores claves por la cual va a establecer un orden y posicionará en forma de ranking todas las webs que estés posicionando por esas palabras. Estos factores pueden ser; el contenido, la relevancia, velocidad de carga, la autoridad en internet, etc.
El algoritmo de Google está compuesto por varios algoritmos con funciones establecidas para cada uno, esto hace que cada uno pueda ser actualizado individualmente, haciéndonos estar constantemente revisando sus pautas por si alguna de estas actualizaciones requiere que realicemos cambios en la web.
Google tiene unas arañas (boots) que se encargan de ir analizando las webs y corroborando las pautas establecidas para ver si están optimizadas, y así ordenarlas en las SERP.
Función principal del algoritmo
La razón y objetivo principal es ayudar a las personas a encontrar la información de calidad, es decir filtrada, de una forma ordenada y todo lo precisa posible dentro de los millones de sitios que existen.
En el 1999 se patentó el Page Rank, que gracias a sus criterios ha ido determinando la relevancia de cada site, estableciendo así un orden y criterio a la hora de ofrecer la información. Actualmente podríamos hablar de inteligencia artificial de lo más avanzada, ya que hay que reconocer que parte de su mérito es nuestro, ya que estamos “educando” con pequeñas herramientas como el algoritmo reCAPTCHA.
Qué son las actualizaciones del algoritmo
Son los cambios y mejoras que se van realizando para mejorar los criterios de clasificación para determinar la relevancia de un sitio. Así tratan de evitar las malas prácticas por parte de los profesionales y asegurar así la calidad de la información. Estas malas prácticas se llama Black Hat SEO, técnicas SEO que vulneran directamente las políticas y condiciones de uso del propio buscador. Vemos ejemplos que de prácticas que han supuesto actualizaciones de los algoritmos:
- Keyword Stuffing: Esta práctica suponía saturar todo el contenido de la web con las palabras clave que querían posicionar. Esto no suponía que fuera contenido de calidad, cosa que provocó que el algoritmo Panda se actualizara para evitar dicha práctica y hacer más uso del White Hat SEO (las buenas prácticas del SEO).
- Link building: Es crear una conexión de enlaces internos y externos que apunten hacia nuestra web, o nosotros hacía otra que tuviera más reconocimiento y autoridad. Antes de la actualización de Penguin, los propietarios de sites podían comprar dichos enlaces en otras webs para engañar al algoritmo.
Estos son solo unos ejemplos a destacar de las actualizaciones y sus motivos, pero la verdad es que durante un solo año, pueden haber más de 300 actualizaciones por tal de garantizar la calidad de la clasificación y de la información ofrecida.
Estar al día de todas estas actualizaciones y optimizar las webs en función de las mismas implica una disciplina y constancia que puede llevarte mucho tiempo, ya que estas modificaciones no todas afectan directamente al contenido. Por ello, es primordial tener a un buen experto SEO que pueda estar al día de los cambios y pueda reaccionar a tiempo, para garantizar la calidad de tu web.
Leave a Reply