En los últimos meses, Google ha continuado actualizando sus algoritmos de búsqueda, siendo esta la tercera actualización del algoritmo central en seis meses. La actualización del algoritmo central de marzo, junto con una actualización de spam que se ejecuta simultáneamente, está teniendo lugar poco después de las actualizaciones del algoritmo central de octubre y noviembre. Entonces, ¿qué pretende abordar la actualización del algoritmo central de marzo, y qué busca lograr la actualización adicional de spam?
¿Cuál es la magnitud de la actualización del algoritmo central de marzo?
La actualización del algoritmo central de marzo está siendo considerada como una de las mayores perturbaciones en las páginas de resultados de los motores de búsqueda (SERPs) en años, “al mismo nivel de impacto” que la actualización Florida en 2003, la actualización Panda en 2011 y la actualización Penguin en 2012; según Roger Montti de Search Engine Journal.
Cada una de las tres actualizaciones importantes anteriores ha tenido un enorme impacto en las SERPs. Florida fue la primera actualización importante de su tipo, y aunque Google nunca ha confirmado específicamente qué objetivo tenía, la creencia común es que era un algoritmo de análisis de enlaces. El impacto resultante en las SERPs fue significativo, y muchos sitios fueron penalizados con pérdida de posiciones, incluso algunos sitios inocentes no considerados spam fueron etiquetados como “falsos positivos”.
Panda buscaba asignar una puntuación de calidad de contenido a cada página y degradaba los sitios con contenido de baja calidad, spam o escaso. Penguin, por otro lado, se centró en los perfiles de enlaces de retroceso, penalizando los sitios que tenían perfiles de enlaces poco naturales o de baja calidad, o sitios que parecían estar comprando enlaces de redes de construcción de enlaces.
¿Qué se ha incluido en la actualización del algoritmo central de marzo?
La actualización del algoritmo central de marzo se ha centrado en abordar el contenido spam y de baja calidad en los resultados de búsqueda, que hasta hace poco aún engañaban a veces a los algoritmos y se clasificaban en posiciones altas en las páginas de resultados. Google está abordando tres áreas: abuso de contenido a escala, abuso de reputación del sitio y abuso de dominio caducado.
El abuso de contenido a escala, en palabras de Google, es para evitar que las personas “produzcan contenido a gran escala para mejorar la clasificación en las búsquedas” ya sea mediante “automatización, humanos o una combinación” de ambos. Aunque el contenido automatizado de baja calidad o no original ha estado durante mucho tiempo en contra de las políticas de Google, Google lo está reforzando a la luz de los continuos desarrollos en el mundo de la IA. Esto significa que el contenido generado por IA debe utilizarse con precaución, y además no debe cargarse sin ningún tipo de proceso de edición humana.
El abuso de reputación del sitio se refiere a terceros que publican contenido de baja calidad en un sitio de alta reputación con el fin de aprovecharse del éxito de la reputación del sitio. El ejemplo que da Google es que “un tercero podría publicar revisiones de préstamos de día de pago en un sitio educativo confiable para obtener beneficios de clasificación”. La presencia de dicho contenido podría significar que todo el sitio sea penalizado como resultado, ya que Google considerará este contenido como spam a partir de mayo.
El tercero es el abuso de dominio caducado, donde se compran dominios caducados con la intención de utilizarlos para albergar contenido de baja calidad y no original, aprovechando la reputación y el perfil de enlaces de retroceso que el antiguo sitio solía tener. Google ahora identificará la práctica de comprar y reutilizar dominios con contenido de baja calidad como spam.
¿Cuáles son los resultados?
Los impactos de la actualización del algoritmo central de marzo ya se están empezando a sentir en varios sitios. Un gran impacto es que algunos sitios de spam están siendo completamente des-indexados, lo que significa que no se pueden encontrar en las SERPs en absoluto, sin importar lo que se busque.
Google también ha comenzado a añadir penalizaciones manuales a los sitios que considera que no cumplen con sus políticas de spam, lo que esencialmente significa que contienen contenido spam o de baja calidad. En lugar de que un algoritmo determine esto, las acciones manuales son, de hecho, manuales, donde un revisor humano ha determinado que el sitio infringe las políticas de spam. Estas acciones manuales, dependiendo de la gravedad del incumplimiento, pueden sufrir una caída en las clasificaciones o podrían ser eliminadas por completo de los resultados de búsqueda.
Y con los sitios afectados, comienza a surgir un patrón. La mayoría de los sitios afectados se pueden agrupar en dos categorías: sitios con contenido exclusivamente generado por IA y sitios de construcción de enlaces. La producción a escala y la carga masiva de contenido de IA pueden atraer atención que te hará caer en las SERPs, mientras que la equidad de enlaces aportada por los sitios de construcción de enlaces se reducirá considerablemente.
La conclusión clave de esto es centrarse en escribir contenido único e informativo de alta calidad que esté escrito por personas para personas y siga los principios E-E-A-T, y escribirlo de tal manera que las personas enlacen naturalmente a su contenido y a su sitio.
La actualización de spam de marzo
Google anunció que junto con la actualización principal de marzo se ha producido la actualización de spam. La actualización principal en sí abarca el spam, y la actualización de spam parece estar estrechamente vinculada a esta. Según Google, ellos “ocasionalmente realizan mejoras notables” en cómo operan sus “sistemas automatizados para detectar spam en las búsquedas”.
Si bien los sistemas automatizados de Google para detectar spam en las búsquedas están en constante funcionamiento, ocasionalmente realizamos mejoras notables en su funcionamiento. Cuando lo hacemos, nos referimos a esto como una actualización de spam y compartimos cuándo ocurren en nuestra lista de actualizaciones de clasificación de Google Search. Esto probablemente hace referencia a las mejoras realizadas en SpamBrain, su sistema de prevención de spam basado en inteligencia artificial.
Supere las actualizaciones del algoritmo con SEO de DNRG
La manera de combatir las actualizaciones del algoritmo es proteger su sitio web contra futuras penalizaciones o cambios negativos en la clasificación. Esto se logra mejor a través de SEO, que implementa las mejores prácticas que Google busca. Ejemplos de esto incluyen: redactar contenido de alta calidad que entrelace perfectamente palabras clave con información útil, acelerar la velocidad de carga de las páginas para mejorar la experiencia del usuario y construir enlaces naturales a través de alcance.
En DNRG siempre estamos al tanto de las últimas actualizaciones del algoritmo, evitando que las cuentas de nuestros clientes sean objeto de penalización por parte de Google, mientras buscamos beneficiarnos de mejores posiciones en el ranking y más tráfico siguiendo sus principios. Para ver cómo se desempeña su sitio web, puede recibir una auditoría de SEO de DNRG, y puede contactar a uno de nuestros expertos para comenzar su trayectoria con SEO.



