Skip to main content

Google lanza actualizaciones en el algoritmo central y de spam, pero la actualización de esta última puede ser fácilmente eludida

3 de Abril, 2024 /
Todos los sectores / Actualizaciones de algoritmos 

El mes pasado, Google publicó su primera actualización a gran escala del algoritmo central de 2024. Se trata de actualizaciones rutinarias necesarias para garantizar el correcto funcionamiento de los algoritmos de clasificación, una colección de pequeños ajustes poco relevantes si se valoran de forma individual. Sin embargo, durante este mismo mes, Google también llevó a cabo una actualización adicional, en este caso sobre el spam. Este último parche debería reducir en un 40% el contenido de spam en todo el motor de búsqueda. Esta actualización se produjo en respuesta a la adopción masiva de la IA, una herramienta que aumentó en gran medida el volumen el spam. Google trata de contrarrestar este exceso de contenido de baja calidad y, al hacerlo, demuestra que estos actores estaban ya preparados para contrarrestar cualquier intento de limpieza por parte de Google.

En definitiva, las webs spam generadas por IA vencieron a la actualización antispam lanzada por Google, y siguen apareciendo en los primeros puestos de los resultados de búsqueda. Por su parte Google, adopto un enfoque múltiple para detectar el spam, pero cada uno de ellos fue rápidamente anulado por los spammers. El primer método que utilizó Google fue la detección de lo que denominó como “contenido escalado”, es decir, cualquier contenido creado exclusivamente para conseguir un buen posicionamiento en lugar de mejorar su utilidad para los usuarios. El segundo objetivo fue el “SEO parásito”, es decir, la práctica de los sitios web spam que enlazan a dominios de terceros con autoridad, inundándolos con críticas positivas falsas y otros contenidos que luego enlazan de nuevo al sitio web spam. Este último método de lucha contra el spam fue la represión del “abuso de dominios caducados”. Se trata de la práctica de comprar nombres de dominio caducados y reutilizados con la intención de mejorar la posición en búsquedas de contenidos de baja calidad. Todos estos objetivos parecían algo que reduciría la cantidad de spam en Google, pero los malos actores demostraron que su capacidad para eludir estas nuevas prácticas en menos de un mes.

Los dominios caducados solían ser un gran problema, pero los spammers son mucho más propensos a utilizar el «domain squatting», o lo que es lo mismo, la práctica de crear un dominio y no hacer nada con él más que venderlo o utilizarlo para un fin “malicioso” cuando sea necesario. La frecuencia actual de este fenómeno se debe a que la inteligencia artificial puede generar subdominios a un ritmo mucho más rápido de lo que cualquier spammer podría hacerlo para dominios principales. Se podría pensar que esto se contrarrestaría con la nueva política de “contenido escalado” de Google, pero esta política no detecta ninguan diferencia entre los buenos actores, que simplemente amplían su contenido de nicho principal y habitual, y los malos actores que intensifican su spam. Las normas son demasiado indulgentes, los spammers están escalando subdominios en lugar de abusar de dominios de primer lugar caducados. Los dominios de spam empezaron a aparecer el 30 de noviembre de 2022, el mismo día en el que ChatGPT se lanzó al público. Estos sitios web estaban a medio terminar, e inactivos, hasta la nueva actualización realizada por Google el pasado mes de marzo. Algo así como si los spammers siempre estuvieran preparados para lanzar su trampa, inundaron el buscador en el mismo momento en el que los dominios comenzaron a ser útiles.
No obtente, el factor de los subdominios sigue sin eludir el problema del «SEO parásito» que Google planeaba resolver. Debido a la capacidad de la IA para generar spam tan rápidamente, el parasitismo era irrelevante. Google concede de forma natural a los nuevos sitios web un periodo de gracia de dos días para que se posicionen mejor de lo normal, lo que permite que las páginas más pequeñas tengan la oportunidad de ser vistas por nuevos usuarios y evitar que las páginas de resultados del motor de búsqueda se estanquen (y, a su vez, que los dominios caducados se conviertan en un problema aún mayor). Este lapso de 48 horas es todo lo que necesitan los spammers para posicionarse, robar sus clientes potenciales y luego desechar las páginas web detectadas como spam. El spam generado por IA no necesita un SEO genuino con el objetivo de clasificar los sitios webs durante varios días, sino que puede generar contenido de baja calidad rápidamente para «adquirir y desechar» estos sitios web.

Lo que todo esto significa es que Google necesita reconsiderar cómo está abordando su problema de spam. Ha hecho algunos progresos en las ofertas de Maps y está mejorando constantemente las revisiones en sus plataformas, pero el spam generado por IA parece seguir encontrando formas de eludir las actualizaciones. Google también necesita encontrar métodos para unificar sus actualizaciones de spam cuando está ejecutando diferentes versiones de su algoritmo en diferentes zonas geográficas. En la UE, por ejemplo, muestra resultados de búsqueda diferentes debido al reciente cumplimiento de la Ley de Mercados Digitales. ¿Es este cumplimiento la razón por la que un error en las regiones europeas está haciendo que los enlaces de TripAdvisor, Hotels.com, Bookings.com y otros sitios web legítimos se dirijan a sitios web de spam? Es probable que, incluso los ingenieros de software de Google no tengan respuesta a esta pregunta y que en los próximos meses veremos nuevos intentos por parte de Google para combatir el spam.

Pero ¿qué significa todo esto para por ejemplo un webmaster o el propietario de un negocio online? Cada vez que Google actualiza sus algoritmos de clasificación de búsqueda, significa que un sitio web puede mejorar o empeorar su posicionamiento en los resultados. Saber cuándo Google realiza estas actualizaciones nos ofrece pistas para entender si el nuevo posicionamiento tiene que ver con un cambio que se realizó en la web o algo que Google cambió con su algoritmo de clasificación. La mejor respuesta a estas actualizaciones es lo mismo que se debería hacer tanto si hay una actualización del algoritmo como sino la hay. Es necesario seguir las mejores prácticas de SEO y mantener una clasificación orgánica lo menos propensa a la volatilidad del algoritmo. En lo que respecta al spam, también se producirán altibajos. Es recomendable denunciar el spam que esté legítimamente relacionado con el mismo tipo de negocio, pero en el caso de que se trate de páginas web spam de corta duración, será mejor que Google se encargue de ellas.