Skip to main content

Google publie les mises à jour de l'algorithme de base et des spams, qui sont immédiatement évitées

3 avril 2024 /
Tous les secteurs / Mises à jour des algorithmes 

Le mois dernier, Google a publié sa première mise à jour à grande échelle de l’algorithme de base de 2024. Il s’agit de mises à jour de routine nécessaires pour assurer la santé générale des algorithmes de classement, un ensemble de modifications mineures qui ne valent pas la peine d’être notées individuellement. Google a toutefois mis l’accent sur sa mise à jour supplémentaire du mois de mars concernant le spam, déclarant que le dernier correctif devrait permettre de réduire de 40 % le contenu du spam dans le moteur de recherche. Cette mise à jour fait suite à l’adoption massive de l’IA, un outil qui a considérablement augmenté le volume de pages web spammées. Google a tenté de s’opposer à cette surabondance de contenu de mauvaise qualité et, ce faisant, a prouvé que les mauvais acteurs étaient plus que prêts à contrer toute tentative de nettoyage de la part de Google.

Les sites de spam générés par l’IA ont vaincu la mise à jour de Google de mars 2024 et continuent d’écraser le haut des résultats de recherche. Google a adopté une approche à plusieurs volets pour détecter les spams, mais chacun d’entre eux a été rapidement écarté par les spammeurs. La première méthode utilisée par Google consistait à détecter ce qu’il considérait comme du « contenu à échelle », c’est-à-dire tout contenu qui produisait du volume dans le seul but de se classer plutôt que d’accroître son utilité pour les utilisateurs. La deuxième cible était le « référencement parasite », c’est-à-dire la pratique consistant pour les sites web de spam à créer des liens vers des domaines tiers faisant autorité, en les inondant de fausses critiques positives ou d’autres contenus qui renvoient ensuite vers le site web de spam. La dernière grande méthode de lutte contre le spam a été la répression de l' »abus de domaines expirés ». Cette pratique consiste à acheter des noms de domaine expirés et à les réaffecter dans le but d’améliorer le classement dans les moteurs de recherche d’un contenu de faible qualité. Tous ces objectifs semblaient de nature à réduire le nombre de spams sur Google, mais les mauvais acteurs ont démontré leur capacité à contourner ces nouvelles pratiques en moins d’un mois.

Les domaines expirés constituaient autrefois un problème majeur, mais les spammeurs sont beaucoup plus enclins à utiliser le  » squattage de domaine « , c’est-à-dire la pratique consistant à créer un domaine et à ne rien en faire d’autre que de le vendre ou de l’utiliser à d’autres fins malveillantes en cas de besoin. La raison pour laquelle cette pratique est aujourd’hui plus courante est que l’IA peut générer des sous-domaines bien plus rapidement que n’importe quel spammeur ne pourrait le faire pour le contenu d’un domaine de premier niveau. On pourrait penser que la nouvelle politique de Google en matière de « contenu élargi » permettrait de contrer ce phénomène, mais cette politique ne permet pas de détecter la différence entre les bons acteurs qui ont simplement élargi leur contenu par rapport à leur niche principale habituelle et les mauvais acteurs qui ont élargi leurs spams. La politique étant trop indulgente, les spammeurs étendent leurs sous-domaines plutôt que d’abuser des domaines de premier niveau expirés. Les premiers sous-domaines de spam ont commencé à apparaître le 30 novembre 2022, le jour même du lancement public de ChatGPT. Ces sites web étaient à moitié terminés et dormaient jusqu’à la nouvelle mise à jour anti-spam de Google en mars. Comme si les spammeurs étaient toujours prêts à déclencher leur piège, ils ont inondé le moteur de recherche dès que les domaines sont devenus utiles.

Le facteur des sous-domaines ne contourne toujours pas le problème du « référencement parasite » que Google avait prévu de résoudre, mais en raison de la capacité de l’IA à générer du spam si rapidement, le parasitisme n’avait pas lieu d’être. Google accorde naturellement aux nouveaux sites web un délai de grâce de deux jours pour qu’ils soient mieux classés que la normale, ce qui permet aux petites pages d’être vues par de nouveaux utilisateurs et d’empêcher les pages de résultats des moteurs de recherche de stagner (ce qui, à son tour, fait des domaines expirés un problème encore plus important). Ce laps de temps de 48 heures est tout ce dont les spammeurs ont besoin pour se classer, voler leurs clients potentiels et ensuite jeter les pages web détectées comme spam. Les spams générés par l’IA n’ont pas besoin d’un véritable référencement pour classer leurs pages pendant plusieurs jours, ils peuvent générer un contenu de faible qualité si rapidement qu’ils « brûlent » leurs sites web.

Cela signifie que Google doit reconsidérer la manière dont il s’attaque au problème du spam. Il a fait quelques progrès dans les offres de Maps et améliore constamment les évaluations sur ses plateformes, mais le spam généré par l’IA trouve de manière préventive des moyens de contourner les mises à jour. Google doit également trouver des méthodes pour unifier ses mises à jour anti-spam lorsqu’il utilise différentes versions de son algorithme dans différentes zones géographiques. L’UE, par exemple, affiche des résultats de recherche différents en raison de la récente mise en conformité avec la loi sur les marchés numériques. Cette mise en conformité explique-t-elle pourquoi un bogue dans les régions européennes fait maintenant en sorte que les liens de TripAdvisor, Hotels.com, Bookings.com et d’autres sites web légitimes cliquent sur des sites web spammés ? Il est peu probable que les ingénieurs de Google connaissent la réponse à cette question. Dans les mois à venir, nous verrons certainement les nombreuses nouvelles tentatives de Google pour lutter contre le spam.

Mais qu’est-ce que tout cela signifie pour le webmaster et le propriétaire d’une entreprise en ligne ? Chaque fois que Google met à jour ses algorithmes de classement, cela signifie que votre site peut être mieux ou moins bien classé dans les résultats de recherche. Le fait de savoir quand Google effectue ces mises à jour nous donne un point de repère pour comprendre si c’est quelque chose que vous avez modifié sur votre site web ou si c’est quelque chose que Google a modifié dans son algorithme de classement. La meilleure réponse à ces mises à jour est la même que vous devriez faire, qu’il y ait ou non une mise à jour de l’algorithme : suivre les meilleures pratiques de référencement et maintenir un classement organique qui est moins sujet à la volatilité de l’algorithme. En ce qui concerne le spam, il y aura également des hauts et des bas. Signalez les spams qui surpassent systématiquement votre activité légitime, mais s’il s’agit de pages web spammées de courte durée, laissez-les à Google pour l’instant.