Le nouvel algorithme Fred, de Google, produit l’effet d’une bombe.

Google a pour habitude, depuis des années maintenant, de lancer de nouveaux algorithmes permettant de classer de manière toujours plus pertinente, les milliards de pages web stockées dans ses data centers. Certains de ces algorithmes ont pour mission de pénaliser en cas d’abus SEO (Techniques Black Hat), ou encore de favoriser certaines bonnes pratiques, celles-ci étant souvent et globalement liées au bon entretien du site (attention, je dis ça de manière extrêmement large !). Google attribuait systématiquement à ces algorithmes des noms d’animaux… c’est terminé ! « Fred » a été lancé en Mai, et apparemment représente un signal fort de la part d’Alphabet (nom de la société gestionnaire de Google). Ce signal a été envoyé en direction (selon nos dernières sources) des netlinkeurs abusifs et autres spamdexeurs utilisant des techniques proches du back hat en termes de politique de liens entrants et sortants. Le renouveau est donc en cours, et selon les dires des porte-paroles du célèbre moteur de recherche, une nouvelle génération de filtres, mises à jour, et d’algorithmes de classement est en train d’être déployée sur le plan mondial. Nous vivons donc une révolution cachée, qui a pourtant déjà fait de très nombreuses victimes, parmi lesquelles les sites représentatifs de grands groupes évoluant partout sur le globe.

Fred, un nouvel ami Googlien ?

A notre sens, depuis Mai, d’énormes mouvements dans les classements des pages ont été mesurés, et impactent de manière extrêmement forte les positions des pages de très nombreux sites internet, en particulier de ceux dont la politique de netlinking avait été considérée jusqu’à aujourd’hui comme étant “borderline”. L’indicateur Algoroo le démontre de manière très nette (cet utilitaire, pour rappel, permet d’obtenir en un clin d’œil, un indicateur global représentant les mouvements dans les SERP). Cette fois, plus de cadeaux ; une sorte de nettoyage a été lancé, et il est dédié à la politique de netlink globale (liens entrants, sortants, qualité des ancres nommées, sites cibles etc…).

Notre vision (White Hat) est clairement établie : l’arrivée de cet algorithme est plutôt bonne nouvelle, et permettra d’épurer le web, et en particulier, de pénaliser les sites bénéficiant de techniques de netlinking irrégulières, freinant la progression des sites normalement gérés. Mais il n’est pas rare de trouver quantité de sites pénalisés, depuis la mise en ligne de ce nouvel algorithme, alors qu’ils ne bénéficient d’aucun traitements SEO en particulier. Cela indique qu’il y aura toujours des dommages collatéraux lors de la mise en œuvre de nouveaux filtres chez Google.

Rappel de quelques bonnes pratiques en netlinking.

Une règle établie depuis des lustres, sur le plan netlinking, et d’éviter au mieux les liens sortants. Si vos pages intègrent des liens qui pointent vers des pages externes à votre nom de domaine, sachez que votre site, dans son intégralité, perd petit à petit de la « puissance », du « jus SEO » tel qu’on aime à le définir dans la sphère SEO (voir également notre veille SEO). Attention tout de même, des liens sortants ciblant des sites de référence, ou d’autorité (sites gouvernementaux, légaux, sites de référence peu importe le domaine), sont eux, plutôt appréciés, car ils sont souvent considérés par les moteurs comme étant des citations de sources lu textes de référence, par défaut.

Les liens entrants brisés sont également légion, et sont néfastes à la progression en SEO. Ils sont à contrôler et à corriger au plus vite, au travers de redirections de type 301 ou autres solutions SEO Friendly. Ils sont particulièrement pénalisants, impactent les nouvelles visites entrantes, et sont pourtant si souvent ignorés, et donc, non corrigés par les webmestres et référenceurs. Ils indiquent une mauvaise maîtrise et gestion de la politique globale de netlinking. Il n’est pas si rare de découvrir après un audit SEO, la raison pour laquelle le trafic entrant d’un site baisse de manière considérable, souvent après refonte ; le structure même des URL du site ayant été modifiée, et aucune redirection n’ayant été faite, allant des anciennes URL vers les nouvelles, le site est doublement pénalisé : directement, par le taux de visites entrantes fortement en baisse, et d’autre part, par les algorithmes des moteurs de recherche qui considèrent le site comme étant mal managé. Pour détecter les liens entrants défectueux, n’hésitez pas à consulter nos articles dédiés « OVH & référencement », il vous suffit en réalité de consulter les statistiques Urchin de votre serveur et de localiser les netlinks externes qui génèrent des erreurs 404 (éléments inexistants).

Fred, un ennemi SEO qui n’en est finalement pas un.

Pour conclure, nous dirions que Fred a été conçu, mis en ligne et déployé afin de permettre à Google de nettoyer son index (et donc ses résultats), des sites et pages web bénéficiant jusqu’à aujourd’hui de liens irréguliers, mettant du coup en avant les sites peu qualitatifs.

Résumé
Le nouvel algorithme Fred, de Google, produit l’effet d’une bombe.
Titre de l'article
Le nouvel algorithme Fred, de Google, produit l’effet d’une bombe.
Déscription
Un nouvel algorithme a fait son apparition.... et il ne porte pas, comme d'habitude, le nom d'un animal noir et blanc. Que se passe-t-il chez Google ?
Auteur
Editeur
ANACONDA SEO SAS
Logo


Vous appréciez ? Partagez !
Facebookgoogle_pluspinterestlinkedinmail

Articles récents

Publier un commentaire