« Si un site fait l'objet d'une action manuelle, il ne s'affichera pas (en totalité ou en partie) dans les résultats de recherche Google. » (1)
La mise en garde est claire : si votre site internet est dans le collimateur de Google en ne respectant pas ses consignes, les fameuses « Google guidelines », il est voué à disparaître des résultats des pages de recherches (SERP).
Plus de 90 % de la population mondiale utilisant le moteur de recherche californien, il s’agit ni plus ni moins de la condamnation à mort du site… Ou presque.
Il est donc indispensable de connaître le fonctionnement de ces pénalités manuelles et de savoir comment réagir.
Le bon SEO et le mauvais SEO
Il est loin le temps où les webmasters pouvaient charger le contenu d’une page de mots-clés en pagaille ou multiplier allégrement les liens entrants pour accroître la « notoriété » d’un site sur les moteurs de recherche.
Devant la médiocrité de certaines SERP, Google a voulu changer la donne et privilégier pour les internautes les sites internet de qualité. Cette qualité est analysée par son fameux algorithme, et ses filtres, aux jolis noms d’animaux : Panda, Penguin, Colibri, etc.
Grâce à ses « robots d’indexation » ou crawlers, Google analyse l’ensemble du web et a changé durablement la donne, faisant des techniques de référencement naturel ou SEO (search engine optimization) un champ d’actions pour de nouveaux métiers et des start-ups spécialisées.
Sans rentrer dans le détail, Penguin surveille le nombre de liens et leurs qualités, Panda lui s’occupe du contenu des pages en surveillant le keyworld stuffing, la sur-optimisation des pages, le copier/coller ou duplicate content, etc.
Google a ainsi créé une nouvelle concurrence entre les sites web, de e-marketing et de commerce en ligne surtout.
D’où, parfois, des comportements hors-la-loi - la loi de Google bien sûr - par des techniciens férus de Black Hat SEO que l’on pourrait traduire en bon français par : référencement mis en place par un individu mal intentionné.
Dès que Google a mis en ligne sa liste de guidelines, certains ont essayé de contourner les robots d’indexation et autres algorithmes pour parvenir à un référencement optimisé de manière soi-disant plus rapide. D’autres, plus retors, s’en servent pour pratiquer du Negative SEO : faire croire que le site concurrent outrepasse les consignes Google pour les webmasters, et affecter durablement son indexation.
Google se bat donc quotidiennement contre les techniques Black Hat SEO et il se peut que dans cette guerre sans merci, certains sites web prennent des « balles perdues ».
Car si vous lisez ces lignes, c’est peut-être que vous avez reçu des pénalités manuelles, sans forcément savoir pourquoi, que vous voulez savoir ce qu’il y a derrière et que vous voulez vous en sortir. Un des exemples parmi d’autres est la découverte de pénalités juste après l’achat d’un site, d’un nom de domaine. Dans ce cas, c’est bien vous, le nouveau propriétaire de tous les contenus du site internet, qui êtes en cause et devez redresser la barre.
Dans le collimateur de Google
Comme son nom l’indique, une pénalité manuelle ne provient pas directement des algorithmes de Google.
Personne ne vous enverra un avertissement lors de pénalités algorithmiques.
Dans ces cas-là, vous constaterez sur votre console, ou à l’aide de Google Analytics, une baisse de trafic plus ou moins abrupte. Vous êtes « victime » sans doute d’une sanction provenant des mises à jour des filtres Panda ou Penguin.
Renseignez-vous alors sur les causes, analysez toutes vos pages pour trouver la faille, remettez tout en ordre, souvent en passant par une remise à zéro de l’optimisation… Un travail de longue haleine prolongé par l’attente que les robots de Google repassent pour analyser à nouveau votre site.
La pénalité manuelle, quant à elle, provient bien d’une vraie personne.
L’un des nombreux évaluateurs de la Google Search Quality Team, ou de la Web Spam Team, vous a envoyé un rapport sur votre Google Search Console. Vous pouvez aussi recevoir un mail d’alerte si vous avez calibré votre console pour.
Et, si vous avez reçu cette mise en garde, c’est que votre site web a certainement été dénoncé par des utilisateurs trouvant trop de spams, de liens artificiels ou autres logiciels malveillants sur vos pages web. Tout internaute peut signaler directement ce genre de débordements à Google. Y compris votre concurrent…
Attention, certaines pénalités manuelles peuvent ne pas avoir d’effet direct sur votre trafic.
Si la pénalité correspond à une page de votre site qui ne fait pas partie de votre stratégie SEO, vous pouvez ne subir aucune baisse de fréquentation.
Il vaut donc mieux, avant de paniquer, mesurer l’impact de la pénalité sur le trafic lié à la page à l’aide de Google Analytics.
Mais quoi qu’il en soit, il faut chercher des solutions rapidement, même dans ce cas-là. Google a votre site dans le collimateur, ça ne risque pas de s’arranger, bien au contraire.
Certains professionnels du SEO trouvent que recevoir un tel avertissement est plutôt bon signe. Cela prouve que Google veut vous « aider » à améliorer le référencement du site web sans le tuer complètement.
Actions et vérités
Toute notification manuelle est accompagnée d’explications. On vous en précise la raison et les effets sur votre site.
On trouve ces fameuses « Actions manuelles » dans la Search Console, anciennement Google Webmaster Tools, dans l’onglet « Trafic de recherche ».
Google, jamais pris au dépourvu au niveau sémantique, préfère le terme d’ « actions » à « pénalités »… Certainement pour garder un petit côté amical quand il vous relègue aux tréfonds du web. Bizarrement les techniciens, webmasters et autres ingénieurs en SEO, eux, parlent toujours de pénalités.
Bref, soit tout le site web est touché et les informations seront présentes dans la partie : « Correspondances sur l’ensemble du site ».
Soit la pénalité vise un contenu bien précis et se trouvera dans la section « Correspondances partielles » : une URL, des liens, des mots-clés, des parties de votre site…
Vous aurez alors accès à la raison de la pénalité : un message explicatif un peu impersonnel et généré automatiquement soulignera par exemple la présence de liens artificiels vers votre page.
Plus rarement, vous aurez la liste des liens concernés.
Voici une liste des techniques visées :
- dissimulation de textes (cloaking),
- techniques de spam agressives,
- détournement de contenu de sites tiers,
- suspicion de piratage,
- liens sortants ou entrants achetés, factices, non-naturels, etc.
- contenu pauvre,
- keyword stuffing ou bourrage de mots-clés
La plupart du temps, si vous n’avez pas mis en place des techniques de référencement « borderline », ces pénalités concernent les liens entrants ou sortants.
Ce peut être dû à une mauvaise gestion d’échanges de liens, une mauvaise manipulation du fichier robots.txt (qui permet d’exclure une partie d’un site de l’indexation) ou une attaque de NSEO.
À la fin du texte, un petit bouton rouge (couleur pas très engageante) propose « Demander un examen ». Selon les dires de Matt Cutts, ancien ingénieur chez Google travaillant sur le SEO, c’est sur ce bouton qu’il faudra appuyer… seulement le jour où vous aurez mis en place des solutions à vos problèmes (1). Ce bouton ouvrira un formulaire à remplir avec notamment la liste des corrections apportées.
Une fois le formulaire de réexamen envoyé, il faudra attendre le réexamen de votre site internet par un des techniciens de Google Search Quality... Cela peut prendre entre 7 et 70 jours selon les cas.
Le bon référencement naturel permet la vie d’un site. Des pratiques SEO douteuses qui passent outre les consignes de Google, et c’est la mort du site presque assurée. Imaginez un site web commercial, ou même un vrai magasin, qui ne voit plus de clients pendant 70 jours !
Que faire ?
Liens artificiels
Dans la majorité des cas, les actions manuelles concernent des liens entrants ou sortants. Souvent, c’est la page d’accueil du site qui fait l’objet de la sanction. Il est facile de le constater en analysant le Pagerank de vos pages. Vous trouverez vite celles qui sont déclassées.
Le message de pénalité intègre la solution au problème.
- recherche par le webmaster des liens artificiels :
soit vous avez une liste fournie dans le fameux rapport, soit vous devez analyser vous-même l’ensemble des liens entrants et/ou sortants de vos pages, un examen minutieux qui peut prendre du temps.
- suppression de ces liens sur les pages : là les choses se corsent.
Si cela concerne les liens sortants, vous pouvez corriger ce problème en supprimant les liens incriminés ou en ajoutant un attribut « No Follow » pour que les moteurs de recherche n’examinent pas les liens de la page.
Si la pénalité concerne les liens pointant vers votre site, les choses se gâtent. Soit les liens viennent d’une opération de spam et vous êtes en fait la victime. Soit vous avez voulu « jouer » avec l’algorithme et vous avez acheté des liens ou intégré une foule de PBN (personal blog network) afin de booster votre visibilité. Dans tous les cas, les actions pour désindexer les sites est longue et fastidieuse.
- demande de réexamen de l’action manuelle :
il n’y a aucune limite au nombre de réexamens que vous pouvez demander. Attention, inutile de raconter votre vie, vous devez lister les liens incriminés et expliquer les techniques pour avancer vers la mise en conformité avec les consignes de Google.
Quoiqu’il en soit, ne vous attendez pas à retrouver le trafic antérieur et remonter dans les résultats des moteurs de recherche une fois la pénalité levée. Le nettoyage de ces fameux liens entraîne forcément une chute du référencement. Il faudra reprendre votre politique de SEO presque de zéro.
Contenu pauvre ou enrichi frauduleusement
Vous avez inclus dans votre site internet du texte généré automatiquement (content spinnig), dupliqué un texte que vous aimiez bien (duplicate content) ou carrément voulu rediriger les moteurs de recherche sur des pages que ne voient pas les internautes ?
Ce sont des techniques abhorrées par Google, car engendrant des résultats de recherche de très mauvaise qualité…
Vous avez voulu jouer avec la firme de Mountain View ? Vous avez perdu !
L’heure est venue d’effacer tout cela et de se mettre en conformité avec le référencement naturel. Le soi-disant gain de temps et de visibilité engendré par ces techniques black hat est illusoire.
Surtout quand on se fait identifier par la Google Quality Search team et qu’il faut tout reprendre depuis le début…
Piratage de votre site
Si votre site a été piraté et regorge de spams et autres logiciels nuisibles, étant le responsable du contenu de votre site, vous serez identifié comme coupable de transgression de règles.
Il vous faudra analyser profondément vos lignes de code jusqu’à trouver la faille et la réparer.
Inutile de dire que si vous ne maîtrisez pas les codes, vous devrez faire appel à un professionnel.
Dans ce cas, la pénalité manuelle de Google est plutôt positive car elle sert d’alerte de piratage.
On évoquait ci-dessus le spam, or vous pouvez aussi être victime de spamming généré par un utilisateur. Imaginez les commentaires de votre blog envahi de « spomments » (contraction anglophone de spam et de comment) vantant un site proposant des petites pilules bleues.
Là aussi, toujours au vu de la responsabilité de contenu, vous serez pénalisé. Un nettoyage en profondeur est nécessaire.
Toujours gérer en amont
La meilleure manière d’éviter une pénalité manuelle venant de Google reste de bien suivre ses guidelines (2).
Un bon référencement naturel peut prendre du temps, mais assurera une bonne place dans les SERP et un trafic de qualité. Il est vrai que vous n’avez peut-être pas le temps de gérer le SEO sur le long terme. Les aspects techniques spécifiques (HTML, balises Meta, etc) ou la mise en ligne de contenus optimisés est chronophage.
Pourquoi alors ne pas faire appel à des professionnels du référencement naturel qui pourront aussi réagir rapidement en cas d’actions manuelles de Google ?
Pour éviter piratage et spomments, le webmaster doit, tous les jours, procéder à un examen minutieux de l’ensemble des pages et mouvements sur le site.
La sécurisation d’un site internet ou d’un blog est souvent intégrée dans l’offre des CMS… Encore faut-il faire les mises à jour dès qu’elles sont disponibles.
Pour conclure, s’il est vrai que la conception d’un site, d’un blog est devenue facile grâce aux CMS, le maintien d’un trafic important et de qualité est devenu une gageure chronophage.
Mais quoi qu’il en soit, un seul conseil : ne jouez pas avec l’algorithme de Google, il est plus fort que vous !