Sur bon nombre de forums, on entend souvent des gens pleurer sur leur sort, comme quoi leur beau site a perdu deux places dans les SERPS de Google, qu’il a été blacklisté, bouh, bouh … C’est triste, surtout après des mois et des mois de travail. C’est là que l’on est en droit de se poser une bien étrange question : si j’arrive à me faire blacklister, est-ce que je ne peux pas faire de même pour mes concurrents ?
En clair, parce que je n’ai pas bien suivi les recommandations de Google, je me retrouve viré. Et si je m’attelais à faire la même chose mais au nom de mes concurrents ? C’est cela le SEO négatif : c’est s’attaquer à la notoriété d’un site en tentant par tous les moyens de le discréditer aux yeux des moteurs de recherche.
Mais attention, Google nous l’affirme haut et fort: à l’heure actuelle, il n’y a pratiquement aucun moyen de casser le positionnement d’un concurrent. C’est ce pratiquement qui nous met la puce à l’oreille. Personnellement, je n’y crois pas, pour la simple et bonne raison que Google utilise des pénalités automatiques, et qui dit automatisme dit algorithme, et donc faille potentielle. Si vous connaissez ou déduisez ne fut-ce que 50 pour cent des rouages d’une programmation, alors vous devriez pouvoir l’utiliser pour vos desseins. L’argument de Google est avant tout purement marketing. D’ailleurs sur les gros forums webmasters, une bonne partie des gens pensent qu’il est possible de casser du concurrent.
Je me m’intéresse maintenant à quelques moyens d’endommager la concurrence. Attention, il s’agit juste d’une vulgarisation : il est évident que certaines de ces techniques demandent beaucoup plus de détails et de soins que ce que je vais vous exposer.
Tout d’abord, je choisi d’utiliser un détournement d’URL (En anglais 302 hijack) : je crée un site web qui redirige via un code HTML 302 tout le trafic vers ma cible.
J’indexe mon site via des commentaires déposés sur des blogs en do-follow, et j’utilise également des sites de bookmarks, comme StumbleUpon par exemple. Ce qui va aboutir à la construction d’un site complètement virtuel puisque les pages n’existent pas sur mon site.
Sur ma victime, j’ai trouvé des références vers des URL relatives (<a href= « tarte.php »>Tarte</a> au lieu de <a href= »http://www.pagasa.net/tarte.php »>Tarte</a>. Je récupère le contenu de cette URL en le scrapant, et cette fois-ci, je me construis une véritable page. Je focalise maintenant mon référencement sur cette page, si j’ai de la chance, celle-ci sera indexée, et il est même envisageable que la véritable page soit supprimée de l’index de Google à cause du duplicate-content. Cette technique existe depuis de longues années déjà. Pendant un temps Google avait définitivement corrigé le problème, néanmoins certains webmasters signalent encore le problème. On peut donc en conclure qu’elle fonctionne toujours.
Une autre idée est de se servir de l’arme fatale de Google : le duplicate-content. Le principe est le suivant : recopier un peu partout la page de la victime afin de simuler des doublons que Google s’empresse d’éliminer. Pour ce faire, on utilise l’outil préféré des lycéens : le proxy. Certains de ses proxy ont la fâcheuse tendance à laisser beaucoup de trace de leur activité. Ainsi on peut parfois trouver des URL proxifiées dans les SERPS de Google, ces URL contenant la totalité de la page qui a été accédée. La tactique est donc la suivante : proxifier la page de votre victime et indexer l’URL obtenue. Si vous avez un très grand nombre de ces URL, il est tout à fait envisageable que votre victime soit elle-même pénalisée, à cause du nombre important de doublons.
Depuis quelques mois, Google a tendance à effacer les URL proxifiées de son index. Il est de plus en plus difficile d’utiliser cette méthode.
Après, je peux utiliser une technique beaucoup plus simple et qui m’évite d’avoir à connaitre les rouages des algorithmes des moteurs de recherche.
Je me fais passer pour quelqu’un travaillant pour le compte de ma victime et je m’essaye à effacer le plus grand nombre possible de backlinks. Via whois ou par l’inévitable page contact du site partenaire, je récupère les adresses des webmasters et leur envoie un joli petit mail à la sauce suivante :
Monsieur,
Je travaille pour la société XXX en tant que webmaster. Sur votre site web, je constate la présence de liens hypertextes pointant vers notre propre site web. Après examen de votre site, ma nouvelle direction vous demande de bien vouloir retirer ces liens ; il s’avère que ces derniers évoquent un partenariat entre nos deux sociétés dont ma direction ne veut pas entendre parler. Comptant sur votre collaboration et m’excusant par avance du désagrément, je vous demande donc de bien vouloir retirer ces liens dans les meilleurs délais.
Veuillez recevoir monsieur, mes salutations les meilleures.
Sophie STIQUET, webmaster.
L’ennui avec cette méthode, c’est que l’on se fait passer pour quelqu’un d’autre et ça s’appelle de l’usurpation ; et dans de nombreux pays, c’est mal.
Finalement une dernière idée : j’inscris le site web de ma victime dans un maximum de fermes de liens, sites porno ou bannis. En clair, je lui crée ce que l’on appelle le bad Neighborhood (le mauvais voisinage) et qui peut causer beaucoup de dommages. Beaucoup d’experts occultes sont très partagés sur cette technique, certains disent que cela marche, d’autre que non. Cela va donc varier en fonction des critères de popularité du site de la victime.
Je termine en donnant mon point de vue sur le SEO négatif et les quelques discussions que j’ai pu avoir avec d’autres personnes.
Il y a actuellement plus de 450 critères de qualité pour se positionner dans les SERPS et il n’est pas toujours évident de savoir pourquoi on a été déclassé.
Un site âgé a très peu de chance de se faire dé-lister dans le sens où justement l’âge du domaine est un critère très important dans l’obtention de la popularité. C’est d’ailleurs l’un des secrets de Pagasa : il a été crée en 2003 et il est numéro un sur certaines expressions depuis des années déjà.
Ne vous fiez pas à son PR0, je vous expliquerai plus tard le problème.
Un site qui grimpe trop rapidement dans les SERPS a tendance à vite se faire refouler, la notion de temps a donc beaucoup d’importance dans l’obtention de la popularité. Cette idée est toutefois démentie par les effets de buzz qui peuvent vous propulser aux meilleures positions par la propagation virale. J’ajoute donc un critère : la grande hétérogénéité des backlinks qui doivent être dotés d’ancres différentes.
Donc pour tenter de nuire au concurrent, il faut créer rapidement une multitude de liens avec la même ancre.
Le duplicate-content est quelque chose que l’on voit assez souvent : la page de référence est toujours celle qui a été indexée en premier. Si l’on souhaite l’utiliser à son profit, il faut donc s’arranger pour être indexé en premier.
Une autre idée est d’utiliser un nombre très important de pages dupliquées, afin de mettre en alerte les filtres de Google. C’est d’ailleurs cette technique qui a été utilisée avec les proxy.
Finalement un critère qui semble de plus en plus utilisé : la revue manuelle par les équipes qualité de Google ; à mon avis, celle-ci entre désormais pour une bonne part dans le dé-listage, voir même le listage du site.
Voilà, ainsi ce termine notre petit périple au pays du SEO négatif, un univers bien étrange, méconnu mais qui comporte un certain nombre d’adeptes invisibles et surtout discrets.
Le negative SEO est vraiment à la mode en ce moment, j’en ai souffert sur un money site par un spammeur très malin qui a même mixé les ancres pour faire « naturel ». Du spam qui se veut avoir l’air naturel, mais que Google détecterait comme du spam. Bref du NSEO très malin et ça a marché sur mon plus gros mot-clé mais pas encore sur la longue traîne… Une vraie plaie le negative seo.
Samuel Articles récents…Le backlink, la clé de voûte d’un référencement réussi