Pour faire suite à l’optimisation de ma page clé, je continue ici sur la partie technique, parce qu’il y a encore moyen d’aller beaucoup plus loin, en vue d’améliorer le trafic en provenance de Google.
Les outils qui plaisent à Google
La première chose que j’ai faite est d’utiliser l’ancien GWT qui s’appelle désormais Console Search, depuis belle lurette d’ailleurs. J’ai longtemps hésité à me « déclarer » auprès de Google, mais j’ai réalisé que j’y avais plus à gagner qu’à y perdre.
Le problème est que lorsque vous vous inscrivez sur Console Search, de facto vous vous identifiez chez Google. Vous me direz que j’aurais pu créer un compte Google spécifique pour cela, mais cela m’aurait obliger à toute une gymnastique à coup de vidages de cookies, de jonglages entre plusieurs navigateurs, ou pire devoir créer une VM pour le gérer, comme au glorieux temps du Blackhat.
En définitive, j’y aurai perdu beaucoup de temps, et c’est vraiment quelque chose que j’essaye désormais d’éviter au maximum.
Ma crainte principale est que je suis intiment convaincu que le profil du propriétaire d’un site peut être un élement dans le classement de Google. Au cours de ces dernières années, j’ai pu constater un fait étrange: lors d’une « fessée » de Google, tous mes sites déclarés à l’époque sur GWT et/ou utilisant Adsense ont été pénalisés et ont subi des reculs sur leur classement. Et je vous parle même des sites honorables utilisant uniquement des techniques Whitehat. A l’opposé, tous ceux n’utilisant pas les services Webmaster de Google et enregistrés en anonyme n’ont pas eu à subir les mêmes déconvenues. Je n’aime pas trop les coincidences, mais comme c’est arrivé à plusieurs reprises, j’ai appris à être méfiant.
Mais après tout, les avantages peuvent sans doute surpasser mes craintes. Google aime que l’on utilise ses outils et peut souvent vous rendre la pareille. Et ce n’est pas pour rien qu’il vous prodigue des conseils lorsque vous naviguez dans Console Search. Vous obtenez aussi de très précieuses informations: des erreurs éventuelles, les sites qui font des liens vers vous, des améliorations HTML, et aussi le top du top, les mots-clé qui font arriver les personnes chez vous sur des pages bien particulières. Rien que pour ce dernier dispositif, cela en vaut largement la peine: c’est une information marketing purement inestimable.
J’ai ajouté le sitemap pour pouvoir faire connaitre l’entièreté de mes pages à l’ami Google. Cela tombe bien car il y avait quelques pages orphelines que j’utilise essentiellement sur les réseaux sociaux comme Twitter. Comme mon site est un développement personnel, j’ai du tout programmer à la main. Mais cela n’a pas été un souci puisque cela avait déjà été fait sur l’ancien site qui avait marché: je n’ai eu qu’à reprendre ma fonction et l’adapter à la structure du site qui va marcher.
Les petites optimisations
J’ai également peaufiné le site au moyen de petites modifications notamment conseillées par Console Search.
J’ai par exemple bien fait la différence entre la page index.php et la page « / », en mettant en place une URL canonique et aussi un titre et une description différente. Étonnement, je pensais justement que l’URL canonique aurait pu arranger les choses mais le Console Search continuait à me sortir l’optimisation à apporter. A noter que ma page index.php n’apparaît pas dans le sitemap.
La page index et quelques autres pages secondaires ont été également entièrement optimisées, de la même manière que ma page clé.
J’ai également mis en nofollow certains de mes liens sortants. Il faut dire que j’utilise une méthode bien à moi mais qui peut potentiellement apporter quelques soucis.
Afin de tracer des sorties, j’utilise la méthode suivante:
<a onclick= »window.open(‘http://sitequivamarcher/link-1′,’_blank’); return event.returnValue=false » href= »https://beausite.fr/ »>
Ce qui me permet d’appeler « link-1 » qui est en fait un script PHP, qui incrémente un compteur avant de faire un 301 vers « https://beausite.fr/ ». Le lien ainsi camouflé réalise deux choses stratégiques:
- Pour moi, il me donne beaucoup d’informations sur la productivité d’un lien sortant, très utile surtout s’il s’agit d’un lien d’affiliation.
- Pour le visiteur, il le rassure car comme il ne voit apparaître que « http://beausite.fr », il est content parce que ce n’est pas un lien d’affiliation. Et donc je ne risque pas de gagner de l’argent parce que c’est mal, sale, injuste, pas écologique ni moral, tropinjuste, c’est être américain ou pire voter Trump, blablabla, blablabla. Ouf, mon visiteur se sent beaucoup mieux.
Mais dans mon cas, il ne s’agissait pas de liens d’affiliation, du moins pas pour le moment, mais bien juste une sortie vers un autre site que je voulais surveiller à des fins marketing. Le but, c’est quand même de bien comprendre ce que cherche un visiteur lorsqu’il navigue sur un site qui va marcher.
Cette technique me pose quand même un souci: Google sait lire le Javascript et en conséquence, il a donc indexé tous mes liens sortants utilisant cet artifice !
Vous me direz: et alors ? Et bien, c’est vrai que cela me crée du contenu gratuit supplémentaire, mais clairement, il s’agit ici de contenu dupliqué. D’ailleurs lorsque je fais un site:sitequivamarcher, Google m’indique clairement qu’il en a trouvé. Du coup, je n’ai pas hésité, zou, tout ce beau monde est passé à la trappe en utilisant le robots.txt:
Disallow: /link-1
Disallow: /link-2
…
On est obligé de procéder ainsi parce que on ne peut pas intégrer un nofollow dans un window.open(). Mais à l’heure actuelle, ces liens sont toujours indexés. Si cela continue, je serais sans doute obligé de les enlever manuellement via la Console Search.
J’ai eu d’autres idées mais comme je suis pour le moment, plus dans un cycle de promotion plutôt que de développement, je me suis dit que je risquai de perdre du temps, et j’en suis donc resté là.
Génial merci pour toutes ces informations donné dans cet article.