Bonjour,
comme l'a soulevé beaucoup d'articles sur le sujet aujourd'hui, l'outil GWT permettant aux webmasters de désavouer des liens est tout de même un sujet périlleux, car il montre à Google que nous faisons attention aux BackLinks et que donc, le travail que nous effectuons sur notre site internet n'est pas si naturel que cela.
J'ai donc eu une idée (je ne dois pas être le premier à l'avoir eu), c'était de faire un espèce de "cloaking" pour le netlinking.
Je m'explique : on créé un script PHP, et imaginons que je veuille désavouer le lien fait par le site "piratemoisi.com", dans mon script je dis que s'il s'agit du site référent en question (autrement dit, si le robot a suivi le lien de ce site) et qu'il s'agit également du robot de Google, alors je fais une redirection 301 vers une adresse 404 (on pourrait même être encore plus vicieux et rediriger vers un concurrent si cela marchait).
Du coup, si ce principe de fonctionnement marchait, il serait possible et très facile de désavouer des liens pour tous les moteurs de recherche, en masse et très facilement.
Le seul problème est de savoir si le moteur de recherche considère un BackLink a partir du moment où il le voit sur le site internet du référent ou s'il le considère à partir du moment où il suit le lien et arrive sur le site internet.
J'espère avoir été assez clair, qu'en pensez-vous?
comme l'a soulevé beaucoup d'articles sur le sujet aujourd'hui, l'outil GWT permettant aux webmasters de désavouer des liens est tout de même un sujet périlleux, car il montre à Google que nous faisons attention aux BackLinks et que donc, le travail que nous effectuons sur notre site internet n'est pas si naturel que cela.
J'ai donc eu une idée (je ne dois pas être le premier à l'avoir eu), c'était de faire un espèce de "cloaking" pour le netlinking.
Je m'explique : on créé un script PHP, et imaginons que je veuille désavouer le lien fait par le site "piratemoisi.com", dans mon script je dis que s'il s'agit du site référent en question (autrement dit, si le robot a suivi le lien de ce site) et qu'il s'agit également du robot de Google, alors je fais une redirection 301 vers une adresse 404 (on pourrait même être encore plus vicieux et rediriger vers un concurrent si cela marchait).
Du coup, si ce principe de fonctionnement marchait, il serait possible et très facile de désavouer des liens pour tous les moteurs de recherche, en masse et très facilement.
Le seul problème est de savoir si le moteur de recherche considère un BackLink a partir du moment où il le voit sur le site internet du référent ou s'il le considère à partir du moment où il suit le lien et arrive sur le site internet.
J'espère avoir été assez clair, qu'en pensez-vous?