Hiilo,
Une chose qui me dépasse. Il y a un peu plus d’un mois, je décide de bloquer des indexations inutiles, qui s’assimilaient même à du “duplicate-content”. Je ne surveillais pas trop (occupé à d’autres choses), et en allant sur Analytics hier, je m’aperçois que depuis, le site reçois 5 x fois moins de visiteurs. Dégringolade... la tracé descend en chute libre sur 3 semaine puis stable une semaine à 5x moins de visiteurs (stable ? pas vraiment stable ? va baisser encore ? je ne sais pas)
Est-ce logique ?
Le principe en gros : il y a une sorte de petit formulaire sur toute les pages, et un “submit” sur ce formulaire, aboutit toujours à un retour à la page d’origine par redirection. Ne voyant pas l’intérêt pour Google d’indéxer l’URL “action” du formulaire, j’avais décidé de bloquer cette URL dans le robots.txt. J’en avait assez de toutes les erreurs d’explorations renvoyées par Webmaster Tools sur cette URL, je ne voyais pas l’intérêt d’indéxer une redirection de chaque page vers la même page, et j’y voyais aussi un “duplicate-content”. Donc, ajout de l’URL du CGI dans le filtre robots.txt.
Et donc voilà, je regarde hier ce qu’il en est => nombre de visiteurs divisé par 5 (moi qui m’attendais à même peut-être un léger mieux, la douche froide)
Est-ce vraiment cohérent ? Faut-il annuler le filtrage dans le robots.txt ? Encore un tour de yoyo ? Qu’est-ce qui ne lui plait pas à ce point dans la suppression de cette URL qui n’apparaissait pas dans le sitemap de toute manière ? (et elle n’avait rien à y faire, et Google aucune raison de l’indéxer). Comment se fait-il que ce qui ressemble à une suppression de “duplicate-content” puisse aboutir à un tel résultat ? (d’ailleurs le duplicate-content, je me demande si il faut y croire... quand je vois le nombre de site qui en font sciement, en copiant d’autres sites, et le site faisant la copy passant devant le site d’origine)
Détails (si ça peut éclairer) : le nombre d’URL indéxées n’a pas changer, il les indexe toutes, le nombre d’erreurs d’exploration n’a pas augmenté, puisqu’il a même été réduit à zéro, le PR (qui est le même sur toute les page... oui, je sais, c’est pas important, mais c’était pour vérifier), n’a pas du tout bougé, et les “site-links” sont toujours là, et aucun liens depuis l’extérieur ne se fait vers l’URL de ce CGI (ce qui est logique).
P.S. Je ne sais pas vraiment si j’ai posté au bon endroit : ici ou forum Google ?
Une chose qui me dépasse. Il y a un peu plus d’un mois, je décide de bloquer des indexations inutiles, qui s’assimilaient même à du “duplicate-content”. Je ne surveillais pas trop (occupé à d’autres choses), et en allant sur Analytics hier, je m’aperçois que depuis, le site reçois 5 x fois moins de visiteurs. Dégringolade... la tracé descend en chute libre sur 3 semaine puis stable une semaine à 5x moins de visiteurs (stable ? pas vraiment stable ? va baisser encore ? je ne sais pas)
Est-ce logique ?
Le principe en gros : il y a une sorte de petit formulaire sur toute les pages, et un “submit” sur ce formulaire, aboutit toujours à un retour à la page d’origine par redirection. Ne voyant pas l’intérêt pour Google d’indéxer l’URL “action” du formulaire, j’avais décidé de bloquer cette URL dans le robots.txt. J’en avait assez de toutes les erreurs d’explorations renvoyées par Webmaster Tools sur cette URL, je ne voyais pas l’intérêt d’indéxer une redirection de chaque page vers la même page, et j’y voyais aussi un “duplicate-content”. Donc, ajout de l’URL du CGI dans le filtre robots.txt.
Et donc voilà, je regarde hier ce qu’il en est => nombre de visiteurs divisé par 5 (moi qui m’attendais à même peut-être un léger mieux, la douche froide)
Est-ce vraiment cohérent ? Faut-il annuler le filtrage dans le robots.txt ? Encore un tour de yoyo ? Qu’est-ce qui ne lui plait pas à ce point dans la suppression de cette URL qui n’apparaissait pas dans le sitemap de toute manière ? (et elle n’avait rien à y faire, et Google aucune raison de l’indéxer). Comment se fait-il que ce qui ressemble à une suppression de “duplicate-content” puisse aboutir à un tel résultat ? (d’ailleurs le duplicate-content, je me demande si il faut y croire... quand je vois le nombre de site qui en font sciement, en copiant d’autres sites, et le site faisant la copy passant devant le site d’origine)
Détails (si ça peut éclairer) : le nombre d’URL indéxées n’a pas changer, il les indexe toutes, le nombre d’erreurs d’exploration n’a pas augmenté, puisqu’il a même été réduit à zéro, le PR (qui est le même sur toute les page... oui, je sais, c’est pas important, mais c’était pour vérifier), n’a pas du tout bougé, et les “site-links” sont toujours là, et aucun liens depuis l’extérieur ne se fait vers l’URL de ce CGI (ce qui est logique).
P.S. Je ne sais pas vraiment si j’ai posté au bon endroit : ici ou forum Google ?