WRInaute accro
Bonjour,
Je suis devant un casse-tête et qui est surtout stupide !
Mon fichier robot interdit l'indexation d'un répertoire. Il est évident que les pages de ce répertoire ne devront pas être indexées.
Seulement voilà, la console search m'indique que certaines de ces pages ont été indexées dans la rubrique "Indexée, mais non envoyée via un sitemap".
Non seulement les pages sont bloquées par le fichier robot mais en plus, elles possèdent une meta=noindex !
Je me suis dit avec ça, les moteurs vont pas me les indexer... et bien si !
Maintenant je me retrouve à devoir bidouiller pour que googlebot comprenne PAS INDEXER !
J'ai utilisé le formulaire "suppression d'urls" en renseignant le répertoire pour qu'ils les virent de l'index. Mais ça, c'est temporaire !
Alors j'ai créé un sitemap qui liste donc ces urls pour qu'il vienne enfin faire la maj mais là, maintenant la console search répond :
Là, tu en tiens compte !
Maintenant si je désactive la protection du répertoire dans le fichier robots, ça va être la porte ouverte pour indexer TOUTES les pages !
C'est complètement stupide et un non-sens !
Je ne sais pas quoi faire !
De l'aide ?
Merci
Je suis devant un casse-tête et qui est surtout stupide !
Mon fichier robot interdit l'indexation d'un répertoire. Il est évident que les pages de ce répertoire ne devront pas être indexées.
Seulement voilà, la console search m'indique que certaines de ces pages ont été indexées dans la rubrique "Indexée, mais non envoyée via un sitemap".
Non seulement les pages sont bloquées par le fichier robot mais en plus, elles possèdent une meta=noindex !
Je me suis dit avec ça, les moteurs vont pas me les indexer... et bien si !
Maintenant je me retrouve à devoir bidouiller pour que googlebot comprenne PAS INDEXER !
J'ai utilisé le formulaire "suppression d'urls" en renseignant le répertoire pour qu'ils les virent de l'index. Mais ça, c'est temporaire !
Alors j'ai créé un sitemap qui liste donc ces urls pour qu'il vienne enfin faire la maj mais là, maintenant la console search répond :
Bah oui gros nigaud !Top Errors
Errors can prevent your page or feature from appearing in Search results. Les erreurs suivantes ont été trouvées sur votre site :
URL envoyée bloquée par le fichier robots.txt
Nous vous recommandons de corriger ces problèmes au plus vite afin d'optimiser le placement de votre site dans la recherche Google.
Là, tu en tiens compte !
Maintenant si je désactive la protection du répertoire dans le fichier robots, ça va être la porte ouverte pour indexer TOUTES les pages !
C'est complètement stupide et un non-sens !
Je ne sais pas quoi faire !
De l'aide ?
Merci