Bonjour,
J'ai vu avec stupeur que la page d'accueil de notre site (ndd plusieurs années et rafais en début d'année) n'était pas indexé. En allant dans la console , je n'arrive pas à la faire réindexer. C'est là que je me suis aperçu qu'il y avait des milliers d'urls (probablement ancien site) dans la colonne url exclue car "Anomalie lors de l'exploration" dont la page d'accueil du site (cela fait mauvais genre!). Toutes en dehors de quelques bonnes urls actuelles donnent une erreur 404.
J'ai vu qu'il fallait absolument enlever ces urls avec erreur 404 car Google ne le faisait pas naturellement.
Je pense avoir une solution qui va m'éviter de déprimer trop rapidement.
J'ai trouvé de l'aide sur la page https://www.leptidigital.fr/webmarketing/seo/comment-desindexer-pages-google-9797/
Si je comprends bien , il y a plusieurs méthodes qu'il indique mais j'ai moins confiance en
A) Utiliser la commande X-Robots-Tag du fichier .htaccess : cette technique permet de désindexer des pages ou des fichiers sans avoir à modifier leur code source : X-Robots-Tag: noindex
<Files ~ "\.pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</Files>
Ce code permet par exemple de ne pas indexer tous les fichiers PDF d’un site.
B) Utiliser la directive « Noindex: » du robots.txt : cette directive, bien que non officiellement interprétée par Google fonctionne réellement
Mais la plus judicieuse serait de générer un fichier sitemap avec ces urls 404 en
1/ exportant les urls (bon c'est limité à 1000, j’imagine qu'il faudra s'y reprendre en plusieurs fois?) au format csv de la console Google
2/ puis (en enlevant les erreurs dont la page d'accueil) que je stocke le tout dans un fichier sitemap pour le voir supprimer "rapidement" de l'index !?
Qu'en pensez-vous ?
Car j'ai un peu peur d’aggraver la situation et combien de temps (environ bien sûr) la solution peut-être rétabli
Merci
@+
J'ai vu avec stupeur que la page d'accueil de notre site (ndd plusieurs années et rafais en début d'année) n'était pas indexé. En allant dans la console , je n'arrive pas à la faire réindexer. C'est là que je me suis aperçu qu'il y avait des milliers d'urls (probablement ancien site) dans la colonne url exclue car "Anomalie lors de l'exploration" dont la page d'accueil du site (cela fait mauvais genre!). Toutes en dehors de quelques bonnes urls actuelles donnent une erreur 404.
J'ai vu qu'il fallait absolument enlever ces urls avec erreur 404 car Google ne le faisait pas naturellement.
Je pense avoir une solution qui va m'éviter de déprimer trop rapidement.
J'ai trouvé de l'aide sur la page https://www.leptidigital.fr/webmarketing/seo/comment-desindexer-pages-google-9797/
Si je comprends bien , il y a plusieurs méthodes qu'il indique mais j'ai moins confiance en
A) Utiliser la commande X-Robots-Tag du fichier .htaccess : cette technique permet de désindexer des pages ou des fichiers sans avoir à modifier leur code source : X-Robots-Tag: noindex
<Files ~ "\.pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</Files>
Ce code permet par exemple de ne pas indexer tous les fichiers PDF d’un site.
B) Utiliser la directive « Noindex: » du robots.txt : cette directive, bien que non officiellement interprétée par Google fonctionne réellement
Mais la plus judicieuse serait de générer un fichier sitemap avec ces urls 404 en
1/ exportant les urls (bon c'est limité à 1000, j’imagine qu'il faudra s'y reprendre en plusieurs fois?) au format csv de la console Google
2/ puis (en enlevant les erreurs dont la page d'accueil) que je stocke le tout dans un fichier sitemap pour le voir supprimer "rapidement" de l'index !?
Qu'en pensez-vous ?
Car j'ai un peu peur d’aggraver la situation et combien de temps (environ bien sûr) la solution peut-être rétabli
Merci
@+