Demande d'indexation refusée

Nouveau WRInaute
Bonjour à tous,

Après avoir recherché la cause de mon problème et avoir trouvé plusieurs pistes qui ne semblent pas s'appliquer à mon problème je me tourne vers la communauté.

En voulant inspecter les URL sous la Google Search Console pour m'assurer que les Url éatient indexables, il m'est apparu le message suivant ;

Probmleùe-index.jpg


Il n'y a pas réellement de précision quant au problème rencontré, voici le descriptif proposé par Google ;

couverrte-google.jpg


Je suis également passé par le test d'optimisation mobile qui parfois donne plus d'informations sur les problèmes rencontrés... Voici le message qui est déjà légèrement plus clair.

page-inaccessible.jpg


Finalement, j'ai effectué, une vérification du HTACCESS qui semble ok.
Mon fichier Robots a été vérifié, il est très simple le voici ;

User-agent: *
Allow: /
Disallow: /wp-login.php
Disallow: /wp-admin/

J'ai également désactivé le firewall côté serveur OVH pour être sur que ça ne venait pas de la.

C'est la première fois que je fais face à ce problème. Je tiens à préciser que c'est un nouveau site internet. Je gère une dizaine de site web, dont certains que j'ai suivi depuis leur création, et c'est la première fois que je vois ça.

Avez-vous une idée, une piste éventuelle ?

Merci à vous.
 
WRInaute impliqué
Cette page est indexée par Google. Le cache date du 1er octobre à 11h28 GMT.

Demander une indexation est bien, mais avoir des backlinks est encore mieux, surtout si on est impatient.

Hors-sujet:
Personnellement, je n'aime pas le Allow: / dans le fichier robots.txt
 
Nouveau WRInaute
Cette page est indexée par Google. Le cache date du 1er octobre à 11h28 GMT.

Demander une indexation est bien, mais avoir des backlinks est encore mieux, surtout si on est impatient.

Hors-sujet:
Personnellement, je n'aime pas le Allow: / dans le fichier robots.txt

Merci pour la réponse.

J'ai réussi à régler le problème. Est-ce grâce à mes manipulations, je ne sais pas, mais je vais décrire ce que j'ai fait dans le cas ou d'autres personnes auraient ce soucis spécifique.

Dans l'ordre,

- J'ai vérifié le HTACCESS, en général les problèmes viennent de lui.
- J'ai ajouté vérifié le fichier robot en y mettant les réglages ci-dessus.
- J'ai supprimé (provisoirement) le pare-feu côté serveur.
- J'ai réinitialisé les DNS. ( Le NDD est resté longtemps en mode "non indexable" côté réglage wordpress... Peut être une incidence)
- J'ai désactivé et supprimé les plugin non utilisés et non indispensable côté wordpress. ( Les plugins qui génèrent une page offline etc. )
- Et enfin, j'ai attendu 24h avant de réessayer la vérification.

Bizarrement, (ou logiquement?) cela a fonctionné après les 24h.. Environ au bout d'une trentaine d'heures.

Voilà pour le retour d'expérience.

Concernant les backlinks tu as tout à fait raison. Mais le problème se situait surtout sur le blocage du crawl de la page par les robots..

Sinon tu as raison concernant le... "temps". Patienter une ou deux journées pour vérifier est indispensable.

Pourquoi n'aimes tu pas le Allow ? Une préconisation particulière à suggérer ?

Merci :)
 
WRInaute accro
Le fichier robot est à utiliser avec précaution.
Pour rappel, Google peut décider d'indexer une page où répertoire disallow simplement parce qu'au moins un backlink pointe dessus.
Mettre un noindex est plus efficace.
C'est plus difficile de desindexer une page disallow
 
WRInaute impliqué
Nouveau WRInaute
Jusqu’à maintenant, on ne sait pas encore quelles techniques Google utilise avec ce nouveau changement. Perso, je suis un peu perdu sur ce sujet.
 
Discussions similaires
Haut