Google, rien à comprendre ???

Nouveau WRInaute
salut

voilà, chaque fois que je tape ce code dans google site: suivi de mon site

des fois il me renvoie la page cache , avec toutes les informations précises
et des fois il renvoie cela "Aucune information n’est disponible pour la page (site web profil)."

ca veut dire quoi ? je suis blacklisté, puis apres déblacklisté, puis reblacklisté, puis dereblacklisté, et tagada .. ?

ou bien google est perdu dans le crawl de mes pages, pourtant, les applications assujetties a url rewritting sont completes, il n' a pas de double contenu... j'ai filtré ce qu'il faut avec robots.txt.

bizarre... bizarre....

a pas de bons programmes pour savoir ce que lis un robot quand il va sur un site ? comme cela on peut vérifier si il y a double contenu, ce qui est crawlé...
 
WRInaute occasionnel
spider-simulateur ne renvoie rien sur mon www !!
sans doute à cause des - dans mon NDD
quelqu'un peut confirmer ?
 
Nouveau WRInaute
Voila ce qu'il renvoie:
Code:
Statut de réponse HTTP : 	500 (Internal Server Error)
Tu dois avoir une erreur dans ton fichier .htaccess
 
WRInaute discret
je ne comprendrai jamais pourquoi un site fonctionne dans les navigateurs et ne fonctionne pas depuis certains outils. Apparemment, ce n'est pas une histoire de javascript dans le cas présent, qu'est ce qui peut faire la différence ?
 
WRInaute impliqué
quelque fois, j'ai observé que la présence d'un ">" dans une balise title faisait perdre les pédales à ce genre d'outil par exemple
 
WRInaute discret
Yvel, est ce que tu pourras nous dire ce qui bloquait l'outil sur ton site une fois que tu auras réussi à le faire fonctionner stp ?

merci d'avance
 
Nouveau WRInaute
Il y a comme même un Glapsus avec spider-simulateur :c'est qu'il ne prends pas les robots.txt en compte.

Alors cela n'aide pas pour savoir si l'URL rewritting optimise efficacement le travail des robots

Certes, on voit que les bots pointent sur les url réécrites, mais on ne voit pas avec spider simulateur si le robot ne lui pas les url interdites par le robots.txt , et le but est de savoir si il n'y a pas de double content, donc présence d'une multitude d'url dans lesquelles ils seraient perdus, et du coup le crawl leur serait trés difficle.
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut