Robots.txt et indexation

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par Newbipastaper, 24 Octobre 2013.

  1. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Bonjour,

    Lors d'une chute du référencement de mon site (un ecommerce tournant sous prestashop), et en creusant avec mon webmaster (qui me supporte :D), on a remarqué que Google avait indexé la partie /en/ (traduction anglaise du site) alors que celle-ci n'est remplie : pas de contenu.

    On a donc supposé que les bots ont considéré que notre site n'était pas pertinent, etc.

    Donc, action corrective : suppression dans GWT de toutes les URL en /en/ et dans le fichier robots.txt on lui a demandé de bloqué toutes les pages en /en/

    Deux semaines ont passé, le temps pour Google de prendre en compte cela et :

    1- aucune amélioration du référencement
    2- lorsqu'on tape : site:monsite.com/en/ il y a toutes les pages d'indexées (grrrr) avec en dessous : "La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site. En savoir plus"

    Et surtout, la chute brutale du référencement est assez inexpliquée : le site est pertinent, pas de suroptimisation, pas d'ajouts de backlink douteux, les tags, meta, mots clés, title, alt, etc sont bien remplis.

    Selon GWT on passe de 6500 impressions par mois avec 320 clics pour 170 requêtes de recherche et pas mal de mots clés principaux sur les deux premières pages à 3500 impressions, 170 clics, 154 requêtes (d'un mois sur l'autre). A préciser que nous sommes sur un marché concurrentiel avec beaucoup de recherche sur le sujet.

    Bref, vos avis sont bien venus.

    Merci bien

    Newbipastaper
     
  2. david-seo

    david-seo Nouveau WRInaute

    Inscrit:
    19 Juillet 2013
    Messages:
    38
    J'aime reçus:
    0
    réponses

    Bonjour

    1- aucune amélioration du référencement
    C'est normal, il faut un certain temps et de plus il faut d'abord découvrir si ce répertoire /en/ en est bien la cause.
    A quelle date précise votre trafic a t'il chuté ?

    2- lorsqu'on tape : site:monsite.com/en/ il y a toutes les pages d'indexées (grrrr) avec en dessous : "La description de ce résultat n'est pas accessible à cause du fichier robots.txt de ce site. En savoir plus"
    C'est tout à fait normal, vous avez supprimé ces pages de l'index, maintenant il existe un robot qui bloque l'accès à google, par contre google a gardé en archive et aussi en fonction des liens existants les urls de ces pages, elles ne font plus parties de l'index mais il garde en mémoire leurs urls seulement.
    Pour les supprimer complètement et ne pas laisser de traces d'urls il ne fallait pas le faire avec GWT, ce n'est d'ailleurs pas fait pour ça comme le signale google.

    Pour avancer un peu plus il faudrait au moins des dates précises des baisses.
    David
     
  3. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Bonjour,

    La baisse brutal des positionnements à eu lieu le 04/10/2013.

    La raison pour laquelle nous souhaitions désindexer seulement les /en/ et non pas les supprimer totalement, est que la traduction de ces pages est prévue. Mais pas de suite : je suis un petit indépendant sans salarié pour le moment, et malgré la greffe de mes trois bras supplémentaires, je n'ai pas le temps de tout traduire en 24h (en fait le donneur pour le 4e bras s'est désisté :D).

    Autre chose : en tout début d'année 2013, nous avons fait une campagne d'inscription automatique dans les annuaires. Une cinquantaine d'annuaires a répondu. Est-ce possible que nous soyons pénalisé pour cela ? Sachant que pendant dix mois, rien ne s'est passé de négatif ? J'ai cru comprendre que Pingouin et Panda n'aimait pas trop ça ...

    Cordialement,

    Newbipastaper
     
  4. meriemmm

    meriemmm Nouveau WRInaute

    Inscrit:
    24 Octobre 2013
    Messages:
    1
    J'aime reçus:
    0
    bjr , je suis débutante dans le référencement et ben mon site était bien positionné après le 24 sept, mon site a vécu une chute du référencement , j'ai bien vérifié les Erreurs au niveau des URL , et j’étais surprise en constatant qu'il y a 552 lien Erreur 404 , j'ai pas bien compris la problème par exemple il me montre que la page nos-references-5 not found alors que ma page c'est nos-references5 , et au niveau de l'indexation j'ai bien vérifie que j'ai indexé seulement nos-references5. est ce que je dois faire la redirection des 552 lien :( ??

    Ya t'il une explication ??
    quelle est la solution la plus rapide pour sauver mon site ?

    Merci :wink:
     
  5. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Meriem,

    J'ai eu le cas aussi et j'ai réglé le problème assez simplement : j'ai désindexé les urls inexistantes (donc les 552 pour toi). C'est long et fastidieux mais nécessaires.

    Si pour toi il s'agit également d'un prestashop comme le mien, peut être que les 552 erreurs d'urls sont dues à des urls de paniers qui ont expiré. Là il faut les désindexer et les bloquer avec le fichier robots.txt

    Cordialement,

    Newbipastaper(qui a trouve plus newbi que soit mouarf)
     
  6. david-seo

    david-seo Nouveau WRInaute

    Inscrit:
    19 Juillet 2013
    Messages:
    38
    J'aime reçus:
    0
    probleme ailleurs

    Bonjour
    Désolé pour cette mauvaise nouvelle mais ce n'est pas du tout ce problème de pages et de répertoire qui a causé la chute du site, le 4 octobre il s'agit de penguin 2.1, donc cela vient bien de ton inscription automatique dans les annuaires, il faut que tu demandes la suppression de ces liens et que tu attendes la prochaine mise à jour penguin.
    david
     
  7. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Merci David :D

    On n'a pas attendu ta réponse, on a commencé à se désinscrire. Je viens de lire ton article et je vais suivre tes conseils.

    Combien de temps se passe-t-il généralement entre 2 mises à jour ? Si je supprime TOUS mes BL pourris aujourd'hui, le site ne pourra pas remonter tranquillement avant la prochain MàJ ?

    En tout cas merci encore !

    Newbipastaper (même s'il mériterait :D)
     
  8. david-seo

    david-seo Nouveau WRInaute

    Inscrit:
    19 Juillet 2013
    Messages:
    38
    J'aime reçus:
    0
    patience

    Je suis désolé mais encore une mauvaise nouvelle, il va falloir être patient, il faut d'abord que google prenne en compte ces suppressions puis qu'il y ait une mise à jour, cela peut prendre entre 1 et 4 mois.
    bon courage
     
  9. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Ne sois pas désolé, ce n'est pas ta faute :) Ca nous donne autant de temps pour les supprimer et refaire du net linking de qualité.

    Merci pour tes conseils,

    Cordialement,

    Newbipastaper
     
  10. philouseb

    philouseb WRInaute impliqué

    Inscrit:
    2 Novembre 2006
    Messages:
    727
    J'aime reçus:
    0
    Re: probleme ailleurs

    Bonjour,

    Mon site est en ligne depuis 2007, des backlinks j'en au ai plus de 20 000...
    Comment savoir lesquels sont de mauvaises qualités ?

    Merci pour vos réponses.
     
  11. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Bonjour Phil,

    plus de 20 000 ? Tu veux pas m'en donner un peu :D

    David sera surement de meilleurs conseil, mais j'imagine que cela dépendra du taux de liens de mauvaise qualité non ? Après pour savoir lesquels sont de mauvaise qualité il faut les analyser un par un.

    Dans GWT tu peux avoir la liste de tes backlinks. Après tu fais le tri, et tu vires ceux des annuaires par exemple.

    Dans mon cas, c'est pas compliqué, j'ai récupéré un site internet de très mauvaise qualité, hyper mal référencé qui tournait sous une CMS propriétaire hyper mal fagoté (pas d'url rewriting, entre autres). Et on a voulu redresser la barre en faisant une inscription automatique dans les annuaires. Mauvaise idée apparemment ... Du coup, mon associé, qui est webmaster, a refait un bon vieux prestashop et c'est déjà mieux.

    Donc aujourd'hui je me retrouve avec un site web de qualité (niveau contenu, technique, optimisation et tout le toutim), mais sans bl, quasiment sans commentaire (6 commentaires pour le moment et deux avis ciao ouais youpi trop la fête), et avec peu de visites pour le moment (600 visites par mois, quand je vise un 1500 visites à court terme). Mais on ne désespère pas :D
     
  12. philouseb

    philouseb WRInaute impliqué

    Inscrit:
    2 Novembre 2006
    Messages:
    727
    J'aime reçus:
    0
    Merci pour le retour.

    Supprimer tous les BL provenant des annuaires ?
    Il y a quand des annuaires de qualité ? Sinon cela voudrait dire que c'est la mort des annuaires non ?

    Est ce qu'il existe un outil qui permettrai de lister l'ensemble des BL qui pointent sur un site et que chaque BL se trouveraient attribuer une note qualitative ?
     
  13. Newbipastaper

    Newbipastaper WRInaute discret

    Inscrit:
    24 Octobre 2013
    Messages:
    244
    J'aime reçus:
    0
    Si Google donnait une note qualitative, ce serait chouette ... mais utopique :D

    Je ne suis pas un spécialiste mais d'après ce que j'ai pu lire, les annuaires ne seraient pas les bienvenus désormais. Mais à faire confirmer par les professionnels :)