Site plombé ? => Changement trop fréquents de title

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par aquaNico, 16 Mai 2013.

  1. aquaNico

    aquaNico Nouveau WRInaute

    Inscrit:
    12 Février 2013
    Messages:
    39
    J'aime reçus:
    0
    Bonjour à tous,

    Je pense avoir plombé mon site, en fait je n'espère pas...
    Je vous explique, site qui a 3 mois d'existence. 400 pages environs. Sur ces 400 pages il y en a environs 300 dont ça fait 4 fois que je change leur title. Pensez-vous que cela puisse plomber mon site définitivement aux yeux de GG ?
    Merci :(
     
  2. herveG

    herveG WRInaute accro

    Inscrit:
    5 Mars 2003
    Messages:
    9 949
    J'aime reçus:
    0
    Salut,

    définitivement plombé, je ne le pense pas mais je pense que pour un nouveau site, il faut essayer d'avoir une continuité. Non pas dans le seul but de se protéger d'une hypothétique "susceptibilité" de google mais avant tout pour établir une bonne base d'analyse de l'effet Positionnement/visiteurs sur des termes stratégiquement définis. 3 mois, c'est vraiment peu pour un site et certainement trop court pour tirer des conclusions "définitives" qu'elles soient positives ou négatives d'ailleurs.
     
  3. aquaNico

    aquaNico Nouveau WRInaute

    Inscrit:
    12 Février 2013
    Messages:
    39
    J'aime reçus:
    0
    Je comprends parfaitement, en tout cas je risque de payer ces changements un bon bout de temps. Et si seulement il n'y avait que ça... Je suis passé de 180.000 pages sans contenus que j'avais créé dynamiquement pour que les gens y déposent des annonces. Google les a référencé, très vite à la lecture du forum je les ai desindexé comprenant la tragédie seotique qui s'annonçait, il n'y a que maintenant où google semble en retirer par paquet de plusieurs milliers par jours. Bref avec tout ça, c'est la déprime. Je ne pouvais pas plus mal commencer et je me demande si un jour ça sera oublié aux yeux de google :(
     
  4. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    Il aurait fallu les passer en no-index, pas forcement les virer (j'ai le même cas sur un site et si tu regarde les milliers de pages ville wiki sans contenu même pas en no-index ça énerve un peut plus)

    Essaie de te calmer sur les modifications faut vraiment prendre le temps. De même il est sage de faire des tests que sur 2/3 pages connues et tracés pour éviter les grosses modifs qui impactent tout le site d'un coup. Tu test, tu surveille et si c'est bon tu généralise.

    Mais bon te bile pas, 3 mois c'est une chiure de mouche si le site prend son envol se sera de toute façon avant la fin de la première années, le temps que le thème soit maitrisé par les moteurs et que ton linking naturel se mette en place. ça veux pas dire pour autant qu'il faut faire le fou en attendant.
     
  5. aquaNico

    aquaNico Nouveau WRInaute

    Inscrit:
    12 Février 2013
    Messages:
    39
    J'aime reçus:
    0
    Merci beaucoup,
    En gros là je ne fais plus de grosses modifs, et penser contenu, contenu, contenu.
    Étant donné que ça n'est pas un secteur hyper concurrentiel, je ne fais pas dans le rachat de crédit ou un blog seo :D, je vais me contenter de 2-3 BL dégueulasses uniquement par semaine (commentaire de blog, annuaire, CP hypocrite) car je n'ai pas d'autres choix étant donné qu'il y a pas beaucoup de sites dans ma thématique. Et je vais attendre. Merci en tout cas de relativiser un peu.
    J'avais commencé par les mettre en noindex mais après plus d'un mois rien n'avait bougé. On m'avait conseillé de les mettre en 404... :/
     
  6. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    C'est bizarre faudrait préciser le contexte qui a fait qu'on t'a répondu 404 car perso je préfère de loin désindexer une page (a priori utile pour l'utilisateur si elle permet de déposer une annonce mais pas pour le moteur (absence d'annonce)) que de générer une erreur qui si elles sont massives peuvent plomber le site ....
    De plus la prise en compte d'un no-index prend du temps car il faut que les pages soit re-crawlées et si elles sont marquées "peu intéressantes" ça peut prendre du temps ...
     
  7. aquaNico

    aquaNico Nouveau WRInaute

    Inscrit:
    12 Février 2013
    Messages:
    39
    J'aime reçus:
    0
  8. longo600

    longo600 WRInaute accro

    Inscrit:
    24 Février 2005
    Messages:
    2 543
    J'aime reçus:
    0
    Comme le dis @zeb, je confirme par experience qu'un simple NOINDEX sur les pages pauvres ou ne contenant que des liens suffit a faire remonter le site sans besoin d'effacer ni rediriger les pages.
     
  9. jolm

    jolm WRInaute occasionnel

    Inscrit:
    3 Septembre 2011
    Messages:
    287
    J'aime reçus:
    0
    @longo Est ce aussi efficace par le biais du fichier robot ? Au lieu de la meta noindex ? Et que se passe-t-il si le meta tag est en index follow mais qu'il y a interdiction dans robot, qui a le plus de poids donc ?
    thx :)
     
  10. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    tu mélange deux concepts qui ne conduiront pas au même résultat. Interdire la visite d'un bot (robots.txt) ne signifie pas que tu lui demande de ne pas indexer une page (no-index).