Problème avec la commande site:

Discussion dans 'Débuter en référencement' créé par tanaka, 14 Septembre 2011.

  1. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    Bonjour à tous,

    Je ne parviens pas à nettoyer mon index avec la commande site car je n'arrive pas à accéder à la liste des urls.
    Je m'explique, lorsque je tape site:www.example.com alors Google me dit qu'il y a 320 résultats (je n'ai que 80 pages sur mon site) et lorsque je clique sur la 10ème page alors Google me propose "relancer la recherche en incluant les pages ignorées." ce que je fais et lorsque je re-clique sur la 10ème page alors le résultat est que Google me propose plus que 9 pages et je n'ai que 2 urls à supprimer. Je ne sais pas si je suis suffisamment clair mais est-ce que quelqu'un aurait une idée ?

    Pour info : l'index est pollué par des urls avec des paramètres alors que j'ai paramétré dans GWT pour qu'aucune url avec paramètre ne soit indexée mais apparemment cela ne fonctionne pas.

    Merci d'avance pour vos réponses,
     
  2. Tigerfou
    Tigerfou WRInaute discret
    Inscrit:
    16 Juin 2011
    Messages:
    177
    J'aime reçus:
    0
    Bonsoir,

    Pas très clair, non :lol:

    Sinon pour tes URL avec paramètres, d'une part GWT est parfois long à la détente, mais en plus si ces URL sont des liens provenant d'autres sites, elles seront indexées à moins d'être redirigées en htaccess il me semble.

    Johann
     
  3. K-mi-k-z
    K-mi-k-z WRInaute discret
    Inscrit:
    26 Août 2011
    Messages:
    193
    J'aime reçus:
    0
    Moi, j'ai compris.

    Le coté j'annonce X page dans les SERP, mais j'en affiche que y, j'ai déjà vu aussi.

    Sinon, as tu renseigné les GWT avant que ses pages ne soient créée et indexées ?
    Si non, faut patienter.
    Si oui, tu a surement du faire une erreur en les déclarant.

    Maintenant, c'est peut-être GG qui n'est pas à jour entre son index et ce qu'il prétend est à déjà commencé à supprimer les URL "invalides".
    Dans ce cas, patiente et les dernières devraient disparaitre.
     
  4. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    Merci pour vos réponses,

    @K-mi-k-z : Qu'est ce que tu entends par "renseigné les GWT" ? si c'est du sitemap dont tu parles je l'ai ajouté bien après que mes pages soient indexées.
     
  5. K-mi-k-z
    K-mi-k-z WRInaute discret
    Inscrit:
    26 Août 2011
    Messages:
    193
    J'aime reçus:
    0
    Bah c'est toi qui le dis.
    Tu a paramétré quelque chose dans GWT pour empêcher leur indexation...
     
  6. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    Oui j'ai utilisé la nouvelle fonctionnalité "Paramètres d'URL" mais pour l'instant cela n'empêche pas les robots d'indexer des urls avec des paramètres. Je vais donc patienter, merci encore pour tes réponses.
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    20 823
    J'aime reçus:
    831
    en effet ces paramètres supplémentaires dans les URL provoquent des problèmes de doublons.
    la méthode du paramétrage dans GWT n'est pas connue pour être super efficace...
    si tu n'as pas besoin que les internautes puissent consulter les pages avec les paramètres supplémentaires dans les URL, alors redirige-les en 301
    sinon, ajoute une balise d'URL canonique

    avec tout ça tu devrais t'en sortir ;-)
     
  8. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    Le problème c'est que je ne connais pas les urls vu que la commande site ne me permet pas d'y accéder, je ne peux donc pas nettoyer mon index et je ne peux pas faire de redirection. De temps en temps j'arrive à avoir une dizaine d'url mais depuis quelques jours je suis bloqué à 254 pages alors que je n'ai que 80 pages. J'ai également l'impression que tout mes efforts de référencement sont pénalisés par ce problème. J'utilise déjà une balise d'url canonique mais les urls sont quand même indéxées.

    En tout cas merci pour ta réponse, je vais vérifier ces prochains jours si j'arrive à accéder à ces urls.
     
  9. Edwardshand
    Edwardshand WRInaute occasionnel
    Inscrit:
    20 Juillet 2007
    Messages:
    252
    J'aime reçus:
    0
    yahoo site explorer, non?
     
  10. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    Bonne idée ! malheureusement yahoo site explorer n'indexe que 22 de mes 80 pages. Je penses que mes urls en "erreur" sont dans l'index secondaire de Google et je penses qu'il y a quand même un impact sur le référencement.

    Merci pour l'idée
     
  11. tanaka
    tanaka Nouveau WRInaute
    Inscrit:
    1 Février 2011
    Messages:
    37
    J'aime reçus:
    0
    En fait je viens de m'apercevoir que les urls sont indexées alors qu'elles sont bloquées par un fichier robots.txt (Disallow: /*?* ).
    Est-ce que quelqu'un a déjà eut ce genre de problème, de plus j'ai des erreurs d'exploration dans les GWT (URL à accès restreint par un fichier robots.txt).

    Merci pour votre aide !
     
  12. Tigerfou
    Tigerfou WRInaute discret
    Inscrit:
    16 Juin 2011
    Messages:
    177
    J'aime reçus:
    0
    Le fichier robots.txt n'empêche pas l'indexation, il empêche seulement le crawl ce n'est pas pareil. S'il existe un lien vers la page elle sera indexée (mais le googlebot ne pourra pas la lire d'où le conflit avec le fichier robots signalé dans GWT), il faut mettre la balise meta robots de la page en question en noindex pour qu'elle ne soit pas indexée (et laisser en follow pour qu'elle transmette quand même du jus si elle a des liens sortants, à condition de la virer du fichier robots.txt bien sûr).

    Johann
     
Chargement...
Similar Threads - Problème commande Forum Date
Problème de classification sur Google (commande "related") Problèmes de référencement spécifiques à vos sites 3 Septembre 2018
Problème de panier abondoné et de panier non commandé e-commerce 4 Juin 2015
Problèmes sur la commande "site:URL" Crawl et indexation Google, sitemaps 18 Février 2014
Problème des commandes remontées en suivi analytique Google Analytics 26 Septembre 2012
problème de résultat avec la commande link:http://monsite.com sur google Crawl et indexation Google, sitemaps 16 Mars 2011
urgent qui a déja eu ce problème? recap commande introuvable Administration d'un site Web 1 Mars 2011
Probleme suite a une commande sur un site Droit du web (juridique, fiscalité...) 22 Février 2011
Problème référencement d'articles et commande site: sur Google Débuter en référencement 4 Septembre 2010
Problème de suivi du trafic ainsi que des commandes généré grâce à une campagne adwords AdWords 6 Août 2009
Problème avec la commande link de Yahoo Netlinking, backlinks, liens et redirections 6 Février 2009
probleme avec commande mail() depuis ssh Administration d'un site Web 11 Décembre 2007
Peu de commandes depuis 3 mois, voyez-vous un problème ? Demandes d'avis et de conseils sur vos sites 7 Septembre 2007
Gros problème commande cache: Crawl et indexation Google, sitemaps 9 Juillet 2007
probléme au niveau de bouton de commande Administration d'un site Web 28 Janvier 2005
Gros problème sur la profondeur de mes pages Problèmes de référencement spécifiques à vos sites Vendredi à 09:06
Problème de htaccess chez Ionos URL Rewriting et .htaccess 12 Septembre 2022
Problème sur jquery avec fonction asynchrone Développement d'un site Web ou d'une appli mobile 6 Septembre 2022
Problème de crawl et d'indexation Crawl et indexation Google, sitemaps 1 Septembre 2022
WordPress Problème affichage style avec Elementor (titre, bordures, separateur) Administration d'un site Web 8 Août 2022
Problème d'indexation de backlinks Débuter en référencement 24 Juillet 2022