Comment configurer les paramètres d'URL dans Google Webmaster Tools

Discussion dans 'Crawl et indexation Google, sitemaps' créé par WebRankInfo, 22 Juillet 2011.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 576
    J'aime reçus:
    421
    Google ayant fortement fait évoluer son outil de configuration des paramètres d'URL (dans Google Webmaster Tools), j'ai mis à jour mon article datant de 2009 pour en faire un tutoriel complet. J'espère qu'il vous plaira ! Dites-moi comment je peux l'améliorer si besoin.

    Ca fait un paquet de possibilités, vous verrez. Pour ceux qui voient bien toutes les implications de ces paramétrages, c'est top. Mais ça peut aussi mener à des problèmes en cas de mauvaise config...
     
  2. nza2k
    nza2k WRInaute impliqué
    Inscrit:
    16 Janvier 2004
    Messages:
    898
    J'aime reçus:
    2
    Merci pour ce tutoriel Olivier.

    Existe-t-il une façon de voir des exemples d'url surveillées ? Est-ce qu'une url surveillée signifie que Google crawl régulièrement cette url ?

    Je m'explique : j'utilise le fichier robots.txt ou la balise meta robots pour interdire l'indexation d'url dupliquées à cause de paramètres de tri ou ce genre de chose. Effectivement, ces pages sont introuvables sur Google avec les requêtes du genre site:monsite.com inurl:paramètre.

    Par contre, je viens de découvrir dans GWT qu'il y a des centaines de milliers d'url "surveillées" avec des paramètres que je pensais avoir exclu...
     
  3. Heroes69
    Heroes69 WRInaute discret
    Inscrit:
    23 Mars 2010
    Messages:
    211
    J'aime reçus:
    0
    Merci beaucoup ! Est ce qu'il serait possible d'avoir une aide pour Wordpress et phpbb ?
     
  4. CaroZ
    CaroZ Nouveau WRInaute
    Inscrit:
    28 Juillet 2011
    Messages:
    1
    J'aime reçus:
    0
    Bonjour,

    En bonne élève, j'ai lu le tuto, ai atterri ici puisque j'étais toujours perdue ... et le suis encore !

    Ma question concrète : comment dois - je paramétrer ces éléments ? Quels sont ceux à modifier et ceux à laisser tels quels ? Il s'agit dans mon cas d'une boutique prestashop.

    Merci !
     
  5. leroile
    leroile WRInaute discret
    Inscrit:
    6 Février 2009
    Messages:
    193
    J'aime reçus:
    1
    Merci beaucoup...
     
  6. MatthieuH
    MatthieuH Nouveau WRInaute
    Inscrit:
    2 Septembre 2011
    Messages:
    3
    J'aime reçus:
    0
    Quand google parle du contenu de la page, il s'agit des H1, meta descriptions,... ? Ou vraiment le contenu?
    Par exemple, prenons une page qui affiche 9 produits. Si on modifie le nombre de produits par page, en affichant tous les produits sur la même page, est-ce qu'on considère que le contenu est différent ?

    Doit-on laisser Google explorer toutes les pages ou une seule ?

    En espérant avoir été claire, c'est difficile à expliquer.

    Merci d'avance.
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 576
    J'aime reçus:
    421
    D'une manière générale, le contenu d'une page c'est tout ce que l'internaute peut voir : du texte, des images, des vidéos, des liens, etc.
    Pour le référencement, il est important de comprendre ce qu'on pourrait appeler la zone utile d'une page : c'est la partie qui change d'une page à l'autre. Le reste de la page étant les menus, les barres latérales et le pied de page. Google se concentre surtout sur cette zone utile.

    Pour tes pages listings de produits, si tu passes de 9 à 18 produits, le contenu sera effectivement différent. Cela étant, pour ce type de page, il faut faire attention à avoir un peu plus que seulement le listing des produits (il faut un titre spécifique et un descriptif).

    Bienvenue sur WRI au passage ;-)
     
  8. leroile
    leroile WRInaute discret
    Inscrit:
    6 Février 2009
    Messages:
    193
    J'aime reçus:
    1
    Merci pour tous le travail fourni, enfin pu gérer les langues...
     
  9. MatthieuH
    MatthieuH Nouveau WRInaute
    Inscrit:
    2 Septembre 2011
    Messages:
    3
    J'aime reçus:
    0
    Merci.
    Justement, cette zone utile est différente juste par le nombre de produits affichés. Le titre de la page, le petit texte présentant les produits de la page,etc reste le même qu'il y ait 9 ou 18 produits.
    On peut donc dire que le contenu de la page est modifié, réorganisé ou restreint si je ne me trompes pas ?
    Dans ce cas, Googlebot doit explorer toutes les pages ou aucunes selon vous ?

    Et même question pour la pagination. Le contenu change lorsqu'on change de page (les produits ne sont pas les mêmes, mais le titre et description de la page est le même que sur les autres pages ) ; Le contenu est également je pense modifié, réorganisé ou restreint, mais faut-il que GoogleBot explore toutes les URL ou aucunes ?

    Merci pour vos infos sur ce forum, il m'est très utiles;)
     
  10. MatthieuH
    MatthieuH Nouveau WRInaute
    Inscrit:
    2 Septembre 2011
    Messages:
    3
    J'aime reçus:
    0
  11. sofybj
    sofybj WRInaute discret
    Inscrit:
    4 Mars 2006
    Messages:
    177
    J'aime reçus:
    5
    Bonjour,
    depuis deux jours, je ne peux plus modifier les paramètre d'url ? sur tous mes sites ?
    vous aussi ?
     
  12. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 576
    J'aime reçus:
    421
    oui, c'est un bug dont on parle depuis quelques jours
     
  13. sofybj
    sofybj WRInaute discret
    Inscrit:
    4 Mars 2006
    Messages:
    177
    J'aime reçus:
    5
  14. LoSEO
    LoSEO Nouveau WRInaute
    Inscrit:
    24 Mars 2014
    Messages:
    2
    J'aime reçus:
    0
    Bonjour la communauté WRI,

    Désolé de déterrer ce topic mais il est celui qui correspond le plus à la question que je me pose !

    J'administre un site ecommerce sous magento, avec des urls distinctes pour les produits/catégories (exemple category/brand/item1.html), mais avec des pages de listing au niveau des catégorie qui utilisent une navigation à filtres (paramètres d'url type : /categorie1.html?brand=&price=&color=&tri=&p= etc.)

    Niveau duplicate content j'ai réglé ce soucis avec la mise en place d'url canonique, par contre au niveau des webmaster tools j'ai souvent des messages d'alertes comme quoi "Le nombre d'URL détectées par Googlebot est extrêmement élevé"
    En effet il surveille jusqu'a 4M d'url sur certains paramètres...

    Niveau indexation je n'ai pas de soucis, Google gère très bien et j'ai surveillé, aucune présence d'annonce dans les SERPs avec les paramètres. Par contre je me suis dis qu'il serait intéressant de régler ce soucis histoire d'améliorer la crawlabilité de mon site.

    J'ai potassé à droite à gauche pour comprendre le fonctionnement et je viens vers vous pour quelques avis :

    - Je compte passer les paramètres d'urls de type price/color/brand en restrictif-> aucune url, tri en tri-> aucune url, p en pagination -> toutes les urls. Jusque-là cela vous semble t'il correct ? ^^

    Je sais que je vais en me compliquant la vie à vouloir régler ce soucis, que je devrais laisser en "Laisser Googlebot décider", mais j'ai vraiment envie de comprendre ce point afin de m'améliorer quoi !

    Je vous remercie d'avance de votre aide :)
     
  15. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 576
    J'aime reçus:
    421
    Bienvenu sur WRI !

    en effet, même si l'indexation semble correcte, le crawl est moins efficace avec ta situation actuelle.

    la plupart des retours d'expérience que j'ai pu obtenir m'ont montré qu'il valait mieux régler ce pb en amont, sur le site, plutôt que par un réglage qui ne serait d'ailleurs que Googlebot (alors que tous les moteurs sont concernés)

    essaie de bloquer le crawl via le fichier robots.txt
     
  16. LoSEO
    LoSEO Nouveau WRInaute
    Inscrit:
    24 Mars 2014
    Messages:
    2
    J'aime reçus:
    0
    Merci de ton conseil,

    Je vais m'occuper de tout ça :)
     
  17. ManRanking
    ManRanking WRInaute discret
    Inscrit:
    8 Février 2020
    Messages:
    50
    J'aime reçus:
    2
    Bonjour,

    Merci pour ton article sur les paramètres URL. J'essaie d'utiliser ce paramètre, mais je trouve que les descriptions données par Google sont pas claires du tout !

    Ma situation : J'ai énormément de pages dynamiques (via les "produits suggérés") qui sont toutes crawlées.

    J'insiste auprès de Shopify pour qu'ils créent une règle sur le fichier robots.txt, mais c'est pas gagné.

    Je suis donc allé sur la search pour demander de ne pas crawler ces pages qui ont des caractères communs (ex: rec_pid). Deux éléments me font douter sur le bon fondé de ma démarche
    • Si je choisis "contenu de page non modifié" (qui correspond à mon cas), il est écrit : "Si plusieurs URL ne diffèrent que par ce paramètre, Googlebot n'en explorera qu'une seule (URL représentative).". Ça ne risque pas de prendre une de ces URLs en représentative et exclure l'URL canonique (ce qui serait juste la cata)?
    • Si je choisie "contenu de page modifié/réorganisé/restreint" (qui n'est pas le cas) et "aucune URL", la description semble pourtant bien plus correspondre ! "Aucune URL : utilisez cette option pour indiquer à Google de ne pas explorer les URL qui contiennent un paramètre spécifique. Google n'explorera aucune URL contenant le paramètre spécifié. Ainsi, vous pouvez indiquer à Google de ne pas explorer les URL avec des paramètres comme pricefrom et priceto (...)"
    Bref je comprends que la meilleure option comme tu l'as indiqué plus haut est de modifier le fichier robots.txt, mais si pas possible, faut que je fasse au mieux via la search..
     
    #17 ManRanking, 13 Mars 2020
    Dernière édition par un modérateur: 13 Mars 2020
  18. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 576
    J'aime reçus:
    421
    Joli déterrage d'un sujet de 9 ans...

    Sur Shopify tu ne peux rien modifier du fichier robots.txt ?

    Montre-nous qq exemples d'URL concernées
     
  19. ManRanking
    ManRanking WRInaute discret
    Inscrit:
    8 Février 2020
    Messages:
    50
    J'aime reçus:
    2
    Héhé j'avoue, mais il n'y a que dans votre article et cette discussion qu'on trouve ce sujet

    exemple d'une URL canonique : ICI
    et une de ses nombreuses URLs générée en ouvrant le produit suggéré : LA
     
  20. WebFgood
    WebFgood Nouveau WRInaute
    Inscrit:
    14 Octobre 2019
    Messages:
    5
    J'aime reçus:
    1
    Pas possible le edit du robots.txt dans Shopify, mais verifiez si vous reussisez avec cela dans le head du theme.liquid (en changeant le "parameterA")

    {% if template contains 'parameterA' %}
    <meta name="robots" content="noindex">
    {% endif %}
     
  21. ManRanking
    ManRanking WRInaute discret
    Inscrit:
    8 Février 2020
    Messages:
    50
    J'aime reçus:
    2
    Bonjour, merci oui j'ai fait cela depuis quelques temps, mais ça n'a aucun effet.
    apparemment (d'après un des posts d'Olivier sur un autre sujet), il faut au préalable désindexer ces pages.. du coup désindexer les URLs canoniques je suppose (?)
     
Chargement...
Similar Threads - configurer paramètres Google Forum Date
SEOQUAKE : configurer les paramètres pour Google France Administration d'un site Web 14 Janvier 2012
Comment configurer Site Search dans Google Analytics ? Google Analytics 16 Mai 2019
Besoin d'aide pour configurer mon htaccess URL Rewriting et .htaccess 24 Octobre 2018
Configurer son serveur http2 Administration d'un site Web 26 Septembre 2018
Configurer le script Tarteaucitron pour Facebook commentaires Développement d'un site Web ou d'une appli mobile 28 Avril 2018
Où puis-je configurer le fichier robots.txt et le htaccess ? Débuter en référencement 10 Avril 2018
Configurer Paypal IPN e-commerce 22 Janvier 2016
configurer nginx /usr/share/nginx Administration d'un site Web 16 Décembre 2015
Comment configurer postfixadmin avec dovecot sous Debian Jessie ? Administration d'un site Web 13 Juillet 2015
Problème pour configurer un virtualhost avec dernière version de Easyphp Développement d'un site Web ou d'une appli mobile 17 Mai 2014
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice