fichier robots.txt bloquer paramètre p=

Discussion dans 'Crawl et indexation Google, sitemaps' créé par soufiene.zidi, 4 Septembre 2018.

  1. soufiene.zidi
    soufiene.zidi Nouveau WRInaute
    Inscrit:
    21 Novembre 2016
    Messages:
    6
    J'aime reçus:
    0
    bonjour
    quelqu’un peut aider pour ajouter un variable au fichier robots.txt pour
    bloquer affichage des (?p=3 ?p=4 ?p=5 ?p=6 ....) exemple d'un lien (/18-jeux-ps3?p=2 dans les moteurs de recherche
    es ce que il y a un risque d'avoir un régression au niveau des postions (Référencement )
    puisque mes principales catégories sont bien classées avec des lien comme les suivants :
    /18-jeux-ps3?p=1
    /18-jeux-ps3?p=4
    /18-jeux-ps3?p=5
    /18-jeux-ps3?p=3

    merci davance
     
    #1 soufiene.zidi, 4 Septembre 2018
    Dernière édition par un modérateur: 4 Septembre 2018
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    20 467
    J'aime reçus:
    675
    le robots.txt ne sert pas à bloquer l'affichage mais le crawl
    je te déconseille de bloquer le crawl de la pagination (URL avec p=xxx)
    vérifie que tu as bien des balises link rel=next et rel=prev
     
  3. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 892
    J'aime reçus:
    84
    Et que la canonical est correctement gérée.
     
  4. CAMEO172
    CAMEO172 WRInaute discret
    Inscrit:
    5 Mars 2012
    Messages:
    152
    J'aime reçus:
    15
    Et à la limite un noindex sur ces pages !
     
  5. dossp
    dossp Nouveau WRInaute
    Inscrit:
    16 Juillet 2018
    Messages:
    20
    J'aime reçus:
    0
    noindex / follow c'est parfait oui avec les balises rel=next et rel=prev
    Garde bien la canonical avec la page p=.
    Tu peux aussi ajouter Page X sur les META Title et Description pour éviter le duplicate
     
Chargement...
Similar Threads - fichier robots bloquer Forum Date
Bloquer une section dans mon fichier robots.txt Débuter en référencement 9 Novembre 2018
Probleme avec fichier robots.txt fichier bloquer Crawl et indexation Google, sitemaps 4 Septembre 2007
Search Console Prestashop | Robot.txt bloque des URL mais Outil de test du fichier robots.txt l'Authorise... Crawl et indexation Google, sitemaps 21 Novembre 2019
Aide sur le format de mon fichier robots.txt Crawl et indexation Google, sitemaps 25 Octobre 2019
Page de test et fichier Robots.txt Crawl et indexation Google, sitemaps 9 Octobre 2019
Search Console un fichier robots.txt pour chaque protocole Débuter en référencement 15 Août 2019
Search Console bloquée par le fichier robots.txt Crawl et indexation Google, sitemaps 25 Juin 2019
Search Console Passage de HTTP à HTTPS (Fichiers ROBOTS.TXT et SITEMAP) 0 Crawl et indexation Google, sitemaps 16 Mai 2019
"Indexée malgré le blocage par le fichier robots.txt" Que faire si ce message ? Crawl et indexation Google, sitemaps 12 Février 2019
noindex fr-fr dans fichier robots.txt avec translatepress Référencement international (langues, pays) 18 Décembre 2018
Indexée malgré le blocage par le fichier robots.txt Débuter en référencement 5 Décembre 2018
Mon site est bloqué par le fichier robots.txt Crawl et indexation Google, sitemaps 12 Septembre 2018
Où puis-je configurer le fichier robots.txt et le htaccess ? Débuter en référencement 10 Avril 2018
Résolu Toutes les URL bloquées par le fichier robots.txt Crawl et indexation Google, sitemaps 28 Mars 2018
Prise en compte du fichier robots.txt Crawl et indexation Google, sitemaps 22 Avril 2017
Mon fichier robots.txt wordpress Développement d'un site Web ou d'une appli mobile 24 Octobre 2016
Ne pas indexer une page avec le fichier robots.txt Débuter en référencement 20 Juillet 2016
Page panier indexée plusieurs fois (duplicate content) ainsi que robots.txt et fichier map Crawl et indexation Google, sitemaps 17 Mars 2016
La description de ce résultat n'est pas accessible à cause du fichier robots.txt Crawl et indexation Google, sitemaps 31 Juillet 2015
[Robots.txt] Réindéxer un site suite à une erreur dans le fichier robots.txt Crawl et indexation Google, sitemaps 23 Janvier 2015