fichier robots.txt bloquer paramètre p=

Discussion dans 'Crawl et indexation Google, sitemaps' créé par soufiene.zidi, 4 Septembre 2018.

  1. soufiene.zidi
    soufiene.zidi Nouveau WRInaute
    Inscrit:
    21 Novembre 2016
    Messages:
    6
    J'aime reçus:
    0
    bonjour
    quelqu’un peut aider pour ajouter un variable au fichier robots.txt pour
    bloquer affichage des (?p=3 ?p=4 ?p=5 ?p=6 ....) exemple d'un lien (/18-jeux-ps3?p=2 dans les moteurs de recherche
    es ce que il y a un risque d'avoir un régression au niveau des postions (Référencement )
    puisque mes principales catégories sont bien classées avec des lien comme les suivants :
    /18-jeux-ps3?p=1
    /18-jeux-ps3?p=4
    /18-jeux-ps3?p=5
    /18-jeux-ps3?p=3

    merci davance
     
    #1 soufiene.zidi, 4 Septembre 2018
    Dernière édition par un modérateur: 4 Septembre 2018
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 062
    J'aime reçus:
    329
    le robots.txt ne sert pas à bloquer l'affichage mais le crawl
    je te déconseille de bloquer le crawl de la pagination (URL avec p=xxx)
    vérifie que tu as bien des balises link rel=next et rel=prev
     
  3. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 874
    J'aime reçus:
    72
    Et que la canonical est correctement gérée.
     
  4. CAMEO172
    CAMEO172 WRInaute discret
    Inscrit:
    5 Mars 2012
    Messages:
    156
    J'aime reçus:
    14
    Et à la limite un noindex sur ces pages !
     
  5. dossp
    dossp Nouveau WRInaute
    Inscrit:
    16 Juillet 2018
    Messages:
    20
    J'aime reçus:
    0
    noindex / follow c'est parfait oui avec les balises rel=next et rel=prev
    Garde bien la canonical avec la page p=.
    Tu peux aussi ajouter Page X sur les META Title et Description pour éviter le duplicate
     
Chargement...
Similar Threads - fichier robots bloquer Forum Date
Bloquer une section dans mon fichier robots.txt Débuter en référencement 9 Novembre 2018
Aide sur le format de mon fichier robots.txt Crawl et indexation Google, sitemaps 25 Octobre 2019
Page de test et fichier Robots.txt Crawl et indexation Google, sitemaps 9 Octobre 2019
Search Console un fichier robots.txt pour chaque protocole Débuter en référencement 15 Août 2019
Search Console bloquée par le fichier robots.txt Crawl et indexation Google, sitemaps 25 Juin 2019
Search Console Passage de HTTP à HTTPS (Fichiers ROBOTS.TXT et SITEMAP) 0 Crawl et indexation Google, sitemaps 16 Mai 2019
"Indexée malgré le blocage par le fichier robots.txt" Que faire si ce message ? Crawl et indexation Google, sitemaps 12 Février 2019
noindex fr-fr dans fichier robots.txt avec translatepress Référencement international (langues, pays) 18 Décembre 2018
Indexée malgré le blocage par le fichier robots.txt Débuter en référencement 5 Décembre 2018
Mon site est bloqué par le fichier robots.txt Crawl et indexation Google, sitemaps 12 Septembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice