1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Robots.txt et site multilingue

Discussion dans 'Crawl et indexation Google, sitemaps' créé par Coubo, 1 Juin 2016.

  1. Coubo
    Coubo Nouveau WRInaute
    Inscrit:
    24 Mai 2016
    Messages:
    10
    J'aime reçus:
    0
    Bonjour WRI,

    J'ai une petite question concernant le robots.txt et la commande :

    Disallow: /*?

    Dans le cas d'un site multilingue qui gère les pages françaises avec ?lang=fr (la version anglaise ne demande pas de variable), est-ce pertinent de garder Disallow: /*? ?

    Merci d'avance,
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 861
    J'aime reçus:
    269
    J'ai du mal à comprendre ce que tu veux faire... Si tu laisses cette ligne, les URL des pages en français ne seront pas crawlées !
     
  3. Coubo
    Coubo Nouveau WRInaute
    Inscrit:
    24 Mai 2016
    Messages:
    10
    J'aime reçus:
    0
    Je suis bien d'accord sur ce point.

    Ma crainte est plutôt que certaines url avec des variables php un peu crade type ndd.fr/?pateencroute ou autre puissent l'être...
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 861
    J'aime reçus:
    269
    et alors ? si ces URL doivent être indexées, il faut bien qu'elles soient crawlées
    bref, je ne vois pas pourquoi mettre cette ligne
     
Chargement...
Similar Threads - Robots multilingue Forum Date
Robots.txt et site multilingue Référencement international (langues, pays) 11 Août 2009
Search Console un fichier robots.txt pour chaque protocole Débuter en référencement 15 Août 2019
Augmenter ses revenus au CPM avec des robots de trafic Monétisation d'un site web 6 Juillet 2019
Search Console bloquée par le fichier robots.txt Crawl et indexation Google, sitemaps 25 Juin 2019
Sites de test indexés malgré Disallow dans robots.txt Crawl et indexation Google, sitemaps 7 Juin 2019
Délai de prise en compte changement robots.txt plus long Crawl et indexation Google, sitemaps 18 Mai 2019
Search Console Passage de HTTP à HTTPS (Fichiers ROBOTS.TXT et SITEMAP) 0 Crawl et indexation Google, sitemaps 16 Mai 2019
WordPress robots.txt pour supprimer une page (duplicate content) Débuter en référencement 2 Mai 2019
Site non responsive, ressources bloquées robots.txt Crawl et indexation Google, sitemaps 15 Avril 2019
Question sur sitemap et robots.txt Crawl et indexation Google, sitemaps 8 Avril 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice