Au secours ! Robots.txt

Discussion dans 'Débuter en référencement' créé par dregcla, 10 Novembre 2014.

  1. dregcla
    dregcla Nouveau WRInaute
    Inscrit:
    8 Mars 2006
    Messages:
    6
    J'aime reçus:
    0
    Bonsoir,

    Voici mon robots.txt :


    User-agent: *

    Sitemap: http://www.aair-parachutisme.fr/sitemap.xml



    Est-il bon de proposer directement mon sitemap dans mon fichier robots comme ci-dessus aux robots ou vaut-il mieux ne rien mettre soit unique : User-agent: *

    Merci pour votre avis
     
  2. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 109
    J'aime reçus:
    276
  3. Fabric
    Fabric Nouveau WRInaute
    Inscrit:
    15 Juin 2011
    Messages:
    3
    J'aime reçus:
    0
    Bonjour à tous et merci par avance pour vos réponses,

    J'ai appris récemment que l'on pouvait filtrer des urls/pages via le robot.txt.
    Pour moi, le robots.txt ne servait qu'à autoriser ou interdire l'accès à des répertoires. Le reste se gérant via le code source de la page, le htaccess pour les redirections et le GWT.
    Ma question est quel intérêt de vouloir filtrer les urls contenant les paramètres de tracking (utm_source, utm_medium,utm_campaign) via un le robots.txt ?
    c'est ce que je constate actuellement chez un client et j'ai du mal à comprendre l'objectif.

    Merci par avance pour vos retours.
     
  4. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 109
    J'aime reçus:
    276
    Bonjour,

    Ils souhaitent ainsi éviter l'indexation des pages avec le tracking.
    Un peu comme l'exemple suivant : forum.webrankinfo.com/probleme-fichier-robots-txt-t176760.html .
    Vous pouvez aussi présenter l'URL du site pour d'autres avis.

    Vous pouvez aussi présenter vos avis en tant qu'utilisateur des sites : Demandes d'avis et de conseils
    pour vous aussi aider la communauté d'entraide du forum.

    Cordialement.
     
  5. Fabric
    Fabric Nouveau WRInaute
    Inscrit:
    15 Juin 2011
    Messages:
    3
    J'aime reçus:
    0
    Bonjour,

    Merci pour votre réponse.
    Oui j'avais compris que le but était d'empêcher l'indexation des url's trackées mais justement quel est l'intérêt ? puisque les paramètres de tracking ne sont pas pris en compte par Google pour le calcul du duplicate content ?

    Cordialement
     
  6. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 109
    J'aime reçus:
    276
    Bonjour,

    Vous pouvez mieux expliquer la question pour mieux comprendre.

    Cordialement.
     
Chargement...
Similar Threads - secours Robots Forum Date
Différence d'attribution de visites SEO ? au secours Google Analytics 23 Septembre 2015
Redirection, changement de serveur, pénalité. Au secours. Netlinking, backlinks, liens et redirections 8 Janvier 2015
Débutante au secours !!! Débuter en référencement 6 Novembre 2014
WWW.FORMATION SECOURS 33 Demandes d'avis et de conseils sur vos sites 31 Août 2014
Google se met à indexer mes sites "alias" malgré des redirections 301 ! Au secours Crawl et indexation Google, sitemaps 20 Mai 2014
Google le futur au secours : intelligence artificielle, transhumanisme Référencement Google 9 Février 2014
Au secours : gros gain de position sur google Problèmes de référencement spécifiques à vos sites 6 Septembre 2013
Au secours : subite perte de position sur google Problèmes de référencement spécifiques à vos sites 4 Septembre 2013
Au secours, mon site régresse énormément Problèmes de référencement spécifiques à vos sites 26 Mars 2013
Au secours ! mon site a disparu de Google, que faire ? Problèmes de référencement spécifiques à vos sites 22 Mars 2013
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice