Au secours ! Robots.txt

Nouveau WRInaute
Bonjour à tous et merci par avance pour vos réponses,

J'ai appris récemment que l'on pouvait filtrer des urls/pages via le robot.txt.
Pour moi, le robots.txt ne servait qu'à autoriser ou interdire l'accès à des répertoires. Le reste se gérant via le code source de la page, le htaccess pour les redirections et le GWT.
Ma question est quel intérêt de vouloir filtrer les urls contenant les paramètres de tracking (utm_source, utm_medium,utm_campaign) via un le robots.txt ?
c'est ce que je constate actuellement chez un client et j'ai du mal à comprendre l'objectif.

Merci par avance pour vos retours.
 
Membre Honoré
Bonjour,

Ils souhaitent ainsi éviter l'indexation des pages avec le tracking.
Un peu comme l'exemple suivant : forum.webrankinfo.com/probleme-fichier-robots-txt-t176760.html .
Vous pouvez aussi présenter l'URL du site pour d'autres avis.

Vous pouvez aussi présenter vos avis en tant qu'utilisateur des sites : Demandes d'avis et de conseils
pour vous aussi aider la communauté d'entraide du forum.

Cordialement.
 
Nouveau WRInaute
Bonjour,

Merci pour votre réponse.
Oui j'avais compris que le but était d'empêcher l'indexation des url's trackées mais justement quel est l'intérêt ? puisque les paramètres de tracking ne sont pas pris en compte par Google pour le calcul du duplicate content ?

Cordialement
 
Discussions similaires
Haut