Bonjour,
deux questions :
1) je voudrais éviter que googlebot n'indexe les pages avec des paramètres, uniquement sur l'index du site, exemple : /index.php?random=5454&nump=255
j'ai mis dans mon robots.txt les valeurs suivantes :
mais googlebot ne semble pas en avoir tenu compte. Est-ce que la syntaxe que j'utilise est correcte pour ce que je veux faire ? Quelle est le délais de prise en compte de robots.txt par googlebot ? À quelle fréquence googlebot lit ce fichier ? Avant chaque crawl ?
2) j'ai des erreurs de validation HTML en utilisant le validator HTML de w3.org , mais pour moi, ce ne sont pas vraiement des erreurs, puisque ce validator essaie de valider du code HTML intégré dans du code Javascript. Y-a-t-il une solution pour valider le code malgré tout ?
L'adresse de mon site se trouve en référence sur mon profil.
Merci de votre aide et bonne chance à tous en référencement,
Stéphane
deux questions :
1) je voudrais éviter que googlebot n'indexe les pages avec des paramètres, uniquement sur l'index du site, exemple : /index.php?random=5454&nump=255
j'ai mis dans mon robots.txt les valeurs suivantes :
Code:
User-agent: googlebot
Disallow: /?
Disallow: /index.php?
2) j'ai des erreurs de validation HTML en utilisant le validator HTML de w3.org , mais pour moi, ce ne sont pas vraiement des erreurs, puisque ce validator essaie de valider du code HTML intégré dans du code Javascript. Y-a-t-il une solution pour valider le code malgré tout ?
L'adresse de mon site se trouve en référence sur mon profil.
Merci de votre aide et bonne chance à tous en référencement,
Stéphane