Bonjour,
Je reprends un site sur lequel pour une même page on peut avoir une multitude d'url.
Ex. :
http://www.nomdedomaine.com/list.php?path=197&sort=Prix&page=30
Alors que :
http://www.nomdedomaine.com/list.php?path=197
suffit (pour le ref).
Bien sûr j'utilise les paramètres d'url fournis par la console Google. Mais cette technique est beaucoup plus longue qu'avec un fichier robots.txt.
Est-ce quelqu'un saurait me dire avec certitude comment demander à google, par le biais d'un fichier robot, ne pas prendre en compte toutes les urls dont l'extension va au delà de "?path=id, en gros toutes ces formes là :
http://www.nomdedomaine.com/list.php?path=197&sort=Prix&page=30
Mais en étant certain qu'il n'ignore pas du coup les bonnes urls simplifiées de cette forme ci :
http://www.nomdedomaine.com/list.php?path=197
Merci pour vos réponses
Je reprends un site sur lequel pour une même page on peut avoir une multitude d'url.
Ex. :
http://www.nomdedomaine.com/list.php?path=197&sort=Prix&page=30
Alors que :
http://www.nomdedomaine.com/list.php?path=197
suffit (pour le ref).
Bien sûr j'utilise les paramètres d'url fournis par la console Google. Mais cette technique est beaucoup plus longue qu'avec un fichier robots.txt.
Est-ce quelqu'un saurait me dire avec certitude comment demander à google, par le biais d'un fichier robot, ne pas prendre en compte toutes les urls dont l'extension va au delà de "?path=id, en gros toutes ces formes là :
http://www.nomdedomaine.com/list.php?path=197&sort=Prix&page=30
Mais en étant certain qu'il n'ignore pas du coup les bonnes urls simplifiées de cette forme ci :
http://www.nomdedomaine.com/list.php?path=197
Merci pour vos réponses