Demander la désindexation de 5000 url d'un seul coup, plutôt qu'une par une ?

Nouveau WRInaute
Bonjour à tous,

Je viens de mettre en ligne une nouvelle version de site.
L'ancien site comprenait de très nombreuses url du type mondomaine.com/index.php?qsdkjdfhkhf...
Ces url apparaissent évidemment maintenant comme pages introuvables dans les webmaster tools.

J'ai lu que l'on pouvait mettre un disalow /*? dans le robot.txt pour demander leur suppression.
Est-ce que cette pratique vous parait propre ?
Comporte-elle des risques pour le nouveau site sachant qu'il exploite la réécritures d'url qui apparaissent donc en clair ?
Il y a t-il une autre méthode ?

J'ai cherché un peu partout sans trouver de réponse.
Je ne suis pas du tout un spécialiste du référencement, merci infiniment pour vos conseils.
 
WRInaute accro
Il vaut mieux en rediriger un maximum plutôt que de désindexer. Parce que s'il s'agit de pages qui généraient du trafic, en les désindexant tu ne récupéreras rien.
 
Nouveau WRInaute
Merci UsagiYojimbo
Je ne comprend pas bien ta réponse, comment dois-je procéder pour faire ces redirections ?
Mon site est basé sur Prestashop avec le paramètre Rediriger vers l'URL canonique à 301 déplacé définitivement.
Merci pour ton aide
 
WRInaute accro
La manière la plus simple est de passer par le .htaccess et de rajouter des règles de redirection pour ça. Il y a énormément de littérature sur le sujet dans le forum, notamment ici : https://www.webrankinfo.com/forum/f/url-rewriting-et-htaccess.12/.

Mais à mon sens, vu le volume de redirection qui vont être à mettre en place, je me baserais plus sur un système de redirection basé sur une table de correspondance entre ancienne et nouvelle url dans la base de donnée. A priori il y a des modules pour cela sur Prestashop : http://addons.prestashop.com/fr/referencement-seo-modules-prestashop/1 ... s-seo.html (mais je n'ai jamais utilisé le module, d'autres pourront sans doute te renseigner là-dessus).
 
Nouveau WRInaute
Bonjour à tous,
Merci UsagiYojimbo pour cette réponse, mais ne me sens pas plus avancé...
J'ai lu et tenté de comprendre toutes les infos que vous m'avez proposé et notamment celles-ci : https://www.webrankinfo.com/dossiers/strategies-de-liens/tutoriel-redirections#redirection-301
mais aucune ne me semble correspondre à mon problème :
Dans le paragraphe Redirection serveur :
- Il est expliqué que pour chaque page déplacées, il faut ajouter en tête du code les lignes de redirection, mais dans mon cas, les anciennes pages n'existent plus. Donc pas moyen de leur ajouter quoi que ce soit...
- Il est expliqué aussi que l'on peut ajouter les redirections dans le htaccess, mais pour une ancienne page précise vers un nouvelle précise. Je vois bien la logique mais j'ai aujourd'hui plus de 10 000 URL introuvables dans Google webmaster tools, c'est ingérable...
Il doit y avoir quelque chose qui m'échappe ?
Je retourne ce sujet depuis plusieurs semaines, je ne dois pas être le seul à avoir réalisé une nouvelle version de sa boutique.
Merci à vous pour votre patience et votre aide.
 
WRInaute accro
Une règle de redirection n'est pas forcée de concerner une seule url. Il y a sans doute des regroupement possibles dans les erreurs que vous avez sur GWT. Ce n'est de toute manière pas ingérable, c'est juste long (mais nécessaire).
 
Nouveau WRInaute
Merci
Je comprend bien qu'idéalement il faudrait que je puisse faire correspondre les URL des anciennes pages de produits aux nouvelles. Comme il y avait plus de 2000 produits dans la boutique, plus d'une centaine de fabricants donc ça fait un paquet de pages. Il y a aujourd'hui sur le nouveau site 600 produits et autant de fabricants.
Voulez-vous dire que je pourrais tenter de spécifier dans le htaccess, que toute les url commençant par :
Code:
http://www.mondomaine.com/product_info.php?manufacturers
sont redirigées sur :
Code:
http://www.mondomaine.com/fabricants
Cela avec l'aide d'expressions génériques dans le htaccess ?
Et ainsi, de ne traiter que des grandes familles de page ?
Merci encore
 
WRInaute discret
pierrewebaster a dit:
J'ai lu que l'on pouvait mettre un disalow /*? dans le robot.txt pour demander leur suppression.

Cette consigne dans le robots.txt va seulement empêcher Google de repasser sur ces pages déja indexées. Elles resteront indexées.

Pour désindexer ces pages, tu veux leur appliquer la balise <meta name="robots" content="noindex"/>

Regarde ce sujet récent où j'ai eu le problème (et la solution fonctionne).

(Evidemment, Google doit repasser sur ces pages pour les désindexer. Donc ne pas bloquer leur exploration le temps de la désindexation, mais le faire après)
 
WRInaute impliqué
pierrewebaster a dit:
Cela avec l'aide d'expressions génériques dans le htaccess ?
Et ainsi, de ne traiter que des grandes familles de page ?

c'est l'idée, après il faut avoir une vue d'ensemble des anciennes et nouvelles urls pour savoir si l'on peut faire mieux que une à une.
 
WRInaute accro
Pour tes fabricants qui ne sont plus au catalogue, les rediriger vers un fabriquant proposant des produits équivalent, ou vers une page fabricant principale est en effet une solution. Mais pour ceux qui existent encore, il est crucial de les rediriger vers la nouvelle page.
 
Discussions similaires
Haut