Doit-on ré-indexer un site si les pages n'existent plus ?

Nouveau WRInaute
Bonjour, c'est ma première fois ici. On m'a recommandé votre site. J'ai hâte de voir si vous allez pouvoir m'aider un peu.

Voilà, je suis Webmaster de plusieurs sites, qui appartiennent à la même compagnie (segments d'affaire).

L'environnement est Ibm Domino - Lotus Notes

Chaque nom de domaine est sur le même serveur ainsi que la même adresse IP. De l'extérieur on dirait plusieurs sites différents (avec le même genre de look).

On va dire ici pour exemple :

www.siteA.com et www.siteB.com

Donc, le siteA.com possède la page d'un produit X et le siteB.com possède la page d'un produit Y

www.siteA.com/X
www.siteB.com/Y

Comme c'est sur le même serveur, il est possible de voir la page de "l'autre" site...

www.siteA.com/Y
www.siteB.com/X

Ce n'est pas souhaitable, c'est pourquoi les liens doivent être bien fait.

Voici où est le problème. Suite à des "mauvais liens" des gens des communications, il était possible de voir une page avec le mauvais nom de domaine. Ce qui a donné la possibilité à Google de voir toutes les pages du siteB à l'intérieur du siteA.

(à l'intérieur de l'entête, qui est déterminée par le nom de domaine, il y a un menu contenant chaque page du site)

Le plus gros des sites à 1000 pages. Cependant, Yahoo m'en affiche 3000. Et les sites les plus petits en possède 250-350, et en affichent 800-900. Il y a au total 22 sites et plus de 15 000 pages.

Dois-je demander à Google et Yahoo de ré-indexer mes sites au complet ? Que dois-je faire ? Je ne peux me permettre de ne pas "sortir" dans les moteurs de recherche pour 3 mois.

Actuellement, les erreurs de liens sont corrigées. J'ai fait le tour de tout les sites avec PowerMapper afin de "voir" l'arborescence, ensuite j'ai utilisé DeepTrawl pour trouver encore plus d'erreur (e-mail non encodé, et site "externe" down). De plus nous possédons un "Google Mini" qui m'a aussi confirmée que j'avais le bon nombre de pages maintenant. Les erreurs sont réglés.

Je me préoccupe beaucoup de Google mais je ne néglige pas Yahoo. Donc, j'aimerais régler mon problème pour ces 2 moteurs de recherche.

Je ne peux pas enlever chaque URL un par un, cela me prendrait 6 mois et plus. Les "mauvaises" page ne retourne pas d'erreur 404 car ce sont des pages qui s'affichent bien, cependant pas avec la bonne entête (nom de domaine).

Une solutions ? :D

Si vous avez besoin d'exemple concrets, je peux vous en fournir à votre demande.

Merci beaucoup

Jean-Frédéric
 
WRInaute accro
Bonjour,

Il faudrait rediriger (redirection 301) chaque "mauvaise" URL vers la "bonne" URL correspondante. C'est facile à faire, par groupe d'URL (groupe = répertoire ou extension ou mot-clé ou format particulier), avec Apache. Je ne sais pas si c'est possible ni comment avec Domino/Lotus.

Jean-Luc
 
WRInaute accro
Bonjour et bienvenue sur WRI.
La seule solution qui existe, à mon sens, est de concevoir via la base de données une routine qui vérifiera bien que le produit affiché est sur le bon site.
Si c'est le cas, rien ne se passe; sinon, une redirection 301 est faite vers la page équivalente sur le bon domaine.
Ceci te mettra à l'abri de tout problème ultérieur. Le tout est de savoir si les informations de la base de données permet une telle routine.
Bon courage
Edit : Grillé :)
 
Nouveau WRInaute
Bonjour et merci de vos réponses rapides.

Il m'est impossible de faire une redirection 301, il y a trop de pages qui n'existent plus. Ou plutôt, il y a trop de page tout simplement.

Je vais regarder la possibilité de concevoir un algorithme qui va savoir si la page est affiché avec le mauvais nom de domaine, mais je crois que ça va être trop galère à concevoir.

Le plus simple à mon avis serait que Google efface mes pages indexés et recommence. J'ai des sitemaps à ma disposition et je peux les fournir à Google.

Du côté de Yahoo, je crois que je peux effacer chaque URL d'un nom de domaine. Je ne sais pas par contre si il y a un os au niveau de quand est-ce que Yahoo va ré-indexer...

Quel sont les inconvénients de demander la ré-indexation totale ?

Merci encore
 
WRInaute accro
Si tu ne fais pas de redirection 301, je conseillerais de ne rien faire du tout plutôt que de demander une désindexation suivie d'une réindexation.

Pour l'utilisateur lambda, peu importe l'URL tant qu'il trouve l'info. Et pour les moteurs de recherche, le duplicate content n'entrainera pas de pénalisation. Ce sera temporairement "non optimal", mais, comme tu t'efforces de supprimer tous les mauvais liens, les bons liens et les bonnes URL vont progressivement prendre le dessus.

Désindexer pour réindexer ensuite, c'est jouer avec le feu.

Jean-Luc
 
Discussions similaires
Haut