Doit-on ré-indexer un site si les pages n'existent plus ?

Discussion dans 'Crawl et indexation Google, sitemaps' créé par JeanFrederic, 16 Juin 2008.

  1. JeanFrederic
    JeanFrederic Nouveau WRInaute
    Inscrit:
    16 Juin 2008
    Messages:
    2
    J'aime reçus:
    0
    Bonjour, c'est ma première fois ici. On m'a recommandé votre site. J'ai hâte de voir si vous allez pouvoir m'aider un peu.

    Voilà, je suis Webmaster de plusieurs sites, qui appartiennent à la même compagnie (segments d'affaire).

    L'environnement est Ibm Domino - Lotus Notes

    Chaque nom de domaine est sur le même serveur ainsi que la même adresse IP. De l'extérieur on dirait plusieurs sites différents (avec le même genre de look).

    On va dire ici pour exemple :

    www.siteA.com et www.siteB.com

    Donc, le siteA.com possède la page d'un produit X et le siteB.com possède la page d'un produit Y

    www.siteA.com/X
    www.siteB.com/Y

    Comme c'est sur le même serveur, il est possible de voir la page de "l'autre" site...

    www.siteA.com/Y
    www.siteB.com/X

    Ce n'est pas souhaitable, c'est pourquoi les liens doivent être bien fait.

    Voici où est le problème. Suite à des "mauvais liens" des gens des communications, il était possible de voir une page avec le mauvais nom de domaine. Ce qui a donné la possibilité à Google de voir toutes les pages du siteB à l'intérieur du siteA.

    (à l'intérieur de l'entête, qui est déterminée par le nom de domaine, il y a un menu contenant chaque page du site)

    Le plus gros des sites à 1000 pages. Cependant, Yahoo m'en affiche 3000. Et les sites les plus petits en possède 250-350, et en affichent 800-900. Il y a au total 22 sites et plus de 15 000 pages.

    Dois-je demander à Google et Yahoo de ré-indexer mes sites au complet ? Que dois-je faire ? Je ne peux me permettre de ne pas "sortir" dans les moteurs de recherche pour 3 mois.

    Actuellement, les erreurs de liens sont corrigées. J'ai fait le tour de tout les sites avec PowerMapper afin de "voir" l'arborescence, ensuite j'ai utilisé DeepTrawl pour trouver encore plus d'erreur (e-mail non encodé, et site "externe" down). De plus nous possédons un "Google Mini" qui m'a aussi confirmée que j'avais le bon nombre de pages maintenant. Les erreurs sont réglés.

    Je me préoccupe beaucoup de Google mais je ne néglige pas Yahoo. Donc, j'aimerais régler mon problème pour ces 2 moteurs de recherche.

    Je ne peux pas enlever chaque URL un par un, cela me prendrait 6 mois et plus. Les "mauvaises" page ne retourne pas d'erreur 404 car ce sont des pages qui s'affichent bien, cependant pas avec la bonne entête (nom de domaine).

    Une solutions ? :D

    Si vous avez besoin d'exemple concrets, je peux vous en fournir à votre demande.

    Merci beaucoup

    Jean-Frédéric
     
  2. jeanluc
    jeanluc WRInaute accro
    Inscrit:
    3 Mai 2004
    Messages:
    2 875
    J'aime reçus:
    0
    Bonjour,

    Il faudrait rediriger (redirection 301) chaque "mauvaise" URL vers la "bonne" URL correspondante. C'est facile à faire, par groupe d'URL (groupe = répertoire ou extension ou mot-clé ou format particulier), avec Apache. Je ne sais pas si c'est possible ni comment avec Domino/Lotus.

    Jean-Luc
     
  3. nickargall
    nickargall WRInaute accro
    Inscrit:
    13 Juin 2005
    Messages:
    6 601
    J'aime reçus:
    4
    Bonjour et bienvenue sur WRI.
    La seule solution qui existe, à mon sens, est de concevoir via la base de données une routine qui vérifiera bien que le produit affiché est sur le bon site.
    Si c'est le cas, rien ne se passe; sinon, une redirection 301 est faite vers la page équivalente sur le bon domaine.
    Ceci te mettra à l'abri de tout problème ultérieur. Le tout est de savoir si les informations de la base de données permet une telle routine.
    Bon courage
    Edit : Grillé :)
     
  4. JeanFrederic
    JeanFrederic Nouveau WRInaute
    Inscrit:
    16 Juin 2008
    Messages:
    2
    J'aime reçus:
    0
    Bonjour et merci de vos réponses rapides.

    Il m'est impossible de faire une redirection 301, il y a trop de pages qui n'existent plus. Ou plutôt, il y a trop de page tout simplement.

    Je vais regarder la possibilité de concevoir un algorithme qui va savoir si la page est affiché avec le mauvais nom de domaine, mais je crois que ça va être trop galère à concevoir.

    Le plus simple à mon avis serait que Google efface mes pages indexés et recommence. J'ai des sitemaps à ma disposition et je peux les fournir à Google.

    Du côté de Yahoo, je crois que je peux effacer chaque URL d'un nom de domaine. Je ne sais pas par contre si il y a un os au niveau de quand est-ce que Yahoo va ré-indexer...

    Quel sont les inconvénients de demander la ré-indexation totale ?

    Merci encore
     
  5. jeanluc
    jeanluc WRInaute accro
    Inscrit:
    3 Mai 2004
    Messages:
    2 875
    J'aime reçus:
    0
    Si tu ne fais pas de redirection 301, je conseillerais de ne rien faire du tout plutôt que de demander une désindexation suivie d'une réindexation.

    Pour l'utilisateur lambda, peu importe l'URL tant qu'il trouve l'info. Et pour les moteurs de recherche, le duplicate content n'entrainera pas de pénalisation. Ce sera temporairement "non optimal", mais, comme tu t'efforces de supprimer tous les mauvais liens, les bons liens et les bonnes URL vont progressivement prendre le dessus.

    Désindexer pour réindexer ensuite, c'est jouer avec le feu.

    Jean-Luc
     
Chargement...
Similar Threads - ré indexer existent Forum Date
Search Console Google ne veut pas indexer après plusieurs semaines Crawl et indexation Google, sitemaps 16 Décembre 2021
Option WordPress « Ne pas indexer ce site » Crawl et indexation Google, sitemaps 23 Septembre 2021
Désindexer des pages auteur avec Yoast sur Wordpress Référencement Google 15 Septembre 2021
page 404 lien indexer comment le rediriger? Débuter en référencement 12 Janvier 2021
PHP Redis : Comment indexer les clés ? Développement d'un site Web ou d'une appli mobile 1 Août 2020
A lire si Google refuse d'indexer toutes vos pages pourtant indexables Crawl et indexation Google, sitemaps 22 Juillet 2020
Désindexer les pages http (sans certificat SSL) après piratage japonais Crawl et indexation Google, sitemaps 1 Juillet 2020
WordPress Yoast - Attachment-sitemap.xml à faire indexer ? Débuter en référencement 1 Février 2020
Crédits et mentions légales : pages à désindexer ou pas ? Référencement Google 22 Janvier 2020
Désindexer page du moteur de recherche interne Crawl et indexation Google, sitemaps 30 Octobre 2019
WordPress Impossible d'indexer un site pour la première fois Problèmes de référencement spécifiques à vos sites 4 Septembre 2019
Référencement : comment indexer les différentes pages du site ? Débuter en référencement 18 Février 2019
WordPress Google refuse d'indexer le site (après des 1ères pages) Problèmes de référencement spécifiques à vos sites 21 Janvier 2019
désindexer des pages web d'une préprod Crawl et indexation Google, sitemaps 5 Novembre 2018
RM Tech - Désindexer un grand nombre de pages... est-ce que cela peut nuire ? Débuter en référencement 31 Octobre 2018
Désindexer un grand nombre d'URL spams Crawl et indexation Google, sitemaps 13 Septembre 2018
Indexer/non indexer temporairement Crawl et indexation Google, sitemaps 28 Juin 2018
Faire un sitemap pour désindexer des URL Débuter en référencement 24 Juin 2018
[Wordpress] Comment désindexer des pages d'images ? Crawl et indexation Google, sitemaps 2 Mai 2018
Intérêt de désindexer certaines pages d'un site pour en favoriser d'autres ? Référencement Google 1 Mai 2018