Augmentation importante du nombre de pages

WRInaute discret
Bonjour,

J'aurais plusieurs questions :

1 - Puis-je me retrouvé pénalisé par Google si je rajoute un très
grand nombre de pages à mon site en un seul coup (plusieurs milliers,
dizaines de milliers, centaines de milliers... ou plus) ?

2 - Sous quelle forme peut se manifester cette pénalisation
(disparition des index, baisse globale...) ?

3 - Si je suis pénalisé de la sorte, comment puis-je y remédier ?

4 - Pour m'éviter la pénalisation (ou d'être plus pénalisé), est-il
judicieux de mettre mes pages dans un robots.txt pour ensuite les
rendre accessible morceau par morceau, ou d'utiliser des nofollows
partout que je retirerais progressivement.

5 - Entre le robot et les nofollows qu'elles est la meilleure
solution ? (avantages et inconvénients de chaque ?).

Merci d'avance pour vos réponses.
 
WRInaute passionné
Question :
comment peux tu ecrires des centaines de milliers de pages ?

si c'est en faisant un script qui va generer tout ca, c'est normal d'etre penalisé nan ?
tant que tu fais du contenu "humainement possible" toi meme tu n'auras jamais de pénalité.

met toi a la place des moteurs de recherche, si tu tombes sur un site dans le cas que tu veux faire, tu ferais quoi ? tu le placerais premier partout ? nan, tu te mefierais
 
WRInaute discret
>> comment peux tu ecrires des centaines de milliers de pages ?

Exemples :

- un site de E-commerce + une marketplace + des centaines de milliers de produits = des millions de pages (eg. Amazon).

- un réseau social + des millions d'users = des millions de pages (eg. MySpace).


>> si c'est en faisant un script qui va generer tout ca, c'est normal d'etre penalisé nan ?

Je ne suis aucunement dans ce cas la.

>> met toi a la place des moteurs de recherche, si tu tombes sur un site dans le cas que tu veux faire, tu ferais quoi ? tu le placerais premier partout ? nan, tu te mefierais

Amazon ou MySpace sont plus proche du cas qui me concerne. Bien sur le site est généré dynamiquement, mais derrière en BDD il a y des millions d'enregistrements avec du vrai contenu.

...Bon tout ça ne m'avance pas trop.

Tant pis. Merci quand même :)
 
WRInaute passionné
Ouai je vois également difficilement comment tu pourrais avoir autant de contenu...

C'est possible de savoir d'où il vient et de quel sorte de contenu tu parles ?

:wink:
 
WRInaute accro
Je ne vois pas en quoi il serait difficile, irréaliste, ou non naturel d'avoir un site de centaines de milliers, voire de millions de pages.
Certains modèles de sites y arrivent très rapidement.

Le risque à mon avis, en "lâchant dans la nature" un nombre colossal de pages d'un coup, c'est qu'elles ne chopent que peu de potentiel: tu vas avoir du mal à leur transmettre du "gros jus" avec un site naissant, et elles risquent de rester collées au fond ;)

Le maillage à mettre en place pour leur permettre une indexation favorable et un positionnement raisonnable est énorme: tu ne pourrais pas par exemple tirer parti de l'affichage des "x plus récents xyz" en homepage; tu saturerais vite avec des techniques du genre "quelques pages abordant le même sujet", pour ne citer que ces méthodes là.

Niveau structure, soit tu restes très horizontal et tu te retrouves avec un besoin de faire des centaines de liens par page, soit tu fais une arborescence te permettant de lier les pages sans abuser de liens, mais cette arborescence risque fort d'être très profonde, et perdant un peut de potentiel à chaque niveau, elle risque de s'avérer inefficace (dans ce cas précis d'un lancement de "tout le contenu" d'un coup).

Tu peux en dire plus sur le projet ? En MP si nécessaire ?
 
WRInaute discret
Merci HawkEye pour ta réponse.

Mon cas est un peu différent.

Il s'agit d'un très gros site international, avec déjà des millions de pages indexés, 1 à 2 millions de pages crawlées par jour, et déjà très bien positionné.

Le problème : on baisse légérement de manière globale depuis un moment déjà.

Nous avons identifié plusieurs causes possibles dont celle en rapport avec ma question. Qui bien que n'étant pas celle privilégié nous a été implicitement suggéré par un Googleguy comme étant une possibilité.

Le problème c'est qu'on ne peut bien évidement pas empêcher la mise en production des pages. D'ou ma question principale : un disallow sur les nouveaux groupes de pages suffit-il, ou doit-on en passer par du nofollow ?

(Evidement, le but ici est de ralentir la fréquence d'apparition des pages, pas de se couper définitivement d'opportunités de positionnement).
 
WRInaute accro
Sans savoir de quel site il s'agit c'est un peu difficile de pousser plus loin, mais je comprends que tu ne veuilles pas en dire plus.

Pour ce qui est de disallow ou de rel="nofollow", je ne pense pas que le fait de se couper les ailes permette de voler mieux.

Quelques pistes donc:

- est-ce que la présence de ces pages dans l'index est une nécessité ?
- est-ce qu'un si grand nombre de pages est nécessaire, ou est-il envisageable de regrouper l'info sur un nombre moins important de pages ?
- les pages sont elles pérennes ? Si elles périment naturellement (ie: petites annonces), ne serait-il pas judicieux de traiter cette péremption (410: "Gone" ou 301 vers la catégorie de l'annonce ?)

++
 
WRInaute discret
HawkEye a dit:
Pour ce qui est de disallow ou de rel="nofollow", je ne pense pas que le fait de se couper les ailes permette de voler mieux.

C'est exactement ce que je préconisais au départ (A ceci prêt que je parlais plutôt de se couper un bras).

Mais certains éléments m'amément à penser que dans le doute un disallow est préférable (à condition que ce soit une solution efficace, ce qui n'est pas sur).

- Oui :(
- Impossible :(
- Seul une petit taux n'est pas pérenne. Et encore, la durée de péremption est longue (plusieurs mois).

Evidement, comme tu l'as compris, je ne peux pas en dire plus. Après si cela te dis de réfléchir un peu sur ce cas, et que ma hiérarchie ne voit pas d'inconvénients à ce que je te communique plus d'infos, je veux bien qu'on en discute en MP. :)

++Julien.
 
WRInaute discret
Je suis dans le même cas que toi, je dois ajouter environ 20 millions de page d'ici la fin de l'année (5 millions de pages FR qui sont traduites en plusieurs langues, chaque page a un contenu différent qui est mis à jour plusieurs fois par jour), la solution que j'adopte c'est d'ajouter chaque semaine 40 000 pages, c'est long mais ça évite sûrement les mauvaises surprises.

Par contre il y a un soucis, ces nouvelles pages sont mal crawlées.
 
Discussions similaires
Haut