Comme d'habitude, sa réponse n'est pas vraiment tranchée ! Matt Cutts explique que lorsqu'un site publie d'un seul coup des centaines de milliers de pages, une alerte est déclenchée et une analyse manuelle est effectuée par son équipe. Il se justifie par le fait qu'il est très rare qu'un site puisse publier d'un seul coup des centaines de milliers de nouvelles pages inédites et de qualité...
Si j'avais eu cette info il y a 2 ans quand j'ai géré un site avec plusieurs millions de nouvelles pages à mettre en ligne d'un seul coup, ça m'aurait été utile. Et justement, j'avais opté pour un système permettant de donner un accès à Googlebot par vagues successives. Ca s'était bien passé.
Maintenant, que faut-il en penser pour d'autres cas de figure où il ne s'agit pas de centaines de milliers de pages mais "simplement" de milliers ?
Merci d'avance pour vos retours d'expérience !
Bonjour,
Je veux savoir si la soumission en masse avec Fast Directory Submitter, sera-t-elle considérée comme étant spam par Google.
Pour l'Annuaire Français, je suis passé de 100 000 a 5 millions de pages, l'indexation s'est bien passée, toutes les pages ont bien été indexées rapidement dans webmasters tools.
Pour ce qui est du référencement et la position dans les serps, c'est un peu le trouble, car le site complet a une progression extrêmement régulière depuis 1 an, de l'ordre de +10% par mois, avec parfois des hausses plus importants.
Comme le site est constitué de 100 sous domaines, il est difficile de savoir si Google a pris ces sous domaines dans leur ensemble ou individuellement, chacun contenant en moyenne 40 000 pages?
Cette progression constante est-elle résultante d'un blocage manuel sur l'ensemble avec une "libération progressive" ou bien est-elle résultante d'une meilleure prise en compte progressive du ref naturel (ancienneté, augmentation des liens naturels, impact des réseaux sociaux ... ?
Dans le premier cas il y aurait un "muselage" provisoire qui se libère peu a peu, et ont ne sait pas où cela va mener, sans compter la perte financière de cette restriction manuelle et de la question de son utilité ...
On ne sait pas ...
Les stats : http://www.annuairefrancais.fr/stats.jpg
Pour la première mise en ligne, de 0 à X milliers, tu ne déclenches surement aucun radar.
Ensuite c'est la variation en % du nombre de pages qui doit déclencher une alerte ou non... puis contrôle manuel. Ce sont des règles simples qui doivent permettre effectivement de lutter contre le spam sans déclencher de fausses alertes à tout va.
Surtout que là où je place des X dans le raisonnement, Google doit avoir suffisament de data pour avoir un scope précis de "normalité", pour ainsi ne vérifier au cas par cas que ce qui sort du giron classique.
Je suis en plein dans cette problématique depuis qqes semaines.
Je ferai un retour si j'ai des retours négatifs là dessus
Une fois de plus ce n'est pas super clair leur affaire. J'alimente un site de deux trois milliers de pages supplémentaires par mois, le site en compte actuellement +/- 15000... je ne saurais pas aller plus vite, vu que nous fournissons l'information, la contrôlons etc ...mais je ne vais pas non plus en passer 10 par jour ! Comme dit dans les commentaires, on envoie et on verra bien... En plus, je ne comprends pas très bien non plus... Si je crée le même site, que la base de données contient assez d'informations pour créer 100 000 pages et que du jour au lendemain, j'uploade tout site , qu'est-ce qu'il se passe ? C'est un spam upload ?
La réponse de Cutts n'est pas tranchée car tout dépend du contenu, de la langue (application ou pas des règles Google) et de la concurrence sur le sujet.
Si il s'agit de langue anglaise, d'un sujet où il y a déjà bcp de choses et d'un contenu connu .. pas bon ..
Si il s'agit d'une langue où les algo de Google ne sont pas tous encore appliqués, où la concurrence sur le sujet n'existe pas, alors pourquoi ne pas l'indexer ..
Comme pour tout ce qui concerne Google, la question est simplement de savoir si ce contenu nouveau APPORTE qqch de nouveau et à valeur ajoutée à l'internaute ou pas..
Quand du contenu est ajouté en masse, la question que peut légitimement se poser Google est de savoir POURQUOI ce contenu n'était-il pas déjà en ligne donc si il ne s'agit pas simplement de "copie" avec simplement un nouveau domaine..
Franchement je ne comprends pas c'est quoi la différence entre mettre des pages par paquets ou le tous en bloc pour Google, dans les deux cas les pages seront mises en ligne même s'il s'agit de spam
Si effectivement ils regardent au compte goutte et que cela met plus de temps à être indexés, autant mettre les pages petit à petit, maintenait, je me vois mal indexer tous les jours X pages juste pour le plaisir de google... Tout dépend de l'équipe du site et des url déjà existantes je pense
Personnellement si j'ai des milliers de pages de bonnes qualités à mettre en ligne d'1 seul coup, je le fais (rien à faire de ce que pense google). Je pars du principe que si c'est un + pour le site et les internautes et qu'en + cela respecte les règles du référencement il n'y aura pas de souci. Comme dit dans l'article ils ont des équipes qui regarde manuellement les sites... je vais pas m'amuser a mettre les pages petit à petit pour Mr Google, j'ai pas que sa à faire pour rester poli ...
Etant donné que John Müller est un autre salarié assez en vue de Google, il est étrange de constater que les salariés de Google maintenant communique par vidéo interposé. Matt Cutts manquerait-il vraiment de réponses de webmasters qui ne bossent pas pour Google ?
@Franck : tu voulais dire "des questions de webmasters" je suppose. Je pense qu'il trouvait la question intéressante (elle venait certainement d'un membre des forums de support de Google) et qu'il a voulu fournir une réponse à large audience
Ne faut-il pas relativiser par rapport à la taille du site et son historique? Si un site a déjà un million de pages et qu'il en ajoute 500.000, ça doit passer, mais un site qui a 10.000 pages et qui en ajoute 1 million, c'est sûr que c'est "suspectement" à vérifier.
J'ai toujours ajouté les morceaux bout par bout, en prenant le temps, et le dernier ajout massif sur mon site d'aquarium a été une liste de 1250 magasins d'aquariophilie, soit "pas grand chose" vis-à-vis du contenu déjà existant.
J'ai un problème similaire avec tous les médias d'un site qui ont changé d'URL (environ 400.000) et malgré les redirections 301, les anciennes URL ont été désindexées et les nouvelles le sont au compte goutte (environ 20.000 en 10 jours)
pourtant, il y a 4 ans, j'avais envoyé 900.000 pages web d'un coup et tout avait été indexé sans problème, très rapidement, sans pénalité.
Maintenant, peut-être que les médias sont gérés différemment par Google ...