Portrait Olivier Duffez

Olivier Duffez

Créateur de WebRankInfo,
consultant en référencement

L'équipe antispam de Google surveille les sites qui mettent en ligne d'un seul coup un gros volume de pages

Dans une réponse en vidéo, Matt Cutts a répondu à la question suivante : un journal souhaite mettre en ligne 200.000 pages d'archives. Faut-il le faire d'un seul coup ou par paquets ?

Comme d'habitude, sa réponse n'est pas vraiment tranchée ! Matt Cutts explique que lorsqu'un site publie d'un seul coup des centaines de milliers de pages, une alerte est déclenchée et une analyse manuelle est effectuée par son équipe. Il se justifie par le fait qu'il est très rare qu'un site puisse publier d'un seul coup des centaines de milliers de nouvelles pages inédites et de qualité...

Si j'avais eu cette info il y a 2 ans quand j'ai géré un site avec plusieurs millions de nouvelles pages à mettre en ligne d'un seul coup, ça m'aurait été utile. Et justement, j'avais opté pour un système permettant de donner un accès à Googlebot par vagues successives. Ca s'était bien passé.

Maintenant, que faut-il en penser pour d'autres cas de figure où il ne s'agit pas de centaines de milliers de pages mais "simplement" de milliers ?

Merci d'avance pour vos retours d'expérience !

Cet article vous a-t-il plu ?

Cliquez pour voter !

Laisser un commentaire

Remarques :

  • Si vous souhaitez poser une question ou détailler un problème technique, il ne faut pas utiliser le formulaire ci-dessous qui est réservé aux avis. Posez votre question directement dans le forum Gmail de WebRankInfo. L'inscription est gratuite et immédiate.

  • En postant un avis, vous acceptez les CGU du site WebRankInfo. Si votre avis ne respecte pas ces règles, il pourra être refusé. Si vous indiquez votre adresse email, vous serez informé dès que votre avis aura été validé (ou refusé...) ; votre adresse ne sera pas utilisée pour vous envoyer des mailings et ne sera pas revendue ou cédée à des tiers.

13 commentaires

FemmeTaureau

Bonjour,
Je veux savoir si la soumission en masse avec Fast Directory Submitter, sera-t-elle considérée comme étant spam par Google.

Répondre
Annuaire Français

Pour l'Annuaire Français, je suis passé de 100 000 a 5 millions de pages, l'indexation s'est bien passée, toutes les pages ont bien été indexées rapidement dans webmasters tools.

Pour ce qui est du référencement et la position dans les serps, c'est un peu le trouble, car le site complet a une progression extrêmement régulière depuis 1 an, de l'ordre de +10% par mois, avec parfois des hausses plus importants.

Comme le site est constitué de 100 sous domaines, il est difficile de savoir si Google a pris ces sous domaines dans leur ensemble ou individuellement, chacun contenant en moyenne 40 000 pages?

Cette progression constante est-elle résultante d'un blocage manuel sur l'ensemble avec une "libération progressive" ou bien est-elle résultante d'une meilleure prise en compte progressive du ref naturel (ancienneté, augmentation des liens naturels, impact des réseaux sociaux ... ?

Dans le premier cas il y aurait un "muselage" provisoire qui se libère peu a peu, et ont ne sait pas où cela va mener, sans compter la perte financière de cette restriction manuelle et de la question de son utilité ...

On ne sait pas ...
Les stats : http://www.annuairefrancais.fr/stats.jpg

Répondre
Winsiders

Pour la première mise en ligne, de 0 à X milliers, tu ne déclenches surement aucun radar.

Ensuite c'est la variation en % du nombre de pages qui doit déclencher une alerte ou non... puis contrôle manuel. Ce sont des règles simples qui doivent permettre effectivement de lutter contre le spam sans déclencher de fausses alertes à tout va.

Surtout que là où je place des X dans le raisonnement, Google doit avoir suffisament de data pour avoir un scope précis de "normalité", pour ainsi ne vérifier au cas par cas que ce qui sort du giron classique.

Répondre
Jérôme PASQUELIN

Je suis en plein dans cette problématique depuis qqes semaines.
Je ferai un retour si j'ai des retours négatifs là dessus

Répondre
Christophe Maggi

Une fois de plus ce n'est pas super clair leur affaire. J'alimente un site de deux trois milliers de pages supplémentaires par mois, le site en compte actuellement +/- 15000... je ne saurais pas aller plus vite, vu que nous fournissons l'information, la contrôlons etc ...mais je ne vais pas non plus en passer 10 par jour ! Comme dit dans les commentaires, on envoie et on verra bien... En plus, je ne comprends pas très bien non plus... Si je crée le même site, que la base de données contient assez d'informations pour créer 100 000 pages et que du jour au lendemain, j'uploade tout site , qu'est-ce qu'il se passe ? C'est un spam upload ?

Répondre
Tubbydev.com

La réponse de Cutts n'est pas tranchée car tout dépend du contenu, de la langue (application ou pas des règles Google) et de la concurrence sur le sujet.
Si il s'agit de langue anglaise, d'un sujet où il y a déjà bcp de choses et d'un contenu connu .. pas bon ..
Si il s'agit d'une langue où les algo de Google ne sont pas tous encore appliqués, où la concurrence sur le sujet n'existe pas, alors pourquoi ne pas l'indexer ..
Comme pour tout ce qui concerne Google, la question est simplement de savoir si ce contenu nouveau APPORTE qqch de nouveau et à valeur ajoutée à l'internaute ou pas..
Quand du contenu est ajouté en masse, la question que peut légitimement se poser Google est de savoir POURQUOI ce contenu n'était-il pas déjà en ligne donc si il ne s'agit pas simplement de "copie" avec simplement un nouveau domaine..

Répondre
Tan Rock

Franchement je ne comprends pas c'est quoi la différence entre mettre des pages par paquets ou le tous en bloc pour Google, dans les deux cas les pages seront mises en ligne même s'il s'agit de spam

Répondre
Quentin

Si effectivement ils regardent au compte goutte et que cela met plus de temps à être indexés, autant mettre les pages petit à petit, maintenait, je me vois mal indexer tous les jours X pages juste pour le plaisir de google... Tout dépend de l'équipe du site et des url déjà existantes je pense

Répondre
boboash

Personnellement si j'ai des milliers de pages de bonnes qualités à mettre en ligne d'1 seul coup, je le fais (rien à faire de ce que pense google). Je pars du principe que si c'est un + pour le site et les internautes et qu'en + cela respecte les règles du référencement il n'y aura pas de souci. Comme dit dans l'article ils ont des équipes qui regarde manuellement les sites... je vais pas m'amuser a mettre les pages petit à petit pour Mr Google, j'ai pas que sa à faire pour rester poli ...

Répondre
Frank Seidel (@AdieuArcheB)

Etant donné que John Müller est un autre salarié assez en vue de Google, il est étrange de constater que les salariés de Google maintenant communique par vidéo interposé. Matt Cutts manquerait-il vraiment de réponses de webmasters qui ne bossent pas pour Google ?

Répondre
Olivier Duffez

@Franck : tu voulais dire "des questions de webmasters" je suppose. Je pense qu'il trouvait la question intéressante (elle venait certainement d'un membre des forums de support de Google) et qu'il a voulu fournir une réponse à large audience

Répondre
Aquaportail

Ne faut-il pas relativiser par rapport à la taille du site et son historique? Si un site a déjà un million de pages et qu'il en ajoute 500.000, ça doit passer, mais un site qui a 10.000 pages et qui en ajoute 1 million, c'est sûr que c'est "suspectement" à vérifier.

J'ai toujours ajouté les morceaux bout par bout, en prenant le temps, et le dernier ajout massif sur mon site d'aquarium a été une liste de 1250 magasins d'aquariophilie, soit "pas grand chose" vis-à-vis du contenu déjà existant.

Répondre
e-kiwi

J'ai un problème similaire avec tous les médias d'un site qui ont changé d'URL (environ 400.000) et malgré les redirections 301, les anciennes URL ont été désindexées et les nouvelles le sont au compte goutte (environ 20.000 en 10 jours)
pourtant, il y a 4 ans, j'avais envoyé 900.000 pages web d'un coup et tout avait été indexé sans problème, très rapidement, sans pénalité.

Maintenant, peut-être que les médias sont gérés différemment par Google ...

Répondre