Voilà un petit sujet qui va faire un peu tourner les serps et les caches, car il me semble avoir détecté, peut-être, une des raisons pour laquelle vos modifs SEO ne sont pas prise en compte lors des grosses mise à jour Panda et/ou Penguin, et que les SEO sont assez démunis sur les phénomènes "yoyo" de ces MAJ.
La raison possible est que lorsque Google met en oeuvre de nouveaux filtres, il n'utiliserait pas vos pages actuelles, mais des pages anciennes qu'il a sauvegardé 12 mois auparavant.
VOS MODIFS POUR PANDA ET PENGUIN NE SERONT PRISES EN COMPTE QUE DANS 1 AN ... :
Vous êtes nombreux a faire des contestations sur les mises à jour Majeure, et la plupart du temps, vous constatez que le dur labeur de toutes vos modifs SEO n'a absolument eut aucun effet.
Ce constat, je l'ai fait suite a un bug chez Google que j'ai cru au début venir de chez moi. Lors de la mise à jour PENGUIN 4.0 puis recement de PANDA, Google a mélangé les pages des sous domaines de chaque département de l'Annuaire Français. On retrouve des pages Marseille dans l'Ain, de Châteauroux dans le 06, etc etc etc.
Mais le plus troublant, hormis ce bug, c'est que ces pages datent d'un an presque jour pour jour. Les 5 millions de pages de l'Annuaire Français sont mise a jour une a deux fois par mois, avec des améliorations à chaque fois. Il est donc très aisé de situer dans le temps le template utilisé et modifié.
Cette déduction est basée sur la raison de l'utilisation du backup dans notre cas, et vu que le serveur n'a aucun problème, ni le nouveau que nous avons mis en place pour vérifier la nature du problème de mélange des SS domaines, il n'y a pas de raison logique et personnelle a notre site que Google utilise un backup lors de ces gros updates Panda et Penguin (question de taille du site peut-être?...)
Pour infos, notre trafic n'a pas été impacté car les pages réelles sont toujours dans les serps et côtoient celles qui ne sont pas attribué au bon sous domaines (qui conduisent à une erreur 404).
Je ne saurait dire si en parallèle et par la suite des gros updates, si les pages modifiées sont prise en compte, il semble que oui, jusqu'au prochain gros update de Google. Que se passe-t-il si les pages ne sont pas modifiées?
Peut-être est-ce une coïncidence que Google aurait utilisé une sauvegarde d'un an de notre site lors de la MAJ Panda et Penguin,et donc, cette théorie ne tient plus. Peut-être qu'avec l'erreur d'existence de cette page de Marseille dans l'Ain (et des millions d'autres), google va puiser dans les sauvegardes, mais quel intérêt de mettre dans les serps un lien vers une page qui n'existe pas, ou au pire, qui n'existerait plus? Ce n'est pas logique.
C'est par cette logique que Google utiliserait des datas sauvegardés plutôt que des datas en cours de crawl qui occupent déjà du temps machine. Pour mettre à jour des milliards d'analyses, il faudrait énormément de temps pour revisiter la totalité des pages et des sites du monde, et repasser la totalité de tous les filtres algorithmique sur chacune des pages dans le monde.
Donc, oui, l'utilisation de data anciens et stockés à part est largement compréhensible.
A noter que peu à peu, les nouvelles pages modifiées apparaissent dans les serps. Pour être a peu près certain de cette théorie, il faut la vérifier juste après une grosse mise à jour.
Si vous avez fait des modifs qui n'ont rien apportées ni corrigé, vérifiez si le document qui est en cache dans Google dont la date est récente, si le contenu du document en cache est bien celui qui correspond à la date mentionnée du cache.
En ce qui nous concerne, les dates de mise en cache sont bien actuelles ou du mois passé, mais le contenu lui est vieux d'un an sur plus de 20% des tests sur une centaine.
Les 80% de documents à la bonne date en cache et en réel restent quand même une énigme par rapport a cette théorie ...
Qu'en est-il de votre côté? Cette théorie vous semble exacte ou à côté de la plaque?
La raison possible est que lorsque Google met en oeuvre de nouveaux filtres, il n'utiliserait pas vos pages actuelles, mais des pages anciennes qu'il a sauvegardé 12 mois auparavant.
VOS MODIFS POUR PANDA ET PENGUIN NE SERONT PRISES EN COMPTE QUE DANS 1 AN ... :
Vous êtes nombreux a faire des contestations sur les mises à jour Majeure, et la plupart du temps, vous constatez que le dur labeur de toutes vos modifs SEO n'a absolument eut aucun effet.
Ce constat, je l'ai fait suite a un bug chez Google que j'ai cru au début venir de chez moi. Lors de la mise à jour PENGUIN 4.0 puis recement de PANDA, Google a mélangé les pages des sous domaines de chaque département de l'Annuaire Français. On retrouve des pages Marseille dans l'Ain, de Châteauroux dans le 06, etc etc etc.
Mais le plus troublant, hormis ce bug, c'est que ces pages datent d'un an presque jour pour jour. Les 5 millions de pages de l'Annuaire Français sont mise a jour une a deux fois par mois, avec des améliorations à chaque fois. Il est donc très aisé de situer dans le temps le template utilisé et modifié.
Cette déduction est basée sur la raison de l'utilisation du backup dans notre cas, et vu que le serveur n'a aucun problème, ni le nouveau que nous avons mis en place pour vérifier la nature du problème de mélange des SS domaines, il n'y a pas de raison logique et personnelle a notre site que Google utilise un backup lors de ces gros updates Panda et Penguin (question de taille du site peut-être?...)
Pour infos, notre trafic n'a pas été impacté car les pages réelles sont toujours dans les serps et côtoient celles qui ne sont pas attribué au bon sous domaines (qui conduisent à une erreur 404).
Je ne saurait dire si en parallèle et par la suite des gros updates, si les pages modifiées sont prise en compte, il semble que oui, jusqu'au prochain gros update de Google. Que se passe-t-il si les pages ne sont pas modifiées?
Peut-être est-ce une coïncidence que Google aurait utilisé une sauvegarde d'un an de notre site lors de la MAJ Panda et Penguin,et donc, cette théorie ne tient plus. Peut-être qu'avec l'erreur d'existence de cette page de Marseille dans l'Ain (et des millions d'autres), google va puiser dans les sauvegardes, mais quel intérêt de mettre dans les serps un lien vers une page qui n'existe pas, ou au pire, qui n'existerait plus? Ce n'est pas logique.
C'est par cette logique que Google utiliserait des datas sauvegardés plutôt que des datas en cours de crawl qui occupent déjà du temps machine. Pour mettre à jour des milliards d'analyses, il faudrait énormément de temps pour revisiter la totalité des pages et des sites du monde, et repasser la totalité de tous les filtres algorithmique sur chacune des pages dans le monde.
Donc, oui, l'utilisation de data anciens et stockés à part est largement compréhensible.
A noter que peu à peu, les nouvelles pages modifiées apparaissent dans les serps. Pour être a peu près certain de cette théorie, il faut la vérifier juste après une grosse mise à jour.
Si vous avez fait des modifs qui n'ont rien apportées ni corrigé, vérifiez si le document qui est en cache dans Google dont la date est récente, si le contenu du document en cache est bien celui qui correspond à la date mentionnée du cache.
En ce qui nous concerne, les dates de mise en cache sont bien actuelles ou du mois passé, mais le contenu lui est vieux d'un an sur plus de 20% des tests sur une centaine.
Les 80% de documents à la bonne date en cache et en réel restent quand même une énigme par rapport a cette théorie ...
Qu'en est-il de votre côté? Cette théorie vous semble exacte ou à côté de la plaque?