GG desindexe ?

WRInaute discret
Bon voila, google me fait un sale coup en ce moment ..
D apres Robotstat il passe toujours aussi souvent ... par contre d apres uptimebot et yourcache.com alors que le nombre de pages indexes chez GG augmente dans le temps 250 debut avril, 350 fin avril, 700 (!) debut mai, 900 fin mai ... puis paf 550 le 3 juin et maintenant 186 !!!!

Qu est ce qu il me fait le GG.
Certes quand il est monte a 900 ce n etait pas si exceptionnel puisque la plupars des pages il les avait indexe mais sans le cache ..donc pas top.

Quelqu un peut il m expliquer quel est ce phenomene et si c est normal ?
 
WRInaute impliqué
voici la raison https://www.google.fr/search?hl=fr&q=sit ... .net&meta=

en fait google a considère beaucoup de tes pages similmaires les une aux autres et els met en pages similaires et les desindexent au fur et à mesures c'est ce qu'on appele du duplicate content

donc il va falloir que tu travail pour que tes pages soit reconnu défférement l'une de l'autres par les titres, les descriptions, le contenu, les mot clés etc.............
 
WRInaute passionné
Il n'est pas nécessaire d'avoir deux messages.
Tu peux utiliser la fonction d'édition pour ajouter quelque chose :wink:
 
WRInaute impliqué
cedfr a dit:
Il n'est pas nécessaire d'avoir deux messages.
Tu peux utiliser la fonction d'édition pour ajouter quelque chose :wink:

non c'est une erreur de ma part j'ai poster avec réponse rapide et je me suis tromper et jè valider mon poste et vant ke sa finsse jè fè arreter sur le navigateur et jè reajouté ce qu'il manquait

mais visiblement c'est venu quand meme, donc si un modo pouvait supprimer le premier
 
WRInaute discret
Hehe ..
Bon tout ca je veux bien, ce que je comprend pas c est que le contenu n est pas similaire du tout !!!
Pour toutes les pages sans cache, elles sont toutes uniques, ce sont les pages des differents produits en plus ..

Alors bug chec GG ou quoi ? Et comment lui faire remarquer le probleme ?

Le titre de chaque page est different, la description et mot cler aussi, ainsi que le contenu ... il delire en plein !
 
WRInaute discret
Merci pour l outil ... effectivement je vois un peu mieux, comme quoi un algo peut etre tres c**.
Bon pour les meta etc c est facile a arranger. Par contre pour le contenu de page, apres tout c est une boutique, alors les 60% de la page vont toujours etre le meme (les colonnes autout de la description produits).
A partir de quel % est ce que google pense que c est trop ? en changeant les META j arrive maintenant a une similarite de pags dans les 87 ou 77 % selon la methode de calcul (contre 90 avant) et plus que de 6 ou 3 % pour la META Description contre 80 avant ...(j ai vire la partie qui etait colle au bout d ela description unqiue de chaque produit)
 
Nouveau WRInaute
hardmicro a dit:
donc il va falloir que tu travail pour que tes pages soit reconnu défférement l'une de l'autres par les titres, les descriptions, le contenu, les mot clés etc.............

Le fait de changer les mots-clés sur chaque page est-il important pour que Google ne croie pas à un duplicate content ? Car je croyais qu'il ignorait la balise keywords.
 
WRInaute discret
J ai fait un test avec l outil de similarite avec un bloc de keyword unique et un autre duplique sur chaque page .. et le resultat en tiens compte ... Quant a savoir si GG le fait c est une autre histoire !!
 
WRInaute accro
Phocea a dit:
A partir de quel % est ce que google pense que c est trop ? en changeant les META j arrive maintenant a une similarite de pags dans les 87 ou 77 % selon la methode de calcul (contre 90 avant) et plus que de 6 ou 3 % pour la META Description contre 80 avant ...(j ai vire la partie qui etait colle au bout d ela description unqiue de chaque produit)
par expérience, il faut descendre en dessous de 70% de similarité pour que GGbot commence à réindexer les pages désindexées ... :wink:


PS : voir cette discution : Taux de similarité entre 2 pages ...
 
WRInaute passionné
Cendrillon a dit:
par expérience, il faut descendre en dessous de 70% de similarité pour que GGbot commence à réindexer les pages désindexées ... :wink:

Interessante comme information :wink:
 
WRInaute impliqué
cedfr a dit:
Cendrillon a dit:
par expérience, il faut descendre en dessous de 70% de similarité pour que GGbot commence à réindexer les pages désindexées ... :wink:

Interessante comme information :wink:

merci pour l'info Cendrillon jvè verifier ca parce que chez moi aussi il y a des pages reconnu en duplicate content
 
WRInaute discret
Bref 70% . .autaunt dire mission quasi impossible dans le cas d un commerce sur internet .. rien que le texte des colonnes presentes sur les cotes et qui ne change pas (et c est normal) ca me fout dedans ..si je compare 2 pages avec une description de produit totalement differente j arrive pas a moins de 77% ....

D ailleurs on compare la similarite entre quoi et quoi .. une page non cachee et une qui l est ? n importe laquelle ?
 
WRInaute discret
Pour info 70% n'est pas la valeur minimale ... en virant les mots cles en commun uniquement je suis passe a une moyenne de 75-80% et depuis le nombre de pages indexes remontent

Mon 1ere message mentionne 186 le 3 juin, puis ca a ete 177 le 8 jour de mes changements pour enfin remonter 255 le 9 et 326 le 10 ...
 
WRInaute discret
Moi aussi le nombre de page baisse, c'est surement les page non url-rewritter du forum. Par contre tout les pages du site sont indexés.
Il y a une limite de page indexé pour un PR4 ?
 
Haut