Recul de référencement sur google, site blacklisté ?

Nouveau WRInaute
Bonsoir,

Je m'occupe de la maintenance d'un site web que j'ai référencé il y a plusieurs mois sur internet.

Je constate un recul très important de notre référencement chez google.

voici quelques exemples :

- Sur les mots clefs : guide marques
on se positionnait à la 5è page, 10è position
maintenant pas trouvé, au-delà de la 10è page...

- Sur les mots clefs : guide des marques
on se positionnait en 1è page, 3è position
maintenant 4è page, 1è position...

- Sur les mots clefs : guide points de vente
on se positionnait en 4è page, 2è position
maintenant pas trouvé, au-delà de la 10è page...

- Sur les mots clefs : guide des points de vente
on se positionne en 1è page, 1è position
maintenant pas trouvé, au-delà de la 10è page...

J'utilise en outre un système permettant de controler la visite des robots et je constate que le googlebot est passé pour la dernière fois le 10 septembre.

Je suspecte google de nous avoir blacklister, pourtant, je n'utilise aucune technique de cloaking non-autorisée.

Voici le processus qui me semble être mis en cause :

Afin de permettre à google de référencer nos pages de résultats de recherche, j'ai créé un lien sur la page d'acceuil vers une page qui enregistre les recherches du dernier mois lancées par les internautes sur notre site. (ce lien est visible pour tout le monde)
J'utilise dans cette page l'url_rewriting afin de permettre à google de visiter ces pages dynamiques.
Ce fichier ne contient qu'une liste de lien (un peu plus de 1000). Googlebot a visité cette page une seule fois, le 9 septembre, un jour avant sa dernière visite, sans parcourir les liens.

Serait-il possible que google considère que cette page est une tromperie ?

Si cela était le cas, comment pouvoir faire enregistrer nos pages de résultats sans se faire blacklister comme le font des sites marchands comme ebay ?

Merci d'avance pour vos suggestions,

Jean-Baptiste
 
Membre Honoré
Tant que le site existe sur google c'est que c'est de la manière dont tu fait la ref qui a un blem :)

(ps : je me suis arrêter à > maintenant 4è page, 1è position... < parce que un site blacklisté n'existe plus sur google ou a un PR gris.)
 
Olivier Duffez (admin)
Membre du personnel
un site blacklisté n'est plus trouvable du tout dans Google, il n'a plus aucune page indexée dans Google, ni aucun PR

alors si ce n'est pas le cas, le pb vient d'ailleurs !!!
 
Nouveau WRInaute
J'ai bien pris note de vos commentaires, merci.

Cependant, quelque chose m'intrigue, comment est-il possible que le robot de google n'est pas visité le site depuis plus d'un mois (depuis le 10 septembre exactement) ?

Jean-Baptiste
 
WRInaute occasionnel
Bonjour , personne ne parle dans ce forum , des nombreux sites gelés , c'est à dire toujour dans l'index , mais google ne passe plus dessus (exemple mylinea) , plus de mise à jour , plus de caché des fois !
google à un probléme , ou il à une nouvelle façons de punir les sites ?
 
B
Bernard
Guest
Réajustements suite a une variation sur les algos de positionnement ........ si le site est bien prodi.. la raison est surement à chercher du coté de son petit pr5.


marinelo a dit:
google à un probléme , ou il à une nouvelle façons de punir les sites ?
fais une recherche sur sandbox et désindexation
 
WRInaute occasionnel
marinelo a dit:
google à un probléme , ou il à une nouvelle façons de punir les sites ?

Je pense que Google a le hocquet en ce moment.. car parmi les sites concernés on trouve des forums et des non-forums, du Php dynamique et du Html pur, un peu de tout... et globalement des sites qui n'ont rien à se reprocher de particulier.

Je ne pense pas qu'il s'agisse de 'punir' qui que ce soit.
 
WRInaute occasionnel
à mon avis gros probléme chez google , car je vois des sites pr7 avec une mise à jour du 12 octobre !
mylinea caché du 12 octobre , déclassé à la 6éme pages avec sont propre nom ?
reacteur pr7 caché du 15 octobre ?

www.wanadoo.com caché du 10 !!! pr8
et toutes les pages sans titles et pourtant les sites ne triche pas
aprés si ont me dit que google va bien !
il à du souci à ce faire , car les concurents arrivent .
 
WRInaute occasionnel
Si le nettoyage s'apparente à de la désindexation de pages de sites pourtant pertinentes et correctes, ce n'est plus du nettoyage, mais de l'auto-destruction. ;)

Déjà l'histoire des pages similaires est très limite, un site d'image n'a que peu ou pas de texte, des pages baties de la même manière avec pourtant un contenu différent.

C'est aussi le cas des forums et de tous les sites style portail, à terme tous les sites utilisant un script identique vont se retrouver en pages similaires.

@+ Mojy
 
WRInaute occasionnel
il à tous simplement envie de gagné encore plus , il désindexe les sites de ventes , comme cela les sites de ventes et d'affiliations , lui achéte plus de pub , trés simple .
il suffit de regardé les pages sonneries , casino et pas mal de forums , enfin pas tous les forums .
Quand un site commence à l'embété un peu , déclassé , pas blacklisté mais au fond des classements .
juste une histoire de sous .
 
Discussions similaires
Haut