Bonsoir,
Je m'occupe de la maintenance d'un site web que j'ai référencé il y a plusieurs mois sur internet.
Je constate un recul très important de notre référencement chez google.
voici quelques exemples :
- Sur les mots clefs : guide marques
on se positionnait à la 5è page, 10è position
maintenant pas trouvé, au-delà de la 10è page...
- Sur les mots clefs : guide des marques
on se positionnait en 1è page, 3è position
maintenant 4è page, 1è position...
- Sur les mots clefs : guide points de vente
on se positionnait en 4è page, 2è position
maintenant pas trouvé, au-delà de la 10è page...
- Sur les mots clefs : guide des points de vente
on se positionne en 1è page, 1è position
maintenant pas trouvé, au-delà de la 10è page...
J'utilise en outre un système permettant de controler la visite des robots et je constate que le googlebot est passé pour la dernière fois le 10 septembre.
Je suspecte google de nous avoir blacklister, pourtant, je n'utilise aucune technique de cloaking non-autorisée.
Voici le processus qui me semble être mis en cause :
Afin de permettre à google de référencer nos pages de résultats de recherche, j'ai créé un lien sur la page d'acceuil vers une page qui enregistre les recherches du dernier mois lancées par les internautes sur notre site. (ce lien est visible pour tout le monde)
J'utilise dans cette page l'url_rewriting afin de permettre à google de visiter ces pages dynamiques.
Ce fichier ne contient qu'une liste de lien (un peu plus de 1000). Googlebot a visité cette page une seule fois, le 9 septembre, un jour avant sa dernière visite, sans parcourir les liens.
Serait-il possible que google considère que cette page est une tromperie ?
Si cela était le cas, comment pouvoir faire enregistrer nos pages de résultats sans se faire blacklister comme le font des sites marchands comme ebay ?
Merci d'avance pour vos suggestions,
Jean-Baptiste
Je m'occupe de la maintenance d'un site web que j'ai référencé il y a plusieurs mois sur internet.
Je constate un recul très important de notre référencement chez google.
voici quelques exemples :
- Sur les mots clefs : guide marques
on se positionnait à la 5è page, 10è position
maintenant pas trouvé, au-delà de la 10è page...
- Sur les mots clefs : guide des marques
on se positionnait en 1è page, 3è position
maintenant 4è page, 1è position...
- Sur les mots clefs : guide points de vente
on se positionnait en 4è page, 2è position
maintenant pas trouvé, au-delà de la 10è page...
- Sur les mots clefs : guide des points de vente
on se positionne en 1è page, 1è position
maintenant pas trouvé, au-delà de la 10è page...
J'utilise en outre un système permettant de controler la visite des robots et je constate que le googlebot est passé pour la dernière fois le 10 septembre.
Je suspecte google de nous avoir blacklister, pourtant, je n'utilise aucune technique de cloaking non-autorisée.
Voici le processus qui me semble être mis en cause :
Afin de permettre à google de référencer nos pages de résultats de recherche, j'ai créé un lien sur la page d'acceuil vers une page qui enregistre les recherches du dernier mois lancées par les internautes sur notre site. (ce lien est visible pour tout le monde)
J'utilise dans cette page l'url_rewriting afin de permettre à google de visiter ces pages dynamiques.
Ce fichier ne contient qu'une liste de lien (un peu plus de 1000). Googlebot a visité cette page une seule fois, le 9 septembre, un jour avant sa dernière visite, sans parcourir les liens.
Serait-il possible que google considère que cette page est une tromperie ?
Si cela était le cas, comment pouvoir faire enregistrer nos pages de résultats sans se faire blacklister comme le font des sites marchands comme ebay ?
Merci d'avance pour vos suggestions,
Jean-Baptiste