Risque d'affichage des expressions de google?

WRInaute discret
Bonjour, sur mon annuaire j'enregistre pour chaque site inscrit les expressions clés tapées dans google et ayant amenées au moins un visiteur.

Ces mots clés sont affichés sous forme de liste.

Samedi soir, il y avait la soirée de la magie sur M6 et dans l'heure suivant l'emission, j'ai reçu un très grand nombre de visiteurs provenant de google sur un site inscrit spécifique : -http://www.compare-le-net.com/index.php?comparer=annuaire/affiche&id_site=400
Les mots clés se trouvent sous le plan de géolocalisation de google

J'affiche donc ces expressions sur plusieurs page pour éviter une trop grande suite de mots clés (50 par pages, est ce trop?)
J'ai 9 pages actuellement de mots clés, google scrawlant jusqu'a la page 7 (visible sous la liste).
Etant donné que sur ces différentes pages, il n'y a que les mots clés qui changent, je ne risques pas de passer pour de la suroptimisation ou une crasse dans le genre?
Faudrait générer un nouveau texte sur chacune de ses pages? n'afficher que les 50 mots clés les plus tappés et envoyer les autres par mail au site inscrit?

En gros y a t-il un risque que celà nuise au site inscrit plus que ca pourrait lui être bénéfique?
 
WRInaute occasionnel
Je dirais oui. Pour plusieurs raisons :
- Tu te positionnes sur ses mots-clés, donc tu lui enlèves du traffic provenant de Google. Le visiteur n'a pas besoin d'un intermédiaire pour aller sur le site qui l'intéresse.
- Tu diffuses des informations assez sensibles pour un webmaster (on aime bien garder ses mot-clés pour soi...). Si un autre webmaster intéressé passe par là et décide de se positionner dessus, ton site et celui de la page de l'annuaire l'avez dans l'os...
- Enfin, ça ne sert ni au visiteurs de ton annuaire, ni au webmaster du site inscrit qui est assez grand pour connaître ses mots-clés.

Arnaud
 
WRInaute accro
Et en plus, si on veut s'amuser à faire du spam de referrer, tu facilites la tâche. :twisted: :twisted: :twisted:
C'est pour cela que je suis obligé de passer du temps à vérifier mes logs pour interdire à certains ip d'accéder à mes sites, car ils procèdent dans ce but. :cry:
Quand on vérifie le lien du soit disant referrer, on ne trouve aucun lien vers nos sites mais en cherchant sur yahoo cette ip ou ce referrer, on s'aperçoit que c'est un habitué du spam de referrer
 
WRInaute discret
Le but de l'affichage des mots clés est de trouver les occurences qu'il ne possède pas sur son site, mais que je possède en couplant l'apercu du texte de sa page, de ses métas (pas pris en compte sur son site si ils le affiche pas) et de ses 2 textes descriptifs.

C'était avant tout un outils pour aider et non pas voler ces visiteurs. Donc en gros, il vaudrait mieux que je retire cette partie.

Pour les spam referer, je controle via une administration qu'il n'y a pas d'abus et banni les ip qui abusent, en effacant les données apportées par celles ci.

Donc en gros, il vaudrait mieux que les mots clés ne soient visiblent que par les sites inscrits une fois authentifiés plutôt que par tous les visiteurs?
 
WRInaute discret
Pour contrôler les référants, je viens de mettre en place un system.

Lors de la récupération du texte de la page référente et de la mise à jour du cache de la fiche détaillée de la page référente, je controle la présence du lien.
Si il n'y es pas alors la page référentes est supprimée et les envois de visiteurs assignés retirés des statistiques.

Celà fonctionne bien mais voilà une nouvelle question que ça soulève :
Les fiches (apercu du texte de la page, pagerank, balises metas, stats www, link, site) sont mise à jour lors de leur visite et si elle a pas été mise à jour depuis X jours. Le problème c est que certains sites ont des temps d accès plus long et donc ralentissent le chargement de la page quand elle est mise à jour. Les robots d indexations parcours certaines fiches plus souvent que les visiteurs, et si la fiche doit etre mise à jour et que le site de la fiche a de long temps d accès, alors c et le moteur de recherche qui se tappera le long chargement de la page (de 2 a 5 sec).
J'ai lu que les pages lentes à chargées pouvaient nuire au référencement.

Comment je pourrais faire, car une mise à jour massive de toutes les fiches utilisent plus des 1000 requetes autorisées de google mais aussi rend le serveur indisponible (du aux ouvertures de sockets).

Alors je pense avoir une solution mais vous devez surement en avoir d autres ou des idées.
Ma solution, c est qu'une fois la page terminée d etre chargée, alors un script appel une page mettant à jour cette fiche.
L'avantage, c est que l on aura plus des "freezes" lors de l affichage de la page
L'inconvénient, c est que la page ne sera pas mise à jour lors de la visite et donc ne changera pas.

Avez vous d autres solutions?
 
Discussions similaires
Haut