Vérifier sa position dans GG sur des milliers de mots-clés ?

Nouveau WRInaute
Bonjour,

Je voudrais savoir si il existe un moyens pour verifier la positions de mes sites dans Google sur les milliers de mots cles sur lesquels je travaille. Un truc bien organise ou je puisse inserrer tous mes mots cles et avoir un rapport des que je le souhaite.
Mais, qui respecte le guideline de Google: "Don't use unauthorized computer programs to submit pages, check rankings, etc. Such programs consume computing resources and violate our terms of service. Google does not recommend the use of products such as WebPosition Gold™ that send automatic or programmatic queries to Google"

Merci!
 
WRInaute passionné
Non aucun moyen si ce n'est consulter tes statistiques d'acces. Sur quelques dizaines de mots-clés on peut encore utiliser des softs types Agent Web Ranking, mais au dela c'est tres long et couteux en ressources, sans compter que Google n'apprecie pas...
 
Nouveau WRInaute
Donc la logique est:
- regarder les keys sur lequels je veux sortir contre ceux avec lesquels je sors... C'est du manuel tout ca...
j'ai des 10ene de sites et dont certains ont des milliers de pages donc des milliers de keywords a verifier...
je sais pas quoi faire....
Comment font les grosses boites. Elle emploies des gens juste pour faire ce boulot idiot?
 
WRInaute passionné
perso je ne pense pas qu'il faille raisonner en terme de positionnement sur des mots clés quand on a autant de mot clés justement :)

C'est ingérable et peu productif. Si on a autant de mots clés c'est qu'on a beaucoup de contenu, et donc le travail n'est pas tant de chercher le mot clé idéal que de valoriser l'ensemble du contenu.
 
Nouveau WRInaute
... Bouhouhou ...
je comprends pas l'histoire "Google n'apprecie pas...". Y a t il un impact sur nos sites? Si oui, se serait trop facile de faire du mal a la concurrence. Si non, qu'est qui nous en empeches?
 
WRInaute passionné
En cas d'interrogations par logiciel trop fréquentes Google peut couper l'accès au moteur. Mais ca ne change rien au référencement du site.

(Mais bon faut vraiment abuser quand même)
 
WRInaute passionné
moutopoulos a dit:
Comment font les grosses boites. Elle emploies des gens juste pour faire ce boulot idiot?

Elles passent par des proxy anonyme.

Ce que j'ai fait pendant 3 ans (2000-2003), avant de baisser les bras.
Le programme à developper pour un seul moteur (Google), est relativement simple.

Les deux difficultés principales sont :
- Gérer la liste des proxys anonyme (qui régulièrement vont bloquer ton IP).
- Gerer les modifications de regexp au niveau des différents moteurs de recherches. Cette difficulté disparait si tu ne te concentre que sur Google.

Pour info nous faisions plusieurs millions de requêtes par WE.
Un mot clé, sur un seul moteur = 3 requetes (nous récupérions les 3 premières pages des moteurs).

Tu multiplie le nbr de keywords, par les moteurs, par les langues (nous avions même Yahoo Asie dans nos moteurs), par les différentes options et * 3. Tu obtiens plusieurs millions de requetes par Week-end.

Deux serveurs Linux dédié ne faisaient que ça.

Nous étions les seuls à pouvoir (et je pense qu'aujourd'hui encore cette fonction n'existe pas) à pourvoir trouver avec quels mots les concurrents étaient référencés, et à suggerer automatiquement ces mots à nos clients.

La solution était simple :
- nous enregistrions dans plusieurs fichiers index, l'ensemble 30 premiers résultats des moteurs de recherches.
L'outil fonctionnait donc en deux temps :
- première phase de crawl (interrogation des moteurs)
- deuxième phase génération des rapports de ranking.

Le point faible de l'outil : impossibilité de générer un rapport en temps réel. La génération des rapports de ranking ne se faisaient que le lundi matin.
--
 
Nouveau WRInaute
J'ai du mal a comprendre "valoriser l'ensemble du contenu". Je serais heureux si tu pouvais expliquer un peu.
Le truc, je sais pas si t'as vu le site principal, c'est que je bosse sur des regions et iles. Quelqu'un cherche des infos sur l'ile avec pleins de mots clef: cartes, musee et des centaines d'autres. Alors quand tu sais qu'il y a des 10ene d'iles, c'est la folie...
J'ai du mal a comprendre "valoriser l'ensemble du contenu"
 
WRInaute passionné
"valoriser le contenu" = faire un site accessible aux moteurs, bien structuré, respectant les normes de balisage sémantiques, avec un <title> spécifique au contenu de chaque page.
 
WRInaute passionné
moutopoulos a dit:
Pourquoi as-tu baisse les bras?

Financièrement non rentable. Des solutions logicielles clientes telle que AgentWebRanking sont bc plus adapté au marché.
Notre solution s'adressait à des web agencies ayant de très important volume de ranking à faire.

De plus la maintenance de plusieurs centaines de moteurs c vraiment galère.

J'ai du code source pour faire du ranking uniquement sur l'ensemble des DataCenters de Google.
Peut-être que je vais le mettre en Open Source.
L'intéret n'est pas dans la mise en Open Source du code.
Il serait plutot dans la réalisation d'un crawl coopératif entre tout les utilisateurs du projet OpenSource.
Chaque PC participant au projet aurait un petit bout du crawl à faire.
L'ensemble des données seraient accessible à tout les participants.

C'est un projet qui me tente bien, mais j'ai pas vraiment envie de me prendre la tete avec le service juridique de Google.

Google n'est jamais arrivé à nous bloquer techniquement.
Juridiquement, il aurait suffit d'une seule lettre recommandée pour que l'on stoppe sur le champ.
--
 
Discussions similaires
Haut