Avis méthodes de référencement

Nouveau WRInaute
Bonjour,

Je souhaite optimiser mon référencement en essayant des techniques que j'imagine chaque jours, ai-je le droit de crée par exemple 1000 pages avec la même source (mon index) mais avec une balise title, description et un nom de page différent car si cela marche ça peut faire grimper mon taux de lien entrants, de contenu et les noms peuvent être bien cibler avec le title et la description.

google pénalise ?
(je vais en coder un qui modifie le fichier sitemap.xml a chaque création de nouvelle page, en php).

Seconde question : si je crée un script de tag automatique lors de la création de nouveaux articles par exemple :
site.fr/tag/kw1
site.fr/tag/kw2
avec des liens direct de ma page d'acceuils à ces liens, est-ce possible pour augmenter mon seo ? ou c'est pénaliser ?
car j'ai si l'internaute tape les mots clés exemple: télécharger kw1-kw2, s'il n'y a pas de concurrence on me trouve en tête facilement sur google c'est pour ça que ça me tente. Avec un ancien site wordpress je n'avais ouvert qu'une semaine et j'arrivais déjà a me trouver en liste de recherche avec google avec des mots tel : téléchargez (livre) pdf, ...

J'attend vos réponses, merci !
 
WRInaute discret
A mon gout, et je ne suis pas pro, mais si cela n'a aucune utilité pour les visiteurs c'est pénalisant... Place toi du côté utilisateurs final et pas côté moteur de recherche, ca ne marche plus tout ca ;)... Si tu as quelque chose à offrir de bien, google le fera savoir, sinon t'es mal...
 
WRInaute accro
ce n'est pas le nombre de pages web qui est pénalisant, c'est leur niveau d'intérêt !
Créer des pages avec des META uniques est très loin d'être suffisant pour justifier leur création.
Il faut que leur contenu soit aussi unique. C'est là que cela se complique !
 
WRInaute accro
En gros tu veux réinventer le duplicate content et les Tag clouds . Pas une bonne idée, et ce depuis plusieurs années, mais tu fais bien de poser la question avant de le faire :)
 
WRInaute discret
Mais tu pourras trouver des méthodes de black hat bien pourries (au sens de Google) et qui pourtant bernent très bien le moteur. Cela fait pourtant des années que ces pages poubelles sont balancées via des spam report, mais Google s'en contrefout apparemment. Le tout c'est de monter la méthode black qui passe le plus longtemps possible.

Certains font leur beurre avec ça, pour ma part je trouve que le risque est trop fort pour le client donc je n'en fais pas.

Quoique tu imagines en automatisé, dis toi que dans la majorité du temps, c'est supposé être pénalisé. Le seul truc non pénalisé en théorie c'est "l'augmentation d'un contenu unique" et l'acquisition réellement naturelle de liens. ahahaha...
 
Discussions similaires
Haut