Comment ne pas nuire au SEO avec ses tests

Nouveau WRInaute
Bonjour,
je découvre un peu tardivement les joies d'un bon SEO après la mise en prod de quelques petits sites web et je viens de prendre conscience qu'à priori ma démarche pour les tests n'est pas très propre...
Exemple 1 : je réserve un nom de domaine, crée un multi-domaine sur un mutu ou bien j'ai un serveur perso ou autre dédié à ce nouveau domaine. Je développe en local (Wamp) puis assez vite, je mets le site non prodé sur un répertoire ou sous-domaine genre http://www.example.com/test ... et ça dure un temps indéterminé avant que http://www.example.com soit prodé avec un bon référencement dedans qui se fait tout à la fin.
Exemple 2 : même cas de figure mais je garde mon http://www.example.com/test pour continuer justement des tests sur l'ancien site de tests qui est souvent le quasi même que le site de prod. Aie! pour le SEO avec certainement un paquet de page identique mais avec 2 URL différentes...

Bon, si je fais cela, c'est que très vite j'ai besoin de tester en ligne et à plusieurs et à distance (lieux géographiques différents, pour voir ce que cela donne...

Après une première recherche sur le web, une possibilité consisterait à disposer d'un nom de domaine et d'un petit hébergement quelconque pour faire ces tests et de fermer l'accès au serveur aux robots...
Et via le forum oVH, il m'est conseillé de mettre ds robot.txt :
User-agent: *
Disallow: /test
et de coupler avec un détecteur d'user agent qui redirige vers le site en prod les robots pour les faire sortir de l'index...

Je reste quelque peu vert dur la partie détecteur d'user d'agent... ?
Et côté secveur de prod et de test, de bonnes pratiques à mettre en œuvre ?
 
Nouveau WRInaute
Marie-Aude a dit:
La seule protection valide et efficace à 100% est la combinaison .htaccess .htpsswd
merci du conseil et effectivement, cela semble être la solution et je vais de ce pas m’enquérir du code à appliquer... à suivre.
 
WRInaute passionné
La découverte de test en réel et sa mise en pratique est la seule bonne manière de pratiquer du SEO de qualité.

ce n'est pas simple, on se rend vite compte du volume colossal de combinaisons possible. Toutefois, on est pas non plus obligé d'etre exhaustif pour tous les genres de site. On peu se limiter a un type de site dont on a la charge ou que l'on souhaite développer ou améliorer.

Je prépares un deuxième site de test, ou projet entier sur ce thème, car mon premier site de test m'a révélé rapidement la complexité et la limite possible. il y a deux facteurs bloquant :
- 1) le DC, duplicate content, car il faut du rédactionnel pour faire des tests, et sur des centaines ou millier ou encore million de tests, c'est un travail gigantesque.
- 2) la limite d'affichage de google sur un mot clé secret et unique, environ 15 a 20 résultats maxi :sur mon site de 150 test utilisant le même mot clé, je n'ai que 14 résultats affichés par Google (donc les 14 meilleurs sur 150).

La première chose qu'il ne faut pas faire sur un site de test, c'est d'utiliser les mêmes phrases que le site que l'on veut mettre en production ...
La raison est double :
- le Duplicate content comme deja dit
- même si l'on utilise la balise "CANONICAL" ou autre moyen de rediriger sur le site de production, nous ne pourrons plus voir les changements des modifs de Google avec le site de test. Et Google change ses critères 500 fois par an ...
Sur le site de test, on verra mieux quel critère est plus important, il faut donc le garder a vie ...
 
WRInaute accro
pour ne pas indexer les pages tests vous pouvez utiliser la balise <meta name="robots" content="noindex,nofollow" />
 
Nouveau WRInaute
En complément à ce sujet, maintenant que des pages de test sont référencées, du genre http://www.example.com/test/page.html lorsque sous google je saisis example.com , j'aimerais savoir comment les dé-référencer proprement sans nuire au SEO ; mon 1er réflexe, serait de supprimer le répertoire /test via FTP ou bien de rendre inacessible (disallow, .htaccess, etc) ce répertoire... A priori, ce n'est pas forcément la meilleure façon de faire car rendre inaccessible des pages déjà référencées sans précaution particulière, c'est peut-être pas propre... Merci de vos avis.
 
WRInaute accro
Marie-Aude a dit:
Suppression du répertoire via Googlewebmaster tools

ou avec noindex,nofollow

en ce moment je construit un site directement sur le ndd, avec noindex,nofollow, je viens de regarder dans les serps et le site n'est pas indexé. Cela me permet de ne pas bidouiller, au client d'avoir acces a son site et qu'il puisse donner l'url a quelques proches pour voir l'evolution des travaux.

Des que je passe en production, j'enleve le tag noindex,nofollow et avec quelques liens google va l'indexer

simple et rapide
 
WRInaute accro
Oui, mais ça c'est tant qu'il n'est pas indexé. Une fois qu'il l'est, c'est pas très rapide de désindexer avec ça. Par ailleurs, si tu as tout un répertoire, il se peut que des pages ne soient liées que par des pages en noindex nofollow. Dans ce cas, Google, respectueux des standards :D n'ira pas les voir, et ne saura donc pas qu'elles sont à désindexer ^^
 
WRInaute accro
Marie-Aude a dit:
Oui, mais ça c'est tant qu'il n'est pas indexé.

je suis d'accord avec toi. je parlais avant de faire la betise. pour réparer, comme la dit longo600 il faut faire des redirections 301.

pour rediriger un répertoire vers la racine du site, ce code devrait suffir:
Code:
RewriteEngine On
RewriteCond %{REQUEST_URI} ^/test/(.*)
RewriteRule ^$  http://le-domaine.com/%1 [L,R=301]
 
Nouveau WRInaute
Ok pour rediriger en 301 un site de test qui devient donc le site de production.
Une question concernant une page d'attente qui sera bien référencée pendant que le futur site web se teste bien à l'abri... cette page de test, si elle est à la racine www du site en tant que index.html, sitôt le site en prod avec son index.html définitif, toute l'indexation de la page d'attente précédente sera perdue. Donc, il faudra avoir une page d'attente à part, qui sera redirigée en 301 par la suite...
 
Discussions similaires
Haut