Bonjour,
je découvre un peu tardivement les joies d'un bon SEO après la mise en prod de quelques petits sites web et je viens de prendre conscience qu'à priori ma démarche pour les tests n'est pas très propre...
Exemple 1 : je réserve un nom de domaine, crée un multi-domaine sur un mutu ou bien j'ai un serveur perso ou autre dédié à ce nouveau domaine. Je développe en local (Wamp) puis assez vite, je mets le site non prodé sur un répertoire ou sous-domaine genre http://www.example.com/test ... et ça dure un temps indéterminé avant que http://www.example.com soit prodé avec un bon référencement dedans qui se fait tout à la fin.
Exemple 2 : même cas de figure mais je garde mon http://www.example.com/test pour continuer justement des tests sur l'ancien site de tests qui est souvent le quasi même que le site de prod. Aie! pour le SEO avec certainement un paquet de page identique mais avec 2 URL différentes...
Bon, si je fais cela, c'est que très vite j'ai besoin de tester en ligne et à plusieurs et à distance (lieux géographiques différents, pour voir ce que cela donne...
Après une première recherche sur le web, une possibilité consisterait à disposer d'un nom de domaine et d'un petit hébergement quelconque pour faire ces tests et de fermer l'accès au serveur aux robots...
Et via le forum oVH, il m'est conseillé de mettre ds robot.txt :
User-agent: *
Disallow: /test
et de coupler avec un détecteur d'user agent qui redirige vers le site en prod les robots pour les faire sortir de l'index...
Je reste quelque peu vert dur la partie détecteur d'user d'agent... ?
Et côté secveur de prod et de test, de bonnes pratiques à mettre en œuvre ?
je découvre un peu tardivement les joies d'un bon SEO après la mise en prod de quelques petits sites web et je viens de prendre conscience qu'à priori ma démarche pour les tests n'est pas très propre...
Exemple 1 : je réserve un nom de domaine, crée un multi-domaine sur un mutu ou bien j'ai un serveur perso ou autre dédié à ce nouveau domaine. Je développe en local (Wamp) puis assez vite, je mets le site non prodé sur un répertoire ou sous-domaine genre http://www.example.com/test ... et ça dure un temps indéterminé avant que http://www.example.com soit prodé avec un bon référencement dedans qui se fait tout à la fin.
Exemple 2 : même cas de figure mais je garde mon http://www.example.com/test pour continuer justement des tests sur l'ancien site de tests qui est souvent le quasi même que le site de prod. Aie! pour le SEO avec certainement un paquet de page identique mais avec 2 URL différentes...
Bon, si je fais cela, c'est que très vite j'ai besoin de tester en ligne et à plusieurs et à distance (lieux géographiques différents, pour voir ce que cela donne...
Après une première recherche sur le web, une possibilité consisterait à disposer d'un nom de domaine et d'un petit hébergement quelconque pour faire ces tests et de fermer l'accès au serveur aux robots...
Et via le forum oVH, il m'est conseillé de mettre ds robot.txt :
User-agent: *
Disallow: /test
et de coupler avec un détecteur d'user agent qui redirige vers le site en prod les robots pour les faire sortir de l'index...
Je reste quelque peu vert dur la partie détecteur d'user d'agent... ?
Et côté secveur de prod et de test, de bonnes pratiques à mettre en œuvre ?