GGbot crawl le .htaccess ?

WRInaute discret
Voilà une question vient, le but de l'url rewrting est de faire faire apparaître une url propre tout le monde sera d'accord avec moi c'est certains. Hors, lors de l'indexation des pages d'un site le GGbot passe par le .htaccess ? a t- il des droits reservé en tant que robot d'indexation ?

Autre chose j'ai essayé une méthode semi- froduleuse qui aurait pour but de faire un duplicate content avec le htaccess.. simplement en donnant plusieurs noms à la page et donc de la faire apparaître sur plusieurs mots clef en ayant qu'une seule page réèlle de crée. mais comment arrive t-il (le GGbot) à référencer la page fictive ?

1ere redirection : pwet-poutou.html

2eme redirection : pwet-de-poutou.html

etc...

Par conséquent, sans faire de duplicate content j'ai l'impression qu'on peux attribuer à une page plusieurs nom et ainsi se psitionner sur encore plus de mots clefs via l'url voulue...

Quelqu'un aurai fait le test? quelqu'un peux répondre à la question ? m'expliquer pourquoi le GGbot arrive a crawler toutes les pages nommées dans le htaccess arrivent en résultat dans google...

Bien à vous,

Xcepty.
 
WRInaute passionné
Xcepty a dit:
Hors, lors de l'indexation des pages d'un site le GGbot passe par le .htaccess ? a t- il des droits reservé en tant que robot d'indexation ?

Il est impossible de lire le fichier .htaccess, sinon c'est que tu as des pb de droits sur ton serveur.
 
WRInaute passionné
Xcepty a dit:
Voilà une question vient, le but de l'url rewrting est de faire faire apparaître une url propre tout le monde sera d'accord avec moi c'est certains. Hors, lors de l'indexation des pages d'un site le GGbot passe par le .htaccess ?
Non.
a t- il des droits reservé en tant que robot d'indexation ?
bien sûr que non.

Autre chose j'ai essayé une méthode semi- froduleuse qui aurait pour but de faire un duplicate content avec le htaccess.. simplement en donnant plusieurs noms à la page
inutile, tu ne floueras personne avec ça, c'est même pénalisant.
et donc de la faire apparaître sur plusieurs mots clef en ayant qu'une seule page réèlle de crée.
le contenu de la page peut aussi (il parait) être un facteur important dans la détermination des mots-clefs, hein... tu y as pensé ?
mais comment arrive t-il (le GGbot) à référencer la page fictive ?
si tu ne fais pas de liens vers ces pages, il risque pas de les trouver. si tu fais des liens, il va les trouver, voir qu'elles sont pareilles, et les pénaliser.

Par conséquent, sans faire de duplicate content
ben si, c'en est.
j'ai l'impression qu'on peux attribuer à une page plusieurs nom et ainsi se psitionner sur encore plus de mots clefs via l'url voulue...
et bien sûr que non.

Quelqu'un aurai fait le test? quelqu'un peux répondre à la question ? m'expliquer pourquoi le GGbot arrive a crawler toutes les pages nommées dans le htaccess arrivent en résultat dans google...
Cette question n'est pas écrite en français, j'y comprends rien.

Bien à vous,

Xcepty.
Cordialement,
Dj_Apx.
 
Discussions similaires
Haut