Bonjour,
un mauvais rêve m'a agité cette nuit (ou un cauchemar plutot :cry: ) :
Tout le monde ici sera d'accord sur l'intérêt de pratiquer l'url rewriting pour des pages comportant plusieures variables et ce afin d'améliorer (sensiblement) ses positions.
Seulement voilà.
Considérons la page suivante : .../motclé-1234.html
motclé est un mot clé généré grâce à l'url rewriting et qui reprend par exemple un mot clé important du titre
1234 est l'id de la page
La page d'origine en php serait donc la suivante : .../motsansinteret.php?id=1234
Maintenant imaginons que la page rewritée soit n° 1 sur Google sur des requetes très concurentielles
Donc des concurrents s'intéressent de plus près à mon site. Ils remarquent que celui-ci est rewrité
:lol:
Imaginons maintenat un très méchant concurrent qui veuille ma peau. Il se fait la remarque suivante :
motclé-1234.html appelle la meme page que nimportequelmot-1234.html
il décide donc de créer un site qui s'appelera un "killer de concurrent" et sur lequel il va creer des centaines de liens de ce type :
mot1-1234.html ; mot2-1234.html ; mot3-1234.html ... etc et qui renvoient tous à la meme page à savoir motclé-1234.html
Parce que c'est un teigneux, il va réitérer l'opération sur 10 autres sites créés pour l'occasion mais il prendra soin que ces sites ne soient pas liés entre eux et pas sur le même bloc C et pas non plus hébergés dans les mêmes pays et tout cela afin de créer à sa victime un duplicate content impressionnant :lol:
Enfin, une fois que les bots auront indexé les pages de ses sites "killer de concurrent", il va régulièrement utiliser l'outil de spam report de google pour dénoncer le site de sa victime.
Au bout d'un moment, Google ne va-t-il pas considérer le site victime sous un autre oeil et se pencher sur son cas ?
Déclassement du site, voire blacklistage.
Vous allez me dire c'est du Spielberg, et puis de toute façon les sites "killer de concurrent" finiront par être démasqués... etc...
Oui mai en attendant, Google peut très bien dans un premier temps se laisser piéger, quitte à réintégrer le site victime par la suite.
Mais c'est ça que je trouve inquiétant. Car les boulettes et Google, ce n'est pas imcompatible. Pire, la lenteur, voire très grande lenteur de réaction de ce moteur depuis maintenant des mois ne laisse rien présager de bon en cas de coup dur. Et quid des pages indexées à cause du méchant killeur de concurrent. Je vois encore dans l'index des pages qui ont plus d'un an et qui n'existent plus !
Sans compter que pour un webmaster, même 2 mois de blacklistage peut être une catastrophe.
Bref, je me dis que l'url rewriting doit être utilisé seulement si on ne peut pas faire autrement. C'est la réflexion que j'avais lancée dernièrement sur un autre topic concernat phpbb ou je me posais la question de l'intérêt de de rewriter phpbb pour remplacer "viewtopic.php?t=1234" par "viewtopic-1234.html"
Après cette nuit, je me dis que le type de rewriting cité juste au dessus, n'apporte rien, ne vaut pas le cout car il n'apporte meme pas de mot clé dans l'url.
Pire : l'url rewriting représente selon moi une faille énorme de la sécurité d'un site, la possibilité de perte de controle par le webmaster.
De toute façon j'ai tendance à me mefier de tous les bidouillages servant à améliorer artificiellemnt son classement. L'url rewriting est bien un bidouillage car on trafique la page d'origine en cachant sa véritable identité. Tout cela à cause des moteurs qui nous poussent à toujours vouloir grapiller des places aux autres, on joue sans cesse avec des techniques de passe-passe toujours à la limite
Peut être que dans 2 ans, l'url rewriting sera compris par les bots et même pénalisé !
Enfin, dites moi si j'ai déliré :lol:
un mauvais rêve m'a agité cette nuit (ou un cauchemar plutot :cry: ) :
Tout le monde ici sera d'accord sur l'intérêt de pratiquer l'url rewriting pour des pages comportant plusieures variables et ce afin d'améliorer (sensiblement) ses positions.
Seulement voilà.
Considérons la page suivante : .../motclé-1234.html
motclé est un mot clé généré grâce à l'url rewriting et qui reprend par exemple un mot clé important du titre
1234 est l'id de la page
La page d'origine en php serait donc la suivante : .../motsansinteret.php?id=1234
Maintenant imaginons que la page rewritée soit n° 1 sur Google sur des requetes très concurentielles
Donc des concurrents s'intéressent de plus près à mon site. Ils remarquent que celui-ci est rewrité
:lol:
Imaginons maintenat un très méchant concurrent qui veuille ma peau. Il se fait la remarque suivante :
motclé-1234.html appelle la meme page que nimportequelmot-1234.html
il décide donc de créer un site qui s'appelera un "killer de concurrent" et sur lequel il va creer des centaines de liens de ce type :
mot1-1234.html ; mot2-1234.html ; mot3-1234.html ... etc et qui renvoient tous à la meme page à savoir motclé-1234.html
Parce que c'est un teigneux, il va réitérer l'opération sur 10 autres sites créés pour l'occasion mais il prendra soin que ces sites ne soient pas liés entre eux et pas sur le même bloc C et pas non plus hébergés dans les mêmes pays et tout cela afin de créer à sa victime un duplicate content impressionnant :lol:
Enfin, une fois que les bots auront indexé les pages de ses sites "killer de concurrent", il va régulièrement utiliser l'outil de spam report de google pour dénoncer le site de sa victime.
Au bout d'un moment, Google ne va-t-il pas considérer le site victime sous un autre oeil et se pencher sur son cas ?
Déclassement du site, voire blacklistage.
Vous allez me dire c'est du Spielberg, et puis de toute façon les sites "killer de concurrent" finiront par être démasqués... etc...
Oui mai en attendant, Google peut très bien dans un premier temps se laisser piéger, quitte à réintégrer le site victime par la suite.
Mais c'est ça que je trouve inquiétant. Car les boulettes et Google, ce n'est pas imcompatible. Pire, la lenteur, voire très grande lenteur de réaction de ce moteur depuis maintenant des mois ne laisse rien présager de bon en cas de coup dur. Et quid des pages indexées à cause du méchant killeur de concurrent. Je vois encore dans l'index des pages qui ont plus d'un an et qui n'existent plus !
Sans compter que pour un webmaster, même 2 mois de blacklistage peut être une catastrophe.
Bref, je me dis que l'url rewriting doit être utilisé seulement si on ne peut pas faire autrement. C'est la réflexion que j'avais lancée dernièrement sur un autre topic concernat phpbb ou je me posais la question de l'intérêt de de rewriter phpbb pour remplacer "viewtopic.php?t=1234" par "viewtopic-1234.html"
Après cette nuit, je me dis que le type de rewriting cité juste au dessus, n'apporte rien, ne vaut pas le cout car il n'apporte meme pas de mot clé dans l'url.
Pire : l'url rewriting représente selon moi une faille énorme de la sécurité d'un site, la possibilité de perte de controle par le webmaster.
De toute façon j'ai tendance à me mefier de tous les bidouillages servant à améliorer artificiellemnt son classement. L'url rewriting est bien un bidouillage car on trafique la page d'origine en cachant sa véritable identité. Tout cela à cause des moteurs qui nous poussent à toujours vouloir grapiller des places aux autres, on joue sans cesse avec des techniques de passe-passe toujours à la limite
Peut être que dans 2 ans, l'url rewriting sera compris par les bots et même pénalisé !
Enfin, dites moi si j'ai déliré :lol: