Url rewriting : Les limites à ne pas dépasser

WRInaute discret
Bonjour,

j'aimerais bien avoir votre avis sur une certaine utilisation du rewriting et pour savoir comment vous feriez dans votre cas.

y a-t-il abus d'url rewriting si de nombreuses urls sont créées à partir d'une base de données de mots clés et donne des milliers d'URLs du type : -http://www.domaine.com/search-voiture-occasion-nantes

Dans ce cas la page qui s'affiche correspond aux résultats de recherche pour la requêtes "voiture occasion nantes" lorsque l'utilisateur passe par le moteur interne du site web en question.

Le rewriting pour faire indexer et optimiser de nombreuses pages dynamique sur des mots clés intéressant, c'est super ! Mais n'y a t il pas une meilleure façon de procéder que de créer ces pages à partir d'une base de donnée comptant pas moins de 10 000 mots clés ?

Je vous pose cette question car le résultat ne me semble ni search engine friendly ni user friendly, et voici le revers de la médaille:

De nombreuses pages retournent un contenu (résultat de recherche) très similaire voir entièrement dupliqué : exemple : "voiture occasion nantes" & "voiture ancienne nantes" qui forcément vont offrir des résultats très proches.

Parfois ces pages crées ne vont retourner aucun résultat car le site n'a aucun produit correspondant...
Bref ceci me semble être une mauvaise maitrise du rewriting (voir de l'abus). D'un côté cela crée des sitemaps bien fournis, mais d'un autre côté 80 % de ces pages créées artificiellement et présentes dans le sitemap, ne disposent d'aucun lien sur le site, donc ne sont pas directement accessibles par l'utilisateur. C'est très limite non ?

SVP en quelques mots comment est ce que vous géreriez ça vous ?

Merci beaucoup pour vos avis
 
WRInaute impliqué
1 - Si tes pages donne des résultats en DC, GG n'aime pas.
2 - Si tes pages sont concerné par Panda, GG n'aime pas.
3 - Si tes pages s'assimile au résultat d'un moteur de recherche, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)
4 - Si tes pages sont suroptimisés, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)
 
WRInaute discret
Dolph a dit:
1 - Si tes pages donne des résultats en DC, GG n'aime pas.
2 - Si tes pages sont concerné par Panda, GG n'aime pas.
3 - Si tes pages s'assimile au résultat d'un moteur de recherche, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)
4 - Si tes pages sont suroptimisés, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)

Ah bon Google pénalise le Duplicate content ? Et bien ça m'en bouche un coin :D

Beaucoup de ceux qui gèrent des sites dynamiques doivent être confrontés à des problématiques comme celle que je viens de soumettre sur le forum. Le But du topic est d'échanger autour de cette problématique et pourquoi pas de recueillir des bonnes pratiques...

1 - Dans l'exemple que j'ai soumis, ne serait-il pas judicieux de limiter la taille de la base de mots clés à partir de laquelle son générées ces urls rewritées ?

2 - Est-il pensable que des URLs présentent dans le fichier sitemap.xml ne soient pas accessibles par le biais de la navigation on site ?

3 - Dans le cas ou de trop nombreuses url rewritées génèrent des pages au contenu similaires, est il envisageable de choisir une url favorite et de faire des 301 vers cette URL ?

4 - Faut-il plutôt corriger ce problème en amont et revoir la manière dont sont crées ces URLs rewritées (je rappelle qu'elles sont crées à partir d'une base de milliers de mots clés).

5 - Bref, peut on discuter ensemble de cette problématique (si ça intéresse quelqu'un bien sur :) ) et essayer d'en tirer des pistes de réflexion intéressantes ?

Merci à tous :wink:
 
WRInaute impliqué
Je vais faire simple.

GG n'aime pas les sites qui indexent leur résultats de recherche. Soit il les découvre lui-même et les sanctionne, soit on les dénonce et il les sanctionne.

Maintenant, tu fais comme tu le sent.
 
WRInaute accro
+1 Dolph. SI c'est juste pour faire de la volumétrie sans essayer de faire du qualitatif (éviter le DC notamment, mais pas que), ca n'a strictement aucun intérêt, ni pour l'utilisateur, ni pour le moteur de recherche.
 
WRInaute discret
Les mecs la question c'était pas : Est ce bien ou pas bien ?

Je sais que le dc c'est pas bien, le but du topic c'était d'évoquer des alternatives aux problèmes.

GG aime pas les sites qui indexent leurs résultats de recherche
Je répondrai simplement par : Si Google n'aime pas... pourquoi il les indexe alors ? Personne ne l'a obligé.

Mais sinon dis moi, si un utilisateur cherche : Appart à louer à Paris ... En quoi ce serait gênant qu'il tombe sur une page généré dynamiquement et proposant les résultats de sa requête ? Tu peux m'expliquer ?
 
WRInaute accro
Bon alors on reprend :)

Tu as mis toi même en évidence les problèmes de cette technique dans ton premier message.

Ta question était "comment on gère" ? La réponse est "on ne fais pas" on s'assure que les "pages" ainsi générées ont du vrai contenu pertinent, et on n'essaie pas de jouer au petit malin avec les urls pour générer dix fois la même page pour des requêtes quasiment identique

Ou alors on fait un vrai moteur de recherche
 
WRInaute impliqué
Attend. Tu veux indexer des résultats de recherche.
GG n'aime pas, voir l'interdit.
Nous, on aime pas parce que cela s'apparente à du spam de SERPs.

Et tu veux qu'on t'aide...
Tu ne vois pas comme un problème ?
 
WRInaute discret
Dolph a dit:
Attend. Tu veux indexer des résultats de recherche.
GG n'aime pas, voir l'interdit.
Nous, on aime pas parce que cela s'apparente à du spam de SERPs.

Pourtant je pensais bien avoir écrit en français. Si je veux spammer je n'ai pas besoin d'aide et faites pas semblant de ne pas avoir compris ma question car elle était claire.

Avant même que vous parliez de DC c'est moi qui l'ai évoqué, et j'ai jamais dit c'est bien ou c'est pas bien et je n'ai jamais dit aidez-moi à spammer.

Maintenant si vous me dites, désolé mais il n'y a aucune technique pour faire proprement ce que tu veux faire, comme l'a fait Marie Aude et bien c'est déjà un pas et un début de réponse à ma question.

Par contre ne vient pas me raconter que faire indexer une page avec des résultats de recherche c'est du Spam de Serps car c'est n'importe quoi.

Pour reprendre le même exemple si je cherche, Appart à louer à Paris, je préfère tomber sur une page avec pleins d'offres, donc une page de résultat, sur laquelle je vais pouvoir cliquer sur les offrent qui m'intéressent. Dans ce cas de figure je vois pas en quoi c'est du spam.

Dolph a dit:
Et tu veux qu'on t'aide...
Tu ne vois pas comme un problème ?

C'est comme Google personne l'oblige à indexer, et toi personne t'oblige à m'aider :) Donc pas la peine de monter sur tes grand chevaux avec "le spam c'est moche" car c'était pas du tout l'objet de mon message, et si c'était mon but je serai surement pas venu sur webrankinfo mais sur autres forums blackhat...

Dans le même style : si tu veux vraiment chipoter, Google n'aime pas les échanges de liens car ils ne sont pas naturels, pourtant sur ton site tu en fais, comme tout le monde... La réaction du justicier ça me fait bien marrer moi :mrgreen:
 
WRInaute accro
sans parler de bien ou de mal, des pages avec des contenus quasi identiques, surtout si elles sont vides, risquent de fortement baisser le trustrank de ton site, ces types de pages ne peuvent être faits à la volée.
Déjà, pour les pages vides, il te suffit d'ajouter une meta noindex pour les doublons, là...
 
WRInaute discret
Leonick a dit:
sans parler de bien ou de mal,

Merci Leonick

Leonick a dit:
des pages avec des contenus quasi identiques, surtout si elles sont vides, risquent de fortement baisser le trustrank de ton site

Entièrement d'accord, c'est justement pour cela que j'ai posé le problème


Leonick a dit:
ces types de pages ne peuvent être faits à la volée.

à la volée, tu veux dire par là pas automatiquement je suppose. Par contre sur des mots clés importants pour lesquels la page propose des résultats pertinents, aucune raison de les désindexer n'est ce pas ?

Leonick a dit:
Déjà, pour les pages vides, il te suffit d'ajouter une meta noindex pour les doublons, là...

Et bien merci pour le conseil, et la supprimer définitivement ne serait-il pas mieux ?

Dernière question, une fois les pages inutiles supprimées ou mises en no index, les pages restantes et citées dans le sitemap.xml doivent absolument être accessibles via la navigation sur le site n'est ce pas ?

Merci
 
WRInaute accro
masterblaster a dit:
à la volée, tu veux dire par là pas automatiquement je suppose.
si, justement, pour moi "à la volée" voulait dire sans intervention humaine de filtrage
masterblaster a dit:
Et bien merci pour le conseil, et la supprimer définitivement ne serait-il pas mieux ?
oui, mais si un internaute fait une recherche sur ton moteur de recherches internes et qu'il ne trouve aucune réponse, la page doit être en noindex pour ne pas que gg l'indexe
 
WRInaute accro
Dolph a dit:
Parce que tu crois qu'un internaute qui se pointe sur GG pour trouver une info et donc, qui parcours ses SERP est satisfait lorsqu'il crois avoir trouvé de se retrouver sur une nouvelle pages affichant des résultats de requêtes interne ?
Redescend un peu sur Terre.
c'est pourtant ce que les annuaires font en affichant les catégories et sous-catégories, vu que l'info est la fiche site ?
après, il ne faut pas en abuser et retrouver 2 pages de requêtes différentes avec les mêmes résultats
masterblaster a dit:
Je pense qu'on s'est bien compris non ? Il faut arrêter de générer ces pages automatiquement c'est bien ça ? :)
oui
 
WRInaute impliqué
Léonick, des SERPs et des catégories, c'est pas la même chose.

Evidement, on peut jouer sur les mots si on met un site dans 10 catégories c'est clairement identique à des SERPs.
C'est pareil avec les système des tags.
Au final, quand y en trop, c'est plus du tag ou de la catégorie, mais du pseudo SERPs.

D'un autre coté la différence entre catégories et serps, c'est que pour le premier, en général, elle sont clairement lisible et identifiable sur le dit site au contraire des générations de pages à la volé avec mots clés.
 
WRInaute accro
Dolph a dit:
D'un autre coté la différence entre catégories et serps, c'est que pour le premier, en général, elle sont clairement lisible et identifiable sur le dit site au contraire des générations de pages à la volé avec mots clés.
c'est pour ça que je lui disais qu'il ne fallait surtout pas les créer à la volée, mais les filtrer au préalable
 
WRInaute passionné
Si je résume les conseils : si tu fais une liste de page avec tout un tas de variantes de synonymes et d'orthographes du style "appart Paris", "appart dans la capitale", "appartement à Paris", ... c'est pas bon
Par contre si ca correspond à des pseudos catégories style "appart à Paris", "appart à Marseille", "maison à Lyon", "maison à Dijon" c'est bon.
 
WRInaute discret
forty a dit:
Si je résume les conseils : si tu fais une liste de page avec tout un tas de variantes de synonymes et d'orthographes du style "appart Paris", "appart dans la capitale", "appartement à Paris", ... c'est pas bon
Par contre si ca correspond à des pseudos catégories style "appart à Paris", "appart à Marseille", "maison à Lyon", "maison à Dijon" c'est bon.

Leonick a dit:

On ne peut plus clair les mecs !

Comme quoi dans l'absolu les résultats d'un site peuvent être indexés, mais en faisant attention de bien maitriser le truc et pas prendre des risques de DC ou de pages vides.

Donc en soit le PB c'est la génération automatique et non contrôlées de pages de ce type, mais dans une certaine mesure ca peut être envisageable sans trop de problèmes...

Et ben Merci !
 
WRInaute passionné
ce n'est pas quel moyen est utilisé pour générer les pages qui est important. Ca peut-être un moteur de recherche, des catégories thématiques, géographiques ou des croisements des deux, ...

La question c'est plutôt de savoir si les différentes pages sont pertinentes et suffisamment différentes les unes des autres.
 
WRInaute discret
Marie-Aude a dit:
Bon alors on reprend :)
et on n'essaie pas de jouer au petit malin avec les urls pour générer dix fois la même page pour des requêtes quasiment identique

Pour les pages en DC je suis entièrement d'accord.

par contre (si je sais lire entre les lignes) on peut très bien faire ce dont je parle (laisser indexer des pages de résultats), si on a la garantie qu'elles contiennent un contenu pertinent et unique.
 
WRInaute accro
Comme j'ai la flemme de nettoyer tous ces messages des parties désagréables, je ferme le topic.

Vous avez quoi tous en ce moment ? C'est le printemps ? La montée d'hormones ?

On peut être en désaccord sans traiter les autres de cons. Et discuter sans faire de l'attaque ad hominem

Edit : voilà, suppressions faites. C'est dommage, il y a des trucs intéressants qui sont partis à la poubelle, mais je commence à en avoir assez de faire dans la dentelle
 
WRInaute passionné
la mésentente vient surement du fait que tu emploies le terme "pages de résultats" alors que le terme le plus approprié pour ce que tu décris est "page de contenu".
 
Discussions similaires
Haut