Url rewriting : Les limites à ne pas dépasser

Discussion dans 'Débuter en référencement' créé par masterblaster, 6 Mai 2011.

  1. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Bonjour,

    j'aimerais bien avoir votre avis sur une certaine utilisation du rewriting et pour savoir comment vous feriez dans votre cas.

    y a-t-il abus d'url rewriting si de nombreuses urls sont créées à partir d'une base de données de mots clés et donne des milliers d'URLs du type : -http://www.domaine.com/search-voiture-occasion-nantes

    Dans ce cas la page qui s'affiche correspond aux résultats de recherche pour la requêtes "voiture occasion nantes" lorsque l'utilisateur passe par le moteur interne du site web en question.

    Le rewriting pour faire indexer et optimiser de nombreuses pages dynamique sur des mots clés intéressant, c'est super ! Mais n'y a t il pas une meilleure façon de procéder que de créer ces pages à partir d'une base de donnée comptant pas moins de 10 000 mots clés ?

    Je vous pose cette question car le résultat ne me semble ni search engine friendly ni user friendly, et voici le revers de la médaille:

    De nombreuses pages retournent un contenu (résultat de recherche) très similaire voir entièrement dupliqué : exemple : "voiture occasion nantes" & "voiture ancienne nantes" qui forcément vont offrir des résultats très proches.

    Parfois ces pages crées ne vont retourner aucun résultat car le site n'a aucun produit correspondant...
    Bref ceci me semble être une mauvaise maitrise du rewriting (voir de l'abus). D'un côté cela crée des sitemaps bien fournis, mais d'un autre côté 80 % de ces pages créées artificiellement et présentes dans le sitemap, ne disposent d'aucun lien sur le site, donc ne sont pas directement accessibles par l'utilisateur. C'est très limite non ?

    SVP en quelques mots comment est ce que vous géreriez ça vous ?

    Merci beaucoup pour vos avis
     
  2. Dolph
    Dolph WRInaute impliqué
    Inscrit:
    1 Mars 2011
    Messages:
    557
    J'aime reçus:
    0
    1 - Si tes pages donne des résultats en DC, GG n'aime pas.
    2 - Si tes pages sont concerné par Panda, GG n'aime pas.
    3 - Si tes pages s'assimile au résultat d'un moteur de recherche, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)
    4 - Si tes pages sont suroptimisés, GG n'aime pas. (Et moi non plus. Et je suis un salaud de dénonciateur si ça me gêne ou me porte préjudice.)
     
  3. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Ah bon Google pénalise le Duplicate content ? Et bien ça m'en bouche un coin :D

    Beaucoup de ceux qui gèrent des sites dynamiques doivent être confrontés à des problématiques comme celle que je viens de soumettre sur le forum. Le But du topic est d'échanger autour de cette problématique et pourquoi pas de recueillir des bonnes pratiques...

    1 - Dans l'exemple que j'ai soumis, ne serait-il pas judicieux de limiter la taille de la base de mots clés à partir de laquelle son générées ces urls rewritées ?

    2 - Est-il pensable que des URLs présentent dans le fichier sitemap.xml ne soient pas accessibles par le biais de la navigation on site ?

    3 - Dans le cas ou de trop nombreuses url rewritées génèrent des pages au contenu similaires, est il envisageable de choisir une url favorite et de faire des 301 vers cette URL ?

    4 - Faut-il plutôt corriger ce problème en amont et revoir la manière dont sont crées ces URLs rewritées (je rappelle qu'elles sont crées à partir d'une base de milliers de mots clés).

    5 - Bref, peut on discuter ensemble de cette problématique (si ça intéresse quelqu'un bien sur :) ) et essayer d'en tirer des pistes de réflexion intéressantes ?

    Merci à tous :wink:
     
  4. Dolph
    Dolph WRInaute impliqué
    Inscrit:
    1 Mars 2011
    Messages:
    557
    J'aime reçus:
    0
    Je vais faire simple.

    GG n'aime pas les sites qui indexent leur résultats de recherche. Soit il les découvre lui-même et les sanctionne, soit on les dénonce et il les sanctionne.

    Maintenant, tu fais comme tu le sent.
     
  5. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 875
    J'aime reçus:
    72
    +1 Dolph. SI c'est juste pour faire de la volumétrie sans essayer de faire du qualitatif (éviter le DC notamment, mais pas que), ca n'a strictement aucun intérêt, ni pour l'utilisateur, ni pour le moteur de recherche.
     
  6. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Les mecs la question c'était pas : Est ce bien ou pas bien ?

    Je sais que le dc c'est pas bien, le but du topic c'était d'évoquer des alternatives aux problèmes.

    Je répondrai simplement par : Si Google n'aime pas... pourquoi il les indexe alors ? Personne ne l'a obligé.

    Mais sinon dis moi, si un utilisateur cherche : Appart à louer à Paris ... En quoi ce serait gênant qu'il tombe sur une page généré dynamiquement et proposant les résultats de sa requête ? Tu peux m'expliquer ?
     
  7. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Bon alors on reprend :)

    Tu as mis toi même en évidence les problèmes de cette technique dans ton premier message.

    Ta question était "comment on gère" ? La réponse est "on ne fais pas" on s'assure que les "pages" ainsi générées ont du vrai contenu pertinent, et on n'essaie pas de jouer au petit malin avec les urls pour générer dix fois la même page pour des requêtes quasiment identique

    Ou alors on fait un vrai moteur de recherche
     
  8. Dolph
    Dolph WRInaute impliqué
    Inscrit:
    1 Mars 2011
    Messages:
    557
    J'aime reçus:
    0
    Attend. Tu veux indexer des résultats de recherche.
    GG n'aime pas, voir l'interdit.
    Nous, on aime pas parce que cela s'apparente à du spam de SERPs.

    Et tu veux qu'on t'aide...
    Tu ne vois pas comme un problème ?
     
  9. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Pourtant je pensais bien avoir écrit en français. Si je veux spammer je n'ai pas besoin d'aide et faites pas semblant de ne pas avoir compris ma question car elle était claire.

    Avant même que vous parliez de DC c'est moi qui l'ai évoqué, et j'ai jamais dit c'est bien ou c'est pas bien et je n'ai jamais dit aidez-moi à spammer.

    Maintenant si vous me dites, désolé mais il n'y a aucune technique pour faire proprement ce que tu veux faire, comme l'a fait Marie Aude et bien c'est déjà un pas et un début de réponse à ma question.

    Par contre ne vient pas me raconter que faire indexer une page avec des résultats de recherche c'est du Spam de Serps car c'est n'importe quoi.

    Pour reprendre le même exemple si je cherche, Appart à louer à Paris, je préfère tomber sur une page avec pleins d'offres, donc une page de résultat, sur laquelle je vais pouvoir cliquer sur les offrent qui m'intéressent. Dans ce cas de figure je vois pas en quoi c'est du spam.

    C'est comme Google personne l'oblige à indexer, et toi personne t'oblige à m'aider :) Donc pas la peine de monter sur tes grand chevaux avec "le spam c'est moche" car c'était pas du tout l'objet de mon message, et si c'était mon but je serai surement pas venu sur webrankinfo mais sur autres forums blackhat...

    Dans le même style : si tu veux vraiment chipoter, Google n'aime pas les échanges de liens car ils ne sont pas naturels, pourtant sur ton site tu en fais, comme tout le monde... La réaction du justicier ça me fait bien marrer moi :mrgreen:
     
  10. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    sans parler de bien ou de mal, des pages avec des contenus quasi identiques, surtout si elles sont vides, risquent de fortement baisser le trustrank de ton site, ces types de pages ne peuvent être faits à la volée.
    Déjà, pour les pages vides, il te suffit d'ajouter une meta noindex pour les doublons, là...
     
  11. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Merci Leonick

    Entièrement d'accord, c'est justement pour cela que j'ai posé le problème


    à la volée, tu veux dire par là pas automatiquement je suppose. Par contre sur des mots clés importants pour lesquels la page propose des résultats pertinents, aucune raison de les désindexer n'est ce pas ?

    Et bien merci pour le conseil, et la supprimer définitivement ne serait-il pas mieux ?

    Dernière question, une fois les pages inutiles supprimées ou mises en no index, les pages restantes et citées dans le sitemap.xml doivent absolument être accessibles via la navigation sur le site n'est ce pas ?

    Merci
     
  12. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 875
    J'aime reçus:
    72
    Oui, sinon ça ressemble fortement à de la page satellite.
     
  13. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    si, justement, pour moi "à la volée" voulait dire sans intervention humaine de filtrage
    oui, mais si un internaute fait une recherche sur ton moteur de recherches internes et qu'il ne trouve aucune réponse, la page doit être en noindex pour ne pas que gg l'indexe
     
  14. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Je pense qu'on s'est bien compris non ? Il faut arrêter de générer ces pages automatiquement c'est bien ça ? :)
     
  15. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    c'est pourtant ce que les annuaires font en affichant les catégories et sous-catégories, vu que l'info est la fiche site ?
    après, il ne faut pas en abuser et retrouver 2 pages de requêtes différentes avec les mêmes résultats
    oui
     
  16. Dolph
    Dolph WRInaute impliqué
    Inscrit:
    1 Mars 2011
    Messages:
    557
    J'aime reçus:
    0
    Léonick, des SERPs et des catégories, c'est pas la même chose.

    Evidement, on peut jouer sur les mots si on met un site dans 10 catégories c'est clairement identique à des SERPs.
    C'est pareil avec les système des tags.
    Au final, quand y en trop, c'est plus du tag ou de la catégorie, mais du pseudo SERPs.

    D'un autre coté la différence entre catégories et serps, c'est que pour le premier, en général, elle sont clairement lisible et identifiable sur le dit site au contraire des générations de pages à la volé avec mots clés.
     
  17. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    c'est pour ça que je lui disais qu'il ne fallait surtout pas les créer à la volée, mais les filtrer au préalable
     
  18. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    Si je résume les conseils : si tu fais une liste de page avec tout un tas de variantes de synonymes et d'orthographes du style "appart Paris", "appart dans la capitale", "appartement à Paris", ... c'est pas bon
    Par contre si ca correspond à des pseudos catégories style "appart à Paris", "appart à Marseille", "maison à Lyon", "maison à Dijon" c'est bon.
     
  19. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    toutafé :wink:
     
  20. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    On ne peut plus clair les mecs !

    Comme quoi dans l'absolu les résultats d'un site peuvent être indexés, mais en faisant attention de bien maitriser le truc et pas prendre des risques de DC ou de pages vides.

    Donc en soit le PB c'est la génération automatique et non contrôlées de pages de ce type, mais dans une certaine mesure ca peut être envisageable sans trop de problèmes...

    Et ben Merci !
     
  21. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    ce n'est pas quel moyen est utilisé pour générer les pages qui est important. Ca peut-être un moteur de recherche, des catégories thématiques, géographiques ou des croisements des deux, ...

    La question c'est plutôt de savoir si les différentes pages sont pertinentes et suffisamment différentes les unes des autres.
     
  22. masterblaster
    masterblaster WRInaute discret
    Inscrit:
    27 Mars 2007
    Messages:
    147
    J'aime reçus:
    0
    Pour les pages en DC je suis entièrement d'accord.

    par contre (si je sais lire entre les lignes) on peut très bien faire ce dont je parle (laisser indexer des pages de résultats), si on a la garantie qu'elles contiennent un contenu pertinent et unique.
     
  23. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Comme j'ai la flemme de nettoyer tous ces messages des parties désagréables, je ferme le topic.

    Vous avez quoi tous en ce moment ? C'est le printemps ? La montée d'hormones ?

    On peut être en désaccord sans traiter les autres de cons. Et discuter sans faire de l'attaque ad hominem

    Edit : voilà, suppressions faites. C'est dommage, il y a des trucs intéressants qui sont partis à la poubelle, mais je commence à en avoir assez de faire dans la dentelle
     
  24. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    la mésentente vient surement du fait que tu emploies le terme "pages de résultats" alors que le terme le plus approprié pour ce que tu décris est "page de contenu".
     
Chargement...
Similar Threads - rewriting limites dépasser Forum Date
supprimer /index.html sans url rewriting, possible ? URL Rewriting et .htaccess 13 Novembre 2019
Je bloque sur le rewriting des URL contenant un ? URL Rewriting et .htaccess 3 Septembre 2019
récupération du get après rewriting URL Rewriting et .htaccess 21 Juin 2019
Ralentissement url rewriting URL Rewriting et .htaccess 1 Mai 2019
URL Rewriting Débuter en référencement 17 Avril 2019
Conflit de redirection 301 et Urlrewriting Netlinking, backlinks, liens et redirections 20 Février 2019
URL REWRITING et redirection 301 URL Rewriting et .htaccess 24 Janvier 2019
URL Rewriting : difficultés avec RewriteCond ? URL Rewriting et .htaccess 5 Décembre 2018
Résolu URL Rewriting : Garder l'adresse non transformée dans le navigateur URL Rewriting et .htaccess 2 Décembre 2018
Mes débuts dans l'URL Rewriting URL Rewriting et .htaccess 14 Novembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice