Eviter le duplicate content

Discussion dans 'URL Rewriting et .htaccess' créé par JerryOne3, 13 Août 2012.

  1. JerryOne3
    JerryOne3 Nouveau WRInaute
    Inscrit:
    12 Janvier 2011
    Messages:
    9
    J'aime reçus:
    0
    Bonjour !

    je cherche à éviter l'indexation par les moteurs de recherche de duplicate content sur mon site. J'ai ainsi une page qui contient un moteur de recherche me permettant d'accéder à des résultats en fonction de la recherche de l'internaute, et des landing réécrites avec du url Rewriting qui conduisent vers ces mêmes résultats.

    Je souhaite donc empêcher les moteurs de recherche d'indexer les pages de recherche et conserver donc uniquement les landing à l'indexation.

    J'ai plusieurs pistes mais aucune certitude... Header PHP qui modifie le statut de la page en 301 quand ça vient du moteur de recherche ? utiliser le fichier robot.txt ? Les meta ? Il me semble que c'est déprécié... je ne sais pas trop.

    Comment faire ?

    Merci d'avance !
     
  2. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 738
    J'aime reçus:
    337
    Bienvenue au forum.

    Vous pouvez vous présenter :
    https://www.webrankinfo.com/forum/t/forum-les-membres-qui-le-souhaitent-se-presentent.144221/ .

    Sachant qu'il est mieux de ne pas indexer le moteur (complément : https://www.webrankinfo.com/forum/indexation-des-resultats-moteur-recherche ... 84113.html), vous pouvez interdire l'accès à celui-ci aux moteurs avec le fichier robots.txt et les balises meta.

    Vous pouvez aussi présenter vos avis en tant qu'utilisateur des sites :
    https://www.webrankinfo.com/forum/f/demandes-davis-et-de-conseils-sur-vos-sites.36/
    pour aussi aider la communauté du forum.
     
  3. JerryOne3
    JerryOne3 Nouveau WRInaute
    Inscrit:
    12 Janvier 2011
    Messages:
    9
    J'aime reçus:
    0
    Merci pour votre réponse !

    Oui, en excluant une page précisée dans le fichier robots.txt, mais cela ne risque t-il pas de désindexer également les pages de landing, que je souhaite conserver visibles par les robots ? En sachant que celles-ci sont créées depuis le même fichier PHP, leur URL étant différentes uniquement grâce au url rewriting.

    Cdlt,
    Jeremy
     
  4. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 738
    J'aime reçus:
    337
    Ce que vous faites c'est interdire les pages du moteur, pas les pages de votre site qui doivent avoir une URL différente du moteur. Par exemple vous avez votre /search/ ou encore search.php?... vous interdisez ce type de pages. Ce sont des exemples mais il y en a beaucoup d'autres possibles.
     
  5. JerryOne3
    JerryOne3 Nouveau WRInaute
    Inscrit:
    12 Janvier 2011
    Messages:
    9
    J'aime reçus:
    0
    C'est bien ce qui me semblait. En posant un :

    User-Agent: *
    Disallow: search.php

    j'empêche les urls contenant search.php et non pas tout ce qui est produit par le fichier search.php.

    Si vous me confirmez cela, je peux considérer le problème comme résolu.
     
  6. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 738
    J'aime reçus:
    337
  7. JerryOne3
    JerryOne3 Nouveau WRInaute
    Inscrit:
    12 Janvier 2011
    Messages:
    9
    J'aime reçus:
    0
    Je vous remercie pour votre aide.

    Cdlt,
    Jeremy
     
  8. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 738
    J'aime reçus:
    337
    Peut-être avez-vous d'autres questions ? :)
     
  9. JerryOne3
    JerryOne3 Nouveau WRInaute
    Inscrit:
    12 Janvier 2011
    Messages:
    9
    J'aime reçus:
    0
    Pour l'instant, tout va bien, mais si c'était - quand ce sera - le cas, je les poserai volontiers sur ce sympathique forum !

    Merci encore,
    Jeremy
     
  10. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    31 738
    J'aime reçus:
    337
    Bonne journée alors. :)
     
Chargement...
Similar Threads - Eviter duplicate content Forum Date
Un contenu serait publié deux endroits/URLs différents, comment éviter le duplicated content ? Référencement Google 2 Octobre 2019
Comment éviter le duplicate content entre 2 sites ? Référencement Google 2 Avril 2019
Éviter le duplicate content pour des pages de spectacles et films Référencement Google 18 Janvier 2016
Comment eviter duplicate content avec des recettes de cuisine? Référencement Google 14 Octobre 2013
Modifier l'indexation des PDF pour éviter duplicate content Crawl et indexation Google, sitemaps 2 Septembre 2013
Comment éviter un duplicate content sans ruiner l'expérience utilisateur? Référencement Google 9 Août 2013
Duplicate content sur les méta, à éviter ou pas? Débuter en référencement 18 Juillet 2013
Comment eviter le duplicate content lorsqu'on met un article dans 2 catégories? Référencement Google 21 Juin 2013
Dire a google de ne pas indexer un div en particulier pour éviter le duplicate content. Débuter en référencement 1 Mars 2013
Changement de nom de domaine : comment éviter Duplicate Content ? Débuter en référencement 20 Février 2013
Comment créer 60 descriptions unique pour eviter le duplicate content? Rédaction web et référencement 13 Septembre 2012
Comment éviter le "duplicate content" ? Débuter en référencement 30 Juillet 2012
Eviter le duplicate content sur un blog Rédaction web et référencement 14 Février 2012
Comment éviter le duplicate content avec 2 NDD Référencement Google 30 Mars 2011
Plusieurs URL pour une seule page : comment éviter le duplicate content ? Crawl et indexation Google, sitemaps 7 Février 2011
Redirection pour éviter duplicate content URL Rewriting et .htaccess 24 Janvier 2011
Canonical, pour éviter le duplicate content mais si le contenu est semi unique Débuter en référencement 26 Décembre 2010
éviter un duplicate content Débuter en référencement 7 Octobre 2010
[résolu] Eviter le duplicate content sur la page d'accueil URL Rewriting et .htaccess 2 Juillet 2010
Comment eviter le duplicate content ! apres l'url rewriting URL Rewriting et .htaccess 6 Mai 2010