comportement des robots d'indexation sur page dynamique

Discussion dans 'Débuter en référencement' créé par rif5, 21 Janvier 2010.

  1. rif5
    rif5 Nouveau WRInaute
    Inscrit:
    14 Mars 2005
    Messages:
    20
    J'aime reçus:
    0
    Bonjour,
    Je débute sur un projet et j'essai de prévoir comment faire pour optimiser le réferencement , mais la j'ai plusieur problématique qui apparaisse, et je ne trouve pas de réponse :(

    En fait lorsque un visiteur se rendra sur le site, celui-ci sera "geolocalisé" et les informations le concernant (par rapport au ieu) seront donc affiché (exemple: les horaires de la mairie...), donc lorsque l'internaute arrive sur la page d'accueil, il est "geolocalisé", cette "geolocalisation" est ensuite utilisé pour rechercher dans la bdd le contenu a affiché sur la page, mais comment fonctionneront les robot de référencement???

    Je ne voit pas du tout comment fonctionnera le robot des moteurs de recherche, et donc je ne voit pas trop comment faire actuellement pour prévoir un réferencement correcte.

    Si quelqu'un a des idées, ou a déja était confronté a ce genre de probléme, je vous écoute trés attentivement :)

    Merci de votre aide :)
     
  2. Laurent Petr
    Laurent Petr WRInaute discret
    Inscrit:
    5 Août 2007
    Messages:
    57
    J'aime reçus:
    0
    Bonjour,

    Si l'internaute est géolocalisé, cela sera je suppose par son adresse IP ? donc lorsqu'un robot visitera le site, ce sera de même et il ne verra que les contenus relatifs à la localisation de son IP.

    A noter que je ne vois pas comment la géolocalisation pourrait permettre de déterminer jusqu'à la commune de l'internaute...

    Bonne journée
    Laurent
     
  3. rif5
    rif5 Nouveau WRInaute
    Inscrit:
    14 Mars 2005
    Messages:
    20
    J'aime reçus:
    0
    Merci de cette réponse :)

    Pour la géolocalisation, je travail encore dessus, mais d'aprés mais premiére recherche il est possible de localiser une commune.

    Par contre pour le probléme des robots d'indexation la sa m'embette pas mal :s car effectivement, tu as confirmé mon idée, soit qu'il sera lui meme géolocalisé, mais d'ou vienne les robots?

    Si quelqu'un a d'autre idée/info :)
     
  4. intocrea
    intocrea Nouveau WRInaute
    Inscrit:
    7 Janvier 2010
    Messages:
    20
    J'aime reçus:
    0
    Je suis très intéressée par ce sujet, travaillant moi même sur la nouvelle mouture d'un site devant utiliser la géolocalisation.
    Je ne m'occupe que de la partie référencement, et l'aspect technique assez complexe qu'impose le recours à la géolocalisation m'échappe un peu je l'avoue...si quelqu'un avait des informations concrètes sur la façon dont marche l'indexation et le référencement des pages géolocalisées avec affichage de données dynamiques, ce serait fantastique.
     
  5. Seb's
    Seb's WRInaute discret
    Inscrit:
    15 Avril 2008
    Messages:
    193
    J'aime reçus:
    0
    Si tu cherches le contenu "géolocalisé" dans ta base de données, j'imagine que les localisations possibles sont énumérées dans ta base, et non infinies. Dans ce cas, il faudrait peut-être faire une page (ou du moins une url) par localisation :

    - http://www.example.com/paris
    - http://www.example.com/lyon
    - Etc.

    En incluant chacune de ces pages dans ton site map, et en redirigeant la requête du visiteur vers la bonne page après localisation, tu permets au robot d'indexer toutes les possibilités.

    D'un point de vue technique, bien sûr, tu ne gardes qu'une seule page en jouant avec le urlrewriting pour récupérer le paramètre identifiant la localisation dans tes localisations possibles.

    Après ça, si les localisations possibles sont "infinies", c'est une autre paire de manche. Mais d'un point de vue logique, à quoi bon référencer l'infini ? (exemple : une localisation par longitude/latitude).
     
  6. intocrea
    intocrea Nouveau WRInaute
    Inscrit:
    7 Janvier 2010
    Messages:
    20
    J'aime reçus:
    0
    Je me permets d'intervenir à nouveau sur ce post avec un exemple perso :
    Je travaille actuellement sur la refonte du site de lndc.fr (mettre un i après le l et le d). Il existe 92 versions "locales" du site pour 92 villes différentes de france, donc. Chaque version locale reprend exactement le contenu de l'autre, à l'exception d'une partie "annuaire" spécifique à chaque ville.
    Je souhaiterais limiter le nombre de pages "dupliquées" et n'utiliser qu'une seule version du contenu générique, et générer le contenu locale par géolocalisation en utilisant des cookies. En gros, tous les dossiers thématiques, par exemple, seraient techniquement disponibles sur lndc.fr, et le contenu local sur montpellier.lndc.fr. Sauf que je ne souhaite pas, pour des raisons évidentes, rediriger l'utilisateur vers la version "générique" du site à chaque fois qu'il consulte un contenu générique, mais le laisser naviguer (ou lui donner l'impression de toujours naviguer) sur le site de montpellier.lndc.fr.

    Est-ce que c'est techniquement réalisable, et est-ce que c'est gérable du point de vu du référencement ??

    Merci aux âmes charitables qui pourront me répondre, je m'arrache les cheveux sur cette question !
     
  7. rif5
    rif5 Nouveau WRInaute
    Inscrit:
    14 Mars 2005
    Messages:
    20
    J'aime reçus:
    0
    Merci a vous :)

    Effectivement le contenu géolocalisé sera tiré d'une base de donnée.

    Le fonctionnement devrait etre comme suis:

    - Un internaute se connecte sur la page www.exemple.com
    - Il est géolocaliser (ex:paris), et donc directement dirigé vers la pages Paris avec une adresse du type: www.exemple.com/paris/ ou encore en sous-repertoire (ma 1ére idée) paris.exemple.com, quel sont les différences entre ces 2 solutions d'un point de vue référencement, et quel sont les avantages/inconvenient ?

    Lorsque le robot viendra sur le site, la géolocalisation de celui-ci ne donnera pas de correspondance et donc il ne sera pas dirigé vers les différentes pages des villes, donc ces la que le site map rentre en jeux, c'est bien sa? En fait plus j'écrit, plus je me dit qu'il faudrait sans doute faire une page d'accueil général (www.exemple.com) en cas de probléme dans la géolocalisation, mais j'ai peur de faire du DC en décrivant le service, effectivement étant donné que les visiteurs seront directement dirigé vers leurs pages "local" je leur décrit également le service... sa va devenir de plus en plus compliqué.... :(


    Autre chose, si je prend 2 pages de ville (paris.exemple.com et bordeaux.exemple.com, dans cette syntaxe, ou dans l'autre comme indiqué plus haut), les rubriques seront les meme, les contenus seront les meme mais n'auront pas les meme valeurs (exemple: la rubrique horaire mairie aura comme nom : horaire de la maire de paris, horaire de la mairie de bordeaux, et evidement on indique les horaires), ma question est donc, y a t'il un risque de DC entre les pages des villes ? ou y a t'il une facon de faire pour que chaque ville soit référencer sur les memes rubrique?

    Sa fait beaucoup de question :s mais je suis sur que vous pourrez m'aidez a avancer :)
    Je vous remercie d'avance :)
     
  8. Seb's
    Seb's WRInaute discret
    Inscrit:
    15 Avril 2008
    Messages:
    193
    J'aime reçus:
    0
    - Entre paris.example.com et www.example.com/paris, j'opterais pour le second choix, mais je ne sais pas si cela nuirait au référencement. Par contre, pour suivre les *.example.com dans Google Analytics, c'est peut-être pas idéal.

    - Pour le sitemap, c'est exactement cela.

    - Pour la page d'accueil, puisque personne ne restera dessus bien longtemps, c'est peut-être l'occasion d'avoir une description de services plus étoffée (pas sur-optimisée non plus). Personne ne tombera dessus, mais ce n'est pas un piège "illégal" pour autant. Des personnes mieux qualifiées que moi sauront probablement te dire si cela relève du black hat.

    - Quoiqu'il en soit, ton problème de duplicate content se posera indépendamment de cette page d'accueil, puisque le texte apparaît dans toutes les pages localisées. Il faut donc étoffer ton contenu localisé pour que la partie dupliquée soit minoritaire.
     
  9. intocrea
    intocrea Nouveau WRInaute
    Inscrit:
    7 Janvier 2010
    Messages:
    20
    J'aime reçus:
    0
    Pour le DC, peut être que la solution serait de mettre tous les contenus génériques en noindex, sauf une, pour qu'elle soit référencée. Ou alors préciser quelle est l'URL canonique de référence pour ce type de contenu à chaque fois.
    Dans mon cas, je pense passer par du PHP pour aller chercher le contenu générique dans une base de données, à chaque fois que l'utilisateur voudra y accéder. Ca n'empêche pas le Duplicate il me semble, mais c'est sans doute plus simple de gérer ce type de contenu de cette manière, plutôt que de placer le contenu générique sur chaque version du site et le mettre en noindex à chaque fois.
    Qu'en pensez-vous ?
     
  10. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 414
    J'aime reçus:
    0
    n'oubliez pas ceux qui se connectent depuis un proxy d'entreprise et dont on n'aura pas de vraie géolocalisation car tout l'intranet n'aura qu'une seule ip publique
     
  11. HawkEye
    HawkEye WRInaute accro
    Inscrit:
    23 Février 2004
    Messages:
    13 932
    J'aime reçus:
    4
    Question con: pourquoi dois-tu rediriger le visiteur vers une nouvelle adresse ?

    Sa localisation, tu peux la conserver dans la session, et dans un cookie pour la suite... ça t'évite bien des problèmes (duplicate content, cloaking, & co...).
     
Chargement...
Similar Threads - comportement robots indexation Forum Date
Comportement de google sur un site en 2020 Référencement Google 17 Janvier 2020
Prestashop - Comportement bizarre d'une requête SQL e-commerce 1 Décembre 2018
Comportement de l'utilisateur Google Analytics 12 Avril 2018
Décalage entre suivi d'objectifs sur événements et événements dans Comportement Google Analytics 4 Juillet 2016
Analyser le comportement des visiteurs sur une landing page AdWords 12 Mai 2016
Que signifie "taux d'abandon" dans les flux de comportement et d'utilisateurs ? Google Analytics 30 Avril 2016
Comportement du serveur pour des URLs inexistantes URL Rewriting et .htaccess 22 Décembre 2015
Virer pub comportementale sur son site AdSense 29 Novembre 2015
Comportement inconnu dans google images pour une redirection YouTube, Google Images et Google Maps 3 Septembre 2015
Suivre avec précisions le comportement de pages Youtube en site référent Google Analytics 26 Août 2015
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice