Comportement d'un bot face aux pages php

Nouveau WRInaute
Bonjour à tous,

je risque de poser une question très simple pour la plupart d'entre vous, mais à laquelle je n'ai pas encore trouvé la réponse.

Je dois réaliser le référencement d'un site en php. La page d'accueil appelle d'autres fichiers .php qui génèrent chacun l'affichage d'une partie de la page finale visible par l'internaute : layout, menus, corps de la page, etc. Si l'on se place d''un point de vue "fichier", ce que contient réellement le fichier accueil.php est très maigre en termes de données (pas de texte dans le corps, pas de texte dans les menus, etc.). Cependant, si l'on se place cette fois d'un point de vue "navigation", la page d'accueil affichée dans un navigateur, et le code source affiché, est bien évidemment bien plus fournit (concaténation des données de la page d'accueil et des pages qu'elle appelle).

Je voulais ainsi savoir si un bot se comportait comme un internaute, et indexe le code source récupéré de la page telle qu'elle s'affiche dans le navigateur, ou alors s'il indexait uniquement les données contenues dans le fichier accueil.php, puis suivait les liens vers le reste du site ?

Désolé par avance si la question est vraiment trop bête !
 
WRInaute impliqué
Le bot verra ta page comme un visiteur, le php est exécuté du coté du serveur donc la page servie par le navigateur est la page final, telle que tu veux qu'elle soit.
Le bot verra donc la page d'accueil de ton site tout comme toi tu la vois ;)
 
WRInaute accro
si tes appels sont fait par exemple avce des include, le moteur ignore tout de cela : il voit le resultat final comme si le contenu de l'include était en dur dans la page.
 
WRInaute accro
Pour voir ce que voit le bot, affiche le code source côté "client". un bot n'a pas la possibilité d'aller voir du côté serveur.
 
WRInaute accro
Je pense qu'aujourdhui, Google commence a bien voir différemment un site, il commence à le voir comme si il avait des yeux, donc ces logiciels sont juste des guides, ils ne détiennent pas la vérité
 
WRInaute passionné
La seule verrité est de tester le comportement des bots et puis d'en tirer des conclusions ...
Via Google image avec l'experience moi je dirais que son interpretation d'un site est reelement humain ...
J'ai même cru dans le cadre d'un site avoir a faire a un humain google.
Puis avec le temps et des réflections je me suis dit, bha l'interpretation humaine d'un site, les bot google on pris du galon ...
A un tel point que l'on dirait reelement le comportement humain face a un website.
Identique pour Google texte ...

Google deviens de plus en plus humain dans le sens de ranger les sites dans son index ...
Fameuse avancée dans les algos
Le temps ou on avais nos site un peu disposé comme du rata est loin derriere, et même en forçant la chose cela deviens de plus en plus dur de leurer Google et de s'indexer comme on a envie.
on s'index comme les bots on perçu le website puis bien sur viens le référencement .
il ya 2-3 ans d'ici on pouvais tout faire sur Google sans pour autant être mal vu ou mal indexé
Ce n'est plus le cas ... Difficile de leurer les bots ou de leur dissimuler le site du siecle en 2 pages ...

Voila mon petit mot du jour!
 
Discussions similaires
Haut