Interdire l’indexation du contenu sans intérêt pour favoriser les contenus pertinents ?

WRInaute passionné
Bijour,

Google est un robot, alors pas étonnant qu’il soit idiot... le problème, c’est qu’il se croit intelligent, alors pas évidement de l’aider dans ces conditions là.

Malgré tout, j’essaie d’imaginer des solutions.

J’ai par exemple remarqué que entre autre le fait que Google préfère les fautes d’orthographes et de grammaires et qu’il sanctionne sévèrement leur correction, préfère le duplicate-content et sanctionne violemment l’interdiction de son indexation, préfère les erreurs les URL renvoyant des erreurs, etc (j’en passe d’autres) j’ai également remarqué qu’il préfère les contenu binaire sans intérêt autre que le téléchargement plutôt que les documents textes interprétables par les humains (Google étant un robot, pas étonnant qu’il ne sache pas).

Comme je constate qu’il n’indexe pas les pages intéressantes mais qu’il indexe, je me demande bien pourquoi, des contenu binaires :eek: (exécutables Windows, icônes Mac, archives de données brutes non directement interprétable, etc.) et à hauteur de quantités dépassant nettement le contenu texte qu’il indexe pour le site, je me demande si lui interdire d’indexer le répertoire de téléchargement pourrait l’aider à comprendre qu’il est préférable qu’il indexe les contenus texte plutôt (ce serait même plus économe pour son index... mais comment un robot peut-il comprendre cela).

Donc je pense évidement à un filtre dans un Robots.txt... mais voilà, il se trouve que j’ai constaté que Google n’a pas du tout aimé que je veuille l’empêcher d’indexer des URL qui se terminent systématiquement en redirection 302, alors je me demande quelle pourrait bien être sa réaction si je décide de l’aider en lui indiquant que ce n’est pas la peine d’indexer des fichiers non-pertinents. Son orgueil ne risque t-il pas d’être blessé ? Va t-il encore s’énerver ?

Qu’en penser ?
 
WRInaute impliqué
Google n'est qu'une machine, donc il ne se vexe pas...
Par contre, il distribue des points, des bons ou des mauvais.
Par exemple, un site a un certain potentiel de popularité à redistribuer, ce potentiel se réparti entre les pages internes et les pages externes. Si on bloque l'indexation de certaines pages externes, pas de problème : de toute façon le jus serait sorti du site... Par contre si on bloque l'indexation de pages internes, on les transforme en cul de sac : cela a pour conséquence de leur donner une partie du potentiel de jus... qu'elles ne redistribueront jamais !
 
WRInaute discret
hibou57 a dit:
je me demande quelle pourrait bien être sa réaction si je décide de l’aider en lui indiquant que ce n’est pas la peine d’indexer des fichiers non-pertinents. Son orgueil ne risque t-il pas d’être blessé ? Va t-il encore s’énerver ?

Il y a une méthode qui je trouve marche assez bien et qui n'énerve pas du tout Monsieur Google : lui fournir un sitemap en mettant un poids sur les pages. Ces poids vont de 1.0 pour les pages les plus importantes et 0.1 pour les pages à quasiment ignorer.

Après avoir fait l'essai sur deux de mes sites, non seulement, le résultat me satisfait, mais en plus Monsieur Google n'est pas du tout fâché ! :D
 
WRInaute passionné
vlana a dit:
Il y a une méthode qui je trouve marche assez bien et qui n'énerve pas du tout Monsieur Google : lui fournir un sitemap en mettant un poids sur les pages. Ces poids vont de 1.0 pour les pages les plus importantes et 0.1 pour les pages à quasiment ignorer.
Ça ne marcherait pas ici, parce qu’il s’agit d’un répertoire et non d’une page.

Puis de toutes manières, je ne le vois pas appliquer les facteurs indiqués pour les pages. Il continu sur une requête, à renvoyer les gens vers une page « A » alors qu’il recherche la page « B ». Je connais ce problème depuis longtemps, alors du coup les facteurs indiqués dans le sitemap je ne m’en occupe plus vraiment, puisqu’il les ignore. De toute façons, si je me souviens bien de la documentation sur le sitemap, il n’a jamais garantie prendre ces facteurs en compte, il ne les prend que comme des suggestions.

Et pour finir, les facteurs indiqués dans le sitemap ne vise pas l’indexation, mais les pages à renvoyer en priorité dans les résultats de recherche. En théorie (en pratique il ne le fait pas) si de deux pages pouvant répondre à une requête, l’une a un facteur plus important que l’autre, alors il devrait afficher en théorie celle dont le facteur est plus important que l’autre.

Le sitemap participe à l’indexation, un peu, mais pas les facteurs associés aux pages.

... sous réserve que je ne dise pas de bêtises.
 
Discussions similaires
Haut