Interdire l’indexation du contenu sans intérêt pour favoriser les contenus pertinents ?

Discussion dans 'Référencement Google' créé par hibou57, 27 Juin 2010.

  1. hibou57
    hibou57 WRInaute passionné
    Inscrit:
    1 Novembre 2006
    Messages:
    1 015
    J'aime reçus:
    0
    Bijour,

    Google est un robot, alors pas étonnant qu’il soit idiot... le problème, c’est qu’il se croit intelligent, alors pas évidement de l’aider dans ces conditions là.

    Malgré tout, j’essaie d’imaginer des solutions.

    J’ai par exemple remarqué que entre autre le fait que Google préfère les fautes d’orthographes et de grammaires et qu’il sanctionne sévèrement leur correction, préfère le duplicate-content et sanctionne violemment l’interdiction de son indexation, préfère les erreurs les URL renvoyant des erreurs, etc (j’en passe d’autres) j’ai également remarqué qu’il préfère les contenu binaire sans intérêt autre que le téléchargement plutôt que les documents textes interprétables par les humains (Google étant un robot, pas étonnant qu’il ne sache pas).

    Comme je constate qu’il n’indexe pas les pages intéressantes mais qu’il indexe, je me demande bien pourquoi, des contenu binaires :eek: (exécutables Windows, icônes Mac, archives de données brutes non directement interprétable, etc.) et à hauteur de quantités dépassant nettement le contenu texte qu’il indexe pour le site, je me demande si lui interdire d’indexer le répertoire de téléchargement pourrait l’aider à comprendre qu’il est préférable qu’il indexe les contenus texte plutôt (ce serait même plus économe pour son index... mais comment un robot peut-il comprendre cela).

    Donc je pense évidement à un filtre dans un Robots.txt... mais voilà, il se trouve que j’ai constaté que Google n’a pas du tout aimé que je veuille l’empêcher d’indexer des URL qui se terminent systématiquement en redirection 302, alors je me demande quelle pourrait bien être sa réaction si je décide de l’aider en lui indiquant que ce n’est pas la peine d’indexer des fichiers non-pertinents. Son orgueil ne risque t-il pas d’être blessé ? Va t-il encore s’énerver ?

    Qu’en penser ?
     
  2. luxe-campagne
    luxe-campagne WRInaute impliqué
    Inscrit:
    8 Octobre 2005
    Messages:
    945
    J'aime reçus:
    0
    Google n'est qu'une machine, donc il ne se vexe pas...
    Par contre, il distribue des points, des bons ou des mauvais.
    Par exemple, un site a un certain potentiel de popularité à redistribuer, ce potentiel se réparti entre les pages internes et les pages externes. Si on bloque l'indexation de certaines pages externes, pas de problème : de toute façon le jus serait sorti du site... Par contre si on bloque l'indexation de pages internes, on les transforme en cul de sac : cela a pour conséquence de leur donner une partie du potentiel de jus... qu'elles ne redistribueront jamais !
     
  3. OTP
    OTP WRInaute accro
    Inscrit:
    16 Décembre 2005
    Messages:
    14 712
    J'aime reçus:
    2
  4. vlana
    vlana WRInaute discret
    Inscrit:
    29 Août 2008
    Messages:
    58
    J'aime reçus:
    0
    Il y a une méthode qui je trouve marche assez bien et qui n'énerve pas du tout Monsieur Google : lui fournir un sitemap en mettant un poids sur les pages. Ces poids vont de 1.0 pour les pages les plus importantes et 0.1 pour les pages à quasiment ignorer.

    Après avoir fait l'essai sur deux de mes sites, non seulement, le résultat me satisfait, mais en plus Monsieur Google n'est pas du tout fâché ! :D
     
  5. hibou57
    hibou57 WRInaute passionné
    Inscrit:
    1 Novembre 2006
    Messages:
    1 015
    J'aime reçus:
    0
    Ça ne marcherait pas ici, parce qu’il s’agit d’un répertoire et non d’une page.

    Puis de toutes manières, je ne le vois pas appliquer les facteurs indiqués pour les pages. Il continu sur une requête, à renvoyer les gens vers une page « A » alors qu’il recherche la page « B ». Je connais ce problème depuis longtemps, alors du coup les facteurs indiqués dans le sitemap je ne m’en occupe plus vraiment, puisqu’il les ignore. De toute façons, si je me souviens bien de la documentation sur le sitemap, il n’a jamais garantie prendre ces facteurs en compte, il ne les prend que comme des suggestions.

    Et pour finir, les facteurs indiqués dans le sitemap ne vise pas l’indexation, mais les pages à renvoyer en priorité dans les résultats de recherche. En théorie (en pratique il ne le fait pas) si de deux pages pouvant répondre à une requête, l’une a un facteur plus important que l’autre, alors il devrait afficher en théorie celle dont le facteur est plus important que l’autre.

    Le sitemap participe à l’indexation, un peu, mais pas les facteurs associés aux pages.

    ... sous réserve que je ne dise pas de bêtises.
     
Chargement...
Similar Threads - Interdire l’indexation contenu Forum Date
L'attribut data-nosnippet pour interdire des textes dans les snippets Référencement Google 26 Septembre 2019
Interdire téléchargement fichiers Demandes d'avis et de conseils sur vos sites 18 Juillet 2019
Ai-je le droit d'interdire le partage du lien de ma chaîne YouTube(pour une raison quelconque). YouTube, Google Images et Google Maps 16 Décembre 2018
Interdire le crawl d une partie du site Débuter en référencement 15 Octobre 2018
Interdire indexation d'un contenu Administration d'un site Web 11 Septembre 2017
Comment interdire le crawl des pages de faibles valeurs (Noindex ; Nofollow ; Disallow ?) Débuter en référencement 22 Mars 2017
Interdire l'accès au un site aux concurrents Droit du web (juridique, fiscalité...) 30 Janvier 2017
interdire l'accés de certains pays avec le ht.access URL Rewriting et .htaccess 15 Mai 2016
Interdire Iframe mais autoriser certains sites Développement d'un site Web ou d'une appli mobile 11 Mai 2016
Robots.txt: interdire un dossier mais autoriser une page de ce dossier Crawl et indexation Google, sitemaps 3 Février 2016
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice