Matt Cutts livre quelques infos intéressantes à Eric Enge / StoneTemple

Discussion dans 'Référencement Google' créé par carole heinz, 16 Mars 2010.

Tags:
  1. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 439
    J'aime reçus:
    0
    Après la fin du monde 2012, Matt Cutts s'exprime beaucoup plus sérieusement dans une interview accordée à Eric Enge.

    Quelques points abordés (liste non exhaustive):

    - le nombre de pages indexées est plus ou moins proportionnel au PageRank (de la home?), idem pour la fréquence de crawl
    - la charge serveur peut éventuellement pénaliser l'indexation (cf. mutus)
    - la présence de contenu dupliqué (à priori DC interne notamment) peut pénaliser l'indexation
    - faire un lien vers une page considérée comme dupliquée "passe" néanmoins du PR (et donc il y a perte de jus inutile) MAIS en linkant vers plusieurs pages similaires entre elles les moteurs pourraient être capables de fusionner ce link juice et de ne le créditer qu'à une seule des pages (celle considérée comme canonique)
    - R301 sur les liens d'affiliation: ne passent pas de PR
    - rel=canonical: peut être utilisé pour des pages assez similaires, et pas forcément parfaitement identiques; il détaille longuement certains aspects liés aux sites e-commerce et aux problèmes générés par la faceted navigation
    - images: Google peut utiliser des requêtes HEAD pour vérifier si le fichier a été modifié (pour économiser des ressources).
    - PR sculpting: il vaut mieux utiliser son temps pour obtenir des BL ou du contenu. les techniques de PR sculpting (iframe, js) ne sont pas forcément vues comme spammy mais un jour Google pourrait interpréter ces liens (et donc le sculpting perdrait de son efficacité)
    - liens dans PDF: ne s'exprime quant à leur efficacité pour passer du PR mais laisse la porte ouverte... :mrgreen:
    - javascript: Google exécute une large proportion de js quant il veut et quand il peut.
    - javascript: on peut mettre du nofollow sur les liens ads javascript... (ça pourrait signifier que les liens js transmettent un petit quelque chose...)
    - linkspam: il confirme la lutte dans ce domaine et affirme que Google dispose de nouveaux outils à ce sujet. il annonce que de nouveaux appels à la "délation" (poliment: call for report, call for feedback) seront lancés prochainement.

    :arrow: n'hésitez pas à compléter la liste ou à me corriger en cas d'erreur de traduction / compréhension
     
  2. Sebast971
    Sebast971 WRInaute discret
    Inscrit:
    27 Novembre 2009
    Messages:
    170
    J'aime reçus:
    0
    Merci pour cette petite synthèse :)
     
  3. seb2310
    seb2310 WRInaute impliqué
    Inscrit:
    10 Octobre 2006
    Messages:
    596
    J'aime reçus:
    0
    Merci pour ces infos et traduction qui vont certainement provoquer des réactions notamment sur le pr.
    +1 reco
     
  4. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 837
    J'aime reçus:
    457
    Merci Carole, une reco de + de ma part
     
  5. SpeedAirMan
    SpeedAirMan WRInaute passionné
    Inscrit:
    2 Juin 2007
    Messages:
    2 391
    J'aime reçus:
    0
    idem : merci Carole, pour le lien et pour le résumé !
    Comme Seb et Olivier : une reco' !


    "javascript: Google exécute une large proportion de js quant il veut et quand il peut."
    → intéressant


    "la présence de contenu dupliqué (à priori DC interne notamment) peut pénaliser l'indexation"
    → hmm... en savoir plus serait bien (des précisions surtout, venant "d'en haut").
    J'imagine, si on parle de duplicate content (interne ou pas) et de problème d'indexation, que Google peut réagir de la sorte : si je vois une page qui existe déjà, je ne la crawlerai pas entièrement et/ou je ne crawlerai pas toutes les pages du site (et surtout : je ne la ressortirai pas dans les SERPs).


    "le nombre de pages indexées est plus ou moins proportionnel au PageRank (de la home?), idem pour la fréquence de crawl"
    → Je ne pense pas que ce soit le PR de la home uniquement. La home n'est qu'une page parmi d'autres.
     
  6. ddpetit
    ddpetit WRInaute discret
    Inscrit:
    22 Février 2006
    Messages:
    65
    J'aime reçus:
    0
    Très bon à savoir, comme quoi le javascript qui permettait avant à certains de faire du sculpting, ne le permettra bientôt plus... Reco !
     
  7. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 439
    J'aime reçus:
    0
    si GG repère de gros pbs de DC il pourrait se "détourner" du site, et son indexation pourrait en souffrir (peut-être y compris pour les pages saines ?): If there are a large number of pages that we consider low value, then we might not crawl quite as many pages from that site


    oui je n'ai pas bien compris, ou plutôt on dirait que Matt Cutts n'a pas bien compris que des pages internes pouvaient recevoir des BL: The best way to think about it is that the number of pages that we crawl is roughly proportional to your PageRank. So if you have a lot of incoming links on your root page, we'll definitely crawl that. Then your root page may link to other pages, and those will get PageRank and we'll crawl those as well. As you get deeper and deeper in your site, however, PageRank tends to decline.

    Another way to think about it is that the low PageRank pages on your site are competing against a much larger pool of pages with the same or higher PageRank. There are a large number of pages on the web that have very little or close to zero PageRank. The pages that get linked to a lot tend to get discovered and crawled quite quickly. The lower PageRank pages are likely to be crawled not quite as often.


    il parle bien de la "root page" puis des pages profondes, comme si il n'y avait que la root page qui pouvait recevoir du jus depuis l'extérieur?
     
  8. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    707
    J'aime reçus:
    1
    Informations intéressantes mais il est vrai que les pages de e-commerces posent pas mal de soucis et sont souvent déclassées rapidement.
    Quelles options trouver ?
    ET comment faire du sculting cohérent ?
     
  9. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 439
    J'aime reçus:
    0
    il préconise d'utiliser rel=canonical; il y a pas mal de détails dans l'interview à ce sujet


    il préconise notamment de lier les pages importantes depuis la home, et d'optimiser la structure du site.
    un autre aspect (mais là c'est de la pure interprétation) c'est que les liens ne transmettraient pas la même quantité de jus selon leur emplacement dans la structure du site et dans la structure des pages:
    par exemple on se doute depuis un moment qu'un lien footer et un lien de contenu n'ont pas la même valeur. c'est une hypothèse qui gagne en crédibilité après ces déclarations.
     
  10. Argonaute
    Argonaute WRInaute impliqué
    Inscrit:
    31 Juillet 2008
    Messages:
    519
    J'aime reçus:
    0
    Je mets rarement des reco mais là sans hésitation.

    Pour un indicateur totalement dévalué, il parle quand même beaucoup du PageRank vous ne trouvez pas ?
     
  11. kmenslow
    kmenslow WRInaute passionné
    Inscrit:
    7 Août 2006
    Messages:
    1 871
    J'aime reçus:
    0
    Il veut relancer la course au PR ?
    Le PR de mon www ne fait que descendre (5 puis 4 et maintenant 3) et pourtant le nombre de page indexées augmente correctement (sauf si la commande site raconte n'importe quoi). Par contre j'ai noté un changement du délai d'indexation qui s'allonge à chaque perte du PR (cela n'a peut-être aucun rapport)
     
  12. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 439
    J'aime reçus:
    0
    oui, me suis fait la même remarque: + de 40 occurrences sur l'interview... beau score pour un indicateur soi-disant périmé et dépassé

    (ou alors il est lui-même perdu avec tous ces algos, le pauvre il en a perdu ses cheveux, d'ailleurs il y a beaucoup de "peut-être", "pas forcément" et "attends je vais leur demander" :mrgreen: )
     
  13. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    707
    J'aime reçus:
    1
    Merci Carole pour les réponses :wink:
    Ne ferait il pas de l'intox pour le PR ? comme ils savent si bien le faire chez GG pour noyer le poisson...
    J'ai également constaté cette variation d'indexation de page et de baisse de PR, mais pas de positionnement au contraire.

    Je pense clairement qu'ils préparent quelques petites choses mais quoi ?
     
  14. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 413
    J'aime reçus:
    0
    du genre pour le problème de linkspam, on baisse le pr des sites qui acceptent du spam sur leurs sites, car pas sérieux. Et donc, comme le pr est sensé avoir un intérêt dans le positionnement, le webmaster va craindre pour son positionnement et va donc nettoyer ce linkspam :mrgreen:
    A l'époque de la baisse de pr pour (suspicion) de vente de BL, la baisse du pr faisait baisser la "valeur" d'un BL, donc les acheteurs étaient moins intéressés, mais le positionnement n'avait pas bougé. Donc là, si on baisse le pr mais que rien d'autre ne change, cela n'incitera pas les webmaster à faire le ménage sur leurs sites, alors qu'en faisant croire que le pr visible a encore une incidence sur le positionnement ils le feront par peur :twisted:
     
  15. Firewave
    Firewave WRInaute passionné
    Inscrit:
    26 Juillet 2009
    Messages:
    1 910
    J'aime reçus:
    0
    Je viens de créer un BLog test avec 170 billets dessus. J'ai mis 25 articles originaux, le reste c'est du copier/coller. Toutes les pages sont indexées. Je n'ai créé que 27 BL pour ce site en majorité No follow pour ne pas fausser le test. Le trafic a augmenté depuis que j'ai augmenté le nombre de posts par jour (tous copiés).
    Donc je leur dirais qu'ils ont encore du chemin à parcourir pour le DC. Surtout sur les niches.
     
  16. forty
    forty WRInaute passionné
    Inscrit:
    30 Octobre 2008
    Messages:
    1 929
    J'aime reçus:
    0
    merci pour le résumé. Ca confirme des pressentiments.
     
  17. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 361
    J'aime reçus:
    2
    Merci, recco de mon côté aussi.

    Pour le PR, je pense qu'il est utilisé comme indicateur des pages intéressantes à crawler. Ce qui n'est pas illogique, après tout, les pages intéressantes sont normalement plus liées que les autres.
    Donc cela serait un de ces indicateurs "annexes", il ne détermine pas le positionnement, mais le comportement du bot qui permet l'indexation qui permet le positionnement. Dans les autres indicateurs annexes, par exemple, je mets la qualité des balises description.
     
  18. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 413
    J'aime reçus:
    0
    indexées n'est pas suffisant, il faut qu'elles ressortent sur les requêtes
     
  19. jeanluc
    jeanluc WRInaute accro
    Inscrit:
    3 Mai 2004
    Messages:
    2 882
    J'aime reçus:
    0
    Matt Cutts dit des choses très curieuses:
    Que des URL interdites par robots.txt puissent être présentes dans l'index est bien connu, mais, comme elles ne peuvent pas être crawlées par Googlebot, je ne vois pas comment cela peut affecter le "crawl budget".

    Jean-Luc
     
  20. Firewave
    Firewave WRInaute passionné
    Inscrit:
    26 Juillet 2009
    Messages:
    1 910
    J'aime reçus:
    0
    Je ressors sur des longues traines sans problème. La seconde étape sera de construire un linking béton et voir si je peux sortir sur les requêtes principales.
    J'attends un peu de voir.
     
  21. SWCF
    SWCF WRInaute occasionnel
    Inscrit:
    28 Janvier 2010
    Messages:
    263
    J'aime reçus:
    0
    ne parlant pas Anglais, je prends ce que dit Carole Heinz à la lettre.

    En gros, je ne vois que des "peut-être, éventuellement, par moment, il se pourrait, ça se peut, dans certains cas, ..."


    Je trouve ça très vague.
    De toute façon GG ne va pas donner la solution aux référenceurs pour biaiser leur classement
     
  22. mx
    mx WRInaute impliqué
    Inscrit:
    16 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
    La délation n'est pas un nouvel outil :|
     
  23. smoof
    smoof Nouveau WRInaute
    Inscrit:
    12 Février 2008
    Messages:
    4
    J'aime reçus:
    0
    Très intéressant, notamment pour le PR sculpting, ne le pénalisant pas pour le moment !
     
  24. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 413
    J'aime reçus:
    0
    il y a quelques mois ils disaient que ça ne servait plus à rien, car TOUS les liens étaient comptabilisés y compris les nofollow
     
  25. carole heinz
    carole heinz WRInaute passionné
    Inscrit:
    28 Février 2007
    Messages:
    2 439
    J'aime reçus:
    0
    il n'est pas aussi catégorique:

     
  26. Bigbangbel
    Bigbangbel WRInaute discret
    Inscrit:
    22 Janvier 2008
    Messages:
    153
    J'aime reçus:
    0
    Google attribue peut-être un certain "budget" à chaque site pour le temps qu'il passe à le crawler. Un site plus rapide est alors un avantage, comme l'est certainement un site à fort PR, etc.
    Matt Cutts indique qu'on ne peut pas changer ce "budget" en défendant l'accès à certaines pages pour que le robot parcoure mieux le reste du site. Ce budget me semble aussi lié au nombre d'URL connues du site.
    Je connaissais le PR sculpting, voici le crawl budget sculpting ;-)

    Beaucoup de conditionnel dans ce que je dis, il s'agit d'une interprétation, qu'en pensez-vous ?
     
  27. Alaindeloin
    Alaindeloin WRInaute passionné
    Inscrit:
    8 Janvier 2010
    Messages:
    1 328
    J'aime reçus:
    0
    +1 pour la réco et +1000 pour ce demi-aveu de "google" que le PR n'est en fait pas si enterré que ça... :mrgreen:
     
  28. passion
    passion WRInaute accro
    Inscrit:
    6 Janvier 2006
    Messages:
    3 816
    J'aime reçus:
    154
    Merci beaucoup pour ces infos très intéressantes !
    reco +1
     
  29. nza2k
    nza2k WRInaute impliqué
    Inscrit:
    16 Janvier 2004
    Messages:
    898
    J'aime reçus:
    2
  30. petitchevalroux
    petitchevalroux WRInaute discret
    Inscrit:
    31 Mai 2006
    Messages:
    164
    J'aime reçus:
    0
    Ou tout simplement il parle du fait de bloquer des milliers de page via robot.txt pour ne pas avoir de traffic sur ces pages et donc pas de cout de génération.

    Pour moi le crawl budget c'est plus le cout lié à la génération des pages par les robots et non par les visiteurs ce qui, pour les sites sur amazon s3 ou autre cloud, entraine un cout qui ne sert pas à grand chose.

    Mais bon je peux me tromper :mrgreen:
     
Chargement...
Similar Threads - Matt Cutts livre Forum Date
Matt Cutts quitte Google ? Référencement Google 29 Mars 2015
Matt Cutts prend plusieurs mois de vacances Google : l'entreprise, les sites web, les services 4 Juillet 2014
Matt Cutts n'inspire pas confiance Google : l'entreprise, les sites web, les services 26 Janvier 2014
Matt Cutts déconseille le guest blogging fait dans une optique SEO Netlinking, backlinks, liens et redirections 25 Janvier 2014
100 liens par page, Matt Cutts dit que ce n'est plus vrai mais . e-commerce 27 Novembre 2013
Conseils en référencement (SEO) d'un ancien Googler de l'équipe de Matt Cutts Référencement Google 19 Octobre 2012
Matt Cutts annonce Pingouin 2.0 en effrayant les SEO Référencement Google 16 Août 2012
Comment être 1er sur Google, dixit Matt Cutts Google : l'entreprise, les sites web, les services 16 Mai 2012
Matt Cutts doit il être viré ? Référencement Google 8 Mai 2012
Matt Cutts participe en live à un Questions - Réponses (pendant 45mn) Référencement Google 22 Septembre 2011