Le brevet Ranking Documents de Google cherche à piéger les spammeurs

Discussion dans 'Techniques avancées de référencement' créé par WebRankInfo, 21 Août 2012.

  1. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 983
    J'aime reçus:
    293
  2. anemone-clown
    anemone-clown WRInaute passionné
    Inscrit:
    11 Novembre 2007
    Messages:
    1 583
    J'aime reçus:
    16
    J'avais constaté ce phénomène de yoyo sur des requêtes visiblement concurrentielles : l'explication et en lumière l'agorithmisation de ce phénomème.

    Cela signifie aussi que la disparition d'un concurrent à -x places peut le faire revenir plus tard à +y de mieux que son positionnement précédent si au terme du délai, GG décide qu'il s'agissait d'une technique valable ou d'un lien non acheté.
     
  3. nza2k
    nza2k WRInaute impliqué
    Inscrit:
    16 Janvier 2004
    Messages:
    895
    J'aime reçus:
    1
    Merci pour l'analyse du brevet Olivier.

    Intuitivement, je pense que nous sommes nombreux à l'avoir "senti". Ca rejoint un peu l'idée de bac à sable (la fameuse sandbox), qui peut concerner au final tout un site, ou juste une page spécifiquement.
     
  4. Ju431
    Ju431 Nouveau WRInaute
    Inscrit:
    22 Août 2012
    Messages:
    4
    J'aime reçus:
    0
    Je pense que ce "Ranking Documents" est une très mauvaise idée car si un site est ainsi mi a l'épreuve de 20 à 70 jour. Il perd artificiellement ses positions acquises au prix de nombreuses heures de travail. Mais ce qui est le plus grave, c'est que les résultats du classement de Google (pendant ces 20 à 70 jours) ne reflètent plus du tout le classement normal. Ainsi, des sites sans contenus se retrouvent en haut des SERPs et d'autres plus riche en contenus, mais optimisés sont jetés aux oubliettes pendant ce temps (c'est le cas de mon site de puis l'avènement de Pingouin). Google n'est plus un moteur de recherche fiable, mais il est désormais un shérif qui flingue aléatoirement les sites pendant 20 à 70 jours. Je ne pense vraiment pas qu'internet progresse avec cette nouvelle arme.
     
  5. Steuveu78
    Steuveu78 Nouveau WRInaute
    Inscrit:
    26 Avril 2012
    Messages:
    41
    J'aime reçus:
    0
    Entièrement d'accord, ou se trouve aujourd'hui le fondement du rôle d'un moteur de recherche? Avec une action comme celle-ci on se retrouve avec une liste de SERP obsolétes avec un google qui devient vraiment parano.
     
  6. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Ouais, pas convaincu non plus par ce système !

    Imaginez : Vous tenez un super scoop que vous mettez sur la toile, Google vous fout derrière pour voir si vous changez des trucs sur votre page, vos titres par exemple, ce qui pour eux est traduit par : vous êtes un spammeur (entre nous je vois pas du tout le rapport), vous chutez donc vous remettez vos anciens titres et bim vous rechutez, ben après tout ça votre scoop c'est déjà de l'histoire ancienne sur le web !

    Je ne penses pas que ça s'applique systématiquement à toutes les nouvelles pages, et que comme Olivier le dit, l'algo Google actu devrait avoir le dessus, mais bon là ça devient de la masturbation intellectuelle, faut qu'ils prennent un peu l'air chez GG !

    Pour ce qui est du yoyo, moi c'est + ou - 100 places d'un jour à l'autre sur certaines pages uniquement, je sait pas si ça à un rapport mais c'est relou !
     
  7. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 983
    J'aime reçus:
    293
    qui vous dit que Google applique ce système dans tous les cas ?
    imaginez que ce système est sans doute en place depuis plusieurs années. Vous semblez réagir comme si ce n'est que demain que Google allait le mettre en place.

    et si Google ne l'utilisait que pour les cas où il suspecte une action de spam mais qu'il souhaite la confirmer ?
     
  8. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Qui vous dit que non ?
    C'est ce que j'ai voulu dire par "Je ne penses pas que ça s'applique systématiquement à toutes les nouvelles pages"
    De toute façon c'est n'importe quoi, avant de m'interesser (par obligations) au référencement , je n'aurais jamais imaginé 1/100ème de tous les critères que Google prend en compte, alors imaginez quelqu'un qui n'a pas du tout ces connaissances, qui met un site en ligne, qui change des trucs régulièrement, qui refait qui modifie, il sera cassé par Google et ne marchera jamais, et si il fait appel à quelqu'un qui a ces connaissances, ça sera trop optimisé et il sera cassé par Google.

    Dans tous les cas maintenant Google te casse ! ( et arrêtez de nous raconter "mais naaaaaan faut juste faire du contenu intéressant et vous aurez des backlinks naturels" LOL)
     
  9. Steuveu78
    Steuveu78 Nouveau WRInaute
    Inscrit:
    26 Avril 2012
    Messages:
    41
    J'aime reçus:
    0
    mais naaaaaan faut juste faire du contenu intéressant et vous aurez des backlinks naturels.

    :roll:

    Il est très clair que Google rentre dans une démarche de déstabilisation, si cela s'applique depuis des mois pourquoi nous sortir ca en ce moment avec tout le ramdam qu'il fait sur pingouin ?
     
  10. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 983
    J'aime reçus:
    293
    mais Google ne l'a pas "sorti" ! ils viennent d'obtenir le brevet. A ma connaissance ce n'est pas eux qui choisissent la date d'acceptation, ils attendaient l'acceptation depuis 2 ans et demi...
     
  11. Steuveu78
    Steuveu78 Nouveau WRInaute
    Inscrit:
    26 Avril 2012
    Messages:
    41
    J'aime reçus:
    0
    Au temps pour moi ;) dans tout les cas leur état d'esprit n'est plus du tout fixé dans un objectif de rendre les SERP plus quali : Vous voulez booster votre visibilité dans nos résultats ? Au lieu d'optimiser vos pages, souscrivez une offre Adwords :D
     
  12. Ju431
    Ju431 Nouveau WRInaute
    Inscrit:
    22 Août 2012
    Messages:
    4
    J'aime reçus:
    0
    Le système de "Ranking Documents" correspond exactement à ce qui ce passe depuis le 25 Avril 2012, date de la Sortie de Google Pingouin. Certes, le brevet n'était pas officiellement en vigueur depuis le 25 avril, mais cela n’empêchait pas Google de s'en servir. Et puis ce brevet de "Ranking Documents" pourrait bien correspondre aussi aux déclarations de Matt Cutts la semaine dernière.
     
  13. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    je pense que ça doit être le cas, du genre un site qui a un taux de retour serp trop important. De toutes façons, les serp modifiées de façon semi aléatoire, il y a des années que gg le fait : pourquoi ne retrouve-t-on pas les mêmes classements sur les recherches singulier/pluriel, voire même en ajoutant des mots vides / stop words ?
    comment définit-on un "classement normal" ? c'est quand ton site est dans les 1) places ?
    pourquoi des "sites sans contenus" ? au delà de la 1° page des serp il n'y aurait que des sites sans contenus ? ne pourrait-il point y avoir des sites sans contenu en page 1, car fortement optimisés seo et des sites avec plein de bon contenu en page 4, car avec aucune connaissance seo ?
     
  14. cdpdf
    cdpdf WRInaute impliqué
    Inscrit:
    11 Mars 2003
    Messages:
    732
    J'aime reçus:
    0
    Est-il possible de trouver toute leur demande de brevet?

    J'ai pas envie d'avoir toujours 2 ans et demi de retard!
     
  15. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 983
    J'aime reçus:
    293
    parce que l'intention de l'internaute n'est pas tout à fait identique. Dans certains cas (je ne vais pas dévoiler mes super exemples de formation...) un pluriel ou un tout petit mot en plus, ça change complètement le sens, et Google sait désormais très bien en tenir compte.

    @cdpdf : je n'en sais rien...
     
  16. Ju431
    Ju431 Nouveau WRInaute
    Inscrit:
    22 Août 2012
    Messages:
    4
    J'aime reçus:
    0
    Je ne parle pas de mon cas ici: Si a la suite d'un changement dans une page, cette page est mise en quarantaine (de 20 à 70 jours), cela perturbe le classement normal des résultats Google, car cette page peu passer des 10 premières positions de Google à la position 200. A mon avis, un classement "normal" doit être progressif et reposer sur plusieurs critères (autant que possible) et ne pas être arbitraire comme c'est le cas avec le "Ranking Documents" (même si ce classement n'est que provisoire). Et je ne parle pas pas de la porte qui est maintenant plus que grande ouverte au Négative-Seo dont les conséquences sont bien pires pour le Web (aujourd'hui, le premier débile venu peut flinguer un site concurrent).
     
  17. Ju431
    Ju431 Nouveau WRInaute
    Inscrit:
    22 Août 2012
    Messages:
    4
    J'aime reçus:
    0

    Quand Google remplace (pour les jeter aux oubliettes) des sites dans lesquels on trouve des infos détaillés, plusieurs milliers de mots, des images, des videos, un vrai travail de recherche et d'information ... pour les remplacé par des vieux sites complètement à l'abandon, dont les pages contiennent à peine 200 mots, dans lesquels le contenu est quasiment égal à zéro, je pense qu'il y a un problème, et pas seulement pour les webmasters, mais aussi pour les visiteurs qui sont privés de renseignements utiles. Je ne dis pas que cela est systématique, il reste encore beaucoup de bons sites dans les 4 premières pages (et au dela) de résultats Google, c'est simplement plus fréquent, de puis le 25 avril 2012, que des sites sans intérêts remontent dans les SERPs et d'autres avec du contenus se trouvent dégradés au prétexte qu'ils sont optimisés.
    Dans un secteur extrêmement concurrentiel, un site avec un bon contenu ne suffit pas, il faut aussi l’optimiser pour qu'il soit vu, tout simlement.
     
  18. freeart
    freeart Nouveau WRInaute
    Inscrit:
    6 Décembre 2010
    Messages:
    1
    J'aime reçus:
    0
    Je constate que comme souvent dès que google fait une annonce
    et c'est la panique l’angoisse, voir la parano.

    Mon cas est peu être a part mais souvent les modification de google ;
    en vu de tenter de renforcer la pertinence des résultats ; me sont bénéfique.

    Sur certaines modifications les visites augmentent significativement ce qui augmente les ventes,
    sur d'autres les visites baissent, mais vu que les visiteurs sont dirigés avec plus de pertinence,
    le taux de conversion est plus élevé.

    Quand j'ai construit mon site (je n'était aucunement développeur ou SEO pro. j'en avais une vague idée). Je me suis attaché a faire un site claire, facile en navigation, et qui reflète exactement ce que contient la boutique de ces possibilités, sans chercher à voir si tel ou tel mot clef a le plus de requête.
    Je me suis juste contenté de structurer mes texte (enfin je pense) et d'enrichir au mieux les descriptions de produits,
    de faire un site clair, ergonomique et vrai.

    Une approche amateur décontracté et moins professionnel (ce qui était l'essence du web ... ). Même si je sais que je me professionnalise comme vous tous :( :)
     
  19. nickargall
    nickargall WRInaute accro
    Inscrit:
    13 Juin 2005
    Messages:
    6 658
    J'aime reçus:
    0
    Bon, ben maintenant on saura quoi répondre aux clients qui nous houspillent parce qu'ils ont perdu des positionnements quelques jours après la mise en place d'optimisations : "Vous inquiétez pas, c'est normal, ca va remonter (ou pas)" ;)

    Justement, je dois en appeler un qui m'a houspillé et dont le site vient de sortir de ce "bac a sable mouvant" bien mieux positionné qu'avant.

    Edit HS : Tiens j'ai plus de smiley ?
     
  20. lambi521
    lambi521 WRInaute passionné
    Inscrit:
    15 Juin 2010
    Messages:
    1 476
    J'aime reçus:
    0
    Ca serais intéressant de savoir comment il en est sorti :)

    Edit: Ah ouais marchent pu les smileys
     
  21. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    j'ai de forts doutes que, dans un secteur extrêmement concurrentiel, on puisse trouver cela : il ne doit pas y avoir qu'un seul site avec du vrai contenu, donc 1 de plus ou un de moins, qu'est-ce que cela change pour l'internaute ? de plus, comme dit précédemment, je pense que ça ne doit être que pour les sites pour lesquels une forte suspicion de spam se fait ressentir. Il faut donc que le taux de retour aux serp soit très fort et, peut-être même, y a-t-il une validation manuelle de leurs services
     
  22. nickargall
    nickargall WRInaute accro
    Inscrit:
    13 Juin 2005
    Messages:
    6 658
    J'aime reçus:
    0
    Avec de la patience :) rien de plus, rien de moins
     
  23. fredfan
    fredfan WRInaute accro
    Inscrit:
    2 Juillet 2008
    Messages:
    2 869
    J'aime reçus:
    2
    Beaucoup d'efforts pour casser le SEO depuis quelques années, mais à quand remonte la dernière vraie amélioration de l'algorithme ?
     
  24. Dernito
    Dernito Nouveau WRInaute
    Inscrit:
    28 Août 2012
    Messages:
    15
    J'aime reçus:
    0
    Comme d'habitude ici on pense SEO, la réalité est qu'un site de qualité avec un réel branding, les utilisateurs ne tapent pas des requêtes génériques pour y accéder, et si ils le font ils vont chercher "leur" site dans les résultats.
    Notre site se ballade dans les SERP depuis quelques mois de la 2eme a la 5eme positon sur notre requête générique et notre trafic n'a pas bougé, pourquoi ? Déjà les gens recherchent en majorité le nom de notre site et pas une requête générique, et même en tapant la requête générique ils scrollent parce que c'est notre site qu'ils veulent.

    Quand on s'appelle locationdevoiturepaschersurmarseille.fr faut pas s’étonner et venir pleurer a chaque fois que Google lâche un prout et que vous vous faites tataner dans les SERP
     
  25. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Dernito, tu as tout à fait raison. Écoutons tous Dernito et sauvons nos business.
     
  26. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 372
    J'aime reçus:
    2
    Je pense que ce qu'il dit est plein de bon sens...
     
  27. Dernito
    Dernito Nouveau WRInaute
    Inscrit:
    28 Août 2012
    Messages:
    15
    J'aime reçus:
    0
    Merci de ton soutien Marie-Aude et désolé pour la quote :)
     
  28. lamiadirectory
    lamiadirectory WRInaute discret
    Inscrit:
    1 Juin 2009
    Messages:
    142
    J'aime reçus:
    0
    C'est clair, Google n'a jamais apprécié la SEO, cela va contre son business et il lutte tous les jours contre les agences. Je trouve que c'est une stratégie obsolète. Au lieu d'^etre systématiquement "contre" les agences et les pousser à faire toujours plus, il devrait collaborer "avec" pour élaborer des solutions vraiment utiles et pertinentes pour tous, internautes compris.
     
  29. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Je ne pense pas que les filtres soient mis en place pour lutter contre les agences mais contre certaines pratiques.
    @Dernito: ce que tu dis est peut-être pertinent mais pas du tout évident. La notoriété ne suffit pas toujours à assurer la visibilité d'un site sur Internet sauf à être une grande marque ou à investir de gros moyens dans des campagnes de communication. L'objectif est louable mais tous ne peuvent pas l'atteindre. Pour les autres, il reste le SEO.
     
  30. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Les autres vont disparaître lecouti, le marché commence a être mûr.
     
  31. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    en fait, on commence par le seo, mais ensuite, pour fidéliser l'internaute, il faut travailler son branding comme ça, lors de ses requêtes dans les serp, il recherchera sur notre site. Comme peu connaissent la commande site:, les requêtes sont effectuées sous la forme "sa requête le nom de notre site", d'où l'intérêt de ne pas se focaliser uniquement sur des mots clés génériques en appelant notre site "hotel paris" avec hotel-paris.com comme ndd.
    Quand on va perdre des places sur cette requête générique, ça en sera finit des requêtes spécifiques incluant notre nom de site, vu qu'il correspondra à une requête hyper concurrentielle
     
  32. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    Tout ce qui permet d'être moins dépendant d'un moteur est bienvenu mais je ne crois pas que ce soit une piste pour tout le monde. L'internaute associe peu une marque à une recherche, non ? Je ne sais pas d'ailleurs s'il existe des stats à ce sujet.
    De plus, le branding doit être mené sur un très long terme avant qu'il apporte une reconnaissance suffisante et influence l'internaute pour qu'il associe la marque dans sa requête. Mais le SEO peut consister à travailler le contenu. Je ne pensais pas seulement spécialement au netlinking.
     
  33. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    tout dépend : si ton site commence à devenir une référence dans son domaine niche et que l'internaute a déjà fait le tour de pas mal de sites de ce domaines mais ne retrouve pas l'info aussi pertinente, il aura tendance à vouloir revenir chez toi.
     
  34. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Si t'es une référence de toute façon t'en as rien à foutre de Google, t'as assez de trafic en stand alone.

    C'est donc une fausse piste. Facile de dire "devenez la référence et le SEO sera moins important", oui bah devenir une référence n'a rien de simple pour personne.

    La théorie c'est bien beau mais ce qui compte c'est la pratique sur le terrain et en pratique lancer un branding puissant (et rentable) c'est clairement impossible pour le commun des mortels.
     
  35. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    déjà, tu ne deviens pas obligatoirement une référence pour tous tes visiteurs : ça serait trop beau. ensuite, beaucoup d'internautes ne savent pas utiliser des bookmark aussi, on voit des visiteurs qui arrivent en tapant comme requête le nom du site voire le ndd complet.
    Ensuite, ça ne veut pas dire qu'ils y viennent directement : ils peuvent faire une recherche et, sur les domaines renvoyés par gg, ils aperçoivent le notre et cliquent dessus, quand bien même il n'est pas dans les 2 premiers
     
  36. lecouti
    lecouti WRInaute passionné
    Inscrit:
    3 Janvier 2009
    Messages:
    1 351
    J'aime reçus:
    4
    De toute manière, les actions sont à combiner. Je considère toutefois que la situation est très différente suivant qu'on travaille sur des sites informatifs ou des boutiques en lignes. Pour ces dernières, les conditions deviennent très difficiles.
     
  37. XoSt
    XoSt WRInaute passionné
    Inscrit:
    6 Octobre 2003
    Messages:
    2 231
    J'aime reçus:
    0
    Leonick, une requête avec le nom de ton site c'est un bookmark, Google ne va pas te déclasser sur le nom de ton site si c'est une marque. Si t'as été téméraire de prendre un ndd à mots clés bah tant pis pour toi.
     
  38. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    le problème c'est qu'il y a plein de webmasters qui ont fait ça et d'autres qui vont le faire
     
  39. Lightonseo
    Lightonseo Nouveau WRInaute
    Inscrit:
    27 Septembre 2012
    Messages:
    49
    J'aime reçus:
    0
    Franchement ici je lis pas mal de chose hallucinantes, au point de me demander si certains, bien qu'inscrit sur WRI depuis des lustres ont vraiment compris quelque chose au SEO

    Il faut arrêter de dire que Google en veut au SEO. Les SEO aident Google à comprendre le contenu d'un site web, la première tache du référenceur étant d'aider les moteurs de recherche à mieux crawler un site, à mieux comprendre le contenu de ses pages et à mieux comprendre la relation qu'ont certaines pages entre elles.

    Evidement à force de vouloir aider Google à "Comprendre" on en fait parfois un peu trop. Car finalement ce qui intéresse la majorité des personnes qui détiennent des sites web, n'est pas que Google ait saisi les différents topic dont traite leur site, mais qu'il accepte de les placer en tête.

    En définitive le péché de beaucoup de référenceurs c'est de penser que "Tant que Google ne nous a pas promu, c'est qu'il n'a pas compris le contenu de notre site" .... alors on essaie de le lui faire comprendre par tous les moyens. En ce sens le concept derrière Ranking documents est très pertinent.

    Personnellement je ne vois rien de mal à travers ce brevet, et à ceux qui disent que la période transitoire pourrit les SERP j'aimerai leur dire gentiment de faire appel pour une fois à leur bon sens, et d'accepter une bonne fois pour toute, qu'il n'est pas dans l'intérêt de Google de pourrir ses propres SERPS.

    Ceci ne veut pas dire que les changements d'algo ou les updates de GG font mouche à chaque fois, ou qu'il n y a pas d'effets collatéraux. C'est un moteur qui bien qu'étant le meilleur, cherche constamment la bonne formule, si tout n'est pas parfait c'est normal.
     
  40. BobbySixKiller
    BobbySixKiller WRInaute discret
    Inscrit:
    17 Février 2005
    Messages:
    175
    J'aime reçus:
    0
    Bonsoir, je viens de constater une chute impressionante des positions et clicks sur un site, au 28 décembre 2012.
    Après 2 semaine de nouveaux backlinks plutôt bien placés ..

    Première réaction > faire une question via webmaster tools
    Réponse standard : pas de spam détecté ..

    Mhhh.. curieux de nouveaux mots clefs "longue traine" sont apparus au même moment, des sites concurrents sur ces mots clefs également perturbés, exactement sur 2 expressions clés.

    Pensez vous qu'il s'agisse de cet algorythme ou un autre diagnostic s'impose ?

    Merci pour vos lumières
     
  41. noren
    noren WRInaute accro
    Inscrit:
    8 Avril 2011
    Messages:
    2 903
    J'aime reçus:
    14
    C'est bien la le problème de cet algo que je trouve un peu limite.

    c'est que la logique voudrait qu'étant donné qu'on subit une forte chute, on essaye de voir ce qui va pas ou pourrait être gênant et qu'on essaye d'améliorer ce qu'on peut.

    Mais si maintenant on peut craindre de paraitre suspect ou va le monde? doit-on laisser couler son entreprise sous prétexte que "peut être" google test notre réaction...

    J'ose quand même espérer que cette algo touche vraiment les très très gros spammeurs. Faut-il encore savoir quelle est cette limite.
     
  42. clean
    clean WRInaute discret
    Inscrit:
    10 Octobre 2011
    Messages:
    58
    J'aime reçus:
    0
    Là effectivement y a un truc qui m'échappe : si ton site parle effectivement des hotels à paris quel mal à l'appeler hotel-paris.com ?
    Il se peut que la concurrence se durcisse sur ce domaine et que tu perdes des places, mais cela restera tout de même un atout pour une requête sur hotel paris et je ne vois pas en quoi "ça en sera finit des requêtes spécifiques incluant notre nom de site, vu qu'il correspondra à une requête hyper concurrentielle"
     
  43. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 436
    J'aime reçus:
    0
    tout simplement parce que quand tu souhaiteras faire une promotion de ton site, tu diras (ou écriras) hôtel à paris. Et que les internautes, même connaissant ton ndd rechercheront dans gg "hotel paris" et donc ta promotion servira à tes concurrents mieux placés que toi dans les serp sur cette requête.
     
  44. clean
    clean WRInaute discret
    Inscrit:
    10 Octobre 2011
    Messages:
    58
    J'aime reçus:
    0
    Ainsi il est possible d'être mieux placé sur cette requête avec un ndd qui corresponde à la requête ?
    Ben là chuis dans la m.. parce que mon nom de domaine est une marque déposée bien avant le Web qui correspond à l'association de 2 mots clés.
    Pour reprendre l'exemple imagine que mon site web s'appelle hotel-paris.fr parce que la version papier (tu sais le truc qui y avait avant le oueb) s'appelait Paris Hôtel et recensait les hôtels.
    Du coup j'ai optimisé mon site sur d'autres mots clés ce qui m'a permis depuis 10 ans d'être bien placé dans le requêtes sur mon ndd et sur d'autres.. Sauf que tout s'est cassé la gu.. fin novembre 2012 et que mes concurrents me sont passés devant comme tu dis.
    Je suppose qu'une demande de révision auprès de GG en expliquant la chose est inutile ?
     
  45. indigene
    indigene WRInaute accro
    Inscrit:
    7 Septembre 2003
    Messages:
    3 682
    J'aime reçus:
    76
    La moralité c'est qu'il faut faire ce qui nous semble être bon pour son site et ne surtout pas réagir si on voit que ce qu'on a fait nous fait perdre des positions.

    Google nous teste en nous rétrogradant temporairement et si on réagit tout de suite pour défaire l'optimisation que l'on vient de faire c'est un aveu pour Google comme quoi on a cherché à manipuler les serp.

    Si par contre on reste inflexible et stoïque, l'optimisation sera finalement prise en compte après un certain délai.

    Il ne faut pas oublier non plus que c'est Google lui-même qui nous incite à faire des optimisations :
    Une autre solution consiste à faire ceci :
    - Travailler l'optimisation d'une nouvelle page avec le plus grand soin
    - Mettre la page en ligne
    - Ne JAMAIS y toucher (pas de modification de la balise TITLE, pas d'optimisation de la description, ne pas changer les H1 H2...)

    Et si vraiment on a besoin d'effectuer des optimisations sur une page existante, n'est-il pas judicieux de créer une nouvelle page à l'identique, mais avec les optimisations, et de mettre l'ancienne page en noindex ? En plus des optimisations qui seront prises en compte dès le début on bénéficiera également d'une prime fraicheur. Vous en pensez quoi ?
     
  46. Photoshop user
    Photoshop user WRInaute impliqué
    Inscrit:
    8 Décembre 2004
    Messages:
    863
    J'aime reçus:
    0
    Cela me fait penser a une méthode pour valider les techniques d'abus.
    Faisons abstraction de la visibilité du site en question: Grace a ce système, Google va 'apprendre' quels sont les modifications qui sont SEO et que le webmaster est prêt a abandonné au moindre tressaillement de la courbe de trafic organic.
     
Chargement...
Similar Threads - brevet Ranking Documents Forum Date
Détection des vidéos en doublon sur YouTube [brevet Google] YouTube, Google Images et Google Maps 11 Janvier 2017
Brevet Google sur les Rich Snippets Référencement Google 11 Janvier 2017
Brevet Google pour les réponses directes avec rich snippet Référencement Google 17 Mai 2016
Brevet Google : les cercles de contacts dans les réseaux sociaux Google+ 11 Mai 2016
Brevet Google : CAPTCHA audio 3D Google : l'entreprise, les sites web, les services 17 Février 2016
Brevet Google (2015) sur la fraîcheur des documents pour requêtes d'actualité Techniques avancées de référencement 23 Novembre 2015
Brevet Google : Sitelinks based on visual location Référencement Google 15 Juin 2015
Le brevet (supposé) de Google Hummingbird (algo Colibri) Référencement Google 18 Octobre 2013
Brevet Google : substitution de mots dans les requêtes Rédaction web et référencement 13 Août 2013
Un brevet Google en rapport avec Panda? Référencement Google 31 Mai 2012
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice