Le brevet Ranking Documents de Google cherche à piéger les spammeurs

WRInaute passionné
J'avais constaté ce phénomène de yoyo sur des requêtes visiblement concurrentielles : l'explication et en lumière l'agorithmisation de ce phénomème.

Cela signifie aussi que la disparition d'un concurrent à -x places peut le faire revenir plus tard à +y de mieux que son positionnement précédent si au terme du délai, GG décide qu'il s'agissait d'une technique valable ou d'un lien non acheté.
 
WRInaute impliqué
Merci pour l'analyse du brevet Olivier.

Intuitivement, je pense que nous sommes nombreux à l'avoir "senti". Ca rejoint un peu l'idée de bac à sable (la fameuse sandbox), qui peut concerner au final tout un site, ou juste une page spécifiquement.
 
Nouveau WRInaute
Je pense que ce "Ranking Documents" est une très mauvaise idée car si un site est ainsi mi a l'épreuve de 20 à 70 jour. Il perd artificiellement ses positions acquises au prix de nombreuses heures de travail. Mais ce qui est le plus grave, c'est que les résultats du classement de Google (pendant ces 20 à 70 jours) ne reflètent plus du tout le classement normal. Ainsi, des sites sans contenus se retrouvent en haut des SERPs et d'autres plus riche en contenus, mais optimisés sont jetés aux oubliettes pendant ce temps (c'est le cas de mon site de puis l'avènement de Pingouin). Google n'est plus un moteur de recherche fiable, mais il est désormais un shérif qui flingue aléatoirement les sites pendant 20 à 70 jours. Je ne pense vraiment pas qu'internet progresse avec cette nouvelle arme.
 
Nouveau WRInaute
Ju431 a dit:
Je pense que ce "Ranking Documents" est une très mauvaise idée car si un site est ainsi mi a l'épreuve de 20 à 70 jour. Il perd artificiellement ses positions acquises au prix de nombreuses heures de travail. Mais ce qui est le plus grave, c'est que les résultats du classement de Google (pendant ces 20 à 70 jours) ne reflètent plus du tout le classement normal. Ainsi, des sites sans contenus se retrouvent en haut des SERPs et d'autres plus riche en contenus, mais optimisés sont jetés aux oubliettes pendant ce temps (c'est le cas de mon site de puis l'avènement de Pingouin). Google n'est plus un moteur de recherche fiable, mais il est désormais un shérif qui flingue aléatoirement les sites pendant 20 à 70 jours. Je ne pense vraiment pas qu'internet progresse avec cette nouvelle arme.

Entièrement d'accord, ou se trouve aujourd'hui le fondement du rôle d'un moteur de recherche? Avec une action comme celle-ci on se retrouve avec une liste de SERP obsolétes avec un google qui devient vraiment parano.
 
WRInaute passionné
Ouais, pas convaincu non plus par ce système !

Imaginez : Vous tenez un super scoop que vous mettez sur la toile, Google vous fout derrière pour voir si vous changez des trucs sur votre page, vos titres par exemple, ce qui pour eux est traduit par : vous êtes un spammeur (entre nous je vois pas du tout le rapport), vous chutez donc vous remettez vos anciens titres et bim vous rechutez, ben après tout ça votre scoop c'est déjà de l'histoire ancienne sur le web !

Je ne penses pas que ça s'applique systématiquement à toutes les nouvelles pages, et que comme Olivier le dit, l'algo Google actu devrait avoir le dessus, mais bon là ça devient de la masturbation intellectuelle, faut qu'ils prennent un peu l'air chez GG !

Pour ce qui est du yoyo, moi c'est + ou - 100 places d'un jour à l'autre sur certaines pages uniquement, je sait pas si ça à un rapport mais c'est relou !
 
Olivier Duffez (admin)
Membre du personnel
qui vous dit que Google applique ce système dans tous les cas ?
imaginez que ce système est sans doute en place depuis plusieurs années. Vous semblez réagir comme si ce n'est que demain que Google allait le mettre en place.

et si Google ne l'utilisait que pour les cas où il suspecte une action de spam mais qu'il souhaite la confirmer ?
 
WRInaute passionné
qui vous dit que Google applique ce système dans tous les cas ?
Qui vous dit que non ?
et si Google ne l'utilisait que pour les cas où il suspecte une action de spam mais qu'il souhaite la confirmer ?
C'est ce que j'ai voulu dire par "Je ne penses pas que ça s'applique systématiquement à toutes les nouvelles pages"
De toute façon c'est n'importe quoi, avant de m'interesser (par obligations) au référencement , je n'aurais jamais imaginé 1/100ème de tous les critères que Google prend en compte, alors imaginez quelqu'un qui n'a pas du tout ces connaissances, qui met un site en ligne, qui change des trucs régulièrement, qui refait qui modifie, il sera cassé par Google et ne marchera jamais, et si il fait appel à quelqu'un qui a ces connaissances, ça sera trop optimisé et il sera cassé par Google.

Dans tous les cas maintenant Google te casse ! ( et arrêtez de nous raconter "mais naaaaaan faut juste faire du contenu intéressant et vous aurez des backlinks naturels" LOL)
 
Nouveau WRInaute
mais naaaaaan faut juste faire du contenu intéressant et vous aurez des backlinks naturels.

:roll:

Il est très clair que Google rentre dans une démarche de déstabilisation, si cela s'applique depuis des mois pourquoi nous sortir ca en ce moment avec tout le ramdam qu'il fait sur pingouin ?
 
Olivier Duffez (admin)
Membre du personnel
mais Google ne l'a pas "sorti" ! ils viennent d'obtenir le brevet. A ma connaissance ce n'est pas eux qui choisissent la date d'acceptation, ils attendaient l'acceptation depuis 2 ans et demi...
 
Nouveau WRInaute
WebRankInfo a dit:
mais Google ne l'a pas "sorti" ! ils viennent d'obtenir le brevet. A ma connaissance ce n'est pas eux qui choisissent la date d'acceptation, ils attendaient l'acceptation depuis 2 ans et demi...

Au temps pour moi ;) dans tout les cas leur état d'esprit n'est plus du tout fixé dans un objectif de rendre les SERP plus quali : Vous voulez booster votre visibilité dans nos résultats ? Au lieu d'optimiser vos pages, souscrivez une offre Adwords :D
 
Nouveau WRInaute
Le système de "Ranking Documents" correspond exactement à ce qui ce passe depuis le 25 Avril 2012, date de la Sortie de Google Pingouin. Certes, le brevet n'était pas officiellement en vigueur depuis le 25 avril, mais cela n’empêchait pas Google de s'en servir. Et puis ce brevet de "Ranking Documents" pourrait bien correspondre aussi aux déclarations de Matt Cutts la semaine dernière.
 
WRInaute accro
WebRankInfo a dit:
et si Google ne l'utilisait que pour les cas où il suspecte une action de spam mais qu'il souhaite la confirmer ?
je pense que ça doit être le cas, du genre un site qui a un taux de retour serp trop important. De toutes façons, les serp modifiées de façon semi aléatoire, il y a des années que gg le fait : pourquoi ne retrouve-t-on pas les mêmes classements sur les recherches singulier/pluriel, voire même en ajoutant des mots vides / stop words ?
Ju431 a dit:
Mais ce qui est le plus grave, c'est que les résultats du classement de Google (pendant ces 20 à 70 jours) ne reflètent plus du tout le classement norma
comment définit-on un "classement normal" ? c'est quand ton site est dans les 1) places ?
Ju431 a dit:
Ainsi, des sites sans contenus se retrouvent en haut des SERPs et d'autres plus riche en contenus, mais optimisés sont jetés aux oubliettes pendant ce temps (c'est le cas de mon site de puis l'avènement de Pingouin).
pourquoi des "sites sans contenus" ? au delà de la 1° page des serp il n'y aurait que des sites sans contenus ? ne pourrait-il point y avoir des sites sans contenu en page 1, car fortement optimisés seo et des sites avec plein de bon contenu en page 4, car avec aucune connaissance seo ?
 
WRInaute impliqué
WebRankInfo a dit:
mais Google ne l'a pas "sorti" ! ils viennent d'obtenir le brevet. A ma connaissance ce n'est pas eux qui choisissent la date d'acceptation, ils attendaient l'acceptation depuis 2 ans et demi...

Est-il possible de trouver toute leur demande de brevet?

J'ai pas envie d'avoir toujours 2 ans et demi de retard!
 
Olivier Duffez (admin)
Membre du personnel
Leonick a dit:
pourquoi ne retrouve-t-on pas les mêmes classements sur les recherches singulier/pluriel, voire même en ajoutant des mots vides / stop words ?
parce que l'intention de l'internaute n'est pas tout à fait identique. Dans certains cas (je ne vais pas dévoiler mes super exemples de formation...) un pluriel ou un tout petit mot en plus, ça change complètement le sens, et Google sait désormais très bien en tenir compte.

@cdpdf : je n'en sais rien...
 
Nouveau WRInaute
Leonick a dit:
Ju431 a dit:
Mais ce qui est le plus grave, c'est que les résultats du classement de Google (pendant ces 20 à 70 jours) ne reflètent plus du tout le classement normal
comment définit-on un "classement normal" ? c'est quand ton site est dans les 1) places ?
Je ne parle pas de mon cas ici: Si a la suite d'un changement dans une page, cette page est mise en quarantaine (de 20 à 70 jours), cela perturbe le classement normal des résultats Google, car cette page peu passer des 10 premières positions de Google à la position 200. A mon avis, un classement "normal" doit être progressif et reposer sur plusieurs critères (autant que possible) et ne pas être arbitraire comme c'est le cas avec le "Ranking Documents" (même si ce classement n'est que provisoire). Et je ne parle pas pas de la porte qui est maintenant plus que grande ouverte au Négative-Seo dont les conséquences sont bien pires pour le Web (aujourd'hui, le premier débile venu peut flinguer un site concurrent).
 
Nouveau WRInaute
Leonick a dit:
Ju431 a dit:
Ainsi, des sites sans contenus se retrouvent en haut des SERPs et d'autres plus riche en contenus, mais optimisés sont jetés aux oubliettes pendant ce temps (c'est le cas de mon site de puis l'avènement de Pingouin).
pourquoi des "sites sans contenus" ? au delà de la 1° page des serp il n'y aurait que des sites sans contenus ? ne pourrait-il point y avoir des sites sans contenu en page 1, car fortement optimisés seo et des sites avec plein de bon contenu en page 4, car avec aucune connaissance seo ?


Quand Google remplace (pour les jeter aux oubliettes) des sites dans lesquels on trouve des infos détaillés, plusieurs milliers de mots, des images, des videos, un vrai travail de recherche et d'information ... pour les remplacé par des vieux sites complètement à l'abandon, dont les pages contiennent à peine 200 mots, dans lesquels le contenu est quasiment égal à zéro, je pense qu'il y a un problème, et pas seulement pour les webmasters, mais aussi pour les visiteurs qui sont privés de renseignements utiles. Je ne dis pas que cela est systématique, il reste encore beaucoup de bons sites dans les 4 premières pages (et au dela) de résultats Google, c'est simplement plus fréquent, de puis le 25 avril 2012, que des sites sans intérêts remontent dans les SERPs et d'autres avec du contenus se trouvent dégradés au prétexte qu'ils sont optimisés.
Dans un secteur extrêmement concurrentiel, un site avec un bon contenu ne suffit pas, il faut aussi l’optimiser pour qu'il soit vu, tout simlement.
 
Nouveau WRInaute
Je constate que comme souvent dès que google fait une annonce
et c'est la panique l’angoisse, voir la parano.

Mon cas est peu être a part mais souvent les modification de google ;
en vu de tenter de renforcer la pertinence des résultats ; me sont bénéfique.

Sur certaines modifications les visites augmentent significativement ce qui augmente les ventes,
sur d'autres les visites baissent, mais vu que les visiteurs sont dirigés avec plus de pertinence,
le taux de conversion est plus élevé.

Quand j'ai construit mon site (je n'était aucunement développeur ou SEO pro. j'en avais une vague idée). Je me suis attaché a faire un site claire, facile en navigation, et qui reflète exactement ce que contient la boutique de ces possibilités, sans chercher à voir si tel ou tel mot clef a le plus de requête.
Je me suis juste contenté de structurer mes texte (enfin je pense) et d'enrichir au mieux les descriptions de produits,
de faire un site clair, ergonomique et vrai.

Une approche amateur décontracté et moins professionnel (ce qui était l'essence du web ... ). Même si je sais que je me professionnalise comme vous tous :( :)
 
WRInaute accro
Bon, ben maintenant on saura quoi répondre aux clients qui nous houspillent parce qu'ils ont perdu des positionnements quelques jours après la mise en place d'optimisations : "Vous inquiétez pas, c'est normal, ca va remonter (ou pas)" ;)

Justement, je dois en appeler un qui m'a houspillé et dont le site vient de sortir de ce "bac a sable mouvant" bien mieux positionné qu'avant.

Edit HS : Tiens j'ai plus de smiley ?
 
WRInaute accro
Ju431 a dit:
Quand Google remplace (pour les jeter aux oubliettes) des sites dans lesquels on trouve des infos détaillés, plusieurs milliers de mots, des images, des videos, un vrai travail de recherche et d'information ... pour les remplacé par des vieux sites complètement à l'abandon, dont les pages contiennent à peine 200 mots, dans lesquels le contenu est quasiment égal à zéro, je pense qu'il y a un problème
j'ai de forts doutes que, dans un secteur extrêmement concurrentiel, on puisse trouver cela : il ne doit pas y avoir qu'un seul site avec du vrai contenu, donc 1 de plus ou un de moins, qu'est-ce que cela change pour l'internaute ? de plus, comme dit précédemment, je pense que ça ne doit être que pour les sites pour lesquels une forte suspicion de spam se fait ressentir. Il faut donc que le taux de retour aux serp soit très fort et, peut-être même, y a-t-il une validation manuelle de leurs services
 
WRInaute accro
Beaucoup d'efforts pour casser le SEO depuis quelques années, mais à quand remonte la dernière vraie amélioration de l'algorithme ?
 
Nouveau WRInaute
Steuveu78 a dit:
Entièrement d'accord, ou se trouve aujourd'hui le fondement du rôle d'un moteur de recherche? Avec une action comme celle-ci on se retrouve avec une liste de SERP obsolétes avec un google qui devient vraiment parano.

Comme d'habitude ici on pense SEO, la réalité est qu'un site de qualité avec un réel branding, les utilisateurs ne tapent pas des requêtes génériques pour y accéder, et si ils le font ils vont chercher "leur" site dans les résultats.
Notre site se ballade dans les SERP depuis quelques mois de la 2eme a la 5eme positon sur notre requête générique et notre trafic n'a pas bougé, pourquoi ? Déjà les gens recherchent en majorité le nom de notre site et pas une requête générique, et même en tapant la requête générique ils scrollent parce que c'est notre site qu'ils veulent.

Quand on s'appelle locationdevoiturepaschersurmarseille.fr faut pas s’étonner et venir pleurer a chaque fois que Google lâche un prout et que vous vous faites tataner dans les SERP
 
WRInaute discret
C'est clair, Google n'a jamais apprécié la SEO, cela va contre son business et il lutte tous les jours contre les agences. Je trouve que c'est une stratégie obsolète. Au lieu d'^etre systématiquement "contre" les agences et les pousser à faire toujours plus, il devrait collaborer "avec" pour élaborer des solutions vraiment utiles et pertinentes pour tous, internautes compris.
 
WRInaute passionné
Je ne pense pas que les filtres soient mis en place pour lutter contre les agences mais contre certaines pratiques.
@Dernito: ce que tu dis est peut-être pertinent mais pas du tout évident. La notoriété ne suffit pas toujours à assurer la visibilité d'un site sur Internet sauf à être une grande marque ou à investir de gros moyens dans des campagnes de communication. L'objectif est louable mais tous ne peuvent pas l'atteindre. Pour les autres, il reste le SEO.
 
WRInaute accro
lecouti a dit:
L'objectif est louable mais tous ne peuvent pas l'atteindre. Pour les autres, il reste le SEO.
en fait, on commence par le seo, mais ensuite, pour fidéliser l'internaute, il faut travailler son branding comme ça, lors de ses requêtes dans les serp, il recherchera sur notre site. Comme peu connaissent la commande site:, les requêtes sont effectuées sous la forme "sa requête le nom de notre site", d'où l'intérêt de ne pas se focaliser uniquement sur des mots clés génériques en appelant notre site "hotel paris" avec hotel-paris.com comme ndd.
Quand on va perdre des places sur cette requête générique, ça en sera finit des requêtes spécifiques incluant notre nom de site, vu qu'il correspondra à une requête hyper concurrentielle
 
WRInaute passionné
Tout ce qui permet d'être moins dépendant d'un moteur est bienvenu mais je ne crois pas que ce soit une piste pour tout le monde. L'internaute associe peu une marque à une recherche, non ? Je ne sais pas d'ailleurs s'il existe des stats à ce sujet.
De plus, le branding doit être mené sur un très long terme avant qu'il apporte une reconnaissance suffisante et influence l'internaute pour qu'il associe la marque dans sa requête. Mais le SEO peut consister à travailler le contenu. Je ne pensais pas seulement spécialement au netlinking.
 
WRInaute accro
lecouti a dit:
L'internaute associe peu une marque à une recherche, non ?
tout dépend : si ton site commence à devenir une référence dans son domaine niche et que l'internaute a déjà fait le tour de pas mal de sites de ce domaines mais ne retrouve pas l'info aussi pertinente, il aura tendance à vouloir revenir chez toi.
 
WRInaute passionné
Si t'es une référence de toute façon t'en as rien à foutre de Google, t'as assez de trafic en stand alone.

C'est donc une fausse piste. Facile de dire "devenez la référence et le SEO sera moins important", oui bah devenir une référence n'a rien de simple pour personne.

La théorie c'est bien beau mais ce qui compte c'est la pratique sur le terrain et en pratique lancer un branding puissant (et rentable) c'est clairement impossible pour le commun des mortels.
 
WRInaute accro
XoSt a dit:
Si t'es une référence de toute façon t'en as rien à foutre de Google, t'as assez de trafic en stand alone.
déjà, tu ne deviens pas obligatoirement une référence pour tous tes visiteurs : ça serait trop beau. ensuite, beaucoup d'internautes ne savent pas utiliser des bookmark aussi, on voit des visiteurs qui arrivent en tapant comme requête le nom du site voire le ndd complet.
Ensuite, ça ne veut pas dire qu'ils y viennent directement : ils peuvent faire une recherche et, sur les domaines renvoyés par gg, ils aperçoivent le notre et cliquent dessus, quand bien même il n'est pas dans les 2 premiers
 
WRInaute passionné
De toute manière, les actions sont à combiner. Je considère toutefois que la situation est très différente suivant qu'on travaille sur des sites informatifs ou des boutiques en lignes. Pour ces dernières, les conditions deviennent très difficiles.
 
WRInaute passionné
Leonick, une requête avec le nom de ton site c'est un bookmark, Google ne va pas te déclasser sur le nom de ton site si c'est une marque. Si t'as été téméraire de prendre un ndd à mots clés bah tant pis pour toi.
 
Nouveau WRInaute
Franchement ici je lis pas mal de chose hallucinantes, au point de me demander si certains, bien qu'inscrit sur WRI depuis des lustres ont vraiment compris quelque chose au SEO

Il faut arrêter de dire que Google en veut au SEO. Les SEO aident Google à comprendre le contenu d'un site web, la première tache du référenceur étant d'aider les moteurs de recherche à mieux crawler un site, à mieux comprendre le contenu de ses pages et à mieux comprendre la relation qu'ont certaines pages entre elles.

Evidement à force de vouloir aider Google à "Comprendre" on en fait parfois un peu trop. Car finalement ce qui intéresse la majorité des personnes qui détiennent des sites web, n'est pas que Google ait saisi les différents topic dont traite leur site, mais qu'il accepte de les placer en tête.

En définitive le péché de beaucoup de référenceurs c'est de penser que "Tant que Google ne nous a pas promu, c'est qu'il n'a pas compris le contenu de notre site" .... alors on essaie de le lui faire comprendre par tous les moyens. En ce sens le concept derrière Ranking documents est très pertinent.

Personnellement je ne vois rien de mal à travers ce brevet, et à ceux qui disent que la période transitoire pourrit les SERP j'aimerai leur dire gentiment de faire appel pour une fois à leur bon sens, et d'accepter une bonne fois pour toute, qu'il n'est pas dans l'intérêt de Google de pourrir ses propres SERPS.

Ceci ne veut pas dire que les changements d'algo ou les updates de GG font mouche à chaque fois, ou qu'il n y a pas d'effets collatéraux. C'est un moteur qui bien qu'étant le meilleur, cherche constamment la bonne formule, si tout n'est pas parfait c'est normal.
 
WRInaute discret
Bonsoir, je viens de constater une chute impressionante des positions et clicks sur un site, au 28 décembre 2012.
Après 2 semaine de nouveaux backlinks plutôt bien placés ..

Première réaction > faire une question via webmaster tools
Réponse standard : pas de spam détecté ..

Mhhh.. curieux de nouveaux mots clefs "longue traine" sont apparus au même moment, des sites concurrents sur ces mots clefs également perturbés, exactement sur 2 expressions clés.

Pensez vous qu'il s'agisse de cet algorythme ou un autre diagnostic s'impose ?

Merci pour vos lumières
 
WRInaute accro
BobbySixKiller a dit:
Pensez vous qu'il s'agisse de cet algorythme ou un autre diagnostic s'impose ?

Merci pour vos lumières

C'est bien la le problème de cet algo que je trouve un peu limite.

c'est que la logique voudrait qu'étant donné qu'on subit une forte chute, on essaye de voir ce qui va pas ou pourrait être gênant et qu'on essaye d'améliorer ce qu'on peut.

Mais si maintenant on peut craindre de paraitre suspect ou va le monde? doit-on laisser couler son entreprise sous prétexte que "peut être" google test notre réaction...

J'ose quand même espérer que cette algo touche vraiment les très très gros spammeurs. Faut-il encore savoir quelle est cette limite.
 
WRInaute discret
Leonick a dit:
XoSt a dit:
Si t'as été téméraire de prendre un ndd à mots clés bah tant pis pour toi.
le problème c'est qu'il y a plein de webmasters qui ont fait ça et d'autres qui vont le faire

Là effectivement y a un truc qui m'échappe : si ton site parle effectivement des hotels à paris quel mal à l'appeler hotel-paris.com ?
Il se peut que la concurrence se durcisse sur ce domaine et que tu perdes des places, mais cela restera tout de même un atout pour une requête sur hotel paris et je ne vois pas en quoi "ça en sera finit des requêtes spécifiques incluant notre nom de site, vu qu'il correspondra à une requête hyper concurrentielle"
 
WRInaute accro
clean a dit:
Il se peut que la concurrence se durcisse sur ce domaine et que tu perdes des places, mais cela restera tout de même un atout pour une requête sur hotel paris et je ne vois pas en quoi "ça en sera finit des requêtes spécifiques incluant notre nom de site, vu qu'il correspondra à une requête hyper concurrentielle"
tout simplement parce que quand tu souhaiteras faire une promotion de ton site, tu diras (ou écriras) hôtel à paris. Et que les internautes, même connaissant ton ndd rechercheront dans gg "hotel paris" et donc ta promotion servira à tes concurrents mieux placés que toi dans les serp sur cette requête.
 
WRInaute discret
Ainsi il est possible d'être mieux placé sur cette requête avec un ndd qui corresponde à la requête ?
Ben là chuis dans la m.. parce que mon nom de domaine est une marque déposée bien avant le Web qui correspond à l'association de 2 mots clés.
Pour reprendre l'exemple imagine que mon site web s'appelle hotel-paris.fr parce que la version papier (tu sais le truc qui y avait avant le oueb) s'appelait Paris Hôtel et recensait les hôtels.
Du coup j'ai optimisé mon site sur d'autres mots clés ce qui m'a permis depuis 10 ans d'être bien placé dans le requêtes sur mon ndd et sur d'autres.. Sauf que tout s'est cassé la gu.. fin novembre 2012 et que mes concurrents me sont passés devant comme tu dis.
Je suppose qu'une demande de révision auprès de GG en expliquant la chose est inutile ?
 
WRInaute accro
La moralité c'est qu'il faut faire ce qui nous semble être bon pour son site et ne surtout pas réagir si on voit que ce qu'on a fait nous fait perdre des positions.

Google nous teste en nous rétrogradant temporairement et si on réagit tout de suite pour défaire l'optimisation que l'on vient de faire c'est un aveu pour Google comme quoi on a cherché à manipuler les serp.

Si par contre on reste inflexible et stoïque, l'optimisation sera finalement prise en compte après un certain délai.

Il ne faut pas oublier non plus que c'est Google lui-même qui nous incite à faire des optimisations :
Lors de l'exploration, nous avons recherché les éventuels problèmes liés au contenu de vos pages, notamment les balises <title> ou Meta de description dupliquées, manquantes ou pouvant présenter un problème. Ces problèmes n'empêcheront pas l'affichage de votre site dans les résultats de recherche Google. Toutefois, si vous en tenez compte, vous pouvez fournir à Google davantage d'informations et même générer plus de trafic vers votre site. Par exemple, le texte des balises <title> et Meta de description peuvent figurer dans les résultats de recherche. En utilisant des termes pertinents et descriptifs, vous suscitez davantage l'intérêt des utilisateurs, qui sont alors plus enclins à cliquer sur votre site.

Une autre solution consiste à faire ceci :
- Travailler l'optimisation d'une nouvelle page avec le plus grand soin
- Mettre la page en ligne
- Ne JAMAIS y toucher (pas de modification de la balise TITLE, pas d'optimisation de la description, ne pas changer les H1 H2...)

Et si vraiment on a besoin d'effectuer des optimisations sur une page existante, n'est-il pas judicieux de créer une nouvelle page à l'identique, mais avec les optimisations, et de mettre l'ancienne page en noindex ? En plus des optimisations qui seront prises en compte dès le début on bénéficiera également d'une prime fraicheur. Vous en pensez quoi ?
 
WRInaute impliqué
Cela me fait penser a une méthode pour valider les techniques d'abus.
Faisons abstraction de la visibilité du site en question: Grace a ce système, Google va 'apprendre' quels sont les modifications qui sont SEO et que le webmaster est prêt a abandonné au moindre tressaillement de la courbe de trafic organic.
 
Discussions similaires
Haut