Pour en avoir discuté avec quelques anciens en MP, on en a conclu que refaire un post reprenant les techniques actuelles de référencement pourrait être intéressant. Ce genre de post a déjà été fait deux fois
en février 2005 par rituel https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/
en juin 2006 par moi-même https://www.webrankinfo.com/forum/t/techniques-de-referencement-en-juin-2006.53129/ A l'époque il avait été également posté en "Débuter" pour être transféré par Olivier dans Techniques avancées. Pourtant cette fois je préfèrerais qu'il reste en débuter ...
Comme lors des deux premiers, celui-ci doit être collaboratif. Même si j'aurais pas de mal à en apprendre sur le référencement à beaucoup de ceux qui viennent ici, quelques membres sont beaucoup plus costaud (pour ne pas flatter leur Ego, je ne les nommerais pas ) ou même des techiques que je pense correctes et basées sur l'expérience sur mes sites peuvent très bien ne pas fonctionner sur d'autres sites. Merci d'avance à tous les nouveaux et surtout anciens qui participeront à ce posts.
Pourtant j'avais posté sur le dernier que ca devait être un autre qui reprendrait le même post mis à jour vers 2007 mais ... une majorité des réponses passe actuellement (trop ...) lit WRI, le post de Madrileño, ... et les habitués savent que la moitié des anciennes réponses sont fausses actuellement. Déjà, Google pénalise les sites trop optimalisés, ce qui n'était pas trop le cas il y a deux ans.
Je reprend la même technique:
Légende :
+ Libellé : Positif pour le référencement
-Libelle : Néfaste pour le référencement
~ Libelle : Répercussions non prouvées
I. L'hébergement
+ Localisation géographique du serveur dans le pays que vous ciblez dans le cas des .com, .net, .info, .... les .fr, .be, .... sont d'office localisé dans le pays du lien de domaine quelque soit le lieu d'hébergement (1) (2)
- Pannes prolongées
hébergement lent, messages d'erreur SQL[/size]
(1) en 2006, on était en pleine géolocalisation. C'est toujours d'application. Pourtant Google permet maintenant via le compte webmaster de géolocaliser autrement. (j'ai pas retrouvé le post). Selon ma propre expérience, les .eu ont un status à part (à confirmer), ils sont géolocaliser dans le pays d'hébergement mais aussi suivant les liens qui pointent dessus. J'ai un EU présent sur Google.be - pages belgiques et google.fr pages france.
(2) la géolocalisation sur la france (par exemple) permet d'être visible sur les recherches sur google.fr pages frances mais (en plus) avantage nettement le site par rapport aux autres localisés dans un autre pays.
II. Le nom de domaine
+ Extension correspondant au pays que vous ciblez
- Redirection de type Ulimit
- Plus de trois mots dans le nom de domaine
+ Mots clefs dans le nom de domaine
Contrairement à 2005, on sait maintenant que le nom de domaine ne favorise pas directement sur une recherche. Par contre, comme les liens venant des forums reprennent souvent simplement l'adresse, ca a un petit avantage. Par contre, les nom de domaines courts favorise les accès directs. Si vous utilisez plusieurs mots dans le nom de domaines ou dans l'adresse de la page, préférez le - comme séparateur.
Attention, une adresse trop optimalisée défavorise.
III. Architecture du site
- Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé
+ Elaboration d'une page plan du site ou même un sitemap
- Changements de topologie sans redirections
+orrganisation d'un thème en répertoires portants le mot-clef du sous-thème abordé
La grosse nouveauté vient des sous-domaines. Google voit toujours un sous-domaine comme un site distinct par contre ... Cette technique utilsiée par les spamsmeurs avec des sous-domaines contenant peu de pages est dans le collimateur de Google. Sous domaine ou sous-répertoires, ... la première pour des groupes de pages importants, la deuxième pour peu de pages.
IV. Structure d'une page, contenu
Mots clefs dans le titre de la page (1)
Mot clé dans la description (2)
+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page (3)
les mots dans la page (4) (5)
- Utilisation de frames (6)
- Duplicate content (7)
(1) le titre est toujours vu comme la partie principale de la page.
(2) la description n'est plus utilisée en référencement. Par contre, c'est elle qui apparaît dans les recherches. Alors autant qu'elle soit propre et intéresse le visiteur.
(3) même remarque que pour le nom de domaine, mais autant ne pas en faire trop, même si ca facilite la maintenance du site pour le webmaster.
(4) même si des cas inverses existent, sans le mot sur la page, difficille d'être positionné.
(5)ici aussi, une petite nouveauté, ... Google a nettement ammélioré ses recherches en quelques années. Il comprend pour la majorité des mots en Français que le singulier et le pluriel sont les mêmes mots. Il parvient même a concevoir des synonymes comme restaurant et restaurateur. Les techniques consistant à bombarder la pages de synonymes commence tout doucement à être néfaste.
(6) ...
(7) Duplicate content, mêmes textes ou très similaires entre mêmes pages d'un site. Une première solution est déjà de mettre un titre et une description différente, mais souvent pas suffisant.
Pour des pages similaires de deux sites différents, Google semble en prendre une ou l'autre. Par contre, deux ndd avec exactement le même contenu sur les pages déclasse généralement les deux (cas d'un FR et d'un .com de la même firme par exemple)
V. Autres balises
Non présence des balises <HTML>,<HEAD>,<BODY> (1)
- Non spécification du doctype, charset et de la langue
(1). là aussi du changement. une page avec deux balise <head> passe sur Google pour avoir fait un tests malgré moi l'année dernière (il prend la première). Par contre, MSN et Yahoo bloque la page au deuxième <title>
les bots sont maintenant suffisamment grands pour reconnaître la langue. Seule exception, pour ceux qui mettent des adsences avec quelques mots dans d'autres langues dans le texte (et c'est même pas réellement prouvé) par contre:
VI. Contenu textuel d'une page
+ Structuration du document à l'aide de balises Titres <Hx> contenant si possible les mots-clefs ciblés (1)
+ Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte. (2)
Utilisation des DIV en remplacement des tableaux. (3)
- Tout texte non visible ou non cohérent pour les visiteurs (4)
- Utilisation de flash (5)
- Occurence des mots-clefs trop élevée
- Abus de mises en forme autour des mots-clefs : Gras, italique, souligné, couleurs, <Hx> ...
- Pages vides ou en construction
(1). là ca commence mal. Même si je suis pas réellement certain, Google commence à se méfier des textes structurés en H1, h2, ... 'essaye actuellement de ne plus mettre que h1, ... (mais là la discussion est ouverte.
(2) plus vu réellement de pertinence en utilisant ce vieux trucs. Pas de différence non plus entre <b> et <strong>
(3) à part pour mettre dans le code un texte dans le dessus mais positionné pour le visiteur en dessous, complètement identique.
Un exemple : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...[/quote]
(4) même si ceux qui utilisent cette technique diront par MP qu'elle fonctionne encore, ... le spams report fonctionne pas vraiment d'accord, par contre le même par le compte Google webmaster a l'air de faire plus de dégat.
(5) Google utilise maintenant une technique reprise par adobe. Il reconnait les liens et textes dans les petites animations (pas 10 minutes :wink: ) mais ca devrait s'amméliorer.
VI. Liens internes
+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>
+ URL rewriting systématique des pages contenant des arguments (1)
- Utilisation de Javascript
- Utilisation de sessions
(1) une paramètre passé n'est pas forcément désavantagé par rapport à l'URL rewrinting. A part si vous passé 3 paramètres et plus (MSN bloque à 3), sinon, strictement identique. (mais attention aux liens forums).
VII. Contenu imagé d'une page
+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page (1)
(1) attention de ne pas en faire trop, Google n'est pas si idiot que l'on croit.
VIII. Liens externes (Backlinks)
+ PageRank de la page qui lie élevé(1)
+ Faible nombre de liens externes sur la page qui lie (2)
+ Nombre de liens pointant vers votre site élevé (3)
+ Utilisation du format de lien suivant : <a href="http://www.mon-site.com/">Mot-clef</a> (4)
+ Titre de vos backlinks variés tout en restant ciblé sur les mot clefs que vous privilegiez (5)
~ Evolution progressive du nombre de Backlinks (6)
- Fermes de liens (Link farming)
- Redirections sauvages
- Attribut rel="nofollow"
C'est ici que commence les véritables grandes manoeuvres. :twisted:
(1) le PR affiché n'est probablement plus le PR réel. (un ancien PR5 est maintenant PR2 et continue a garder ses visiteurs). En décembre 2007, Google a également nettement modifié le fonctionnement.
. les sites supposés vendre des liens se sont fait sanctionné par une descende du PR (l'exemple le plus connu ici est WRI :roll: ) mais ont gardé leurs visiteurs.
. des sites supposés en mettre trop se sont fait pénaliser au niveau PR et visiteurs (le cas le plus connu ici est Big-annuaire).
. des pages reprenant un lien de PR moyen (3-4) visiblement trop lien cadeau se sont fait grisées (en alternance selon l'humeur du moteur, grisée, plus dans le cache, plus dans les recherches, ...)
. des pages reprenant principalement des liens (autant externes qu'internes uniquement d'aillieurs) ont subi le même phénomène.
J'ai d'aillieurs beaucoup travaillé la-dessus https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ Au passage, une partie des pages est redevenu PR2, mais plus trouvées dans les recherches). En clair, tout ce qui semble essayer de donner uniquement du PR à une autre page est sanctionnée. Une page grisée est normale quand elle débute par contre après une GD (on va l'appeler comme celà) avec des liens de PR supérieurs, c'est une sanction. Google s'essaye aux liens naturels avec comme disait Szarah des dégats collatéraux. Résultats, faites vos liens intelligemments.
(2) sauf qu'un seul lien externe sur une page avec peu de mots sanctionne la page.
(3) les annuaires se développant comme des champignons (rien de mieux pour les adsences ), mieux vaut 5 bons que 30 (même avec les 5 bons dedans). Pense même que Google sanctionne des anciens sites qui recoivent ce genre de liens, du moins au début.
(4) les liens script (quoique), redirection, ... ne sont toujours pas vus par les moteurs.
(5) partant du principe que Google joue maintenant au "naturel", fallait pas trop réver.
(6) en 2006, kazhar était pas trop d'accord mais bon. Vous démarrez un nouveau site, deux techniques de liens externes, soit directement le compresseur avec tous les liens possibles. Une fois passée la sandbox, le site prend sa place (souvent en mieux), mais attention à ce que Google ne pense pas que c'est un achat (on se souviendra de Blogger .... https://www.webrankinfo.com/forum/t/blackliste-et-innocent.85224/). Dans l'autre cas, pas forcément de sandbox, donc une montée régulière mais pas forcément les meilleurs places non plus après 6 mois.
Même si les avis sont nettement divergeants, on parle de trustrank pour des sites vu comme de confiance par Google, surtout s'ils sont dans la même thématique
je compte sur tous les autres membres de WRI pour amméliorer ce post.... et un autre pour en recréer un plus à jour dans quelques mois en fonction de l'évolution et de votre propre expérience.
en février 2005 par rituel https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/
en juin 2006 par moi-même https://www.webrankinfo.com/forum/t/techniques-de-referencement-en-juin-2006.53129/ A l'époque il avait été également posté en "Débuter" pour être transféré par Olivier dans Techniques avancées. Pourtant cette fois je préfèrerais qu'il reste en débuter ...
Comme lors des deux premiers, celui-ci doit être collaboratif. Même si j'aurais pas de mal à en apprendre sur le référencement à beaucoup de ceux qui viennent ici, quelques membres sont beaucoup plus costaud (pour ne pas flatter leur Ego, je ne les nommerais pas ) ou même des techiques que je pense correctes et basées sur l'expérience sur mes sites peuvent très bien ne pas fonctionner sur d'autres sites. Merci d'avance à tous les nouveaux et surtout anciens qui participeront à ce posts.
Pourtant j'avais posté sur le dernier que ca devait être un autre qui reprendrait le même post mis à jour vers 2007 mais ... une majorité des réponses passe actuellement (trop ...) lit WRI, le post de Madrileño, ... et les habitués savent que la moitié des anciennes réponses sont fausses actuellement. Déjà, Google pénalise les sites trop optimalisés, ce qui n'était pas trop le cas il y a deux ans.
Je reprend la même technique:
Légende :
+ Libellé : Positif pour le référencement
-Libelle : Néfaste pour le référencement
~ Libelle : Répercussions non prouvées
I. L'hébergement
+ Localisation géographique du serveur dans le pays que vous ciblez dans le cas des .com, .net, .info, .... les .fr, .be, .... sont d'office localisé dans le pays du lien de domaine quelque soit le lieu d'hébergement (1) (2)
- Pannes prolongées
hébergement lent, messages d'erreur SQL[/size]
(1) en 2006, on était en pleine géolocalisation. C'est toujours d'application. Pourtant Google permet maintenant via le compte webmaster de géolocaliser autrement. (j'ai pas retrouvé le post). Selon ma propre expérience, les .eu ont un status à part (à confirmer), ils sont géolocaliser dans le pays d'hébergement mais aussi suivant les liens qui pointent dessus. J'ai un EU présent sur Google.be - pages belgiques et google.fr pages france.
(2) la géolocalisation sur la france (par exemple) permet d'être visible sur les recherches sur google.fr pages frances mais (en plus) avantage nettement le site par rapport aux autres localisés dans un autre pays.
II. Le nom de domaine
+ Extension correspondant au pays que vous ciblez
- Redirection de type Ulimit
- Plus de trois mots dans le nom de domaine
+ Mots clefs dans le nom de domaine
Contrairement à 2005, on sait maintenant que le nom de domaine ne favorise pas directement sur une recherche. Par contre, comme les liens venant des forums reprennent souvent simplement l'adresse, ca a un petit avantage. Par contre, les nom de domaines courts favorise les accès directs. Si vous utilisez plusieurs mots dans le nom de domaines ou dans l'adresse de la page, préférez le - comme séparateur.
Attention, une adresse trop optimalisée défavorise.
III. Architecture du site
- Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé
+ Elaboration d'une page plan du site ou même un sitemap
- Changements de topologie sans redirections
+orrganisation d'un thème en répertoires portants le mot-clef du sous-thème abordé
La grosse nouveauté vient des sous-domaines. Google voit toujours un sous-domaine comme un site distinct par contre ... Cette technique utilsiée par les spamsmeurs avec des sous-domaines contenant peu de pages est dans le collimateur de Google. Sous domaine ou sous-répertoires, ... la première pour des groupes de pages importants, la deuxième pour peu de pages.
IV. Structure d'une page, contenu
Mots clefs dans le titre de la page (1)
Mot clé dans la description (2)
+ Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page (3)
les mots dans la page (4) (5)
- Utilisation de frames (6)
- Duplicate content (7)
(1) le titre est toujours vu comme la partie principale de la page.
(2) la description n'est plus utilisée en référencement. Par contre, c'est elle qui apparaît dans les recherches. Alors autant qu'elle soit propre et intéresse le visiteur.
(3) même remarque que pour le nom de domaine, mais autant ne pas en faire trop, même si ca facilite la maintenance du site pour le webmaster.
(4) même si des cas inverses existent, sans le mot sur la page, difficille d'être positionné.
(5)ici aussi, une petite nouveauté, ... Google a nettement ammélioré ses recherches en quelques années. Il comprend pour la majorité des mots en Français que le singulier et le pluriel sont les mêmes mots. Il parvient même a concevoir des synonymes comme restaurant et restaurateur. Les techniques consistant à bombarder la pages de synonymes commence tout doucement à être néfaste.
(6) ...
(7) Duplicate content, mêmes textes ou très similaires entre mêmes pages d'un site. Une première solution est déjà de mettre un titre et une description différente, mais souvent pas suffisant.
Pour des pages similaires de deux sites différents, Google semble en prendre une ou l'autre. Par contre, deux ndd avec exactement le même contenu sur les pages déclasse généralement les deux (cas d'un FR et d'un .com de la même firme par exemple)
V. Autres balises
Non présence des balises <HTML>,<HEAD>,<BODY> (1)
- Non spécification du doctype, charset et de la langue
(1). là aussi du changement. une page avec deux balise <head> passe sur Google pour avoir fait un tests malgré moi l'année dernière (il prend la première). Par contre, MSN et Yahoo bloque la page au deuxième <title>
les bots sont maintenant suffisamment grands pour reconnaître la langue. Seule exception, pour ceux qui mettent des adsences avec quelques mots dans d'autres langues dans le texte (et c'est même pas réellement prouvé) par contre:
Didier_S a dit:sans charset, Google peut mal interpreter les accents dans les pages / les title / desc si ceux-ci ne sont pas passés au "htmlentities". Tu te retrouves donc avec des pseudos-caractères en UTF8, qui, d'une, font moche, mais qui, à mon avis, ne sont pas reconnus comme des accents...
VI. Contenu textuel d'une page
+ Structuration du document à l'aide de balises Titres <Hx> contenant si possible les mots-clefs ciblés (1)
+ Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte. (2)
Utilisation des DIV en remplacement des tableaux. (3)
- Tout texte non visible ou non cohérent pour les visiteurs (4)
- Utilisation de flash (5)
- Occurence des mots-clefs trop élevée
- Abus de mises en forme autour des mots-clefs : Gras, italique, souligné, couleurs, <Hx> ...
- Pages vides ou en construction
(1). là ca commence mal. Même si je suis pas réellement certain, Google commence à se méfier des textes structurés en H1, h2, ... 'essaye actuellement de ne plus mettre que h1, ... (mais là la discussion est ouverte.
(2) plus vu réellement de pertinence en utilisant ce vieux trucs. Pas de différence non plus entre <b> et <strong>
(3) à part pour mettre dans le code un texte dans le dessus mais positionné pour le visiteur en dessous, complètement identique.
Un exemple : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...[/quote]
(4) même si ceux qui utilisent cette technique diront par MP qu'elle fonctionne encore, ... le spams report fonctionne pas vraiment d'accord, par contre le même par le compte Google webmaster a l'air de faire plus de dégat.
(5) Google utilise maintenant une technique reprise par adobe. Il reconnait les liens et textes dans les petites animations (pas 10 minutes :wink: ) mais ca devrait s'amméliorer.
VI. Liens internes
+ Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>
+ URL rewriting systématique des pages contenant des arguments (1)
- Utilisation de Javascript
- Utilisation de sessions
(1) une paramètre passé n'est pas forcément désavantagé par rapport à l'URL rewrinting. A part si vous passé 3 paramètres et plus (MSN bloque à 3), sinon, strictement identique. (mais attention aux liens forums).
VII. Contenu imagé d'une page
+ Nom des images consciencieusement choisi (1)
+ Saisie du contenu alternatif si l'image a son importance au sein de la page (1)
(1) attention de ne pas en faire trop, Google n'est pas si idiot que l'on croit.
VIII. Liens externes (Backlinks)
+ PageRank de la page qui lie élevé(1)
+ Faible nombre de liens externes sur la page qui lie (2)
+ Nombre de liens pointant vers votre site élevé (3)
+ Utilisation du format de lien suivant : <a href="http://www.mon-site.com/">Mot-clef</a> (4)
+ Titre de vos backlinks variés tout en restant ciblé sur les mot clefs que vous privilegiez (5)
~ Evolution progressive du nombre de Backlinks (6)
- Fermes de liens (Link farming)
- Redirections sauvages
- Attribut rel="nofollow"
C'est ici que commence les véritables grandes manoeuvres. :twisted:
(1) le PR affiché n'est probablement plus le PR réel. (un ancien PR5 est maintenant PR2 et continue a garder ses visiteurs). En décembre 2007, Google a également nettement modifié le fonctionnement.
. les sites supposés vendre des liens se sont fait sanctionné par une descende du PR (l'exemple le plus connu ici est WRI :roll: ) mais ont gardé leurs visiteurs.
. des sites supposés en mettre trop se sont fait pénaliser au niveau PR et visiteurs (le cas le plus connu ici est Big-annuaire).
. des pages reprenant un lien de PR moyen (3-4) visiblement trop lien cadeau se sont fait grisées (en alternance selon l'humeur du moteur, grisée, plus dans le cache, plus dans les recherches, ...)
. des pages reprenant principalement des liens (autant externes qu'internes uniquement d'aillieurs) ont subi le même phénomène.
J'ai d'aillieurs beaucoup travaillé la-dessus https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ Au passage, une partie des pages est redevenu PR2, mais plus trouvées dans les recherches). En clair, tout ce qui semble essayer de donner uniquement du PR à une autre page est sanctionnée. Une page grisée est normale quand elle débute par contre après une GD (on va l'appeler comme celà) avec des liens de PR supérieurs, c'est une sanction. Google s'essaye aux liens naturels avec comme disait Szarah des dégats collatéraux. Résultats, faites vos liens intelligemments.
(2) sauf qu'un seul lien externe sur une page avec peu de mots sanctionne la page.
(3) les annuaires se développant comme des champignons (rien de mieux pour les adsences ), mieux vaut 5 bons que 30 (même avec les 5 bons dedans). Pense même que Google sanctionne des anciens sites qui recoivent ce genre de liens, du moins au début.
(4) les liens script (quoique), redirection, ... ne sont toujours pas vus par les moteurs.
(5) partant du principe que Google joue maintenant au "naturel", fallait pas trop réver.
(6) en 2006, kazhar était pas trop d'accord mais bon. Vous démarrez un nouveau site, deux techniques de liens externes, soit directement le compresseur avec tous les liens possibles. Une fois passée la sandbox, le site prend sa place (souvent en mieux), mais attention à ce que Google ne pense pas que c'est un achat (on se souviendra de Blogger .... https://www.webrankinfo.com/forum/t/blackliste-et-innocent.85224/). Dans l'autre cas, pas forcément de sandbox, donc une montée régulière mais pas forcément les meilleurs places non plus après 6 mois.
Même si les avis sont nettement divergeants, on parle de trustrank pour des sites vu comme de confiance par Google, surtout s'ils sont dans la même thématique
je compte sur tous les autres membres de WRI pour amméliorer ce post.... et un autre pour en recréer un plus à jour dans quelques mois en fonction de l'évolution et de votre propre expérience.