1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Résumé des techniques de référencement février 2008

Discussion dans 'Débuter en référencement' créé par ybet, 3 Février 2008.

  1. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Pour en avoir discuté avec quelques anciens en MP, on en a conclu que refaire un post reprenant les techniques actuelles de référencement pourrait être intéressant. Ce genre de post a déjà été fait deux fois
    en février 2005 par rituel https://www.webrankinfo.com/forum/t/la-petite-bible-du-referenceur.23221/
    en juin 2006 par moi-même https://www.webrankinfo.com/forum/t/techniques-de-referencement-en-juin-2006.53129/ A l'époque il avait été également posté en "Débuter" pour être transféré par Olivier dans Techniques avancées. Pourtant cette fois je préfèrerais qu'il reste en débuter ...
    Comme lors des deux premiers, celui-ci doit être collaboratif. Même si j'aurais pas de mal à en apprendre sur le référencement à beaucoup de ceux qui viennent ici, quelques membres sont beaucoup plus costaud (pour ne pas flatter leur Ego, je ne les nommerais pas :oops: ) ou même des techiques que je pense correctes et basées sur l'expérience sur mes sites peuvent très bien ne pas fonctionner sur d'autres sites. Merci d'avance à tous les nouveaux et surtout anciens qui participeront à ce posts.

    Pourtant j'avais posté sur le dernier que ca devait être un autre qui reprendrait le même post mis à jour vers 2007 mais ... une majorité des réponses passe actuellement (trop ...) lit WRI, le post de Madrileño, ... et les habitués savent que la moitié des anciennes réponses sont fausses actuellement. Déjà, Google pénalise les sites trop optimalisés, ce qui n'était pas trop le cas il y a deux ans.

    Je reprend la même technique:

    Légende :

    + Libellé : Positif pour le référencement
    -Libelle : Néfaste pour le référencement
    ~ Libelle : Répercussions non prouvées


    I. L'hébergement

    + Localisation géographique du serveur dans le pays que vous ciblez dans le cas des .com, .net, .info, .... les .fr, .be, .... sont d'office localisé dans le pays du lien de domaine quelque soit le lieu d'hébergement (1) (2)
    - Pannes prolongées
    hébergement lent, messages d'erreur SQL[/size]
    (1) en 2006, on était en pleine géolocalisation. C'est toujours d'application. Pourtant Google permet maintenant via le compte webmaster de géolocaliser autrement. (j'ai pas retrouvé le post). Selon ma propre expérience, les .eu ont un status à part (à confirmer), ils sont géolocaliser dans le pays d'hébergement mais aussi suivant les liens qui pointent dessus. J'ai un EU présent sur Google.be - pages belgiques et google.fr pages france.
    (2) la géolocalisation sur la france (par exemple) permet d'être visible sur les recherches sur google.fr pages frances mais (en plus) avantage nettement le site par rapport aux autres localisés dans un autre pays.

    II. Le nom de domaine

    + Extension correspondant au pays que vous ciblez
    - Redirection de type Ulimit
    - Plus de trois mots dans le nom de domaine
    + Mots clefs dans le nom de domaine

    Contrairement à 2005, on sait maintenant que le nom de domaine ne favorise pas directement sur une recherche. Par contre, comme les liens venant des forums reprennent souvent simplement l'adresse, ca a un petit avantage. Par contre, les nom de domaines courts favorise les accès directs. Si vous utilisez plusieurs mots dans le nom de domaines ou dans l'adresse de la page, préférez le - comme séparateur.
    Attention, une adresse trop optimalisée défavorise.

    III. Architecture du site

    - Séparation des thèmes distincts en sous-domaines portants le mot-clef du thème abordé

    + Elaboration d'une page plan du site ou même un sitemap
    - Changements de topologie sans redirections
    +orrganisation d'un thème en répertoires portants le mot-clef du sous-thème abordé

    La grosse nouveauté vient des sous-domaines. Google voit toujours un sous-domaine comme un site distinct par contre ... Cette technique utilsiée par les spamsmeurs avec des sous-domaines contenant peu de pages est dans le collimateur de Google. Sous domaine ou sous-répertoires, ... la première pour des groupes de pages importants, la deuxième pour peu de pages.

    IV. Structure d'une page, contenu

    Mots clefs dans le titre de la page (1)
    Mot clé dans la description (2)
    + Utilisation des "-" pour la séparation des mots-clefs dans le nom de la page (3)
    les mots dans la page (4) (5)
    - Utilisation de frames (6)
    - Duplicate content (7)
    (1) le titre est toujours vu comme la partie principale de la page.
    (2) la description n'est plus utilisée en référencement. Par contre, c'est elle qui apparaît dans les recherches. Alors autant qu'elle soit propre et intéresse le visiteur.
    (3) même remarque que pour le nom de domaine, mais autant ne pas en faire trop, même si ca facilite la maintenance du site pour le webmaster.
    (4) même si des cas inverses existent, sans le mot sur la page, difficille d'être positionné.
    (5)ici aussi, une petite nouveauté, ... Google a nettement ammélioré ses recherches en quelques années. Il comprend pour la majorité des mots en Français que le singulier et le pluriel sont les mêmes mots. Il parvient même a concevoir des synonymes comme restaurant et restaurateur. Les techniques consistant à bombarder la pages de synonymes commence tout doucement à être néfaste.
    (6) ...
    (7) Duplicate content, mêmes textes ou très similaires entre mêmes pages d'un site. Une première solution est déjà de mettre un titre et une description différente, mais souvent pas suffisant.
    Pour des pages similaires de deux sites différents, Google semble en prendre une ou l'autre. Par contre, deux ndd avec exactement le même contenu sur les pages déclasse généralement les deux (cas d'un FR et d'un .com de la même firme par exemple)

    V. Autres balises

    Non présence des balises <HTML>,<HEAD>,<BODY> (1)
    - Non spécification du doctype, charset et de la langue

    (1). là aussi du changement. une page avec deux balise <head> passe sur Google pour avoir fait un tests malgré moi l'année dernière (il prend la première). Par contre, MSN et Yahoo bloque la page au deuxième <title>
    les bots sont maintenant suffisamment grands pour reconnaître la langue. Seule exception, pour ceux qui mettent des adsences avec quelques mots dans d'autres langues dans le texte (et c'est même pas réellement prouvé) par contre:
    VI. Contenu textuel d'une page

    + Structuration du document à l'aide de balises Titres <Hx> contenant si possible les mots-clefs ciblés (1)
    + Mise en valeur des mots-clefs à l'aide de la casse, des styles (Gras,italique,souligné) et de la variation de la taille du texte. (2)
    Utilisation des DIV en remplacement des tableaux. (3)
    - Tout texte non visible ou non cohérent pour les visiteurs (4)
    - Utilisation de flash (5)
    - Occurence des mots-clefs trop élevée
    - Abus de mises en forme autour des mots-clefs : Gras, italique, souligné, couleurs, <Hx> ...
    - Pages vides ou en construction

    (1). là ca commence mal. Même si je suis pas réellement certain, Google commence à se méfier des textes structurés en H1, h2, ... 'essaye actuellement de ne plus mettre que h1, ... (mais là la discussion est ouverte.
    (2) plus vu réellement de pertinence en utilisant ce vieux trucs. Pas de différence non plus entre <b> et <strong>
    (3) à part pour mettre dans le code un texte dans le dessus mais positionné pour le visiteur en dessous, complètement identique.
    Un exemple : avec des tableaux definissant une mise en page à 2 colonnes avec menu à gauche, le source affichera d'abord le menu puis le contenu. Tandis qu'avec des div positionné en float, il est possible d'avoir le menu à gauche alors que ce menu est situé après le contenu dans le code. Et il est meilleur pour le référencement que le contenu soit positionné haut dans le code...[/quote]
    (4) même si ceux qui utilisent cette technique diront par MP qu'elle fonctionne encore, ... le spams report fonctionne pas vraiment d'accord, par contre le même par le compte Google webmaster a l'air de faire plus de dégat.
    (5) Google utilise maintenant une technique reprise par adobe. Il reconnait les liens et textes dans les petites animations (pas 10 minutes :wink: ) mais ca devrait s'amméliorer.

    VI. Liens internes

    + Utilisation du format de liens suivant : <a href="http://www.mon-site.com/pages.html">Libellé du lien contenant si possible le principal mot-clef définissant la page liée</a>
    + URL rewriting systématique des pages contenant des arguments (1)
    - Utilisation de Javascript
    - Utilisation de sessions

    (1) une paramètre passé n'est pas forcément désavantagé par rapport à l'URL rewrinting. A part si vous passé 3 paramètres et plus (MSN bloque à 3), sinon, strictement identique. (mais attention aux liens forums).
    VII. Contenu imagé d'une page

    + Nom des images consciencieusement choisi (1)
    + Saisie du contenu alternatif si l'image a son importance au sein de la page (1)

    (1) attention de ne pas en faire trop, Google n'est pas si idiot que l'on croit.

    VIII. Liens externes (Backlinks)

    + PageRank de la page qui lie élevé(1)
    + Faible nombre de liens externes sur la page qui lie (2)
    + Nombre de liens pointant vers votre site élevé (3)
    + Utilisation du format de lien suivant : <a href="http://www.mon-site.com/">Mot-clef</a> (4)
    + Titre de vos backlinks variés tout en restant ciblé sur les mot clefs que vous privilegiez (5)
    ~ Evolution progressive du nombre de Backlinks (6)
    - Fermes de liens (Link farming)
    - Redirections sauvages
    - Attribut rel="nofollow"

    C'est ici que commence les véritables grandes manoeuvres. :twisted:
    (1) le PR affiché n'est probablement plus le PR réel. (un ancien PR5 est maintenant PR2 et continue a garder ses visiteurs). En décembre 2007, Google a également nettement modifié le fonctionnement.
    . les sites supposés vendre des liens se sont fait sanctionné par une descende du PR (l'exemple le plus connu ici est WRI :roll: ) mais ont gardé leurs visiteurs.
    . des sites supposés en mettre trop se sont fait pénaliser au niveau PR et visiteurs (le cas le plus connu ici est Big-annuaire).
    . des pages reprenant un lien de PR moyen (3-4) visiblement trop lien cadeau se sont fait grisées (en alternance selon l'humeur du moteur, grisée, plus dans le cache, plus dans les recherches, ...)
    . des pages reprenant principalement des liens (autant externes qu'internes uniquement d'aillieurs) ont subi le même phénomène.

    J'ai d'aillieurs beaucoup travaillé la-dessus https://www.webrankinfo.com/forum/t/pages-grisees-on-y-va.84630/ Au passage, une partie des pages est redevenu PR2, mais plus trouvées dans les recherches). En clair, tout ce qui semble essayer de donner uniquement du PR à une autre page est sanctionnée. Une page grisée est normale quand elle débute par contre après une GD (on va l'appeler comme celà) avec des liens de PR supérieurs, c'est une sanction. Google s'essaye aux liens naturels avec comme disait Szarah des dégats collatéraux. Résultats, faites vos liens intelligemments.
    (2) sauf qu'un seul lien externe sur une page avec peu de mots sanctionne la page.
    (3) les annuaires se développant comme des champignons (rien de mieux pour les adsences :oops: ), mieux vaut 5 bons que 30 (même avec les 5 bons dedans). Pense même que Google sanctionne des anciens sites qui recoivent ce genre de liens, du moins au début.
    (4) les liens script (quoique), redirection, ... ne sont toujours pas vus par les moteurs.
    (5) partant du principe que Google joue maintenant au "naturel", fallait pas trop réver.
    (6) en 2006, kazhar était pas trop d'accord mais bon. Vous démarrez un nouveau site, deux techniques de liens externes, soit directement le compresseur avec tous les liens possibles. Une fois passée la sandbox, le site prend sa place (souvent en mieux), mais attention à ce que Google ne pense pas que c'est un achat (on se souviendra de Blogger .... https://www.webrankinfo.com/forum/t/blackliste-et-innocent.85224/). Dans l'autre cas, pas forcément de sandbox, donc une montée régulière mais pas forcément les meilleurs places non plus après 6 mois.

    Même si les avis sont nettement divergeants, on parle de trustrank pour des sites vu comme de confiance par Google, surtout s'ils sont dans la même thématique

    je compte sur tous les autres membres de WRI pour amméliorer ce post.... et un autre pour en recréer un plus à jour dans quelques mois en fonction de l'évolution et de votre propre expérience.
     
  2. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Merci beaucoup Ybet pour toutes les informations. ;)

    On peut citer en négatif :
    - Utilisation de sites en full flash.
    - Sur-optimisation à éviter.

    Concernant le PR un post spécial :
    https://www.webrankinfo.com/forum/t/la-verite-sur-le-pagerank.28534/

    Les redirections 302 et les liens :
    https://www.webrankinfo.com/forum/t/google-prend-en-compte-les-liens-de-type-redirection-302.86934/

    Je viens de l'ajouter pour la bienvenue :
    https://www.webrankinfo.com/forum/t/recapitulatif-seo-kit-madrileno.191334/
     
  3. Michel
    Michel WRInaute passionné
    Inscrit:
    22 Décembre 2002
    Messages:
    1 357
    J'aime reçus:
    0
    (1) le titre est toujours vu comme la partie principale de la page. (ok)
    (2) la description n'est plus utilisée en référencement. (je ne suis vraiment pas totalement convaincu...) PAr contre, c'est elle qui apparaît dans les recherches. (pas toujours, mais surtout si le contenu de la page est pauvre)

    Pour ma part je vois de temps à autre des pages au contenu très pauvre qui se placent bien sur des requêtes parce que les mots sont uniquement en balise description, mystere !?

    Merci pour ce post :wink:
     
  4. Bellegarde-webb
    Bellegarde-webb WRInaute passionné
    Inscrit:
    12 Juillet 2006
    Messages:
    1 004
    J'aime reçus:
    0
    Je l'ai constaté aussi. :?:
    Merci pour ce post Ybet :)
     
  5. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    des sites en frame aussi :wink: , mais en l'absence de contenu, Google privilégie beaucoup plus les liesn externes. C'est du moins ce que j'en ai conclu en analysant un paquet de sites régionaux pas du tout fait pour le référencement ... C'est une autre explication.
     
  6. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 419
    J'aime reçus:
    40
    + 1 reco

    - parler de l'importance du alt dans les images
    - pour le nom de domaine tu parles de prendre une Extension correspondant au pays ciblé... et les (.com.net.org ) t'en fais quoi ?
     
  7. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Déjà présent dans 1. Hébergement ....

    Pays d'hébergement ... sans compter la nouvelle fonctionalité du compte webmaster aussi citée même si elle a pas l'air de faire une réelle géolocalisation.
     
  8. HawkEye
    HawkEye WRInaute accro
    Inscrit:
    23 Février 2004
    Messages:
    13 933
    J'aime reçus:
    4
    Pourquoi Mots clefs dans le titre de la page est en non prouvé ? :roll:
     
  9. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    corrigé, me suis un peu emmélé les pinceaux dans les couleurs :oops:
     
  10. Doudoucarro
    Doudoucarro Nouveau WRInaute
    Inscrit:
    25 Septembre 2006
    Messages:
    38
    J'aime reçus:
    0
    Salut à tous,

    est ce que l'emploi du html strict validé par le W3C est un point positif important?

    A+
     
  11. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    non, je pense même pas qu'une seule de mes pages passe le W3C avec moins de 10 erreurs. Par contre, ca favorise l'utilisation des navigateurs sans erreurs, c'est donc bénéfique pour les visiteurs.
     
  12. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
  13. keroin
    keroin WRInaute passionné
    Inscrit:
    29 Avril 2006
    Messages:
    1 517
    J'aime reçus:
    0
    Optimisés devrais suffire :lol:

    Sinon bah +1 => post intéressant :wink:
     
  14. Kmacleod
    Kmacleod WRInaute passionné
    Inscrit:
    28 Novembre 2002
    Messages:
    2 468
    J'aime reçus:
    0
    Bon post et surtout bonne présentation.

    Qu'en est il des .org, j'avais même lu que google ne sanctionnait pas et que les BL sont un bon plan pour les sites cibles.
    Sauf que google sanctionne quand même ce net linking là avec à l'arrivée un PR 0 (PR affiché, toujours dans l'index, c'est pas un sand box). Ici c'est la cas du PR cadeau mentionné : le .org n'apporte rien en soi
     
  15. gregor92
    gregor92 Nouveau WRInaute
    Inscrit:
    7 Février 2008
    Messages:
    7
    J'aime reçus:
    0
    Merci très utile tous ça !
    Félicitation à l'auteur de ce sujet.
     
  16. vinset
    vinset WRInaute discret
    Inscrit:
    20 Avril 2006
    Messages:
    183
    J'aime reçus:
    0
    Merci beaucoup, +1 reco
     
  17. Réseau ICARE
    Réseau ICARE Nouveau WRInaute
    Inscrit:
    6 Décembre 2007
    Messages:
    3
    J'aime reçus:
    0
    Merci beaucoup pour ce post!

    Petite question dont la réponse peut apporter de l'eau à ce moulin.
    Quid de l'utilisation de scripts (et notamment des DIV en display:none/display:block) pour faire des menus dynamiques sans utiliser Flash? Google fait-il bien la différence entre une DIV cachée qui contient 4 liens et une DIV cachée qui contient 300 mots-clefs?
     
  18. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    je n'ai aucun problème sur le positionnement de mes .org
    J'ai des .org pour des associations, car le .asso.fr ne me plaisait pas vraiment et que donc, .org se rapprochait plus de l'optique du .org, même si maintenant, on prend les tld que l'on trouve pour avoir des mots clés dans le ndd, même s'ils ne servent plus à rien dans le positionnement avec gg
     
  19. ludow
    ludow Nouveau WRInaute
    Inscrit:
    7 Juillet 2004
    Messages:
    5
    J'aime reçus:
    0
    même question sur les .edu et .gov, j'ai déjà croisé des liens sur des .edu parlant d'umberto eco qui linkaient vers des comparateurs...
    c'est du lien cadeau ok mais quid du poids de ces liens ?
     
  20. mike006
    mike006 WRInaute occasionnel
    Inscrit:
    20 Mars 2004
    Messages:
    377
    J'aime reçus:
    0
    Merci beaucoup ybet, c'est très synthétique et utile. Qu'en est-il des attributs title sur liens ? Il y a déjà eu pas mal de posts là dessus mais cela vaut peut-être la peine d'en reparler ici ?
     
  21. Leonick
    Leonick WRInaute accro
    Inscrit:
    8 Août 2004
    Messages:
    19 417
    J'aime reçus:
    0
    ou du hacking, si les scripts ne sont pas sécurisés.
     
  22. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    A l'époque actuelle, je pense que tout ce qui semble pas naturel va voller à la trappe. Le petit coup de décembre est juste un avertissement, ... la suite viendra à mon avis dans une dizaine de mois, le temps pour les spécialistes google d'analyser les retombées (lit dégats collatéraux) sur les sites qui n'ont rien à voir avec des techniques spéciales.

    Ce qui s'est passé en décembre (et continue d'aillieurs) est juste un changement de stratégie de Google. Ca ne fera pas mourir les référenceurs, juste nous faire changer un peu notre manière de travailler. Ceux qui travaillent proprement devraient pas trop avoir de problèmes. Toutes les techniques tordues (disons pas standard, pas naturle) vont finalement y passer, le temps que Google vérifie si ca touche pas trop des sites propres. L'algo doit être déjà si compliqué que le moindre changement majeur doit en entrainé d'autres pas forcément voulu par le moteur.
     
  23. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 419
    J'aime reçus:
    40
    je comprend que Google peaufine ses filtres pour jeter ceux qui jouent avec son algo mais la je pas le rapport avec remplir l'attribut title..
     
  24. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    ... sur les liens
     
  25. keitboor
    keitboor WRInaute occasionnel
    Inscrit:
    19 Juillet 2004
    Messages:
    277
    J'aime reçus:
    0

    Concraitement, utiliser l'attribut title dans la balise a pourra ou est mauvais pour le référencement ?
     
  26. mike006
    mike006 WRInaute occasionnel
    Inscrit:
    20 Mars 2004
    Messages:
    377
    J'aime reçus:
    0
    je pense que c'est toujours pareil, avoir l'attribut lien sur ce type de lien :
    <a href="-/submit/add_url.html" title="Proposer votre site">Proposer votre site</a> (exemple de HawkEye pris dans une ancienne discussion) ne doit pas apporter grand chose, par contre mis sur des mots type "ici" ou "page suivante", il doit avoir une utilité.
    Là encore le problème comme le dit ybet ce sont les abus qui peuvent apparaitre :
    <a href="-/photos-provence" title="Découvrez les photographies de la provence">photos de la provence</a> on voit souvent ce type de title dans des sites et selon moi c'est limite trop.
     
  27. Jean-Yves Willmann
    Jean-Yves Willmann WRInaute discret
    Inscrit:
    16 Mars 2007
    Messages:
    82
    J'aime reçus:
    0
    Bonjour à tous,

    Bravo pour ce beau travail.
    Bien qu'étant beaucoup moins qualifié que certains ici j'aurais tendance à être d'accord avec à peu près tout, sauf peut-être avec ça :

    Je précise ma pensée : OK bien sûr pour que le lien contienne le mot-clé ; mais l'écriture du lien interne comme s'il s'agissait d'un lien externe (<a href="http://www.mon-site.com/Dossier1/page.html"> au lieu de <a href="../Dossier1/page.html"> par exemple), je crois qu'il faut s'en méfier un peu.

    J'ai fait quelques tests en ce sens dernièrement, et bref, je crois qu'il vaut mieux rédiger EN GENERAL les liens internes sans le http:// .

    Si d'autres ont fait l'expérience inverse, je suis à l'écoute...

    Cordialement
    Jyw
     
  28. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 419
    J'aime reçus:
    40
    Merci pour cette explication plein de bon sens. ybet m'avait laisser dans le vague hier..
     
  29. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    19 035
    J'aime reçus:
    317
    Très bonne initiative ybet, merci !

    Je ne vois pas en quoi le 2nd exemple est abusif, il décrit parfaitement ce que l'internaute va trouver s'il clique.
    Pour ma part je n'ai pas encore vu de test qui démontre que Google tient compte de l'attribut title du lien.

    En ce qui concerne la remarque de Jean-Yves, là non plus je n'ai encore pas vu de test qui démontre qu'il vaut mieux faire des liens en absolu ou en relatif dans tel ou tel cas : les moteurs se ramènent tout le temps à des URL complètes
     
  30. titiplanti
    titiplanti WRInaute occasionnel
    Inscrit:
    4 Novembre 2004
    Messages:
    349
    J'aime reçus:
    0
    D'ailleurs google lui-même recommandait les url absolues. (C'était écrit quelque part sur un des blogs de google ou sur wri ...)

    (et merci ybet d'avoir concentré toute cette information ici : c'est très bon !)
     
  31. mike006
    mike006 WRInaute occasionnel
    Inscrit:
    20 Mars 2004
    Messages:
    377
    J'aime reçus:
    0
    En effet mais le texte du lien dans cet exemple est assez explicite, je pense que c'est ce que voulait dire ybet quand il parlait de sur-optimisation.
     
  32. PM-maroc
    PM-maroc Nouveau WRInaute
    Inscrit:
    12 Janvier 2005
    Messages:
    28
    J'aime reçus:
    0
    Liens internes - lien systématique sur un mot clé

    Salut,

    Beau travail de compilation des informations. Je vois assez régulièrement des sites qui mettent systématiquement un lien vers leur page d'accueil à chaque récurrence du mot ou du groupe de mots clés sur le page. Par exemple : le mot "Paris" revient 10 fois dans l'article, on retrouve 10 liens avec pour ancre "Paris" pointant vers mon site.

    Pour l'instant, cela semble affecter positivement le positionnement des sites qui utilisent cette technique. J'ai toutefois des doutes sur son efficacité future. Ne devrait-elle pas être abordé dans ton point VI sur les liens internes ?
     
  33. bedmo
    bedmo Nouveau WRInaute
    Inscrit:
    10 Décembre 2007
    Messages:
    5
    J'aime reçus:
    0
    C'est vraiment un article trés utiles.
    Mercé à tous.
     
  34. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Re: Liens internes - lien systématique sur un mot clé

    Pas sûr, mais je constate actuellement que deux liens vers une même page externe reprenant duex textes différents n'a pas l'air de faire passer ni l'une ni l'autre, un seul lien oui.

    Alors, 10 fois le même lien je pense pas que ca va faire grand chose. Probablement un reste des vieilles techniques .
    Si d'autres ont un avis (expériences) différents sur ces liens répétitifs, on verra pour modifier le post initial.
     
  35. blogger
    blogger WRInaute occasionnel
    Inscrit:
    24 Novembre 2006
    Messages:
    364
    J'aime reçus:
    0
    Bonjour Ybet,

    une reco également.

    Dans les facteurs négatifs, tu pourrais ajouter le contenu dupliqué. Avec les cms, cela arrive facilement et cela plombe un site monstrueusement.

    j'ai un site de 2 mois, 4 pages et 100 mots à tout casser, c'est juste un NDD qui vieillit un peu, il n'est lié de nulle part, sauf éventuellement un lien quelque part dans les tréfonds de la plateforme wordpress .

    Sur une requête qui donne 5 résultats lors d'une recherche classique, je suis premier.
    Si l'on choisit l'option " relancer la recherche en incluant les pages ignorées." la recherche retourne 1200 résultats et le premier est un site de 230.000 pages qui présente plus de 1000 pages incluant les mots clé de la recherche.

    Ce qui le déclasse lors d'une recherche classique, c'est que les 1000 pages en question sont considérées comme "duplicate content" ( même si elles sont toutes différentes pour un humain, le titre et la balise méta description sont individuels également ) et le premier venu peux lui souffler la première place sans rien faire.
     
  36. Sebda
    Sebda WRInaute discret
    Inscrit:
    9 Février 2008
    Messages:
    213
    J'aime reçus:
    0
    Merci pour ce topic Ybet ! Très bien réalisé et très interessant pour les débutants comme moi :wink:
     
  37. tigars
    tigars Nouveau WRInaute
    Inscrit:
    27 Octobre 2006
    Messages:
    37
    J'aime reçus:
    0
    bonjour et merci pour ton post,

    une question par rapport à :

    + Elaboration d'une page plan du site ou même un sitemap

    Google indexe maintenant les pages très rapidement, quel est l'intérêt de mettre un sitemap ?
     
  38. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Pour ma part, aucun. Jamais utilisé de sitemap et seul mon site principal à une page plan (pas mis à jour depuis au moins deux ans). Par contre la structure interne des liens internes de mes sites me le permet. Un site avec de nombreux chapitres et sous chapitres aura du mal à se faire indexer correctement sans celà.
     
  39. pcamliti
    pcamliti WRInaute impliqué
    Inscrit:
    9 Mars 2007
    Messages:
    706
    J'aime reçus:
    1
    Le sitemap boost le référencement a grande vitesse.. et comme le précise Ybet, certains fichiers un peu éloignés de la racines peuvent intégrer plus rapidement GG... et donc être bénéfique en trafic.

    Merci ybet pour le travail ! :wink:
     
  40. Lomax7
    Lomax7 WRInaute impliqué
    Inscrit:
    29 Mars 2007
    Messages:
    560
    J'aime reçus:
    0
    Je me demandais si les pages contenant trop de liens externes
    comme les pages "liens" étaient pénalisées ? Qu'en penses-tu Ybet ?
    Je parle pas de sites qui vendent des liens, juste échange de liens.

    En ce qui concerne les paramètres dans les url, il est vrai
    que Google les reconnais, et les référence.
    L'url-rewriting ne va t'il servir à rien bientôt ?

    En tout cas, merci Ybet, pas mal de choses que je ne savais pas.
     
  41. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    Très difficile à dire, d'aillieurs trop ou 1 change pas grand chose. On repasse par les tests sur les pages "grisées depuis décembre".

    Mais certaines pages sur mes sites n'y sont pas, et même indexées. J'avoue, je fais jamais rien comme les autres :oops: (en référencement, je prend un malin plaisir à dépasser les 100 liens externes si nécessaire, le plus en prend 1072 pour l'instant).
    -http://www.darut.be/annuaire-commerces.php cette page est bien notée avec plus de 170 liens externes.
    par contre, -http://www.darut.be/annuaire-construction.php est complètement dans les choux aux niveau recherches

    Les deux ont des liens externes en follow et en no follow, suivant la qualité du site généralement. Avec des pages grisées, certaines en follow complète passe pas, d'autres oui. L'inverse est vrai j'ai également fait des tests. Et jamais vraiment compris pourquoi.
    Par contre, la principale -http://www.darut.be/annuaire.php (là plus de 1000 liens externes (toujours mélangés follow-nofollow) ne passe que sur des requêtes très spécifiques.

    Les constructions sont strictement les mêmes. En gros, envoyer trop de liens peut ou pas pénaliser la page qui envoie (et honnêtement pas un peu).

    Plus marant, dans les sous domaines:
    -http://florenville.darut.be/annuaire.php est présente ou pas, ca change selon l'humeur de google (quoi'il a l'air de l'avoir laissé visible depuis quelques semaines). Quand il n'en tient pas compte, suis n5 sur GG.be -> Florenville. Quand il en tient compte, N6 et le 5 est un qui reçoit un lien de cette page. :twisted:

    Donc effectivement, les liens externes peuvent pénaliser la page, mais ca n'a pas l'air de dépendre du nombre de liens. Je le soupconne de sanctionner les liens vers des sites jugés pas acceptables (y compris avec le nofollow peut-être).
     
  42. webmasterdemonsite
    webmasterdemonsite WRInaute impliqué
    Inscrit:
    1 Septembre 2007
    Messages:
    997
    J'aime reçus:
    0
    bravo pour l'article !

    tu peux rajouter:

    site accessible à une seule adresse (avec ou sans les www, mais pas les deux), si tu peux rajouter le code du htaccess, ca evitera peut etre a beaucoup de le chercher...

    reco...
     
  43. webmediaservices
    webmediaservices Nouveau WRInaute
    Inscrit:
    17 Février 2008
    Messages:
    4
    J'aime reçus:
    0
    liens des sous domaine

    il semblerais que les liens des sous domaine sont moins pertinant qu'en 2007

    Merci pour cet article
     
  44. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Re: liens des sous domaine

    En effet il y a pas mal de changements sur Google.

    Bienvenue sur le forum Webrankinfo.

    Vous pouvez remplir votre profil sur Webrankinfo.

    Les membres (qui le souhaitent) se présentent.

    N'hésitez pas à participer sur le forum pour en savoir plus sur le référencement en réalisant des échanges avec la communauté.
     
  45. olivier3249
    olivier3249 WRInaute passionné
    Inscrit:
    22 Octobre 2007
    Messages:
    1 099
    J'aime reçus:
    0
    Y'a un gros "uping" de sujet madri! ;)
    Mais mieux vaut tard que jamais pour répondre à quelqu'un :)
     
  46. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Cela permet aussi aux utilisateurs du forum de voir ou revoir le : Résumé des techniques de référencement février 2008. ;)
     
  47. rsca-zone
    rsca-zone WRInaute discret
    Inscrit:
    21 Juin 2008
    Messages:
    112
    J'aime reçus:
    0
    Comme moi je l'avais pas vu ce sujet intéressant merci :p
     
  48. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Content que cela puisse servir à certains. :mrgreen:
     
  49. nutri74
    nutri74 Nouveau WRInaute
    Inscrit:
    11 Mai 2009
    Messages:
    42
    J'aime reçus:
    0
    Je tenais à vous faire remarqué que l'histoire de ne pas mettre du flash etc sur certain site este encore a prouvé ...
    en effet un des site que j'ai réalisé sort parfaitement sur google avec toute les tares que vous lui accorderé

    - Très peu de contenu
    - Site casi full flash
    - Pas de lien avec mots clé
    - pas de backlink
    - pas de plan de site
    - etc...

    Pourtant il squatte la premiere place devant schmidt mobalpa et compagnie, quelqu'un aurais une idée de comment ce site à pu se positionner ainsi ?

    site en question : http://www.harmonycuisines.com

    https://www.google.fr/search?hl=fr&q=agencement cuisine&btnG=Rechercher&meta= 3eme position sur 2,7 million [...?hl=fr&q=cuisine haut de gamme&meta=&aq=f&oq=[/url]
    1ere position sur 750 milles

    A mon avis google doit avoir un systeme de calcul du temps passer sur un site pls un utilisateur passe du temps sur un site avant de revenir a la page de resultat plus le site devient pertinent pour Google.

    Alors faites de site beau qui attire les utilisateurs !
     
  50. L.Jee
    L.Jee WRInaute accro
    Inscrit:
    11 Décembre 2007
    Messages:
    5 426
    J'aime reçus:
    0
    Le temps ne veut rien dire ... Le visiteur cherche une info, il l'a trouve en 10 seconde, site pertinent. Alors que si il avait mis 10 minutes, ça aurait voulu dire que le site n'était pas pertinent (la page devrai-je dire).
     
  51. dim3869
    dim3869 WRInaute discret
    Inscrit:
    30 Mars 2009
    Messages:
    69
    J'aime reçus:
    0
    Je viens de tout lire à l'instant.

    Merci pour ce concentré d'infos !!
     
  52. nutri74
    nutri74 Nouveau WRInaute
    Inscrit:
    11 Mai 2009
    Messages:
    42
    J'aime reçus:
    0
    Jaurais dit linverse une personne qui reste longtemps sur un site plus de 30s (je regarderai dans les stats) google doit considerer sa comme plaisant pour l'utilisateur et donc lui donner du bonus et a contrario un site ou on trouclve rien du premier coup d oueil on quitte rapidement pour voir les autres resultats de google... Je trouve sa logique... Surtout lexemple est flagrant quand on cherche des solutions a des problemes dans les forums.
     
  53. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 516
    J'aime reçus:
    1
    On va débuter par le début .... Beaucoup de sites SANS contenu visible par Google sont bien positionné sur une requete ou deux .... (guère plus) . Dans ce cas, c'est uniquement lié aux liens externes (et là il en faut pas beaucoup) + le title.
    C'est idem pour les sites en frame comme dans l'exemple ci dessous ... https://www.google.be/search?sourceid=navclient&hl=fr&ie=UTF-8&rlz=1T4G ... lorenville Premier résultat avec page sans contenu et deuxième page avec un contenu vide pour Google.

    ëtre premier sur quelques requêtes, c'est bien .... avoir des visiteurs ... en nombre, c'est mieux. Goggle commence à lire quelques textes dans les animations flash au passage.
     
Chargement...
Similar Threads - Résumé techniques référencement Forum Date
Redirection 301 d'articles d'un Blog A (version résumée) vers un Blog B Débuter en référencement 29 Août 2015
Résumé visites par mois Google Analytics 4 Mars 2012
resumé dans google Crawl et indexation Google, sitemaps 29 Novembre 2010
Gros changements dans l'algo. google, vous pourriez me résumer... ? Débuter en référencement 5 Juin 2010
Résumé série et dupplicate content Débuter en référencement 8 Février 2010
Open Site Explorer : résumé du netlinking par LinkScape (SEOmoz) Netlinking, backlinks, liens et redirections 21 Janvier 2010
Rich Snippets et Google : résumé Référencement Google 26 Octobre 2009
Pouvez-vous me résumé la situation du lien payant ? Monétisation d'un site web 21 Octobre 2009
Qui contacter chez google en cas de blacklistage présumé ? Annuaires et moteurs 1 Juillet 2009
Licence de thumboshtos.org, qui peut me résumer? Développement d'un site Web ou d'une appli mobile 7 Décembre 2008
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice