Cloackbuster

Discussion dans 'Crawl et indexation Google, sitemaps' créé par Earth Brian, 16 Juin 2004.

  1. Earth Brian
    Earth Brian WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    82
    J'aime reçus:
    0
    Afin de respecter les règles, je ne peux laisser les urls, mais la question est simple :
    lorsque je recherche 2 mots clefs principaux de mon activité (professionnelle), j'apparais relativement loin .. jusque là, vous me direz : mauvaise optimisation.
    Avec les excellents outils fournis par Wri, l'analyse de ma densité est plutot correcte (et meilleure que celle de mes concurrents). Ceci n'étant qu'un paramètre, la vérification de mon nb de BL est aussi meilleure que mon principal concurrent, tout comme mon PR qui est au moins égal au sien ... L'optimisation de sa page (au vue des techniques habituelles de ref) étant plutôt médiocre, je me pose qq questions...
    Ceci étant, certains des concurrents proposant des sites de qualité, je ne peux qu'admettre leur bon positionnement (je suis fair play qd meme).
    Hors, l'un d'eux, et ce depuis peu vient d'apparaitre à la limite de la première position !!
    Après verif du site : PR très faible, pas de BL, optimisation = 0, densité = 0% ... bref ... tout porte à croire : soit à une erreur de GG, soit à un petit malin utilisant du cloacking pour ne pas faire apparaitre ce qu'il cache. D'ailleurs ds le cache de GG on obtient le meme visuel graphique mais bon, cela ne peut etre qu'une facade ...
    Peut être a t'il trouvé une technique excellente ou bien moi ya un truc flagrant que je ne pige pas !!!
    Y a t'il qq part des outils permettant de checker un eventuel cloacking ou autre supercherie ...
    Car là je ne vois pas trop comment faire... ! :(
     
  2. mahefarivony
    mahefarivony WRInaute accro
    Inscrit:
    14 Octobre 2002
    Messages:
    8 175
    J'aime reçus:
    0
    effet freshbot sans doute
     
  3. berberber
    berberber WRInaute impliqué
    Inscrit:
    26 Mai 2003
    Messages:
    503
    J'aime reçus:
    0
    Salut,
    si le cache est identique a la page, il ne s'agit pas de cloaking Google en tout cas
    ensuite il se peut tout simplement qu'il ait quelques tres bons liens avec le mot cle dans l anchre (cf l'exemple du premier pour "computer"), les parametres exterieurs sont plus importants...
    enfin peut etre sa page est-elle tout simplement nouvelle ?
    Bernhard

    impossible de verifier le cloaking( si il est bien fait), sauf si la page a un cache comme ici
     
  4. corvisart
    corvisart WRInaute impliqué
    Inscrit:
    3 Juillet 2003
    Messages:
    668
    J'aime reçus:
    0
    Peut être une prime de fraicheur ?
    Pour ceux qui ont moins de BL, moins de PR, et passe devant, peut être le texte des 2 mots clefs dans les BL ?
     
  5. Earth Brian
    Earth Brian WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    82
    J'aime reçus:
    0
    lol .. heuu le premier en computer c apple et il a un PR de 10 !!!! :)

    Les paramètres off line sont en effet importants ... et négligés parfois (voire couteux parfois ...).

    Mais vu le site, je ne pense pas avoir affaire a un informaticien de génie ... ou bien un référenceur de folie ...

    J'avais pas pensé à l'effet Fresh ;o)

    J'etais plus parti sur le coté bidouille ... (bah il aurait pu etre aidé par un pote !! lol)

    Merci de vos réponses :)

    (si qq se sent le courage de jeter un oeil, je lui passerai les urls et mots clefs en mp)
     
  6. berberber
    berberber WRInaute impliqué
    Inscrit:
    26 Mai 2003
    Messages:
    503
    J'aime reçus:
    0
    et pourtant le mot computer n appaerait pas dans la page
     
  7. turulillo
    turulillo WRInaute impliqué
    Inscrit:
    27 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
    Laisse tomber le cloaking car le cache te montre le code source que Google a vu et s'il est le même que ce que tu vois directement sur la page, pas de cloakink.
    Si tu veux t'en convaincre, utilise un outil, online ou offline, qui te permette de modifier ton User Agent et de te faire passer pour autre chose qu'un internaute derrière un navigateur (Google par exemple).
    Le meilleur outil offline, c'est Mozilla Firefox, excellent navigateur alternatif à IE, et qui permet de cacher ou de modifier son identité (la nouvelle version 9 vient de sortir hier).
    Je te le recommande vivement :
    http://ftp.mozilla.org/pub/mozilla.org/ ... eases/0.9/
    Sinon, tu trouveras un outil offline sur ce site : http://www.wannabrowser.com/ et change le HTTP User Agent par celui de Google :
    Googlebot/2.1 (+http://www.googlebot.com/bot.html)
    Mets ensuite l'URL du site dont tu veux voir le code dans Location.
    Tu peux même mettre un Referrer (site de provenance), par exemple la page de résultat de Google où tu as vu le site...ça ne sert générallement à rien mais certains cloaker vont très loin pour cacher le vrai contenu de leur page (leur outil analyse aussi les referrers en temps réel et n'affiche le contenu spécifique que si le referrer correspond à la page, mais c'est rare).
    Certains empêchent Google de mettre leur cache à disposition (il y a une commande à insérer dans le code source pour ça et Google la respecte, c'est NO CACHE)...C'est d'ailleurs le plus gros indice de cloaking.
    Tu trouveras un super article en français relatif au cloakink sur ce site :
    http://www.actulab.com/cloaking.php

    Maintenant, comme je te l'ai dit au début de mon post, si le code du cache est le même que sur le site, il ne s'agit pas de cloaking.
    En revanche, tu peux avoir 2 pages avec le même code source, hébergées sur 2 domaines différents, l'une ayant 100 liens entrants et un PR de 7, l'autre ayant 10 liens entrants avec un PR de 3, et te rendre compte que la page au PR3 apparaît mieux sur la requête pour laquelle ces 2 pages sont optimisées.
    Pourquoi ?
    Parceque l'ancre des 10 liens reprend la requête alors que de l'autre côté, l'ancre des 100 liens ne la reprend que très peu ou pas du tout.
    En général, lorsque ça arrive c'est qu'il y a une bonne raison : l'ancre des liens pointant vers un site reprend souvent le libellé de l'URL, si l'un des 2 sites possède une URL qui intègre la requête, les liens qui pointeront vers lui reprendront logiquement cette requête (URL) dans leur ancre.
    C'est ce qui a pu laisser croire à certains que l'URL était très importante dans le calcul de la densité sémantique des facteurs présent dans la page, ce qui est bien évidemment faux.

    Cid
     
  8. turulillo
    turulillo WRInaute impliqué
    Inscrit:
    27 Juin 2003
    Messages:
    526
    J'aime reçus:
    0
    Je suis tout a fait d'accord avec toi Berberber.
     
  9. Earth Brian
    Earth Brian WRInaute discret
    Inscrit:
    9 Janvier 2004
    Messages:
    82
    J'aime reçus:
    0
    Merci

    Merci Turu,
    excellente réponse !!!

    Bon a titre indic le gars il fait pas de cloak et n'a pas d'ancre contenant le mot clef
    (si j'ai bien compris et désolé pour la question l'ancre c bien 'l url' ... pas le name ou title associé au href par ex).

    Donc ce doit etre l'effet kiss cool refresh ;o) j'vois pas d'autres raisons ....

    Merci pour toutes vos réponses.

    :eek:)
     
  10. tradjus
    tradjus WRInaute discret
    Inscrit:
    4 Avril 2004
    Messages:
    167
    J'aime reçus:
    0
    Si il apparait:
    "Copyright © 2004 Apple Computer, Inc. All rights reserved"
    et dans les metas.
     
  11. berberber
    berberber WRInaute impliqué
    Inscrit:
    26 Mai 2003
    Messages:
    503
    J'aime reçus:
    0
    gloups, je n'avais jamais verifie, l exemple est tellement courant :) ..... Mais il y en a d'autres...
    bernhard
     
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice