1. Bienvenue sur le nouveau forum WebRankInfo ! Si vous avez envie d'en parler, c'est ici :-)
    Rejeter la notice

Javascript, Cloaking que detecte google

Discussion dans 'Crawl et indexation Google, sitemaps' créé par Pagetronic, 19 Septembre 2005.

  1. Pagetronic

    Pagetronic Nouveau WRInaute

    Inscrit:
    23 Février 2005
    Messages:
    288
    J'aime reçus:
    0
    C'est la fin du cloaking? pourtant ca marche toujours.. des tonnes de site et non des moindre l'utilise..
    comment google réagit il?

    j'ai vu que google essayait de trouver ma page phpmyvisites.php dans googlesitemap il suit donc le javascript meme un peu complexe alors que je ne l'ai jamais vu suivre un windows.open et vous?
    Code:
    <script type="text/javascript"> 
    var phpmyvisitesSite = 1; 
    var phpmyvisitesURL = "http://www.xxxxx.fr/phpmyvisites/phpmyvisites.php"; 
    </script>
     
  2. HawkEye

    HawkEye Nouveau WRInaute

    Inscrit:
    23 Février 2004
    Messages:
    18 166
    J'aime reçus:
    0
    La courbe semble pourtant s'infléchir progressivement.

    Avec plus de 8 milliards de pages indexées, il faut du temps pour détecter toutes les failles (humainement ou automatiquement).

    Quoi qu'il en soit, et ce pour tous les moteurs, la tendance a été d'abord à la rentabilité, puis à la performance, elle sera logiquement bientôt à la qualité.
     
  3. Pagetronic

    Pagetronic Nouveau WRInaute

    Inscrit:
    23 Février 2005
    Messages:
    288
    J'aime reçus:
    0
    on sait pas trop alors si il le fait avec spybot ou avec des humains, non?
    Est ce que le cloaking blacklist, ou il index tout simplement la page où mène le cloak?
     
  4. rottman

    rottman Nouveau WRInaute

    Inscrit:
    6 Janvier 2004
    Messages:
    2 120
    J'aime reçus:
    0
    Detection du cloaking ne veut pas dire forcément backlistage, Google ne peut pas "s'amuser" à backlister toutes les pages ayant des redirections javascript, car en effet redirection javascript n'est pas synonyme de cloaking.

    Mon hypothèse :

    - Les nouveaux sites crawlés et qui sont detectés comme suspects par les bots => il sont mis dans une espèse de sandbox interminable.

    - Les sites dénoncés de nombreuses fois via le spamreport et qui sont bien positionnés sur des grosses requètes, font un séjour vers la blacklist.