Défendez un site Web de Google Duplicate Proxy

Discussion dans 'Référencement Google' créé par youssefbni1, 5 Février 2009.

  1. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
    j'ai deux site web déclassé sur google ( ils été dans la premiere page )

    google a indexé :

    https://tshake.com/index.html/010110A/http/www.darafnanes.com --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=1

    le site web --> http://www.darafnanes.com déclassé vers la page 6



    https://tshake.com/index.html/010110A/http/www.riad-marrakech.123.fr --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=2

    le site web --> http://www.riad-marrakech.123.fr déclassé vers la page 20

    Voici un site qui explique le phénomène ---malheureusement en anglais : voici l'adresse de la traduction :

    http://translate.google.com/transla...on+via+proxy+duplicate+content&hl=fr&lr=&sa=G

    comment faire a empechez un proxy? puisque la page https://tshake.com/index.html/010110A/http/www.darafnanes.com est indexé sur google est ce que c pour cela que mon site est déclassé ?
     
  2. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 371
    J'aime reçus:
    2
    Le seul truc qui est important c'est ça :
    This is current the best solution available, and applies if you are running a PHP or ASP based website: you set ALL pages robot meta tags to "noindex" and "nofollow", then you implement a PHP or ASP script on each page that checks for valid spiders from the major search engines, and if so, resets the robot meta tags to index and follow. The important distinction here is that it's easier to validate a real spider, and to discount a spider that's trying to spoof you, because the major search engines publish processes and procedures to do this, including IP lookups and the like.

    Mais ça ne me parait pas une bonne solution. C'est dangereux (l'idée c'est d'interdire tout par défaut, et ensuite de reconnaitre et d'autoriser les robots des bons spiders sur la base de leurs protocoles publiés).

    Amha, le plus efficace sur un truc comme ça, c'est de faire un spam report sur le résultat de la recherche.
     
  3. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
Chargement...
Similar Threads - Défendez Web Google Forum Date
WebAssembly, un nouveau standard de langage w3c Développement d'un site Web ou d'une appli mobile Dimanche à 09:07
Indexation site web dans la thématique "érotisme" Problèmes de référencement spécifiques à vos sites Samedi à 11:55
Mon site Web est bloqué par Facebook, que faire ? Facebook Jeudi à 11:24
L'approximation des sites web institutionnels Le café de WebRankInfo 26 Novembre 2019
Firefox nous débarrasse des Notifications Web Développement d'un site Web ou d'une appli mobile 4 Novembre 2019
Google webmaster tool trouve des pages qui n'existent pas.... ?! Crawl et indexation Google, sitemaps 1 Novembre 2019
site web réception appel entrant Droit du web (juridique, fiscalité...) 14 Octobre 2019
Quel type de logiciel utiliser pour créer un site web simple et performant ? Demandes d'avis et de conseils sur vos sites 14 Octobre 2019
Adsense ou Admob - Progressive Web App AdSense 1 Octobre 2019
Droit exploitation d'une photo provenant du web Développement d'un site Web ou d'une appli mobile 24 Septembre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice