1. ⭐⭐⭐ Grosse PROMO en cours sur ma plateforme SEO My Ranking Metrics
    Rejeter la notice

Défendez un site Web de Google Duplicate Proxy

Discussion dans 'Référencement Google' créé par youssefbni1, 5 Février 2009.

  1. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
    j'ai deux site web déclassé sur google ( ils été dans la premiere page )

    google a indexé :

    https://tshake.com/index.html/010110A/http/www.darafnanes.com --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=1

    le site web --> http://www.darafnanes.com déclassé vers la page 6



    https://tshake.com/index.html/010110A/http/www.riad-marrakech.123.fr --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=2

    le site web --> http://www.riad-marrakech.123.fr déclassé vers la page 20

    Voici un site qui explique le phénomène ---malheureusement en anglais : voici l'adresse de la traduction :

    http://translate.google.com/transla...on+via+proxy+duplicate+content&hl=fr&lr=&sa=G

    comment faire a empechez un proxy? puisque la page https://tshake.com/index.html/010110A/http/www.darafnanes.com est indexé sur google est ce que c pour cela que mon site est déclassé ?
     
  2. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 370
    J'aime reçus:
    2
    Le seul truc qui est important c'est ça :
    This is current the best solution available, and applies if you are running a PHP or ASP based website: you set ALL pages robot meta tags to "noindex" and "nofollow", then you implement a PHP or ASP script on each page that checks for valid spiders from the major search engines, and if so, resets the robot meta tags to index and follow. The important distinction here is that it's easier to validate a real spider, and to discount a spider that's trying to spoof you, because the major search engines publish processes and procedures to do this, including IP lookups and the like.

    Mais ça ne me parait pas une bonne solution. C'est dangereux (l'idée c'est d'interdire tout par défaut, et ensuite de reconnaitre et d'autoriser les robots des bons spiders sur la base de leurs protocoles publiés).

    Amha, le plus efficace sur un truc comme ça, c'est de faire un spam report sur le résultat de la recherche.
     
  3. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
Chargement...
Similar Threads - Défendez Web Google Forum Date
Totalement déprimant ce web de 2020 Référencement Google 4 Janvier 2020
Annuaire www.webrankinfo.net encore actif ? Annuaires et moteurs 2 Janvier 2020
Referral : googleweblight.com avec Cache-control : no-transform ? Google Analytics 31 Décembre 2019
Cherche éditeur web avec correcteur d’orthographe Développement d'un site Web ou d'une appli mobile 31 Décembre 2019
Avis aux rédacteurs web ! Rédaction web et référencement 29 Décembre 2019
Mon site web n'est plus référencé sur les moteurs de recherche sauf Google Problèmes de référencement spécifiques à vos sites 17 Décembre 2019
Quels produits/technos internet après les sites web ? Développement d'un site Web ou d'une appli mobile 14 Décembre 2019
WebAssembly, un nouveau standard de langage w3c Développement d'un site Web ou d'une appli mobile 8 Décembre 2019
Indexation site web dans la thématique "érotisme" Problèmes de référencement spécifiques à vos sites 7 Décembre 2019
Mon site Web est bloqué par Facebook, que faire ? Facebook 5 Décembre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice