Défendez un site Web de Google Duplicate Proxy

Nouveau WRInaute
j'ai deux site web déclassé sur google ( ils été dans la premiere page )

google a indexé :

https://tshake.com/index.html/010110A/http/www.darafnanes.com --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com+riad&hl=fr&ct=clnk&cd=1

le site web --> http://www.darafnanes.com déclassé vers la page 6



https://tshake.com/index.html/010110A/http/www.riad-marrakech.123.fr --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com+riad&hl=fr&ct=clnk&cd=2

le site web --> http://www.riad-marrakech.123.fr déclassé vers la page 20

Voici un site qui explique le phénomène ---malheureusement en anglais : voici l'adresse de la traduction :

http://translate.google.com/transla...on+via+proxy+duplicate+content&hl=fr&lr=&sa=G

comment faire a empechez un proxy? puisque la page https://tshake.com/index.html/010110A/http/www.darafnanes.com est indexé sur google est ce que c pour cela que mon site est déclassé ?
 
WRInaute accro
Le seul truc qui est important c'est ça :
This is current the best solution available, and applies if you are running a PHP or ASP based website: you set ALL pages robot meta tags to "noindex" and "nofollow", then you implement a PHP or ASP script on each page that checks for valid spiders from the major search engines, and if so, resets the robot meta tags to index and follow. The important distinction here is that it's easier to validate a real spider, and to discount a spider that's trying to spoof you, because the major search engines publish processes and procedures to do this, including IP lookups and the like.

Mais ça ne me parait pas une bonne solution. C'est dangereux (l'idée c'est d'interdire tout par défaut, et ensuite de reconnaitre et d'autoriser les robots des bons spiders sur la base de leurs protocoles publiés).

Amha, le plus efficace sur un truc comme ça, c'est de faire un spam report sur le résultat de la recherche.
 
Discussions similaires
Haut