Comment bloquer ce proxy

WRInaute discret
Bonjour,

Sur mes log j'ai trouver des visite depuis le forum webrankinfo ( depuis le lien que j'ai insérer )

donc j'ai trouver son vrai ip 174.36.215.174

J'ai ajouter ce code :

RewriteCond %{REMOTE_ADDR} ^174\.36\.215\.174$
RewriteRule ^.*$ - [F]

et je l'ai supprimer

Merci webrankinfo

Problème résolu
 
WRInaute accro
quote="youssefbni"]
Je viens de bloquer 3 autre proxy :

httpy://proxy4free2me.appspot.com/www.darafnanes.com
httpy://puneproxy.appspot.com/www.darafnanes.com
httpy://www.myschoolsproxy.appspot.com/www.darafnanes.com

Google index toujours c'est proxy !!! il n'a rien fait pour résoudre ce problème !!!!
[/quote]
Désolé des termes que je vais employé mais tu est con ou tu le fait exprêt ? Ces proxy ne récupèrent que les pages qui sont demandées par les utilisateurs: ca veut donc dire qu'un de tes visiteur les utilise (pourquoi? vraisemblablement pas pour ton bien) mais en plus pour que Google connaisse une page. Une fois connecté sur un proxy, toutes les pages visitées sotn reprises par le site proxy et gardées un certains nombre de minutes, heures ou jour (ca dépend du paramétrage du serveur) et disparaissent. Ce n'est pas du dynamique dans le sens où ce site ne pet à jour le contenu des pages QUE quand elles sont (re)demandées.

il y a plusieurs méthodes:
1. les liens sont les plus efficaces (ce que tu viens de faire)
2. la barre d'outils Google utilisée par un des utilisateur de ce brol
3. les pubs adsences
4. Google analytic (mais je doute que ca fonctionne dans ce cas)

Et toi tu met des liens dessus .... :roll: et en plus (je suppose) que tu va vite aller voire ce qui se passe dès qu'un de ces sites est visité de cette manière avec ta barre d'outils Google encenchée.

Ces pages sont reprises à chaque fois sur Google d'une méthode ou d'une autre. Bloquer adresses par adresse te servira à rien. Tu dois d'abord bloquer l'ensemble sans aller les visiter: au lien de bloquer 209.85.224.X, tu bloque déjà toute la plage ...
Déjà comme l'a rappelé Koxin-L.fr , la commande pour bloquer ne passe pas par un referer mais par une adresse:
ca donne dans le .htaccess
order allow,deny
deny from 209.85.224
allow from all
(tu t'emm*rde pas pas adresse par adresse, de toute façon, c'est plages d'adresses sont des plages d'hébergeur: les visiteurs de toutes ces plages n'ont pas à visiter ton site).
Autre solution, t'a vraiment quelqu'un qui te veux du mal .... Il va s'acharner à mettre des liens vers ton site en passant par des proxy (t'a pas fini de t'amuser à les bloquer un après les autres) mais ilsles pages seront temporaires.. Si c'est celà, d'abord trouver d'où viennent les liens vers ces proxy .... un site par exemple.
 
WRInaute accro
ybet a dit:
reprises par le site proxy et gardées un certains nombre de minutes, heures ou jour (ca dépend du paramétrage du serveur) et disparaissent.
Pour certains proxy c'est pas tout a fait exact, l'api de GG et les domaines gratuits qui vont avec font qu'un tas de margoulin conservent les pages visitées et les font indexer voir par exemple :
https://www.google.fr/search?q=site%3Aappspot.com+webrankinfo.com
Le second résultat chez moi parle de lui même

Vue qu'il est délicat de bloquer une IP google (c'est eux qui hébergent) j'ai eu perso recours au UA du proxy pour les bloquer :
RewriteCond %{HTTP_USER_AGENT} .*AppEngine.Google.*
RewriteRule (.*) http://search.yahoo.com/search?p=ta+mere+en+short [L]

Accessoirement et je sais pas si c'est lié mais depuis que je renvoie mes visiteurs via proxy sur yahoo je suis passé premier sur "ta+mere+en+short" (c'est un exemple bidon cherchez pas :D ) alors que c'était pas le cas avant ... va savoir si le referer a un impact sur le positionnement ... :D
 
WRInaute accro
Merci pour cette explication supplémentaire :wink: Ca m'étonne que GG indexe des pages qu'il sait pour "tester des applications".
On passe plus de temps à protéger, modifier que créer finalment (et chaque fois ... Google). Pense de toute façon pas que ces pages soient réellement vues comme du diplicate
 
WRInaute accro
ybet a dit:
On passe plus de temps à protéger
C'est pas faut tous les jours je passe du temps a vérifier qu'un gugus se tape pas un délire sur les sites ... Cette semaine j'ai du ban 3 Ip qui correspondent a un genre d'application qui pompe tous les liens de ma page FB et qui crawls tous les liens des pages qui y sont liés. Bref si t'as 50 liens par page et que ta page FB présente une 100aine d'article tu te retrouve avec un bot au cul qui pompe 5000 pages en moins de temps qu'il faut pour le dire ... :roll: Le pire c'est que ces pages sont même pas lues au final par un humain ...

Quand je fait le ratio bot / humains sur le trafic serveur je cherche plu ou est le trou de la couche d'ozone ...
 
WRInaute discret
Bonjour,

Les liens que je viens de faire ici : c'est pour accélérer le passage de google sur les pages des proxy pour changer leur cache !!!!

Ybet tu dois encore apprendre !! fait le et essaye d'aider les gens : sa sert a rien de montrer tes muscles.

Tu peux voir le cache des liens que j'ai écris pour voir que c'est de la duplicate pour ma page index

Nb 1 : ma page index est déclassée depuis 2 ans
Nb 2 : je sais que le déclassement est a cause des ancres
Infos : je viens de mettre une redirection 301 vers nouveau domaine darafnanes.com --> locmarrakech

depuis environ 2 ans que plusieurs webmasters on perdu le classement de la page index --> Je pense que google a testé son Pingouin sur les index avant de le mettre sur tout le web
 
Discussions similaires
Haut