Theorie sur la redirection 302 : retour du cauchemard ?

WRInaute passionné
Bonjour
J'ai été victime des redirections 302 et j'ai passé pas mal de temps à corriger ce problème, et pendant ce temps j'ai apris pas mal de choses sur les redirections .
Ce qui me mène à poser cette théorie .
pour commancer, on sais que
- Si la page A redirige vers la page B en utilisant 302 elle prend ça place sur google .

- Si la page A redirige vers la page B en utilisant 301 c'est B qui prend la place de A .

maintenant, imaginez qu'on combine les deux !!
Un webmaster qui a un annuaire avec entre autre deux pages :
* la page go.php qui fait une redirection 302 vers une url (passé en paramètre par exemple)
* la page redirect.php qui fait une redirection 301 vers go.php

dans son annuaire il utilise redirection.php?page=ht*p://www.site.com
cette page vas rediriger vers go.php?page=ht*p://www.site.com qui elle vas rediriger vers site.com


qu'est cequi se passe sur google :
- La page go.php vas prendre la place de www.example.com (à cause de la redirection 302)
- Le webmaster du site victime vas s'en rendre compte et vas utiliser la procédure connue pour réparrer le problème, la page go.php?page=ht*p://www.site.com vas etre desindexer
- seulement, au prochain passage de googlebot la redirection 301 de redirect.php vas remettre go.php dans l'index !!


vous m'avez suivi ?!

on peut imaginer aussi l'utilisation de l'url rewrating avec des valeurs pseudo aléatoires par exemple pour tromper le moteur ...

qu'en pensez vous ?
 
WRInaute impliqué
mouais c'est pas dit.. redirect devient go, mais google sait que go est desindexe.. tu crois que ca va reindexe la page go.php ??

sinon, comment sait on que des sites font des 302 vers nous ?

il faut analyser toutes les referers ???
 
WRInaute passionné
si google desindexe go, rien ne nous empeche de le renomer en utilisant de l'url rewriting ...


sinon pour la methode pour retrouver les redirections 302 vers tapage et pour les supprimer voici la methode -http://www.7-dragons.com/redirection-302.php
 
WRInaute accro
aladdin a dit:
qu'en pensez vous ?
Que le blacklistage de l'annuaire n'est pas loin ... j'ai cru comprendre que ces temps-ci la guerre était ouverte aux redirections sauvages ... je ne suis pas certain que ca soit la caus emais j'ai le site d'un ami qui vient d'être blacklisté probablement pour cette raison.
 
WRInaute passionné
tien donc, moi aussi j'ai un annuaire d'hebergeurs gratuits qui vient d'etre black lister, mais moi je ne faisait pas de redirection !?
 
WRInaute accro
son site n'etait pas un annuaire et en plus c'etait un site hebergé aux usa ... par contre ca y allait a donf en go php ... donc il pense que c'est la cause du blacklistage ... il a viré tous les go et attend de voir si ca revient ...
 
Nouveau WRInaute
Bonjour à Tous,

Je suis Webmaster PCliens.com qui existe depuis 1998.

En ces temps de "Quête" deu PageRank, tout est bon pour allarmer et détruire le travail de gens honnêtes.
Je m'explique.

Depuis un certain temps, j'ai presque tout fait pour référencer les sites francophones qui traitent de l'informatique.

Mais malheureusement, avoir une bonne idée n'est pas une exclusivité; c'est pour cela que pas mal de passionnés comme vous et moi créons des sites avec des sujets de plus en plus variés.

Que faites-vous des années passées à travailler sur son site perso ou bien pro. A essayer de faire de votre passion un métier. A essayer de rentabiliser vos sites ? etc...

Quand un "pirate" et je suis loin du terme... se ramène et parse votre site afin d'en monter un autre avec vos données...

C'est le risque à payer pour tout ce qui est publique.

Je vois bien certains qui pleurent au bout de 3 mois de référencement et de ne pas ateindre un pagerank de 3 sur google. MAis tout le monde sais bien que Google a sa base dans DMOZ et que ce ne sont pas que des robots qui y travaillent...

Il ne faut pas pousser le bouchon trop loin quand même. A prendre les gens pour des cons.

alors pour parer au piratage de nos bases de données on a mi des redirections et nous n'étions pas les seuls.
MAis malheureusement aussi , les pilleurs et les tire-au-flan qui veullent profiter de la mane du web (gagner de l'argent, echange de liens, faux resgistrars, etc.. ) font de même.

Et il existe pleins de sites web mal programmés. D'où le fameux 302 qui donne mal au crane. Ben c'est simple. les mauvais programmeurs utilisant Mysql/PHP veullent réindexer leur base après effacement. au lieu de définir un auto-increment d'ID avec une valeur énorme (LONG INT ou plus).. .bref...

La solution avant toute chose est :
1) - de bien choisir les annuaires et les sites dans lesquels vous référencez vos liens. Car , à trop vouloir gagner de l'argent ou être populaire sur le web, on oublie facilement d'etre vigilent.
Et on référence n'importe comment et n'importe où son site. Demandez aux pros...

2) - toujours garder le contact avec les webmasters des annuaires sur lesquels vous inscrivez vos sites. Un site web, ce n'est pas un robot. C'est vous qui faites vivre votre site. Et si vous inscrivez vos sites dans des annuaires automatiques... ça risque de vous arriver.

3) - Avez vous pensé à ce qui risque de se passer , si un lien de votre site se trouve sur une page d'un site illégal ? (en tant que partenaire d'échange de liens). LA question n'a pas été soulevée dans ce forum, il me semble. Et on se demande pourquoi le pagerank descend ou bien que mon site disparaisse de DMOZ ... pensez vous que se soient des robots qui effacent votre site d'un répertoire si cher payé (temps passé a référencer).

4) - Avez vous pensé au % de pub affiché sur votre site ? Un site qui a plein de visiteurs n'est pas forcément un bon site. Preuve faite tous les jours par Google. mot clé : "gagner de l'argent"

5) - Il faut prévenir les webmasters et les évaluateurs des annuaires de certaines choses avant de lancer la pierre. Leur demander d'enlever vos sites de l'annuaire si cela nuis à celui-ci.

* Pensez vous que les échanges de liens à tout va , fasse du bien au référencement ? Car, à un moment ou a un autre, si tout le monde le fait , tous les sites auront le même pageRank. Et de là on verra resurgir des évaluateurs humains. Et ça va faitre mal. A cause du pageRank généré par les échanges de liens, de plus en plus de sites feront appel à des référenceurs Pro (agréé google par exemple) et paieront leur positionnement. Et ce sera la loi du plus riche qui l'emportera. On finira par accuser quelque chose d'autre vous verrez.

6) - Le problème existe pour tous , même pour les annuaires, et c'est à nous : éditeurs (d'annuaires), aussi, de faire des efforts afin d'améliorer nos services.

N'imaginez surtout pas que la solution est à sens unique. Car c'est ensemble que nous ferons avancer les choses. Si ce n'est pas le cas, la loi s'en mélangera et nous irons vers un web "policier". Et tout le monde surveillera tout le monde. ça a déjà commencé... avec des lois "antiteroristes"...

Pour ma part, je sais que les CSS qui sont si bien à la mode. non pas pour favoriser les Linuxien qui naviguent sous console. Mais pour "diminuer" le poids des sites... autant que cette technique nous arrange , mais autant que cela favorise le pillage de sites. Dans tout ce que l'on fait il y a des avantages et inconvénients.
Donc j'ai mis au point des routines en javascript qui s'exécuteront en même temps que le click sur un lien en dur. Et bon nombre d'annuaires en feront autant. Jusqu'à ce que l'on trouve quelque chose de gênant dans ce procédé. Ces routines lanceront le script de statistiques de sortie. mais cela ne fonctionnera pas à tous les coups; les navigateurs devenant de plus en plus sophistiqués.

Si c'est une bonne idée, alors encouragez nous. Sinon on n'a plus qu'à fermer les annuaires ou les rendre payants pour les utilisateurs comme pour les référencés (c'est dur ja sais, ne m'en voulez pas, il y en a qui le font déjà).

La balle n'est pas seulement dans le camps des annuaires et moteurs.
 
WRInaute passionné
je n'ai pas compris certains points :
en quoi l'utilisation des CSS faciliterai les pillages des données ?? avec une bonne utilisation des regex et un petit script python adapté au site cible on peut piller les données meme si les CSS ne sont pas utilisés (je ne vois pas du tout le rapport 8O )

sinon concernant les routines javascript, je n'ai pas vraiment compris en quoi ça consiste ? (sachant que les pillages de données se font avec des parseurs qui ignorent generalement javascript) ...
 
Nouveau WRInaute
Ben c'est treès simple

les parseurs, ça se fait pas tout seul. Programmer un parseur, consiste d'abord à repérer la redondance des informations. et ensuite localiser le début et la fin.

quand un site affiche ses infos dans un tableau plus ou moins cohérent. Parfois même avec des erreurs de syntaxe html. IE interprète et excuse cete erreur. Mais pas le parseur, qui lui, est formaté pour localiser précisément des balises.

En utilisant a fond du CSS, les balises tableau sont éléiminées et pas question de faire des erreurs car ça ne pardonne pas , surtout quand il faut positionner les données. mais le contenu de la page devient plus facile en lecture. Car les infos sont en série. Le parseur devient plus facile à programmer (même un débutant peus en faire un).

J'ai 88 à 120 visiteurs robots / par jour dont environ 50 sont des parseurs...

Pour la routine javascript, c'est juste pour éviter de mettre une redirection 302:
on ajoute un ONCLICK("appel javascript;') dans le lien affiché, comme ça le programme appelé s'exécute en même temps que le click sur le lien. et il est préférable d'ouvrir le lien dans une autre fenetre. Mais la aussi quelques personnes vont gueuler... En disant que les stats seront faussées (mais c'est faux).
 
WRInaute passionné
bon pour le javascript j'ai compris ...


par contre pour les parseurs je crois que vous vous trompez : on peut programmer un parseur comme on veux, et avec de bonnes expressions régulières et un bon petit code, on arrive à retirrer les données recherchées du code , et quelquesoit son type d'ailleur (language à balis ou pas)

j'ai deja travailler sur un projet qui consisait à parser des fichiers textes, html, et binaires pour retirrer des données et les mettre dans des bases de données, le plus dure etait de comprendre la structure des document (3 jours de travail à tout casser) ensuite pour écrire le parseur ça vas très vite ....

je ne crois pas qu'il existe une manière fiable qui protège les documents contre ce genre de pillage malheureusement .
 
Nouveau WRInaute
ben oui,
ce que j'ai seulement précisé c'est qu'il est plus facile avec les documents qui exploitent les CSS intégralement (2 ou 3 heures maxi au lieu de 3 jours comme tu disais). Et comme c'est la tendance actuelle, donc on est de plus en plus pillé.

il y a de plus en plus d'annuaires donc + de pillage

a part ça, tu en dis quoi de la soluce javascript ?
 
WRInaute passionné
bein pour la solution javascript je la trouve raisonnable puisqu'elle évite d'avoir des liens directs (pour le propiétaire de l'annuaire) et les redirections 302 ...

ceci dit, le seul impacte des liens en dure c'est le PR, et le PR est loin d'etre le seule critaire de classement chez google .
 
Discussions similaires
Haut