Comment empecher les malotrus de spamer un site ?

WRInaute accro
Bonjour,

Voila, certain webmasters arrivent a recupérer des posts sur des forums qui ne leur appartiennent pas, puis ils se reservent de ces posts pour les afficher sur leur site.

J'aimerai savoir comment ils font ca et comment les en empecher ?

Merci d'avance
Laurent
 
WRInaute accro
Si c'est le message de départ, pas forcément le webmaster. J'ai souvent des questions pointues que celui qui post essaye sur plusieurs forum, le message est identique.
 
WRInaute accro
Hum,
Je me suis mal fait comprendre, c'est fait automatiquement, ya pas 1 webmaster qui fait du copier-coller... En fait en prog c'est pas tres dur d'ouvrir un fichier et de reprendre les messages, surtout des phorums phpBB, tous le monde a ce form. Ce que j'arrive pas a comprendre, c'est comment le webmaster trouve la page du post, car celle ci est généré a la volée. Comme j'y connais foutrement rien en spiders and Co, je me suis dit peux t'etre dans cette voie ? C'est pour ca que j'ai posté sur ce forum.
 
WRInaute accro
la page est peutetre crée à la volée, elle n´en ai pas moins indexée "statiquement" sur les moteurs......! le crawl ne se fait pas sur ton site mais sur le contenu des moteurs (pages en cache)
 
WRInaute impliqué
N'empeche qu'un peu d'humour, ca fait du bien au "trou"...
Et d'autre resterons cake toute leur vie ( sans specialement telecharger du porn) !

aussi ton titre : Comment empecher les malotrus de spamer un site ?

il est ou le spam ?

Peut etre que tu spam ?

Un titre qui n'a aucun rapport avec ton post, mais peut etre que je suis trop debile pour m'en rendre comtpe
 
WRInaute accro
Faut de détendre KOogar, démerde toi tout seul si t'es pas content... Merci GAMING ZONE pour ton soutien.
 
WRInaute impliqué
En fait c'est très simple...
J'ai créé ce genre de page pour le concours d'oiseau (où tout était permi :wink: )
Cela me permettait de répliquer les 50 premiers sites du classement sur mon site.
Je sais c'est pas beau :oops: mais cela m'a fait les dents sur les expressions régulières :D
Et tout était permi... (je le re-dis pour ne pas me faire incendier dans les prochains post)

Tu récupère l'url de départ, tu récupère le source via php et tu l'analyse. Tu en extrais alors ce que tu veux: les messages, les membres, ... tu peux aussi récupérer les liens et tu recommence indéfiniment.
Pour mon cas, cela me permettait d'avoir le source des autres sites participants sur mon propre site du concours. J'avais même poussé le vice jusqu'à reconstuire les liens vers leurs images en absolue. Aucune image chez moi, aucun texte. Les bots pouvaient se déplacer sur mon site de lien en lien ne sachant pas que le contenu était extrait en temps réel de leur sites...
Conclusion: avec une seule page de 20ko de php, tu peux dupliquer quasiment tout le web !
J'avais quand même vérouillé les liens externes, histoire de ne pas faire de tord à des sites qui n'avaient rien à voir avec le concours.
bon euh... ça ne m'a pas permis de gagner,faut dire que je m'y suis pris 3 semaines avant la fin... j'ai juste eut des menaces des sites copiés qui trouvaient que j'allais un peu fort avec le "tout autorisé" (y'a eut des posts sur WRI d'ailleurs si je me souviens bien)... :wink:
 
WRInaute accro
yep, merci pour ta réponse

Ce que je comprend pas, c'est pourquoi ton site n'a pas été rejeté en tant que site mirroir ? Puis comment faire pour récupérer les URL de pages créer a la volée, c'est surtout sur ce point que je bloque. Ou sont stockées ces pages?
Peut tu m'aider sur ce point? Merci
 
WRInaute occasionnel
les fils RSS ... [mate les petits rectangles orange en haut de page]
certains webmaters dont wri propose un fichier xml qui permet de récupérer les derniers messages du forum, tu n'as plus qu'à le traiter
 
WRInaute impliqué
KOogar a dit:
yep, merci pour ta réponse

Ce que je comprend pas, c'est pourquoi ton site n'a pas été rejeté en tant que site mirroir ? Puis comment faire pour récupérer les URL de pages créer a la volée, c'est surtout sur ce point que je bloque. Ou sont stockées ces pages?
Peut tu m'aider sur ce point? Merci
je pense qu'au bout d'un moment, mon site aurait été blacklisté...
Pour les urls, pas de problèmes. Il te suffit de prendre une url de départ(la page d'accueil par exemple). En analysant cette page, tu vas pouvoir trouver toutes les urls du site.
Regarde comment fait ce site: c'est à peu prêt le même principe (sauf qu'il récupère les pages d'une autre manière).
-http://anonymouse.ws/cgi-bin/anon-www.cgi/https://www.webrankinfo.com
Tu remarquera que tu as tout wri en live tout en restant sur leur site...
Tu peux cliquer sur tous les liens, tu aura l'impression d'être sur wri (en plus lent :wink: ) alors que tu es chez eux...
Euh... c'est juste un exemple hein? vous pouvez mettre n'importe quel autre site... :wink:
 
Discussions similaires
Haut