Comment empecher les malotrus de spamer un site ?

Discussion dans 'Administration d'un site Web' créé par KOogar, 19 Novembre 2004.

  1. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 643
    J'aime reçus:
    81
    Bonjour,

    Voila, certain webmasters arrivent a recupérer des posts sur des forums qui ne leur appartiennent pas, puis ils se reservent de ces posts pour les afficher sur leur site.

    J'aimerai savoir comment ils font ca et comment les en empecher ?

    Merci d'avance
    Laurent
     
  2. mahefarivony
    mahefarivony WRInaute accro
    Inscrit:
    14 Octobre 2002
    Messages:
    8 081
    J'aime reçus:
    0
    en ne diffusant plus rien sur le net
     
  3. ybet
    ybet WRInaute accro
    Inscrit:
    22 Novembre 2003
    Messages:
    7 419
    J'aime reçus:
    1
    Si c'est le message de départ, pas forcément le webmaster. J'ai souvent des questions pointues que celui qui post essaye sur plusieurs forum, le message est identique.
     
  4. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 643
    J'aime reçus:
    81
    Hum,
    Je me suis mal fait comprendre, c'est fait automatiquement, ya pas 1 webmaster qui fait du copier-coller... En fait en prog c'est pas tres dur d'ouvrir un fichier et de reprendre les messages, surtout des phorums phpBB, tous le monde a ce form. Ce que j'arrive pas a comprendre, c'est comment le webmaster trouve la page du post, car celle ci est généré a la volée. Comme j'y connais foutrement rien en spiders and Co, je me suis dit peux t'etre dans cette voie ? C'est pour ca que j'ai posté sur ce forum.
     
  5. herveG
    herveG WRInaute accro
    Inscrit:
    5 Mars 2003
    Messages:
    7 986
    J'aime reçus:
    0
    la page est peutetre crée à la volée, elle n´en ai pas moins indexée "statiquement" sur les moteurs......! le crawl ne se fait pas sur ton site mais sur le contenu des moteurs (pages en cache)
     
  6. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    C'est vrai que ça doit faire "mal au trou" (malotrus - humour)
    je :arrow:
     
  7. GAMING ZONE
    GAMING ZONE WRInaute impliqué
    Inscrit:
    13 Août 2004
    Messages:
    507
    J'aime reçus:
    0
    N'empeche qu'un peu d'humour, ca fait du bien au "trou"...
    Et d'autre resterons cake toute leur vie ( sans specialement telecharger du porn) !

    aussi ton titre : Comment empecher les malotrus de spamer un site ?

    il est ou le spam ?

    Peut etre que tu spam ?

    Un titre qui n'a aucun rapport avec ton post, mais peut etre que je suis trop debile pour m'en rendre comtpe
     
  8. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
    Faut de détendre KOogar, démerde toi tout seul si t'es pas content... Merci GAMING ZONE pour ton soutien.
     
  9. jeromax
    jeromax WRInaute impliqué
    Inscrit:
    12 Novembre 2003
    Messages:
    887
    J'aime reçus:
    0
    En fait c'est très simple...
    J'ai créé ce genre de page pour le concours d'oiseau (où tout était permi :wink: )
    Cela me permettait de répliquer les 50 premiers sites du classement sur mon site.
    Je sais c'est pas beau :oops: mais cela m'a fait les dents sur les expressions régulières :D
    Et tout était permi... (je le re-dis pour ne pas me faire incendier dans les prochains post)

    Tu récupère l'url de départ, tu récupère le source via php et tu l'analyse. Tu en extrais alors ce que tu veux: les messages, les membres, ... tu peux aussi récupérer les liens et tu recommence indéfiniment.
    Pour mon cas, cela me permettait d'avoir le source des autres sites participants sur mon propre site du concours. J'avais même poussé le vice jusqu'à reconstuire les liens vers leurs images en absolue. Aucune image chez moi, aucun texte. Les bots pouvaient se déplacer sur mon site de lien en lien ne sachant pas que le contenu était extrait en temps réel de leur sites...
    Conclusion: avec une seule page de 20ko de php, tu peux dupliquer quasiment tout le web !
    J'avais quand même vérouillé les liens externes, histoire de ne pas faire de tord à des sites qui n'avaient rien à voir avec le concours.
    bon euh... ça ne m'a pas permis de gagner,faut dire que je m'y suis pris 3 semaines avant la fin... j'ai juste eut des menaces des sites copiés qui trouvaient que j'allais un peu fort avec le "tout autorisé" (y'a eut des posts sur WRI d'ailleurs si je me souviens bien)... :wink:
     
  10. KOogar
    KOogar WRInaute accro
    Inscrit:
    16 Novembre 2004
    Messages:
    4 643
    J'aime reçus:
    81
    yep, merci pour ta réponse

    Ce que je comprend pas, c'est pourquoi ton site n'a pas été rejeté en tant que site mirroir ? Puis comment faire pour récupérer les URL de pages créer a la volée, c'est surtout sur ce point que je bloque. Ou sont stockées ces pages?
    Peut tu m'aider sur ce point? Merci
     
  11. blman
    blman WRInaute accro
    Inscrit:
    5 Septembre 2003
    Messages:
    2 719
    J'aime reçus:
    3
  12. yep
    yep WRInaute occasionnel
    Inscrit:
    3 Avril 2004
    Messages:
    252
    J'aime reçus:
    0
    les fils RSS ... [mate les petits rectangles orange en haut de page]
    certains webmaters dont wri propose un fichier xml qui permet de récupérer les derniers messages du forum, tu n'as plus qu'à le traiter
     
  13. totoro
    totoro WRInaute impliqué
    Inscrit:
    28 Juillet 2004
    Messages:
    751
    J'aime reçus:
    0
  14. jeromax
    jeromax WRInaute impliqué
    Inscrit:
    12 Novembre 2003
    Messages:
    887
    J'aime reçus:
    0
    je pense qu'au bout d'un moment, mon site aurait été blacklisté...
    Pour les urls, pas de problèmes. Il te suffit de prendre une url de départ(la page d'accueil par exemple). En analysant cette page, tu vas pouvoir trouver toutes les urls du site.
    Regarde comment fait ce site: c'est à peu prêt le même principe (sauf qu'il récupère les pages d'une autre manière).
    -http://anonymouse.ws/cgi-bin/anon-www.cgi/https://www.webrankinfo.com
    Tu remarquera que tu as tout wri en live tout en restant sur leur site...
    Tu peux cliquer sur tous les liens, tu aura l'impression d'être sur wri (en plus lent :wink: ) alors que tu es chez eux...
    Euh... c'est juste un exemple hein? vous pouvez mettre n'importe quel autre site... :wink:
     
Chargement...
Similar Threads - empecher malotrus spamer Forum Date
Empêcher le download mais autoriser la lecture mp3 URL Rewriting et .htaccess 17 Août 2021
WordPress Empêcher le scraping de mon site Administration d'un site Web 19 Novembre 2020
PHP empêcher form onsubmit si formulaire invalide Développement d'un site Web ou d'une appli mobile 29 Juin 2020
Comment empecher google d'indexer "une suite d'URL". Débuter en référencement 8 Mars 2020
Empêcher Googlebot de crawler/indexer tout un dossier Débuter en référencement 19 Avril 2019
désindexer et/ou empêcher crawl ? Crawl et indexation Google, sitemaps 4 Janvier 2019
Patron de Qwant : "Google essaye d'empêcher ..." Autres moteurs de recherche connus 1 Novembre 2018
Empêcher les majuscules dans les URL Débuter en référencement 27 Avril 2018
Empécher indexation Crawl et indexation Google, sitemaps 10 Avril 2018
Comment empêcher les gens de faire du copier coller ? Débuter en référencement 21 Janvier 2018
Empêcher des script javascript d'etre indexer Crawl et indexation Google, sitemaps 13 Mars 2017
Comment empêcher le crawl sur les pages "filter" et "order" Débuter en référencement 20 Janvier 2017
empêcher des caractères comme /?longurlwascutoff_0&& derrière l'url d'un site URL Rewriting et .htaccess 30 Avril 2016
Empêcher l'indexation de mon fichier sitemap Débuter en référencement 29 Avril 2016
empêcher une partie du site de visualisation Développement d'un site Web ou d'une appli mobile 30 Mars 2016
Empêcher google d'utiliser mon formulaire de filtre d'articles ? Développement d'un site Web ou d'une appli mobile 11 Mars 2016
Comment empêcher une page en php d' être partagé sur facebook? Facebook 10 Septembre 2015
Empêcher l'upload de gros fichiers? Développement d'un site Web ou d'une appli mobile 27 Mai 2015
Comment empecher la repetition du nom de site dans les titles Problèmes de référencement spécifiques à vos sites 18 Mars 2015
Empêcher l'indexation des fichier .pdf et du robots.txt Crawl et indexation Google, sitemaps 28 Octobre 2014