Comment bloquer les voleurs de contenu ?

Discussion dans 'Débuter en référencement' créé par refweb, 7 Juin 2017.

  1. refweb
    refweb WRInaute discret
    Inscrit:
    28 Mars 2008
    Messages:
    248
    J'aime reçus:
    0
    Bonjour,

    Je ne sais pas si vraiment des astuces existent, mais je pose la question, on ne sait jamais. Apparemment bloquer des pays, des ips dans htaccess, robots.txt ca sert à rien quand un mec utilise des logiciels de black hat, du coup comment se protéger ? il n'y a aucune solution ?? :?
     
  2. arnaudmn
    arnaudmn WRInaute passionné
    Inscrit:
    11 Mai 2005
    Messages:
    1 556
    J'aime reçus:
    0
    Bonjour,

    Si tu connais des adresses IPs à bloquer par exemple, tu peux le faire via htaccess ou dans le code (en testant $_SERVER['REMOTE_ADDR']). Ou sur le $HTTP_USER_AGENT ... Mais encore faut-il connaitre ce qui sera utilisé par les logiciels.
     
  3. refweb
    refweb WRInaute discret
    Inscrit:
    28 Mars 2008
    Messages:
    248
    J'aime reçus:
    0
    Et tu fais comment ????? car oui bloquer les ips ca sert à rien surtout quand c'est un pro BH.
     
  4. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 827
    J'aime reçus:
    50
    Code:
    service nginx stop
     
  5. rick38
    rick38 WRInaute impliqué
    Inscrit:
    23 Février 2013
    Messages:
    615
    J'aime reçus:
    10
    Charger en AJAX le contenu de l'article à partir du moment où l'utilisateur a commencé à scroller.
    Les scripts qui chargent une page ne déclenchent pas l'événement de scroll en général.

    Mais il n'y a pas de solution quand une personne vise spécifiquement une page, si la personne peut y accéder, alors elle peut la copier.
     
  6. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 827
    J'aime reçus:
    50
    @rick38: même avec cette technique, c'est copiable. Comme tu dis, si on te cible c'est peine perdue.
     
  7. elas
    elas WRInaute impliqué
    Inscrit:
    26 Février 2008
    Messages:
    654
    J'aime reçus:
    14
    bloquer ponctuellement des copies de pages, il n'y a pas beaucoup de solutions sauf administratives.
    Par contre, bloquer des scrappeur de sites complet c'est tout à fait faisable et nécessaire.

    Par contre je ne sais pas si c'est le bon forum pour en parler techniquement, ca n'a pas grand rapport avec le référencement. C'est plutôt dans le secteur : sécurité web.

    Donc dans les grandes lignes : les spiders et toutes les sortes d'outils tels que des scrappeur n'ont pas du tout le même comportement que les humains. Dans les logs (même des logs de plusieurs centaines de mo par jours), c'est très facile de les repérer. Tellement repérables qu'on peut avec de très simple algorithmes les détecter pour la plupart à la volée (on parlait du javascript sur d'autres threads de ce forum, et bien aucun ne lit le javascript par exemple alors que les browsers les lisent et font les requetes demandées par le javascript....) .
    Et oui, on bloque les ip, mais on bloque les ip automatiquement.

    Pour résumer : si c'est un humain qui copie colle des contenus, a part une solution administratives : on ne peut rien faire
    Si c'est un logiciel, en face on développe un logiciel (d'ailleurs c'est aussi plaisant des fois d'envoyer des requêtes en provenance de certains pays dans un pot de miel)