Google index une pj jointe envoyée depuis un formulaire !!!

Discussion dans 'Référencement Google' créé par mengeco, 5 Mars 2018.

  1. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    Bonjour,

    Depuis mon site Wordpress, j'utilise le plugin "Form Maker" pour les formulaires.

    Un formulaire permet de joindre des pj comme un RIB et grosse frayeur, un client vient de me dire que le RIB qu'il avait envoyé depuis mon formulaire se retrouve indexé sur Google (quand il fait une recherche sur son nom).

    Vent de panique, je supprime tout ce que je peux mais je ne sais pas comment éviter ce pb à l'avenir.

    Quelqu'un aurait-il une idée ou connu la même mésaventure ???
     
  2. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Bonjour,

    Si le fichier est indexable et à un moment le robot peut y avoir accès, il sera indexé.
    Vérifier la configuration du site Internet et le fonctionnement/gestion des pièces jointes de votre plugin.

    N'hésitez pas à vous présenter au forum : ici et entre deux messages présenter vos avis aussi sur les sujets : ici, pour aider les autres personnes de la communauté d'entraide.

    Temps de réponse : 5 minutes.
    Cordialement.
     
  3. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 875
    J'aime reçus:
    72
    En général, c'est parce que la pièce jointe est stockée sur le serveur, et que le dossier où elle est stockée est accessible au robots.

    Il va donc falloir modifier les droits d'accès du dossier en question.
     
  4. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    Merci pour vos retours ultra rapides, top !!.

    Pour info, les PJ sont "classiquement" stockées dans le dossier "wp-content/uploads/form-maker" et ce dossier ne dispose que des autorisations 200 (écriture par le propriétaire") et d'ailleurs, impossible de modifier les autorisations en ftp.

    Quel serait donc le "dossier en question" dont il faudrait modifier l'accès ?
     
  5. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 834
    J'aime reçus:
    246
    A tout hasard, le directory listing ne serait pas activé, c'est à dire que example.com/wp-content/uploads/form-maker/ affiche le listing des fichiers ?
     
  6. Madrileño
    Madrileño Membre Honoré
    Inscrit:
    7 Juillet 2004
    Messages:
    32 136
    J'aime reçus:
    273
    Bonjour,

    Il est possible que les fichiers soient indexables et que ce qui est indiqué par Spout soit actif, vous pouvez modifier cela ou même modifier le plugin pour vous faire un espace spécifique protégé pour les fichiers reçus via le serveur par le formulaire.

    Vous pouvez aussi indiquer l'URL du site Internet.

    Temps de réponse : 5 minutes.
    Cordialement.
     
  7. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    Je pense effectivement qu'il faut pouvoir changer les autorisations du dossier ! Après, comme elles sont bloquées, je sais que l'hébergeur ne fera pas la manip et il faut a priori que je me plonge dans les commandes SSH ou un truc de ce genre... Pas ma tasse de thé mais comme toujours, on finit par trouver la solution, il suffit de s'accrocher un peu parfois ;)

    Merci à tous !!!
     
  8. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 875
    J'aime reçus:
    72
    Avec l'url, on pourrait davantage vous aider.
     
  9. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    Je comprends mais désolé, vue la bourde, je crois qu'il vaut mieux que le site ne soit pas associé à ce post dans les résultats de recherches... J'espère que vous me comprendrez
    Bonne soirée !
     
  10. UsagiYojimbo
    UsagiYojimbo WRInaute accro
    Inscrit:
    23 Novembre 2005
    Messages:
    11 875
    J'aime reçus:
    72
    Si ce que dit Spout est vrai, alors tu peux déjà commence par ajouter la directive suivante dans le fichier .htaccess :

    Options -Indexes
     
  11. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    et peut-être qu'un petit ajout sur robot.txt peut aussi faire l'affaire
     
  12. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 834
    J'aime reçus:
    246
    robots.txt
     
  13. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    Oui, merci pour cette précision !!
     
  14. elas
    elas WRInaute impliqué
    Inscrit:
    26 Février 2008
    Messages:
    759
    J'aime reçus:
    31
    finalement, dans worpress et les autres CMS, et les sites en général :
    1 - on essaie au maximum de ne pas garder les noms de répertoire classiques du CMS
    (tout spécialement dans wordpress)
    2 - jamais !!! jamais on utilise le fichier robots.txt avec des vrais valeurs dedans
    --> il y a google certes (qui déjà ne respecte pas forcément les règles), bing non plus, yandx encore moins et on ne parle même pas de accunetix ou tout programme malveillant

    On interdit les accès au repertoires au moyens des droits du system d'exploitation, et on fait très attention au zones ou le browser (apache, IIS,...) doit avoir accès pour des raisons de fonctionnement.

    Le respect des bonnes pratiques du crawle d'un site (par robots.txt) appartient aux années 1990.

    Les bots actuels indexent tout (officiellement on va dire qu'ils respectent, et peut être les google ou autre respectent ?), même les répertoires par défaut de wordpress si wordpress est détecté.

    Quand à robots.txt, on s'en sert uniquement pour envoyer les bots malveillants vers de pot de miel.
     
  15. mengeco
    mengeco WRInaute discret
    Inscrit:
    3 Octobre 2016
    Messages:
    53
    J'aime reçus:
    0
    En l'état, je crois que c'était une indexation Google sans malveillance particulière, juste que le dossier où se trouve les pj ne disposait pas des bonnes autorisations.

    Et oui, j'ai lu effectivement qu'il était utile de ne pas conserver le chemin d'archive d'origine.

    Pour robots.txt, ok mais pourquoi cette pratique est encore aussi répandues et trône en bonne place dans les outils Search Console ?
     
  16. elas
    elas WRInaute impliqué
    Inscrit:
    26 Février 2008
    Messages:
    759
    J'aime reçus:
    31
    parce qu'il y a les bonnes pratiques et la réalité.
    La réalité sur le web, c'est les personnes malveillantes et les robots des personnes malveillantes qui vont utiliser l'information dans robots.txt pour faire exactement le contraire de ce que doit faire un robot. C'est à dire aller mettre leur nez dans tout ce qui est disallow dans robots.txt à la recherche de .doc .. ou tout fichier que le browser ne traitera pas. Mettre leur nez dans tous les répertoires connus des CMS qui souvent sont mal protégés et acessible au serveur web (apache..), donc au visiteur

    Idem pour les repertoires d'upload, idem pour les fichier mal renommés tels que config.php.old ou config.php.1......

    Au final, c'est une des solutions pour détecter les bots malveillants automatiquement.
    !!! cette info tres simple vaut de l'or !!!!
    Dans robots.txt, il faut mettre un repertoire particulier en disallow
    Dans le repertoire, un fichier par défaut qui soit si on a les moyen envoie le bot dans des fausses pages
    >> c'est la meilleure solution, laisser penser que les personnes ont trouvé
    Dans tous les cas passent l'ip en black list pour ses prochaines visites

    Simple mais très efficace et ne pénalise pas le référencement puisque supergoogle respecte robots.txt

    Après l'indexation par google est un moindre mal, a comparer de la meme indexation par des robots malveillants et qui n'affichent pas leur resultats comme google
     
Chargement...
Similar Threads - Google jointe envoyée Forum Date
Création URL de redirection pour Référencement google my business Débuter en référencement Samedi à 23:39
Rythme d'indexation Google aléatoire Crawl et indexation Google, sitemaps 3 Décembre 2019
Google Analytics et Twitter Google Analytics 1 Décembre 2019
Vos avis sur"Google Avis" via merchant center e-commerce 28 Novembre 2019
Search Console Migration Google Search Console Référencement Google 24 Novembre 2019
Indexation Google refusée Crawl et indexation Google, sitemaps 23 Novembre 2019
Comment apparaitre sur Google Discover Référencement Google 20 Novembre 2019
Url anormal 404 Google Analytics Google Analytics 20 Novembre 2019
Google rachète CloudSimple Google : l'entreprise, les sites web, les services 19 Novembre 2019
Testeur Neilpatel : nb de visites TRES différent de Google Analytics Référencement Google 18 Novembre 2019
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice