Une énorme connerie...

WRInaute discret
Bonjour à tous,

Je pense (à mon grand regret) remporter de loin la palme d'or de la plus grosse connerie qu'un webmaster puisse faire...
Pour la petite histoire, samedi je procède à la mise en ligne de la nouvelle version de mon site. 2h plus tard sans raison celui-ci est indisponible ainsi que l'accès au ftp (ca commence bien...).
J'envoie donc un mail à mon hébergeur sachant très bien que celui-ci ne pourra pas me répondre du week end.
Lundi, mon hébergeur me repond que le site était bien en ligne, c'est juste mon adresse IP qui était bloqué...
Bref, lundi soir je retourne faire quelques modifs urgentes sur le site et remet le reste au lendemain n'ayant pas beaucoup de temps.
Mardi en vérifiant les stats de la veille, je manque de m'étouffer car le trafic à été divisé par 5 et idem pour les revenus Adsense.
Mon petit coeur commence à s'agiter, et entre 2 réunions au boulot je procède à quelques recherches et là, tout d'un coup, la révélation et la crise cardiaque qui me guette de plus en plus....
Je découvre que le fichier robots.txt est celui de mon site de test qui contient :
User-Agent:*
Disallow:*

......................................HAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAA grosse grosse panique !!!
Je rentre le plus tôt possible du boulot (16h pour moi) pour modifier le fichier, il est 16h40.
Sur google webmaster, on m'indique que le dernier téléchargment du fichier à été fait Dimanche.
Forcément le fichier robots.txt ne peut pas être soumis comme un sitemap, google m'indique qu'il faut 2jrs d'attente entre chaque indexation.
En attendant, je vérifie mes liens et je me rend compte à mon grand desespoir que google m'a complètement supprimer et ne m'envoie plus un seul internaute...
Aujourd'hui Mercredi, je vérifie donc mon GG Webmaster et la ce c** m'indique avoir mis à jour mon fichier robot.txt il y a 22h (d’après mes calculs ca revient à Mardi 16h15 !).
Il faut donc que j’attende demain Jeudi pour qu’il prenne enfin en compte mon fichier 

Je sais pas les conséquences que ca peut avoir sur le référencement, si par exemple je vais perdre des positions sur mes mots clés etc….
La page d’accueil de GG Webmaster m’indique que mes pages sont toujours indexées (ce que je peux vérifier en utilisant site :www.monsite.com

En tout cas, c’est la catastrophe sur Adsense et idem sur mon compteur de visite….
 
WRInaute occasionnel
Marie-Aude a dit:
Sur quelques jours comme ça, ça revient très vite... c'est arrrivé à (presque) tout le monde ici

J'allais dire la même chose. Je ne vois pas pourquoi Google te déclasserait suite à une fausse manipulation comme celle-ci, c'est serait simplement idiot. Tiens-nous au courant.
 
WRInaute accro
misfu a dit:
Je pense (à mon grand regret) remporter de loin la palme d'or de la plus grosse connerie qu'un webmaster puisse faire...
:lol: Mais non t'est pas le seul rassure toi tu as de la concurence la dessus. Te bile pas ça va revenir très très vite ...
 
WRInaute discret
Merci pour vos réponses, ca me rassure "un peu" quand même, mais j'attend de voir ce que ca va donner....
Si ca vous amuse, taper dans GG "cours informatique" (ca doit être le seul mots clé qu'il me reste... :(
 
WRInaute discret
Bon, GG Webmaster à fait la mise à jour vers 11h et le fichier robots.txt est enfin pris en compte.
Je ne connais pas encore l'incidence que ca aura, mais je vous tiendrai au courant.
Sinon, j'ai remarqué que même maintenant sur pagerank.fr il ne trouve aucune infos sur "mon" site (misfu.com) selon vous c'est dû au problème de robots.txt ?

Enfin dernière question, penser vous qu'il y est des choses à améliorer ou modifier dans le SEO du site (liens pages, titres etc...) ou ca devrait bien passer pour google et ses animaux ?
Merci
 
Nouveau WRInaute
j'ai eu une alerte le 7/11 dans GWT pour un robots.txt mis par l'admin d'un site que je référence, on est le 15/11, GGbot n'est encore pas repassé. pffff
8 jours... wait & see :(
 
WRInaute accro
Attend quand même un petit peu avant de tirer des conclusions ;)
C'est sûr que pour un site pro, c'est jamais top, mais avec google, on a généralement pas d'autres choix que d'attendre (hors sujet : même pour avoir un nexus 4 :mrgreen:).

Tu as vérifié que tu avais bien tout remis comme avant ?
 
Nouveau WRInaute
totoro a dit:
La vrai question est qui n'a pas fait ce genre de "connerie" un jour ... :)

Moi j'avais fait encore mieux, je voulais supprimer un de mes sites. Le problème c'est que j'ai supprimé le mauvais site en me trompant de compte FTP. Et j'ai mis deux jours à m'en rendre compte :D. Heureusement que j'avais des sauvegardes.
 
Nouveau WRInaute
C'est clair qu'on a tous fait ce type d'erreur.. .
Moi j'avais une erreur PHP sur mon site sur toutes les autres IP que la mienne (je fais ça pour le débug) et du coup il m'a fallu un peu de temps pour m'en rendre compte.

J'ai vu l'erreur au bout de 48H car je faisais pas gaffe et c'est revenu assez vite...
 
WRInaute discret
Et bien ce problème fait suite à une refonte complète du site (rewriting des pages, ergonomie, optimisation...) et j'ai également revu la description et le titre de mes pages.... (j'ai lu ça ce soir : https://www.webrankinfo.com/dossiers/r-et-d/brevet-ranking-documents et j'apprend que c'est exactement ce qu'il ne faut pas faire, car le signal donné c'est qu'on a sur-optimisé ses pages...).
Et pour finir, je me suis rendu compte 1 mois après la mise en ligne de la nouvelle version (via google webmaster) que mes pages étaient référencées en triple en raison d'une erreur dans mon rewriting...
J'ai depuis 1 semaine demandé une suppression des pages en double et réalisé une redirection vers ma page d'erreur 404 pour tous les doublons.

Résultat :
- Le site est beaucoup mieux (plus rapide, ergonomique...)
- trafic divisé par 3...
- dans la m***
 
WRInaute accro
Disons que tu as un peu cumulé.... il faut y aller doucement avec Google.
Reste à stabiliser le site, d'une part, et à attendre, maintenant (enfin en vérifiant qu'il n'y a plus de conneries, hein...)
Avec un petit peu de référencement
 
Discussions similaires
Haut