Question à deux euros : ca vient de quoi ... ça ?

WRInaute accro
Hello

Alors jai un vieux problème mis à jour depuis plusieurs semaines mais Google ne veut pas corriger tout ca.

https://www.google.fr/search?hl=fr&q=sit ... N&filter=0

Voui voui... c'est bien toujours la mêm définition avec plusieurs dizaines d'urls différentes... url qui n'existent pas et n'ont jamais existé

Bon maintenant j'ai bien fait toutes les modifs, ca renvoit au bon endroit via une 301, mais ca n'a toujours pas supprimé les urls et ca reste un vrai bronx. Google ne compte pas ses pages inexistantes et ne semble pas affecter le site

Alors à l'origine en tapant n'importe kelle url, le site pouvait s'afficher, mais pk Google s'est amusé à bidouiller toutes les urls juste pour tester alors que ces urls là n'ont pas de lien... nul part

Enfin si vous avez une piste

Marchi

ps : et arretez de rire :)

Rajout : je viens de demander la suppression des répertoires concernés via Google Webmaster... j'avais pas fait encore
 
Nouveau WRInaute
Salut,

Tu vas me dire que je suis un fou mais... si tu mettais ça dans robots.txt du dossier concerné :

User-agent: *
Disallow: /tesdossier/ ( lexique et guide ou celui où il y le + de duplicate )

Ayant du duplicate voire "triplicate" pour certaines def, tu peux peut être te permettre ?
Ca ne pourra que faire du bien pour le site.
Ensuite, dès que le cache Google est propre, tu enlèves le robots.txt ?

?!? Ce n'est pas pour faire un test que je te dis ça. :lol:
 
WRInaute accro
ben le truc c que toute façon maintenant ca redirige... je pensais que ca serait suffisant... mais c super space surtout que pour certaines urls, ca me balance des fonctions mysql dedans

Là j'ai supprimé les répertoires concernés sur Outils pour Webmasters

Donc j'arriverais à les virer, mais je vois juste pas pk ca a existé ce truc
 
Nouveau WRInaute
Le problème c'est que même en passant par Webmastertools de google, ça va prendre un temps énorme pour désindexer tes pages inexistantes.
L'idéal aurait été de mettre le fichier robots.txt et balises meta noindex pour les calmer...
Comme ça va désindexer tes duplicates, plus aucun contenu ne sera dispo puis tu reviens en beauté comme si tu avais de belles pages jamais existantes mais ça aussi ça risque de prendre du temps et qui dit temps dit visiteurs et visiteurs = $ .
Comme je ne suis pas certain que ces pages ayant du duplicate attirent du monde de toutes façon... (google n'aime pas le duplicate mais tu le sais )
Elles seront là pour les visiteurs de toutes façon et vont revenir dans 3 ou 4 semaines en force et vont se faire indexer comme du contenu nouveau & original pour t'apporter du traffic par les moteurs de recherche.
Ca peut être intéressant.
J'aurais tenté moi.

A+
 
WRInaute accro
bon je viens de les coller en Disallow sur le robots.txt... pour le noindex j'aurais du mal, elles n'existent pas, elles ne ressortent pas dans les SERPs sauf quand je demande à voir les pages ignorées et n'amènent pas de visiteurs...

Google dit 3-5 jours... je retesterais à ce moment là
 
Nouveau WRInaute
La solution serait peut être de recréer tes dossiers physiquement sur le serveur, ensuite tu fais en sorte de récupérer tout ce qui peut arriver vers ce dossier, un peu comme une 404 mais avec un header 200 et là tu lui mets noindex dans le head et robots.txt ?

Un mec m'a collé env. 300 liens vers des pages inexistantes dans des dossiers inexistants, il a fait des liens sauvages depuis des pages bidon.
En plus c'était comme s'il m'avait créé des pages avec du viagra, truc machin ! Sans pour autant avoir de cache puiqu'elles n'existent pas :roll:
Du coup ça fait 3 ans que je me traine ça mais à l'époque j'avais pas réfléchi vraiment à la question, j'ai été dans webmastertools pour les faire désindexer mais elles sont tjs là en 404 sans qu'elles n'aient jamais existé donc je pense qu'il faut opter pour une solution radicale dans ce genre de cas.
 
WRInaute accro
arf... vais déjà laisser ca pour l'instant... la 301 a rien fait... entre suppression et Disallow... sinon ca fait un moment que je les ai aussi meme si je ne m'en suis apercu qu'il y a peu de temps
 
Nouveau WRInaute
301 ne suffit pas ( c'est peut être même mauvais ici ), ça se traine, il faut désindexer.
En plus, ça fera du bien à ton site.

Une fois j'avais fait ça, je te dis pas le résultat ;-)
C'est frais, ça respire le bonheur ( je m'égare ) et les moteurs adorent du neuf...
 
WRInaute accro
oui enfin je me vois pas créer des répertoires pour juste balancer une page pour dire de pas les indexer... la page existe pas, n'a jamais existé... je vais pas la créer pour dire de pas l'indexer... ca serait reconnaitre que j'ai merdé, et c pas le cas
 
Nouveau WRInaute
Oui... c'est pas vraiment une question d'avouer ou pas.
Je vois ça comme un truc qui est peut être possible d'améliorer pour gagner des visiteurs puisque tu abordes ça, c'est tout.
Maintenant, tu es seul maître à bord... ;-)

A+
 
WRInaute accro
finstreet a dit:
bon je viens de les coller en Disallow sur le robots.txt... pour le noindex j'aurais du mal, elles n'existent pas, elles ne ressortent pas dans les SERPs
Déjà que cela n'a pas de sens de mettre en même temps Disallow dans robots.txt et noindex dans la page... :wink:

Perso, je ne me casserais pas la tête et je n'aurais rien changé. AMHA, ce n'est pas pénalisant tant que tes 301 sont en place et, pour autant que tu élimines les erreurs PHP qui apparaissent dans certaines pages. Le reste, c'est le boulot de Google. Je ne vois pas pourquoi il te pénaliserait pour la situation actuelle. Quant aux internautes, ils se fichent de l'URL, tant qu'ils arrivent à la bonne page.

Jean-Luc
 
WRInaute accro
bah justement avant les 301, ca cassait les images de la page... donc moyen

Le truc en fait c que je m'en apercois là car je bosse sur 100 mots clés et que dans ces mots clés, y'en a plein qui se retrouve sur ces pages là
 
WRInaute accro
et bien Monsieur Google a supprimé tous les répertoires que je lui ai fais bouffé

Impressionnant. Il me reste encore quelques répertoires à faire sauter... en tout cas ca fait moins moche :)
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut