Partage d'expérience avec les outils Google pour webmaster

WRInaute occasionnel
Salut à tous,

Je viens ici vous relater l'expérience que je suis en train de vivre avec les outils Google pour Webmaster.

J'ai eu la chance de pouvoir faire auditionner mon site par un SEO qui m'a quelque peu "cloué". Moi qui pensait que mon site était nickel et répondait parfaitement aux exigences de Google, j'ai du admettre que certaine de mes pages étaient référencées 3 voir 4 fois sous des url différentes.

Par exemple :
ma_page.com
ma_page.com/
ma_page.com.?set_language=fr

concernent une seule et même page que Google indexait 3 fois. Je nageais donc dans le duplicate content.

Mesures prises :
Création d'un robots.txt pour bloquer les mauvaises url.

J'ai aussi remanié une grosse partie du site en regroupant plusieurs rubriques dans une seule. Plus de 900 pages ont changées d'url suite à cette manip.

Et j'en arrive à mon expérience sur les outils Google pour webmaster.
Dans la rubrique " URL restreintes par un fichier robots.txt" je suis passé du jour au lendemain de 0 (javais pas de robots.txt) à plus de 3000.
Dans la rubrique "Introuvables" je suis passé de quelques unes à plus de 900.

Je me suis collé au nouvel outil de suppression d'url proposé par Google et avec beaucoup de patience et surtout de travail répétitif (je comprends pas pourquoi GG à besoin de mettre la racine du site en dur. Cela empèche de faire un simple copié collé de l'adresse à supprimer. Il faut la copier, la coller puis supprimer la racine du site à la main), j'ai supprimé plus de 2000 adresses (plus qu'un bon millier à traiter).

Donc, la suppression des pages est rapidement prise en compte, mais ne se fait jamais en une seule fois, dès que l'on dépasse les 100 urls. J'avais plus d'un miller de demande de suppression en cours, et chaque jour le chiffre diminuait de quelques centaines.

Le plus drôle, c'est que le nombre d'adresses restreintes et le nombre d'adresses introuvables ne suit pas, comme je le pensais, le nombre de suppressions. Ainsi, si vous avez 100 adresses restreintes et que vous les supprimez par l'outil de suppression, vous verrez GG prendre en compte votre demande de suppression, mais les 100 adresses rester en place alors que vous les avez supprimées.

Dans mon cas, j'ai donc supprimé plus de 2000 adresses, mais je n'ai constaté qu'une légère baisse des adresses introuvables et un quasi non changement des adresses restreintes.

Enfin, la commande site: m'indique toujours et exactement le même nombre d'adresses indexées… Comme si les suppressions n'étaient pas prises en compte.

Est-ce que d'autres ont des expériences similaires ?
 
WRInaute passionné
Re: Partage d'expérience avec les outils Google pour webmast

mackloug a dit:
Salut à tous,

Je viens ici vous relater l'expérience que je suis en train de vivre avec les outils Google pour Webmaster.

J'ai eu la chance de pouvoir faire auditionner mon site par un SEO qui m'a quelque peu "cloué". Moi qui pensait que mon site était nickel et répondait parfaitement aux exigences de Google, j'ai du admettre que certaine de mes pages étaient référencées 3 voir 4 fois sous des url différentes.

Par exemple :
ma_page.com
ma_page.com/
ma_page.com.?set_language=fr

concernent une seule et même page que Google indexait 3 fois. Je nageais donc dans le duplicate content.

Mesures prises :
Création d'un robots.txt pour bloquer les mauvaises url.

J'ai aussi remanié une grosse partie du site en regroupant plusieurs rubriques dans une seule. Plus de 900 pages ont changées d'url suite à cette manip.

Et j'en arrive à mon expérience sur les outils Google pour webmaster.
Dans la rubrique " URL restreintes par un fichier robots.txt" je suis passé du jour au lendemain de 0 (javais pas de robots.txt) à plus de 3000.
Dans la rubrique "Introuvables" je suis passé de quelques unes à plus de 900.

Je me suis collé au nouvel outil de suppression d'url proposé par Google et avec beaucoup de patience et surtout de travail répétitif (je comprends pas pourquoi GG à besoin de mettre la racine du site en dur. Cela empèche de faire un simple copié collé de l'adresse à supprimer. Il faut la copier, la coller puis supprimer la racine du site à la main), j'ai supprimé plus de 2000 adresses (plus qu'un bon millier à traiter).

Donc, la suppression des pages est rapidement prise en compte, mais ne se fait jamais en une seule fois, dès que l'on dépasse les 100 urls. J'avais plus d'un miller de demande de suppression en cours, et chaque jour le chiffre diminuait de quelques centaines.

Le plus drôle, c'est que le nombre d'adresses restreintes et le nombre d'adresses introuvables ne suit pas, comme je le pensais, le nombre de suppressions. Ainsi, si vous avez 100 adresses restreintes et que vous les supprimez par l'outil de suppression, vous verrez GG prendre en compte votre demande de suppression, mais les 100 adresses rester en place alors que vous les avez supprimées.

Dans mon cas, j'ai donc supprimé plus de 2000 adresses, mais je n'ai constaté qu'une légère baisse des adresses introuvables et un quasi non changement des adresses restreintes.

Enfin, la commande site: m'indique toujours et exactement le même nombre d'adresses indexées… Comme si les suppressions n'étaient pas prises en compte.

Est-ce que d'autres ont des expériences similaires ?

Pour les adresses introuvables, tant qu'il existe un backlink vers cette page, il n'y a pas de raison que cela change de mon point de vue (mais je ne suis pas google).
 
Discussions similaires
Haut