Bonjour j'ai un site sous wordpress et j'aimerais que certaine catégorie et article de cette catégorie ne sois plus visible sur l'indexation de google.
Mais lorsque je tape site:example.com
la catégorie et les articles sont déjà indexé
je suis passé par un fichier example.com/robots.txt
avec cela comme contenu
User-agent: *
Disallow: /blog/
Disallow: /le-projet/
Disallow: /profil/
Disallow: /tag/
Disallow: /cat-1/
Disallow: /cat-2/
Disallow: /cat-3/
Disallow: /cat-4/
Disallow: /cat-5/
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
mais sans succès après 2 semaines
j'ai un peux investiguer sur le sujet et je suis tomber sur cette article
-> https://www.webrankinfo.com/dossiers/indexation/20-ans-robots-txt
et le points 2 indique cela ->
Si une URL a déjà été indexée par Google, alors la bloquer dans le robots.txt ne changera rien : en tout cas l'URL restera indexée. En effet, Google n'ayant plus l'autorisation de crawler la page, celle-ci ne sera plus crawlée et restera dans l'index telle quelle. Pour désindexer une URL, il faut autoriser son crawl et utiliser une balise meta robots noindex ou un entête HTTP X-Robots-Tag (ou bien, exception, aller faire une demande de suppression d'URL dans Google Webmaster Tools).
donc j'ai bien compris que comme la page est indexé mon fichier robots.txt ne prends pas effet
alors me reste 2 solutions
ou ajouter à mes catégories la balise meta noindex ou de supprimer l'url via GWT
la ou j'aimerais avoir plus d'info ce que si j'ajoute la balise noindex dans la catégorie,
cet règle prends en compte pour toutes les articles qui vont avec?
si c'est le cas c'est parfait
sinon je devrez aussi faire un noindex au articles ou passer par GWT?
Pouvez vous me donner plus d'info à ce sujet?
merci
Mais lorsque je tape site:example.com
la catégorie et les articles sont déjà indexé
je suis passé par un fichier example.com/robots.txt
avec cela comme contenu
User-agent: *
Disallow: /blog/
Disallow: /le-projet/
Disallow: /profil/
Disallow: /tag/
Disallow: /cat-1/
Disallow: /cat-2/
Disallow: /cat-3/
Disallow: /cat-4/
Disallow: /cat-5/
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
mais sans succès après 2 semaines
j'ai un peux investiguer sur le sujet et je suis tomber sur cette article
-> https://www.webrankinfo.com/dossiers/indexation/20-ans-robots-txt
et le points 2 indique cela ->
Si une URL a déjà été indexée par Google, alors la bloquer dans le robots.txt ne changera rien : en tout cas l'URL restera indexée. En effet, Google n'ayant plus l'autorisation de crawler la page, celle-ci ne sera plus crawlée et restera dans l'index telle quelle. Pour désindexer une URL, il faut autoriser son crawl et utiliser une balise meta robots noindex ou un entête HTTP X-Robots-Tag (ou bien, exception, aller faire une demande de suppression d'URL dans Google Webmaster Tools).
donc j'ai bien compris que comme la page est indexé mon fichier robots.txt ne prends pas effet
alors me reste 2 solutions
ou ajouter à mes catégories la balise meta noindex ou de supprimer l'url via GWT
la ou j'aimerais avoir plus d'info ce que si j'ajoute la balise noindex dans la catégorie,
cet règle prends en compte pour toutes les articles qui vont avec?
si c'est le cas c'est parfait
sinon je devrez aussi faire un noindex au articles ou passer par GWT?
Pouvez vous me donner plus d'info à ce sujet?
merci