Iframe pour éviter l'indexation, mais non valide W3C

WRInaute occasionnel
Bonjour à tous,

Je dois cacher une petite partie des pages d'un site aux robots, et à ma connaissance, seule l'iframe le permet. Malheureusement, cette balise n'est pas valide w3c en xhtml strict. Ces conditions me sont imposées, il faut donc que je te trouve une solution avec ces conditions.

Avez-vous une idée ?
 
WRInaute discret
Bonjour, vous n'allez quand même pas me dire que vous n'avez pas pensé aus solutions suivantes:
1) dans le fichier robot.txt = Disallow: /Dossiers-A-Interdire ou Disallow: Pages-A-Interdire.html

2)Dans la balise meta = <META NAME=" Robots " CONTENT=" None "> ou <META NAME=" Robots " CONTENT=" NoIndex ">

3) Avec le fichier .HTACCESS pour protéger un dossier avec un mot de passe, pour contrôler l'accès à une page ou plusieurs pages, par redirections éventuelles.
 
WRInaute accro
Surtout qu'un fichier "inclus" dans une page via une Iframe sera indexé de façon autonome ...
Si c'est uniquement une partie d'un texte qui est à cacher, il faut utiliser le javascript. et encore, Google a fait des progrès, il paraît ...
Autre solution, créer une image contenant ce texte à "masquer" aux moteurs.
 
WRInaute occasionnel
viewinn a dit:
Bonjour, vous n'allez quand même pas me dire que vous n'avez pas pensé aus solutions suivantes:
1) dans le fichier robot.txt = Disallow: /Dossiers-A-Interdire ou Disallow: Pages-A-Interdire.html

2)Dans la balise meta = <META NAME=" Robots " CONTENT=" None "> ou <META NAME=" Robots " CONTENT=" NoIndex ">

3) Avec le fichier .HTACCESS pour protéger un dossier avec un mot de passe, pour contrôler l'accès à une page ou plusieurs pages, par redirections éventuelles.

Bien sur que si, mais le souci n'est pas d'interdire une page proprement dite. Pour être plus clair, il faut que l'on puisse cacher aux yeux des robots une portion de texte dans le footer d'une page, mais pas aux yeux des internautes (rien à voir avec une technique de triche pour le référencement, je vous rassure, la raison est complètement différente).
 
WRInaute discret
sunnmagic a dit:
Existe-t-il une solution pour Google ?
Très loin de moi l'idée d'être un expert mais ne pourrait-on pas grâce à un script
différencier un visiteur humain d'un robot ?
Puis, d'après le résultat présenter une structure de page différente à l'un et à l'autre ?
Je sais, ne ne fais qu'ajouter une question à la question... :)
Mais peut-être que le remède s'avère pire que le mal en terme de probité googlienne ? :roll:
 
WRInaute accro
WebRankInfo a dit:
bien sûr qu'il existe des rustines, mais pas de solution officielle comme avec Yahoo
et ça marche vraiment avec yahoo ? car l'interdiction de la totalité d'un domaine avec robots.txt n'empêche pas y! de continuer à afficher le ndd :evil:
 
Discussions similaires
Haut