Nouveau WRInaute
Bonjour,
Pour un nouveau site mis en ligne le 2 mai, j'ai d'abord décrit la Propriété en HTTP dans la Search Console (j'avais un PB avec un menu déroulant qui ne fonctionnait pas en HTTPS).
2 jours plus tard mon PB de menu étant réglé, j'ai décrit une nouvelle Propriété en HTTPS dans la Search Console
J'ai activée la redirection 301 avec le plesk de l'hébergeur.
J'ai placé 2 sitemap : un décrivant les pages http et un autre décrivant les pages https
Mon fichier Robots.txt renvoie vers le sitemap qui décrit les pages https
Du coup finalement, je me dit que mon sitemap en HTTP, ne sert à rien, puisque le fichier ROBOTS.TXT invite les robots à visiter le Sitemap version HTTPS
Dans la Propriété en HTTP dans la Search Console, je vous que 12 URL sont exclues, car en double (non canonique) et il y a une page validée qui est la page : http://monsite.fr /index.html
Ceci me semble bizarre.
Dans la Propriété en HTTPS dans la Search Console, évidement il y a 12 URL validées et il y a une page exclue qui est la page : https://monsite.fr /index.html
Je pense qu'il y a là un problème dans l'indexation, généré par les fichiers ROBOTS.TXT et les fichiers SITEMAP
Si je fais une recherche Google sur :
site:www.mail-migennes.fr
cela me donne bien la liste de toutes les pages du site indexées dans Google.
Par contre, l'indexation s'arrête là, puisque même une recherche sur "mail-Migennes" qui devrait me renvoyer au moins la page Index du site , n'affiche rien qui soit sous le nom de domaine "mail-migennes.fr"
Je n'ai pas de message de Google signalant un problème éventuel, rien dans opérations "manuelles"
Les pages sont bien visibles comme indexées dans la Console Search Google
Je me demande qu'elle est la règle concernant le fichier ROBOTS.TXT, en cas de redirection 301, faut-il indiquer dans le fichier ROBOT.TXT un sitemap en HTTP ou un sitemap en HTTPS ?
Merci de votre aide.
Cordialement,
Pour un nouveau site mis en ligne le 2 mai, j'ai d'abord décrit la Propriété en HTTP dans la Search Console (j'avais un PB avec un menu déroulant qui ne fonctionnait pas en HTTPS).
2 jours plus tard mon PB de menu étant réglé, j'ai décrit une nouvelle Propriété en HTTPS dans la Search Console
J'ai activée la redirection 301 avec le plesk de l'hébergeur.
J'ai placé 2 sitemap : un décrivant les pages http et un autre décrivant les pages https
Mon fichier Robots.txt renvoie vers le sitemap qui décrit les pages https
Du coup finalement, je me dit que mon sitemap en HTTP, ne sert à rien, puisque le fichier ROBOTS.TXT invite les robots à visiter le Sitemap version HTTPS
Dans la Propriété en HTTP dans la Search Console, je vous que 12 URL sont exclues, car en double (non canonique) et il y a une page validée qui est la page : http://monsite.fr /index.html
Ceci me semble bizarre.
Dans la Propriété en HTTPS dans la Search Console, évidement il y a 12 URL validées et il y a une page exclue qui est la page : https://monsite.fr /index.html
Je pense qu'il y a là un problème dans l'indexation, généré par les fichiers ROBOTS.TXT et les fichiers SITEMAP
Si je fais une recherche Google sur :
site:www.mail-migennes.fr
cela me donne bien la liste de toutes les pages du site indexées dans Google.
Par contre, l'indexation s'arrête là, puisque même une recherche sur "mail-Migennes" qui devrait me renvoyer au moins la page Index du site , n'affiche rien qui soit sous le nom de domaine "mail-migennes.fr"
Je n'ai pas de message de Google signalant un problème éventuel, rien dans opérations "manuelles"
Les pages sont bien visibles comme indexées dans la Console Search Google
Je me demande qu'elle est la règle concernant le fichier ROBOTS.TXT, en cas de redirection 301, faut-il indiquer dans le fichier ROBOT.TXT un sitemap en HTTP ou un sitemap en HTTPS ?
Merci de votre aide.
Cordialement,