Etrange probléme 403 http header sur la home page

Nouveau WRInaute
Bonjour, depuis deux semaines j'aissai de comprendre pourquoi sur la home page en faisant un crawl avec un http header par exemple sur https://headers.cloxy.net j'obtient un 403 forbidden, attention seulement sur la home page alors que la page existe, sur google webmaster voir comme google j'ai un header http 200 mais comme je l'hai dit sur une simulation j'ai toujours une erreur 403 comment est possible, ce qui est étrange c'est que c'est le deuxième héberger que je change ou la home page me donne un erreur 403, sauf chez OVH la j'ai pas de souci j'ai un code 200 c'est qui est correct. Les deux cas ou il y a le problème sont des hébergements cloud managed, chez ovh mutualisee performance 4. C'est n'est pas un problème de htacces ni de robots.tx, c'est pas un problème de CMS car je vient de faire un essais sans rien dans le dossier racine, j'ai mis un dossier come racine du site avec un rederict mais rien a faire sur le nom du domaine.com il y a un erreur 403 si je simule un crawler, mais pas sur une page exemple: domaine.com/index.html ou domaine.com/images.com.

L'hebergeur dit qu'il bloque pas google et que s'il y avait un problème sur le serveur, beaucoup se serait plaint, de plus il a parler Modsecurity que le problème c'est Modsecurity. Ces dernières sont générées parce que votre requête ne comporte pas de User Agent

Voila que penser de tout ça? selon vous ça peut nuire l'indexation de la première page? il y a moyen d'enlever ce 403 de la home?

Je vous met un lien ou on a pris un nom de domaine pour faire des essai ou il y a 5 file .user.ini, htaccess est vide, index.html et une image DSC-BGB0250.jpg.

https://horibaland(DOT)co.uk/ j'ai erreur 403 cote crawler
https://horibaland(DOT)co.uk/index.htm code 200 BON
 
WRInaute accro
La réponse de ton hébergeur est vraie :
Qmvyol9.png


Soluce: https://serverfault.com/questions/644490/mod-security-not-blocking-empty-useragent-requests
 
Nouveau WRInaute
Merci Spout, ça va être compliquer disons impossible de leur faire changer une règle sur mod-security,
mais il doivent avoir des millier de site qui sont dans le même cas que moi, ça nuit au référencement si la home reçois un 403 comme c'est maintenant?
 
WRInaute accro
J'ai testé sur d'autres sites infomaniak qu'on trouve facilement via le même footprint que le tiens, il semblerait que ça ne touche que les sites en HTTPS, à confirmer...

pf5GwB5.png


Les mêmes tests fonctionnent avec le UA de Google bot, donc il y a-t-il besoin de s'inquiéter ?

pHo6z8u.png
 
Nouveau WRInaute
Voici la réponde d'infomaniak
En effet, la configuration de nos serveurs exige que les requêtes dans les entêtes aient un user agent, ce qui n'est pas forcément le cas chez d'autres hébergeurs.
Il s'agit néanmoins d'un réglage à notre niveau que nous ne changerons pas car il renforce la sécurité au niveau de notre infrastructure.

Voila reste a savoir si c'est pas néfaste au référencement.
Si quelqu'un a une idée elle bienvenue.
 
Discussions similaires
Haut