Nouveau WRInaute
Bonjour,

J'ai un site, réalisé sous prestashop, qui a été entièrement désindexé de Google (SEO).
Il n'y a pas d'instruction robots.txt ou meta robots indiquant cela.

De plus, Google Ads dit que les pages de destination sont inaccessibles.

Hors, le site s'affiche correctement : www.bamboo-concept.com

PS : il n'y a visiblement pas de problème de blacklisting (http://multirbl.valli.org/lookup/)

Quelqu'un a-t-il déjà eu ce problème ? Comment le résoudre ?

Merci
 
Nouveau WRInaute
SEMrush me dit :
IP addresses of Semrush Bot ( Site Audit ): 46.229.173.66, 46.229.173.67, 46.229.173.68

REQUEST:
curl -i -sS -L --proto-redir -all,http,https --max-time 5 -A 'Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)' http://www.bamboo-concept.com/

RESPONSE:
HTTP/1.1 403 Forbidden
Date: Tue, 01 Oct 2019 19:36:00 GMT
Content-Type: text/html; charset=utf-8
Transfer-Encoding: chunked
Set-Cookie: SERVERID102297=240127; path=/; max-age=900
Server: Apache
X-Powered-By: PHP/5.6
X-IPLB-Instance: 29004

Vous n'êtes pas autorisé à accéder à la page.​
 
WRInaute accro
Je pense que ça vient de ton robots.txt, c'est clairement une désindexation en masse.
Alors déjà... pourquoi avoir créer un répertoire "fr" ?
A ce que j'ai pu voir, ton site n'est disponible qu'en français non ? Donc que vient faire un sous-répertoire ?

Ensuite, tu as bloqué depuis le fichier robots, des urls genre http://www.bamboo-concept.com/?tag= alors que tu as déjà mis en place des R301.
Bref, je te conseille de revoir ses aspects techniques.
 
Nouveau WRInaute
Oui, c'est normal qu'il y ait beaucoup de fichiers non indexables. Car le site aurait dû être traduit en anglais mais ne l'a jamais réellement été, jusqu'à ce jour. J'ai donc mis tout le dossier /gb/ en noindex.

Cela n'est donc pas une raison pour désindexer tout un site.

Selon SEMrush, j'ai toujours cette erreur :

IP addresses of Semrush Bot ( Site Audit ): 46.229.173.66, 46.229.173.67, 46.229.173.68

REQUEST:
curl -i -sS -L --proto-redir -all,http,https --max-time 5 -A 'Mozilla/5.0 (compatible; SemrushBot-SA/0.97; +http://www.semrush.com/bot.html)' http://bamboo-concept.com/

RESPONSE:
HTTP/1.1 301 Moved Permanently
Date: Thu, 03 Oct 2019 16:16:16 GMT
Content-Type: text/html; charset=utf-8
Transfer-Encoding: chunked
Set-Cookie: SERVERID102297=240127; path=/; max-age=900
Server: Apache
X-Powered-By: PHP/5.6
Location: http://www.bamboo-concept.com/
X-IPLB-Instance: 29007
HTTP/1.1 403 Forbidden
Date: Thu, 03 Oct 2019 16:16:16 GMT
Content-Type: text/html; charset=utf-8
Transfer-Encoding: chunked
Set-Cookie: SERVERID102297=240127; path=/; max-age=900
Server: Apache
X-Powered-By: PHP/5.6
X-IPLB-Instance: 29000

Vous n'êtes pas autorisé à accéder à la page.​

Merci pour votre aide.
 
Olivier Duffez (admin)
Membre du personnel
plutôt que de tester avec semrush (qui semble interdit par ton serveur), teste avec l'inspecteur d'URL de la search console.
je viens de faire un test d'optimisation mobile et Google dit ne pas avoir accès à cette page. As-tu modifié ton fichier robots.txt récemment ? Es-tu certain de ne pas rediriger Googlebot sur ta version anglaise ?
 
Nouveau WRInaute
Pour ceux qui auraient le même problème, voici la solution, dans mon cas :
C'est le module Kbbuser qui bloquait l'indexation.
 
Nouveau WRInaute
Je n'en ai aucune idée. C'est mon développeur qui me l'a dit mais ... en recherchant "Kbbuser" dans les modules, je ne trouve rien.
 
Discussions similaires
Haut