WordPress Indexation Fail de la page d'accueil

Nouveau WRInaute
Bonjour, j'ai un gros soucis d'indexation. :(

J'ai lancé un nouveau site lundi 25 février, https://www.fashion-skills.com
Le site est sous WordPress 4.7.8 en thème DIVI.
J'utilise Yoast pour le référencement.

Aussi l'ensemble de mes urls sont valides dans la couvertures à l'exception de 2; l'une bloquée au robots.txt donc normal et l'autre qui est la Home Page et qui n'est bloquée nulle part, ni de noindex.

En analysant la GSC, on m'indique une erreur d'indexation avec exploration refusée, bloquée par robots.txt y compris sur la récupération de la page.

Voici mon robots.txt :

https://www.fashion-skills.com/robots.txt

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-signup.php
Disallow: /assets/
Disallow:/redirect.htm*
Disallow: /non-classe/
Disallow: /2019/*

Sitemap: https://www.fashion-skills.com/sitemap_index.xml

J'ai beau cherché je ne trouve pas de réponse. Je requiert votre aide :)
Merci pour vos réponses:D
 
Olivier Duffez (admin)
Membre du personnel
En analysant la GSC, on m'indique une erreur d'indexation avec exploration refusée, bloquée par robots.txt y compris sur la récupération de la page.
c'est bien pour la propriété avec www en https ?
ça donne quoi l'inspection d'URL ?
Google a-t-il bien accès à cette URL aussi bien en mobile qu'en desktop ?
as-tu des stats dans le rapport de performances pour cette URL ? (ce qui prouverait qu'elle est bien indexée)
 
Nouveau WRInaute
Effectivement c'est pour la propriété en 3W avec https.
Côté inspection de l'url :
Capture2.png

Côté du rapport de performances, effectivement il y a des interactions.

Capture.png



Merci pour ton aide
 
Nouveau WRInaute
Hello, toujours pas de remontée dans la SERP, j'ai bien utilisé une demande d'indexation suite à l'inspection de l'URL, ma demande est toujours en cours de validation.

Le site du groupe skillandyou.com lui ressort parfaitement pour la requête Fashion Skills, c'est assez déconcertant surtout quand on détecte aucun problème particulier.
 
WRInaute occasionnel
aussi le certificat explose quand on stress a peine le site
et il y a plein de trucs foireux
essayer ce machin : xenu
Il aidera bien (on devrait toujours le passer sur les sites), il dépote comme les bot a trouvr les liens foireux et d'ou ils viennent
https://img.fashion-skills.com/ badaboum certificat
(ou oui j'avai parlé de sécurité de wordpress dans un autre post : https://img.fashion-skills.com/wp-content/uploads/sites/44/2019/02/MG_0447-300x200.jpg oulalla un wordpress avec un uploads standard... miam miam

Sinon c'est un peu beaucoup le merdier dans les cerificats https, pas sur que ca plaise au bot
 
Dernière édition:
WRInaute occasionnel
mais non.. je parle de vrais programmes, pas de merdouilles
https://en.wikipedia.org/wiki/Xenu's_Link_Sleuth
xenu c'est un truc qui va te montrer combien il est facile et rapide de crawler un site, même avec une connexion poubelle si tu programmes pas avec les pieds.
Tellement rapide que tout le monde voulait les sources de ce machin à la belle époque du c++ et ou on programmait les chaussettes directement, parsait la gramamire des sites web plus vite que tout. Quand le PHP est appru, environ personens ne croyait en un truc aussi pourri, qui a quand même un peu évolué depuis.

On ne va pas écrire un roman sur la sécurité, mais en 1 mot: quia le droit, qui a le droit, qui a le droit d'aller piocher poser des fichiers pour les transmettre au visiteueeueeur.... Pourquoi on fait, pourquoi on fait, pourquoi on fait des répertoires viruels dans les URLS tels que /img qui peut pointer partout ailleurs et surtout pas sur /img . Et bien et bien parce que le cher programme qui nous file les pages, au hasard apache, si on sait ou il accède comme un boeux pour retourner des images, on sait déjà ou on va utiliser le même programme apache par exemple, avec des suites de caractères alambiquées en unicode par exemple pour lui dire de poser un truc ou il a le droit (dans 70% des sites les droits appache ou de son groupe sont mal programmés). Nickel, on site ou . uploald . balançons une image qui en fait est du code php.
C'est une des pierres de le l'édifice. Elel attend son heure. et c'est nickel, un jour une autre pierre va finir le boulot. En 2012 ou 2010 je ne sais plus, une vieille faille qui permetttait de dire : extension jpg = demon php (un truc ahurissant par ce que ce principe de malversation était connu depuis plus de 10 et bien traité). Et la boum, des dizaines de milliers de serveur ou les personnes faisait /www.truc.com/merdouille/upload/image.jpg et le truc exécutait le contenu php
Pareil avec les log qui affichaient les stats den live; Jamais !!!!! Les personnes accédaient avec des champs referer qui contenaient de l'unicode PHP. Le bon gros script bourraient le chanp referer dans les stats. Et en affichant les stats du sites ca exécutait le script par ce que lerenderer des stats voyait <?php ou du erle ou tout autre et il exécutait le bout de code.
Pareil, des guss arivent à armer des machines en bourrant des données dans le useragent d'uen query, ensuite s'ils savent ou sont tes logs, il retrouveront leur bour de code. pierre par pierre ton serveur tombe entre les mains des autres (d'ou l'intérêt aussi des hébergements nanagés, c'est leur métier, et il sauront gérer tout ca.) miam miam tous les trucs qui utilsient les machins par défaut
 
Dernière édition:
WRInaute occasionnel
Un petite exemple pour la route. J'ai vu de mes yeux vus, un système complet qui avait été installé sur un serveur l'air de rien, et qui affichait une fausse page de google account pour attraper des login. En plus la page une fois avoir attrapé le login redirigeait vers la page normal de google comme si on avait saisit une erreur avant. Bravo, vraiment bravo aux créateurs, il a fallu que des personnes qui ont passé vraiment beaucoup de temps pour voir comment ils on fait au début (une fois quils ont la main, c'est mort il y en a de partout, mille trucs pour revenir par toute les portes imaginables) et la technique qu'ils ont utilisé pour armer leur truc est restée inconnu. Au passage bravo a ce groupe espagnole pour la technique.
Donc non, simplement avoir un répteroire /log est très dangereux.
Autre exmple, répertoire connu = partout ou les botes cherches les noms de fichiers standards renommés en .old .1 .2 .bak .... Merci le serveur web d'afficher tout ca en clair. Beaucoup d'informations apparaissent- le code source d'un site ...
 
Dernière édition:
Discussions similaires
Haut