Chute position et trafic

Nouveau WRInaute
Bonjour à tous,

Je gère le site de mon groupe : https://groupe-de-jazz.net. J'essaie toujours d'être au courant des changement d'algorithmiques sur google même si ce n'est pas mon métier et d'adapter mes sites en fonction.
En décembre dernier, j'ai décidé, suite à une formation Ranking Metrics, de passer de Http à Https avec le site précité. J'ai eu une grosse chute de positionnement depuis. J'étais toujours aux alentours de la position 15 en http et je suis aux alentours de la position 30 depuis le passage en https. Les demandes de devis s'en ressentent forcément...
Cette chute est elle un processus normal suite à ce passage de Http à https?
Je précise que je n'ai aucune action manuelle ou problème de sécurité.
En revanche dans la section couverture / page exclues j'ai un nombre de 233. Je ne sais pas si c'est bien ou pas bien. J'ai regardé ce que c'était et j'ai :
Voilà ma question :

Est ce que ces pages exclues et leurs problèmes respectifs sont préjudiciables à mon référencement/classement?

Cdt,

Stéphane
 
WRInaute discret
Salut,

BL = Backlinks, les liens d'autres sites vers des urls de ton site
Il faudrait à l'idéal que tous les anciens backlinks pointant vers la version http pointent maintenant vers la version https.

  • tous les backlinks étaient jusqu’à présent a priori des liens directs, de A vers B. Pour migrer, vous allez mettre en place une redirection 301 de chacune de vos pages HTTP vers son équivalent en HTTPS. Chacun de vos backlinks ne sera donc plus direct, mais indirect, de A vers B qui redirige vers C. C’est moins efficace qu’un lien direct, donc en théorie il faudrait contacter chaque webmaster pour qu’il mette à jour le lien : autant dire que ce sera rare…
 
Nouveau WRInaute
Salut,

BL = Backlinks, les liens d'autres sites vers des urls de ton site
Il faudrait à l'idéal que tous les anciens backlinks pointant vers la version http pointent maintenant vers la version https.

Bonjour,

Alors merci pour la traduction. Quand tes backlinks viennent d'autres sites, tu joins les gens pour leur dire de modifier ceux-ci? Ça se fait ça?

Merci
 
WRInaute occasionnel
Bonjour groupe all in jazz,

Je ne suis pas experte, mais je peux déjà t'affirmer que tu ne peux pas laisser toutes les erreurs relevées dans ton premier post, le site va être plombé petit à petit.

Tu as aussi une erreur serveur, par moment il met beaucoup trop de temps à répondre - je pense à cause du bidouillage qui a été fait pour le version mobile

Ton site semble tout de même bien rediriger le http vers https. Tu évoquais un pb de redirection donne un exemple sur ce que tu as et le resultat qui était attendu ainsi que le code correspondant à la redirection .

Pour tes backlink externe, pour l'instant tu ne t'en occupe pas, vérifie simplement que ces urls soient bien redirigées vers la même page en https. Une fois que tu auras corriger ton site tu pourras t'occuper des liens externes.

Dans google analytics et search console, verifie bien également que tu es sur la vue https et pas http, une erreur qui arrive fréquemment et trompe l'analyse.

Enfin, sur quel mot-clé as-tu perdu ton ref ?
 
Nouveau WRInaute
Bonjour Freestyle,

Merci pour ta réponse.

Mon site redirige bien vers le https, je n'ai pas vu de problèmes après en avoir testé un certains nombre...

J'ai bien 2 vues une http et une https. J'ai bien vérifié cela et vu descendre les page du http petit à petit et les problèmes arriver sur l'Https.

Comment as tu vu l'erreur serveur, celle qui apparement montre qu'il met du temps à répondre?
Je n'ai aussi pas fait spécialement de bidouillage pour la version mobile car j'ai un thème qui fait ca automatiquement...

Encore merci

Stéphane
 
Nouveau WRInaute
J'oubliais :
Concernant le classement et la chute. Ce n'est pas sur un mot clef précis mais par rapport à l'onglet position moyenne de la Search Console. Ce n'est peut être pas judicieux de penser comme ca?

Encore Merci

Stéphane
 
WRInaute discret
Ah, ça peut être une bonne nouvelle que ta position moyenne baisse, cela veut peut être juste dire que tu as plus de mots clés qui se positionnent dans l'index google et par conséquent ta position moyenne peut baisser.
Un exemple, si tu as un seul mot clé positionné en 1, alors ta position moyenne sera 1.
Si un jour tu en as un deuxième qui se positionne en 20, et que le premier reste en position 1, alors ta position moyenne passera à 10,5, mais cela ne veut pas dire que tu as perdu du trafic, bien au contraire !
Bon ce sont juste des exemples, le calcul est plus complexe que ça bien entendu mais c'est pour que tu comprennes le principe.
Est ce que ton nombre d'impression a augmenté en même temps que ta position a baissé ? Car dans ce cas, ça peut être une bonne nouvelle.
 
Nouveau WRInaute
Bonjour,

Merci de vos réponses.

Je comprends tout à fait ton histoires de nombres de mots de clefs en sus qui ferait baisser la moyenne...

J'ai comparé mes 3 derniers mois au 3 derniers mois avant de passer en https, c'est à dire septembre à décembre 2018 au trois derniers mois du moment.

25K impressions en http contre 20K en https
844 mots clefs en http contre 926 en https
381 clicks en http contre 406 en https
17,3 en position moyenne en http contre 29,7 en https

Plus de mots clefs et de clicks pour moins d'impressions et un classement beaucoup moins bon.
En revanche beaucoup moins de demande de devis malgré un nombre supérieur de clicks...

Ça me laisse pensif...
 
WRInaute discret
tu ressorts maintenant sur des kw (keyword=motsclé) pas forcement en adéquation avec ta thematique; Du coup tu as plus de visite mais pas forcement des demandes de devis ; il faut que tu regardes sur google analytic pour voir quels kw convertissernt et que tu travailles dessus
 
WRInaute occasionnel
Ce qui n'est pas normal c'est le changement d'indexation suite au passage en https. Normalement, cela se fait de façon transparente. Ici ce n'est pas le cas, il y a donc un problème quelque part que tu dois résoudre.

Quand as-tu fait ce passage ? Comment évolue ton trafic (perte ou hausse en %). Est-ce qu'il y a une possibilité que cette baisse coïncide avec le dernier update google ?

Pour la lenteur du serveur, je l'ai constaté en allant sur le dernier lien que tu fournis dans ton premier post. ça peut être juste passager, mais pour t'en assurer regarde dans google analytic > comportement > vitesse du site. Compare avant et après migration. Tu sauras si tu dois t'en préoccuper ou pas en fonction de tes observations.

Concernant la question initiale à savoir si tes pages exclues peuvent être préjudiciables; Selon moi, il est préférable de corriger ces erreurs que de les laisser traîner, cela va t'apporter une masse noire ou des pages zombies comme les appelles Olivier, qui sont d'une manière ou d'une autre néfaste pour l'expérience utilisateur et par conséquent au référencement.
 
Nouveau WRInaute
Bonjour à tous,
Meric encore de prendre le temps de répondre.

Freestyle : J'ai fait ce passage au 20 décembre 2018. Depuis le 10 janvier le nombre d'impression est en baisse.Le test de vitesse sur Analytics est plutôt bon, il me donne un résultat de 99 tout vert...

En re"manche depuis la mise à jour de Search Console, j'ai de nouvelles erreurs. 10 erurs dûs à des pages pages qui sont en No Index sur le site "URL envoyée désignée comme "noindex" alors que c'est fait exprès. Je comprends pas pourquoi il les considère en erreur alors que c'est volontaire...

ET 100 erreurs "L'URL envoyée contient une erreur d'exploration" et ce ne sont que des URL's d'images, exemples :
https://groupe-de-jazz.net/1-onj-300x271/
https://groupe-de-jazz.net/image-14/
https://groupe-de-jazz.net/location-orchestre-de-jazz/
Ce dernier redirige vers une image...

Compliquée l'histoire...
 
WRInaute discret
la position de google sur le no index ca te donnera une idee de pourquoi ca remonte en erreur :

"John Mueller et Gary Illyes ont discuté sur Twitter dernièrement de l'utilisation du "Noindex:" dans le fichier robots.txt. Rappelons qu'au jour d'aujourd'hui, cette fonctionnalité marche, mais elle n'est pas maintenue par Google et n'est donc pas recommandée. On n'a aucune visibilité sur son maintien à moyen et long termes. Gary a confirmé que cette syntaxe (dans le robots.txt bien sûr) pourrait disparaître d'un jour à l'autre car pour lui, elle n'était pas logique, la balise meta étant concçue pour l'indexation et le robots.txt pour le crawl, et qu'il n'était pas pour le mélange des genres. Et il conclut par : "si vous voulez visser une vis, prenez un tournevis, pas un marteau"...
Source Abondance
 
Nouveau WRInaute
la position de google sur le no index ca te donnera une idee de pourquoi ca remonte en erreur :

"John Mueller et Gary Illyes ont discuté sur Twitter dernièrement de l'utilisation du "Noindex:" dans le fichier robots.txt. Rappelons qu'au jour d'aujourd'hui, cette fonctionnalité marche, mais elle n'est pas maintenue par Google et n'est donc pas recommandée. On n'a aucune visibilité sur son maintien à moyen et long termes. Gary a confirmé que cette syntaxe (dans le robots.txt bien sûr) pourrait disparaître d'un jour à l'autre car pour lui, elle n'était pas logique, la balise meta étant concçue pour l'indexation et le robots.txt pour le crawl, et qu'il n'était pas pour le mélange des genres. Et il conclut par : "si vous voulez visser une vis, prenez un tournevis, pas un marteau"...
Source Abondance

Bonjour Wabstemer,

Merci pour l’information mais alors qu’elle est la solution si je ne veux pas que ces 10 pages soient indexées?
 
WRInaute discret
Euh... je comprends pas, comment gérais-tu ta non indexation avant de les avoir mis dans ton robots.txt ???
Le fait de les mettre dans le robots.txt est ce que déconseille Google.
Moi j'ai désindexé des pages en rajoutant dans les metas :
<meta name="googlebot" content="noindex">
La GSC m'indique ces pages en erreur mais je ne suis pas certain que ce soit problématique dans la mesure où c'est voulu... A confirmer par d'autres !
 
Nouveau WRInaute
Euh... je comprends pas, comment gérais-tu ta non indexation avant de les avoir mis dans ton robots.txt ???
Le fait de les mettre dans le robots.txt est ce que déconseille Google.
Moi j'ai désindexé des pages en rajoutant dans les metas :
<meta name="googlebot" content="noindex">
La GSC m'indique ces pages en erreur mais je ne suis pas certain que ce soit problématique dans la mesure où c'est voulu... A confirmer par d'autres !
Bonjour Buenahato,

Avant je le gérais via Yoast sur les pages que je ne désirais pas indexer. La j'ai simplement fait ce que m'indiquait Wabstemer dans le mail précédent :
"le robot txt
User-agent: * Disallow: /page-a.html"
 
WRInaute accro
Avant je le gérais via Yoast sur les pages que je ne désirais pas indexer. La j'ai simplement fait ce que m'indiquait Wabstemer dans le mail précédent :
"le robot txt
User-agent: * Disallow: /page-a.html"

Avec disallow tu agis sur le crawl du robot, pas l'indexation...
 
Dernière édition:
WRInaute discret
Encore une fois, je pense que le fait que ces pages apparaissent en erreur dans la GSC n'est pas un problème en soi si c'est voulu.
Tu devrais revenir à ce que tu faisais avant via Yoast qui devait à mon avis générer une méta no index plutôt que de passer par la méthode du robots.txt que déconseille Google !
 
Nouveau WRInaute
Encore une fois, je pense que le fait que ces pages apparaissent en erreur dans la GSC n'est pas un problème en soi si c'est voulu.
Tu devrais revenir à ce que tu faisais avant via Yoast qui devait à mon avis générer une méta no index plutôt que de passer par la méthode du robots.txt que déconseille Google !

Bonjour Buenahato,

Merci de ta réponse qui me pose donc un problème : Que dois je faire?
Ta réponse est logique suite aux infos glanées sur le net mais la GSC met quand même ces pages en erreur...

Dans tous les cas merci de ton aide
 
Nouveau WRInaute
Tes photos wp doivent etre attachées du coup tu te retrouve avec ce type de page
regarde ce topic : https://www.webrankinfo.com/forum/t/pages-impossibles-a-supprimer.195520/#post-1589548
c'est le meme type de probleme il me semble. tu peux le gerer facilement avec un plugin
Bonjour Wabstemer,

Effectivement , je pense que c'est un problème d'images non attachées a mes articles. Elles sont bien présentes dans des articles mais wordpress ne les a pas rattaché. Je ne sais pas pourquoi.

Alors si j'en supprime, il va y avoir des articles avec des images manquantes etc... Y'a t'il une solution autre sachant que je n'ai pas trouvé de plugin qui gère de ce problème?

Merci
 
WRInaute discret
Bonjour Wabstemer,

Effectivement , je pense que c'est un problème d'images non attachées a mes articles. Elles sont bien présentes dans des articles mais wordpress ne les a pas rattaché. Je ne sais pas pourquoi.

Alors si j'en supprime, il va y avoir des articles avec des images manquantes etc... Y'a t'il une solution autre sachant que je n'ai pas trouvé de plugin qui gère de ce problème?

Merci
yoast seo le gere il me semble
 
WRInaute discret
tu vas dans le menu de gauche seo puis réglage seo et enfin media et la tu tu devrais avoir un bouton, il faut cliquer sur oui. ensuite il restera a gerre les article ou il y a un attachement
 
Nouveau WRInaute
tu vas dans le menu de gauche seo puis réglage seo et enfin media et la tu tu devrais avoir un bouton, il faut cliquer sur oui. ensuite il restera a gerre les article ou il y a un attachement
tu vas dans le menu de gauche seo puis réglage seo et enfin media et la tu tu devrais avoir un bouton, il faut cliquer sur oui. ensuite il restera a gerre les article ou il y a un attachement
Merci
 
Discussions similaires
Haut