Problème d'indexation, Sitemaps non lus et baisse drastique du référencement/trafic

Discussion dans 'Débuter en référencement' créé par Narisuke, 22 Mars 2019.

  1. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Bonjour à tous et merci d'avance pour votre temps.
    Cela fait un petit moment que je n'étais pas venu sur WRI. J'espère que vous allez bien !

    J'ai actuellement un gros souci d'indexation sur mon site internet ( https://www.actugaming.net/ ) et malgré de nombreuses recherches, améliorations et modifications, je ne trouve pas de solution. Je me tourne donc vers vous !

    Pour faire simple côté présentation, le site tourne autour des 700.000 pages vues par mois et avec de nombreux articles par jour (+15, c'est un site d'actualités). Il est donc important si ce n'est vital que l'on reste rapidement indexé...

    Depuis le 11 mars, le site rencontre cependant un gros problème. Jusqu'à présent nos articles étaient référencés et indexés régulièrement en première page et cela, quasiment dans la minute qui suivait (parfois 15 à 20 minutes mais c'était souvent très rapidement).

    Néanmoins, depuis ladite date, la plupart des pages ne sont plus indexées ou quand elles le sont, c'est longtemps après ou très mal référencé...
    Ce qui fait que le trafic a énormément baissé et l'audience venue des recherches Google a drastiquement diminué. Sans compter bien sûr le fait de perdre en motivant de ne pas voir apparaître nos articles dans nos recherches Google.

    De mon côté, j'ai quelques pistes et essayé plusieurs choses :

    1. Renvoyer les sitemaps (que nous avons en sitemap_index.xml avec Yoast SEO, module pour WordPress). La dernière lecture remonte du... 11 mars !?
    2. Vérifier si aucun changement majeur (le Robots.txt est bon, le .htaccess n'a pas été modifié, pas de noindex ou de coquille faite sur les articles...)
    3. Nous avions plusieurs problèmes de performances, connus depuis des lustres. AMP et vitesse notamment. Nous avons donc énormément travaillé dessus depuis le 11 mars. Enlevé l'AMP par exemple qui renvoyait souvent des erreurs, et améliorer beaucoup la vitesse du site. On avait espéré que le problème vienne de là mais aucune amélioration au niveau de l'indexation depuis.

    L'indexation du site est aujourd'hui toujours très mauvaise - soit inexistante - soit lente, le référencement en a pris un coup, et j'ai un peu de mal à trouver des solutions ou ne serait-ce qu'une piste.. Le trafic a pas mal chuté alors forcément, comptez mes inquiétudes pour un taux de pages vues aussi important (en tout cas, à notre échelle).

    J'ai un peu de mal à comprendre pourquoi nos sitemaps ne sont plus lus sur la search console par exemple, ou pourquoi cette disparition si soudaine et quasiment complète de Google. Depuis le 11 mars, il n'y a peut-être que quelques articles qui remontent sur Google (1% peut-être ? Contre un 100% auparavant).
    Pourtant la search console ne m'indique aucune erreur non plus...

    Si vous avez une idée, ce serait génial !

    Merci beaucoup pour votre temps.

    Un WRInaute désespéré
     
  2. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    18 875
    J'aime reçus:
    272
    Il faudrait faire un audit technique avancé pour s'assurer qu'il y a vraiment pas de pb de ce côté. J'ai vu que tu as lancé RM Tech et qu'il a trouvé plein de problèmes (pour ceux qui ne connaissent pas, voir ici un exemple de rapport PDF). ça n'est peut-être pas la raison, mais tant qu'il y a des choses (repérées) à corriger, ça me semble logique de dire qu'il faut à tout prix les corriger.

    Sinon, ça peut aussi être lié à l'update de mars 2019, une sorte de "perte de confiance" (de Google envers ton site), un peu comme quand on perd les étoiles d'avis dans les SERP (alors qu'on a toujours le marquage dans le code).

    Bon courage
     
    MartinR apprécie ceci.
  3. Jeanne5
    Jeanne5 WRInaute occasionnel
    Inscrit:
    4 Juillet 2013
    Messages:
    374
    J'aime reçus:
    17
    Bonjour

    En attendant tu peux toujours pousser l'indexation des articles dans la Search Console, ils seront vite indexés... même si ce n'est pas une façon "normale" de faire.
     
  4. eldk
    eldk WRInaute discret
    Inscrit:
    23 Juillet 2003
    Messages:
    123
    J'aime reçus:
    11
    #4 eldk, 22 Mars 2019
    Dernière édition: 22 Mars 2019
    MartinR apprécie ceci.
  5. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Merci à tous pour vos réponses, vous êtes géniaux ! C'est vraiment chouette comme endroit ici ! :)

    Pour vous répondre à tous :

    @WebRankInfo : Concernant l'Update, il me semble que cela concerne majoritairement le secteur médical. Hors, on est sur le JV, donc assez loin.
    Pour l'audit, effectivement, on va pousser ça un peu plus loin. Mais l'on est conscient des soucis majeurs (optimisations, vitesses, scripts JS et certains articles un peu en deça niveau qualité, expliqué par le fait que ce sont des brèves). Je doute cependant que le problème soit ici.

    @Jeanne5 En effet ! C'est ce que je fais. Malheureusement, ce n'est pas toujours indexé, et étant un média, c'est compliqué de suivre tout.. :/

    @eldk Je transmets à mon équipe technique pour vérifier les MàJ et les logs serveur. Concernant la mise à jour Yoast, on est passé premium il y a peu et tout est à jour.

    Merci, on continue de scruter ! C'est compliqué de voir son trafic chuter drastiquement sans comprendre et de publier des articles qui ne remontent pas sur Google...

    Est-ce qu'il est possible que Google est totalement arrêté d'indexer suite à des soucis de vitesse, optimisation et erreurs AMP ? Le site n'est pas parfait, mais je trouverais ça dur (limite cruel) de passer à une indexation éclair... à plus rien :/

    Merci encore !
     
  6. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
    Gogole est TRES cruel...
    Dans le doute, corrige...ne reste pas dans le deni
     
  7. rollback
    rollback WRInaute occasionnel
    Inscrit:
    5 Novembre 2018
    Messages:
    435
    J'aime reçus:
    44
    le search console dans ce type d'activité (je vais me faire des amis), aucun intérêt. C'est loose et pas du tout réactif. Je me demande même comment on peut penser un quart de seconde que quand on dit être dans le crawl google d'environ toutes les 2 ou 3 minutes on regarde ce truc.
    Les outils trucs et bidules, pareil, ils tape dans des "vieilles données".
    Le seul et unique endroit ou on a tout, en live, c'est les logs serveurs !!!
    Et pour rester dans du crawl rapide, il faut fournir des données , et pas des données qui mettent trois jours a s'afficher, et pas du code javascript truc merdique alambiqué : il faut que le bot passe, et trouve du contenu (allez un début de solution : toujours au même endroit dans chaque page de news)
    Du coup, un sitemap, débile, il bougerait en permanence.
    La solution pour informer les crawler a fond les manettes de nouveauté !!! $$$$$$$$$$$$$$$$$$$$$$
    Et pourtant si on sait lire ma ligne au dessus, elle est écrite.

    Aussi, c'est étonnant de lire cette question dans un forum. J'ai peut être mal vu le chiffre
    700 000 pages vus. En général, la profondeur de visite d'un site est disons de 3 pages (peut être plus dans ce cas je ne sais pas) : 700000/30/3 environ 8000 par jour. Ok c'est assez gros déjà. Par expérience ça représente des sites ou on a environ 30 visiteurs actifs différents sur un site en permanence.
    L'air de rien, (pour ceux qui n'ont pas l'habitude), si on log juste l'ip, l'url, le host (parce qu on a plusieurs serveurs pour supporter tout ça) et quelques broutilles (pas trop sinon c'es ingérable) type useragent, ca fait des logs visiteurs tellement gros qu'on est obligé de faire un système (courant) de rotation des fichiers logs parfois par demi journées, sinon ils sont trop gros pour être lus par exemple avec le notepad (on utilise biens pas le notepad pour les analyser)

    La search console, ils auront toujours ce qu'on veut bien leur donner ou pas.

    Ce long message pour dire que gérer ces sites, demande un peu quand même de technique, de connaissance du wouaib, et c'est étonnant de voir une question de ce genre.

    Résumons : dans ce cas, avue d'oeil, le search console, osef, la rapidité est primordiale, le nouveau contenu est primordial, il faut informer des nouveautés par les canaux rapides d'information des nouveauté.
    C'est un honneur que le méchant google passe sur nos sites / nos canaux d'informations en permaence, il ne le fait pas forcément, même avec ses moyanes sur tous les sites, il faut donc pour ne pas descendre est toujurs en mesure de répondre à lui et surtout à nos clients plus vite que les autres
     
  8. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Hello @rollback et @Furtif !
    Merci pour vos messages, ça fait plaisir de voir des réponses et du soutien.

    Pour rebondir à ta remarque sur notre audience, effectivement, elle est pas mal, mais nous avons tout monté nous-mêmes, notamment en apprenant sur le tas. Nos développeurs ont tenté de résoudre les soucis d'indexation et de trouver une source pour le problème mais rien n'y fait, donc pour ça que je poste ici... Et je fais bien, vous êtes vraiment prêt à répondre c'est chouette !

    On a donc bien corrigé beaucoup d'aspects, la vitesse a été énormément améliorée, les articles sont bien références et l'on continue d'optimiser nos 19.000 et quelques articles... Oui, c'est beaucoup. Mais l'on continue à tourner également en nouvelles publications (selon l'actualité, 10 à 20 articles / jour).

    Je pense donc qu'il y a bien ces nouveaux contenus pour les canaux dont tu parle, sans compter l'optimisation de la vitesse. Plus aucune erreur d'ailleurs sur la search console.

    Ceci dit, je note à nouveau que le site était loin d'être mal optimisé, il y avait des soucis mais de là à nous "blacklister" et à arrêter de nous indexer.. Soit, Google est cruel comme dit plus haut. Mais là, on est clairement sur une base loin d'être mauvaise.

    J'espère que nos améliorations vont servir à quelque chose.. Même si selon vous cela vient des perfs et du manque d'optimisation, je n'exclu pas d'autres possibilités.. Alors si vous avez d'autres pistes ou idées... Je suis preneur (ou un moyen de trouver les erreurs)

    Encore merci !
     
  9. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
    21/100
    https://developers.google.com/speed/pagespeed/insights/?url=https://www.actugaming.net/&tab=mobile

    308 requetes sur l'accueil, y'a du boulot..resultats mediocres
    https://gtmetrix.com/reports/www.actugaming.net/vvSC3OOs

    34 scripts, 7 fonts, 13 css....

    Il est loin d'etre optimisé,
     
    #9 Furtif, 24 Mars 2019
    Dernière édition: 24 Mars 2019
  10. rollback
    rollback WRInaute occasionnel
    Inscrit:
    5 Novembre 2018
    Messages:
    435
    J'aime reçus:
    44
    et wordpress c'est ne brouettte. Du coup rien pour sa db, il faut un serveur dédié juste pour lui, et pas un serveur a 10 km des fronts. Trop lent, trop lent
    L'expérience utilisateur est très bonne, mais le loadpage sort en 10 secondes !!
    En plus forcément pour ce type de sites, il y a une des quantites astronomiques de scripts qui partente en permanence pour suivre en live qui est sur le site, qui fait quoi, les pages qu'ils visitent....
    La ce n'est pas j'accepte les cookies c'est j'accepte toutes les 3 secondes un script js qui suit mon activité sur le site, me bourre des cookies, et upload en permanence des trucs, des marqueurs de pub.
    Au cas ou, mon browser est parti en vrille 2 fois en allant sur ce site.
    Pas la peine de chercher le problème, il y a tellement de scripts de tracking du style : dans le site on place 4 lignes javascript et à l exécution le truc (comme le fait google) balance 20 k de javasctipt qui font 3000 hooks sur les requêtes . Multiplié par le nombre de bidules de 4 lignes qui font 3000 hooks, ca fait dans un browsers 3000^10 hooks de hooks de hooks de hook : qaund ca fonctionne parce que les guss qui ont fait leur 20k de javascript, ils l'ont obfusque, crypte et toutes les fonctions de tous ces bidules 'appellent a b c. Une ou deux variables globales programmées comme des porcs dans un module et boom !
    Tous diront , mais non mon jascript fonction sur ie2, opera1, iphone50... Sauf que si jamais, sur ce site mon brouser firefox a affiché 2 fois zut.... une autre fois il a figé

    Il va falloir choisir/trier entre tous ces javascripts. Ca rend le site tributaire de trucs sur elsquels on n'a pas la main
    Il faut un loadpage de < 2.5 s
     
  11. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Merci @rollback et @Furtif encore une fois
    Donc vous pensez vraiment que ce sont les perfs qui auraient impactés l'indexation ?

    De notre côté, c'est donc la 3ème mise à jour que l'on a déployé sur le site (la troisième vient juste d'arriver et c'est la plus importante que l'on ait déployé). Lazyload, script en moins ou qui charge en dernier, etc.. en tant qu'utilisateur, on sent clairement une différence. Les sites d'analyse (pingdom, gtmetrix, google...) un peu moins... pourtant y'a clairement un gain de rapidité...

    On bosse encore dessus évidemment pour viser un meilleur score. Cela devrait être fait dans la semaine même s'il y a beaucoup de choses que l'on aura du mal à virer ou opti...
    La plupart des sites sur le même secteur que nous (Gamekult, Jeuxvideo.com) n'ont pas des scores bien terribles non plus.

    Même en étant loin d'être opti (et avant la mise à jour de cette nuit), les deux sites ici mentionnés, qui tournent à des millions de visites par mois, ont des scores même inférieurs au notre. C'est pour dire ^^'

    M'enfin, ne soyons pas là pour comparer, si on peut faire mieux que ceux là, c'est tout bénéf pour nous.

    Maintenant que l'on a corrigé pas mal de soucis, notamment l'AMP qui ne ping plus d'alerte, et gagné un gros gain de temps (en mettant dans la balance le fait que l'on continue d'améliorer un peu ça tous les jours), vous pensez que cela peut prendre combien de temps pour que Google nous.. détecte et indexe à nouveau ? Et si cela ne venait pas des performances mais d'autres choses ? Nos sitemaps ne sont toujours pas exploré depuis le 11 mars par exemple...

    Merci, grâce à vous, je me dis que l'on voit peut-être le bout...
     
  12. rollback
    rollback WRInaute occasionnel
    Inscrit:
    5 Novembre 2018
    Messages:
    435
    J'aime reçus:
    44
    prenons pingdom, la version pro (sinons ca sert pas à grand chose)
    A la base il peut faire juste du ping (en gros, on a pas besoin lui pour ça, il suffit d'avoir un compet sur un CDN et de poser trois lignes de codes qui ping nos url dans le monde).
    Bref ca dépend d'ou viennent nos visiteurs. Si tout vient de france, pas besoin d'un CDN, un démon / service suffit sur un serveur pour balancer des ping et nous laerter quand ils mettent trop de temps.
    Mais la version pro peut faire plus = placer des sondes tels que la présence dune mot dans une page quand il la check.. avec des alertes ... Et la sans eux ou d'autres services, à moins d'avoir des firefox partout dans le monde (si on travaille dans le monde) ou juste un en fr pour voir régulièrement et automatiquement si le site répond dans un temps donné, c'est compliqué.
    En plus, il faudrait (impossible) sonder avec en gros une sorte de config client.
    Donc : pingdom ou autre nous sort le loadtime en live et nous balance même des SMS quand il y a problème. Problème c'est une attaque plus forte que la routine des attaques, un hébergeur qui foire...
    Pour les sites à très gros/gros traffic ou qui doivent sortir des trucs importants , dans la minute (voir moins), il y a alerte !! L'impact est lourd, parfois pour le SEO, pour les campagnes adwords qui continuent de faire casquer et qui relient un truc qui ne peut plus convertir. On rebalance vers une solution de secours qui marche, et "tranquille" (c'est un mot léger face à la réalité) on intervient.

    Et le SEO dans tous ça. Prenons google; Lui même (il y a des cartes) est confronté à des lenteurs dans le monde (on ne s'en rend souvent pas compte, et c'est moins le cas dans nos régions).

    Bref, si on balance des articles souvent, forcément le sitemap est généré à la volée; Savoir s'il est vraiment visité, c'est uniquement dans le log qu'on peut le savoir. C'est quand même compliqué, il faut surveiller toutes les ip des passages de google et le useragent (sauf à supposer que le useragent est vraiment googlebot et que ce n'est pas le clown d'à coté qui signe aussi gogolebot.). Tout cela reste des sondes et typiquement , le champ useragent est toujours rempli de daube.
    Google ne fournissent pas les IP de leur bot, reste ceci
    https://support.google.com/webmasters/answer/80553?hl=fr

    Oui mais si chaque fois qu'on a un visiteur, on fait une requête DNS pour savoir s'il l'ip est celle de googlebot, le site mettra 20 secondes pour répondre.

    Donc, si vraiment on est intéressé par le sujet, il faut parser ses logs, extraire les IP, faire une requête DNS pour voir si l'ip est bien celle de google bot et on obtient la visite réelle de google sur nos pages et ce qu'il fait.

    Donc on fait comme google, on stocke les données des visites dans des bases de données. On passe des moulinettes la nuit si vraiment on veut savoir...;

    Ne pas répondre avec du frais, vite plusieurs fois de suite est impactant pour le SEO
     
  13. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
    ----------------------------------------------------------------------------------------------------
    This page is taking way too long to load.
    Sorry about that. Please try refreshing and contact us if the problem persists.
    ----------------------------------------------------------------------------------------------------

    Tu en doute encore ? faut faire quoi pour que tu comprennes ?....

    Si tu ne prends pas le taureau par les cornes et que tu ne te retrousses pas les manches ...
    [​IMG]
     
  14. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Effectivement je comprends les soucis de perfs. On est dessus là, on grapille des points jour après jour ^^
    Ceci dit, ça fait 4 ans que le site est tel quel, on a toujours été très bien indexé/référencé. Sur un média (suffit de voir les autres sites d'actualité JV) il est dur d'avoir un excellent score de toute manière (mais il peut quand même être amélioré)

    Quoiqu'il en advienne, le sitemap n'est toujours pas lu depuis le 11 mars, et j'ai quand même du mal à comprendre pourquoi :/
     
  15. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Tu as pu regarder / analyser le offsite ?
     
  16. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 760
    J'aime reçus:
    234
    Même sur les sitemap les perfs sont désastreuses, chez moi le sitemap_index.xml a mis près de 9 secondes à s'afficher, les autres ce n'est pas mieux.
     
  17. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Thx @spout et @NicolasH

    En fait, rien n'a vraiment changé en offsite, et tout ce qui était déjà présent avant. Tous nos articles référencés avant la date du 11 mars sont encore référencés, et positionnés au même endroit. Les liens qui pointent vers nous sont toujours bon, et il y en as des nouveaux.

    C'est vraiment à partir de la date que TOUS nos nouveaux articles ont arrêté d'être référencés. (Et qu'on a eu un souci de sitemap).

    Pour les perfs, oui, on est au courant, on travaille d'arrache pied depuis 10 jours dessus. Je sais, je le sais même très bien, c'est important, mais on a jamais eu des perfs incroyables (depuis plusieurs années), et on a pourtant jamais eu de souci. Alors pourquoi maintenant, alors que l'on améliore ça au fil des semaines. Un média spécialisé comme le notre est compliqué à optimiser, plusieurs de nos confrères et autres sites ont aussi du mal à optimiser.
    Cela n'empêche pas que l'on travalle encore aujourd'hui dessus. Mais est-ce que c'est forcément une question de perf le souci d'index et de sitemap ? Parce que, oui, peut-être, mais dans l'hypothèse que ce n'est pas le cas, faudrait voir si cela ne vient pas d'un autre souci.

    Ce n'est pas une question d'éviter le sujet des perfs, juste que je préfère ne pas fermer de pistes.

    Désolé pour toutes ces questions. Malgré de bonnes bases sur certains sujets, on nage complètement sur des soucis que l'on ne comprend pas (et que l'on n'arrive pas vraiment à cerner). Basculer du 'tout indexé" avec un référencement toujours bon à "que dalle", sans alerte, fait peur. Quand il s'agit de lenteur ou de soucis, cela était remonté sur la search ou dans nos logs, là ce n'était pas le cas
     
  18. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Et comment le savoir si tu résous pas le souci ?
    8.53S pour afficher un sitemap de 10 lignes ! c'est vraiment trop. Google n'a pas autant de patience que moi ;-)

    Le site est hébergé sur quelle machine ?
     
  19. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    @NicolasH Comment optimiser le temps de chargement du sitemap dans ce cas ?

    Celui-ci ne fait pas 10 lignes par contre, il s'agit d'un index, donc il est construit avec pas mal de sous dossiers.

    Côté machine, on est sur un dédié, 64 Go DDR4 / 3.7 gHZ (OVH)
     
  20. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Oui pardon : This XML Sitemap Index file contains 43 sitemaps.
    Mais ce fichier est juste une liste de 43 sitesmaps. Et meme les 43 sitesmaps doivent être rapides à charger.

    Il faudrait voir comment est foutue la bd (les indexes par exemple vu que tu as 64Go). Normalement WP doit gérer ça mais il y a p-e d'autres trucs qui ralentissent aussi (plugins par ex).
     
  21. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 760
    J'aime reçus:
    234
    :eek:
     
    Furtif apprécie ceci.
  22. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    @NicolasH Yep, merci ! On a déjà zieuté du côté de la BD, on continue de sonder niveau plugin...

    @spout que se passe t-il ahah ?

    Toujours rien ce matin, on a déjà perdu la moitié de notre trafic, l'inquiétude se fait gravement ressentir. On continue d'améliorer les perfs en attendant...
     
  23. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Petite update : on a encore gagné en temps de chargement et l'on vient de totalement modifier la structure du sitemap (désormais visible ici : https://www.actugaming.net/sitemap.xml )

    Côté vitesse, je pense qu'on est tous d'accord pour dire que c'est bien mieux...

    Enfin, on poursuit l'optimisation du site, mais on est clairement sur une vitesse d'affichage bien plus rapide (et meilleure désormais que certains de nos confrères/sites similaires qui n'ont aucun souci).

    J'espère qu'il y aura du changement parce que si ça ne vient pas des perfs, je suis perdu...
     
  24. spout
    spout WRInaute accro
    Inscrit:
    14 Mai 2003
    Messages:
    8 760
    J'aime reçus:
    234
    Clairement !
     
  25. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
  26. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Je parlais du sitemap @Furtif qui est quasiment instanné maintenant ^^
    Le site a un peu gagné. Le score GT/Google a pris une bonne dizaine de points/pourcentage mais la rapidité utilisateur a été améliorée x4.

    Maintenant, côté optimisation, y'a encore quelques petites choses à faire mais pas tant que ça... La marche de manoeuvre est réduite, on a beaucoup de beaucoup de choses pour tourner.
    J'ai déjà bossé sur plusieurs sites, réussi à atteindre des 90/100 et autre. Mais là, on est sur une autre structure et pas évident..

    J'aime pas me comparer, mais si tu compare le site à une dizaine d'autres sites sur la même activité, on est loin d'être catastrophique. La plupart ont même un score inférieur... Ca n'excuse en rien, mais je pense que faut pas seulement jurer sur les perfs (pas autant) pour toutes les situations :/

    Merci en tout cas pour les nombreuses réponses, on voit doucement le bout !

    Pour optimiser le sitemap, on a viré l'ancien en sitemap_index puis refait le sitemap actuel (en sitemap.xml tout court cette fois). Sur Google Search console, on a donc viré le _index et rajouté le nouveau. Ceci dit, vu que c'est un Index de Sitemap, il y a les autres sous sites map. Et même en indiquant le sitemap.xml, GSC détecte l'ancien contenu de sitemap_index.xml (qui est pourtant bien enlevé). Vous suivez ? Ahaha

    Du coup, vous savez combien de temps ça prend pour que cela re détecte comme il faut ? On a bien vidé les caches, changé la ligne dans le robots.txt etc... Et est-ce qu'on peut "forcer" la lecture ?
     
  27. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
    https://developers.google.com/speed/pagespeed/insights/?url=https://www.actugaming.net/&tab=mobile

    17/100

    Performance

    Metrics
    First Contentful Paint
    3.6 s
    Speed Index
    9.1 s
    Time to Interactive
    13.8 s
    First Meaningful Paint
    4.1 s
    First CPU Idle
    6.3 s
    Estimated Input Latency
    80 ms

    Bon, contre le deni j'abandonne...il n'y a pas plus sourd que celui qui ne veut rien entendre...

    J'adore ce genre de reponse... bref...
     
  28. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Bravo pour l'opti du sitemap mais le reste c'est vraiment trop lent et problématique pour GG et tes visiteurs.
     
  29. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    On va faire une grosse màj au cours d'une nuit ce week-end avec une bonne liste de correctifs.. On va essayer de diviser le temps par deux... Je vous tiens au courant début de semaine prochaine donc ! Plus d'excuse ou autre du coup

    Pour en revenir sur le sitemap, vous savez combien de temps met Google à détecter un nouveau sitemap ? Comme dit plus haut, nous avons complètement réorganiser le sitemap, et on l'a envoyé sous sitemap.xml et non sitemap_index.xml. Il est beaucoup plus rapide, fonctionne et il est à jour
    Par contre Google ne l'a toujours pas crawl malgré les pings
     
  30. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Et voilà, grosse mise à jour effectuée !

    Alors, Google indique toujours un score très moche (ils se basent pas aussi sur plusieurs jours ??), mais par contre, on a amélioré notre score sur GTMetrix et surtout le temps de charge. On est passé de 6.2s à moins de 1sec de chargement. 822ms pour être précis, et divisé par 2 le nombre de requêtes..

    Là, franchement, je ne sais pas quoi faire d'autres, surtout que en naviguant en tant que visiteur, on sent clairement un changement assez fou. Bref, on minimise certains fichiers et redirections ce WE mais le gros du boulot est fait ^^

    Si vous faites un test dans la journée/WE il est probable que ça ralentisse par moment, on a pas mal touché au serveur etc, et il arrive à quelques moments de la journée que le CPU surcharge à cause de tout ce qu'on lui a fait, mais, ça se calme, et cela devrait être bon bientôt.

    Bon, du coup, même si cela ne va pas se faire en 1 jours, je pense qu'on a mis un gros coup dans l'opti (y'avait masse à faire faut dire).
    Ceci dit, on a - à ce jour, aucun article indexé naturellement sur Google depuis le 11 mars. 18 jours, où quasiment 300 articles n'ont pas été référencés/Indexés (sauf avec soumissions via la SCG). On est donc passé d'une première page à quasi tous nos articles à rien...

    Je n'écarte pas les performances, mais si l'on part dans l'hypothèse que cela ne venait pas des perfs, avez-vous une idée ? est-ce lié au sitemap ? Lui qui n'a pas été lu non plus depuis le 11 mars ?

    Après tout, on a corrigé pas mal de choses pendant ces 2 semaines comme vous pouvez le voir dans ce post... Le sitemap est opti depuis plusieurs jours, on a viré pas mal de requêtes, le site est - pour l'utilisateur, vraiment plus rapide, on a (très) légèrement amélioré nos scores Google Insight et beaucoup nos temps de crawl par les autres outils...

    J'aimerais partir dans l'optique que "et si ce n'était pas les perfs' pour commencer à travailler sur d'autres sujets (tout en continuant à optimiser le site bien sûr !) Avez-vous une piste peut-être ? Ne serait-ce que pour le sitemap ?

    Plus j'avance, plus j'ai peur, le site risque purement d'être fermé après 5 ans d'activité si aucune solution n'est trouvé et on a tous un affect particulier au projet :/ On creuse on creuse, on espère trouver quelque chose :/ N'hésitez pas si vous songez à quelque chose :/
     
  31. Furtif
    Furtif WRInaute passionné
    Inscrit:
    9 Août 2005
    Messages:
    2 466
    J'aime reçus:
    136
  32. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Hello everyone

    Bon, on a divisé par 3 le temps de chargement d'une page, je vous laisse naviguer. l'Insight google donne encore quelques pistes mais on est loin des priorités de chargement du sitemap et côté serveur, plus qu'une question de minifier.

    On est même passer d'une seconde pour le load time d'une page, jetez un oeil. Vous pensez qu'il est toujours question de performances ? (fiez vous au temps de chargement d'une page et comparer par rapport à avant).

    Quoiqu'il en soit, le sitemap n'est toujours pas lu. J'ai plusieurs personne que j'ai rencontré qui ont exactement le même souci que moi, indépendamment de la performance (plusieurs profils, avec souvent des résultats insight meilleurs mais une vitesse moins bonne que mon site site, au final on a les mêmes soucis)
    C'est à dire, aucune indexation depuis le 11 mars, sitemap non lu.

    Personne n'a de piste ? C'est cool on a troué d'autres cas similaires, mais pas de solutions ahah

    Le seul point en commun, reste la date, les problèmes et l'utilisation de Wordpress et de quelques modules - qui, ont été désinstallé pour certains, réinstallé pour d'autres (et on a contacté les supports qui ne trouvent rien à redire sur 'leur' module).

    Si je trouve quelqu'un je préviens mais pour le moment c'est toujours la noyade
     
  33. NicolasH
    NicolasH WRInaute occasionnel
    Inscrit:
    4 Mai 2016
    Messages:
    294
    J'aime reçus:
    21
    Bonjour,

    Est-ce que les fichiers sitemap sont crawlés par Google (cf fichiers logs ou analyseur de logs) ?
     
  34. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Effectivement oui, ils sont crawlés dans les logs, mais rien de lu depuis le 11 dans la search console
     
  35. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Hello
    Dernière et ultime grosse mise à jour avant de sombrer dans la dépression. Toute la partie SEO a été revu,; on a viré le plugin, mis un nouveau, repassé sur tout
    On a également remis l'AMP avec une version IMPECCABLE et beaucoup de choses propres
    Et enfin, on a gagné en temps de chargement et vitesse du site

    Se baser sur insight semble ne plus vouloir dire grand chose : https://wp-rocket.me/blog/the-truth...ts/?utm_source=wp_plugin&utm_medium=wp_rocket

    Insight a beau m'indiquer un mauvais score, c'est quasiment le même qu'il y a 2 semaines. Sauf que. On est passé de 12.1 secondes de chargement sur Pingdom à <1 seconde. Bref ^^

    Je croise les doigts pour les énormes Màj Faites ce soir. Le sitemap n'est toujours pas crawl, rien n'est encore indexé.. On laisse quelques jours, le temps que le ping google fasse son effet

    Si d'ici là vous avez d'autres pistes...
     
  36. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Hello !
    Je me permets de vous relancer, au cas où vous auriez de nouvelles pistes :)

    A très bientôt
     
  37. Narisuke
    Narisuke Nouveau WRInaute
    Inscrit:
    19 Octobre 2011
    Messages:
    27
    J'aime reçus:
    0
    Bonjour tout le monde !

    Première bonne nouvelle, après avoir changé de module SEO (Rank Math est tellement meilleur que Yoast sur Wordpress), et sauvegarde des paramètres sans forcément les modifier (notamment les permaliens), les sitemaps sont lus ! Dernière lecture ce 8 avril (ça change du 11 mars). Cela fait 2 jours et ça semble tenir ;)

    Ceci dit, toujours aucune nouvelle côté indexation. On va laisser le temps se faire un peu - même si ça fait +48 heures que la détection de sitemap a été effectuée. On reste sur le qui-vive, on est passé tout de même à +1 millions de pages vues par mois habituellement à 500.000 en mars à cause de ce souci. Croisons les doigts...

    Peut-être avez-vous de nouveaux indices ou autres pistes de votre côté ?
     
Chargement...
Similar Threads - Problème indexation Sitemaps Forum Date
Search Console Problème indexation page produit - prestashop 1.6 Débuter en référencement 25 Juin 2019
Problème indexation partielle Crawl et indexation Google, sitemaps 3 Juin 2019
Problème d'indexation de pages Crawl et indexation Google, sitemaps 3 Mai 2019
Problème ou retard indexation de mondomaine.com Débuter en référencement 16 Mars 2019
WordPress Problème indéxation suite à migration HTTP vers HTTPS Problèmes de référencement spécifiques à vos sites 31 Janvier 2019
WordPress Problème d'indexation depuis quelques jours Crawl et indexation Google, sitemaps 17 Janvier 2019
Analyse google search console : liste des problèmes d'indexation Crawl et indexation Google, sitemaps 13 Janvier 2019
Problème indexation page Problèmes de référencement spécifiques à vos sites 31 Décembre 2018
Problèmes d'indexation à cause de ressources bloquées (robots.xt) Crawl et indexation Google, sitemaps 22 Novembre 2018
Désindexation sites suite à un problème robot spam Crawl et indexation Google, sitemaps 13 Septembre 2018
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice