WordPress Suppression de la pagination et des pages zombies

Guest
Dans le but d'éradiquer tout l'inutile du Journal Abrasif, je prends le risque de faire un test radicale. Avec une méthode personnelle mélangée à pas mal de lecture WRI. Cependant, c'est transparent pour les lecteurs, voire même plus sympa pour la navigation. Donc le risque est au niveau du SEO pur.

Pagination :

Suppression totale de la pagination sur la page d'accueil et auteurs avec création de catégories ciblées au niveau de la thématique pour les articles. Pour ça j'utilise les plugins suivant (tout est automatique)
Je désactive aussi les catégories auteurs avec une redirection 301 vers la home et j'active l'indexation des catégories d'articles. J'ai bien sûr désactiver les archives des dates le tout pour éviter la duplication de contenu.

Je fais en sorte que chaque catégorie n'est pas plus de 30 articles pour éviter toujours la pagination.

En gros, j'ai ranger plus de 200 articles sur 28 catégories pour plus de visibilité. De plus, j'ai fait en sorte qu'avec seulement 2 clics maximum un article même très vieux soit atteint et ce n'importe où sur le journal.

A faire, une page auteurs avec description et tout.

Suppression pages zombies :

J'ai supprimé 500 pages utilisateurs du forum qui étaient indexés et inutiles avec interdiction de voir un profil si pas connecté, donc interdiction également pour les moteurs de recherche.

Je n'ai supprimé aucun article, même si peu de visites. J'estime que si un article est peu visité, cela ne signifie pas forcément qu'il n'est pas pertinent. Tout dépend du thème, de l'actualité, de la concurrence, de la connaissance, de la popularité,, etc.

Suppression de l'ensemble inutile sur la Google Search Console :

Après avoir fait le ménage, je demande à la console de Google de supprimer les pages, les catégories auteurs et les fiches abonnés du forum. En effet, tout ça a été indexé par Google.


upload_2020-12-4_2-56-58.png



La lecture :

https://www.webrankinfo.com/dossiers/techniques/pagination

https://www.webrankinfo.com/dossiers/ranking-metrics/pages-zombies
 
Dernière édition:
Guest
Objectif, augmenter fortement les visites depuis Google, sans perturber le lecteur.

Risques, me planter totalement niveau SEO
 
Guest
Je viens d'inclure les catégories dans le sitemaps avec un ping google et je me suis bien assuré que noindex n'était plus sur les pages catégories.
 
Guest
J'ai pris deux heures pour apporter de la valeur ajoutée aux pages de catégorie, titres, descriptions, et images, plutôt que de laisser une simple liste d'articles.
 
Guest
Je suis vraiment très satisfait car ça faisait des mois que je n'osais pas faire des pages catégories à valeur ajoutée. Beaucoup de travail.

Elles devraient être indexées petit à petit par Google. J'ai mis en follow et index les catégories.
 
Guest
Je viens de supprimer le forum de https://lejournalabrasif.fr/ car il y avait 800 pages qui ne rapportaient rien, pas une visite, en double, en triple, etc. Poubelle. Je mettrai un forum quand il sera indispensable et bien fréquenté.

Donc au total 1300 url qui ne servaient à rien du tout. J'ai tout supprimer sur la Google Search Console.

J'ai pris des risques, pour l'instant c'est la chute libre en terme de visites de Google, mais la nouvelle structure du journal abrasif n'est pas encore passée sous le rouleau compresseur Google Bot. Je suis confiant.

Bien sûr, pour le lecteur, tout ça est transparent ! La navigation est même un peu plus logique au niveau des catégories.
 
Guest
Super, j'ai reçu une alerte de la google search console. J'ai pu valider la correction pour les catégories qui étaient encore considérées en noindex ce qui n'était pas le cas :

upload_2020-12-7_3-9-7.png
 
Guest
Résultats : Tous les changements radicaux ont bien été pris en compte par Google. La claque est sévère, quasiment plus de trafic depuis Google.

Ce n'est pas grave, j'ai d'autres flèches, et je vais continuer le travail.
 
Olivier Duffez (admin)
Membre du personnel
ça n'a peut-être aucun rapport (ça peut être le core update)
je suppose que les pages que tu as déindexées ne généraient pas de trafic
 
Guest
Par contre, de vieux articles jamais visités ni lus (que j'ai refusé de supprimer), refont surface sur Google Analytics suite à la suppression de pagination peut-être. Surement le fait que tous les articles (+ de 200) soient accessibles en deux clics maximum. Donc, même si la chute est dure, c'est encourageant pour continuer de travailler.
 
Dernière édition:
Guest
ça n'a peut-être aucun rapport (ça peut être le core update)
je suppose que les pages que tu as déindexées ne généraient pas de trafic

Je crois avoir trouver le problème logique comme expliqué sur RM Tech

D'avoir fait une suppression de l'ensemble inutile sur la Google Search Console à fait que je me retrouve avec 3 fois plus de pages exclues que de pages indexées. Pourtant les pages exclues n'existent plus, mais pour la console, elles sont considérées comme exclues.

J'ai donc annulé la surpression temporaire et j'ai fait des redirections 301 vers la page d'accueil des pages qui ne sont plus sur le journal et plus indexées.

J'ai aucun problème pour l'indexation des nouveaux articles, indexés en quelques minutes, ou quelques heures maximum.

La suppression temporaire des pages inexistantes fut mon erreur. A suivre.

En espérant que la prise en compte de l'annulation de suppression prenne quelques heures comme la demande de suppression. Demande en cours.
 
Olivier Duffez (admin)
Membre du personnel
Guest
Merci @WebRankInfo j'ai rectifié avec un code 410 tout ce qui commence par forum, car pas de visites et inutiles pour l'instant.

Code:
URL : https://lejournalabrasif.fr/forum
CODE HTTP : 410
HEADERS :
GET /forum HTTP/1.1
User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36
Host: lejournalabrasif.fr
Accept-Encoding: gzip,deflate
Accept: text/xml,application/xml,application/xhtml+xml,text/html;q=0.9,text/plain;q=0.8,image/png,*/*;q=0.5
Accept-Language: fr-fr,fr;q=0.7,en-us;q=0.5,en;q=0.3
Keep-Alive: 300
 
Guest
J'ai fait, pour tester, machine arrière, j'ai remis le site comme il était avant. Je vais tester ça une semaine pour voir.

En effet, je n'ai plus rien à perdre, le site à perdu tout son trafic depuis les modifications…
 
Olivier Duffez (admin)
Membre du personnel
à mon avis, la baisse n'a aucun rapport avec tes modifs (trop récentes)
donc inverser ce que tu as fait, aussi vite, c'est une belle erreur je pense
 
Guest
Dès que j'ai lu ton message @WebRankInfo j'ai annulé le processus de remise comme avant. Apparemment c'est réversible.

Ce qui est intéressant avec la suppression de la pagination totale et le 2 clics maxi pour atteindre un article, c'est que de très vieux textes ressortent, chose qui n'existait pas sur mon journal avant. Ces derniers n'avait aucune visite.

Bon, Google est gentil, il ne sanctionne pas mon ambivalence de ses derniers temps.

Je reste donc finalement dans un schéma de suppression de pagination et suppression de page zombie en code 410 (suppression définitive).

Et surtout, je ne touche plus à rien niveau SEO, c'est terminé.

Retour à zéro : Suppression pagination et pages zombies

A lire : Guide de la pagination pour le SEO et Pages Zombies - Masse Noire

Je rappelle qu'avec ce schéma radicale, je profite apparemment de l'indexation instantanée (quelques minutes) sur les nouveaux articles écrits, sans avoir besoin de la demande d'indexation et sitemaps mise à jour.

A lire : Indexation instantanée sur Google
 
Guest
Sinon, @WebRankInfo je viens de m'apercevoir que j'ai perdu un très très gros backlink d'un journal référencé sur Google Actualité que m'avait fait un camarade. C'est peut-être ça la chute ou pas ?

En tout cas merci @WebRankInfo pour tes messages et remarques pertinentes.
 
Guest
Bonjour à tous !

Bon, deux ans que ça bouge pas, j'ai donc décidé d'éradiquer toutes les pages, du moins un maximum de :

Pages exclues de types :

Détectée, actuellement non indexée

Comprendre et faire indexer sauf si elles ne servent à rien, supprimer les pages de types :

Explorée, actuellement non indexée

Mettre en noindex les pages d'archives (dates, catégories, recherches, etc) (voire les retirer)

Exclue par la balise "noindex"

Normalement avec tous ça, je devrais avoir plus de pages valides que d'exclues soit 500 pages à zéro visites en moins et sans contenu de supprimer (hors noindex)

Si je fais fausse route, pouvez-vous m'aider ? Merci beaucoup ! @WebRankInfo et WRINAUTES
 
Guest
Avec ça, j'ai améliorer la mise en cache pour une rapidité maximum, retiré les extensions gourmandes.

Je m'arrache les cheveux pour le maillage interne et la pagination, je trouve pas encore de solutions qui me conviennent

J'ai retiré le forum qui avait 200 pages sans visites et sans contenus + les comptes spam ... avec redirection 410

Et pour terminer, je ne touche plus à rien ! pendant un certain temps pour voire les évolutions
 
Olivier Duffez (admin)
Membre du personnel
seulement supprimer les mauvaises pages sans chercher à les améliorer, et sans produire des pages de top qualité en parallèle : ça ne marche généralement pas
 
Guest
@WebRankInfo Sans aller dans la top qualité SEO comme tu le fais, je pense que la top qualité rédactionnelle on le fait déjà. Pourquoi ? Parce que l'on y met du cœur à l'ouvrage. La rédaction WEB sans rédaction humaine je n'y crois pas. Les articles court peuvent aussi être de qualité et visité, les stats le prouvent.

Niveau SEO, on est pas si mal, sinon on aurait zéro visite je pense. C'est vrai que je suis loin d'être une élite SEO mais quand même, je fourni l'effort.

Que reprocherais-tu à une page de ce type par exemple pour m'aider :

https://lejournalabrasif.fr/sans-abrisme-genocide-social-et-humain/

Faisons un teste, je vais m'axer au maximum sur cette page pour voir. Je suspecte les balises Hx mais je préfère pas toucher pour l'instant.
 
Guest
Bonjour !

Depuis quelques jours, le nombre de page valides du journal abrasif augmente très fort et va dépasser le nombre de pages exclues. Cela est surement du à la réouverture du forum avec cette fois une activité et des discussions de qualité. Avant, google ne voulait pas entendre parler du forum. C'est surement du aussi à un travail acharné (10 h par jour, pour éradiquer les bugs et pages inutiles)

Est-ce enfin la sorti du fond ? SI les pages valides dépassent les pages exclues est-ce bon signe ? Ou je m'avance trop vite. Le trafic n'augment pas sur Analytics, il reste stable pour l'instant.

Avant le forum était rempli de page zombie et j'ai fait le ménage.

Aussi j'ai remis en follow par défaut toutes les pages du journal abrasif avec rankmath et cette fois Google bois toutes les pages et les indexes en pages valides. J'ai regardé quand même, ce sont des pages de qualité qui informent le lecteur, même si elles sont petites avec peu de contenu, le strict minimum est correct.

Pour la pagination, je l'ai remis en place avec no index et follow (sauf page 2)

Je ne touche plus et je vais voir si les pages exclues continuent de baisser. A suivre.

Pour le reste, un certain passage furtif d'un ami m'a également beaucoup aider :p
 
Guest
Bon, bien après avoir coulé de google, suite aux modifications aléatoires et récurentes, j'ai tout remis par défaut le SEO avec le plugin RankMath SEO, et 48h après les visites organiques depuis google ont triplé, on regagne nos positions sur les SERP's, affaire à suivre et merci énormément pour votre aide @WebRankInfo pour ce test

Je pense stabiliser le journal abrasif une fois pour toute et me diriger vers une amélioration des mots clés sur chaque articles, plutôt que de bidouiller je ne sais quoi.

J'ai donc lu ceci pour m'aider :

Pagination et profondeur

Pages Zombies

Audit SEO - Analyse Référencement
 
Discussions similaires
Haut