Bonjour,
J'avais créé autrefois le site internet http://www.4chandata.org, une archive publique du célèbre 4chan. Il était extrêmement mal conçu, très moche et bourré de pub (voir http://4chandata.org/x-39 par exemple). Je l'avais créé à la base dans le cadre d'une expérience SEO sur le référencement massif de contenu artificiel. Malgré tout et contre toute attente, il a rapidement dépassé les 500 000 visites par mois et plusieurs millions de pages étaient référencées sur Google.
J'ai donc voulu totalement redévelopper ce site et le rendre un peu plus agréable, un peu plus utilisable et moins bugué. J'ai donc ouvert http://www.4chanarchive.net, et j'ai effectué une redirection permanente de la page d'accueil de 4chandata.org (qui avait un pagerank de 3) vers 4chanarchive.net.
La nouvelle version, 4chanarchive.net, existe désormais depuis plusieurs mois, mais ne fonctionne pas du tout au niveau du référencement. Il a toujours un pagerank inexistant et atteint rarement plus de 20 000 visiteurs par mois via Google (bien sûr, l'ancien site a perdu quasiment tout son trafic...). Mais surtout, sur les presque 2 millions de pages qu'il contient, seules 188 000 existent dans l'index google (https://www.google.ch/search?q=site%3A4chanarchive.net). Quand aux images, sur les 17 millions du site, à peine quelques centaines se trouvent sur Google Images.
Je ne comprends du coup pas du tout comment ce nouveau site peut ne pas fonctionner, alors que l'ancien fonctionnait à merveille. La redirection permanente a pourtant bien été prise en compte par Google, et j'ai tout fait pour optimiser l'arbre de navigation permettant d'accéder à n'importe quelle page profonde en seulement quelques clics. Bien entendu, toutes les pages se trouvent dans le sitemap sur Google Webmaster.
Le fait que les images soient très lourdes et très nombreuses pourrait-il être à l'origine du mauvais fonctionnement de cette version ? Pour comparer : Ancien site : http://4chandata.org/x-39 Nouveau site : http://4chanarchive.net/boards/x/0
En fait, j'ai peur que le fait d'avoir amélioré la qualité de l'archivage ait rendu le site encore plus proche du site original et des autres archives 4chan, rendant le contenu, aux yeux de google, moins original et donc plus artificiel.
Si vous avez une idée/des suggestions concernant ce qui pourrait expliquer une telle différence ou comment faire en sorte que Google référence plus de pages (dans un premier temps, le problème est plus la quantité de pages référencées que la qualité du référencement) et d'images, ce serait très volontiers.
Merci d'avance pour votre réponse.
7804j
J'avais créé autrefois le site internet http://www.4chandata.org, une archive publique du célèbre 4chan. Il était extrêmement mal conçu, très moche et bourré de pub (voir http://4chandata.org/x-39 par exemple). Je l'avais créé à la base dans le cadre d'une expérience SEO sur le référencement massif de contenu artificiel. Malgré tout et contre toute attente, il a rapidement dépassé les 500 000 visites par mois et plusieurs millions de pages étaient référencées sur Google.
J'ai donc voulu totalement redévelopper ce site et le rendre un peu plus agréable, un peu plus utilisable et moins bugué. J'ai donc ouvert http://www.4chanarchive.net, et j'ai effectué une redirection permanente de la page d'accueil de 4chandata.org (qui avait un pagerank de 3) vers 4chanarchive.net.
La nouvelle version, 4chanarchive.net, existe désormais depuis plusieurs mois, mais ne fonctionne pas du tout au niveau du référencement. Il a toujours un pagerank inexistant et atteint rarement plus de 20 000 visiteurs par mois via Google (bien sûr, l'ancien site a perdu quasiment tout son trafic...). Mais surtout, sur les presque 2 millions de pages qu'il contient, seules 188 000 existent dans l'index google (https://www.google.ch/search?q=site%3A4chanarchive.net). Quand aux images, sur les 17 millions du site, à peine quelques centaines se trouvent sur Google Images.
Je ne comprends du coup pas du tout comment ce nouveau site peut ne pas fonctionner, alors que l'ancien fonctionnait à merveille. La redirection permanente a pourtant bien été prise en compte par Google, et j'ai tout fait pour optimiser l'arbre de navigation permettant d'accéder à n'importe quelle page profonde en seulement quelques clics. Bien entendu, toutes les pages se trouvent dans le sitemap sur Google Webmaster.
Le fait que les images soient très lourdes et très nombreuses pourrait-il être à l'origine du mauvais fonctionnement de cette version ? Pour comparer : Ancien site : http://4chandata.org/x-39 Nouveau site : http://4chanarchive.net/boards/x/0
En fait, j'ai peur que le fait d'avoir amélioré la qualité de l'archivage ait rendu le site encore plus proche du site original et des autres archives 4chan, rendant le contenu, aux yeux de google, moins original et donc plus artificiel.
Si vous avez une idée/des suggestions concernant ce qui pourrait expliquer une telle différence ou comment faire en sorte que Google référence plus de pages (dans un premier temps, le problème est plus la quantité de pages référencées que la qualité du référencement) et d'images, ce serait très volontiers.
Merci d'avance pour votre réponse.
7804j