Indexation, cache et nouvelles page, besoin d'aide

vanvan

WRInaute discret
Bon sans prétention aucune je m'adresse aux référenceurs confirmés de ce forum.

J'épluche webrankinfo depuis maintenant quelques années et estime avoir un bon niveau de connaissance en matiere de référence Intenet. j'ai pourtant atteint mes limites et m'adresse à vous car je ne comprend pas la situation de mon site Internet. www.aftouch-cuisine.com

La situation de départ. Le site est ouvert depuis JUIN 2005, il a subit un sandbox classique de quelques mois (assez court car en septembre 2005 c'était terminé). Comme beaucoup de sites qui démarre j'ai eu recourt a beaucoup d'évolutions derant cette année,URLrewrinting, changement URL etc... Tout allait bien voir tres bien jusqu'a la fin février 2006. augmentation constante du nombre de page, de visiteur,crawl frequent des bots etc... et puis il y a eu big daddy ... hazard ou conséquence depuis je n'arrive pas a sortir du tunnel.

la situation aujourd'hui :

Google n'indexe plus mon site de manière correcte. Concretement j'avais 160 recettes sur mon site en fevrier 2006 j'en ai 290 aujourd'hui, google en connaissait 160 en février, et 150 aujourd'hui... tout les caches dates de plusieurs mois, les nouvelles pages du site ne sont prises en compte QUE si je met un lien plusieurs jours sur la page d'accueil. Googlebot2 passe tout les jours mais ne visite que 3 ou 4 pages , en gros et sans vulgarité eccessive, depuis big daddy, je "pisse dans un violon", toutes les pages que j'ajoute sont inexistentent pour GG, j'ai par exemple modifier les URL des restaurants que je présente en mars, et bien pour GG toutes ces URL sont toujours valide...

Voila, j'ai attendu un moment avant de faire appel au forum, mais 7 mois ce n'est plus une question de patience, c'est qu'il y a un probleme.

Les pistes :
- Une pénalité de google est envisageable, notement car a un moment je reprennait sur mon site les discution du news.cuisine.fr et qu'il est possible que cela est posé des problemes (notement avec des liens que google n'aimait pas dans ces discutions)
- un probleme de programmation, un header que google n'aimerais pas, une balise foireuse, un programme malveuillant ?????

Bon ben voila j'ajoute juste qu'il sagit d'un serveur mutualisé sur OVH, et que je suis prenneur si vous avez une idée, une suggestion, ou des questions !!!

:cry:
 

scourtaud

WRInaute discret
bonjour,


site:site:www.aftouch-cuisine.com donne 4330 résultats...

et en première page, la plupart des urls on été mis en cache en septembre...


Je peux pas t'aider plus avant car je débute depuis 2 mois en référencement...


Amicalement

Sebastien
 

vanvan

WRInaute discret
kmenslow a dit:
la commande site: renvoie plus de 17000 pages :roll:

oui oui je sais, et pourtant j'ai un site map avec 1600 URL... je ne sais absolument pas ce que sont ces 17000 pages dont parle GOOGLE.

ce que je sais, c'est qu'il ne connais pas la moitié de mes recettes en français, ni le quart de mes recettes en englais.

Par exemple tu fait une recherche la dessus : "r*e*cipe c*a*ssoulet a*ftouch" tu trouve mon site (les pages qui pointent vers la page cassoulet en anglais, mais tu ne trouve pas la page cassoulet qui est pourtant en ligne depuis Mars 2006) actuellement google connait 10 recettes en anglais sur 70... je ne parle pas des restaurants c'est encore pire...
 

vanvan

WRInaute discret
scourtaud a dit:
bonjour,


site:site:www.aftouch-cuisine.com donne 4330 résultats...

et en première page, la plupart des urls on été mis en cache en septembre...


Je peux pas t'aider plus avant car je débute depuis 2 mois en référencement...


Amicalement

Sebastien


C'est tout a fait exacte, les rubriques principales sont mis en cache régulierement, le probleme est lié au pages internets du site (recettes, restaurants...)
 

kmenslow

WRInaute passionné
Accessible de la home, je ferais une page qui donne les liens directs sur tes pages de recettes. Et que des liens en texte sans javascript.
 

vanvan

WRInaute discret
kmenslow a dit:
Accessible de la home, je ferais une page qui donne les liens directs sur tes pages de recettes. Et que des liens en texte sans javascript.

c'est effectivement une possibilité mais il y a un probleme (il y a toujours une probleme) j'ai 300 recettes, google indique clairement d'éviter de dépasser 100 liens par pages, cela signifie qu'il me faut faire plusieurs niveaux de sitemap, ce qui au final revient au même que la structure du site .
 

kmenslow

WRInaute passionné
Ta 1ere page du plan donne les liens generaux dirigeant vers les listes des liens des recettes de cuisines

Page Plan 1 :
- Les entrees
- Les Plats
- ....

Page Les entrees :
- recette 1
- recette 2
- recette x

Cela fait 3 clics pour arriver sur les recettes ( cela reste dans les normes de GG) et sans utilisation de Javascript qui embete GG

GG suit plus facilement les liens textes que javascript.

Le lien d'aaces a ton plan dois se trouver en haut de ta home !
 

vanvan

WRInaute discret
kmenslow a dit:
Ta 1ere page du plan donne les liens generaux dirigeant vers les listes des liens des recettes de cuisines

Page Plan 1 :
- Les entrees
- Les Plats
- ....

Page Les entrees :
- recette 1
- recette 2
- recette x

Cela fait 3 clics pour arriver sur les recettes ( cela reste dans les normes de GG) et sans utilisation de Javascript qui embete GG

GG suit plus facilement les liens textes que javascript.

ben c'est ce que je disait c'est déja le principe "normale" du site, et cela ne supprimerais pas de "niveau". Depuis la page d'accueil tu a les recette sont au niveau-2.

Concernant les liens en javascript, a part sur le menu du haut en les liens sont des balises <a> classique, et j'ai d'ailleur repris la liste des catégories en <a> sur la page d'accueil pour être certain que google les prennent bien, mais visiblement ça ne marche pas beaucoup mieux :)

un vrai casse tête je vous dit :)
 

Megachercheur

WRInaute occasionnel
vanvan a dit:
tu fait une recherche la dessus : "r*e*cipe c*a*ssoulet a*ftouch" tu trouve mon site (les pages qui pointent vers la page cassoulet en anglais, mais tu ne trouve pas la page cassoulet
Je ne suis ni "référenceur" ni "confirmé" (sauf pour l'Eglise catholique :wink: ), mais j'ai une petite idée sur la question. Sur Google ton site est plombé par des filtres d'algorithme, tu ne m'as pas attendu pour t'en douter. La question est de savoir ce que tu as fait pour être ainsi pénalisé.

Tu as 300 recettes et 1600 pages, or Google voit plus de 4000 pages. Elles sortent d'où ? Tu fais de la génération de pages dynamiques à la volée ? Commence par faire le maxi-ménage à mon avis, il est inutile d'aller plus loin tant que tu n'y vois pas plus clair.

Un truc qui me chiffonne, c'st que les sites plombés que j'a vu récemment ne renvoient pas leur page d'accueil lorsqu'on tape leur URL (sans http://) Or le tien renvoie bel et bien la page d'accueil... Bizarre.
 

vanvan

WRInaute discret
Megachercheur a dit:
vanvan a dit:
tu fait une recherche la dessus : "r*e*cipe c*a*ssoulet a*ftouch" tu trouve mon site (les pages qui pointent vers la page cassoulet en anglais, mais tu ne trouve pas la page cassoulet
Je ne suis ni "référenceur" ni "confirmé" (sauf pour l'Eglise catholique :wink: ), mais j'ai une petite idée sur la question. Sur Google ton site est plombé par des filtres d'algorithme, tu ne m'as pas attendu pour t'en douter. La question est de savoir ce que tu as fait pour être ainsi pénalisé.

Tu as 300 recettes et 1600 pages, or Google voit plus de 4000 pages. Elles sortent d'où ? Tu fais de la génération de pages dynamiques à la volée ? Commence par faire le maxi-ménage à mon avis, il est inutile d'aller plus loin tant que tu n'y vois pas plus clair.

Un truc qui me chiffonne, c'st que les sites plombés que j'a vu récemment ne renvoient pas leur page d'accueil lorsqu'on tape leur URL (sans http://) Or le tien renvoie bel et bien la page d'accueil... Bizarre.

Je pense que tu es dans le vrai. Concernant le nombre de page il y a plusieurs explications possibles. La premiere est l'installation d'un forum phpbb brut de pomme... avec tout le bins que cela implique en terme de dublicate content a cause des sessions, de l'absence de règles dans le robot.txt etc... j'ai depuis supprimer ce forum, et ajouter un nouveau proprement cette fois-ci (urlrewriting, robot.txt correct...)

Ce qui est certain c'est qu'il y a du ménage a faire, le probleme est que je ne peux pas le faire ! impossible de savoir ce que sont les pages "indexées" par google qui n'existent pas. J'ai 1600 pages sur ce site, google affiche au maxi 999 resultats... impossible donc d'accèder aux pages 10000, 10001, etc... donc impossible de savoir ou est le probleme.

Concernant le php, oui c'est un site ecrit en dynamique, mais avec un contenu réell et exclusif en base de donnée.

Si je devais résumer le "plombage" de mon site ce serait :

Aucun probleme pour les page principales, blocage pour les pages internes (cache figé, non prise en compte des nouvelles pages)
 

nickargall

WRInaute accro
As tu un outil pour mesurer la fréquence du passage des robots et quelles pages ils visitent ? PEut etre GG bot ne passe t'il que trop rarement
 

vanvan

WRInaute discret
nickargall a dit:
As tu un outil pour mesurer la fréquence du passage des robots et quelles pages ils visitent ? PEut etre GG bot ne passe t'il que trop rarement

oui j'ai bien un outil et effectivement le passage de googlebot est pas terrible. GG2 passe tout les jours et visite en générale 4 ou 6 pages et souvent des pages premier niveau. Lorsque de temps en temps c'est la page d'une recette, cela ne change rien, le cache reste celui de mars 2006 et tout les changement effectuées depuis ne sont pas modifié (en tout cas dans le cache).

Le bot adsens passe aussi et visite beaucoup plus de page, (entre 60 et 100 par jours), mais n'impacte en rien sur la modification du cache de gg ni de l'indexation des nouvelles pages (pour mon site en tout cas).
 

Megachercheur

WRInaute occasionnel
nickargall a dit:
As tu un outil pour mesurer la fréquence du passage des robots
@nickargall
C'est un symptôme, non pas une cause. Matt Cutts l'a mentionné dans ses commentaires sur B-Daddy, un site qui a un degré de confiance en baisse sera moins visité par les robots d'indexation (on y croit ou pas, c'est une simple remarque que je fais).

vanvan a dit:
Lorsque de temps en temps c'est la page d'une recette, cela ne change rien, le cache reste celui de mars 2006
@vanvan
Typique des sites pénalisés, les pages secondaires ne sont pas réindexés, elles restent en quelque sorte à l'abandon.

vanvan si tu parviens à sortir ton site de l'ornière, tu auras le plaisir de revoir tes pages réactualisées fréquemment dans l'index. Pour l'instant je comprends bien ton problème. Peut-être faudrait-il essayer de supprimer des URL en utilisant le service Google ? Ce serait un moyen de faire le grand nettoyage dont on parle.
 

nickargall

WRInaute accro
Megachercheur a dit:
nickargall a dit:
As tu un outil pour mesurer la fréquence du passage des robots
@nickargall
C'est un symptôme, non pas une cause. Matt Cutts l'a mentionné dans ses commentaires sur B-Daddy, un site qui a un degré de confiance en baisse sera moins visité par les robots d'indexation (on y croit ou pas, c'est une simple remarque que je fais).

Tout à fait, je demandais les symptômes du malade pour identifier le dysfonctionnement :) quoique dans ce cas le robot GG passe tous les jours, j'ai pas ce plaisir :)
 

vanvan

WRInaute discret
Megachercheur a dit:
vanvan si tu parviens à sortir ton site de l'ornière, tu auras le plaisir de revoir tes pages réactualisées fréquemment dans l'index. Pour l'instant je comprends bien ton problème. Peut-être faudrait-il essayer de supprimer des URL en utilisant le service Google ? Ce serait un moyen de faire le grand nettoyage dont on parle.

C'est aussi ma conclusion et j'ai bien noté les remarques de matt cutts a ce sujet. Il y a d'ailleurs beaucoup de choses à noter de ses dires a mon avi.
Voila les points sur lesquelles j'ai fait des modifications ces derniers jours :
- Supprimer tout risque de suroptimisation (keyword stuffing)
- Eviter les duplicates content (j'ai par exemple des pages restaurants assez similiraire s'il n'y a pas de texte de présentation, car dans ce cas seul le nom du restaurant et son adresse diffèrent pour 2 restaurant situer dans la même ville. Cale peut être percu comme du duplicate pour GG j'ai donc placé un noindexing no following sur toute les pages restau version englaise, et toutes les pages françaises sans commentaire ou photo.
- Un autre probleme potentiel, sur les pages recettes j'ai toujours soit une photo de la recette ou d'un produit de base de celle-ci, soit la tête du chef cuisinier qui me les envoi. Dans tout les cas en balise ALT je met le nom de la recette. Cela signifie que pour toute les recettes avec la tête du cuisinier j'ai des ALT différent pour une seul et même image physique. J'ai donc modifier cela pour que le nom de la recette n'apparaisse en ALT QUE si la photo est en relation avec celle-ci !

enfin tu vois je cherche vraiment la petite bête, et quand je vois le keystuffing de certains sites concurent qui ne semblent pas subir la moindre petite baff de google je suis vraiment en peine aujourd'hui de comprendre ce qui peu bien déranger google sur mon site.
 

Megachercheur

WRInaute occasionnel
vanvan a dit:
enfin tu vois je cherche vraiment la petite bête
On est sur la même longueur d'ondes, c'est exactement ce type de modif que je fais en ce moment sur mes sites. Quant à tes concurrents, le prochain mouvement de désindexation massive les emportera en page 240 donc fais ce que tu as à faire et oublie-les.
 

vanvan

WRInaute discret
j'ai peut être deux pistes.

J'ai changer les URL de mes pages restau en fevrier 2006. avant elles avait cette forme :

/restaurants-ain-bourg-en-bresse/l1_rest1825_r21.htm

maintenant :

/restaurants-ain-bourg-en-bresse/l2-le-francais-1825.htm

Le probleme c'est que le nom du restaurants n'était pas dans l'ancienne adresse, je ne pouvais donc pas faire une regle URL rewriting direct de l'une a l'autre dans mon .HTACCESS
entrement dit j'avais une ligne qui transformait l'ancien adresse vers l'adresse réel (fichier PHP + argument) avec un redirection [L,R=301] puis l'URL rewriting classique transforme le .php en adresse définitive (la seconde). Sur mon site aucun probleme car tout était ecris en .php mais pour google qui connaissait les anciennes adresses il se retrouvait avec une redirection 301 dont le header lui renvoie l'adresse du fichier PHP pour aboutir sur une page HTML encore différente issu du rewriting. Double redirection en quelque sorte.
D'apres vous cela a t il pu lui poser un probleme et penaliser mon site ?

Autre piste : Des sites on référencés mes pages recettes avec une mauvaise adresses ex :

la bonne adresse : recette/choucroute-alsacienne-29.htm
L'adresse que l'on trouve sur un des sites en question : /recette/recette-29.htm

Mon site interepretait le numéro de la recette et dans les 2 cas renvoiyait la même page. Cela constitu un duplicate évident ce qui m'a conduit il y a plusieurs mois à placer un filtre de protection qui test l'adresse complete avant d'afficher la page de manière a renvoyer un header 301 aux "mauvaises" adresses pour les redireiger sur l'URL correcte.

A ce niveau je me demande si je n'ai pas fait une boulette. N'aurais-je pas du coller un 404 pour indiquer clairement que l'adresse n'était pas bonne, quite a rediriger correctement ensuite ? Google a t il pu interpreter cette redirection 301 comme une tentative de fraude ?

Qu'en pensez-vous ? Si je tennais le webmaster qu'a collé des mauvaises adresses en lien dans son site... je vous dit même pas ce que j'en ferais ...

vos commentaires seront les bien venu
 

Discussions similaires

Haut