Desindexation massive

WRInaute impliqué
Quand il y a juste l'url affichée, cela veut dire que Google connait le lien mais que Googlebot ne l'a pas encore visité dans le but de l'indexer.
 
WRInaute accro
j'ai l'un de mes sites sur lequel j'attends depuis 6 mois qu'il daigne bien m'indexer alors :)

non non, chez moi je sais que c'est un bleme de configuration quelque part, c'est pas la faute a google
 
Nouveau WRInaute
Je confirme !!!

Il s'est passé qqchose d'énorme cette fameuse semaine !

A mon avis des données ont été perdues sur les DC ou je ne sais quoi dans ce genre.

:cry:
 
Nouveau WRInaute
mahefarivony a dit:
j'ai l'un de mes sites sur lequel j'attends depuis 6 mois qu'il daigne bien m'indexer alors :)

non non, chez moi je sais que c'est un bleme de configuration quelque part, c'est pas la faute a google

Je parle de sites présents dans l'index depuis plusieurs mois ou plusieurs années :wink:
 
WRInaute impliqué
Peut-être tout simplement que l'url rewriting résoudrait ton problème, mahé (bon ok on te l'a sans doute déjà dit :p) !
 
WRInaute discret
Nitou a dit:
Mais biensur, Google peut se permettre de perdre des données :roll:

Ca ne serait pas la première fois que ca arrive...
Voir le bug de google qui avait touché le site de Microsoft
 
WRInaute accro
Bobez a dit:
Peut-être tout simplement que l'url rewriting résoudrait ton problème, mahé (bon ok on te l'a sans doute déjà dit :p) !

de l'URL-rewrite pour IPB ? J'attends qu'un modeur s'y colle.. J'ai essayé de mettre le nez dans le code.. c'est imbittable :lol:
 
WRInaute impliqué
hehe c'est clair que c'est pas du gâteau :wink: étonnant que personne encore ne l'ait fait !
 
WRInaute accro
ceci étant, il y a néanmoins quelque chose qui ne tourne pas rond chez google en ce moment.. Voir par exemple le "fameux" bug dans le paiement adsense.. ou encore les stats qui oublient de se mettre a jour..

on sent comme un peu de fébrilité dans l'air :)
 
WRInaute discret
J'ai constater exactement le meme pb pour les pages référencées mais sans descriptions.

J'ai d'abord pensé a un pb de mon côté. Puis je me suis dis que mon serveur a du être down durant le passage d'un bot.. Mais il semble que cela vienne de google lui même alors ?...

Je constate aussi que les écartes sont très très importants entre les diférents server de google, en regardant sur l'API je me retrouve avec jusqu'a 10fois plus de page indéxées sur un serveur que sur un autre... bizar !

Autre chose, mais je n'ai pas regarder si un post en parlé, mais comme nous somme dans les bizareries du mois de juin, la page d'acceuil de mon site qui est en cache dans google, est remise a jour a une vitesse incroyable, en gros le cache =J-1 a peu près tout le tps !!! et effectivement les crawlers ne passent pas une journée sans venir se balader...
 
Nouveau WRInaute
idem

pareil comme je disait depuis le19 juin
un de mes site pr 5 tres bien classer dans certain mots clef et en ligne depuis octobre 2000
ne figure nulle part !!!!!!! plus aucun lien meme quand je recherche mon nom de domaine.
google ne passe plus dutout alors qu'avant il passait tous les jours.
je viens d'ecrire un mail à tonton google.

par contre mon site garde le pr5 et les page interne pr 4

la je sais plus qoi faire.
 
Nouveau WRInaute
c'est a rien comprendre gg positionne les sites qui trichent ou qui marchent pas ou meme des sites qui n'ont rien a voir avec la requete demandé,je crois qque gg n'a plus les competences d'un bon moteur et je pense que si d'autres moteurs sur le marché feraient
du bien ,peu etre gg que se remettrait au travail...
 
WRInaute passionné
Oui, je confirme Google a bien du mal en ce moment, il a supprimé les descriptions de certaines pages et a du mal à indexer l'intégralité de mon contenu (pas de visite de full crawler :( )
Je constate pour ma part un ralentissement général dans l'indexation des pages ces dernieres semaines...
 
Nouveau WRInaute
C pareil pour moi

Salut,
je confirme aussi que google fait une désindexation massive, la preuve avec mon site present depuis plusieurs mois, je ne comprends rien a ce qui se passe en ce moment. De +10 000 pages, je suis a passé a 2500 pages indéxé dans google le tout en moins de 2 semaines. C grave et le truc qui m'inquiete le plus, c'est que je ne sais pas quoi faire et surtout si j'ai fait une erreur.

Je pense aussi que google a eu un probleme. Ce serait ma meilleure explication.
 
WRInaute passionné
Pour l'effet "il connait le lien mais n'indexe pas", j'ai pu constater que ca le fait sur des pages orphelines et/ou avec meta robots "noindex,follow". Par contre si ca arrive sur d'autres pages, c'est clair qu'il y a un probleme. En plus, ce genre de page ne doit sortir que sur une requete site: ou allinurl: ou sur les mots-cles visibles dans l'URL mais alors au 36e dessous (au-dela du 1000e resultat, il ne les donne meme pas donc c'est introuvable)
 
WRInaute discret
Bonjour tout le monde,

Bon tout d'abord moocatz tu es nouveau et tu dis n'importe quoi. Tu ferais mieux d'arreter d'aller au "Privé" "Modjo" et au "Planet Soleil" tout les soirs. Bosse un peu :)

Non, plus sérieusement moocatz à raison et cela fait peur... Deja qu'avec ifrance j'ai eu le meme problème. Si cela continue comme cela certains n'auront plus de site et pourrons aller mettre des boites de petits pois en rayon chez carrouf.... (hein moocatz)

Pour terminer, je n'ai pas de réponse non plus et je pense que google privilégie les annonceur adwords (j'en suis presque sur) mais bon .....

Cordialement,
Ps : si des gens veulent me contactez en PV pour certaines chose vous êtes les bienvenue
 
WRInaute accro
depuis le temps qu'on preche de prendre un vrai hebergement pro avec le ndd qui va bien avec... une preche dans le desert quoi...

allez, le prochain a se faire dégager c'est qui ? free ? :mrgreen:
 
WRInaute impliqué
Pour en revenir au sujet initial de cette discussion, nous vivons aussi de très gros problèmes d'indexation sur certains de nos sites....

Une chose très claire: on note que quasiment toutes nos pages satellites ont du jour au lendemain perdu leur titre et description dans l'index GOOGLE.... Il reste seulement l'url...
D'autres pages tout à fait normales, à contenu, pas du tout sur optimisées ont aussi subit le même sort....

J'ai jeté un coup d'oeil sur les sites d'autres webmasters et je constate des phénomènes similaires...

Je ne comprends pas pourquoi si peu de webmasters réagissent sur ce forum... Peut être par exemple que ceux qui avaient réalisé des pages sat n'osent pas dire que ces pages ont été mal menées dans l'index de GOOGLE????

Il faudrait essayer d'identifier le types de pages que GOOGLE a désindexé ou indexé avec seulement leur URL...

Est-ce que GOOGLE-GUY a été questionné sur le sujet???
 
Nouveau WRInaute
Je ne comprends pas pourquoi si peu de webmasters réagissent sur ce forum..

... moi non plus...
Ce phénomène ne passe pourtant pas inaperçu : de nombreux sites sont touchés.
J' aimerais moi aussi avoir des infos sur le sujet, alors si qqun a une idée...

Merci
 
Nouveau WRInaute
Je ne comprends pas pourquoi si peu de webmasters réagissent sur ce forum..

C'est clair, j'ai aussi l'impression que google donne des résultats plus qu'étranges en ce moment et personne ne réagit dans les différents forums...

Je confirme que google ne semble pas prendre en compte les balises et le texte des pages et n'affiche que les urls (et tous les types de pages semblent concernées). Et personne ne semble avoir d'explications...
 
Nouveau WRInaute
Juste pour dire que ça continue

Suite a mon post situé un pe plus haut, c'est juste pour dire que google continue a faire du yoyo avec mes pages. Un coup ça part et un coups ça revient.

Mon problème semble etre le meme que celui d'OJAL. La plupart de mes pages satellites ont disparus ou reste sans titre et description, ainsi que certaines de mes pages avec un réel contenu et n'ayant aucune valeur commerciale.

En tout cas ça fait un pe plaisir de voir que je ne sois pas le seul dans ce cas.
 
Nouveau WRInaute
exceque googlebot passe chez vous depuis le crash ?
moi depuis le 21 juin plus rien alors qu'il passait tous les jours
pour l'instant je conserve mon pr 5
 
WRInaute impliqué
Pff ! Désindexation massive ? Mauvaise indexation massive plutôt...

:lol:

Ceux qui ont un peu de bouteille en Googlelogie savent pertinamment :
- que ce phénomène s'est déjà produit avant
- qu'il se produit régulièrement (une fois tous les six mois en moyenne)
- et qu'il a une explication simple...

C'était facile à observer et à comprendre à l'époque des deepcrawls mensuels... C'est évidemment un peu différent maintenant avec l'indexation continue, mais la persistence du phénomène démontre que Google a conservé grosso modo les mêmes étapes pour créer son index...

Pour simplifier à l'extrème, l'indexation chez Google se passe en quatre étapes :
- le crawl : aspiration des pages brutes et stockage dans le "repository"
- l'indexation proprement dite : création de l'index inversé, calcul des notes pour les différents critères, mise à jour de ces données dans l'index
- calcul du page rank (du pagerank local maintenant) et màj dans l'index
- et... tout à la fin, traitement permettant d'obtenir la "description" de la page (titre et description)

Pour des raisons non expliquées, ce dernier traitement foire toujours sur une petite partie de l'index... Et de temps en temps, sur une partie non négligeable de l'index...

C'est temporaire, les descriptions finissent toujours par être rétablies avec le temps...
 
Nouveau WRInaute
J'avais eu le meme gene de probleme il y a 1 an 1/2. Mais la, cela semble etre plus long cette fois ci, ca va faire plus de 3 semaines...

Ben de toute facon , il n'y a plus qu'à attendre encore un peu. En tout cas merci de ta réponse Cariboo.
 
WRInaute impliqué
cariboo a dit:
Ceux qui ont un peu de bouteille en Googlelogie savent pertinamment :
- que ce phénomène s'est déjà produit avant
- qu'il se produit régulièrement (une fois tous les six mois en moyenne)
Merci pour ta réponse cariboo...
Je ne me rappelle pas bien avoir rencontré ce phénomène et pourtant cela fait une grosse année que nous essayons de suivre attentivement nos référencements...
Tu penses vraiment qu'il ne faut rein changer et que tout va rentrer dans l'ordre??? Je sais pas pourquoi, mais j'ai de gros doutes....

Je pose la question suivante:

A l'époque, des sites bien référencés et dont toutes les pages étaient indexées ont-il vu la moitié ou plus de leurs pages disparaitre purement et simplement de l'index avec l'autre moitié restant sans descriptif et titre, juste avec l'URL????

Ca nous rassurerait quand même de constater que des phénomènes similaires se sont bien produits et que les sites en sont ressortis saint et sauf!!!...

Je continue a trouver très étonnant qu'il n'y ait pas plus de webmasters qui discutent de ce sujet alors que quand je regarde je vois énormément de sites touchés....

Nous sommes toujours dans l'incertitude totale... dur dur....
 
WRInaute discret
cariboo a dit:
Pff ! Désindexation massive ? Mauvaise indexation massive plutôt...

:lol:

Ceux qui ont un peu de bouteille en Googlelogie savent pertinamment :
- que ce phénomène s'est déjà produit avant
- qu'il se produit régulièrement (une fois tous les six mois en moyenne)
- et qu'il a une explication simple...

C'était facile à observer et à comprendre à l'époque des deepcrawls mensuels... C'est évidemment un peu différent maintenant avec l'indexation continue, mais la persistence du phénomène démontre que Google a conservé grosso modo les mêmes étapes pour créer son index...

Pour simplifier à l'extrème, l'indexation chez Google se passe en quatre étapes :
- le crawl : aspiration des pages brutes et stockage dans le "repository"
- l'indexation proprement dite : création de l'index inversé, calcul des notes pour les différents critères, mise à jour de ces données dans l'index
- calcul du page rank (du pagerank local maintenant) et màj dans l'index
- et... tout à la fin, traitement permettant d'obtenir la "description" de la page (titre et description)

Pour des raisons non expliquées, ce dernier traitement foire toujours sur une petite partie de l'index... Et de temps en temps, sur une partie non négligeable de l'index...

C'est temporaire, les descriptions finissent toujours par être rétablies avec le temps...

Yop, je confirme Cariboo,

Tout est rentré dans l'ordre pour moi (cela fait 3 semaine que j'avais remarqué le phénomèbe....)
 
WRInaute impliqué
patotoche65 a dit:
Yop, je confirme Cariboo,

Tout est rentré dans l'ordre pour moi (cela fait 3 semaine que j'avais remarqué le phénomèbe....)

Tu avais quel % de pages qui avaient perdues leurs descriptions????
C'est revenu du jour au lendemain???
Le positionnement a-t-il été modifié??

C'est peut être un message rassurant que tu nous donne la??!!...
 
WRInaute discret
Yop :lol: ,

J'ai pas fais le calcul exact mais un bon 50% me parraît dans les clous..... :cry:

C'est revenus d'un coup, après grosse grosse visite de google sur mes pages, j'ai surveillé ces venus et c'était bien les pages incriminées qui étaient re-visitées..... :lol:

Après même pas un semaine, ré-apparition des pages avec le descriptif dans l'index de Google.

Le positionnement à bien entendu changé ... en mieux ....

Espérant que cela fasse avancer le schmilblick,

Patotche65
 
WRInaute accro
c est peutetre la fameuse prime "ancienneté" !! tous les 6 mois, google analyse À nouveau et de plus pres les pages qui sont la depuis longtemps et les positionne mieux !! il y a dans la FAQ de google une question portant la dessus d´ailleur :

5. Dans certains cas, le titre d'une page n'apparaît pas dans les résultats de recherche. Pourquoi ?

Contrairement à la plupart des moteurs de recherche, le robot-explorateur de Web utilisé par Google (« Googlebot ») peut renvoyer des résultats même s'il n'a pas encore recensé une page. Les pages qui sont connues mais non recensées peuvent apparaître dans les résultats, mais comme nous n'avons pas encore eu la possibilité de les évaluer, nous supprimons l'affichage de leur titre et nous le remplaçons par leur adresse URL.

a+
Hervé
 
Nouveau WRInaute
YESSSSSSSSSSS
tout est rentrer dans l'ordre ce matin
mon site qui n'etais plus nullepart revient a tous les mot clef et meeme en mieux !!!
disparut depuis le 21 juin revenu aujourdui

bref je crois qu'il faut rien toucher merci cariboo
 
WRInaute impliqué
Bien vu HerveG ! Voilà qui va mettre un terme aux rumeurs...

Ce phénomène, comme je l'ai dit, est une conséquence d'une mauvaise indexation. Le moindre problème au moment du crawl peut faire que Googlebot ramène des pages incomplètes ou pas de pages du tout.

Ce qui n'est pas dit ici, c'est que si la page est déjà connue, elle conserve une partie des notes obtenues lors de la précédente indexation (donc elle est encore classée), par contre elle perd son titre et sa description.

Le côté massif du problème ce coup ci révèle probablement un petit problème du côté de Googlebot. Un problème qu'il faut peut-être rapprocher du changement visible de comportement du robot sur de très nombreux sites depuis peu.
 
Nouveau WRInaute
Snif Snif,

Mon site est passé de 320 pages dans google il ya 10 jours
à 65 y'a 2 jours ...
à 8 ce matin ...
à 5 à l'heure ou j'ecris ce message. 8O

J'ai pas l'impression d'avoir triché ...

Bref le moteur qui m'apporte le plus de visiteur est maintenant AOL ! Viva Aol.
 
WRInaute accro
mahefarivony a dit:
depuis le temps qu'on preche de prendre un vrai hebergement pro avec le ndd qui va bien avec... une preche dans le desert quoi...

allez, le prochain a se faire dégager c'est qui ? free ? :mrgreen:

J 'en rêverais presque... un bon coup de balai sur les duplicate content devenus trop faciles....
 
WRInaute impliqué
herveG a dit:
J 'en rêverais presque... un bon coup de balai sur les duplicate content devenus trop faciles....
Je ne comprends pas ce que tu veux dire par rapport au titre du sujet qui est "désindexation massive"...???
Qu'est ce qui te fait dire que le problèmes rencontrés actuellement par beaucoup de webmasters sont liés à des problèmes de duplicate content???
 
WRInaute accro
Faut pas prendre de raccourci précipité....! cette remarque se rapporte aux suppositions de webmasters qui semblent penser que certains sites sur hébergement gratuits (ifrance entre autres) connaissent une "dexindexation massive" (titre du topic).

Mon commentaire signifie que je ne serais pas mécontent du tout que ces pages disparaissent car au vu du prix modeste d'un hébergement payant, cela ne serait pas un scandale et cela empecherait certains cas de duplicate content (je te fais pas un dessin ici pour ne pas donner envie a certains d'user de la meme fourberie mais si tu veux plus de détails, et des exemples, contacte moi en mp) devenu flagrants car anonymes et gratuits.
 
WRInaute impliqué
OK... Tu parles certainement de copie de sites sur des hébergements gratuits ou presque... et qui de ce fait génèrent des duplicates content...
Il me semblait que les pages en duplicate content étaient enlevées de l'index par GOOGLE et que c'était la page la plus ancienne qui subsistait...???
Je n'ai pas vraiment l'impression qu'il y ai des choses nouvelles sur ce point...

La vraie nouveauté est de retrouver un nombre si important de sites avec des pages indexées seulement par leur URL et qui finissent souvent par être desindexées.... Ce ne sont pas des pages récentes, elles étaient bien indexées depuis des mois....
 
WRInaute accro
Si les pages ne sont pas "exactement identiques", elles ne sont pas identifiables (altavista me l a confirmé par écrit par exemple. ils y tzravaillent.....!!).et donc reste indexées. c est ca le probleme.... d´ou ma remarque.....
 
WRInaute discret
patotoche65 a dit:
Yop :lol: ,

J'ai pas fais le calcul exact mais un bon 50% me parraît dans les clous..... :cry:

C'est revenus d'un coup, après grosse grosse visite de google sur mes pages, j'ai surveillé ces venus et c'était bien les pages incriminées qui étaient re-visitées..... :lol:

Après même pas un semaine, ré-apparition des pages avec le descriptif dans l'index de Google.

Le positionnement à bien entendu changé ... en mieux ....

Espérant que cela fasse avancer le schmilblick,

Patotche65
je me suis fait crawler hier à partir de 16h jusqu'à 12h aujourd'hui et ce sont les pages sans titre et sans description qui ont été visitées, j'ai bon espoir !!!

herveG a dit:
c est peutetre la fameuse prime "ancienneté" !! tous les 6 mois, google analyse À nouveau et de plus pres les pages qui sont la depuis longtemps et les positionne mieux !! il y a dans la FAQ de google une question portant la dessus d´ailleur :

Prime d'ancienneté je ne sais pas,

ça ne fait que 2 mois que mon site est référencé avec ce nom de domaine, avant je n'avais que la page index d'indexée et pourtant mon site a subi ce probleme (soit 260 pages sur 450 environ),

enfin bon dans tout les cas je suis optimiste pour la suite :D
 
WRInaute impliqué
Vais ajouter du poivre dans la sauce du google déja bien pimentée!

Jusqu'as il y a 1 semaine seulement 60% de mon site etait indexé par googtheboob....
Gros crawl, et paf 100% du site indexé, mais: TOUTES les pages nouvellement indexées apparaissent sans descriptions, seulement le titre donc pour sur quelque chose cloche chez googtheboob, mais bon il nous a déjas fait pire.. :lol:
Wait and see....
 
WRInaute impliqué
PuraVida a dit:
Jusqu'a il y a 1 semaine seulement 60% de mon site etait indexé par googtheboob....
Gros crawl, et paf 100% du site indexé, mais: TOUTES les pages nouvellement indexées apparaissent sans descriptions, seulement le titre donc pour sur quelque chose cloche chez googtheboob,

Dans le cas de l'indexation de nouvelles pages, elles apparaissent d'abord avec seulement leur URL, puis titre et description arrivent ensuite... C'est une situation assez normale...
Le problème de désindexation évoqué n'est absolument pas identique à ce cas...
 
WRInaute impliqué
OJAL a dit:
PuraVida a dit:
Jusqu'a il y a 1 semaine seulement 60% de mon site etait indexé par googtheboob....
Gros crawl, et paf 100% du site indexé, mais: TOUTES les pages nouvellement indexées apparaissent sans descriptions, seulement le titre donc pour sur quelque chose cloche chez googtheboob,

Dans le cas de l'indexation de nouvelles pages, elles apparaissent d'abord avec seulement leur URL, puis titre et description arrivent ensuite... C'est une situation assez normale...
Le problème de désindexation évoqué n'est absolument pas identique à ce cas...

A part que dans les 60% du site indexé avant la semaine derniere, + de 60 pages sont restées + de 3 mois sans descriptions et seulement leur url.... :lol:
Et oui, je sais au niveau des nouvelles pages chez googtheboob :wink: Merci pour l'info anyway. :D j'aurais du etre plus clair dans mon message.
 
WRInaute impliqué
mahefarivony a dit:
OJAL a dit:
C'est une situation assez normale....

mouais.. sauf quand ca dure quelques semaines (mois) n'est-ce pas ? mrgreen:

Oui, mahefarivony, en effet, mais dans son cas, les pages viennet juste d'être indexées et nous avons assez souvent rencontré ce phénomène.. Une semaine après, les titres et descriptions étaient bien présentes....

SI ca dure 3 mois, c'est un autre problème en effet :cry:
 
WRInaute discret
Excellent, les pages qui ont été visitées il y a deux jours par googlebot viennent de retrouver leur titre et description ! :D
 
WRInaute discret
bonjour

Depuis quelques mois,aucun probleme avec mr google et la je me retrouve avec toutes mes Urls (66) sans la description et meme la page index a subit le meme traitement .

Donc ben grosse chute dans le classement voir introuvable pour les mots clés ou j'étais sur la 1ere page...De plus 'il venait de m'indexer de nouvelles pages,les descriptions était la et maintenant pffffut plus rien !!
C'est Normal ??
 
Olivier Duffez (admin)
Membre du personnel
ftricard a dit:
Toujours dans la recherche du problème qui nous préoccupe tous, je viens de lire que les tirets sont mieux reconnus que les tirets bas par Google.

http://francois.gplservice.fr/blog?p=26&more=1&c=1

Or je suis dans ce cas, puisque je rewrite mes URL avec des tirets bas...

Et vous ?


....François
d'une part ce n'est pas un scoop... d'autre part je ne vois pas bien le rapport avec les pb de désindexation ? le tiret bas n'est pas bon car il ne permet pas de séparer les mots, c'est tout.
à moins que je n'aie pas tout compris à la discussion ?
 
Nouveau WRInaute
en effet ça colle pas avec le problème ....

mais je ne savais pas que google pouvait apprécier d'une manière differente - et _

++
 
B
Bernard
Guest
Google.com sorti de l'index ...

J'ai pas tout compris mais nos voisins Us parlent aussi bcp de désindexation , de farmlinks, voire meme de pages de liens réciproques pénalisantes.

Le filtre aurait meme sorti un moment google.com de son propre index :

http://www.seroundtable.com/archives/000710.html
 
WRInaute passionné
J'ai l'impression que les sites qui se font dexindexés en masse sont des sites pratiquant l'url rewriting avec des underscores.

Des contre exemples ?

Guillaume
 
WRInaute passionné
Alors je me répète :
il serait parfaitement idiot de la part de Google de sanctionner l'URL Rewriting + Underscore, puisqu'il n'y a aucun moyen de détecter d'URL Rewriting...

PS : pour ceux qui me ressortirait "si si, parce que Google compare les deux URL", je répond tout de suite : non, dans ce cas c'est un problème de "Duplicate Content", c'est tout.
 
WRInaute accro
J'ai l'impression que les sites qui se font dexindexés en masse sont des sites pratiquant l'url rewriting avec des underscores.

Des contre exemples ?

Guillaume

J'utilise tout plein d'undescores et l'urlrewriting et mes pages sont toujours bien référencées, ouf :)
 
WRInaute discret
La plupart (tous ?) des sites affectés ont fait parti de urltrade.
à mon avis la fermeture d'urltrade et la perte massive de BL a fait le boulot de desindexation.

Si vous programmiez un robot comment interpreteriez vous la perte de 50% voire plus des BL ? => perte de pertinence
 
WRInaute discret
Le_Phasme a dit:
J'ai l'impression que les sites qui se font dexindexés en masse sont des sites pratiquant l'url rewriting avec des underscores.

Des contre exemples ?

Guillaume

ce serait pas mal d'avoir un avis éclairé sur la question, car je vois mal aussi comment détecter l'url writing, et pourquioi l'usage de "_" serait pénalisant pour l'indexation :eek:
 
WRInaute discret
bonjour

desindexation suite:

Aprés etre resté + d'1 mois avec toutes mes pages désindexées(seulement les urls étaient présentes)
google réindexe petit a petit mes pages
16 pages/90 ont retrouvé leur description ,mais pas la page d'accueil
le pr pendant ce mois n'avait pas bougé et la, il est toujours à 5
donc pour tous les webmastesr qui ont connu ce problème depuis le mois dernier,ben de la patience et de la patience.....

Pour ma part je n'avais rien a me reprocher si ce n'est Url Trade ,mais je m'étais désinscrit depuis le debut de l'année.
 
Nouveau WRInaute
Ouf, voilà les news, les pages desindexées début juillet reviennent petit à petit :)

La patience est de rigueur...

François
 
WRInaute impliqué
Mon petit doigt me dit que ce qui est revenu à la normale pour toi vient de toucher d'autres sites...

Parce qu'il semble clair que la proportion de pages listées mais non indexées est toujours aussi importante.

Je pense aussi que le phénomène risque de se reproduire pour ton site.
 
WRInaute discret
Il me semble que sous les pages désindexées par Google et qui s'affichent sans description, Google ajoute toujours "page similaire"

Les débats se concentrent actuellement sur la supposition que les mauvais Backlinks sont la source de la désindexation des pages, subie pendant la révision des BL de Juillet et Aout.
Une trop grande ressemblance entre des pages serait il aussi un sujet suceptible de désindexer ?

Avez-vous une expérience pour renforcer cette hypothèse de pages similaires.
Par exemple 50 pages avec un contenu textuel très proche mais avec des Tiltes différents. Et comment Google pourrait juger de la ressemblance entre des pages ?
Dans notre expérience le Tilte est une copie du suffix de l'URL.
 
WRInaute impliqué
Il me semble que sous les pages désindexées par Google et qui s'affichent sans description, Google ajoute toujours "page similaire"

Il y'a pratiquement toujours page similaire aussi sur les pages indexées normalement C''est surtout la présence très fréquente de "résultat complémentaire" qui est le plus intéressant.

Les débats se concentrent actuellement sur la supposition que les mauvais Backlinks sont la source de la désindexation des pages, subie pendant la révision des BL de Juillet et Aout.

Il n'y a pas à proprement parler de "désindexation", mais soit :
- une non réindexation : des pages listées ne sont pas remises à jour... le contenu disponible est un contenu ancien, accessible par le lien "résultat complémentaire"
- une non indexation : des pages sont listées, mais pas crawlées... volontairement
- une non indexation accidentelle : des pages n'ont pas pu être crawlées pour des raisons techniques (on retrouve alors les cas connus autrefois)

Je pense que c'est une mauvaise approche de prendre ce phénomène comme une pénalité classique...

Une trop grande ressemblance entre des pages serait il aussi un sujet suceptible de désindexer

Disons que Google a décidé de ne pas indexer complétement les sites dont le contenu est jugé "non prioritaire"... Certaines pages dynamiques sont dans le collimateur... Et oui, certains types de contenu répétitifs sont considérés comme non prioritaires à indexer.

L'importance des pages peut être calculée à partir notamment de l'un des facteurs suivants :
- fréquence de mise à jour d'une page
- fréquence de mise à jour dans un domaine donné
- notes données par le croisement des taux de similarités entre les termes contenus dans la page et les requêtes réellement tapées dans le moteur
- nombre de backlinks
- pagerank
- note en tant que hub (prend en compte les liens sortants)
- critères liés au contenu de l'url (dommage pour les pages dynamiques, et les pages perso, dommage aussi pour les pages à trois clics de la page index)
- liste non exhaustive...

Notez bien que je ne sais pas quels sont les critères réellement utilisés par Google. Mais il est clair qu'ils utilisent un système de crawl optimisé sur un index ouvert, avec priorité donnée aux pages jugées les plus importantes. Les critères indiqués ici sont les plus communément expérimentés, ont les retrouve dans les articles de Cho et Molina, qui sont connus pour avoir aidés Google à améliorer leur bot (ils sont de l'Université de Stanford)

Je ne sais pas si l'existence de pages dupliquées, ou semi-dupliquées, est un critère opérationnel, ou juste la conséquence d'autres critères.
 
Discussions similaires
Haut