« Suppression » de duplicate-content = 5 x moins de visites

WRInaute passionné
Hiilo,

Une chose qui me dépasse. Il y a un peu plus d’un mois, je décide de bloquer des indexations inutiles, qui s’assimilaient même à du “duplicate-content”. Je ne surveillais pas trop (occupé à d’autres choses), et en allant sur Analytics hier, je m’aperçois que depuis, le site reçois 5 x fois moins de visiteurs. Dégringolade... la tracé descend en chute libre sur 3 semaine puis stable une semaine à 5x moins de visiteurs (stable ? pas vraiment stable ? va baisser encore ? je ne sais pas)

Est-ce logique ?

Le principe en gros : il y a une sorte de petit formulaire sur toute les pages, et un “submit” sur ce formulaire, aboutit toujours à un retour à la page d’origine par redirection. Ne voyant pas l’intérêt pour Google d’indéxer l’URL “action” du formulaire, j’avais décidé de bloquer cette URL dans le robots.txt. J’en avait assez de toutes les erreurs d’explorations renvoyées par Webmaster Tools sur cette URL, je ne voyais pas l’intérêt d’indéxer une redirection de chaque page vers la même page, et j’y voyais aussi un “duplicate-content”. Donc, ajout de l’URL du CGI dans le filtre robots.txt.

Et donc voilà, je regarde hier ce qu’il en est => nombre de visiteurs divisé par 5 (moi qui m’attendais à même peut-être un léger mieux, la douche froide)

Est-ce vraiment cohérent ? Faut-il annuler le filtrage dans le robots.txt ? Encore un tour de yoyo ? Qu’est-ce qui ne lui plait pas à ce point dans la suppression de cette URL qui n’apparaissait pas dans le sitemap de toute manière ? (et elle n’avait rien à y faire, et Google aucune raison de l’indéxer). Comment se fait-il que ce qui ressemble à une suppression de “duplicate-content” puisse aboutir à un tel résultat ? (d’ailleurs le duplicate-content, je me demande si il faut y croire... quand je vois le nombre de site qui en font sciement, en copiant d’autres sites, et le site faisant la copy passant devant le site d’origine)

Détails (si ça peut éclairer) : le nombre d’URL indéxées n’a pas changer, il les indexe toutes, le nombre d’erreurs d’exploration n’a pas augmenté, puisqu’il a même été réduit à zéro, le PR (qui est le même sur toute les page... oui, je sais, c’est pas important, mais c’était pour vérifier), n’a pas du tout bougé, et les “site-links” sont toujours là, et aucun liens depuis l’extérieur ne se fait vers l’URL de ce CGI (ce qui est logique).


P.S. Je ne sais pas vraiment si j’ai posté au bon endroit : ici ou forum Google ?
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

Je corrige une petite chose d’abord : je disais qu’il n’y a plus d’erreurs d’exploration. En fait, Google assimile les blocages par Robots.txt à des erreurs d’explorations et les affiche dans la liste des erreurs d’explorations. Là où il se produisait des erreurs et où il ne s’en produit plus maintenant, c’est dans les autres erreurs d’explorations (comme les erreurs HTTP par exemple). C’est déjà plus clair, sinon ce que j’ai écrit plus haut pouvait paraître incohérent.

Sinon, je viens de naviguer dans les WebmasterTools, et j’ai découvert une chose que je n’avais pas remarqué jusque là : « Configuration du site » -> « Paramètres », en bas de page, se trouve « Traitement des paramètres ». Je regarde, et j’ai la surprise de voir là, les noms des deux paramètres qui se trouvent être utilisés par ce CGI :eek:

Plus étrange encore, l’un est marqué « Suggestion: Ignorer » et l’autre « Suggestion: Prendre en compte ». Inévitablement, je ne peux pas m’empêcher de faire un lien avec le problème, et de me demander pourquoi les deux paramètres n’ont pas le même status. J’ai donc modifier, pour passer outre la suggestion, et les mettre tous les deux à « Ignorer ».

parametresurlgoogle.png


Est-ce que cette histoire de paramètres pourrait avoir un effet si important ?

En tous cas, je vais attendre 2 ou 3 jours pour voir si cela fait une différence.

Mais je ne comprend pas, ces URLS ne sont indéxées nul part, ne servent pour aucun lien externe, ne figurent pas dans les sitemap, ne servent pas à lier les pages non plus, bref, rien qui puissent interesser Google (pfff).

Je ne m’explique pas ce chambardement pour un simple filtrage par Robots.txt. S’il s’avère que c’était vraiment cette histoire de paramètre « Ignorer » vs « Prendre en compte », alors c’est le truc le plus fou que je n’ai jamais vu.

Je n’ose pas trop revenir en arrière sur le filtrage, parce que je ne sais pas ce que fait Google. S’il « recalcul » des choses, et que je reviens en arrière pendant qu’il se met à jour à propos de je ne sais quoi, ça risquerait d’aggraver les choses non ?
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

Curieux d’en savoir plus, je vois du coté de Analytics. Là, je constate une chose étrange : une autre baisse, celui des visites en provenance de sites référents, qui a elle aussi commencé à baisser au même instant, à 1 jour prêt. Mais la baisse de ce côté là est plus faible : 2.5 x moins. C’est fou cette histoire. Un site qui m’envoyait des visiteurs qui aurait disparu d’un coup ? Mais quel site ? Disparu comment ?

Pourtant, ça coïncide aussi avec cette modification que j’avais faite sur le Robots.txt, environ 1 semaine avant.

Le hasard ? Un site qui m’envoyait des visites qui a disparu d’un coup ?

En même temps, ça n’expliquerait pas entièrement la baisse par moteur de recherche.

Puis j’ai l’impression de parler tout seul là (est-ce que ça veut dire que personne n’a jamais vu ça ?).
 
WRInaute impliqué
Re: « Suppression » de ducplicate-content = 5 x moins de visites

N'est ce pas une baisse due à Caffeine?
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

En tout cas les dates coïncident à peu près... Mais moi perso, je ne m'en plaint pas... bien au contraire :)
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

Hillou, merci d’être passé :)

Bigb06 a dit:
N'est ce pas une baisse due à Caffeine?
Je ne comprenais pas ce que tu voulais dire, alors j’ai cherché, et j’ai trouvé ça : Google Caffeine est maintenant prêt à indexer tout le Web. C’est de cette Caffeine là que tu voulais parler ?

C’est grave ce truc ou pas ? Il se passe quoi alors ?

Mais c’est chez tout le monde idem donc ? Tout le monde constate des choses bizarres aussi avec Google en ce moment ? Ça parait improbable, j’aurais vu des gens en parler ici.

Anto1982 a dit:
En tout cas les dates coïncident à peu près... Mais moi perso, je ne m'en plaint pas... bien au contraire :)
Tu as connu une période de baisse et c’est remonté ensuite ? Pourquoi penses-tu que c’est une bonne chose ?

Anto1982 a dit:
En tout cas les dates coïncident à peu près...
Alors ça n’aurait rien à voir avec mon Robots.txt ni avec les paramètres URL ? Ce serait complétement autre chose ?

-- EDIT --
Oui, ça coïncide assez bien pour les : ce « truc » a apparemment été lancé le 9 mai, et la baisse que je constate, s’est amorcé le 11 mai, donc 2 jours plus tard. Mais ça va revenir à la normal ou pas ?
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

Pour le duplicate interne, tu peux te contenter du rel="canonical" plutôt que le robots.txt qui est un peu violent.

Mais là n'est pas ton problème.
Est-ce que le site est tombé fin mai ?
Je pense que ce n'est pas du côté de Caféine qu'il faut regarder mais de l'update Mayday.
De plus, je reçois des messages en plus grand nombre que d'habitude à propos de sites qui sont tombés, mais les symptômes ne s'apparentent pas à Mayday (Longue Traîne, blabla).
Bref, bizarre.
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

thickparasite a dit:
Pour le duplicate interne, tu peux te contenter du rel="canonical" plutôt que le robots.txt qui est un peu violent.
Pas avec un formulaire

thickparasite a dit:
Mais là n'est pas ton problème.
Est-ce que le site est tombé fin mai ?
En gros, mais ça s’est amorcé avant je crois, pense le déterminé au 11 mai.

thickparasite a dit:
Je pense que ce n'est pas du côté de Caféine qu'il faut regarder mais de l'update Mayday.
Et ce serait quoi ce Mayday ? -- EDIT -- Je crois que j’ai compris. C’est un data-center de Google ?

thickparasite a dit:
De plus, je reçois des messages en plus grand nombre que d'habitude à propos de sites qui sont tombés, mais les symptômes ne s'apparentent pas à Mayday (Longue Traîne, blabla).
Google place des sites dans la longue traine ? :eek:
Pourquoi ?

thickparasite a dit:
Bref, bizarre.
Oui
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

MayDay, d’après Google :

C’est un changement algorithmique de Google visant à rechercher des sites web de qualité pour couvrir la Longue Traîne. Il a subi des tests intenses, et il va rester en vigueur
C’est carrément se moquer du monde.

Et ailleurs que dans la longue traine, ils vont mettre les poubelles alors ? C’est ça ? :roll:

-- EDIT --
Ça ne semble pas collé. Apparemment ça impacte les gros sites, ce qui n’est pas le cas celui-ci cas, ça laisse indem les sites plutôt spécialisés, ce qui est justement le cas de celui-ci, et ça occasionne des baisse de 10 à 20%, alors que là c’est une baisse de plus de 80% (d’un coup, ou presque sur environ 2 semaines ou un peu plus, avec une basse qui s’accélère fin mai).
 
WRInaute accro
Re: « Suppression » de ducplicate-content = 5 x moins de visites

hibou57 a dit:
MayDay, d’après Google :

C’est un changement algorithmique de Google visant à rechercher des sites web de qualité pour couvrir la Longue Traîne. Il a subi des tests intenses, et il va rester en vigueur
C’est carrément se moquer du monde.

Et ailleurs que dans la longue traine, ils vont mettre les poubelles alors ? C’est ça ? :roll:
Chacun voit selon les conséquences pour lui. Je trouve ce nouvel algo positif. Il donne plus de poids sur des petites requêtes à des sites dont c'est réellement la thématique. C'est justement pour éviter l'effet longue traîne qui revient à récupérer des visiteurs sur des sujets qui ne ressemblent que partiellement à leur demande.
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

fredfan a dit:
hibou57 a dit:
Chacun voit selon les conséquences pour lui. Je trouve ce nouvel algo positif. Il donne plus de poids sur des petites requêtes à des sites dont c'est réellement la thématique. C'est justement pour éviter l'effet longue traîne qui revient à récupérer des visiteurs sur des sujets qui ne ressemblent que partiellement à leur demande.
J’ai édité mon message pendant que tu postais le tiens.

J’ajoute encore qu’il n’y a aucune sur-optimisation, presque tous les liens sont naturelle (mais il semble justement que cette mise à jour pénalise les liens naturels, ce qui confirme que c’est n’importe quoi). Pas de bricolage particulier non-plus, je ne me suis jamais amusé à des choses à la SEO.
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

La vitesse des sites... c’est un critère récemment apparu, qui n’était censé avoir qu’un impacte faible, et qui dans le WebmasterTools, n’apparait d’ailleurs encore que sous Labos.

Dans le même temps, en me renseignent sur ce Mayday, j’ai cru comprendre que la vitesse du site n’était plus un critère marginal, mais maintenant un critère important.

Vrai ou faux ? Je ne sais plus quoi en penser.

J’avais déjà fait quelques opérations dans ce sens il y a un peu plus d’un mois justement (c’est à ce moment là que j’ai décidé d’appliquer ce filtrage dans le Robots.txt), mais après avoir rencontré un problème difficile à résoudre, j’ai dut reporter certaines choses.

Certaines page du site, d’après WebmasterTools, mettraient plus de 5 secondes à s’afficher, alors que ces mêmes pages s’affichent instantanément chez moi :eek:

Heureusement, toutes ne sont pas dans ce cas. Voici ma moyenne :

Vue d'ensemble des performances

En moyenne, les pages de votre site se chargent en 2,5 secondes (dernière mise à jour : 12 juin 2010). Plus rapide que 57 % des sites La précision de ces estimations est moyenne (entre 100 et 1000 points de données).

Est-ce bon ou mauvais ?

Est-ce que ça peut expliquer ?

Le pire c’est qu’on croirait que la baisse continu (légèrement, mais sembler continuer quand-même).

C’est du délire, aucune idée de la cause (d’ailleurs, Google les connait-il lui-même ? ... pas sûr). Puis j’avais d’autres choses à faire que de m’occuper de son nième caprice. Faut espérer que Bing prenne de la place et qu’il sera plus cohérent. Puis franchement, le WebmasterTools, pour l’aide qu’il apporte... il ne dit strictement rien. 80% ou un peu plus de baisse du nombre de visites d’un coup, et rien, aucune information, aucune indication sur le problème que Google rencontre avec le site. Nada. Il faudrait qu’ils pensent à passer du gadget à l’information utile.
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

C'est un critère parmi 200 et quelques - tout comme le PageRank.
Avec un chargement en 2,5 secondes, tu es tout à fait rapide.
 
WRInaute passionné
Re: « Suppression » de ducplicate-content = 5 x moins de visites

thickparasite a dit:
C'est un critère parmi 200 et quelques - tout comme le PageRank.
Avec un chargement en 2,5 secondes, tu es tout à fait rapide.
J’ai cru que c’était ça, vu que dans le graphe, il me place dans la zone des sites lents.

En même temps, j’aurais encore préféré que ce soit ça, au moins j’aurais sut ce que c’est. Bon, je vais laisser tomber cette piste (j’étais en train de bricoler un truc en urgence pour ça).
 
WRInaute passionné
De pire en pire : maintenant c’est le nombre d’URL indexées qui diminue. Il n’en reste à peine plus que la moitié de celle présente dans le Sitemap.

C’est ça Caffeine ? 8O

Et toujours aucune piste dans le WebmasterTools, aucun message d’erreur d’exploration ou de chargement, toujours rien.

Pour l’instant la petite histoire des paramètres URL (voir plus loin vers le haut) ne semble pas avoir d’effet. Je vais attendre encore et puis je finirai par restaurer l’ancien Robots.txt, pour voir ce que ça peut donner.
 
WRInaute passionné
Bizarre, on croirait qu’il re-décolle d’un coup :eek: :eek: depuis tout juste 15 minutes, il semble avoir repris une activité qui était son activité normale avant, et c’est venu d’un coup.

J’attends de voir à la fin de la journée pour voir si ce n’est qu’un sursaut ou pas.

-- EDIT --
Non, fausse bonne nouvelle, c’est déjà plus là.
 
WRInaute passionné
Décolle toujours pas, et même une légère baisse encore aujourd’hui.

Je viens de mettre en place la compression (à ma manière, vu que l’hébergeur ne la supporte pas) : 10% de gain de temps à la première page, 50% de gain de temps aux pages suivantes (quantité de données transférées divisée par entre 3 et 4 selon que HTML ou JS ou CSS, etc). J’espère que ça va réveiller cette tête à claque qu’est Google (de son côté, c’est toujours le mutisme).

Je vous dirai si ça marche, si ça a un effet.

Voilà, c’était le message du jour sur ce blog d’une descente aux abimes.
 
WRInaute accro
Et correspond surtout au jour ou tu fais des modifs pour l'indexation ou non de certaines pages. Question qui semble idiote mais que je ne crois pas avoir vu. Es tu sûr des manipulations que tu as fait sur ton site ? N'as tu pas fais une grosse boulette ?

J'ai pas eu le courage de lire tout ton paté en première page, tu y vas trop fort et il est trop tard. Mais en deux mots tu peux me résumer ce que tu as voulu faire, comment et pourquoi ;)
 
WRInaute passionné
L.Jee a dit:
[...] Mais en deux mots tu peux me résumer ce que tu as voulu faire, comment et pourquoi ;)
Je vais essayer de résumé et d’être plus compréhensible alors (tu me dira si c’est plus compréhensible ou pas).

Quand j’ai lu par hasard que la vitesses des sites est devenue un critère, j’ai voulu m’en occuper. J’ai limité le nombre de références à des domaines externes, et paramétré la mise en cache sur certains éléments (mais pas tous à ce moment là). Toujours en suivant les conseils de Google, pour faciliter l’indexation, j’ai ajouté un filtre dans le Robots.txt pour que Google n’essaie plus d’indexer des URLs qui n’étaient pas pertinentes et qui n’étaient même pas des liens, mais l’adresse de l’attribut “action” de fomulaires. Cela a éliminé du coup les erreurs HTTP que Google occasionait parfois en suivant ces adresses.

Donc, vitesse de chargement des pages accélérée et moins d’indexation inutile (de toute façon, il « crawlait » ces URLs sans les indéxer, puisqu’elles ne sont jamais apparue dans l’indexe).

Puis je laisse un temps, environ trois semaines, parce que je bloquais sur une dernière étape : ma mise en place des réponses compressées, avec un hébergeur ne supportant pas cette option.

J’y reviens environ 3 semaines plus tard et visite Google Analytics à cette occasion. Là, tout au contraire du léger mieux que j’espérais et auquel je pouvais m’attendre légitimement, je découvre une catastrophe.

En résumé, c’est l’histoire de « comment couler un site un suivant les conseils donnés par Google lui-même » (et ce n’est pas la première fois que ça m’arrive).

Comme tu m’as demandé de faire bref, je ne parle pas des signes flagrants que Google fait vraiment n’importe qu’il et ne cesse de se dégrader.
 
WRInaute passionné
Après la mise en place de la compression que j’ai eu du mal à mettre en oeuvre, résultat : encore une baisse !!

2% de baisse supplémentaire encore, ce qui amène la baisse totale à 82%

Ils faut qu’ils arrêtent de picoler chez Google !!

C’est une bande de malades
 
WRInaute passionné
Nouveau phénomène étrange (à moins qu’il ne soit expliqué) : quand une URL est filtrée par le Robots.txt, on la voit apparaitre dans les erreurs d’exploration sous « Accès restreint par un fichier robots.txt ».

À la mise en place du filtre, un bon nombre d’URL figuraient sous cette catégorie (en fait, un nombre qui est égale au nombre d’URL indexées). Aujourd’hui, et alors que le nombre d’URL indexées n’a pas changé (toujours à peine la moitié du nombre de pages du site... « bravo » Caffeine), le nombre d’URL dans « Accès restreint par un fichier robots.txt » n’est plus que de 6.

J’essaie d’expliquer le phénomène, en ne pouvant imaginer que deux hypothèses, sans savoir laquelle est la bonne :

  1. Nouvelle aberration de Google (ce serait mauvais)
  2. Effet de la manipulation sur les paramètres d’URL expliquée dans un précédent message (ce serait bon).

Peut-il y avoir d’autres hypothèses ?
 
WRInaute passionné
Il est dingue. Je viens de m’apercevoir en explorant l’indexe de Google de manière plus détaillée, que en fait si, il indexait les URL du CGI, alors qu’aucun lien externe ne pointe dessus.

J’explique (ou je rappel) : sur des pages xyz.html, se trouve un formulaire qui renvoie vers mycgi&paramm1=...&param2=...&... etc.

Je savais que Google tentait des soumissions du formulaire (je me disais que c’était n’importe quoi, et c’est entre autre pour cela que j’ai fini par le filtré dans le Robots.txt), mais je pensais qu’il n’indexait pas ces adresses, qu’il se contentait de les visiter, peut-être pour les tester.... Eh bien si ! Il les indexe !

Alors du coup, comme le CGI se termine par une redirection vers la page d’appel, il voyait sûrement du “duplicate content” comme je le craignais.

J’ai vu quelques autres bizarrerie dans l’indexe, des adresses qu’il semble inventer plus ou moins.

Après ça, comment s’étonner que ce robot sème un tel bazar. Plutôt que de passé son temps à indexer n’importe quoi et même à indexer ce qu’on lui demande de ne pas indexer (un autre problème que j’ai avec), qu’il indexe donc les pages importantes qu’il n’indexe pas !! Ça sera plus utile ! Et ça lui évitera en plus peut-être (sous réserve qu’il en soit capable) d’envoyer les visiteurs n’importe où n’importe comment (parce que c’est ce qu’il fait souvent).

Et c’est ça les améliorations de Google ? J’appellerais plutôt ça sa n-ième dégradation.

Du n’importe quoi à la pelle comme s’il en pleuvait.
 
WRInaute passionné
Un nouvel exploit de Caffeine : nombre d’URL indexées encore divisé par deux.
Il n’est plus que le quart des pages.

Google, qui fait des requêtes avec “Accept-Encoding: gzip”, et qui reçoit des pages gzippé (je l’ai vérifié), continue à indiquer dans les performance du site qu’il recommande la compression pour des pages... qu’il reçoit pourtant compressées. Il les affiche avec leur taille non-compressée alors que la date de mise à jour des données indiquée est ultérieure à celle de la mise en place de la compression.
 
WRInaute passionné
Je viens de m’apercevoir que maintenant ce sont les site-links qui ont disparu.

Et bien évidement (gadget oblige), toujours aucune message d’erreur qui puisse expliquer quoique ce soit.
 
WRInaute passionné
Tristetaupique a dit:
De tout coeur avec toi, ça a pas l'air drôle...
(c’est aussi complétement obscure)



Choses bizarres : tout d’abord j’ai vérifié à l’aide d’un outil en ligne (mais dont la fiabilité ne fait pas l’unanimité), que le site ne semble pas être sandboxé, malgré la très forte baisse qu’il a subit. Ensuite, je constate, sur plusieurs jours, que les visites en provenance de Google, ne sont pas le résultat d’internautes ayant suivi un lien sur la dixième page de résultats, mais sur la première. Les visites reçues de Google restent toujours des visites pour des requêtes où le site apparait entre la première et la huitième place de la première page de résultats. Pour une requête de deux mots renvoyant 6 millions de résultats, le site passe même devant Wikipédia, qui a pourtant une page dont le titre est exactement le texte de la requête, alors que le site ne contient lui-même pas de titre correspondant à la requête (mais son contenu peut effectivement répondre à la requête).

C’est le signe de quoi ? C’est incohérent non ? La chaud et le froid en même temps ?

Remarque : il semble que souvent des gens arrivent assez fréquemment sur le site en tapant son nom directement... le nom d’une page + le nom du site, ou un mot clé d’une page + le nom du site. Probablement ou je suppose, parce qu’ils ne le retrouvent plus aussi facilement via Google.
 
WRInaute passionné
Suite des délires d’un robot devenu fous, il déraille encore doublement :

1) je parlais il y a une semaine ou un peu plus de la mise en place de la compression sur ce site, qui a fait gagner environ 15% de temps de chargement à la première page et 50% au page suivantes. J’avais remarqué que bien que recevant des contenu compressés, il continu a ne pas le voir et indique toujours dans le GWT, des tailles non-compressées... non seulement il n’a toujours pas remarqué qu’il reçois des contenu compressé, mais en plus le voilà maintenant qui m’indique des temps de chargement de page de 5 seconde ! Soit environ 2 fois plus long qu’avant ! Il est localisé sur Mars leur robot ?

2) Encore plus encore une division par deux aujourd’hui du nombre de visite !

À part ça, pas le moindre message d’erreur, pas le moindre problème indiqué avec le HTML, pas le moindre problème de méta ou de title ou de je ne sais quoi.

Et pour soigner la tête ? Il n’ont toujours pas trouver le médecin adéquate ?

Et ils s’étonnent que des webmasters fassent n’importe quoi ? Mais s’en étonner quand on voit ce qu’ils sont eux-même ? C’est une bande de malades dans cette boite.

« faites du contenu » et gnagna, « soignez la langue » et gnagna, « travaillez l’accessibilité et l’expérience utilisateur » et gnagna, « améliorez le temps de chargement des pages » et gnagna... Si vous voulez apprendre à vous moquer du monde bien copieusement, allez faire un tour chez Google, ils ont sûrement la recette.

Franchement, peut-on prendre au sérieux et faire confiance à un robot qui n’honore même pas le Robots.txt ? Parce qu’il continue à indéxer des liens qui lui sont interdit pas le Robots.txt !!! Ça, il sait faire ! Et pas foutu d’indexer des pages de 20K ou 50K de texte, mais indexer comme du texte des binaires de 3M, ça il sait faire aussi ! C’est pour donner de lecteur aux internautes peut-être ?

Ça devient une vraie poubelle ce moteur de recherche. Et avec ça on se moque de Yahoo et Exalead ? Mais ils tiennent 1000 fois mieux la route.

-- EDIT -- Pour la division par deux du nombre de visiteurs aujourd’hui d’après Analytics, je ne comprend plus rien : mes statistiques personnelles que je viens de consulter ne me disent rien de tel, elle indiquent approximativement le même nombre qu’hier.

-- EDIT (2) -- D’après le nombre d’affichages de AdSense, il y en a juste une vingtaine de moins qu’hier. Sur le coup du nombre de visiteurs, c’est plutôt Analytics qui a déraillé alors. Je me demande si ça vaut la peine de le laisser d’ailleurs, surtout s’il participe à augmenter le temps de chargement des pages... quoique, en même temps, améliorer le temps de chargement, Google ne le voit même pas et voit même pire qu’avant. Question en suspend.

-- EDIT (3) tardif -- Je viens de tester avec OPQuast Reporting, dont le point n°80, « Le serveur transmet des contenus compressés aux clients qui les acceptent » fait partie des contrôles automatisés... il me le valide bien (tout comme d’autres type de contrôle avec d’autres sites). Il n’y a que Google qui soit incapable de voir qu’il reçoit une réponse compressée.
 
WRInaute discret
Le déclassement, l'indexation qui part en vrille, les visiteurs moins nombreux. Rien ne me choque vraiment, ça fait partie du oueb et de son fonctionnement : tout le monde compte beaucoup trop sur Google et oublie les autres moyens d'obtenir du trafic durable. D'un autre côté, avec plus de 80% du trafic venant de Google, en moyenne, je peux le comprendre.

Il y a cependant un truc qui m'intrigue beaucoup dans ce que tu dis : Google remplirait / soumettrait désormais les formulaires ? Pour quelle raison feraient-ils cela ? Es-tu allé voir les valeurs que ton formulaire récupère quand ce serait le robot de Google dessus ?

Et pour le duplicate content, ok, c'est mal : mais renvoyer sur une page avec la même url et le même contenu, ce n'est pas du duplicate content. et puis de toute façon, le faire suite à une action d'un utilisateur dans un formulaire, ça ne regarde pas les moteurs de recherche !
 
WRInaute passionné
Depuis un peu plus d'un mois je vois du grand n'importe quoi dans les SERPs. Pour moi google a déraillé un bon coup après May Day.
 
WRInaute passionné
pprem a dit:
Le déclassement, l'indexation qui part en vrille, les visiteurs moins nombreux. Rien ne me choque vraiment, ça fait partie du oueb et de son fonctionnement
Mais un mouvement aussi brutale n’a rien de naturel, c’est un dysfonctionnement.

pprem a dit:
tout le monde compte beaucoup trop sur Google et oublie les autres moyens d'obtenir du trafic durable. D'un autre côté, avec plus de 80% du trafic venant de Google, en moyenne, je peux le comprendre.
80%. des visites... et 95% pour des requêtes sur un moteur de recherche.

pprem a dit:
Il y a cependant un truc qui m'intrigue beaucoup dans ce que tu dis : Google remplirait / soumettrait désormais les formulaires ? Pour quelle raison feraient-ils cela ?
Justement, je me le demande. Mais j’ai vu un autre moteur le faire aussi je me souviens il y a 2 ou 3 ans, je crois que c’était Webarchive. Idem pour Webarchive, je me suis posé des questions. Celui là il soumettait aussi un formulaire d’envoie de messages, il laissait tous les champs vide, et soumettait directement comme ça. Zinzin.

pprem a dit:
Es-tu allé voir les valeurs que ton formulaire récupère quand ce serait le robot de Google dessus ?
Dans le cas de Google, c’est un formulaire avec un seul champ et il soumet avec un champ par défaut.

-- EDIT -- Erreur de ma part : il y a deux champs, mais l’un des champs est caché et renseigné automatiquement.

pprem a dit:
Et pour le duplicate content, ok, c'est mal : mais renvoyer sur une page avec la même url et le même contenu, ce n'est pas du duplicate content.
Ce n’en est pas ? Je croyais que c’en était :eek:

De toute façon, même si c’en est pas, il reste le problème qu’il garde dans son indexe des appels correspond au submit de ce formulaire, ce qui n’a aucun sens ! J’ai encore vérifié hier, il les a toujours dans l’indexe, et à côté de ça il n’indexe pas des page importantes.

pprem a dit:
et puis de toute façon, le faire suite à une action d'un utilisateur dans un formulaire, ça ne regarde pas les moteurs de recherche !
Là on est bien d’accord. Si c’était fait pour les robots, ça se saurait.

Firewave a dit:
Depuis un peu plus d'un mois je vois du grand n'importe quoi dans les SERPs. Pour moi google a déraillé un bon coup après May Day.
Il n’y a qu’à voir comment il fonctionne, je me demande bien comment il pourrait faire quelque chose de correcte dans les pages de résultats : on ne peut pas renvoyer des pages répondant à une requête quand on indexe pas ces pages et qu’on indexe n’importe quoi à la place. Et encore, même dans ce qu’il indexe, faut-il qu’il renvoie sur la bonne page...

Cette histoire de soumission de formulaire, je me demande si elle n’expliquerait pas une autre manie de Google : régulièrement, dans les pages de résultats, on peut trouver des pages.... qui sont des pages de résultats d’autres moteurs de recherche. Un temps j’avais pensé que c’était les propriétaires de ces moteurs de recherche qui s’amusaient à référencer des URL correspondant à des requête sur leur moteurs, mais je n’ai jamais vu de tel référencement nul part, alors je me demande maintenant si ce ne serait pas Google qui indexe des soumissions de formulaire là aussi. Seulement il y a un hic : comment les remplirait-il sans valeurs par défaut ? Cette question des SERP d’autres moteurs dans les pages de Google reste un mystère pour moi...
 
WRInaute discret
tu devrais peut-être les contacter pour leur signaler des bizarreries sur l'indexation de ton site, vérifier s'il est normal que ça passe les formulaires et discuter d'une manière générale de leur nouvelle façon d'indexer. si ça se trouve tu auras peut-être des réponses utiles.
 
WRInaute passionné
pprem a dit:
tu devrais peut-être les contacter pour leur signaler des bizarreries sur l'indexation de ton site, vérifier s'il est normal que ça passe les formulaires et discuter d'une manière générale de leur nouvelle façon d'indexer. si ça se trouve tu auras peut-être des réponses utiles.
Ben, même si je n’en avais pas parlé, j’avais pensé à ça. Mais comme j’avais déjà tenté de les contacter par mail une fois précéente et que je n’ai jamais eu de réponse (pour un autre problème, que j’ai rencontré en plus après avoir suivi le conseil donné en réponse à un mail... la seule réponse que je n’ai jamais reçu de Google d’ailleurs)

Bref, je lisais ça il y a quelque jours Demande de réexamen de votre site :
Google a dit:
Si votre site n'apparaît pas dans les résultats de recherche Google ou s'il a reculé dans le classement (alors que vous pensez qu'il respecte nos consignes aux webmasters), vous pouvez demander à Google de le réexaminer.
Je pensais que cette procédure était réservée aux cas graves, mais je lis « ou s'il a reculé dans le classement ». Alors j’avais pensé faire une demande.

Mais je suis quasiment certain qu’ils reçoivent des milliers de mails par jour, alors je ne sais pas si ils lisent ce qu’ils reçoivent. Soit, je vais essayer, je vais prendre soin de leur écrire une description bien formulé qui ne sera probablement pas lue, mais j’aurai essayé.

Et moi de mon côté genre pas peur des conséquences :mrgreen: je continue les modifications que j’avais prévu (et j’ai pas fini, j’en ai encore à faire, sur l’Accessibilité par exemple), même si je me suis demandé si je devais les arrêter en me demandant comment il allait encore réagir, puis je me suis dit que de toute façon, vu où c’en est maintenant, autant continuer.

P.S. Ne pas croire que je suis un cas unique et que je sois le seul à rencontrer ce genre de choses. Si on lis bien les forums, ça arrive à d’autre, la seule différence et que moi j’insiste et que je ne me tais pas. Sinon, des cas de gens qui remodèlent un site plus ou moins, et pour des raisons louables, corrigent des choses, sans changer le thème et le contenu et se prennent une gamelle de la même dimension (idem, le dernier cas que j’ai lu, chute de 80% presque d’un coup) il y en a d’autres.
 
WRInaute passionné
Je n’ai pas encore écrit à Google, je prévois de le faire plus tard, ce n’est pas pour ça que je passe : c’est à confirmer, mais je crois remarquer, que bien que le nombre de visiteurs stagne toujours au plus bas, il me fait remonter dans certaines requêtes, j’en ai même un peu plus qu’avant encore qui passe devant Wikipédia.

L’apparente baisse progressive cachait en fait deux baisses consécutives plus rapides

Je complète ici les informations fournies dans certains précédents messages, ça pourrait intéresser certaines personnes... je me suis penché hier-soir plus en détails sur les rapports de Analytics, et j’ai constaté que la baisse n’a pas été la même en même temps sur toutes les pages. L’impression d’une baisse progressive commençant début mai et se poursuivant jusque début juin, cachait en fait, une baisse brutale et immédiate sur un ensemble de pages le 6 mai très exactement suivit par une autre baisse également brutale en une seule journée, le 6 juin très exactement, cette fois sur un autre ensemble de pages.

Les deux combinés m’avaient donné l’impression d’une baisse progressive, mais il y a eu deux baisses, qui se sont opéré sur une seule journée, deux journées différentes, et de plus, elles sont exactement le même jour de chaque mois :eek: (6 mai et 6 juin).

La baisse en provenance de la recherche d’images en fait partie (si je me souviens bien, elle faisait partie du lot du 6 juin), ce qui semble indiqué que ces baisses ne sont pas liées à la pertinence, puisque les visites depuis Google Images, correspondait à des images diverses dans tous les genre... la raclée a été la même, quelque soit le contexte et le type des images, ainsi que leur sujet.

Sur quelque rares page, j’ai remarqué une chute depuis la normale (et quand je parle chute dans ce message, je veux dire passé quasiment à néant) sur en une journée, puis une remonté à la normale en une une journée également environ deux semaines plus tard.

Je sais bien que cela n’explique rien (quoique cela suggère peut-être que mon aventure avec le Robots.txt n’en est pas la cause), mais je pensais que ces observations peuvent êtres importantes.
 
WRInaute passionné
Suite de la série « Google se fout de notre gueule » (en plus ça rime).

Indexe

Non seulement comme vous le savez déjà si vous avez lu ce sujet, Google maintient dans son indexe des URL qui lui sont pourtant interdites dans le Robots.txt.... loin de s’arranger, ça s’aggrave : ils m’affichent maintenant ces URL dans les adresses non-trouvées :eek:

Il me dit avoir trouvé ces adresses dans une page.... ou elles ne figurent pas ! Je vais donc lui interdire d’indexer cette page.... si encore il est capable d’en tenir compte.

Performance du site

Si vous avez lu ce fil, vous savez que Google perçois comme non-compressée des réponses de requêtes qu’il reçois pourtant compressées (Opera, FireFox, http://web-sniffer.net/, http://www.webpagetest.org/test voient tous des réponses compressées, ... seul Google en est incapable). Là également, loin de s’arranger, il trouve le site encore plus lent qu’avant : il me l’indiquait à 2.5 secondes par page, pour passer de un peu plus de 4 secondes, il m’indique maintenant 6 secondes par pages ! Là où http://www.webpagetest.org/ me montre qu’à la suite de mes modifications dans ce sens, je suis passé de 4.5 secondes pour les pages qui posaient le plus de problèmes, à 1.7 secondes (temps variables selon les pages).

Accessibilité

Au passage, j’ai bien « aimé » quelques commentaires sur Alsacréation aujourd’hui, qui disaient à quel point Google se moque de ce que l’on appel « l’Accessibilité ». Alors peut-être pas étonnant que je me soit fait couler par Google quand j’ai entre autres choses voulu l’améliorer (non seulement il s’en moque, mais en plus il n’aime pas du tout et la sanctionne).



P.S. Inutile de dire donc qu’il continue encore à indexer n’importe quoi qui n’a pas de sens, pendant qu’il n’indexe pas ce qu’il devrait indexer. Ce n’était pas le poids des habitudes, je me demande qui serait assez idiot pour faire de Google un monopole.
 
WRInaute passionné
De mieux en mieux !! Les sites qui copient par contre il les indexe très bien ceux-là : une page de forum qui avait été un des premiers à me copier, qui sur une requête passe devant, et en plus là où le site apparait, il ne renvoie même pas vers la bonne page !!

La poubelle du web ne connait aucune limite !!

En même temps.... de la part d’un moteur de recherche qui crache sur les droits d’auteurs, faut-il s’étonner ?

Admirer un peu la prouesse technique : sur une requête, il renvoie en résultat une page qui contiens l’expression.... mais dans un lien qui renvoie vers une page... qu’il n’indexe pas, évidement, et donc il ne renvoie pas la bonne page. Mais un forum qui avait à l’époque commencer copier la liste dans son état d’alors quand il était encore en .perso.cegetel.net (c’est une page sur les prénom) est parfaitement indexé

https://www.google.fr/search?hl=fr&source=hp&q=pr%C3%A9nom+traduit+en+a ... =&gs_rfai=

même titre, à des parenthèses et guillemet prêt, mais la page d’origine n’apparait pas dans l’indexe, au lieu de ça, il renvoie une page qui contient son titre dans un lien seulement

d’ailleurs ce n’était pas les seul à avoir copié en 2006/2007, il y en a eu à la pelle
ici : la ils ne se sont même pas embêter, c’était du brut de pomme : +http://www.bladi.net/forum/116454-prenoms-signification/ jusqu’à mes doutes sous forme de note entre parenthèse

Bravo Google... continue comme ça !!!
 
WRInaute passionné
Après avoir lu l’article Analiser la longue traine, j’ai voulu me faire une image dans Analytics, et je constante que, en gros, les requêtes de 1 à 2 mots constituaient, et constituent toujours 20% des visites, et les requêtes de 3 à 4 mots, constituaient et constituent toujours 40% des visites. Les 40% restant sont les requête de 5 mots ou plus.

La courbe des requêtes de 5 mots ou plus ne varient pas et reste stable. Les courbe des requêtes de 1 à 2 mots et de 3 à 4 mots, collent exactement à la courbe du trafic générale.

Je ne pense pas que l’on puisse parler de longue traine avec des requête de 1 à 2 mots ou de 3 à 4 mots non ?

... mais je vais revérifier ça tout de même une seconde fois plus tard, en attendant, c’est ce que je peux en dire pour le moment.
 
Nouveau WRInaute
Et ben, froid dans le dos tout çà. Essaie de contacter Google, ca me parait la seule solution. ( je sais que c'est pas facile évidemment ).
 
WRInaute passionné
Un mini-phénomène que je ne peux pas expliquer, mais il est là, alors pourquoi pas en parler, puisque j’ai ouvert un blog dans cette partie du forum (et autant ne pas cacher la moité des informations).

Une page qui était consultée avant entre 120 et 150 fois par jour et qui était tombée à 10 ou 15 consultations par jours, est repassée aujourd’hui à 112 consultations d’après mes statistiques qui vont de 7h à 7h (du matin, donc il en manque un peu). Mais je ne sais pas s’il faut en tenir compte (seul l’avenir dira si c’est un non-événement ou pas), parce qu’au cours des 12 derniers mois elle avait connu un pic un jour unique à 230 consultations... pic temporaire ou retour à la normal sur une page en particulier ? ... verra bien.

En tous les cas, cette page n’est pas concernée par les bizarreries de l’indexation et a toujours été indexée normalement.

e-magin a dit:
Et ben, froid dans le dos tout çà. Essaie de contacter Google, ca me parait la seule solution. ( je sais que c'est pas facile évidemment ).
MP
 
WRInaute passionné
Ca fait un mois et demi que je surveille ce qui monte et ce qui descend sur un grand nombre de requêtes. Les pages internes semblent privilégiées maintenant par rapport à la racine, je vois des tld passer sur les SERP d'autres localisations juste parce qu'ils ont les mots clés dans l'url et qu'ils parlent du sujet.

Le NDD semble avoir pris de l'importance comme l'intégration des KW dans l'URL encore plus qu'avant. Plus sérieux, la répétition des titres même partielle semble être pénalisante maintenant, il faudrait en gros un titre unique.

Si quelqu'un a d'autres observations, merci de nous en faire part.
 
WRInaute passionné
Firewave a dit:
Le NDD semble avoir pris de l'importance comme l'intégration des KW dans l'URL encore plus qu'avant.
Concernant les NDD, j’ai remarqué exactement le même phénomène que toi sur certaines requêtes, je confirme aussi !

Les mots clés dans l’URL, c’est un peu normal, puisque ça fait partie de l’identification du document, mais dans le NDD, c’est idiot (je donnerai mon avis sur cette question plus longuement plus tard). Le bourrage de « mots clés » dans le nom de domaine ; et les noms de domaines qui se ressemblent tous à une ou deux lettres prêt ; on a pas fini d’en voir.

Firewave a dit:
Plus sérieux, la répétition des titres même partielle semble être pénalisante maintenant
C’est quoi une répétition des titres exactement ? C’est répété à partir de quelles conditions ?
 
WRInaute passionné
Complétement incohérent Google
hibou57 a dit:
Un mini-phénomène que je ne peux pas expliquer, mais il est là, alors pourquoi pas en parler, puisque j’ai ouvert un blog dans cette partie du forum (et autant ne pas cacher la moité des informations).

Une page qui était consultée avant entre 120 et 150 fois par jour et qui était tombée à 10 ou 15 consultations par jours, est repassée aujourd’hui à 112 consultations d’après mes statistiques qui vont de 7h à 7h (du matin, donc il en manque un peu). Mais je ne sais pas s’il faut en tenir compte (seul l’avenir dira si c’est un non-événement ou pas), parce qu’au cours des 12 derniers mois elle avait connu un pic un jour unique à 230 consultations... pic temporaire ou retour à la normal sur une page en particulier ? ... verra bien.
Donc ça a duré deux jours en tout et aujourd’hui la page n’est plus du tout consultée.

Donc j’ai re-testé la requête typique sur Google, et impossible de la trouver, elle est je ne sais pas où. J’ai testé les 30 première pages, donc les 300 premiers résultats, et inutile de dire que sur les 30 première page, j’ai vu passer tout et n’importe quoi et beaucoup de pages qui ne parlent d’ailleurs même pas du sujet.

À l’image de la confiance (faible) que l’on peut faire à Google qui ne sait même pas ce qu’il fait.
 
WRInaute passionné
hibou57 a dit:
Donc ça a duré deux jours en tout et aujourd’hui la page n’est plus du tout consultée.
Au moment de mettre en place mon nouvel outil perso de statistique, je découvre une nouvelle remontée de cette même page, encore une fois, tout d’un coup.

Pfff... c’est chaotique, et ce qui me dérange le plus, c’est que ces variations ne sont pas du tout naturelles, elles ne représentent pas du tout le comportement ni l’appréciation des internautes. Google dirige les internautes, et non pas l’inverse, c’est très problématique.
 
WRInaute passionné
Bonsoir, O-yasumi nasaï, Layla sayda

Nouvel épisode en plusieurs points :

  • il semble que trois autres pages aient retrouvé leur fonctionnement habituel, depuis au moins trois jours (la précédente dont je parlais est toujours dans son fonctionnement normal).
  • quelques renvois inappropriés des internautes par Google sur une des Px pour des requêtes R qui auraient dut renvoyer les internautes sur des pages Py de manière flagrante et qui à mon avis occasionnaient des déceptions chez les visiteurs, ont pris fin pour les cas les plus importants depuis environ 3 jours.
  • j’ai noté la réapparition des sites links qui avait disparus il y a environ 1 mois ou un peu plus (il faudra revoir la date exacte dans les messages précédents de ce fil)

Peut-être faut-il en conclure que le phénomène constaté était dut à comportement passagé ? En tous les cas, quelques remaniement que j’avais poursuivi malgré tout, même en me posant des questions sur les conséquences qu’ils pourraient bien encore avoir n’ont pas eu les effets désastreux que je pouvais craindre (je me demandais comment Google allais encore réagir à quelques autres re-design).

Mais des points noirs subsistent (en dehors du fait que le site n’a pas entièrement retrouvé son fonctionnement normal, mais c’est une autre histoire et de toute façon c’est une chose qui n’est jamais constante sur le long terme et ne peut pas l’être) :

  • des adresses de redirection figurent toujours dans l’indexe de Google
  • le Google Webmaster Tools indique toujours des temps de chargement de pages délirants qu’aucun autre outil de mesure de cette dimension ne retrouve
  • certaines pages dont le titre a changé et qui ont pourtant été indexé par Google une bonne centaine de fois depuis (en 3 ou 4 semaines), apparaissent toujours dans les résultats avec leur ancien titre

Un autre phénomène que j’ai remarqué avec le retour des sites-link : les sites links sélectionnés par Google correspondent approximativement aux liens les plus visités par les internautes sur le site (c’est intéressant à noter pour savoir comment ils sont choisis). Ce point est intéressant et fera probablement l’objet d’autres observations futures, car j’ai supprimé Analytics du site récemment il y a quelques jours et cet événement sera l’occasion de voir si la suppression d’Analytics sur le site aura des conséquence sur le choix des sites links (ce sera la réponse à une hypothèse possible sur l’utilisation faite par Google des données issues d’Analytics).

Voilà pour les nouvelles... je continu à vous informer des prochains retournement de scénario dans ce petit film commencé il y a environ 2 mois (même si le premier message de ce sujet date d’un peu moins).
 
WRInaute passionné
Layla Hilwa, Oyasumi nasai :)
Pour ma part j'ai remarqué qu'un site sanctionné a une petite porte de sortie. S'il a des pages non indexées encore, les promouvoir conduit à les monter et échapper à la sanction sur ces pages.
En gros créez de nouvelles pages et référencez les, elles monteront.
 
WRInaute passionné
Firewave a dit:
J’aime bien, ça sonne bien :)

Firewave a dit:
Pour ma part j'ai remarqué qu'un site sanctionné a une petite porte de sortie. S'il a des pages non indexées encore, les promouvoir conduit à les monter et échapper à la sanction sur ces pages.
En gros créez de nouvelles pages et référencez les, elles monteront.
Finalement il ne s’agissait pas de sanctions, puisque d’après ce que l’on m’en a dit, la redirection d’une page vers elle-même n’est pas assimilé à du duplicate comme je me suis mis à le croire il y a quelques temps. Et puis de toute façon ça avait toujours été là, depuis longtemps, avant que je ne me décide à demander à Google de ne plus indexer ces redirections. Le titre du topic est trompeur, mais je n’ai pas voulu le changer pour que les gens « ne se perde pas »

En fait je n’ai pas non-plus vraiment créé de nouvelles pages (pas encore), mais j’ai passé du temps à en corriger (quasiment toute, mais il en reste trois). Je ne sais pas ce qui a fait couler le site un temps, ni ce qui le fait remonter un peu maintenant (je dis un peu, parce qu’il est loin d’avoir tout récupéré). Enfin, je note les événements ici, pour voir.

Pour la création des nouvelles pages, il faut attendre encore, que certaines choses soient terminées et que j’ai fini de remettre au point les trois qui me posent le plus de problèmes.

En tous les cas, merci pour les aimables intentions que je te devine :)
 
WRInaute passionné
Bizarre : aujourd’hui, de 4h du matin à 10h matin, un gros trou noir, absoluement aucun visiteur humain :(
Séquence émotion, j’ai complétement paniqué, mais ça a l’air d’être reparti, même s’il y a un sérieux trou... un trou noir de 6h, ça se ressent. Il n’y avait que des robots pendants tout ce temps 8O

Je me demande ce qu’il a encore fait. J’espère qu’il ne va pas me le refaire, parce que sinon c’est la crise cardiaque ou la spasmo assurée
 
WRInaute passionné
Bonsoir,

Nouvelles de ces derniers jours : quelque chose qui looks-like une remonté (tu devrais parler français, c’est mieux, ... oui, ok), quelque chose qui ressemble à une remonté. Va duré ou pas ? Je ne sais pas, d’autant que je ne comprend pas plus ce qu’il se passe qu’avant. Any way (mais tu va parler français oui sacré nom de *#$£§ ?!!)... heuu.. quoi qu’il en soit, il est revenu à environ la moitié de son régime d’avant, ce qui est presque un miracle, quand je pense à la dégringolade qu’il a put voir.

Mais comme je dis plus haut, je ne sais pas plus à quoi est dut la remonté que je sais à quoi a été dut la baisse. Est-ce que ce sont les modifications faites qui ont été bien interprétées ? Dont ces mêmes modifications que je suspectaient être responsables de la baisse ? Ou est-ce que la remonté aurait tout de même eu lieu sans rien faire ? Je ne sais pas.

Ah, un détail, ou peut-être pas, dont j’avais oublié de parler, mais je ne sais pas s’il est important ou pas : il y a quelque temps, un mois, j’avais remarqué que la redirection faites depuis l’ancien hébergeur, ne fonctionnait plus. L’ancien hébergeur en question est mon FAI (j’étais sur un hébergement du style machin.perso.quelquechose.net ), qui ayant été racheté, a remanié beaucoup de choses, y compris les sites qu’il hébergeait, qui sont maintenant hébergés par la société qui l’a racheté, et les seule redirections autorisées, sont celles de l’ancien hébergement du FAI vers le nouveau de ce même FAI. Cette redirection qui existait depuis 2 ans et demie, et qui était tombé en rade pendant 1 mois ou un peu plus, j’ai donc put la faire rétablir, mais comme une double redirection. ancien hébergement du FAI -> nouvel hébergement du FAI -> hébergement actuelle du site chez 1&1. Bref, je ne sais pas si ça a put jouer sur Google le fait que cet ancienne redirection maintenant plus ou moins rafistoler ait disparu pendant un temps. Je sais qu’il existe encore quelques liens vers cet ancien hébergement, les premiers liens naturels fait vers le site, que je ne peux pas corriger.
 
WRInaute passionné
je n’y faisais pas attention ces derniers temps, et j’ai été revoir. Le semblant de retour à la normal n’aura pas duré longtemps : maintenant c’est 20 fois moins de visites que la normal.

Peut-être que Google veut que je transforme le site en blog sur Pamela Anderson ?

Et on se demande après pourquoi on voit des sites intéressants être abandonné par leurs auteurs. Demandez à Google, il sait pourquoi.

-- EDIT -- Et liens de site ont a nouveau re-disparus. Et il continue encore son merdier avec les erreurs d’explorations. J’en ai vraiment marre de ce taré. Ils comprennent pas ce que c’est qu’un disallow ? Ils sont cons à ce point chez Google c’est pas possible, il faut qu’ils se soignent. Même le premier neuneu venu sait ce que c’est. Il n’y a vraiment que Google pour mettre un bordel pareil. Aucun autre, ni Yahoo, ni Bing, ni Exalead n’est aussi con.

-- EDIT (2) -- Et évidement, toujours autant de poubelles dans l’index... il index toujours le sitemap.xml. Faut arrêter la booze et la bibine, faut vider leurs frigos.
 
WRInaute passionné
elludovico a dit:
Ou en es-tu avec ton probleme ?

lambi521 a dit:
J'ai exatement les mêmes problèmes sur mon site, as-tu de nouvelles infos ?

Non, pas de nouvelles. D’ailleurs j’avais pris le temps de visiter aussi le forum d’aide Google. J’ai eu le bonheur d’y voir des patrons de petites boites dont le site coulaient. Ils demandaient des explications, avançant qu’ils avaient toujours strictement suivi les consignes de Google sur la conception et l’édition. Réponse de Google : gros proute et j’m’en foutisme complet. Aucune réaction, aucune réponse. On sait au moins que les consignes de Google c’est du vent... mais ça presque tout le monde le savait déjà. Disons qu’on en a un peu plus de preuves preuve.

Ce moteur de recherche se fout simplement de la gueule du monde, il est un monopole, et comme avec tout monopole, il n’y a rien à en attendre.

Tous les comportements délirants relevés dans ce fil sont toujours d’actualité : it's not a bug, it's a Google's feature

La solution que je propose : laisser pourrir, après tout, les internautes n’ont que que ce qu’ils méritent Quand ça aura suffisamment pourri, peut-être qu’il se passera quelque chose.

Puis enfin, il ne faut pas que l’internaute soit très futé non-plus pour croire qu’un moteur de recherche peut être intelligent. Ça se saurait sinon.

Ah si, une solution : tu peux faire du spam, du duplicate, des pages satellites, ça marche plutôt bien, il a l’air d’aimer ça. Mais à condition d’avoir un gros site, je ne l’ai jamais vu récompenser un petit site pour spam, seulement les gros sites.
 
WRInaute passionné
D’ailleurs j’avais pris le temps de visiter aussi le forum d’aide Google. J’ai eu le bonheur d’y voir des patrons de petites boites dont le site coulaient. Ils demandaient des explications, avançant qu’ils avaient toujours strictement suivi les consignes de Google sur la conception et l’édition. Réponse de Google : gros proute et j’m’en foutisme complet. Aucune réaction, aucune réponse.

Je pense avoir lu exactement les mêmes sujets que toi, tu doit d'ailleurs pouvoir y voir mes messages sous mon pseudo lambi521. Je me souviens très bien de ce mec qui a dû fermer sa boîte (notion à retenir: ne JAMAIS se reposer sur un référencement 100 %naturel) suite à la mise en place de MayDay.

J'y ai d'ailleurs posté plusieurs questions dont les seules réponses provenant des modo (quand vous avez la "chance" qu'ils vous répondent) est "vous êtes sûr qu'il n'y a pas de paramètres bloquants dans votre robots.txt ?". Je partage également ton avis sur les consignes de Google car je les respectent toutes à la lettre (sauf peut-être au niveau de la similarité de certaines pages) et je n'ai jamais été ne serait-ce que bien indexé, alors que mes concurrents qui ont des oscommerce bruts de décofrage spammy à mort sont bien référencés, quelque fois ça donne envie de pété les plombs
 
WRInaute accro
Désolé de ne pas être intervenu avant (j'avais pris des vacances sur WRI).

Commençons par Hibou57: modification de site jugée importante par Google et réexamen du site (c'est pas les espèces de modifs de l'algo qui t'ont coupé ton site - au passage, t'a pas donné d'URL) .... j'attend. Duplicate, page de liens sans contenu , ....

Lambri 521 (à part tes remerciements aux modos que je juge un peu carrés, ils sont là pour modérer, pas pour faire des analyses de sites à longueur de journée) En plus, comme pour tous forums, il y a une part d'aide et de ... compréhension de celui qui pose les questions).

Oublie MayDay ou caféine et regarde la page d'accueil du site de ton profil ...http://webcache.googleusercontent.com/search?q=cache:http://www.imprim ... fr&strip=1 vers le bas. Pour ta page d'accueil (j'ai pas vérifié les autres), tu essaye aux yeux de l'algo de passer sur des noms de marque déposées (et GG se protège en bloquant ces pages). Pas fini https://www.google.be/search?hl=fr&rlz=1B3GGLL_frBE393BE393&q=%22Toner+ ... =&gs_rfai= si c'est pas du duplicate content, ....

Ca fait des années que des sites commerciaux se font casser par les modifs de l'algorythme (d'accord, rarement des très gros) mais faut aussi suivre les évolutions. Tous ces sites cassés (ou presque) ont utilisé avec bonheur une méthode pas trop correcte aux yeux des moteurs et quand GG a détecté (souvent avec un changement d'algrytme), le site a cassé ...

Le référencement, c'est aussi suivre la tendance. Un exemple, la description des pages bourrées du mot clé a sauté il y a quelques années (et en 2005, ca marchait encore un peu). Depuis, GG a complètement mis de coté la meta description. Je vais pas pleurer pour un site (pas forcément le tiens, j'ai donné mon avis au-dessus) qui utilise une technique plutôt "brol" à la quelle il s'accroche.

Le référencement, c'est un peu comme un sport, on s'adapte aux nouvelles techniques et règles (sauf que GG change les règles quand il veut).
On oublie GG m'a cassé. C'est à nous à nous adapter et pas gueu*ler quand on descend avec des techniques ancestrales ... qui ont fonctionner mais qui fonctionnent plus.
 
WRInaute passionné
Salut Ybet, tout d'abord merci de ta réponse, on parle de mon site ici si tu veux participer, tout avis est le bienvenu
https://www.webrankinfo.com/forum/t/dernier-topic-besoin-de-conseils-site-e-commerce.134024/

Je sais que je répète souvent les descriptions des produits dans les pages qui listent les catégories, puis dans les produits similaires/nouveaux produits sur certaines pages. Mais il n'y a pas plus d'infos sur des cartouches d'encre, que devrais-je faire pour supprimer le "duplicate content"? Si je supprime ces petites description l'internaute sera perdu. J'ai testé une requête Google aussi https://www.google.fr/search?q=%22Toner+Cyan+%288500+Pages%29%2C+origin ... fr___FR383 j'avoue qu'il y a un problème.

Et concernant les noms de marques en bas de pages, ce sont justement les pages sur lesquelles elles sont présentes que Google référence le mieux. Avant j'avais ce footer sur les fiches produits mais je l'ai enlevé depuis longtemp, et certaines pages qui étaient dans les SERPs puis mis à jour par Googlebot n'apparaissent plus. Pour d'autres pages c'est l'inverse...

Je n'ai rien contre les modos du forum Google mais faudrait juste qu'ils soient plus nombreux

Merci pour vos avis
 
WRInaute passionné
ybet a dit:
à part tes remerciements aux modos que je juge un peu carrés, ils sont là pour modérer, pas pour faire des analyses de sites à longueur de journée
Le problème, ce n’est pas la modération des forums officielles de Google, le problème, c’est Google, lui-même.

Mais comme ils ne répondent jamais chez Google (normal, avec les masses de problèmes qu’ils produisent, ils doivent être saturés), qu’il n’y a pas de source d’information fiable, qu’il est totalement opaque, bref, que c’est la bazar, les seules personnes auprès de qui les gens peuvent avoir l’impression d’avoir la moindre chance de trouver une réponse, c’est par des employés de Google sur le forum officiel (personnellement, je n’ai jamais espéré avoir de réponse de leur part)

Quand on a un problème avec un logiciel, on peut au moins lire la documentation, ou si on pose une question dans un forum spécialisé sur le logiciel XYZ, quelqu’un peut renvoyer à cette documentation (RTFM). Avec Google elle est où la doc ? Il n’y en a pas (enfin, c’est même pire, il y a des documentations bidons, ce qui est carrément pervers). Alors inévitablement, c’est sur le forum officiel et ses modos que les attentes se rapportent.

ybet a dit:
Ca fait des années que des sites commerciaux se font casser par les modifs de l'algorythme (d'accord, rarement des très gros) mais faut aussi suivre les évolutions.
Manière de dire que la référencement naturel n’existe pas, ou même que créer des sites naturellement, est autant une illusion.

ybet a dit:
Tous ces sites cassés (ou presque) ont utilisé avec bonheur une méthode pas trop correcte aux yeux des moteurs et quand GG a détecté (souvent avec un changement d'algrytme), le site a cassé ...
On se demande bien quoi, surtout sur des sites qui ne bricolent pas et sont conçus de manière spontanée et naturelle sans chercher autre chose que d’avoir des sites fonctionnels ou une fonctionnalité en particulier.

Et aucune indication d’erreur sur le compte « Outils pour les webmasters » ?

C’est pas la peine de tourner en rond : aucune documentation, aucune indication d’erreur, des variation tellement brutales qu’elles n’ont rien de naturelle = poubelle

D’ailleurs ces variation brutales soulèvent une question : si au temps T, les choses sont d’une manière, et au temp T+1, les choses sont radicalement différente, ça veut dire que Google découvre qu’au temps T il était mauvais ? Le problème, c’est qu’il était déjà un monopole au temps T et que tout le monde le pensait bon à ce temps T. Google est donc bon même quand il est mauvais. Ah la belle blague. La question : quand est-il bon et quand est-il mauvais ? La réponse que je propose c’est qu’il est toujours mauvais. D’ailleurs un moteur de recherche qui réduit le web a quelque gros sites (par exemple il ne pénalise pas le spam sur les gros sites, mais pénalise des sites qui ne pratiquent pas le spam) peut-il s’appeler un moteur de recherche ?

Quand Google sera capable du minimum qu’offre presque n’importe quel logiciel même le premier venu, c’est à dire, capacité à émettre des messages d’erreur + documentation, on pourra en parler autrement. C’est quand même la base et le minimum décent. À moins que l’opacité et le bazar ne soient justement ses buts ?

Si c’est le cas (j’en suis même sûr), alors il faut rappeler que c’est tout de même un monopole, et qu’alors c’est la bazar puissance 10 qu’il nous donne.

Pas la peine de tourner autour du pot quand il n’y a pas de réponses concrète à des questions simples.
 
WRInaute passionné
Moi je pense qu'à temps T les webmasters ont enfin réussis à comprendre quelques fonctionnements de l'algo et optimisent leurs site en fonction, donc à temps T+1 Google modifie son algo pour remettre tout le monde d'accord. C'est un peu l'histoire du PR, de la vente de BL etc etc

Moi ce qui m'énerve le plus c'est que Google déclare haut et fort "faites votre site pour les internautes, pas pour les robots" mais si tu fais ton site comme tu l'entends, même en respectant les standards du web, tu te retrouve page 10 000 dans Google. Le 2ème truc qui m'énerve c'est leurs mises à jour sans aucun communiqué avant. Ok ils mettent à jour leur algo comme ils l'entendent, soit, mais au moins qu'ils préviennent ne serais-ce qu'une semaine avant. Combien de sites ont coulés depuis MayDay ? Combien d'entreprises même ont fermés (cf le post sur le forum de Google) ? Ok il faut s'adapter, se mettre à jour, suivre l'évolution tout ça tout ça, mais Google fait ce qu'il veut du web aujourd'hui, si demain il pond un truc genre "désormais un site qui a plus de 10 pages sera désindexé" ben tout le monde fera des sites à 10 pages (ok mon exemple est bidon mais c'est un exemple quand même)

Donc si tu fais un site de vente en ligne t'as pu qu'une seule option: AdWords et AdSense. Oh ben ça alors, à qui va l'argent ?
 
WRInaute passionné
lambi521 a dit:
Moi ce qui m'énerve le plus c'est que Google déclare haut et fort "faites votre site pour les internautes, pas pour les robots" mais si tu fais ton site comme tu l'entends, même en respectant les standards du web, tu te retrouve page 10 000 dans Google.
Oui, tout est résumé là. Google encourage le spamdexing et toutes les joyeusetés qui sont prétendument à bannir.
Et on comprend que des gens qui ne sont pas tentés par ce genre de méthode, parce qu’ils préfèrent s’occuper d’autres choses ou ont des raisons moral, soient finalement avec le temps tentés de s’y mettre, parce qu’il n’y a que ça qui marche.

Et pourquoi ? Principalement parce qu’un Google est un monopole et qu’aucune lois ne l’oblige à assumer la moindre responsabilité. Idem pour Wikipédia au passage (ils sont les détenteurs de la vérité, mais quand tu leur fait remarquer les responsabilité qui viennent avec cette affirmation, étrangement, ils t’affirment qu’ils n’ont jamais prétendu l’être).

Si on avait au moins une petite dizaines de moteur de recherches se partageant équitablement, on aurait pas tous ces problèmes.

Là encore, idem pour Wikipédia. Si quand on entre dans une librairie, et quelque soit la livre que l’on demande, on ne trouvait qu’une seul collection par thème et une seule maison d’édition, tout le monde crierait au scandale, et même les Russes n’ont jamais osé aller aussi loin. Et c’est pourtant exactement ce que l’on obtiens avec le monopole de Google + le monopole de Wikipédia. Tout cela grâce aussi à la passivité des internautes, qui bien qu’ils s’en défendent, ne reste que des consommateurs (leur ignorance de ces questions le prouve).

Comme je disais il y a quelques mois dans un fil, on est pas prêt de voir un topic concernant Google recevoir la mention [Résolu]
 
WRInaute impliqué
Je suis allé faire un tour sur le forum de google. Ya de sacré post. Comme si les gens pensaient que google leur livrera tout leur système d'algo. On croit rêver parfois. "GG a changé son algo. ils auraient pu nous dire quand même ce qu'il ont changé exactement pour qu'on s'adapte ". Voilà en gros ce que j'en conclue de bcp de posts la bas. Sans parler du fait que certains reposent leur site à 99% sur gg.
 
WRInaute passionné
vitalizo a dit:
Je suis allé faire un tour sur le forum de google. Ya de sacré post. Comme si les gens pensaient que google leur livrera tout leur système d'algo. On croit rêver parfois. "GG a changé son algo. ils auraient pu nous dire quand même ce qu'il ont changé exactement pour qu'on s'adapte ". Voilà en gros ce que j'en conclue de bcp de posts la bas.
Et ça t’étonne ?! C’est quand même normal que des webmasters, le plus souvent innocents de tout, à qui Google baratine officiellement sans cesse le même discours « faites des sites pour les internautes », c’est quand même normal que quand ils découvrent la vérité, qu’ils s’interrogent et demande plus d’explications. Ce sont les webmasters qui croient qu’il faut faire un site pour les internautes les idiots ? Ou est-ce que c’est Google qui baratine du vent et se moque d’eux ?

vitalizo a dit:
Sans parler du fait que certains reposent leur site à 99% sur gg.
Et tu fais comment toi avec 95% des recherches qui passent par Google ? Tu peux expliquer ?

C’est une blague de dire ça quand la plupart des webmasters ne souhaitent qu’une chose justement : à ne compter que sur Google. 1) Si tu as une recette, tu va être riche, parce qu’elle va s’arracher. 2) S’il y a une faille dans non monopole, m’étonnerait que Google laisse faire.

Google n’en a jamais assez, il lui faut le monopole, il serait bien normal qu’il en assume les conséquences.

.... pour s’entendre dire après « il ne faut pas tout reposer sur Google »... n’importe quoi. Non, c’est sûr, si Google veut être un monopole absolu, c’est sûrement en espérant qu’il soit court-circuité et que les internautes utilisent autre chose à la place, c’est évident.
 
WRInaute impliqué
Tu voudrais que google disent:
- les bl c'est 20%
- le contenu c'est 25%
- le pr c'est 5%
...
après mayday:
- les bl c'est 30%
- le contenu c'est 40%
- le pr c'est 15%

??

P.S: j'ai pas critiqué le fait de demander des explications, je critique que nombre de posts réclament des explications précises sur l'algo de gg. Pour moi, les commerces virtuels c'est comme ceux en durs, le territoire évolue sans cesse et c'est surtout aux propriétaires et pas aux CT d'évoluer.
 
WRInaute accro
Ca te semble aberrant que les utilisateurs demandent l'algo. Moi je trouve que ce serait la moindre des choses et devrait être imposé par la loi.
C'est le seul moyen de garantir l'équité. Ce serait facile de tricher, mais pour tout le monde pareil. Et facile aussi de proposer des parades à la triche.
 
WRInaute accro
vitalizo a dit:
P.S: j'ai pas critiqué le fait de demander des explications, je critique que nombre de posts réclament des explications précises sur l'algo de gg. Pour moi, les commerces virtuels c'est comme ceux en durs, le territoire évolue sans cesse et c'est surtout aux propriétaires et pas aux CT d'évoluer.

ybet a dit:
Tous ces sites cassés (ou presque) ont utilisé avec bonheur une méthode pas trop correcte aux yeux des moteurs et quand GG a détecté (souvent avec un changement d'algrytme), le site a cassé ...
Le référencement, c'est un peu comme un sport, on s'adapte aux nouvelles techniques et règles (sauf que GG change les règles quand il veut).

Pour résumer .... On imagine que GG donne l'algo (ou même une petite partie) .... Qui va s'engoufrer dans les breches :mrgreen: (Nooo..n vous jure pas moi ni aucun membre de WRI :D ).

hibou57 a dit:
Et ça t’étonne ?! C’est quand même normal que des webmasters, le plus souvent innocents de tout [ Rhoo la mauvaise foie .... d'un webmaster qui lit sur WRI comment essayer de passer mieux sur Google, à qui Google baratine officiellement sans cesse le même discours « faites des sites pour les internautes », c’est quand même normal que quand ils découvrent la vérité, qu’ils s’interrogent et demande plus d’explications. Ce sont les webmasters qui croient qu’il faut faire un site pour les internautes les idiots ? Ou est-ce que c’est Google qui baratine du vent et se moque d’eux ?
Entre nous :wink: (juste entre nous et les membres de WRI :mrgreen: ) est-ce qu'ont fait juste des sites pour les internautes et pas pour passer devant tout le monde sur Google? S'il te plait, on joue pas sur les mots :D
Je suis éditeur pour deux annuaires. Le premier pour ma région sur DMOZ et le deuxième pour un de mes site qui parle de la même région. C'est là qu'on voit de vrai sites d'amateurs qui se foutent de GG . Par contre pour DMOZ, j'ai aussi le suivi d'une partie un peu plus grosse (y compris les soctiétés de création de site). Te jure que là les titres et descriptions proposées sont quarément fades (principalement les boutiques de ventes en lignes de mathos informatique et TOUTES les sociétés qui parlent de création de sites. Mais je suis sur que c'est pas de la déformation professionnelle Google (mon oeil).
Ca fait presque trois ans que les grosses baffes de sites ont débutées (ca se calme d'aillieurs faute de mauvais combattants encore en vie :oops: ) mais c'est à nous de nous adapter .

En 7 ans sur WRI, les (mes) réponses sur des déclasements - mauvais positionnements - de sites (après analyses) sont beaucoup moins originales. Au début, c'était des pages doubles, des frames, des <title> et descriptions manquantes, .... Maintenant on en est à des structures internes basées sur les liens (en sur-nombre ou quasiment pas de contenu autour), du duplicate content, .... plus tout un paquet de maguoillage moins vicieux - bon enfant - qu'en 2005 - 2006 (le texte blanc sur fond blanc, les redirections nébuleuses, le cloaking). Les techniques des webmasters ont évoluées en suivant Google et Google a toujours au moins une année d'avance ... :lol:

Aucun habitué du référencement ne fait des sites pour des internautes. Dans une formation webmaster que je donne, il y a une partie référencement et j'analyse quelques requêtes et quelques pages positionnées comme exemple. Voici une page de 2004 (pas trop bougée depuis -http://www.ybet.be/hardware/ Petit exercice: sur quoi j'ai essayé (et réussi, même encore s aujourd'hui) à me positionner (3-4 recherches en 2 mots), juste en tapant le texte (même s'il semble naturel). Juste modifié la présentation il y a deux ans mais je sais que si je change seulement une phrase la page dégringole ... Mais la page et son contenu semblent .... naturels pour un internaute.
 
WRInaute impliqué
fredfan a dit:
Ca te semble aberrant que les utilisateurs demandent l'algo. Moi je trouve que ce serait la moindre des choses et devrait être imposé par la loi.
C'est le seul moyen de garantir l'équité. Ce serait facile de tricher, mais pour tout le monde pareil. Et facile aussi de proposer des parades à la triche.


ben voyons, où va t-on. C'est les règles du jeu. Point barre. Tiens je vais demander à foucault qui me passe les questions de qui veut gagner des millions avant que je passe. C'est la moindre des choses quand même.
Et quand t'as un commerce en dur, si un conccurent s"installe pas loin de toi. Tu vas le voir pour lui dire que la règle du jeu est de s'installer bcp + loin ?
 
WRInaute accro
vitalizo a dit:
ben voyons, où va t-on. C'est les règles du jeu. Point barre.
On ne subit les règles que si on les accepte.
Quand les services sanitaires demandent à visiter les usines ou à lire la formule soi-disant secrète d'un produit de consommation ça n'empêche pas le commerce d'avancer.
Quand les grandes chaînes de distribution font des relevés de prix chez les voisins ça n'empêche pas la concurrence.
Les logiciels open-source n'ont pas plus de failles de sécurité que les autres.
Le culte du mensonge et de la dissimulation imposé par les grandes enseignes a fini par nous convaincre que c'est dans l'ordre des choses. Si le législateur ou la justice en décident autrement ça n'empêchera ni le monde de tourner, ni Google de faire des bénéfices.
Tu vas le voir pour lui dire que la règle du jeu est de s'installer bcp + loin ?
Rien à voir . Je n'ai jamais dit qu'il fallait interdire à un concurrent de monter un moteur de recherche.
 
WRInaute passionné
ybet a dit:
Aucun habitué du référencement ne fait des sites pour des internautes.
Je ne suis pas entièrement d'accord: si tu tombes sur un site comme le site de consultant SEO de Laurent Bourrelly tu vas vite t'apercevoir que, outre les impressions personnelles (qui visent à etre du coté du lecteur avec leur caractère super partes - impartiales en latin), il y a beaucoup d'indications utiles (qui ont d'ailleurs été toutes testées par l'auteur). Il y a manière et manière de faire la promotion de sa propre activité, et sur ce site on a l'occasion de lire des articles qui sont plutot des faits vécus et réels plutot que de la simple promotion. C'est pour cela qu'il est très participatif, d'ailleurs.
Un autre site qui est intéressant est le blog d'Axe-net avec des ressentis sur le référencement, mais qui se présentent sous forme d'aide et de discussion participative: qui est-ce qui intervient plus que le visiteur lui-meme?
 
WRInaute passionné
ybet a écrit: Aucun habitué du référencement ne fait des sites pour des internautes.

C'est exactement ce que dit Google de ne pas faire, et tu le fais quand même. J'adore ta phrase. Tu fais des sites mais pas pour les internautes. Tu les fais pour qui alors ? Pour les cultivateurs ? Pour les mécaniciens ? Les chirurgiens ? Y'a un gros paradoxe quand même, et c'est Google qui te l'a imposé.

Voilà, c'est exactement ça qui m'énerve. Aujourd'hui, c'est Google qui défini les règles du web mondial, il les change quand il veut, sans la moindre contrainte. Personnellement je trouve ça dangereux.
 
WRInaute accro
lambi521 a dit:
C'est exactement ce que dit Google de ne pas faire, et tu le fais quand même. J'adore ta phrase. Tu fais des sites mais pas pour les internautes. Tu les fais pour qui alors ? Pour les cultivateurs ? Pour les mécaniciens ? Les chirurgiens ? Y'a un gros paradoxe quand même, et c'est Google qui te l'a imposé.

Voilà, c'est exactement ça qui m'énerve. Aujourd'hui, c'est Google qui défini les règles du web mondial, il les change quand il veut, sans la moindre contrainte. Personnellement je trouve ça dangereux.

Lambi521, dès que tu es un peu habitué à mettre de contenu texte pour Internet avec des bases de référencement, ta manière d'écrire change: les mots utilisés, les conjugaisons, ... :wink:
Un exemple au hasard: tous ceux qui font du référencement utilise justement ce mot technique et pas "positionnement" dans leurs articles juste parce que c'est plus porteur. Pour un post sur WRI pour un site de serpent, on lui a demandé de mettre le nom commun des races de serpents comme liens vers les fiches et pas le terme scientifique latin (c'est pas pour la beauté, juste que les noms communs sont plus souvent utilisés par les "internautes", et le référencement c'est accroitre le nombre de visiteurs :oops: ).

Et tous à fait d'accord avec la dangerosité de Google ..
 
WRInaute passionné
ybet a dit:
Aucun habitué du référencement ne fait des sites pour des internautes.
C’est du propre.

Celle là que je la garde pour les annales.

Après ça, j’espère que plus personne n’aura l’indécence de dire que si Google est un monopole c’est parce qu’il est plus pertinent que les autres. Pas fameux non-plus pour la profession du référencement qui n’a déjà pas une très bonne image (quoique sa mauvaise image est surtout dut aux aberrations de Google finalement).
 
WRInaute passionné
vitalizo a dit:
ben voyons, où va t-on. C'est les règles du jeu. Point barre.
Elles sont annoncées où ces règles ?
Est-ce que Google annonce honnêtement aux internautes ce qu’il leur renvoie ?
Est-ce que Google annonce honnêtement aux auteurs ce qu’il fait de leurs sites ?
Quand Google a-t-il eu l’honnêteté de le dire ?
Des règles qui ne sont pas annoncées, elles valent quoi ?

Elle ne tiens pas la route cette réponse, c’est le réponse du j’m’en-foutisme.

vitalizo a dit:
Et quand t'as un commerce en dur, si un conccurent s"installe pas loin de toi. Tu vas le voir pour lui dire que la règle du jeu est de s'installer bcp + loin ?
S’il barre la route pour empêcher l’accès à ton étale, tu peux légalement porter plainte contre lui.
S’il recouvre ta vitrine de peinture pour qu’on ne la voit plus, idem.
Si le jour même où son commerce ouvre le tiens reçois 5 fois moins de personne d’un coup, il y aura immédiatement des soupçons que quelque chose de pas naturel se produit et que ce n’est pas clair.

Parce que là, il y a des règles justement. Google, c’est la culture de l’anarchie pure et dure.
 
WRInaute passionné
lambi521 a dit:
C'est exactement ce que dit Google de ne pas faire, et tu le fais quand même. J'adore ta phrase. Tu fais des sites mais pas pour les internautes. Tu les fais pour qui alors ? Pour les cultivateurs ? Pour les mécaniciens ? Les chirurgiens ? Y'a un gros paradoxe quand même, et c'est Google qui te l'a imposé.

Voilà, c'est exactement ça qui m'énerve. Aujourd'hui, c'est Google qui défini les règles du web mondial, il les change quand il veut, sans la moindre contrainte. Personnellement je trouve ça dangereux.
Voilà, c’est exactement ça qui est nauséabond, et c’est pour ça qu’il faut espérer qu’on soit un jour débarrassés de cette gangrène qu’est Google. Je dit « gangrène », ce n’est pas par hasard, c’est parce qu’il pollue tout et contamine, et ronge tout petit à petit.

J’ai encore regardé à l’instant comment il traite le site dans son index, on est en plein délire. Honnêtement et sans exagérer, je n’ai jamais vu une poubelle pareil depuis 10 ans. On se croirait revenu au web de 1990.

Juste une comme ça pour rire un bon coup : je me suis aperçu aujourd’hui qu’il n’est même pas capable d’extraire le contenu de la balise TITLE de la page d’accueil ! Alors que tous les navigateurs en sont capables. À la place, il affiche « accueil », je n’ai aucune idée d’où il sort ça. Même le plus mauvais des moteurs de recherche des années 1990 en était capable.
 
WRInaute passionné
Panoramix a dit:
[...] Un autre site qui est intéressant est le blog d'Axe-net avec des ressentis sur le référencement, mais qui se présentent sous forme d'aide et de discussion participative: qui est-ce qui intervient plus que le visiteur lui-meme?
Merci pour le lien. Il contient un post qui parle d’annuaires. Peut-être que je devrais refaire un petit tour de ce côté là (je l’ai fait au début, mais ensuite j’ai voulu laisser faire le naturel). Mais bon, je n’en espère rien non-plus au fond, parce qu’avec un index qui ressemble à une poubelle de supermarché, je ne sais pas si un tour par des annuaires aussi bon soient-ils peut changer quelque chose.
 
WRInaute accro
hibou57 a dit:
Une chose qui me dépasse. Il y a un peu plus d’un mois, je décide de bloquer des indexations inutiles, qui s’assimilaient même à du “duplicate-content”.
hibou57 a dit:
Juste une comme ça pour rire un bon coup : je me suis aperçu aujourd’hui qu’il n’est même pas capable d’extraire le contenu de la balise TITLE de la page d’accueil ! Alors que tous les navigateurs en sont capables. À la place, il affiche « accueil », je n’ai aucune idée d’où il sort ça.
et tu ne t'es jamais posé la question de savoir si ça ne venait pas de ton site qui était mal développé ? je n'ai jamais eu ce problème de title sur mes sites. Si c'est ton www, gg a explicitement mis en garde contre l'utilisation des caractères ascii et ton title c'est
<title>♥&#xA0;le Clavier Arabe virtuel de l'école des Hiboux</title>
n'y aurait-il pas un lien de causalité ?
et puis, il n'y a que 10 places dans la 1° page, donc sur des requêtes avec 1M de résultat, ça en fait des pénalisés :mrgreen:
 
WRInaute accro
Moi je pense que si hibou57 mettait autant d'énergie dans son SEO que dans ses messages ici, son site sera en TOP10 ...
A bon entendeur.
 
WRInaute discret
milkiway a dit:
Moi je pense que si hibou57 mettait autant d'énergie dans son SEO que dans ses messages ici, son site sera en TOP10 ...
A bon entendeur.

Je crois que c'est une excellente synthese (sans doute la meilleure de ce topic!). Ceci dit, je me retrouve dans un certain nombre d'interrogations de hibou57... Je crois simplement qu'il ne faut surtout pas avoir peur de prendre de grosses claques quand on débute dans le référencement naturel ou qu'on commence vraiment à s'y intéresser.

ps: ca a fini par remonter qd meme depuis le temps hibou???
 
WRInaute passionné
Actualité : depuis environ 2 semaines, bonne chose, je voyais enfin progressivement diminuer dans le Webmaster Tools, le nombre d’URL bloquées par le Robots.txt apparaissant dans les statistique des erreurs. Je viens de re-vérifier aujourd’hui, et plus aucune URL bloquées par le Robots.txt n’apparait comme une erreur.

Il aura donc fallut un an et deux mois à Google pour y arriver, mais il est finalement parvenu à correctement interpréter le Robots.txt, et ne traite enfin plus les URL bloquées comme des erreurs d’exploration.
 
WRInaute accro
hibou57 a dit:
Il aura donc fallut un an et deux mois à Google pour y arriver, mais il est finalement parvenu à correctement interpréter le Robots.txt, et ne traite enfin plus les URL bloquées comme des erreurs d’exploration.

GWT a toujours une latence.
Elle est globalement relative à ton trafic, à ton importance.
Techniquement, tu pourrais rester avec des URLs en erreur pendant des années si l'on parle d'un site peu référencé, avec peu de trafic, sur des requêtes peu concurrentielles... tout ça influe sur la réactivité du feedback des GWT.
J'ai des sites, sur un même compte GWT, pour lesquels le feedback ne delay pas de moins de 48h, et d'autres sur lesquels GWT est à la ramasse de plusieurs semaines (ie: les récents messages "update your wordpress" sur des sites dont le WP est à jour depuis toujours ;) ).
 
WRInaute passionné
HawkEye a dit:
GWT a toujours une latence.
Elle est globalement relative à ton trafic, à ton importance.
Ah ben oui, maintenant je peux le dire, WRI n'est pas mon forum :D

HawkEye a dit:
Techniquement, tu pourrais rester avec des URLs en erreur pendant des années si l'on parle d'un site peu référencé, avec peu de trafic, sur des requêtes peu concurrentielles... tout ça influe sur la réactivité du feedback des GWT.
J'ai des sites, sur un même compte GWT, pour lesquels le feedback ne delay pas de moins de 48h, et d'autres sur lesquels GWT est à la ramasse de plusieurs semaines (ie: les récents messages "update your wordpress" sur des sites dont le WP est à jour depuis toujours ;) ).
Pourtant il réagis avec un délais de trois à six semaines environ au pire (selon les pages), pour toutes les autres erreurs d'explorations, comme les 404 (quand des gens font des liens avec du BBCode dedans par exemple), ou les « erreurs réseaux » (je pense quand le site rame).

Enfin, je pense que cette longue histoire s'est achevé maintenant.

Ce sera peut-être partie pour de nouvelles aventures si un jour je change d'hébergeur pour accueillir un nouveau site comme je pense le faire dans l'année. Comptez sur moi pour râler si Google fait des bêtises. :D

Francky1er a dit:
ps: ca a fini par remonter qd meme depuis le temps hibou???
Oops, désolé, je n'avais pas vu ton message Francky1er : Oui, c'est remonté depuis janvier de cette année (environ le 5 janvier), … un retour à un comportement normal à tous les niveaux.
 
Discussions similaires
Haut