Google et les webmasters

Olivier Duffez (admin)
Membre du personnel
je précise au passage avant qu'on ne pose la question que les outils présents sur ce site utilisent le Google API, c'est-à-dire la façon officielle d'interroger Google dans un script (PHP pour WRI).

comme exemple de problème, si tu utilises Top Dog ou Web Position Gold pour connaitre la position de ton site sur Google, tu risques tout simplement de te faire black-listé ton site.
 
WRInaute discret
WebRankInfo a dit:
...
comme exemple de problème, si tu utilises Top Dog ou Web Position Gold pour connaitre la position de ton site sur Google, tu risques tout simplement de te faire black-listé ton site.

Si cela était d'application cela voudrait aussi dire faire blacklister celui d'un concurent ...

http://www.webmasterworld.com/forum5/1231-2-15.htm

ainsi que : http://www.webmasterworld.com/forum3/4235-6-15.htm msg 84 a noter pour ceux ki ne le savent pas GoogleGuy est qqu'un de chez google.

voila disons que c'est un peu plus compliqué que le simple fait d'une vérification de position.
 
WRInaute occasionnel
Merci pour les réponses et les adresses.

J'ai l'impression que Google s'apprete à lancer une grande offensive anti-spamindexing
dans quelques mois. J'ai la conviction qu'ils connaissent et peuvent traiter les cas les plus performants de contournement des règles mais qu'ils préfèrent avertir tous le monde avant.

Avec des pages de ce type afin que certaines sociétés ne puissent pas se retourner contre le moteur....
https://www.google.com/webmasters/seo.html

Ca risque de faire un sacré ménage!!

Votre avis.

Katia



http://balisart.free.fr
 
Olivier Duffez (admin)
Membre du personnel
Au fait Katia et les autres, ce serait sympa si l'un d'entre vous avait le temps de faire une petite synthèse en français des recommandations de Google aux webmasters, car à première vue il y a beaucoup de nouveautés, et sûrement pas mal de réponses aux questions les plus souvent posées dans ce forum...

Car moi je suis débordé par le site et je n'ai pas le temps de tout faire, surtout en cette période juste avant la Google Dance.

Merci d'avance aux volontaires, qui peuvent me contacter par messagerie privée sur le forum pour plus d'infos.
 
A
Anonymous
Guest
HemHem...
Excusez moi de vous interrompre mais le cloaking, qu' est-ce que c' est ?
 
A
Anonymous
Guest
mmmh...on obtient cela avec des redirections javascript ou c' est bien plus évolué ?
C' est le robot qui est généralement identifié ou bien c' est le visiteur qui est rebalancé vers une autre page ?
Je me suis aperçu un jour où je n' avais rien d' autre à faire que de consulter quelques-unes des adresses ip de mes visiteurs et de les soumettre à un traceur pour voir d' où elles provenaient et, surprise l' une d' elles d' apparence fort banale (avec windows 98 et MSIE 5.5) venait en fait directement de Google !
Ce qui veut dire que Google se déguise, à moins qu' il ne s' agisse là d' un être humain...(un être humain...Bahhh, c' est dégoûtant... :p ) qui effectuait un petit controle ?
Alors tintin pour les scripts de redirection à l' attention de Google.
 
WRInaute occasionnel
Je veux bien essayez de traduire quelques phrases ou pages mais à condition que Google ne change pas ses recommandations aux webmasters toutes les 24 heures.

Par exemple, la page d'hier très claire "ce qu'il faut faire et ne pas faire" a disparu.
A voir encore aujourd'hui encore dans le cache:
https://www.google.fr/search?q=cache:II7 ... r&ie=UTF-8

On trouve aujourd'hui une autre page différente:
https://www.google.com/webmasters/guidelines.html

Si mon hypothèse est la bonne (grande lessive à venir dans quelques mois), j'imagine que Google France ne va pas tarder aussi à traduire ce texte.



Katia
http://balisart.free.fr
 
WRInaute occasionnel
Qu'entends-tu par sujet tabou?

Veux-tu dire que Google aurait assoupli sa position?
En transformant par exemple un impératif "don't cloak" (ne pas faire de cloaking) en recommandations (specifics recommendations) plus polies liées à la qualité (quality guidelines) des pages... En présentant des conséquences non plus directes mais potentielles
(practices that may lead to a site being removed - des pratiques qui pourraient entrainer la suppression d'un site). Crois-tu qu'en présentant les choses de cette manière, Google éluderait certaines questions au lieu d'affonter le taureau par les cornes?
Crois-tu qu'ils mettraient des gants afin de pas froisser certaines des plus grandes entreprises mondiales qui utilisent ces techniques?
Veux-tu dire finallement que c'est aussi un sujet aussi tabou pour google?

Franchement, je n'ai pas de réponses à ces questions.

Katia.
 
A
Anonymous
Guest
Un nombre important de sites pourtant biens référencés utilisent (entre autre) des trucs aussi simples que du texte caché car de la même couleur que le fond par exemple, des phrases qui plus est sont souvent incompréhensibles car pensées pour les robots sans songer que si elles sont indexées des hommes vont les lire. Des méthodes de brute épaisse pour se hisser à un rang supérieur.
Par ailleur, comme je l' ai mentionné plus haut, parmis les visites qu' effectue Google, les présentations ne sont pas toujours faites (se déguiserait-il ?).
Google parait s' affiner, être de plus en plus subtil dans ses analyses, pourtant où est le résultat ?
Soit il viendra en son heure, comme tu le dis chère Katia, soit à force de se concentrer sur des techniques de "cloaking" évoluées (d' ailleur qu' elles sont-elles?), il en oublierait un peu les méthodes de Papy.
 
WRInaute occasionnel
Anonymous a dit:
à force de se concentrer sur des techniques de "cloaking" évoluées (d' ailleurs qu' elles sont-elles?), il en oublierait un peu les méthodes de Papy.

Non, pas d'accord, les pauvres papys qui trichent en général sont beaucoup trop naifs pour échapper aux sanctions des moteurs de recherche.

La définition de WRI du cloaking répond à ta question:

Technique permettant de fournir une page différente aux moteurs de recherche qui indexent un site de celle visible par un internaute.

Même si je déplore que les règles du jeu ne soient pas les mêmes pour tous, entrer plus en détail n'est pas souhaitable pour 2 raisons.

1 - éviter de donner de mauvaises idées à des webmasters débutants qui s'empresseraient aussitôt d'utiliser ces mêmes techniques (parfois à leurs dépends)

2 - c'est aux moteurs de recherche de régler ce problème (et non pas aux webmasters) s'ils souhaitent que les pages qui leur sont spécifiquement destinées ne soient dans 2 ou 3 ans plus nombreuses sur le web que les pages destinées aux internautes.

Katia.
 
A
Anonymous
Guest
Je ne comprends pas comment cela peut fonctionner puisque google visite les pages en changeant d' ip, on ne peut faire de redirection fiable à son attention, et même si on en faisait une à l' attention des internautes, en identifiant directement les navigateurs par exemple, cela ne semble pas fiable non plus puisque j' ai surpris google à visiter mes pages avec windows MSIE 5.5 en soumettant l' ip à un traceur.

Bref, je découvre ce qu' est le cloaking ici et m' interroge sur la méthode utilisée qui à première vue me semble ne pas pouvoir être fiable.
À moins de faire des redirections javascript à tout va en partant du principe que google ne comprend pas le javascript, et, dans ce cas, bien dommage si google se met à pénaliser les redirections en javascript puisque celles-ci peuvent présenter l' interêt de proposer un contenu différent suivant que le javascript soit ou non activé sur le navigateur du visiteur, ou bien rediriger un linuxien vers un contenu mieux adapté et de même pour un macqueux , et ainsi ne pas considérer bêtement que le monde entier est sous windows.
Ou encore proposer du contenu pour chaque résolution d' écran.

Bref la redirection en javascript peut être nécessaire pour autre chose que le cloaking, et, de plus, personnellement je ne m' y fierais pas.
 
WRInaute occasionnel
Anonymous a dit:
en partant du principe que google ne comprend pas le javascript, et, dans ce cas, bien dommage si google se met à pénaliser les redirections en javascript ...

Et si Google pouvait lire le code en javascript? Pas l'interpréter, suivre des redirections, juste le lire.
Il existe des scripts très simples et très classiques facilement identifiables qui ne font que rediriger une page en fonction du navigateur ou du système d'exploitation.
Il existe aussi des scripts très spécifiques et aussi facilement identifiables que l'on retrouve un peu partout à travers le monde et abondemment utilisés dans tous les pays à des fins de spam indexing. Cela génère dans le monde une quantité impressionnante de pages réservées uniquement aux moteurs.
C'est peut être justement le problème que rencontre Google. Faut-il dans ce cas risquer de punir quelques innocents pour assainir ses résultats. J'ai observé que certains de ces scripts et les nombreuses pages satellites qu'ils engendraient n'obtenaient pas toujours les résultats escomptés compte tenu de leur richesse en pages et en mots-clés. Peut être qu'une pénalisation discrète est appliquée (PR -1 ou -2) à ces solutions de manière à équilibrer leurs contenus par rapport à celui de pages visibles par les internautes.
Et si c'était le cas, personnellement, je trouverais cela normal.


Katia.
 
A
Anonymous
Guest
Moi aussi... Bien sûr que ce serait normal.
Ce qui serait anormal ce serait de priver les webmestres et les visiteurs de ce que le javascript peut apporter.
Generalement les robots créent sur le web une force d' inertie ou un nivellement par le bas.
Des sites au contenu graphiquement riche et expérimentalement interessants, en flash, ou avec des redirections pour proposer un contenu adapté à chaque configuration se privent d' une indexation équitable.
Mieux vaut faire un site en html bieeen classique et répondant à touuuutes les exigences des bots et qui ne sont pas forcément celles des visiteurs je le rappelle pour atteindre le haut de l' affiche.
Avoir les meilleures places ce n' est vraiment pas signe de qualité, (ni du contraire d' ailleurs).
 
Nouveau WRInaute
le spamdexing a toujours existe et a de beaux jours devant lui. Google est vicitme de son succes, en prenant plus de 50% des parts de marche, de nombreux spamdexeurs ont jete leurs devolus sur ce moteur.
Aussi performant soit l'algorythme de google, il y a une armee encore plus grande de spamdexeur qui travaille aussi dessus.

Il est clair que quand on voit que le texte sur image de fond de meme couleur marche encore, on se dit que le spamdexing a de l'avenir vu les techniques bien plus evoluees existantes.
 
WRInaute discret
et bien je peux te dire qu'en observant continuellement cela sur les meme mots clés que toi :D google à bien infligé de belles pénalités à certains sites ... ca marche peut etre sur le court terme ... mais sur le long terme j'ai un gros gros doute ... et dans ce cas là c'est tout la chaine qui s'écroule ! d'ailleur ou ki sont les bulgares ? :)
 
Discussions similaires
Haut