coup de gueule: les abus des grande boîtes toujours impunis!

WRInaute passionné
Bonjour à toutes et à tous,

Bon ça fait longtemps que ça me gonfle alors je vous en fait part.

Mon coup de gueule porte sur les abus des grandes boites qui baffouent totalement ce que google proscrit, claques invisibles, pages sat à foison etc.
Cela fait environ six mois que je surveille plusieurs sites de grandes marques de la distribution, et je rencontre très fréquement des :

Code:
<div id="Layer1" style="position:absolute; width:756px; height:474px; z-index:1; visibility: hidden;">

remplis de liens tous intercroisés les uns aux autres.

Bien sur ces pages sont invisibles aux internautes puisque redirigées vers l'index, mais les moteurs ont tout le loisir de les integrer.

(URL supprimée par WRI. Merci de respecter les règles du forum sinon les messages seront supprimés)

exemple illustrant ce cas de figure pris au hasard dans les premiers resultats en affichant uniquement le texte mis en cache[/url]

Amusez-vous à suivre et décortiquer les liens de gauche et vous verrez.

Si cela n'était pas aussi pathétique, je dirais "mais que fait la police ?" mais ça commence plutôt à m'agacer alors je me demande pourquoi google laisse faire ?
Soit il n'a pas la possibilité de le detecter (ce que je doute) soit il n'a pas interet à pénaliser ces pages.

Depuis que je suis sur WRI, on entend "Respecter les guides lines sinon vous risquez de voir vos sites déclassés"
je veux bien, mais en attendant, d'autres s'en moque et ça paye !

Bien évidement, je ne veux m'amuser à faire de même, parce que je suis persuadé que le sort réservé aux "petits" est certainement moins laxiste plus radical, alors que faire ? utiliser le spam report ... ben voyons.

Alors peut être que je suis tout simplement frustré de voir mon site en deuxième ou troisième page sur ces requête sauvagement convoitées par les géants.
Peut-être devrais-je me conforter en me voyant en première position sur les résultats donnés par l'api google, ( exemple avec le free monitor ou autes softs) mais ce n'est pas le cas.
[HS]d'ailleurs c'est curieux cette différence aussi importante entre le resultat api et le resultat index google [/HS]

Pour conclure en imageant, je dirai que les sites sur google sont parfois comme des fruits d'une cagette sur un étalage :
Les meilleurs ne sont pas toujours au dessus du lot, les pourris sont ceux que l'on remarque en premier et le vendeur n'est jamais là pour faire le tri.
 
WRInaute occasionnel
Bon post oli004 !

Je me suis moi aussi toujours demandé si ces pratiques continuaient en toute impunité parceque Google n'a pas les moyens humains de tout surveiller (si ce n'est pas automatisable) ou parcequ'il n'en a pas la volonté ou parceque ce sont des "gros" sites...

Je penche plutôt pour la première réponse.
 
WRInaute discret
Je suis relativement du même avis que sgaze: je pense effectivement que Google n'a pas les moyens (encore) de détecter ce genre de fraude.
Quel algorithme pourrait-il mettre en place ? Détecter visibility:hidden ?

Je ne suis pas fan de l'hypothèse: "Google n'a pas interet à pénaliser ces pages."


Un des grands travaux de Google pourrait être la mise ne place d'un robot qui comprenne le javascript.
Du genre: le robot normal crawl la page , puis le robot avec javascript activé fait de même. L'objectif de Google serait d'obtenir une version de la page javascript activé comparable avec la normale.
Si les pages sont relativement identiques, tout va bien. Sinon: pénalité.
 
WRInaute impliqué
Oli004 il faudrait monter une police du référencement...
avec pour commencer un annuaire de sites qui font cela, peut-être que les humains google viendraient piocher un peu dedans pour mettre à jour leur blacklist.
Cessons de réver.

C'est un peu comme le dopage, ceux qui sont pénalisé ce sont les webmaster clean.

+1 pour ton coups de gueule.

A+
 
WRInaute passionné
GG ne fait pas la loi.

Ce n'est pas les boites qu'il faut incriminer, mais GG qui ne sait pas prendre en compte ce qu'il interdit.

Pourquoi serait-il interdit de mettre 1 000 000 de fiois la même page sur le web ?
De la même manière que l'on dit merci et bonjour... Par politesse et honnêteté.
Mais comme aucune loi, et heureusement ne pourra obliger une telle pratique, certains feront toujours comme bon leur semble.
 
WRInaute impliqué
Grantome a dit:
GG ne fait pas la loi.
Pourquoi serait-il interdit de mettre 1 000 000 de fiois la même page sur le web ?

Ce n'est pas cela le but du coups de gueules oli004 a mon avis 1 000 000 de fois la même page cela google le contre c'est le fait d'utiliser des artifices comme hidden et que l'on soit pas tous egaux devant le blacklistage.

A+
 
WRInaute discret
c'est vraiment navrant de voir que Google ayant le monopole choisit de virer qui il veut, c'est du n'importe quoi, ou on vire tous les fraudeurs, ou on ne vire personne, car à blacklister certains et privilégier d'autres qui utilisent les mêmes techniques c'est complètement arbitraire !
 
WRInaute accro
HawkEye_TpfH a dit:
(...) C'est toujours la même chose... Il n'est pas interdit de tricher, il est interdit de se faire prendre...
A noter qu'on voit tout de même régulièrement des gens arriver sur le Forum avec un 1er message du style "Mon site n'apparaît plus dans les résultats..."

Le problème ce sont les Majors... Personnellement je fais les frais d'un abus de la part d'une très grande enseigne française de la grande distribution, qui me bouffe des positions sur mes mots-clés principaux (j'étais en 6è place sur Google).

Ils font une volée monumentale de pages sattelittes avec redirection, ce qui est précisément décrié par Google.

Google est au courant (Spam Report !) (J'ai pas pour habitude de reporter les malversations pour le fun, mais là c'est de la concurrence déloyale...).

Je doute néanmoins qu'ils fassent quelquechose: tu imagines si ce site est blacklisté... La perte de chiffre monumentale pour eux...
Que se passe-t-il quand une boîte perd du chiffre ?
- Elle licencie...

Google ne veut peut-être pas prendre ce risque humain.

Personnellement je ne voudrais pas non plus.

@++

Dans le contexte: https://www.webrankinfo.com/forum/highl ... htm#366548
 
WRInaute occasionnel
Et pourquoi GG ne prendrait t-il pas en compte le PR (ou un indice quelconque) d'un site avant un blacklistage? Peut-être tolère t-il plus facilement les sites ayant un PR élevé qui fraudent? Peut-être est-il beaucoup plus vigilant pour les sites à petit PR.

Arnaud
 
WRInaute passionné
Grantome a dit:
Ce n'est pas les boites qu'il faut incriminer, mais GG qui ne sait pas prendre en compte ce qu'il interdit.

Effectivement, c'est là le fond du problème. Je resume : Google dit "ne faites pas ça ce n'est pas bien et ce sont des pratiques qui seront pénalisées" mais il ne pénalise pas ou très rarement et encore on ne sait pas comment la détection de l'abus a été faite (robot ou humain).

Grantome a dit:
Pourquoi serait-il interdit de mettre 1 000 000 de fiois la même page sur le web ?

Je n'ai absolument rien contre ce fait, comme tu le soulignes chacun fait comme il veut, c'est le positionnement de ces sites que je critique, vue que la pratique utilisée va à l'encontre des préconisations.
 
WRInaute discret
"Je doute néanmoins qu'ils fassent quelquechose: tu imagines si ce site est blacklisté... La perte de chiffre monumentale pour eux...
Que se passe-t-il quand une boîte perd du chiffre ?
- Elle licencie...

Google ne veut peut-être pas prendre ce risque humain.

Personnellement je ne voudrais pas non plus."


désolé mais les petites boîtes et artisans qui vivent aussi par leur site et via le référencement on s'en fout alors ? c'est pas bien grave de foutre en l'air une boîte avec 10 salariés ?
quelle mentalité, on voit qu'on est tous égaux avec ce système !
c'est du genre : "ne virons pas les gros qui peuvent occuper tranquillos les premières pages sur autant de mots clés voulus, mais acharnons-nous plutôt sur les autres"
 
WRInaute accro
On va pas s'énerver, grojalou...

Je ne dis pas que c'est bien; mais si toi, tu avais le choix à faire de cliquer sur un bouton ou non, sachant que ça peut résulter en la perte de centaines d'emplois... Tu le ferais sans réfléchir?

Je ne défends pas le fait de ne pas blacklister ce genre de sites, mais je peux comprendre l'hésitation...

Franchement si je devais réfléchir à m'exposer à un procès avec C4rr3f0ur, 4uch4n ou autres... Sachant que bardés d'avocats comme ils sont (et même si je suis Google et que j'en ai aussi), c'est un procès cher, et de la très mauvaise publicité...

Je n'en condamne néanmoins pas les pratiques utilisées, et comme je l'ai dit, j'ai fait un spam report.

@+
 
WRInaute discret
c'est nul, en fait ces pratiques ne devraient pas être condamnables si elles sont tolérées pour certains...
Google ne devrait virer personne, et si j'avais le choix je cliquerais toujours sur non parce que c'est arbitraire et leur code déontologique n'aurait plus aucune valeur.
mais bon google c'est le choix du pognon, donc on a beau protester, on peut rien faire, c'est ça le monopole.
 
WRInaute discret
oui notre site + celui d'un collègue ont été blacklistés en moins de 2 semaines d'intervalle et certainement sur dénonciation, on avait 4 places à nous 2 dans la première page de google, à qui profite le crime selon vous ?
 
WRInaute accro
Si tu as été blacklisté, c'est qu'il y'avait une raison, non ?

Je vois pas pourquoi je pose la question, en fait ;)

Ne condamnes pas des pratiques dont tu uses toi même; tu t'es fait choper (ou dénoncer... soit...), et voilà.

Ne le prends pas mal, mais si moi, petit webmaster (et encore, même pas vraiment), j'arrive à placer mon site en 5è position sur une requête à 2.800.000 résultats sans utiliser de pratiques déloyales... Mais simplement en optimisant mes pages, mes liens, proprement et en conservant toujours le respect de mon visiteur, je considère que Google classe correctement, et qu'il suggère un site effectivement pertinent (c'est mon point de vue) sur une requête large.

PS: C'est la home page qui est en 5è position, donc même pas d'url rewriting là dedans... ;)

Au passage; la "grande enseigne de grande distrib." qui m'avait bouffé sauvagement avec ses pages sattelites de m* n'est plus présente sur la première page, tiens.... :mrgreen:

Voilà voilà
 
WRInaute passionné
HawkEye_TpfH a dit:
Je ne dis pas que c'est bien; mais si toi, tu avais le choix à faire de cliquer sur un bouton ou non, sachant que ça peut résulter en la perte de centaines d'emplois... Tu le ferais sans réfléchir?
Cet argument ne tient pas : si un site tombe dans le classement, son traffic issu des moteurs se répartit entre les autres sites, qui voient leur bizness augmenter et donc peuvent, à leur tour, créer des emplois.
 
WRInaute occasionnel
moi aussi je suis dégouté de nombreux abus que je constate sur le net... j'ai essayer de tester le blacklistage...mais pas de réponse de google...
 
WRInaute accro
lafleur2004 a dit:
HawkEye_TpfH a dit:
Je ne dis pas que c'est bien; mais si toi, tu avais le choix à faire de cliquer sur un bouton ou non, sachant que ça peut résulter en la perte de centaines d'emplois... Tu le ferais sans réfléchir?
Cet argument ne tient pas : si un site tombe dans le classement, son traffic issu des moteurs se répartit entre les autres sites, qui voient leur bizness augmenter et donc peuvent, à leur tour, créer des emplois.

un peu rapide comme analyse économique, tout de même ;)

Quoi qu'il en soit, comme je l'indique, IL Y A MOYEN de se positionner au dessus de ces enfo*rés, sans tricher, et SANS MOYENS !
 
WRInaute discret
ben

je n'ai jamais dit que je condamnais ces pratiques, c'est le comportement de Google vis à vis de certains, concernant ces pratiques qui est déloyal !

"Ne le prends pas mal, mais si moi, petit webmaster (et encore, même pas vraiment), j'arrive à placer mon site en 5è position sur une requête à 2.800.000 résultats sans utiliser de pratiques déloyales... Mais simplement en optimisant mes pages, mes liens, proprement et en conservant toujours le respect de mon visiteur, je considère que Google classe correctement, et qu'il suggère un site effectivement pertinent (c'est mon point de vue) sur une requête large. "

désolé mais j'y crois pas trop, pourrais-je avoir en privé ton url et la requête par laquelle on te trouve 5ème ?
 
WRInaute accro
sur un autre DC pour l'instant on dirait, la position n'est pas "5" mais page2, position2. (et la grande enseigne est encore au dessus...)...

MP envoyé.
 
WRInaute passionné
schtroumpf a dit:
Et pourquoi GG ne prendrait t-il pas en compte le PR (ou un indice quelconque) d'un site avant un blacklistage? Peut-être tolère t-il plus facilement les sites ayant un PR élevé qui fraudent? Peut-être est-il beaucoup plus vigilant pour les sites à petit PR.

C'est peut-être bien ce qui se fait déja. je veux dire par là que la notoriété d'un site influe certainement sur la manière dont le site doit être "traité".
Par contre, Le PR n'est surement pas le seul critère pris en compte. (importance economique, interets directes (adwords) etc .)
 
WRInaute passionné
HawkEye_TpfH a dit:
Au passage; la "grande enseigne de grande distrib." qui m'avait bouffé sauvagement avec ses pages sattelites de m* n'est plus présente sur la première page, tiens....

... y aurait-il une justice ?

je me suis permis de terminer ta phrase à ma façon :wink:
 
WRInaute passionné
plus ça va plus je me dis que je le référencement ça va bientot ressembler au dopage.

Tout le monde va utiliser des techniques non conventionnelles sinon ils vont se retrouver aux oubliettes, mais google de temps en temps punira trés severement pour l'exemple.


"non google, me punit pas c'est à l'insu de mon plein gré"
 
WRInaute discret
tant que google ne fera pas ce qu'il dit il on ne peut pas se battre à arme égales donc ne nous battons pas à armes égales
 
WRInaute passionné
tant que google ne fera pas ce qu'il dit ...

Objectivement, je doute que google n'ait un jour les moyens (le pouvoir) d'appliquer à la lettre les pénalisations systématiques des sites qui enfraignent son réglement.

Comme ça a déja été soulevé dans ce fil et ailleurs, les enjeux économiques sont certainement bien trops importants, pour les sociétés d'une part mais surtout pour google lui même.

Donc : Non ! nous ne nous "battons" pas à armes égales. ("battons" est un bien grand mot car ce n'est tout de même pas la guerre)

On ne peut donc que constater que le sort reservé aux "tricheurs" (j'entends par là ceux qui utilisent à tord ou à raison les techniques sitées plus haut) est différent selon la notoriété des sites ou des grand groupes.

Soit, admettons. Disons que c'est comme ça, et qu'on y peut rien changer. C'est la loi de la jungle.
 
Nouveau WRInaute
HawkEye_TpfH a dit:
HawkEye_TpfH a dit:
(...) C'est toujours la même chose... Il n'est pas interdit de tricher, il est interdit de se faire prendre...
A noter qu'on voit tout de même régulièrement des gens arriver sur le Forum avec un 1er message du style "Mon site n'apparaît plus dans les résultats..."

Le problème ce sont les Majors... Personnellement je fais les frais d'un abus de la part d'une très grande enseigne française de la grande distribution, qui me bouffe des positions sur mes mots-clés principaux (j'étais en 6è place sur Google).

Ils font une volée monumentale de pages sattelittes avec redirection, ce qui est précisément décrié par Google.

Google est au courant (Spam Report !) (J'ai pas pour habitude de reporter les malversations pour le fun, mais là c'est de la concurrence déloyale...).

Je doute néanmoins qu'ils fassent quelquechose: tu imagines si ce site est blacklisté... La perte de chiffre monumentale pour eux...
Que se passe-t-il quand une boîte perd du chiffre ?
- Elle licencie...

Google ne veut peut-être pas prendre ce risque humain.

Personnellement je ne voudrais pas non plus.

@++

Dans le contexte: https://www.webrankinfo.com/forum/highl ... htm#366548



Bon premièrement c pas en banissant des sites comme ca qu'ils vont perdre des chiffres comme tu dis l'argent qu"ils font ils le font avec leurs serveurs et les moteurs de recherche qu'ils ont vendus ainsi que leur options pffrant des serveurs grandes capacités pour les entreprise.

Ensuite pour ce qui est du référencement sur google suffit de faire un code clean valide XHTML 1.0 STRICT, valider ces mots clés dans le validateur et ajouté le fichier robot.txt sur le serveur et normalement ca fonctionne entk sur 10 essais pour moi ca la fonctionner. Si ca ne marche toujours pas et que les grand ont toujours le dessus et bien sert toi des grands même si ce n'est pas normalement correct.

Ya tellement de site sur internet présentement que trouver une solution pour bannir ces sites la serait a p-e bannir des sites extrements importants. Beaucoup trop risqué et trop hardu comme tâche. :roll:
 
Nouveau WRInaute
Ce genre de post revient régulièrement et déchaîne toujours autant les passions. Moi j'ai une boutique d'alcool, je ne sais pas comment c'est dans votre secteur mais il y a une "palanqué de trichous" dans le mien... Moi aussi j'ai donné du poing sur mon clavier, moi aussi je me suis arraché les cheveux et maudit ce laxiste libéral de google pour me rendre compte qu'avec le temps on arrive à "passer" devant les indélicats à gros sabots. Avec le temps on arrive à se faire une raison également : Tant que les sites qui "trichent" le font avec des mots clé en rapport avec ce qu'ils montrent ou vendent il n'y a pas lieu de se plaindre. Les techniques citées plus haut peuvent paraitre déloyales ou risquées mais nous avons tous des sites plus ou moins optimisés, ne nous voilons pas la face. Google nous dit je ne sais plus où de se poser la question suivante : "Aurais-je utilisé telle ou telle technique si google n'avait pas été là ? " Et moi je demande : "Qui peut dire qu'il n'a rien fait sur son site pour attirer Google ? (même à l'insu de son plein gré)".
Oui ces techniques sont déloyales, oui ca fait chi**... Enfin on met juste un peu plus de temps à passer devant, c'est tout.
 
Nouveau WRInaute
blacklistage

Pour vous donner un exemple de gros blacklistage qui a fait du bruit il suffit de prendre l'exemple de netbooster qui s'est fait blacklister tout un serveur, son site avec.
Malgré cela, ils continuent à vivre et à grossir...
Je pense surtout que cette expérience les pousse à ne pas trop blacklister de "gros" sites : mauvaise pub.

Après c'est de la communication.
 
Nouveau WRInaute
Je pense personnellement qu'il y a des méthodes efficaces pour lutter contre les utilisateurs de pages sats : le cloaking. Google devrait s'en inspirer... Voici ce que je propose :

1. Les crawlers de Google scannent les pages d'un site (utilisant ou pas les page sats).

2. Google refait passer sur ces mêmes pages un de ses crawlers ayant une adresse IP différentes à chaque fois et inconnu du grand public (avec l'aide d'un serveur proxy, par exemple).

3. Google compare les 2 pages scannées et si il y a une trop grande différence entre elles c'est qu'il y a manifestement volonté de tromper les robots et les crawlers : le site est alors blacklisté. Adieu les utilisateurs de pages sats.... :lol: :lol: :lol: :lol:

Ne me dites pas « c'est impossible, Google ne peut pas comparer toutes les pages entre elles », c'est faux, j'en ai personnellement eu la preuve avec certains de me sites...

Vous en pensez quoi ?
 
WRInaute discret
Le coup des robots aux IP inconnues ? Inktomi procédait ainsi (je crois qu'Altavista aussi...) pour détecter le cloaking (les pros du cloaking anglophones se battaient pour récupérer les IP des robots non nommés, l'unique procédé pour ne pas se faire prendre). Attention de ne pas mélanger "cloaking" et "pages sats" qui sont deux techniques différentes.
 
WRInaute discret
C'est bien beau de se pleindre des pratiques non fair play de certains, mais n'importe qui qui en aurait la possibilité, s'il avait la garantie qu'il ne serait pas puni pratiquerait les mêmes techniques. C'est un marché concurrentiel, où ceux qui en veulent le plus sortent souvent vainqueurs.

Ce qui est dommage, c'est que la TRES grande majorité des internautes que nous sommes utilisent Google pour toutes leurs recherches, et les autres les moteurs de recherche outsiders yahoo, msn. En position de quasi monopole, Google a ainsi le choix de faire ce qu'il veut, de punir certains et de laisser passer d'autres.

Et la préoccupation première de tt webmaster est donc de figurer en bonne place dans GG, et comme les techniques classiques de permettent pas de bien figurer, RAPIDEMENT, certains utilisent des techniques plus ou moins autorisées.

On est à la fois victime et coupable, parce qu'on donne le baton pour se faire battre, en rentrant dans la course de "comment se faire mieux référencer sur google" au lieu de trouver des solutions alternatives.
 
Nouveau WRInaute
echanges-liens tu ne dois pas avoir cliqué sur les mêmes liens de pages sats que moi, parce que lorsque je clique sur un lien du style http://***.mon.site.com/vente_produits.htm et que cette page te renvoie vers http://***.mon.site.com/ alors que Google a référencé cette page : comment tu expliques cela ? Il y a parfois des redirections volontaires, mais dans la plupart des cas le websmater utilise le cloaking : je détecte si c'est le robot de Google (ou un autre) qui vient sur mon site, je lui montre cette page sat (bourrés de liens et de mots-clés), et si c'est un autre internaute je le renvoie vers ma home page (c'est pas utile qu'il voit cette page sat elle n'apporte rien en terme de contenu).

Quant à boncap tu résumes parfaitement le problème actuel : on ne construit plus un site pour le contenu qu'il pourrait apporter au web, mais on construit un site en fonction de certains mots-clés afin de bien être positionné sur les moteurs de recherche... La démarche a changé, la mentalité aussi...

Mais c'est vrai que Google est entre le marteau et l'enclume : doit-il punir ou blacklister un site (utilisant les pages sats ou autres techniques prohibées) qui lui rapporte de l'argent grâce aux pub Adsence (par exmeple) car il se priverait ainsi de substenciels revenus ?

Dans mon domaine d'activité, j'ai aussi le cas d'une marque très connu d'une grande surface qui utilise à gogo les pages sats : bilan ils se positionnent sur certains mots-clés ou vous ne voyez pas de rapport direct avec leur principale activité... c'est la preuve qu'avec une campagne agressive et massive de pages sats on peut arriver à toute sortes d'aberrations au détriment de sites de qualités qui se voient relayés en seconde position après ces tricheurs invétérés et impunis... la limite est où ?

Ou bien certaines sociétés de référencement proposent à leur client d'héberger une page de statistiques de leur site et sur laquelle on trouvera, ni plus ni moins, qu'une ferme à lien, du style :



:arrow: Résultats sous Google :


:arrow: Résultats sous Yahoo :


:arrow: Résultats sous Alta-Vista :


Edit zecat : Il est demandé d'utiliser "example.com" pour illustrer. Comme j'avais vraiment pas envie de me coletiner 30 url à refaire, j'ai fait le vide ... je te laisse remttre cela avec le bon NDD

etc... etc... avec de telles pages de « statistiques » vous positionnez un site dans les 10 premiers résultats de Google sur certaines requêtes !

Mon site a plusieurs milliers de pages, imaginez si je faisais une page de stats sur ce modèle avec une liste de 100 mots-clés environ pour chacune de mes pages : on serait dans le n'importe quoi, et bien on est déjà dans le n'importe quoi... parce que ça existe et Google laisse faire et référence ces horreurs... au seeeeeeeeeeeeeecours........... appelez moi le garde.....
 
WRInaute discret
Je pense pas tout à fait la même chose que vous. Déjà, c'est un peu faux de dire que les grosses boites spammes google. Je veux dire par là que beaucoup de "petites boites" voir d'indépendant font pareils voir pire. Maintenant, je peux vous dire que j'utilise la balise div cité sur le 1er post, avec des liens internes à l'intérieur (sans redirection). Pourquoi ? tout simplement parcequ'on a pris le parti de faire un site un minimum beau et pro. Donc nous ne pouvons insérer nos liens de manière visible dans nos pages. Si j'étais seul à vivre de ce site et si je le voulais,je pourrais faire une page bien dans les règles en faisant apparaitre une tartine de liens et là je suis sûr que çà marcherait même beaucoup mieux, seulement comme je l'ai dit, on essaye de faire un peu attention au look. Vous me direz qu'on peux faire pareil sans la balise div et sans forum, en suivant juste les conseils de bases (réecriture, balise, etc) et que çà suffit ? Je vous répondrais alors que vous êtes sûrement des génies bien plus compétent que moi pour arriver à ce résultat sur des requêtes de 3 Millions de résultats. Le 2eme point économique de l'histoire, c'est que fondamentalement je m'en fous d'être 1er ou dernier sur google, le seul truc qui m'interesse c'est de pouvoir payer les 5 salaires de la société, les charges, assedic, etc... Maintenant je pense faire les choses de manère honnête dans la mesure où je ne fais pas de cloaking, pas de page sat (pour l'instant) je satisfait mes clients, mes sites sont plutôt jolis, voilà.
 
WRInaute discret
Pour en revenir aux pages sats, 80% des pages que j'ai pu repérer sont des redirections simples. Et ces pages sont destinées à tous les moteurs.

Le cloaking permet d'identifier le robot et lui présenter une page appropriée, page que vous pouvez appeler page sat si vous le voulez... mais il est plus compréhensible de bien dissocier les deux techniques il me semble.
 
Membre Honoré
tuisp a dit:
Les URL réservées comme exemple sont http://www.example.com/ , "example.net", ou "example.org". Suivre le lien donné par cette page pour avoir des explications.

Monsite est un vrai site pour les liens en haut ;)

Après je comprends HawkEye_TpfH ( mais je n'ai pas lu tout les posts juste la moitiée :lol: ) :

Pour faire simple mettre un filtre comme une sandbox mais pour les grands sites qui utilisent des techniques douteuses.

Je ne peux pas développer à fond l'idée sinon je ferais un pâté de 100 lignes ( j'ai d'ailleurs résumer ici l'idée )
 
Nouveau WRInaute
La suite

J'ai lu avec attention vos messages.

-1- Google se moque completement d'une boite qui coule , il pourra la racheter.
Ca s'appele le biz et de toute facon , meme en votant, dans les urnes, pour ou contre , on n'empechera jamais la convoitise, le pouvoir et l'argent !

-2- Vous signalez des sites qui ne respecte pas le ficelle du metier.
Je suis sur que ces site achete a gros refort d'euro des adwords.

Si google coupe leur referencement il devra aussi probablement fermer
les adsense qui pointes vers les pages de redirection ou les page trafiqué.

c'est avec cette vision purment mercantile que j'ai tester ceci :

Un de mes clients, site marchand, m'a demander de lui bricoler sont ref de facon TRES agressive, malgré mes conseils, il a insister, et les pages qu'il utilise pour faire des statistiques sont uniquement remplis de mot et redirigé.

J'ai donc vu :
-a- Une chute du PR , mais pas de la frequentation issus de moteur , liens et des liens adword.

-b- Une remonté du pr de ces pages .

-c- meilleur positionement , plus de trafic moteur, equilible du trafic liens,
le trafic adword restant relatif au prix payé a GG !

le roi c'est plus GG, c'est l'Euro !

La methode ( car il faut multiplier les experiences, et je ne veux pas sacrifier un de mes sites )

Pages inutile pour l'internaute pleine de "mot" et de liens en boucle , redirigé depuis un http-refresh , pointé par un ou plusieurs adword et un ou plusieurs sites externes.

Seul bemol , il semblerais qu'il ai fait chuter le PR d'un site que j'utilise pour lui generer du traffic "internaute" sur des pages optimisé.
Plobablement la notion de "site spam" .
Je ne sait pas verifier si mes autre sites pointant vers lui sont aussi
concidérer comme des site de spam

J'espere que d'autre membre pourons confirmer ou infirmer ceci , je ne veux pas sacrifier au autre site ;) .

Remarque, je n'ai aucun échange de liens entre mes sites et les sites que j'ai fait pour ce client , par securité.

et j'ai lu , "detecter le css Hidden", ca me rappele les premier conseil que
mon "maitre" m'a enseigner quand j'ai debuter ma "carriere" ;) de developpeur.

petit scarabe ... ;))
non je rigole .

Ca sert a rien de perdre perdre du temp a optimiser du code pour gagner
quelque micro secondes , sur un probleme , dans le cas ou le meme code
fera gagner quelque micro seconde avec d'autre parametres.
En dehors des probleme de performance "reel", optimiser , c'est jamais optimiser, c'est perdre du temp.

Optimiser les algo des moteur pour les petit filous , pour GG c'est :
Entierement gerer le css et stoquer les pages tel qu'elle s'affiche.
Si il ne gere pas ca , ca sert a rien de bloquer hidden ou autre chose .
On peut aussi tous afficher derriere une image , non?
c'est un example.

car comme beaucoup, j'utilise le css pour placer h1 et mon texte en haut
du code html alors que l'internaute ne vois pas ca , je suis un filou aussi ?

merci de votre lecture.
a++
 
Nouveau WRInaute
grojalou a dit:
c'est nul, en fait ces pratiques ne devraient pas être condamnables si elles sont tolérées pour certains...
Google ne devrait virer personne, et si j'avais le choix je cliquerais toujours sur non parce que c'est arbitraire et leur code déontologique n'aurait plus aucune valeur.
mais bon google c'est le choix du pognon, donc on a beau protester, on peut rien faire, c'est ça le monopole.

Tout a fait d'accord. Google ne devrait pas virer sans préavis. Si on fait quelque chose qui ne leur plait pas, qu'ils le disent. Du genre : si ce n'est pas corrigé dans tant de semaines, punition... Et ca ils peuvent aussi le dire aux gros.
 
WRInaute passionné
Le soucis n'est pas tant par les techniques utilisées. Elles restent des techniques de référencement et puis c'est tout. Ces techniques sont à la fois valable pour google mais également pour les autres moteurs.
Alors certes, certains seront techniquement meilleurs que d'autres et c'est non seulement normal, mais également tant mieux pour ce qui est de la concurence commerciale seine. Le problèmeme, c'est qu'il y a toujours cette notion de "sanction" aléatoire.

comme le souligne @Songeur
Songeur a dit:
le roi c'est plus GG, c'est l'Euro !

Je rejoins un peu cela ou gg peut determiner de penaliser ou non un site, mais qu'avant de le faire, il va verifier en priorité, quel est son intérêt.

J'en amenne donc au fameux "spam repport" et à son efficacité.

On aura beau spécifier un abus à google , si le site incriminé est "rentable" pour lui, il n'a franchement pas de raison d'agir.

Songeur a dit:
La methode ( car il faut multiplier les experiences, et je ne veux pas sacrifier un de mes sites )

Il suffit de faire le test sur deux sites "beta1 et beta2", histoire de voir si ça paye à long terme de faire le bourrin. Le site beta1 depourvu d'adsense, et le beta2 avec des annonces. Un volontaire pour donner son code ? :roll:
 
Discussions similaires
Haut