Google, le SPAM et l'optimisation

WRInaute passionné
Message de GoogleGuy à propos du spam et de l'optimisation sensée :

Here's how I look at the subject. People think about how their pages will show up in search engines. That's SEO but perfectly normal. People tweak the words they use a little. Maybe they add a site map. Maybe they redo their site architecture so that the urls are static instead of dynamic. That's SEO, and no problem. Things like removing session IDs, using text links instead of Flash or frames or weird stuff that some search engines can't read can make a site more usable for users. It's easier to bookmark a page. It's easier for blind people, people with older browsers, or people using WebTV. All of the changes like this can improve a site for users and search engines alike. Is it SEO? Sure. Is it wrong? Of course not.

The part where I object is where SEO veers into spam. What is spam? Well, this is a pretty fair start:
https://www.google.com/webmasters/guidel ... ml#quality
There's a concrete list there: things like cloaking, duplicate content like doorway pages, and things like hidden text.

More importantly, there's a list of principles above the concrete list. If you're doing something that a regular user would consider deceptive (or that a competitor would!), it's probably something to steer clear of. From that list of general principles, you can infer a lot of specifics. For example, on https://www.google.com/webmasters/seo.html we mention a few extra specifics like operating multiple domains with multiple aliases or falsified WHOIS info. But given the principles and the concrete examples, hopefully you should probably be able to take a pretty fair guess at whether something would be considered spam.

My personal take would be that there's lots of people who practice good site design for users and search engines, and that Google has no objection to SEO if it reflects those ideas.

Lu sur http://www.webmasterworld.com/forum3/21994-6-15.htm

Fred
 
Nouveau WRInaute
La question est donc : "Pourquoi des sites avec une telle optimisation sensée n'apparaissent-ils plus dans les résultats ?"
 
Nouveau WRInaute
George Abitbol a dit:
Peut-être parce que :

GoogleGuy a dit:
People post around here about filters, blocking, penalties, etc. etc. A far better explanation is 'things which used to work before don't receive the same amount of credit now.

Fred

Très probable, en effet. Mais je dois encore comprendre pourquoi d'autres pages sur-optimisées et sans contenu continuent d'apparaître. Peut-être une question de PR.
 
WRInaute discret
donc en gros, Google veut nous inciter à renouveler nos techniques.
Un peu de nouveautés n'a jamais fait de mal à personne.
Merci Google, on devenait un peu trop fortiche en référencement... 8)
 
WRInaute passionné
Leur nouvelle approche n'est peut-être pas non plus complètement au point. En tous cas, GoogleGuy conseille d'envoyer tout constat de spam concernant cet update à l'adresse webmaster @ google .com en précisant brandyupdate dans le titre.

Fred
 
WRInaute impliqué
avmgeo a dit:
George Abitbol a dit:
Peut-être parce que :

GoogleGuy a dit:
People post around here about filters, blocking, penalties, etc. etc. A far better explanation is 'things which used to work before don't receive the same amount of credit now.

ai je bien compris ?
ce ne sont pas des pénalités sur tel ou tel critère mais plutot des changements d'attribution de points sur les critères et des nouveaux critères.
mon anglais est pas terrible et en plus c'est super clair :oops:
 
WRInaute passionné
Oui caro tu as compris
Avec une batterie de tests, tu devrais pouvoir nous donner un ordre de poids des differents critères ;-)
De mon coté je pencherais pour
liens > title > texte
et texte texte texte est plus pénalisant que link link link
il reste à classer ndd et url
plus d'autres cirtères ...
 
WRInaute impliqué
je peux juste te confirmer un truc (car beaucoup de pages n'ont pas été encore crawlées et les conclusions sont en stand by) c'est que les clés dans les liens sont plus performantes que les clés dans le texte. :wink:
 
WRInaute impliqué
tu sais c'est un peu comme si c'était un filtre,
si gg change tous les coeff des critères pour combattre les spammeurs alors ca agit comme un filtre.
enfin en ce moment je sature un peu :oops:
 
WRInaute discret
yannouk a dit:
donc, au vu de votre reflexion, toute idée de filtre de suroptimisation est mise de coté?
Moi je pense qu'il existe bel et bien, le filtre de suroptimisation :

Sur certaines requêtes à caractère commercial, GG répond dans la barre bleue en haut :
"Results 1 - 10 of about 109,000" (selon la recherche bien évidemment)
En bas de page on a : "Result Page: 1 2 3 4 5 6 7 8 9 10 Next "

Or, quand on dépasse la page 7 (sur ma requête), on a exactement les memes
résultats qui s'affichent sur toutes les pages
(au dessus de 7), et, tout en bas,
juste au dessus de la liste permettant de changer de page :
"In order to show you the most relevant results, we have omitted some entries very similar to the 66 already displayed."
Avec un lien permettant d'afficher les résultats suivants :
"If you like, you can repeat the search with the omitted results included."

Si on clique sur ce lien, on affiche alors effectivement la suite des résultats
(généralement des sites de spammeurs),
et là on trouve un paramètre supplémentaire très -parlant-, nommé "&filter=0",
dans l'url
affichée dans l'explo ..

Et ça, je ne pense pas que ce soit une pube suggestive pour une marque de filtres
a café, ou alors je ne regarde pas assez la télé :!:
 
WRInaute impliqué
cette variable $filter a toujours existé et il s'agit de la variable qui permet de supprimer ou pas les pages similaires ou les pages à répétition des résultats de google
 
WRInaute discret
caro a dit:
cette variable $filter a toujours existé et il s'agit de la variable qui permet de supprimer ou pas les pages similaires ou les pages à répétition des résultats de google
Je ne l'avais pas remarquée jusqu'a la, mais dans tous les cas, et comme tu le dis
toi-meme, c'est un filtre sur les -doublons- ou -repetitions- ..

Quand je vois les résultats sans ce filtre sur ma requete, toutes les pages de résultats
qui suivent (largement plus de 100), sont remplies d'alias d'un spammeur sur une seule
Dns, et dont les pages sont toutes strictement identiques, dans le genre -pourrisseur
de moteur- on fait pas mieux ..

En gros, sans ce -filter-, il y aurait 8000 liens vers 500 alias d'un seul nom de domaine..
Donc :
1) Celui-ci est efficace et je serais le dernier a m'en plaindre
2) Peut etre est-ce cette fonctionnalité qui a été -optimisée-, puisqu'elle filtre les
doublons sur un nom de domaine et élimine les nombreuses pages de certains
spammeurs ?
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut