Petit coup de gueule.
le grand google proposerait-il des résultats toujours pertinents ?
Il est dit que : "Les méthodes complexes et automatiques utilisées par les recherches Google rendent quasi impossible toute manipulation humaine des résultats." source gg.
OK
Pour ce moteur qui met soit-disant un <strong>accent</strong>* sur sa lutte contre le spam, Comment expliquez-vous alors que sur des requêtes très concurentielles et commerciales certains sites en première page sont complêtement spammés (mots clés en surnombre en bas de page, contenu caché, etc.).
En théorie avec le filtre (sandbox) ils ne devraient plus se positionner parmi les premiers résultats.
On va dire que gg n'a pas pu détecter le spamming sur ces sites. (Et c'est normal avec plus de 8 milliards de pages à gérer)...
Et c'est là qu'apparait le spam repport.
Il faut m'expliquer à quoi sert ce formulaire !
J'ai du envoyer 4 ou 5 rapports sur des positionnements complêtement frauduleux, dont le plus ancien date de 4 mois.
IL N'Y A EUT AUCUN CHANGEMENT !
Les sites ne respectant aucune éthique sont toujours on the top.
Peut-être qu'il faut plus de 4 mois pour qu'il y ait changement. A ce moment là, c'est grâve.
Conclusion :
1. Certains sites sont en sandbox.
2. Certains sites frauduleux ne sont pas en sandbox.
3. D'autres avec un contenu et des liens tout à fait propres sont dans le filtre (les nouveaux sites pour des requètes concurentes).
Dite moi ou est la logique dans ces résultats.
Que pensez-vous plus pertinent entre un site spammé et un site propre avec un nouveau nom de domaine ?
Actuellement pour gg, est-ce le premier le plus pertinent ???
P.S : pour revenir à la citation du début : "quasi impossible" ça ne veut pas dire possible ?
* juste pour mettre l'accent :wink:
le grand google proposerait-il des résultats toujours pertinents ?
Il est dit que : "Les méthodes complexes et automatiques utilisées par les recherches Google rendent quasi impossible toute manipulation humaine des résultats." source gg.
OK
Pour ce moteur qui met soit-disant un <strong>accent</strong>* sur sa lutte contre le spam, Comment expliquez-vous alors que sur des requêtes très concurentielles et commerciales certains sites en première page sont complêtement spammés (mots clés en surnombre en bas de page, contenu caché, etc.).
En théorie avec le filtre (sandbox) ils ne devraient plus se positionner parmi les premiers résultats.
On va dire que gg n'a pas pu détecter le spamming sur ces sites. (Et c'est normal avec plus de 8 milliards de pages à gérer)...
Et c'est là qu'apparait le spam repport.
Il faut m'expliquer à quoi sert ce formulaire !
J'ai du envoyer 4 ou 5 rapports sur des positionnements complêtement frauduleux, dont le plus ancien date de 4 mois.
IL N'Y A EUT AUCUN CHANGEMENT !
Les sites ne respectant aucune éthique sont toujours on the top.
Peut-être qu'il faut plus de 4 mois pour qu'il y ait changement. A ce moment là, c'est grâve.
Conclusion :
1. Certains sites sont en sandbox.
2. Certains sites frauduleux ne sont pas en sandbox.
3. D'autres avec un contenu et des liens tout à fait propres sont dans le filtre (les nouveaux sites pour des requètes concurentes).
Dite moi ou est la logique dans ces résultats.
Que pensez-vous plus pertinent entre un site spammé et un site propre avec un nouveau nom de domaine ?
Actuellement pour gg, est-ce le premier le plus pertinent ???
P.S : pour revenir à la citation du début : "quasi impossible" ça ne veut pas dire possible ?
* juste pour mettre l'accent :wink: