incidence du style="display:none" sur le ref

Nouveau WRInaute
lorsque l'on met le code suivant : style="display:none" dans le code de la page est ce que les moteur de recherche ignore le texte et les liens qui sont cachés ou n'y pretent pas attention :?:

c pour mon site www.gp-f1.com
 
WRInaute passionné
oui : Le bannissement pour l'eternité de google !!!

meme tes futurs petis enfant et petit-petit enfants ne pourons JAMAIS plus soumetre de site a google !!!! ô_ô !!!
 
WRInaute discret
je suis pas rassuré non plus...

j'utilise cette technique poas pour cacher des liens mais pour simplement afficher en fonction d'un rollover de souris du texte sur ma page d'accueil....

Donc pour ma part il ne s'agit certainement pas de vouloir tricher, mais bien de gérer plus intelligemment l'affichage de calque qui ne s'afficheront pas forcément...

Jettez un oeil sur la source de la page <URL supprimée par cendrillon : on ne montre pas du doigt> et dites moi, les experts en blacklisage, ce que vous en pensez ? merci par avance

Cédric
 
Nouveau WRInaute
moi c pour tricher :lol: mais n'etant pas sur si sa a de lincidence ou pas ba j'ai decider de les cacher pas en javascript com aparament google ne l'interprete pas :wink:
 
WRInaute occasionnel
Google se fiche de la mise en page et des styles CSS.
Il s'intéresse au contenu. A la structure brute de ta page.

Affiche ta page sans styles CSS et tu auras un aperçu de ce que "voit" Google.
En bref, si dans ton HTML tu as des pâtés de mots-clés partout, alors Google les verra aussi (et s'il y'en a trop, considèrera qu'il s'agit de spam)
 
Nouveau WRInaute
SIBELIUS a dit:
Google se fiche de la mise en page et des styles CSS.
Il s'intéresse au contenu. A la structure brute de ta page.

Affiche ta page sans styles CSS et tu auras un aperçu de ce que "voit" Google.
En bref, si dans ton HTML tu as des pâtés de mots-clés partout, alors Google les verra aussi (et s'il y'en a trop, considèrera qu'il s'agit de spam)

oki thanks
 
WRInaute passionné
serialbooser en revanche fait attention de pas etre connu et de grillé des places sur google grace a ça car tu sera vite balancer et blacklisté plus vite (humain) par d'autre webmaster concurent ou.. jaloux :) , donc joue mais trouve ta juste limite :)
au fait tu veut pas nous donner le site ? ^^
 
WRInaute discret
j'ai revu ma position,n'yaant aucune envie de voir le site blacklisté j'ai préféré revenir à une "bonne vielle écriture dans le layer via javascript" et balance dans des balises <noscript> mon texte sans liens du tout.

Na ! ça m'évitera de me faire tapper sur les doigts si google change ses rêgles !
 
Nouveau WRInaute
Foxus a dit:
serialbooser en revanche fait attention de pas etre connu et de grillé des places sur google grace a ça car tu sera vite balancer et blacklisté plus vite (humain) par d'autre webmaster concurent ou.. jaloux :) , donc joue mais trouve ta juste limite :)
au fait tu veut pas nous donner le site ? ^^

www.gp-f1.com
 
WRInaute occasionnel
J'ai utilisé cette méthode durant longtemps (style="visibility:hidden") sans pour autant être embêté.
J'ai maintenant arrêté (référencement naturel) mais il est clair que Google est aveugle... mais jusqu'a quand ? ;)
 
WRInaute occasionnel
serialbooser a dit:
style="display:none"

ou style="visibility: hidden;"

Ce genre d'attributs de div se révèle très utile dans le cas d'affichage différents pour l'écran ou l'impression.

On peut ainsi insérer une bannière (incluant par-exemple le logo, le nom et l'addresse de la société) et cacher des parties de la page qui ne sont pas intéressantes lors de l'impression (les menus, les adsense etc...).

Si GG nous pénalise pour ces attributs, il nous empêche du même coup de fournir un contenu "intelligent", modulable et adapté aux situations dans les-quelles se trouvent nos visiteurs.

J'ai vu jusqu'à ce jour beaucoup de sites qui utilisent, disons "abusivement", les divs cachés pour y mettre des mots clés/BL/etc...
Mais je n'ai pas l'impression qu'ils soient pénalisés pour autant.

La question à se poser est: GG peut-il différencier si un div caché apporte un plus à l'internaute ou si il a pour but de rendre la page plus attractive aux yeux des bots...

je doute...

mais l'un de vous a peut-être une très bonne réponse à ceci..
 
WRInaute occasionnel
D'autant plus que pour les robots il serait difficile de trouver la différence entre :

<div id="div1">Texte</div>
et
<div id="div2">Texte</div>

où le css dit : #div1 { } #div2 { display:none; }
 
WRInaute occasionnel
AW a dit:
sauf si il lit le css....
En toute logique il n'a pas à le faire : le fichier CSS gère la mise en page (ce dont un moteur se fiche) et non le contenu.

Donc si tout est bien rangé à sa place : page HTML avec contenu et page CSS avec design, les moteurs devraient être ravis.

Mais mieux vaut ne pas jouer avec le feu.
 
WRInaute occasionnel
de ce coté là j'ai des doutes : Il faudrait beaucoup plus de temps et de ressources pour crawler, puis détecter les "hidden" et compagnie.
Irréalisable à mon sens car l'interêt de Google n'est pas ici (même si cela pourrait améliorer la pertinence).
Et de toutes manières, depuis la création de google, et même avant, il y'avait du texte caché, et le seul qu'il démasque est celui qui a la même couleur que le fond ce qui reste relativement basique au niveau du temps d'analyse.
Donc si google aurait voulu, ça ferait des années que ce genre de "filtre" serait en place.
 
WRInaute occasionnel
Moi je mise plutôt sur la perte de temps et d'argent que cela pourrait engendrer, après techniquement, je pense qu'il s'agirait plutôt d'ignorer purement et simplement tout texte en display:none ou visibility:hidden (ou marges négatives tant qu'on y est).

Je le vois déja plus faire la chasse au cloaking que la chasse aux css :D
 
WRInaute passionné
Il faut pas oublier aussi que le blacklistage se fait par un etre humain.
Il suffit d'avoir un concurrent qui decouvre la supercherie de faire quelques spam report (l'efficacité de ce formulaire reste toujours a demontrer, pour mon experience personnel: 2 spam report un qui a reussi, l'autre non) et qu'il y ait une personne de google qui blacklist...
 
WRInaute occasionnel
Vell a dit:
du texte caché, et le seul qu'il démasque est celui qui a la même couleur que le fond ce qui reste relativement basique au niveau du temps d'analyse.

est-ce qu'il détecte aussi les textes cachés du type:

Code:
<span class="texteCache">texte à cacher</span>

où la couleurs du fond et du texte est définie dans la css??
 
WRInaute accro
pathétique.

Le mode d'emploi du petit cloakeur, en collaboration avec WRI.

Si on ne regarde ça que du point de vue des 20-30 participants à ce post, ça va, mais si on imagine que c'est lu et relu par des dixaines, centaines de débutants dans les semaines et mois à venir, ça se rapporte à fournir un tutoriel "Comment faire un site sans respecter la netiquette".

Désolant.

:evil:
 
WRInaute discret
j ai une autre question a vous poser comment on fait pour cacher du texte dans une image en css dans une page sat cloaker ??

Non mais arréter ca les boulet c'est dehors en plus gg lit les css
 
WRInaute discret
HawkEye_TpfH a dit:
Si on ne regarde ça que du point de vue des 20-30 participants à ce post, ça va, mais si on imagine que c'est lu et relu par des dixaines, centaines de débutants dans les semaines et mois à venir, ça se rapporte à fournir un tutoriel "Comment faire un site sans respecter la netiquette".

javais pas pensé à ça c'est vrai. j'édite. :wink:
 
WRInaute impliqué
Ceci dit, on peut se demander si la meilleure façon de combattre les tricheries ne serait pas de les divulguer car, plus elle sont répandues, plus Google serait obligé de réagir.
;-)

Sinon, je reste persuadé que la détection des tricheries se fait par des outils à part, ce n'est pas le boulot du bot d'aller lire le CSS. En revanche, n'importe quel programmeur digne de ce nom peut trouver 47 idées en 10 mn pour bâtir un outil de détection des tricheries diverses et variées. Les outils sont faciles à developper, ce n'est qu'une question de temps et donc de moyens. Google a largement les moyens de développer ces outils et les possède surement déjà.
Mais, ces outils n'ont pas besoin de fonctionner tout le temps (c'est un peu comme un contrôle fiscal : on n'est normalement pas contrôlé tous les ans, mais on sait que quand ça nous tombe dessus, on a intérêt à être clean... ;-))
 
WRInaute occasionnel
Je comprends ton point de vue HawkEye_TpfH, mais il faut néanmoins rester objectif, et ne pas placer plein de "tabous", parceque c'est "pas bien" et qu'après tous les débutants vont demander comment faire.

Remi L, tu as raison dans un sens, mais comme pour les contrôle fiscaux, la totalité de son boulot est basé sur le rapport.
Et tout comme les contrôles fiscaux, le "jeu n'en vaut pas la chandelle", c'est à dire que ça ne vaut pas le coup (dans un cas pour google, dans l'autre pour l'état) au niveau temps - argent perdu / résultats.

C'est pourquoi j'ai parlé plus haut qu'il fallait aussi, dans ces cas là, se préparer à changer de ndd pour blacklistage.

Quant à tous ceux qui pourraient avoir envie de dire "pouah_çapue_cépabien", encore et encore, je vous invite à regarder les résultats de Google, il est évident que le "plus bien mieux fait" n'est pas forcément en haut, que celui qui a le meilleur contenu n'est pas forcément en haut.
Alors, Google cépabien_çapue aussi ? Chacun ses méthodes, google a les siennes, les webmasters ont aussi les leur...
 
Discussions similaires
Haut