Exclusion de l'index de Google

Nouveau WRInaute
Bonjour Google vient de m'envoyer un message d'exclusion pour toutes les pages d'un de mes sites internet http://www.virtuelle-visite.fr car il a remarqué que j'avais utilisé une méthode de cloacking qui consiste à cacher certains mots en utilisant le CSS (il est possible aussi que j'ai été dénoncé via le formulaire de dénonciation de Google, car un peu avant cela, j'avais posé une question (sur un forum de développeurs) pour savoir comment cacher du texte et cela avait soulevé, à mon grand étonnement, un tollé de protestations !?)

Google me propose donc de modifier toutes les pages qui transgressent leurs règles de qualité et de soumettre une demande de réinclusion lorsque cela sera fait.

Le problème, c'est que j'ai de très nombreux fichiers à modifier et que cela me prendra beaucoup de temps ... le soir, en rentrant du travail. J'ai l'intention de le faire, mais petit à petit selon mes possibilités, mais il faut quand même que je dorme un peu !!!.

J'ai pensé à une alternative provisoire qui consisterait, pour commencer, à modifier ma page d'accueil (index.html) pour la rendre conforme aux exigences de Google et pour pouvoir demander immédiatement sa réinclusion.
Pour les autres pages, en attendant leur mise aux normes, il faudrait indiquer à Google, via le fichier robot.txt, de ne pas les indéxer.

Pour faire bref, je souhaiterai organiser mon fichier robot.txt pour que Google ne puisse plus rien rien indexer SAUF MA PAGE d'ACCUEIL index.html.

J'espère que vous m'avez compris. Pensez-vous que cela soit possible et, si oui, que dois-je mettre dans mon fichier robot.txt pour faire de la sorte ?

Bien cordialement. JEFHERNET[/u]
 
WRInaute accro
jefher.net a dit:
Bonjour Google vient de m'envoyer un message d'exclusion pour toutes les pages d'un de mes sites internet http://www.virtuelle-visite.fr car il a remarqué que j'avais utilisé une méthode de cloacking qui consiste à cacher certains mots en utilisant le CSS (il est possible aussi que j'ai été dénoncé via le formulaire de dénonciation de Google, car un peu avant cela, j'avais posé une question (sur un forum de développeurs) pour savoir comment cacher du texte et cela avait soulevé, à mon grand étonnement, un tollé de protestations !?)

Google me propose donc de modifier toutes les pages qui transgressent leurs règles de qualité et de soumettre une demande de réinclusion lorsque cela sera fait.

Le problème, c'est que j'ai de très nombreux fichiers à modifier et que cela me prendra beaucoup de temps ... le soir, en rentrant du travail. J'ai l'intention de le faire, mais petit à petit selon mes possibilités, mais il faut quand même que je dorme un peu !!!.

J'ai pensé à une alternative provisoire qui consisterait, pour commencer, à modifier ma page d'accueil (index.html) pour la rendre conforme aux exigences de Google et pour pouvoir demander immédiatement sa réinclusion.
Pour les autres pages, en attendant leur mise aux normes, il faudrait indiquer à Google, via le fichier robot.txt, de ne pas les indéxer.

Pour faire bref, je souhaiterai organiser mon fichier robot.txt pour que Google ne puisse plus rien rien indexer SAUF MA PAGE d'ACCUEIL index.html.

J'espère que vous m'avez compris. Pensez-vous que cela soit possible et, si oui, que dois-je mettre dans mon fichier robot.txt pour faire de la sorte ?

Bien cordialement. JEFHERNET[/u]
Je ne demande qu'à rendre service mais selon toutes les apparences (ce que j'ai mis en gras) tu ne suis pas les conseils, pas vrai ?
Je passe mon tour.
 
WRInaute discret
Bonjour,

Tu peux exclure tout un répertoire :

User-agent: *
Disallow: /dossier/

Puis utiliser :

Allow : /page.php

Pour autoriser une page...

Bonne journée
 
WRInaute impliqué
Mouahaha ... qui fait le malin tombe dans le ravin :lol:

Le problème, c'est que j'ai de très nombreux fichiers à modifier et que cela me prendra beaucoup de temps ... le soir, en rentrant du travail. J'ai l'intention de le faire, mais petit à petit selon mes possibilités, mais il faut quand même que je dorme un peu !!!.

Si tu as su prendre du temps sur tes nuits pour cacher du texte, tu sauras bien en reprendre un peu pour l'enlever, non :wink:
 
WRInaute accro
SuperCureuil a dit:
Mouahaha ... qui fait le malin tombe dans le ravin :lol:

Le problème, c'est que j'ai de très nombreux fichiers à modifier et que cela me prendra beaucoup de temps ... le soir, en rentrant du travail. J'ai l'intention de le faire, mais petit à petit selon mes possibilités, mais il faut quand même que je dorme un peu !!!.

Si tu as su prendre du temps sur tes nuits pour cacher du texte, tu sauras bien en reprendre un peu pour l'enlever, non :wink:

Idem..faut assumer..
quand on joue avec le feu, on peut se bruler..le tout c'est d'avoir la pommade pas loin et encore une main valide pour l'appliquer ! ;)
 
WRInaute impliqué
Bonjour,

je vais être net,
ta moral te concerne toi,
mais n'oublie pas que les ingénieurs de google ont aussi des cerveaux et qu'ils sont plus nombreux que toi.
alors si tu joues au jeu des illusions et que tu perds soit au moins beau joueur et rend toi comme il te le propose.
tu as quelque chose à perdre, pas eux.

bonne journée à toi. :D
 
Nouveau WRInaute
Bonjour, en fait je n'ai pas aprofondi les methodes de référencement et j'étais bien loin de me douter que le fait de cacher certains mots, somme toute anodins (dans mon cas des noms de communes) pour qu'ils n'apparaissent pas sur la page, était mal vu. Effectivement, mes visiteurs n'ont pas besoin de voir cette liste de communes qui alourdit mon graphisme plutôt qu'autre chose. Voici la raison pour laquelle je trouvais cette méthode de mots cachés intéressante.
D'autre part je n'utilise pas le PHP ni les méthodes beaucoup plus "professionnelles" de cloacking pour forcer à afficher des pages qui n'ont pas forcément à voir avec les requêtes sur la barre de Google.
Je ne suis quand même pas un gangster !!!

J'ai l'intention de corriger et de faire apparaître ces noms de communes au bas de chaque page, mais cela prendra un certain temps.

Pour le texte que Szarah a mis en gras, en fait la question posée ne date que de quelques jours seulement alors que mes pages, dites non conformes, sont référencées depuis fort longtemps et que jusqu'à présent, personne ne m'avait rien dit. C''est pour cela que j'en suis venu à me demander si je n'avais pas été dénoncé car j'ai constaté, aujourd'hui même, qu'il existe un formulaire sur Google pour effectuer cet acte de dénonciation.

Merci joboy84 pour ta réponse, je connaissais cette méthode. Mais dans mon cas, elle ne peut pas s'appliquer car je construis tous mes sites web sans répertoires, c'est à dire que tous le fichiers se trouvent à la racine, en vrac, au même niveau que l'index (même les images ou autres).

Mais quand-même, d'après ce que tu mes dis, je pourrais peut-être refaire mon fichier robot.txt de la manière suivante :

User-agent: *
Disallow: all
Allow : /index.html

Est-ce valide ... qu'en penses-tu ?

Merci pour vos réponses. JEFHERNET
 
Nouveau WRInaute
st-antigone a dit:
Bonjour,

je vais être net,
ta moral te concerne toi,
mais n'oublie pas que les ingénieurs de google ont aussi des cerveaux et qu'ils sont plus nombreux que toi.
alors si tu joues au jeu des illusions et que tu perds soit au moins beau joueur et rend toi comme il te le propose.
tu as quelque chose à perdre, pas eux.

bonne journée à toi. :D

Merci pour cette réponse, mais c'est justement ce que je suis entrain d'essayer de faire.
Je me suis donc mal expliqué.
Merci encore. JEFHERNET
 
WRInaute discret
Tiens, je crois me rappeler du sujet mentionné en ouverture de ce sujet-ci.

Bon courage pour les modifications à apporter. :)

Pour la possibilité de re-soumettre la page d'accueil uniquement avec un robots.txt interdisant l'indexation des autres pages... c'est une idée, mais je ne sais pas si techniquement ça marchera (notamment si les pages déjà indexées seront réanalysées ou pas).
À toi de voir.
 
Nouveau WRInaute
Florent V. a dit:
Tiens, je crois me rappeler du sujet mentionné en ouverture de ce sujet-ci.

Bon courage pour les modifications à apporter. :)

Pour la possibilité de re-soumettre la page d'accueil uniquement avec un robots.txt interdisant l'indexation des autres pages... c'est une idée, mais je ne sais pas si techniquement ça marchera (notamment si les pages déjà indexées seront réanalysées ou pas).
À toi de voir.

D'accord Florent V, je vais modifier mes pages, à commencer par la page d'accueil. Mais en attendant, il n'est pas question que Google retourne sur les autres pages tant qu'elles ne seront pas modifiées, sinon je risque de me retrouver à la case départ.
C'est pour cette raison que je veux indiquer à Google de n'indexer que ma page d'accueil, pour le moment.
Merci pour ta réponse. JEFHERNET
 
WRInaute accro
Ca ne te servira à rien de ne modifier que l'index.

Ils ne sont pas fous chez Google: si t'es pas clair à 100%, tu resteras dehors, certainement ad vitam (on ne fait pas de seconde demande de réintégration: soit tu deviens un véritable bigot de la guideline, soit tu sera à jamais considéré comme hérétique ;) ).

De toutes façons, ton blacklistage sera probablement d'au moins 30 jours (c'est peut-être indiqué dans leur message d'ailleurs), donc profite de ces 30 jours pour éditer ton contenu, et vérifier les autres optimisations.

++
 
WRInaute impliqué
Oui j'ai oublié de lire ton post avec indulgence. :D
Donc tu t'es très bien exprimé, c'est moi qui ne sait pas lire.

Bon courage à toi, réparer ses erreurs est toujours plus long que de les faire ... :wink:


à plus,





jefher.net a dit:
st-antigone a dit:
Bonjour,

je vais être net,
ta moral te concerne toi,
mais n'oublie pas que les ingénieurs de google ont aussi des cerveaux et qu'ils sont plus nombreux que toi.
alors si tu joues au jeu des illusions et que tu perds soit au moins beau joueur et rend toi comme il te le propose.
tu as quelque chose à perdre, pas eux.

bonne journée à toi. :D

Merci pour cette réponse, mais c'est justement ce que je suis entrain d'essayer de faire.
Je me suis donc mal expliqué.
Merci encore. JEFHERNET
 
Nouveau WRInaute
Oui, effectivement, voici ce que me dit Google "Les pages appartenant à virtuelle-visite.fr sont programmées pour une exclusion d'une durée minimum de 30 jours".

Donc, c'est trente jours minimum. Mais il faut aussi représenter le site.

Je te rassure, j'ai l'intention de modifier ma page d'accueil, certes, mais aussi toutes les autres. Simplement il me faudra un certain temps pour le faire ... sûrement plus de 30 jours !.

En attendant, je demande simplement à Google de n'indexer que mes pages valides ... cela devrait être possible, non ?

A bientôt. JEFHERNET
[/url]
 
WRInaute impliqué
L'effet ne risque t-il pas d'être pire qu'une désindéxation temporaire ?
qui ne doit être que la mise en place d'un filtre, tandis que si tu te desindexes toi même .... :cry:

jefher.net a dit:
En attendant, je demande simplement à Google de n'indexer que mes pages valides ... cela devrait être possible, non ?

A bientôt. JEFHERNET
[/url]
 
WRInaute occasionnel
D'autant plus dommage que ton site mérite d'être vu -donc correctement indexé. Essaye de mettre du texte, de vraies informations, des commentaires perso, des impressions, des liens utiles etc. bref, plein de boulot !
 
WRInaute impliqué
jefher.net a dit:
Bonjour, en fait je n'ai pas aprofondi les methodes de référencement et j'étais bien loin de me douter que le fait de cacher certains mots, somme toute anodins (dans mon cas des noms de communes) pour qu'ils n'apparaissent pas sur la page, était mal vu. Effectivement, mes visiteurs n'ont pas besoin de voir cette liste de communes qui alourdit mon graphisme plutôt qu'autre chose. Voici la raison pour laquelle je trouvais cette méthode de mots cachés intéressante.
D'autre part je n'utilise pas le PHP ni les méthodes beaucoup plus "professionnelles" de cloacking pour forcer à afficher des pages qui n'ont pas forcément à voir avec les requêtes sur la barre de Google.
Je ne suis quand même pas un gangster !!!

T'as quand même mis ta liste de mots planqués dans un h1, donc tu savais ce que tu faisais...

Pas besoin de dénonciation pour voir qu'un h1 qui fait plus de 11k et qui contient plusieurs liens est pas net net.

Vap
 
Nouveau WRInaute
Bon effectivement, je plaide coupable.
J'avais repéré ces techniques sur d'autres site Internet et cela m'avait donné l'idée de faire de même pour inclure les noms des communes des départements sur lesquels j'opère. Ces noms n'ayant aucune utilité pour le visiteur, j'avais décidé de les cacher.
Bon, ça ne marche pas... tant pis.
Le style de toutes les pages de mon domaine incriminé par Google se trouve dans une trentaine de fichiers CSS externes.
Dans un premier temps, je vais supprimer, dans chacun de ces fichiers CSS, toute les balises qui consistent à cacher des caractères.
De cette manière, plus un seul mot ne sera caché et les robots de Google devraient donc pouvoir ré-indexer mes pages.
La navigation sur les pages en mode texte correspondra bien à ce qu'un internaute pourrait voir sur n'importe quel autre navigateur graphique.
Et la ,vap, tout ce qui était caché va donc apparaître en grande police (h1) au bas de la page. Comme ces caractères se trouveront au dessous de la limite inférieure de l'écran, cela ne sera qu'un moindre mal.
Ensuite, il ne me restera plus qu'à modifier, petit à petit, tous les fichiers HTML pour leur donner un aspect plus cohérent.
Pour les noms de communes, j'ai l'intention de créer un bloc en overflow au bas de chaque page où tous les caractères seront visibles.
Merci encore pour toutes vos réponses. JEFHERNET
 
Nouveau WRInaute
[quote="Vap

Pas besoin de dénonciation pour voir qu'un h1 qui fait plus de 11k et qui contient plusieurs liens est pas net net.

Vap[/quote]

Effectivement, mais si Google a mis en place un formulaire de dénonciation, c'est qu'il doit bien recevoir des réponses ...

En ce qui me concerne, si je rencontrais un site non conforme aux prescriptions de Google, et quite à écrire quelque chose, je préfère informer et prévenir directement le webmaster du site en question.
Y'a pas besoin, à mon avis, d'alerter tout le staf de Google.

Mais enfin, selon la formule consacrée, cela n'engage que moi.

Bien cordialement. JEFHERNET
 
Nouveau WRInaute
Voici un exemple de ce que j'ai l'intention de faire avec mes pages comportant des caractères cachés :
http://www.virtuelle-visite.fr/bany..._laboratoire-arago_panorama-aerien-360_1.html

En fait, au lieu de cacher les noms de communes comme auparavant, je les ai simplement regroupés dans un overflow au bas de la page. C'est tout.

Pouvez-vous me dire ce que vous en pensez et si Google acceptera de re-indexer de telles pages pages ?

A noter que, du coup, ces pages sont parfaitement lisibles en mode texte.

Merci d'avance. JEFHER
 
WRInaute accro
Je pense (mais ça n'engage que moi) que tu devrais raccourci de manière significative tes url. Là tu obtiens une url à rallonge que beaucpup de moteurs risquent d'avoir du mal à indexer...
 
WRInaute accro
jefher.net a dit:
Pouvez-vous me dire ce que vous en pensez et si Google acceptera de re-indexer de telles pages pages ?
en plus de continuer à faire fuir les moteurs, ça fait fuir les internautes. Et la page d'accueil c'est encore pire.
Ce que tu dois comprendre, c'est que les moteurs, surtout google, utilisent des procédés d'analyse sémantique du texte. Et là, le texte ne correspond à rien, que des mots en vrac. C'est le meilleur moyen pour être blacklisté ad-vitam eternam
 
Nouveau WRInaute
Bon, décidémént, j'en apprends tous les jours sur ce forum !!!
Mes pages comportent très peu de textes, c'est volontaire. Elles servent simplement à regarder des images et à savoir à quoi elles correspondent, c'est tout. Une fois qu'on a vu l'image, on zappe !!!
Si les internautes veulent plus de renseignements, ils vont sur les sites des Offices de Tourisme ou des Mairies.
Par contre, certaines de mes pages doivent impérativement comporter la liste des communes des départements que je visite. Evidemment, c'est pas très intéressant pour les internautes, mais je ne leur demande pas de lire cela.
Cette liste n'est destinée qu'aux moteurs de recherche.

Savais pas que des robots pouvaient être intelligents et utiliser des procédés d'analyse sémantique du texte.

Je peux donc ouvrir un paragraphe qui pourrait s'intituler, par exemple : Liste des communes du Département de Seine et Marne : Achères-la-Forêt,Amillis,Amponville,Andrezel,Annet-sur-Marne,Arbonne-la-Forêt, etc ...

C'est quand même assez compréhensible.

Qu'en penses-tu Leonick ?

Merci encore. JEFHERNET
 
WRInaute accro
jefher.net a dit:
Bon, décidémént, j'en apprends tous les jours sur ce forum !!!
Mes pages comportent très peu de textes, c'est volontaire. Elles servent simplement à regarder des images et à savoir à quoi elles correspondent, c'est tout. Une fois qu'on a vu l'image, on zappe !!!
Si les internautes veulent plus de renseignements, ils vont sur les sites des Offices de Tourisme ou des Mairies.
comme dit sur https://www.google.com/support/webmaster ... swer=35769
Concevez vos pages en pensant aux internautes et non aux moteurs de recherche. Ne trompez pas les internautes et ne leur présentez pas un contenu différent de celui destiné aux moteurs de recherche (technique appelée "cloaking" ou dissimulation).
donc concrètement, le seul texte présent doit être celui pour tes visiteurs, c'est tout.

Et puis, google a déjà commencé à scanner des livres pour mettre en ligne, il a du contenu de très nombreux sites, dont ceux des journaux, sensé être fiables, ça permet d'avoir des corpus assez intéressants pour effectuer une comparaison. Et d'en déduire que ton amas de mots clés n'est pas un vrai texte.
quelques lectures http://160.92.130.159/lettres/textimage/recherche.htm

PS : comment crois-tu que les correcteurs grammaticaux fonctionnent et peuvent t'indiquer que j'es semble ne pas être bon et qu'il faudrait j'ai ?
 
WRInaute accro
En tant qu'internaute, qui ne recherche que des photos, tu en penserais quoi ?
En plus, le but de l'internaute (moi en premier) et par conséquent des moteurs, c'est d'arriver directement sur ce qu'on recherche.
Et si j'arrive sur une page de photos de Provins en ayant cherché "photos de Meaux", tout ça parce que tu auras toutes les villes en mots clés dans la page, je ne serais pas content. Je retournerais sur google pour refaire une recherche et donc taux de rebond fort et déclassement de google...
encore faut-ils qu'ils te laissent revenir au même positionnement qu'avant et avec de tels bourrages de mots clés, j'ai des doutes (en fait même pas :lol: )
 
Nouveau WRInaute
Merci Léonick,je ne connaissais pas ce paramètre de taux de rebond. Du coup je suis allé me documenter sur la chose pour encore mieux comprendre.
Effectivement il va falloir que je revoie complètement ma façon d'aborder les choses.
Autre chose, en tapant le nom d'une commune sur les moteurs de recherche, on aboutit la plupart du temps sur le site officiel de la mairie, en première position, même lorsque celui-ci n'a pas été réalisé par un professionnel, même si ce site ne répond pas aux standards.
Il arrive souvent que des sites officiels de communes passent bien devant d'autres site non-officiel et pourtant d'un contenu infiniment plus riche et intéressant pour l'internaute ! (j'ai un exemple avec la ville de Thuir, il y en a beaucoup d'autres)

Les communes ont-elles un ticket spécial pour cela ?

A bientôt. JEFHER
 
WRInaute accro
Hé bien ... les communes ont une crédibilité d'avance sur les autres sites qui parlent de l'endroit, c'est certain et c'est logique. Meilleur TR donc.
 
Nouveau WRInaute
Hé pourtant voici un exemple qui peut amener à se poser des questions :

Voici le header de la première page du site officiel de la mairie de thuir.
Cette page apparaît en première ligne après avoir tapé THUIR (tout simplement) sur Google :

Code:
<head>

<title>MAIRIE DE THUIR</title>
<META NAME="Description" CONTENT="">
<META NAME="Keywords" LANG="fra" CONTENT="">
<META NAME="Identifier-URL" CONTENT="http://www.thuir.com">
<META NAME="Robots" CONTENT="index,follow,all">
<META NAME="revisit-after" CONTENT="7 days">
<META NAME="Category" CONTENT="mairie">
<link rel="stylesheet" type="text/css" href="style.css">
<link REL="shortcut icon" HREF="images/favicon.ico">
<META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=ISO-8859-15">
<script type="text/javascript" src="http://www.thuir.com/embedflash.js"></script>
</head>

Il n'y a même pas de mots clé et le nom de celui qui a conçu le site revient DEUX fois alors que Thuir n'est cité qu"une seule fois.

C'est ça la "crédibilité d'avance" ?

J'essaie de comprendre.

Merci pour vos réponses. JEFHER
 
WRInaute accro
Je précise : un site officiel, même mal construit, même mal fichu, même lacunaire a d'office la plus grande crédibilité. C'est un préjugé nécessaire qui peut évidemment être revu à la lumière de la qualité des données présentées. Dans certains domaines citoyens (rapport des conseils municipaux, calendrier du ramassage des poubelles et des festivités, horaires de l'administration ...), la qualité de la source est évidente puisque c'est de la première main.
Pour les informations moins sensibles ... le jeu reste ouvert grâce aux requêtes composites comme ville+boudin ou ville+portnawak. Mais sur la requête simple (nomDeLaVille), le site officiel doit sortir en premier.
 
WRInaute accro
La crédibilité ne vient pas des métas..t'a vu ça où..
Les métas c'est quasiment inutiles, je n'en met même plus sur les sites que je conçoit (ou le minimum) et j'arrive à me positionner très correctement.
 
Nouveau WRInaute
De plus, et c'est un exemple parmi tant d'autres, en tapant THUIR sur la barre de recherche de Google, celui-ci nous présente en première ligne le site officiel de la Mairie de Thuir MALGRE QUE CE SITE NE SOIT PAS VALIDE SELON LE TEST W3C.

En voici la preuve :
http://validator.w3.org/check?uri=h...(detect+automatically)&doctype=Inline&group=0

Tout ce qu'on peut lire à droite ou à gauche pour un bon référencement qui respecte bien les règles est très intéressant, mais aussi relativement hypothétique ... non ?

Merci encore. JEFHER
 
WRInaute accro
:lol:
Si pour être référencé il faut des sites valides, je serai content car
les 3/4 des résultats seraient absents.
Tu confonds, avoir un site valide AIDE au référencement, mais en aucun est obligatoire.
 
WRInaute accro
De toute façon, avec le nouveau gadget de Google, tu vas pouvoir te faire plaisir et ramener le site que tu considères comme un intrus à sa juste place selon toi :)
 
Nouveau WRInaute
Bon, je ferais bien refaire mes pages par une agence pro, mais il y a plus d'un millier de fichiers html à revoir et ça me couterait trop cher, et somme toute, c'est bien normal vu le boulot.

Je vais simplement supprimer le cloacking sur toutes les pages concernées, et j'espère que Google fera l'impasse sur les autres petits défauts lors de ma demande de re-indexation (proposée par Google).

Merci encore. JEFHERNET
 
Nouveau WRInaute
Oui bproductiv pour la balise bgsound je le savais.

Sans vouloir abonder dans le sens du quasi monopole de IE sur les autres navigateurs,

(je suis radicalement contre toute forme de monopole. Dans d'autres domaines je me suis même "jadis" battu, au sein d'une organisation syndicale, contre eux et ça m'a rapporté des avatars judiciaires ... dur dur de lutter contre les monopoles ... c'était une parenthèse.)

c'est bien dommage qu'une balise AUSSI SIMPLE et qui fonctionne AUSSI BIEN que BGSOUND ne soit pas valide.

Parfois, pour le profane, c'est à ne rien n'y comprendre !.

Mais, bien sûr et selon la formule consacrée, cela n'engage que moi.

Merci pour tous vos renseignement très instrustifs.

JEFHER
 
WRInaute accro
jefher.net a dit:
Il n'y a même pas de mots clé et le nom de celui qui a conçu le site revient DEUX fois alors que Thuir n'est cité qu"une seule fois.
le mot clé se trouve bien dans la balise title et dans le contenu. Avec aussi des liens marqués "mairie de Thuir" en provenance de nombre de sites renommés (département, préfecture, région, ...)
Heureusement que le site de la ville apparait en premier, sinon le moteur ne serait pas pertinent. Ce qui était le cas avec exalead ou j'avais un site qui apparaissait avant celui de la ville et je m'en était plain auprès d'exalead et ça a été corrigé. La pertinence ce n'est pas obligatoirement quand mon site apparait en premier.
Une ville est plus à même de donner des informations vérifiées qu'un site d'un citoyen lambda, qui souvent, sera parcellaire et prévu juste pour afficher de la pub :evil:
jefher.net a dit:
c'est bien dommage qu'une balise AUSSI SIMPLE et qui fonctionne AUSSI BIEN que BGSOUND ne soit pas valide.
heureusement qu'elle ne fonctionne pas. Quand je navigue et que j'écoute de la musique je n'aime pas qu'un intru se permette de me rajouter du son que je n'ai pas demandé
Sans parler du fait qu'on peut ouvrir 5 ou 10 onglets d'un coup et se retrouver avec 3 sons différents qu'on ne peut éteindre qu'en faisant un CTRL+W :lol:
 
Nouveau WRInaute
Merci léonick, mais tu sais, mois je ne peux pas contester ce que décide tel ou tel moteur.
Non, j'observe et j'essaie de comprendre ... c'est pour cela que je me suis inscrit sur ce forum.

Pour la balise BGSOUND effectivement ça peut être fatigant à la longue, mais alors il suffit de taper sur ECHAP pour couper le son (à condition de le savoir, bien sûr).
Et puis ceux qui naviguent sous FF n'entendent rien avec BGSOUND.

De toute manière, de plus en plus de sites sont réalisés en Flash et souvent avec du son (y'a qu'à aller voir en Espagne !!!) et là on est bien obligé de subir. Pour couper le son ... Tintin !!!

Au moins avec BGSOUND c'est possible. C'est une des raisons pour laquelle j'aime assez cette balise. Mais en fait je ne l'utilise que sur 4 ou 5 pages sur 100.
Y faut quand même pas que ça devienne la foire d'empoigne !!!

Bien cordialement. JEFHER
 
WRInaute accro
jefher.net a dit:
De toute manière, de plus en plus de sites sont réalisés en Flash et souvent avec du son (y'a qu'à aller voir en Espagne !!!) et là on est bien obligé de subir. Pour couper le son ... Tintin !!!
on peut utiliser flashblock avec ff c'est très pratique et on n'autorise ponctuellement certains sites et toujours certains autres.
En plus, un flash bien fait doit permettre de couper le son...sinon F5 et on ne repermet plus l'affichage du flash.
De toutes façons, vu les failles de sécurité existant avec flash, couplé au fait que les cookies flashs se gèrent moins bien avec les navigateurs que les autres, cela va de plus en plus être bloqué sur les réseaux d'entreprises.
 
Nouveau WRInaute
Ok.
Bon de toute façon je n'apprécie pas trop les sites en Flash ... c'est trop lourd en tous points !
Je préfère de loin la bonne vieille méthode classique avec des feuilles de style externes.
De cette manière, on peut même lire les caractères sur un téléphone portable !.
Il faut veiller, comme je l'ai appris sur ce forum, à ce que la lecture en mode texte soit bien cohérente.

Pour la commande de FF, je ne savais pas. Je ne me sers de ce navigateur que pour voir comment mes pages y sont affichées. C'est tout.

A bientôt. JEFHERNET
 
WRInaute accro
jefher.net a dit:
Pour la commande de FF, je ne savais pas. Je ne me sers de ce navigateur que pour voir comment mes pages y sont affichées. C'est tout.
tu ne connais pas la webdevelopper toolbar alors ? sinon tu ne pourrais que développer avec FF et n'utiliser IE que pour vérifier.
 
Nouveau WRInaute
Non je ne connais pas cet outil. J'en ai déjà entendu parler et on m'a proposé de télécharger celle d'Internet Explorer.
Mais pour un petit gars comme moi qui utilise beaucoup le CSS, il paraît que celle de FF convient mieux.

Vaut t'il mieux travailler sour FF2 ou FF3 ?
Cette toolbar utilisée avec FF permet t'elle de mieux solutionner les (petits) écarts de positionnement par rapport à IE ?

Cette barre t'es t'elle devenue indispensable ?

En ce qui me concerne, je code tout à la main avec un simple bloc-note un peu amélioré (avec les couleurs de texte).

Je pense que tu me conseillerais de télécharger cette toolbar au plus vite... non ?

Est t'elle façile à prendre en main ?

Merci encore pour ces réponses. JEFHERNET
 
WRInaute accro
jefher.net a dit:
Non je ne connais pas cet outil. J'en ai déjà entendu parler et on m'a proposé de télécharger celle d'Internet Explorer.
moins pratique, j'ai déjà essayé
jefher.net a dit:
Mais pour un petit gars comme moi qui utilise beaucoup le CSS, il paraît que celle de FF convient mieux.
il y a un éditeur/explorateur de css et quand on code à la mano, c'est hyper pratique de voir que le style appliqué se trouve dans telle css à la ligne 145 par exemple, mais qu'on applique aussi le style de la ligne 312
jefher.net a dit:
Vaut t'il mieux travailler sour FF2 ou FF3 ?
FF2 vu que c'est ce qui est utilisé par 20% d'internautes, et qu'en plus beaucoup d'extensions (voire toutes ?) ne fonctionneront pas avec FF3 pour l'instant. Pour certaines il suffit de bricoler le xpi pour changer la version max
 
Nouveau WRInaute
Bonjour, mon site a été blacklisté par Google, j'ai fait toutes les modifs nécessaires mais au moment de demander le ré-examen à la page suivante : https://www.google.com/webmasters/tools/reconsideration?hl=fr je ne peux pas inscrire mon site dans la case "choisir un site ...

Bien que mon site figure sur bien sur le tableau de bord, il n'apparaît pas dans cette case et, donc, je ne peux pas demander le ré-examen.

Connaissez-vous une astuce ?
Merci pour vos réponses. JEFHERNET
 
WRInaute accro
jefher.net a dit:
Bonjour, en fait je n'ai pas aprofondi les methodes de référencement et j'étais bien loin de me douter que le fait de cacher certains mots, somme toute anodins (dans mon cas des noms de communes) pour qu'ils n'apparaissent pas sur la page, était mal vu.
:wink: mais non, mais non. Cacher du texte dans le CSS, c'est ce que le petit débutant utilisant un blog préprogrammé fait dès le premier jour.

HawkEye a dit:
Ca ne te servira à rien de ne modifier que l'index.

Ils ne sont pas fous chez Google: si t'es pas clair à 100%, tu resteras dehors, certainement ad vitam (on ne fait pas de seconde demande de réintégration: soit tu deviens un véritable bigot de la guideline, soit tu sera à jamais considéré comme hérétique ;) ).

De toutes façons, ton blacklistage sera probablement d'au moins 30 jours (c'est peut-être indiqué dans leur message d'ailleurs), donc profite de ces 30 jours pour éditer ton contenu, et vérifier les autres optimisations.

Un de mes copains a tenté le coup pour quelques pages. résultats, c'est tout le site qui a disparu.
 
Discussions similaires
Haut