Google relativement bien maîtrisé

Statut
N'est pas ouverte pour d'autres réponses.
WRInaute discret
Salut à tous,

Cela fait longtemps que je ne suis plus venu discuter avec vous mais me revoilà.

Je tenais à remercier toute l'équipe de WRI et tous ceux qui partagent leurs truc et astuces pour que nous puissons tous améliorer le positionnement de nos sites sur les moteurs de recherche.

Mes précédentes conversation m'ont permises de mettre au point un nouveau système de référencement entièrement automatisé pour les utilisateurs de mon gestionnaire de contenus.

Petit rappel des performences du BB :

Temps de propagation du rattachement d'un nom de domaine à un nouveau site Internet : 50 secondes (Nom de domaine acheté chez Joker.com (Registrar Suisse) et constaté en France, à Monaco, en Italie et au Canada)

Délais de référencement de la totalité des pages dans Google 48 heures.
Fréquence de raffraichissement : Quotidienne à J+(2 à 5)
Pas de passage par la sandbox
Optention d'un page rank de 3 pour un site de 15 pages : 30 jours après l'achat du nom de domaine.

Méthode :

La méthode est simple mais implique l'utilisation d'un gestionnaire de contenus avec stockage des pages en base.

Le site doit disposer d'un plan de site automatique intelligibles par tous les moteurs de recherche c'est à dire qui reprend le contenu des pages épuré de toute surcharge Javascript et compatible HTML 1.0.

Les pages doivent être liées les unes aux autre par des liens A HREF simples. Chaque page doit faire référence à toutes les pages du site sauf à elle même, Chaque page doit faire référence à tous les sites du gestionnaire de contenus à l'exeption de lui même. Une seule adresse doit être utilisée pour chaque site (éviter

<a href="http://www.monsite.com>Mon site</a>
<a href="http://www.mon-site.com>Mon site</a>

)

Utilser les Titres H1/H2 etc...

Bien que le moteur ne soit pas réellement génés par les variables GET type :

<a href="http://www.mon-site.com?rub=1&Page=117>Titre de la page</a>

Il veut mieu utiliser le URL Rewriting pour obtenir des liens de type

<a href="http://www.mon-site.com.rub/101117.html>Titre de la page</a>

Faire en sorte de créer un maximum de liens entrants en provenance d'autres sites en spécifiant bien dans le texte http://

Pour chaque lien entrant, essayer de faire un lien sortant.

N'oubliez pas la propriété alt dans les images :

Le titre SUR CHQUE PAGE (95 caractères max)
La Description SUR CHQUE PAGE (200 caractères max)
les keywords SUR CHQUE PAGE (1000 caractères max)
le meta language

Le onload des pages ne doit pas contenir de code javascript de redirection, de window.open et la page ne doit pas avoir de meta de redirection.

Pour se faire, testez la chaine bot dans le HTTP_USER_AGENT, et masquer le code lorsque elle est détectée.

NE SURTOUT PAS FAIRE DE PAGES SATELLITES BIDON.


Je crois que c'est à peu près tout...

En espérent que cela puisse vous aider...

Laurent Jordi
 
WRInaute passionné
Bonsoir Jordi

heureux de te relire, en effet çà faisait un moment...

Je vien de mettre ce post en favori, parceque tu couche sur le papier de trés efficaces évidences.

:wink:
 
WRInaute discret
Le onload des pages ne doit pas contenir de code javascript de redirection, de window.open et la page ne doit pas avoir de meta de redirection.

Pour se faire, testez la chaine bot dans le HTTP_USER_AGENT, et masquer le code lorsque elle est détectée.

Ce point m'interpelle, le code de mon site contient ca :
Code:
</head>

<TABLE align=center cellpadding=0 cellspacing=0><TR><TD valign=top><body onload="init();"><script>
function texte(txt) {
	document.forms[0].elements[0].value=txt
}
url_site="http://www.osapi.fr";
titre_site = "OSAPI - Service Aux Personnes";
function addFavori() {
	if(document.all)
	    window.external.AddFavorite(url_site, titre_site);
    else
    	alert('Faites CTRL+D pour ajouter cette page dans vos favoris');
	}

function HomePage()
	{
    if ((document.all)&&(document.getElementById))
		{
        }
    else
    	alert('Cette fonction n\'est compatible avec votre navigateur.\nVous devez modifier votre page de demarrage à la main.');
	}
</script>

Code:
<SCRIPT type="text/javascript" language="JavaScript">

<!--
function init() {

}
//-->
</SCRIPT>


Pour info le squelette de ce site est une base npds...

J'ai également repéré ce bout de code :
Code:
<SCRIPT type="text/javascript" language="JavaScript">
<!--
function openwindow(){
 window.open ("","Help","toolbar=no,location=no,directories=no,status=no,scrollbars=yes,resizable=no,copyhistory=no,width=600,height=400");
}
//-->
</SCRIPT>

Pouvez-vous m'en dire un peu plus sur ces deux bouts de code et surtout si ils sont néfastes à mon référencement ?

Merci à vous
 
WRInaute accro
itraque a dit:
...

Je viens de mettre ce post en favori, parceque tu couche sur le papier de trés efficaces évidences.

:wink:

Ah bon Laurent Jordi couche sur du papier :lol:


Tu peux rajouter dans les conseils :

ne pas oublier doctype et charset
 
WRInaute discret
Salut,

J'ai oublié de dire que Google ne s'aperçoit pas des redirections côté serveur. Du coup, il ne peut pas savoir qu'il est passé sur des pages qui ont été adaptées pour être super lisibles pour les moteurs de recherche.

Pour illustrer tout ça, je vous invite à comparer le contenu caché par Google ou yahoo en comparaison de ce qui est affiché par mes pages.

@+

L
 
WRInaute impliqué
J'ai du louper un truc ou comprendre de travers:
Comment peux-tu garantir un PR 3 en 30 jours alors qu'on ne peut pas prévoir les mises à jour du PR par Google? Tu fais des redirections cloackées?
 
WRInaute passionné
Laurent Jordi a dit:
Je n'ai fait que le constater c'est tout

ce que tu as surtout constaté c'est que ton site étant en ligne avant la gg dance derniere, il t'a tous de suite donné ton pr, chose qui n'est pas trop difficile si tu indexes correctement ton site dés le dépard..
 
WRInaute discret
Je sens que ça va commencer à troller

Je ne suis pas là pour dire que je référence mieux que vous, je voulais simplement faire part de mon constat et surtout vous présenter la méthode que j'ai utilisé.

Si vous avez une meilleure methode, n'hésitez pas à la publier.

@+

Laurent
 
WRInaute passionné
Re: Je sens que ça va commencer à troller

Laurent Jordi a dit:
Je ne suis pas là pour dire que je référence mieux que vous, je vouslais simplement faire part de mon constat et surtout vous présenter la méthode que j'ai utilisé.

Si vous avez une meilleure methode, n'hésitez pas à la publier.
@+Laurent

C'est pas pour te faire.. ch.. que je dit çà ta méthode est sommes toutes trés interressante.

Je disais juste que le PR de 3 que tu donnes dans ta méthoe n'est possible que si dans les 30 jours que tu donnes, il y a une mise à jour des PR sur GG

Pour exemple j'ai un site (destockpro) qui à était mis en ligne et indexé avec un pr de 2 en 48 h, deux autre (jimmobilier et jautomobile) qui ce sont sont fait indexés en 48 heure et un PR de 3 en 1 semaine et les sites (jcherche et Jgenie) indexés en 48h mais PR3 en 2 semaines, Itraque en revanche il lui a fallu 1an avant de monter en PR5 aprés 8 mois de PR2 (entre temps je ne l'ai inscrit nul part pendant cette période ), pour finir Jcharme indexé en 48h toujours mis en ligne 2 heures avant Jcherche et Jgénie ayant le même nombre de liens vers lui que les autre ce targue d'un PR0 !!

Voila pour ta méthode j'aime bien jusqu'au moment ou tu parles de PR ...

Mais je reviens encore ta méthode me parait sérieuse et à tester

Quand à la mienne (méthode) pour l'indexation en 48h et un crawl des pages avec indexation de celles-ci toutes les 48/72 heures c'est simple

Attention scoop !!
1= inscription là : http://annuaire.yagoort.org/
2= inscritption là : http://fr.indexweb.info/
3= inscription là : https://www.google.fr/addurl/?hl=fr&continue=/addurl
4= attendre

en 48h aprés validation des webmasters votre site est en ligne
 
WRInaute discret
Abandonne le addurl de google ça sert à rien

Le meilleur moyen d'être pris en compte par google est que google trouve un lien vers ton nom de domaine sur un autre site.

Il faut simplement se débrouiller pour parvenir à le faire.

Un article sur un blog peut faire l'affaire...

@+
 
WRInaute passionné
Laurent Jordi a dit:
Abandonne le addurl de google ça sert à rien

Le meilleur moyen d'être pris en compte par google est que google trouve un lien vers ton nom de domaine sur un autre site.

Il faut simplement se débrouiller pour parvenir à le faire.

Un article sur un blog peut faire l'affaire...

@+

Pour le adurl de gg je sais mais c'est une habitude que je n'arrive pas à me passer .... :oops:
 
WRInaute impliqué
C'est un bon rappel de choses à ne pas oublier de faire. Ça regroupe un certains nombres de conseils qu'on voit souvent.

Je suis tout à fait d'accord avec ITraque, qu'on ne peut pas garantir un PR dans les 30 jours. Même chose pour le délai de référencement de la totalité des pages dans Google et la fréquence de raffraichissement. Ces deux derniers facteurs dépendent surtout du nombre, de la qualité et du type de backlinks. Il faut donc travailler beaucoup ceci. Un point sur lequel tu n'as pas insisté dans ton message, mais qui est probablement le plus important.

Aussi évidemment, ça dépend du nombre de pages de ton site. Si tu as un site de 10000 pages, ce n'est pas pareil comme un site de 5 pages. L'indexation de la totalité des pages prendra beaucoup plus de temps (si on compare seulement ceci).
 
WRInaute impliqué
je ne suis pas d'accord avec le fait de faire un lien depuis chaque page vers chaque autre : quand on a un nombre de pages important, cela devient impossible !

par ailleurs, je ne suis pas non plus pour les liens croisés qui ne sont pas à mon avis une méthode de linking d'avenir.

Quand au fait de faire un lien vers chaque autre site du gestionnaire de contenu, s'il y en a beaucoup, cela va faire une sorte de nébuleuse... surtout si les sites ne sont pas dans la même thématique.
 
WRInaute impliqué
merci pour cette définition, je craignais une sorte d'insulte...

je ne comprends pas la réponse par contre, et j'ai pourtant relu ce qui était écris. :(
 
WRInaute discret
Laurent Jordi > Tu voulais dire de ne pas faire de page surchargée en JS et écrite en HTML 1.0 ???
1. C'est pas ce qui est écrit.
2. HTML 1, c'est presque de l'XHTML sans XML, donc c'est pas pour le référencement que ça coince.
 
WRInaute impliqué
kalex a dit:
Laurent Jordi > Tu voulais dire de ne pas faire de page surchargée en JS et écrite en HTML 1.0 ???
1. C'est pas ce qui est écrit.
2. HTML 1, c'est presque de l'XHTML sans XML, donc c'est pas pour le référencement que ça coince.

Il parlait du plan de site. C'est vrai que HTML 1.0 c'est exagéré. Du XHTML ou HTML 4.01 valide et bien codé serait amplement suffisant, pour un plan de site.

D'ailleurs, d'après ce qu'il est écrit sur wikipedia : There is no official standard HTML 1.0 specification because there were multiple informal HTML standards at the time. However, some people consider the initial edition provided by Tim Berners-Lee to be the definitive HTML 1.0. That version did not include an IMG element type.
 
WRInaute discret
Ok pour du XHTML

Oui oui... le XHTML va bien.

En fait même si cela peut vous paraitre lourd, et c'est ça le secret, c'est que les pages que voit Google sont différentes des pages que vous et moi voyons...

Pourquoi ? C'est très simple, le rôle du moteur de recherche est de localiser une information. Pour se faire il n'a pas besoin d'avoir du beau joli, il a besoin d'avoir du clean.

Par contre, les navigateurs "modernes" ont de fantastiques possibilités graphiques et le modèle DOM est absolument Monstrueux.... En conséquence (et ça n'engage que moi) je préconise de n'utiliser les précos du W3C que dans une couche de compatibilité moteurs de recherche, par contre, pour ce qui est affichage, et traitement, il faut s'adapter au navigateur. Car, quoi que l'on dise, ils réagissent tous différemment au JavaScript. Les protecteurs (comme Microsoft) tu tout côté serveur vont s'offusquer d'un tel discours pourtant je pense que nous somme passés à côté d'un merveilleux potentiel en n'exploitant pas, ou peu le modèle objet disponible sur les navigateurs. C'est ce potentiel que j'exploite dans mes applications. Bien entendu, la répartition du code dans le client et dans le serveur doit être faite avec discernement de sorte que les éléments sensibles puissent être correctement protégés.

Pour ce faire, j'ai créé une couche de compatibilité qui permet de rendre transparentes les différentes de comportement entre : I.E. Firefox, Opéra, safari ainsi que les navigateurs des téléphones mobiles et les moteurs de recherche que je considère comme un navigateur.

Contrairement à ce que l'on pourrait croire, après un apprentissage relativement court, la mise en conformité d'une application avec cette philosophie ne représente qu'un surcout de 15%. En retour elle permet une compatibilité avec 99% des navigateurs (y compris les navigateurs mobiles) et un très bon référencement de la totalité du contenu.

Cette technique utilise les frames là où c'est possible. Contrairement à ce que tout le monde semble vouloir croire, elle est plus efficace et plus performante que la programmation web classique. Concernant l'ergonomie, elle nécessite une petite adaptation et le respect d'un certain nombre de règles.

A tous les détracteurs du modèle multi cadres férus de httpxmlrequest je dirais que cette technique utilise un composant client et est donc à la merci des différences de comportement cités plus haut.

La version actuelle de mes sites n'est que le balbutiement de cette technique. Le dernier né de la série (encore en cours de développement mais déjà très prometteur), entièrement en ASP dot net et totalement cross platform devrait finir de vous convaincre du bien fondé de ce que j'avance.

Bien à vous

Laurent Jordi
 
WRInaute discret
Re: Ok pour du XHTML

Laurent Jordi a dit:
Oui oui... le XHTML va bien.

En fait même si cela peut vous paraitre lourd, et c'est ça le secret, c'est que les pages que voit Google sont différentes des pages que vous et moi voyons...

Pourquoi ? C'est très simple, le rôle du moteur de recherche est de localiser une information. Pour se faire il n'a pas besoin d'avoir du beau joli, il a besoin d'avoir du clean.
Tout le monde en est conscient.

Par contre, les navigateurs "modernes" ont de fantastiques possibilités graphiques et le modèle DOM est absolument Monstrueux.... En conséquence (et ça n'engage que moi) je préconise de n'utiliser les précos du W3C que dans une couche de compatibilité moteurs de recherche, par contre, pour ce qui est affichage, et traitement, il faut s'adapter au navigateur.
C'est franchement n'importe quoi. Les moteurs se limitent à l'analyse des éléments ayant un sens sémantique, c-à-d exactement ceux auxquels se limite XHTML. La mise en pages se fait par CSS, tous les automates y sont insensibles et c'est très bien.

Car, quoi que l'on dise, ils réagissent tous différemment au JavaScript. Les protecteurs (comme Microsoft) tu tout côté serveur vont s'offusquer d'un tel discours pourtant je pense que nous somme passés à côté d'un merveilleux potentiel en n'exploitant pas, ou peu le modèle objet disponible sur les navigateurs.
Microsoft ??? DHTML ça te dis qq chose ?
Pour le potentiel objet, voir AJAX et même gecko (JS 1.6 + DOM + XUL).

C'est ce potentiel que j'exploite dans mes applications. Bien entendu, la répartition du code dans le client et dans le serveur doit être faite avec discernement de sorte que les éléments sensibles puissent être correctement protégés.

Pour ce faire, j'ai créé une couche de compatibilité qui permet de rendre transparentes les différentes de comportement entre : I.E. Firefox, Opéra, safari ainsi que les navigateurs des téléphones mobiles et les moteurs de recherche que je considère comme un navigateur.
Comme pour ton site en www ? Que j'ai pas réussi à afficher avec firefox 1.5 à cause du JS incompatible ?
pffff

Contrairement à ce que l'on pourrait croire, après un apprentissage relativement court, la mise en conformité d'une application avec cette philosophie ne représente qu'un surcout de 15%. En retour elle permet une compatibilité avec 99% des navigateurs (y compris les navigateurs mobiles) et un très bon référencement de la totalité du contenu.

Cette technique utilise les frames là où c'est possible. Contrairement à ce que tout le monde semble vouloir croire, elle est plus efficace et plus performante que la programmation web classique. Concernant l'ergonomie, elle nécessite une petite adaptation et le respect d'un certain nombre de règles.
On en vient aux frames... standards, compatibilité : que du bonheur.

A tous les détracteurs du modèle multi cadres férus de httpxmlrequest je dirais que cette technique utilise un composant client et est donc à la merci des différences de comportement cités plus haut.
XMLHttpRequest est utilisé conjointement à DOM pour faire des applications Web (AJAX). Ca n'a rien à voir avec les frames (même si on y parle de framework :D ).
D'ailleurs les frameworks AJAX, tu ferais bien de t'y intéresser pour ta couche de compatibilité incompatible.

La version actuelle de mes sites n'est que le balbutiement de cette technique. Le dernier né de la série (encore en cours de développement mais déjà très prometteur), entièrement en ASP dot net et totalement cross platform devrait finir de vous convaincre du bien fondé de ce que j'avance.
Ca promet.


Désolé d'être aussi cassant, mais Laurent Jordi parle par axiome pour dire des énormités, il s'expose donc à ce genre de remarque.
 
WRInaute passionné
Laurent Jordi a dit:
Salut,

J'ai oublié de dire que Google ne s'aperçoit pas des redirections côté serveur. Du coup, il ne peut pas savoir qu'il est passé sur des pages qui ont été adaptées pour être super lisibles pour les moteurs de recherche.

1. Les moteurs de recherches sont tout a fait capable de détecter les "redirections côté serveur" : 301, 302, etc... et heureusement, sinon ils auraient bc de mal pour indéxer le web.

2. Ce que tu décrit ne ressemble pas à une redirection côté serveur, mais a une technique de spamdexing, une vieille technique de spamdexing : le cloaking

Je fait peut-être une erreur, et peut-être que je n'ai pas bien compris la technique décrite.
 
WRInaute discret
Je ne me rappelais plus pourquoi jene postais plus sur ce forum mais maintenant ça me revient....

spidetra - kalex

J'ai regardé ton site... il est effectivement très propre, rien à dire... C'est un site Internet de publication d'information. Dans ce cadre, je suis d'accord, le XHTML est parfait.

En l'occurrence, je cherche des solutions pour développer des applications web crossplatform. Elles ne font pas qu'afficher des pages mais elles vont beaucoup plus loin que ça.

Je considère cette discussion comme terminée...

@+

L
 
WRInaute discret
Au passage, je viens de tester mon site avec FF1.5 (et je n'aurais pas du le faire car du coup j'ai perdu mon débogueur FF)

Et ça marche...

@+

L
 
WRInaute discret
Désolé que tu le prennes comme ça.

Personnellement, je ne pense pas qu'il faille indexer des applications Web, elles sont uniquement destinées à être utilisées, point. Normalement, ce qu'on indexe ce sont les pages de présentation.
Et quand bien même tu ne voudrais pas les indexer, utiliser des frames et du JS n'importe comment n'est pas une manière de faire.

De plus ton site ne se charge pas sous FF 1.5 ou Opera 8 (JS activé), ça clignote sans jamais se charger...

Et ton "débogueur FF" ne serait-il pas le DOM inspector ? Si oui, réinstalle et coche la case. ;)
 
WRInaute passionné
Laurent Jordi a dit:
Je ne me rappelais plus pourquoi jene postais plus sur ce forum mais maintenant ça me revient....
Houla... faut pas se vexer pour si peu !
Ma remarque ne concernait que les redirections côté serveur, et le risque potentiel de cloaking. En aucun cas cette remarque ne remettait en cause ta techno.

Laurent Jordi a dit:
En l'occurrence, je cherche des solutions pour développer des applications web crossplatform. Elles ne font pas qu'afficher des pages mais elles vont beaucoup plus loin que ça.
Nous cherchons tous a faire des applis avec le maximum de compatibilité, y compris compatible avec les moteurs de recherches.
Les remarques sont des éléments qui peuvent t'aider à améliorer ta solution. Il ne faut pas les prendres comme des critiques personnelles.

Laurent Jordi a dit:
Je considère cette discussion comme terminée...
C'est dommage. Nous avons tous a apprendre et à progresser en échangeant nos point de vue, même si nous ne sommes pas d'accord.
 
WRInaute discret
Quand même, je veux bien faire preuve d'ouverture, mais rien que sur la premiere page...

Je me lance au cas où certains suivraient ces conseils aveuglément :

> Temps de propagation du rattachement d'un nom de domaine à un nouveau site Internet : 50 secondes
Le temps de propagation DNS ? en .com ?
1. Certains DNS ont dû mettre beaucoup beaucoup plus (24 heures) et tu n'y peux rien...
2. Rien à voir avec le référencement.

> La méthode est simple mais implique l'utilisation d'un gestionnaire de contenus avec stockage des pages en base.
C'est ce que j'utilise tout le temps, mais je suis forcé de dire que c'est plutôt un handicap face à la personnalisation page par page.

> Chaque page doit faire référence à toutes les pages du site sauf à elle même,
Ingérable, inutile et pénalisant au final.

> Chaque page doit faire référence à tous les sites du gestionnaire de contenus à l'exeption de lui même.
Tous les sites ? de quoi tu parles ?

> Bien que le moteur ne soit pas réellement génés par les variables GET type :
Justement, ils sont très gênés. Exemple : l'excellant http://www.onversity.net/ est très mal référencé.

> Pour chaque lien entrant, essayer de faire un lien sortant.
Pénalisant.

> Pour se faire, testez la chaine bot dans le HTTP_USER_AGENT, et masquer le code lorsque elle est détectée.
Un coup à se faire bannir.

Le reste est effectivement constitué de bons conseils.
 
WRInaute accro
kalex a dit:
> Pour se faire, testez la chaine bot dans le HTTP_USER_AGENT, et masquer le code lorsque elle est détectée.
Un coup à se faire bannir.

Pareil, je veux bien faire preuve d'ouverture d'esprit face à une "couche de compatibilité" pour laquelle je ne suis pas certain de comprendre ce que tu racontes (si ça se trouve, je suis pas tout seul...); mais de là à conseiller des techniques de cloaking, c'est un peu borderline.

On n'affiche pas un contenu différent selon qu'on a affaire à un moteur ou à un robot.
Construire un CMS sur les bases mêmes du cloaking, même sans arrière-pensée (ton code est néanmoins bourré de h1 / h2 dans du <noframe>), c'est suicidaire.
 
WRInaute accro
luxe-campagne a dit:
je suis venu sur ce topic en suivant les "meilleures discussions". sans commentaire

Merci pour ta remarque constructive ;)

Le "module" [Meilleures discussions] de WRI est pour ainsi dire encore en bêta-test :mrgreen:
 
WRInaute impliqué
Laurent Jordi a dit:
Au passage, je viens de tester mon site avec FF1.5 (et je n'aurais pas du le faire car du coup j'ai perdu mon débogueur FF)

Et ça marche...

@+

L

J'ai vérifié moi aussi, et ton site en WWW affiche une belle page blanche, quand le javascript est désactivé avec firefox.
 
Nouveau WRInaute
Duplicate pas content

Le site doit disposer d'un plan de site automatique intelligibles par tous les moteurs de recherche c'est à dire qui reprend le contenu des pages épuré de toute surcharge Javascript et compatible HTML 1.0.

On ne risque pas un duplicate content avec ça ?
 
WRInaute impliqué
HawkEye_TpfH a dit:
luxe-campagne a dit:
je suis venu sur ce topic en suivant les "meilleures discussions". sans commentaire

Merci pour ta remarque constructive ;)

Le "module" [Meilleures discussions] de WRI est pour ainsi dire encore en bêta-test :mrgreen:

Désolé, je ne voulais pas critiquer le système des meilleures discussions, mais le fait que celle-ci y soit et qu'elle risque de faire croire à des gens que les méthodes qui y sont décrites sont bonnes...
Finalement, j'aurais dû mettre un commentaire, je m'aperçois qu'en effet je n'étais pas constructif :(
 
Statut
N'est pas ouverte pour d'autres réponses.
Discussions similaires
Haut