Mieux que le URL rewriting ? Une possibilité étudiée ici...

Nouveau WRInaute
Bonjour a tous,

J'aimerai vous faire pas d'un résultat de référencement innatendu obtenu sur google.

Notre boite à developpé un systéme de gestion de contenu assez complexe (grosse ogranisation relationnelle sous SQL server 2000) qui permet de concevoir des sites dynamiques tres riches.

Sur cette base nous nous sommes posé la question de savoir s'il etait vraiment interessant d'avoir un site vraiment dynamique, c'est à dire refrabricant la page à chaque requette.

Il nous est apparu que la règle en la matiere est :

Si l'info change aussi souvent que la page est vue : site totalement dynamique (ASP PHP)

Si l'info change beaucoup moins souvent que la page n'est vue, il semble que fabriquer la page a chaque requette est inutile. La charge sur le serveur de données est inutilement alourdie, le site est plus lent, moins stable (lien critique avec le SGBD) et moins robuste en montée en charge.

Pour cette raison nous avons developpé un outil qui permet de générer une version statique du site dynamique, et d'apporter au code généré un certain nombre d'optimisation.

Le système est conçu de telle façon que l'ors d'un changmenent quelconque dans la base relationnelle, il identifie les pages à reconstruire. Toute la difficulté est evidemmment la, puisque qu'une page peu contenir des données venant de plusieurs tables (jointures).

Les pages produites sont optimisées en taille (ecrasement des espaces inutiles, sauts de lignes, tabulations, apostrophes dans le html, etc...) avec un gain de 15 à 30% sur les grosses pages. Leur URL est de la forme :

nomdusite_page_variable_name1_variable1_value...etc...html

Le code html généré est ensuite modifié :

le titre de la pge est construit sous la forme "nom du site > catégorie > ss catégorie >...> page"

Un moteur annexe fabrique les meta a partir du titre et du contenu de la page en excluant les noise words et en prenant les mots clé significatifs, avec une surpondération des mots clés contenus dans les liens.

La fabrication du site statique prend envirion 5 à 6 secondes pour 600 pages. La croissance semble linéaire.

J'en arrive au sujet google qui nous interesse. Suite à la mise en ligne du premier site construit avec notre outil, nous avons constaté une fréquentation massive en provenance de google.

A ce jour, google à indéxé 160 pages sur les 600 du site. Le référencement spontané est absolument remarquable. Et c'est une suprise totale, puisque l'outil est destiné à un tout autre but que d'obtenir du référencement.

En plus grace au "mirroir HTML" nous pouvons utiliser la compression HTTP de IIS, ce qui donne encore un gain de 30 a 40% en vitesse. Enfin, nous pouvons utliser Index server sur IIS pour faire un moteur de recherche interne. C'est infiniment plus simple que de faire un moteur qui tape dans la base (80 tables relationnelles...).

Par rapport au URL rewriting, les avantages sont :

- L'optimisation du html (taille, titres, headers, metas)
- La rapidité
- Le cout d'hébergement (simple html !)
- L'abscence de lien critique vers le SGBD
- Marche sous IIS, Apache, tout serveur HTTP en fait
- Permet de faire un moteur interne avec index server
- Visiblement tres bon pour le référencement

Voila !

J'aimerai savoir si cette pratique du mirroir html est courante dans le monde du référencement.

A votre connaissance de tel systèmes existent à l'heure actuelle ? (Il semble que XBuilder ne soit plus commercialisé depuis 6 mois)

A votre avis pourquois le référencement avec google est-il si bon ?? (bien meuilleur que nos sites purement dynamiques)

Merci de votre aide,

Commentaires bienvenus

Julien
 
WRInaute passionné
>A votre connaissance de tel systèmes existent à l'heure actuelle ?
quasiement tous les gros sites qui n'ont pas des mises à jours chaque minutes font cette méthode... je crois par exemple qu'il y a les catégories du weborama ou meme les catégories de l'annuaire voila.fr
par contre je ne connais pas les logiciels à la Xbuilder et je suis assez curieux sur ce sujet, si qqun a des informations précises.

>A votre avis pourquois le référencement avec google est-il si bon ??
car surement que vous aviez dans votre site dynamique plus de 2 variables dans les url et donc google passe pas. Là c'est en .html donc google et les autres robots passent sans problèmes.

Votre logiciel fait maison est il voué à etre commercialisé ?
 
Olivier Duffez (admin)
Membre du personnel
ce système n'est effectivement pas nouveau, et reste très comparable à l'UR d'un point de vue du référencement.
il présente un avantage conséquent pour les sites à fort trafic qui contiennent des pages mises à jour rarement
comme l'a dit Mitirapa, ce système permet à tout moteur d'indexer toutes les pages, c'est l'intéret des methodes d'UR
je ne souhaite pas que cette discussion tourne à de la publicité, merci donc de ne pas aborder les aspects commerciaux.
 
Nouveau WRInaute
Mitirapa a dit:
je ne connais pas les logiciels à la Xbuilder et je suis assez curieux sur ce sujet, si qqun a des informations précises.

Visiblement, pour des raisons commerciales, Xbuilder à été remplacé par Xcache, qui est un produit tout a fait différent en fait. Pour voir un example de site conçu avec Xbuilder voir www.15seconds.com, le view source permet de voir les commentaires généré par Xbuilder.

Xbuilder et 15seconds on le meme fondateur.

La difficulté avec ce genre de solution ce n'est pas de produire les pages, mais de produire le minimum de pages à partir d'une évolution de la base relationelle.

Cela permet de tenir a jour un site arbitrairement gros.

L'outil n'est pas destiné a etre commercialisé.

Par contre nous sommes ouvert pour discuter du concept et d'idée que les google-experts pouraient avoir !

julien
 
Nouveau WRInaute
Bonjour,

Oui, le principe de construction des pages n'est pas nouveau. Il existe par exemple le script Links SQL de Gossamer-Threads, qui génère des pages statiques en html à partir de la base de données.

Le gros avantage c'est son coût plus que limité (environ 500 euros, mises à jour gratuite pendant un an, installation offerte si besoin) si l'on raisonne en terme de nombre de fonctionnalités. Nous l'utilisons sur certains de nos sites avec bonheur. Le programme est utile pour tout ce qui nécessite l'utilisation d'une base de données.

Cela peut être un annuaire de liens, des galeries de photos, un CMS, etc...

Plus d'infos :
http://www.gossamer-threads.com/int/fr/ ... /links-sql

Bonne journée.
 
WRInaute passionné
Bonsoir,

d'autres avantages :
- l'absence de lien critique vis à vis d'un générateur de page
- la vitesse déjà évoquée, d'autant plus grande pour les pages stables qui sollicitent à fond le cache web : les gros sites ne sont pas les seuls concernés quand le rapport ressources disponibles / demandées devient trop faible ( hébergements mutualisés )
- l'indépendance vis à vis des technologies utilisées.
Par rapport au référencement, il est probable que la vitesse de réponse est un facteur favorable pour les moteurs.

Par contre les inconvénients existent :
- la génération automatique des pages impactées complique le schéma de la base
- le temps de mise à jour est proportionnel au nombre d'impacts simultanés, qui va généralement de pair avec la taille du site.

Dommage que les CMS ne donnent pas souvent cette option ( tiens au fait ça me rappelle une discussion https://www.webrankinfo.com/forum/t/spip-phpnuke-xoops-templeet-et-les-autres.3463/ ).
 
Discussions similaires
Haut