Ratio Textes/Codes

WRInaute discret
J'étais en train de regarder des outils pour analyser un peu son siteweb et j'ai vu sur ce site : http://www.woorank.com, que le paramètre "Ratio texte/code" était mauvais pour l'un de mes sites (cet outils me semble de mauvaise qualité sur les résultats qu'ils donnent mais là n'est pas la question... :p).

Alors du coup je me demande dans quel mesure cela influe-t-il sur le référencement. En quoi le fait que j'ai 10% de ratio texte/code est-il mauvais?
 
WRInaute occasionnel
Bonjour,

Ce ratio permet de voir la pertinence d'une page en comparant le poids du texte avec le poids du code HTml.
Plus le ratio est important, meilleurs est la qualité de la page... et donc cela augmente la qualité du référencement.
D'où l'importance de créer des pages avec un code propre.
 
WRInaute occasionnel
Donc le fait que j'utilise WP altère largement cette qualité je suppose...

J'ai envie de penser que non ... que les développeurs de WP savent coder "proprement" ...
Là j'attends également une réponse des experts !
 
WRInaute impliqué
Un livre avec les textes en mini pour condenser tout en 3 pages au lieu de 240 aura t-il un contenu de meilleur qualité que son homologue standard ?
 
WRInaute occasionnel
milkiway a dit:
jeremie_ a dit:
Plus le ratio est important, meilleurs est la qualité de la page... et donc cela augmente la qualité du référencement.
Ah, c'est nouveau ?

C'est en fait ce qu'il m'avait semblé avoir lu qqpart.

Donc le fait de connaître ce ratio pour une page donné sert à quoi finalement ?
 
WRInaute accro
Ehplod a dit:
Un livre avec les textes en mini pour condenser tout en 3 pages au lieu de 240 aura t-il un contenu de meilleur qualité que son homologue standard ?
C'est pas comparable, mais si tu veux aller par là imagine toutes les pages d'un site sur 2/3 pages en font 2px et tu verra le résultat.
 
WRInaute impliqué
Bah moi, le rapport, je le vois bien pourtant.

On ne compare pas la qualité d'un texte aux artifice qui l'entoure.

Ici, beaucoup de texte et peu de code...
 
WRInaute passionné
C'était juste un pseudo indice de qualité, en gros moins t'as de code dans ta page mieux c'est... Mais y'a pas besoin d'un outil pour le savoir, les .css c'est pas pour les chiens :)
 
WRInaute impliqué
Non, moins t'as de code, plus ta page est légère et plus GG apprécie.

Rien à voir avec la quantité du contenu. ;-)
 
WRInaute occasionnel
Intéressan tout ça ...

lambi521 a dit:
C'était juste un pseudo indice de qualité, en gros moins t'as de code dans ta page mieux c'est... Mais y'a pas besoin d'un outil pour le savoir, les .css c'est pas pour les chiens :)

Justement, sans vouloir remettre en question, bien entendu, l'importance / l'intérêt du CSS, en quoi le fait de sortir du fichier principal la feuille de style, cela va t il alléger (en terme de poids) cette page principale ?
Je comprends que le code est plus facilement lisible et exploitable en répartissant par fichier ... mais quand un internaute visite une page, il devra charger la page + le fichier CSS ... donc au final, le temps de chargement ET le poids restent le même, non ?
 
WRInaute accro
jeremie_ a dit:
Intéressan tout ça ...

lambi521 a dit:
C'était juste un pseudo indice de qualité, en gros moins t'as de code dans ta page mieux c'est... Mais y'a pas besoin d'un outil pour le savoir, les .css c'est pas pour les chiens :)

Justement, sans vouloir remettre en question, bien entendu, l'importance / l'intérêt du CSS, en quoi le fait de sortir du fichier principal la feuille de style, cela va t il alléger (en terme de poids) cette page principale ?
Je comprends que le code est plus facilement lisible et exploitable en répartissant par fichier ... mais quand un internaute visite une page, il devra charger la page + le fichier CSS ... donc au final, le temps de chargement ET le poids restent le même, non ?
A partir de la seconde page ça prend tout son sens.
 
WRInaute discret
J'essaie pour me part d'essayer de mettre le plus de texte possible, cependant, j'ai l'impression que mon code est trop lourd...Je l'ai modifié un peu mais j'ai l'impression qu'il est encore largement trop lourd comparé à d'autres sites...

Si vous pouviez jetter un oeil et me dire si c'est le cas... : etudier-voyager.fr
 
WRInaute occasionnel
Eric34 a dit:
J'essaie pour me part d'essayer de mettre le plus de texte possible, cependant, j'ai l'impression que mon code est trop lourd...Je l'ai modifié un peu mais j'ai l'impression qu'il est encore largement trop lourd comparé à d'autres sites...

Si vous pouviez jetter un oeil et me dire si c'est le cas... : etudier-voyager.fr

Suite à un test sur ta page, j'ai un temps de chargement de 2 secondes, ce qui n'est pas énorme donc je pense pas que ton code soit trop lourd.
 
WRInaute accro
jeremie_ a dit:
mais quand un internaute visite une page, il devra charger la page + le fichier CSS ... donc au final, le temps de chargement ET le poids restent le même, non ?
Pour l'internaute quasi oui et comme le fait remarquer milkiway a la seconde page ça change la donne a cause du cache, mais ajoute aussi a cela que le bot qui étudie ton site n'a rien a faire du CSS donc il ne charge que le html.
Là entre un site codé CSS inline et un site "code light" sans CSS ni javascript la différence est énorme pour le bot.
 
Olivier Duffez (admin)
Membre du personnel
jeremie_ a dit:
Bonjour,

Ce ratio permet de voir la pertinence d'une page en comparant le poids du texte avec le poids du code HTml.
Plus le ratio est important, meilleurs est la qualité de la page... et donc cela augmente la qualité du référencement.
D'où l'importance de créer des pages avec un code propre.
D'après ce que j'ai lu dans cette discussion tu n'es en fait pas sûr de toi. Les prochaines fois, quand tu n'es pas certain de ce que tu avances, précise-le.

Pour ma part, je n'ai jamais eu la moindre preuve que ce ratio avait un impact en SEO. Quelqu'un en aurait déjà vu ?
 
WRInaute discret
NickyLarson a dit:
Eric34 a dit:
J'essaie pour me part d'essayer de mettre le plus de texte possible, cependant, j'ai l'impression que mon code est trop lourd...Je l'ai modifié un peu mais j'ai l'impression qu'il est encore largement trop lourd comparé à d'autres sites...

Si vous pouviez jetter un oeil et me dire si c'est le cas... : etudier-voyager.fr

Suite à un test sur ta page, j'ai un temps de chargement de 2 secondes, ce qui n'est pas énorme donc je pense pas que ton code soit trop lourd.

C'est bizarre je trouve des temps de chargement de 5,9s moi...T'utilises quels outils? Moi j'utilise GTmetrix...C'est bien détaillé mais je sais pas trop si c'est fiable...Du coup je me que ça pourrait pas mal être optimisé cet histoire, non? C'est quoi le temps moyen de chargement d'un site?
 
WRInaute occasionnel
Eric34 a dit:
NickyLarson a dit:
Eric34 a dit:
J'essaie pour me part d'essayer de mettre le plus de texte possible, cependant, j'ai l'impression que mon code est trop lourd...Je l'ai modifié un peu mais j'ai l'impression qu'il est encore largement trop lourd comparé à d'autres sites...

Si vous pouviez jetter un oeil et me dire si c'est le cas... : etudier-voyager.fr

Suite à un test sur ta page, j'ai un temps de chargement de 2 secondes, ce qui n'est pas énorme donc je pense pas que ton code soit trop lourd.

C'est bizarre je trouve des temps de chargement de 5,9s moi...T'utilises quels outils? Moi j'utilise GTmetrix...C'est bien détaillé mais je sais pas trop si c'est fiable...Du coup je me que ça pourrait pas mal être optimisé cet histoire, non? C'est quoi le temps moyen de chargement d'un site?

J'ai utilisé Yooda SeeUrank qui est un outil fiable et reconnu.
Je connais pas GTmetrix. Désolé.

Sinon voici des pistes pour optimiser le temps de chargement d'une page: http://developer.yahoo.com/performance/rules.html

J'ai aucune idée du temps moyen, cela dépend de tellement de choses (code, images, vidéos, redirections, flash...).
 
WRInaute passionné
Pour ma part, je n'ai jamais eu la moindre preuve que ce ratio avait un impact en SEO. Quelqu'un en aurait déjà vu ?
D'après moi, et je dis bien d'après moi, ces outils sont apparu il y a pas mal de temps et donnaient un indice "d'optimisation du code" d'une page html. En gros, si t'as 10 fois plus de code que de texte affiché, c'est que t'as mal codé, et ça fais plus de travail d'analyse aux bots (genre tableaux imbriqués, etc...). Maintenant avec les divs, les css, le xhtml, y'a pu besoin de se poser la question, le code est vraiment énormément réduit. Un petit coup de concaténation/compression gzip/mise en cache et on obtient un site ultra-rapide, donc (peut-être) une meilleur "appréciation" du site par Googlebot et autres. Mais le gain est surtout au niveau du confort de navigation de l'internaute (et de la bande passante économisée).

Google dit favoriser les sites rapides, on peut le voir avec leur outil PageSpeed par exemple, mais en terme de positionnement dans les SERPs je ne sais pas. Il faudrait mettre tout ça en place sur un site existant considéré comme "lent", sans rien changer d'autre, et voir si il gagne des places dans les SERPs.
 
WRInaute passionné
Non, c'est que t'as pas assez de contenu.
Olala mais on a compris l'idée, arrête de jouer sur les mots ! Et pour te contredire (vu que t'as l'air d'aimer ça), on peut très bien avoir tout le contenu du monde mais avoir 10 fois plus de code quand même, donc ta remarque sers à rien...
 
WRInaute accro
lambi521 a dit:
donc ta remarque sers à rien...
En fait si elle est utile cette remarque mais ce n'est pas le contraire mais le complément qui est important.

Cela peut être que tu n'as pas assez de contenu OU que tu as trop de code. Et vue comme ça on peut en effet penser que les deux cas son néfastes. Reste a prouver que ce soit pris en compte. Et si oui dans quelle proportion.

il suffirait peut être de faire indexer deux pages avec un contenu identique mais de conception différente pour voir celle qui passe la première dans les serp.
 
WRInaute impliqué
lambi521 a dit:
on peut très bien avoir tout le contenu du monde mais avoir 10 fois plus de code quand même, donc ta remarque sers à rien...
Non, ma remarque est logique, la tienne, non :-)

Donne moi un exemple de page avec gavé de contenu textuel ayant plus de code.
Y en a pas.

par contre, moi, je te donne plein d'exemple de page avec plein de code et pas assez de contenu : Les forum tout vide qui pullule sur le web, les sites de reprises de vidéo youtube et compagnie... ;-)
 
Olivier Duffez (admin)
Membre du personnel
enfin bon... personne n'a jamais prouvé qu'avoir un mauvais ratio code/contenu était néfaste. Ou alors je n'ai jamais vu de telle preuve.
 
Nouveau WRInaute
Expérience personnelle :
Quand j'ai su ca, j'ai mis tout mon site sur une seule page, et au final ca se voit pas trop avec un peu d'artifices
(pour l'instant le portfolio est pas trop chargé je débute) mais sinon je trouve cette idée plutot sympa non ? :)
http://tinyurl.com/7n679bh
 
WRInaute passionné
@Ehplod : Je répondais à WebRankInfo quand j'ai posté. Je parle de l'aspect théorique de la chose, pour savoir si ça serait dégradant au niveau du référencement, toi tu parles de l'aspect pratique avec des forums, des sites de vidéo, etc.. Googlebot est avant tout un algorithme, c'est à dire une succession de tests qui concluent en une note globale. Ce qu'on se demande c'est si le fait d'avoir plus de code que de contenu réel (titres, texte, listes, liens, paragraphes...) peut faire baisser le ranking d'un site par rapport au même site, affichant le même contenu mais mieux codé (divs au lieu de tableaux imbriqués, .css au lieu de css inline, etc..).

il suffirait peut être de faire indexer deux pages avec un contenu identique mais de conception différente pour voir celle qui passe la première dans les serp
Le test de zeb y répondrait

Et si je fais un site qui affiche la bible avec une lettre de chaque couleur, crois moi y'aura du contenu, mais y'aura encore plus de code (c'est de la théorie, pour comprendre comment fonctionne Googlebot, inutile de me répondre "ouais mais ça existe pas un site avec une lettre de chaque couleuuuur")

Aller je m'arrête là, de toute façon ça n'aide pas l'auteur du sujet je pense :)
 
WRInaute passionné
Il suffit de regarder du côté des algos de Content Mining pour réaliser que les moteurs arrivent très bien à décortiquer une page Web. En plus, ils ont commencé par des systèmes plutôt touffus avec les cadres et les styles dans la page, puis cela s'est décanté avec le XHTML. Reste les fonctionnalités type JS qui viennent "polluer" le code, mais ce n'est pas problématique à trier.
Bref, le ratio texte/code ne me semble pas impacter le référencement.
Maintenant, c'est toujours sain d'avoir des pages légères. C'est un état d'esprit à adopter duquel découle beaucoup de choses.
Dans un esprit minimaliste, le ratio code source est intéressant à traiter puisque notre travail fondamental consiste à optimiser l'accessibilité pour les moteurs de recherche. Dans ce sens, bien sûr qu'un code source légèr va faciliter le travail des crawlers, mais cela ne veut pas dire pour autant qu'un code source épais va être forcément dommageable.
 
WRInaute discret
MOins le code sera important plus la page sera rapide si bien sur le codeur est bon ;)

Apres il faut aussi regarder la densité des mots clés dans la page pas simplement le ratio textes codes.
 
WRInaute impliqué
lambi521 a dit:
@Ehplod : Je répondais à WebRankInfo quand j'ai posté.
Sauf que tu me cite. ;-)
lambi521 a dit:
Je parle de l'aspect théorique de la chose, pour savoir si ça serait dégradant au niveau du référencement, toi tu parles de l'aspect pratique avec des forums, des sites de vidéo, etc..
N'importe quoi... Depuis le début, on parle d'une chose, un ration code/contenu qui aurait, selon certains, un impact sur le ref...
Donc, on parle bien de la même chose.
Ma digression était simplement là, pour te faire comprendre que se ratio n'a rien à voir avec une quelconque qualité de contenu.

lambi521 a dit:
Ce qu'on se demande c'est si le fait d'avoir plus de code que de contenu réel peut faire baisser le ranking d'un site par rapport au même site, affichant le même contenu mais mieux codé (divs au lieu de tableaux imbriqués, .css au lieu de css inline, etc..).
Pour ça, il faudrait déjà demander à GG de ne pas prendre en compte le DC, sinon, tu ne pourra jamais comparer.

lambi521 a dit:
il suffirait peut être de faire indexer deux pages avec un contenu identique mais de conception différente pour voir celle qui passe la première dans les serp
Non, si le contenu n'est pas exactement le même... ton résultat sera obligatoirement faussé.

lambi521 a dit:
Et si je fais un site qui affiche la bible avec une lettre de chaque couleur
C'est l'exemple que je prend dés le début du fil...
Ehplod a dit:
Un livre avec les textes en mini pour condenser tout en 3 pages au lieu de 240 aura t-il un contenu de meilleur qualité que son homologue standard ?
La raison est simple. La qualité du contenu ne change pas. Ca perception par un internaute, oui.
Par GG... Ce ne sera pas le ratio code/contenu, qui modifiera quoique se soit, mais le fait que dans un cas on aura 3 pages à indexer et donc référencer, dans l'autre 240.


Maintenant, quel impact indirect pourrait avoir le ratio code/contenu ?
- Le temps de chargement d'une page ? GG aime la rapidité.
- Le fait d'avoir beaucoup de texte sur une page, les internautes, en général, n'aime pas trop... GG le sait.
 
Nouveau WRInaute
Dans mon expérience personnelle, j'ai pu faire quelques tests sur une refonte complète d'un site et en particulier au niveau de l'html. Le contenu n'a que très peu changé entre les deux versions mais la qualité de l'html s'est sensiblement améliorée et les pages sont devenues beaucoup plus légères. Si le bénéfice direct en terme de placement dans les SERP n'est pas franchement notable, on peut constater une chose autrement plus importante : le bot voit bien plus de pages qu'avant (noté via webmasters tools).

Il semble que le bot alloue sur une période X un volume (en octets) à télécharger et/ou un temps à passer sur un site qui sont directement fonction de la vitesse de chargement des pages. Mécaniquement donc, si on diminue la quantité de code sans diminuer la quantité de contenu (ou qu'on améliore la rapidité de l'hébergement au passage), le bot voit plus de contenu pertinent sur le site pendant la période X... et on améliore le référencement global du site.

Je peux me tromper mais pour le vérifier, il suffit de superposer les 3 courbes dans webmasters tools > diagnostic > statistiques sur l'exploration. Et jusqu'à présent, chez moi les 3 courbes se sont toujours suivies parfaitement que ça soit en hausse ou en baisse.
 
WRInaute impliqué
julienringard a dit:
Apres il faut aussi regarder la densité des mots clés dans la page pas simplement le ratio textes codes.
Et ?

Parce que perso, j'ai fait des test et j'ai réussi à positionner une fois une page avec 43% d'occurence.
Pas mal, non ? Sauf que c'est illisible...
Sur la totalité de mes test, j'ai pu monter en moyenne jusqu'à 20 à 25%, ce qui est tout aussi illisible.

Donc, la bonne densité, c'est celle d'une lecture correcte et non un facteur GG.
 
WRInaute impliqué
J'adore... Je clic sur ton lien et sous le titre "La densité de mots-clés et le référencement"... La pub "Arrêtez de fumer".
C'est confirmé, GG cible parfaitement ses pubs... Et il crédibilise l'article. :-)
 
Olivier Duffez (admin)
Membre du personnel
ces pubs dépendent (aussi) de ton historique de navigation...
essayons de rester dans le sujet de cette discussion, merci d'avance
 
WRInaute impliqué
Bah voilà... C'était un trait d'humour... :-(
"La densité de mots-clés et le référencement" - > "Arrêtez de fumer"... la moquette.
 
WRInaute discret
Merci en tout cas pour toutes ces interventions ça m'a bien aidé sur la question...

Perso je retiens que le ratio code/contenu est pas spécialement important mais que c'est plutôt la qualité du code et du contenu qui sont importants...

En passant je me demande, y'aurait pas un outil d'analyse du code de son site qui existerait par hasard? J'améliore un peu au fur et à mesure le code mais si il y avait un outil qui permettrait d'aller un peu plus vite, ça serait pas du luxe...

Tout ça parce que, n'étant pas quelqu'un de très artistique, j'ai pris un template tout fait pour mon site ,^^ ça m'apprendra...
 
WRInaute accro
Ehplod a dit:
Non, si le contenu n'est pas exactement le même... ton résultat sera obligatoirement faussé.
Le deux pages vont effectivement être en DC (quoi que DC interne si tu les mets sur le même domaine ce qui n'est pas la même chose qu'un DC externe) Mais concrètement cela ne change rien l'une sera forcement mieux classé que l'autre même si c'est au fond des SERP a cause du DC. Ce qui est intéressant c'est la position relative pas l'absolue.
En plus je parle bien de contenu identique avec une variation sur le code uniquement.
En fait il faudrait qu'un striptags() des deux pages donne le même résultat.
 
WRInaute impliqué
zeb a dit:
l'une sera forcement mieux classé que l'autre même si c'est au fond des SERP a cause du DC.
Le truc, c'est que externe ou interne, le DC ne pénalise pas les 2 pages, mais une seule.
Tu aura une page "classé" et une page "sous classée". Jamais les deux ne seront ensemble.
... enfin, logiquement. :-)

Bref, faut essayer, mais le résultat obtenu sera toujours à pondérer avec un possible facteur DC.
 
WRInaute accro
Ehplod a dit:
Le truc, c'est que externe ou interne, le DC ne pénalise pas les 2 pages, mais une seule.
Peut être prendre en compte la date de crawl pour chaque page ?
Voir multiplier les binômes pour fiabiliser une moyenne.

Sinon pour virer le paramètre DC on peut imaginer deux textes de même tailles avec exactement le même nombre d'espaces, de A, B, ... mais mélangé. on aura le même compte de lettres avec un ordre différent. on peut de plus pousser le vice a avoir la même typographie a savoir des mots de même taille. ça devrais virer le problème du DC.

As tu d'autre idées qui pourrait contrecarrer un tel test ? (j'ai un domaine en attente de dev qui est pas utilisé :D )
 
WRInaute impliqué
Héhé moi aussi, je fais du labs...
Je prend plien de note à chaque fois qu'on discute c'est dire si j'ai du boulot...

Ton idée n'est pas mauvaise, mais si c'est pas difficile, ça risque tout de même d'être long à mettre en place.
 
WRInaute accro
bah deux pages html avec un mot introuvable dedans histoire de pas chercher trois plombes dans les SERP, plus deux liens vite fait sur une page qui tourne fort et c'est joué.
 
WRInaute impliqué
Ok, mais va pondre un contenu identique sur tout sauf le texte, comme tu le précise... c'est pas écrit en 10s, surtout qu'il faut le faire pour différente quantité (ratio différent), mais aussi différente poids (ratio identique, mais page de poids différents).

Le truc de tester, c'est de tester toutes les possibilité pour avoir de quoi comparer et en tirer des conclusions...
 
WRInaute accro
Bah un texte genre lorem ipsum (1mn) un algo d'anagramme en php (20mn) un preg_match_all pour prendre en compte tous les mots un par un et un F5 pour faire deux tours et t'a plu qu'a coloriser les mots ou lettres d'un des deux texte (par exemple) pour avoir deux textes de même poids mais présenté avec du code plus ou moins lourd. Allez une heure pour le tout (je regarde ça demains et je fais un test)
 
WRInaute accro
Ehplod a dit:
Ok, vas-y. :mrgreen:
Bon alors vite fait pour donner une idée de la méthode j'ai "pompé vite fait un script anagramme ici.
que j'ai modifié pour le mettre dans une fonction et éviter d'avoir tous les résultats (ça peux vite passer en overflow). En gros la fonction demande un rang numérique pour sortir des itérations :
Code:
	function permute($mot,$i,$j){
		$tmp=$mot[$i];
		$mot[$i]=$mot[$j];
		$mot[$j]=$tmp;
		return $mot;
	}
	function factoriel($n){
		if($n == 0){ return 1; }
		return $n*factoriel($n-1); // retourne le nombre courant $n multiplié par $n-1 *$n-1-1 etc..
	}
	function anagramme($mot,$rang){	
		$nb=factoriel(strlen($mot));
		$j=0;
		$k=1;
		$ite = 0;
		for ($i=0;$i<$nb;$i++){
			if ($k==strlen($mot)){
				$k=0;
			}
			if ($j==strlen($mot)){
				$j=0;
			}
			$mot=permute($mot,$j,$k);
			if($ite == $rang){return $mot;}
			$ite++;
			$j++;
			$k++;
		}
		return $mot;
	}
ensuite comme imaginé un preg match pour boucler sur les mots d'une chaine :
Code:
	$texte = "Lorem ipsum dolor sit amet, consectetur adipiscing elit. Duis ac nunc et tellus volutpat mollis ut eu nisi. Suspendisse magna felis, porttitor vitae aliquam vel, vulputate rhoncus leo. Suspendisse suscipit egestas suscipit. Vestibulum ante ipsum primis in faucibus orci luctus et ultrices posuere cubilia Curae; In sapien nulla, tempus sit amet aliquam vel, dignissim neque. Vestibulum feugiat blandit ante nec adipiscing. In dignissim adipiscing dapibus. ";
	$texte1 = '';
	$texte2 = '';
	preg_match_all("|[a-z]{0,20}[ ,\.;:]{1,2}|i", $texte, $matches, PREG_SET_ORDER);
	foreach($matches as $val){
	    $mot = eregi_replace("[ ,\.;:]{1,2}$","",$val[0]);
	    $anagramme_mot_1 = anagramme($mot,0);
	    $anagramme_mot_2 = anagramme($mot,1);
	    $terminaison = eregi_replace('^'.$mot,"",$val[0]);
	    $texte1 .= $anagramme_mot_1 . $terminaison;
	    $texte2 .= $anagramme_mot_2 . $terminaison;
	}

Tu obtiens 2 textes dérivés de l'original :
original a dit:
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Duis ac nunc et tellus volutpat mollis ut eu nisi. Suspendisse magna felis, porttitor vitae aliquam vel, vulputate rhoncus leo. Suspendisse suscipit egestas suscipit. Vestibulum ante ipsum primis in faucibus orci luctus et ultrices posuere cubilia Curae; In sapien nulla, tempus sit amet aliquam vel, dignissim neque. Vestibulum feugiat blandit ante nec adipiscing. In dignissim adipiscing dapibus.
456 caractères

texte1 a dit:
oLrem pisum odlor ist maet, ocnsectetur daipiscing leit. uDis ca unnc te etllus ovlutpat omllis tu ue insi. uSspendisse amgna eflis, oprttitor ivtae laiquam evl, uvlputate hroncus elo. uSspendisse usscipit geestas usscipit. eVstibulum nate pisum rpimis ni afucibus roci ulctus te lutrices opsuere ucbilia uCrae; nI aspien unlla, etmpus ist maet laiquam evl, idgnissim enque. eVstibulum efugiat lbandit nate enc daipiscing. nI idgnissim daipiscing adpibus.
456 caractères

texte2 a dit:
orLem psium oldor its meat, oncsectetur diapiscing liet. uiDs ac unnc et eltlus olvutpat olmlis ut eu isni. usSpendisse agmna elfis, orpttitor itvae liaquam elv, ulvputate horncus eol. usSpendisse usscipit geestas usscipit. esVtibulum ntae psium ripmis in aufcibus rcoi ucltus et lturices ospuere ubcilia urCae; In apsien ulnla, emtpus its meat liaquam elv, igdnissim eqnue. esVtibulum eufgiat labndit ntae ecn diapiscing. In igdnissim diapiscing apdibus.
456 caractères

en mettant tout en minuscule ça peut être plus crédible si on peut parler de crédibilité.

Maintenant je vais vite fait me pencher sur le" brouillage" avec du code couleur par exemple
 
WRInaute accro
allez op on va bien voir j'ai pingomatiqué le truc pour voir ... :D
première page 1.8Kb
seconde page 9.8 Kb
structure <title> sur un mot inconnu <h1> idem et un paragraphe comme vue plus haut.

Je vous raconterai si il y a un résultat.
 
Discussions similaires
Haut