Y a t'il encore une logique au referencement ?

WRInaute discret
parcque je me rends comptes que mes pages indéxé du temps ou je faisais pas d'url rewriting sont bien positionnée et reste, tandis que celle utilisant un urlrewriting de base (même pas mechant, juste convertir du php a 3 param en fichier html sans param) se font desindexée. Si c'est le cas sur quoi on peux maintennant se reposer pour referencer un site et quel est encore le sens de ce forum si tout les postulat d'optimisation de site change ?

+++
 
F
fearfox
Guest
actuellement, plus aucune optimisation ne marche, elles sont plutôt négatives.
 
WRInaute passionné
D'ailleurs nous les référenceurs somme payés à rien faire :D (joke)

L'url rewriting n'a rien de miraculeux, il permet juste de faciliter l'indexation quand les arguments dans l'url sont trop nombreux. Mais les moteurs indexent de mieux en mieux les sites dynamiques....
 
WRInaute discret
mais en fait ce qui me choque + encore, c'est qu'au + c mal optimisé, au + c haut dans les classement (les referenceurs bientot aux chomages (not joke)) ?

++++
 
WRInaute discret
bref, je vire toute optimisation, allons zy pour un site bourrin et honnête (jvous jure, y m'indexe 4 pages ou y a 3 param squattant carrement la première page de moitié et une url rewriter = 1 seul article qui se fait virer au bout d'une semaine par desindexation), ceci sonne le glas du referencement, va falloir recycler le forum :p
 
WRInaute accro
Danielle1 a dit:
c'est qu'au + c mal optimisé, au + c haut dans les classement (les referenceurs bientot aux chomages (not joke)) ?+
ben non les bons ont anticipé et derewrité, dépeirisé, dé3wc bien avant tout le monde.
ça n'a pas de prix en fait une telle anticipation.
 
F
fearfox
Guest
Si tu as le temps, moi je fais 3 type de sites : un optimisé, un désoptimisé et un médiant. En théorie j'en ai tj un pas trop mal placé.

Ce sont mes sites sans optimisation qui sont au top actuellement... et encore je pense que c'est un début... on a pas encore subit tous les filtres US en France.

Là il y aura du GROS qui va dégagner comme aux USa...
 
WRInaute accro
pareil....! j´encourage à dé-rewritter tous vos sites. surtout ceux du domaine du tourisme....

Sérieux : on fait du rewriting sur les sites dynamiques qui la plupart du temps ont des pages ayant une structure de base identique avec requete sur une base.

L´inconvénient de ce genre de chose est que si le contenu n est pas assez fourni, il est envisageable que certains moteurs (google par exemple !!) interpretent ces nombreuses pages comme trop similaires. (peutetre suspission de pages sat , etc.).

je crois donc que ce n est pas le rewriting en tant que tel qui est pénalisé, mais plutot les pages dynamiques elles meme si elles ne répondent pas à un certain niveau de contenu....

1000 pages rewritées ou 100 pages non rewritées seraient à mon avis exactement positionnées de la meme maniere si celles-ci etaient parfairement identiques d´un point de vue contenu, BL, etc.
 
WRInaute discret
nop mais vous avez pas l'air de vous rendre compte que si une optimisation devient un malus, le referenceur n'a plus aucunne place sur le net... (a part pour faire un peu de popularité mais au niveau de l'analyse structurelle du site et des pages il ne sert plus a rien)
++
 
WRInaute impliqué
Mais si il a encore ca place... Les techniques évoluent c'est tout.
Maintenant il est vrai que certains on été refroidi après s'être fait désindexer...
 
WRInaute accro
Danielle1 a dit:
nop mais vous avez pas l'air de vous rendre compte que si une optimisation devient un malus, le referenceur n'a plus aucunne place sur le net... (a part pour faire un peu de popularité mais au niveau de l'analyse structurelle du site et des pages il ne sert plus a rien)
++

"ne pas sur-optimiser est déja une optimisation".

C´etait la pensée du Père Fourras en ce mardi soir....
 
WRInaute impliqué
Speciale dédicace erazor :
"chassez le naturel, il revient au galop"

En gros rien n'a jamais valu des vrais pages au vrai contenu naturel...
 
WRInaute accro
pis un zest d´optimisation, ca gache pas quand meme, faut pas exagérer. je crois que ceux qui se plaignent sont ceux qui ont poussé mamie un peu fort dans les orties....
 
WRInaute discret
la question est pas une question de contennu naturel ou pas (c'est il est très bon la n'est pas le problème), mais seulement j'ai un peu dans le bide de m'être fait desindexer certaine page pour une simple question d'UR (ce qui en sois est pas bien méchant et j'en ai lu le + grand bien sur ce forum dans tous les posts précédents)

++ (le pire c que je suis sur que dans le book (google : trucs de pros pour se faire desindexer...)(qui est si on tient compte des paramètre actuelle de google completement dépassé) c'est pareil)
 
WRInaute accro
Danielle1 a dit:
la question est pas une question de contennu naturel ou pas (c'est il est très bon la n'est pas le problème), mais seulement j'ai un peu dans le bide de m'être fait desindexer certaine page pour une simple question d'UR (ce qui en sois est pas bien méchant et j'en ai lu le + grand bien sur ce forum dans tous les posts précédents)

++ (le pire c que je suis sur que dans le book (google : trucs de pros pour se faire desindexer...)(qui est si on tient compte des paramètre actuelle de google completement dépassé) c'est pareil)

as-tu la preuve que c est l´UR qui a été sanctionné ? donne l´exemple du site en question pour voir ?
 
WRInaute discret
herveG a dit:
pis un zest d´optimisation, ca gache pas quand meme, faut pas exagérer. je crois que ceux qui se plaignent sont ceux qui ont poussé mamie un peu fort dans les orties....

si seulement tu disais vrai, tejure que c moyennement optimisé, c'est vraiment l'UR qui a fait merder (technique a bannir et a foutre en topic en gras au dessus du forum :p) (fin c pas dramatique, j'ai perdu 10 jours d'indexation (j'avais foutu le UR le 15 je crois), donc c pas dramatique en théorie mais je penses a ceux qui ont fait de l'UR des le debut et pour qui tout est a recommencer, y a de quoi allez poser une bombe chez google car c'est pas un critère d'elimination bien pertinent tout ca....
 
WRInaute accro
aaaahhhhh ,mais la si je comprends bien, tu avais déja tes pages indexées sur google sans rewriting et tu les as rewrité ensuite, c est ca ?
 
F
fearfox
Guest
Ce type de phrase m'a toujours fait sourire : "En gros rien n'a jamais valu des vrais pages au vrai contenu naturel...".

Si c'était vrai... mais Google est un algorythme, pas un humain, donc le contenu, il ne le voit même pas, c'est juste un calcul sur une page... si tu as les bonnes balises, techniques etc tu es premier, cela n'a rien à voir avec le contenu...
 
WRInaute discret
herveG a dit:
Danielle1 a dit:
la question est pas une question de contennu naturel ou pas (c'est il est très bon la n'est pas le problème), mais seulement j'ai un peu dans le bide de m'être fait desindexer certaine page pour une simple question d'UR (ce qui en sois est pas bien méchant et j'en ai lu le + grand bien sur ce forum dans tous les posts précédents)

++ (le pire c que je suis sur que dans le book (google : trucs de pros pour se faire desindexer...)(qui est si on tient compte des paramètre actuelle de google completement dépassé) c'est pareil)

as-tu la preuve que c est l´UR qui a été sanctionné ? donne l´exemple du site en question pour voir ?

en fait je t'explique l'exemple a 2 francs 50 mais qui m'a fait un choc hier, donc j'avais une page UR (titre bien referencé sur le mot stoemp (titre de la page stoemp au chicon), la page monte monte, se retrouve en 4eme position sur le mot en question et ensuite bam desindexation, quant je fait maintennant une recherche sur des mots clés compris dans mes titres de pages par exemple, on peux se rendre compte que les page UR si elle ne sont pas desindexée (ce qui ne saurait tarder) se retrouves a la 5/6eme page (alors qu'elle était en premiere page y a pas longtemps) tandis que les rubriques, topic et autres que j'ai laisser avec des url naturelle (cad avec 3 paramètre dans l'optique d'ecriture des url facon phpnuke), ces pages ont non seulement un classement montant mais en sus se permette de se positionner mieux que des sites leader sur le marché quant je tappes des requete sur des book par exemple. exemple :

https://www.google.be/search?hl=fr&q=elo ... jine&meta=
https://www.google.be/search?hl=fr&q=Les ... ille&meta=
etc dans cette optique.

bref, y a plus de logique dans ce bas monde.

et encore la j'ai eviter le pire, j'ai que 10 jours de UR a mon actif, une partie minime du site a heureusement été indexé en UR mais suffisemment pour me faire perdre 1 semaine ou 2 de classements sur certains mots clés.
 
WRInaute accro
ca me parait etre du top court terme pour en tirer des conclusions. je vérifierais à ta place si les pages qui sont aujourd´hui rewrtées ont toujours leur version non-rewrittés dans l´index. avais-tu fais des redirection des tes pages non rewrittées vers tes pages rewrittées ?

ps : d´accord avec toi bourricot...! ;)
 
WRInaute accro
tu n as que 21 pages qui semblent non similaires aux yeux de google. a mon avis, c etait pas l´UR le responsable. je voulais en venir ici....
 
WRInaute discret
herveG a dit:
ca me parait etre du top court terme pour en tirer des conclusions. je vérifierais à ta place si les pages qui sont aujourd´hui rewrtées ont toujours leur version non-rewrittés dans l´index. avais-tu fais des redirection des tes pages non rewrittées vers tes pages rewrittées ?

ps : d´accord avec toi bourricot...! ;)


ben disons que, on va être logique, j'ai attendu patiemment que google se barre du site avant de faire l'UR, donc il a indexé uniquement les nouveau article des 10 derniers jours dans cette optique (c'est la chance dans la malchance), donc a ma connaissance il n'y a pas de doublons de contennu dans l'index.

+++
 
WRInaute discret
herveG a dit:
tu n as que 21 pages qui semblent non similaires aux yeux de google. a mon avis, c etait pas l´UR le responsable. je voulais en venir ici....

et comment faire en sorte de rendre des articles differends non similaire ? :p

++
 
WRInaute discret
herveG a dit:
tu n as que 21 pages qui semblent non similaires aux yeux de google. a mon avis, c etait pas l´UR le responsable. je voulais en venir ici....

sans compter qu'en toute logique, si il ne trouvais que 21 pages qui semblent non similaire, il me torsherais bien + que ca sur "toutes" les requêtes non ?
 
WRInaute impliqué
Tu as viré l'UR actuellement, donc on ne peut pas dire grand chose.

Une chose est sûre, j'espère qu'au moment du passage à l'UR tu as pensé à faire une redirection des anciennes pages vers les nouvelles sinon c'est normal que l'UR ait foiré=>Duplicate Content entre les pages avec UR et celles SANS
 
WRInaute discret
jvous it honnêtement, j'ai vu les pages UR monté a mort et ensuite se faire desindexée et les pages non UR montés et resté en place, si vraiment il y avait une question de similitude de page ca devrait être quant même un peu differends comme shema (fin y msemble).

++
 
WRInaute discret
shrom a dit:
Tu as viré l'UR actuellement, donc on ne peut pas dire grand chose.

Une chose est sûre, j'espère qu'au moment du passage à l'UR tu as pensé à faire une redirection des anciennes pages vers les nouvelles sinon c'est normal que l'UR ait foiré=>Duplicate Content entre les pages avec UR et celles SANS


moi je dit, toi tu portes tu portes bien ton nom de medium :), ca doit être en effet ca. MAis d'un autre coté non, dans le sens ou les pages qui se sont fait desindexée, sont née après l'UR donc il n'y avait pas de duplicate link a ce moment la. une seul lien present sur le site et toujours le même pointant vers le nouvel article postèrieur a l'UR et 1 seul passage de google sur cette page.
 
WRInaute impliqué
Danielle1 a dit:
jvous it honnêtement, j'ai vu les pages UR monté a mort et ensuite se faire desindexée et les pages non UR montés et resté en place, si vraiment il y avait une question de similitude de page ca devrait être quant même un peu differends comme shema (fin y msemble).

++

Non, c'est le shéma classique. Au début les nouvelles pages sortent bien et du jour au lendemain elles n'apparaissent plus, ce sont les pages les plus anciennes qui restent en place.

Et comme ce sont les nouvelles pages qui ont des BL, plus aucun résultat ne sort.
 
WRInaute discret
shrom a dit:
Danielle1 a dit:
jvous it honnêtement, j'ai vu les pages UR monté a mort et ensuite se faire desindexée et les pages non UR montés et resté en place, si vraiment il y avait une question de similitude de page ca devrait être quant même un peu differends comme shema (fin y msemble).

++

Non, c'est le shéma classique. Au début les nouvelles pages sortent bien et du jour au lendemain elles n'apparaissent plus, ce sont les pages les plus anciennes qui restent en place.

Et comme ce sont les nouvelles pages qui ont des BL, plus aucun résultat ne sort.

Ben le prime de fraicheur ok, mais d'un autre coté pk certain page sont en tête de classement (les non UR) depuis + de 2 semaines si on rentre dans cette logique ?
 
WRInaute accro
pour nuke sait pas moué mais la cohabitation a trois c'est pas normal, non ?
Tu devrais avoir l'un ou l'autre mais pas deux entrées pour le même article en même temps
 
WRInaute impliqué
"Moi ce que j'aime chez danielle1..." -- Elmer f.b (poete)

Je pense qu'on a pas assez de recul encore.
Ta remarque est judicieuse et demande d'être creusée... a terme.

Sinon oui, c'est commun aux site phpnuke comme structure. Maintenant tu peux peut etre interdire aux robots d'aller voir les versions imprimables par exemple...
 
WRInaute discret
totoro a dit:
"Moi ce que j'aime chez danielle1..." -- Elmer f.b (poete)

Je pense qu'on a pas assez de recul encore.
Ta remarque est judicieuse et demande d'être creusée... a terme.

Sinon oui, c'est commun aux site phpnuke comme structure. Maintenant tu peux peut etre interdire aux robots d'aller voir les versions imprimables par exemple...

Ben disons que vu que les pages qui se sont fait scanner avec la version printable sont en tête de liste et les autres qui se sont fait scanner en tant qu'article individuel via l'UR sont out de l'index, ca me donnes pas vraiment envie d'aller sucrer le passage du robots si on suit la logique actuelle du chaos "GOOGLE".

+++
 
WRInaute impliqué
Danielle1 a dit:
Ben le prime de fraicheur ok, mais d'un autre coté pk certain page sont en tête de classement (les non UR) depuis + de 2 semaines si on rentre dans cette logique ?

Rien à voire avec la prime de fraicheur dans ce que j'ai décris.

Tu as une page non UR qui sort bien.
Tu passes à l'UR, la nouvelle doit sortir au moins de façon identique à l'ancienne ( à condition de rediriger l'ancienne page vers la nouvelle et de laisser un peu de temps à Google pour comprendre la manip ).
Si tu n'as pas fait de redirection de l'ancienne vers la nouvelle, la nouvelle sera simplement supprimée de l'index pour DC et l'ancienne ne ressortira pas bien puisque les BL sont sur la nouvelle et non l'ancienne.

Je me suis fait avoir sur un site ou he m'était planté sur L'UR, après quelques corrections, quelques redirections, et le temps que Google réorganise le tout, mes nouvelles pages avec UR sont apparues aussi bien placées que les anciennes ( voire mieux pour certaines ). Au passage, mon nombre de pages indexées à lui aussi augmenté.
 
WRInaute discret
shrom a dit:
Danielle1 a dit:
Ben le prime de fraicheur ok, mais d'un autre coté pk certain page sont en tête de classement (les non UR) depuis + de 2 semaines si on rentre dans cette logique ?

Rien à voire avec la prime de fraicheur dans ce que j'ai décris.

Tu as une page non UR qui sort bien.
Tu passes à l'UR, la nouvelle doit sortir au moins de façon identique à l'ancienne ( à condition de rediriger l'ancienne page vers la nouvelle et de laisser un peu de temps à Google pour comprendre la manip ).
Si tu n'as pas fait de redirection de l'ancienne vers la nouvelle, la nouvelle sera simplement supprimée de l'index pour DC et l'ancienne ne ressortira pas bien puisque les BL sont sur la nouvelle et non l'ancienne.

Je me suis fait avoir sur un site ou he m'était planté sur L'UR, après quelques corrections, quelques redirections, et le temps que Google réorganise le tout, mes nouvelles pages avec UR sont apparues aussi bien placées que les anciennes ( voire mieux pour certaines ). Au passage, mon nombre de pages indexées à lui aussi augmenté.

ben je penses que j'ai bien compris ce que tu as ecris, mais disons dans ce cas de figure ci, les nouvelles pages sortie était UR dès l'origine et il n'y avait pas d'autre precedent link qui aurait pu faire une desindexation (genre tu UR la structure du site le 19/11 par exemple et ensuite tu écrits un article le 21 (tout nouveau tout beau et il n'y a que cette page qui existe sur le site sous cette url la).

+++
 
WRInaute impliqué
Danielle1 a dit:
ben je penses que j'ai bien compris ce que tu as ecris, mais disons dans ce cas de figure ci, les nouvelles pages sortie était UR dès l'origine et il n'y avait pas d'autre precedent link qui aurait pu faire une desindexation (genre tu UR la structure du site le 19/11 par exemple et ensuite tu écrits un article le 21 (tout nouveau tout beau et il n'y a que cette page qui existe sur le site sous cette url la).

+++

Enfin faut pas rever non plus, c'est pas parce que tu écris un nouvel article et qu'il bénéficie de l'UR qu'il sortira en tête dans les recherches.
 
WRInaute discret
shrom a dit:
Danielle1 a dit:
ben je penses que j'ai bien compris ce que tu as ecris, mais disons dans ce cas de figure ci, les nouvelles pages sortie était UR dès l'origine et il n'y avait pas d'autre precedent link qui aurait pu faire une desindexation (genre tu UR la structure du site le 19/11 par exemple et ensuite tu écrits un article le 21 (tout nouveau tout beau et il n'y a que cette page qui existe sur le site sous cette url la).

+++

Enfin faut pas rever non plus, c'est pas parce que tu écris un nouvel article et qu'il bénéficie de l'UR qu'il sortira en tête dans les recherches.

chais pas, le nouvel article était 4eme sur le mot stoemp entre autre chose (disons que y a un certain mysticisme phpnuke pour google dans son nouvel algo on dirait)
et je te parles même pas de la 2eme position que j'avais sur "symbole religieux" avant le desindexation :p
++
 
WRInaute discret
Erazor a dit:
ça doit quand même etre un peu lié au duplicate content regarde ton article 38
https://www.google.fr/search?q=www.legui ... 1&filter=0
il est bien sous 3 formes : le normal , le rewrité ( effacé donc) + le printable qui reprends tout le texte .
Ca fait peut etre trop

non en + le printable est un chouia differends, y a pas les info de copyright, le logo change, et les block present à coté de l'article se barre, on s'est bien compris sur le terme"'google n'est qu'un robot", la structure diffère et augmente le poid des mots.

+++
 
WRInaute discret
Michel a dit:
totoro a dit:
En gros rien n'a jamais valu des vrais pages au vrai contenu naturel...

C'est la seule vérité pérenne...

tout a fait d'accord avec toi, mais tient quant même compte que si google dispose d'une IA relativement evoluée pour definir ce qui est naturel ou pas, l'extrapolation de chose naturelle par une multiplication de structure (surtout si cette multiplicité de structure est standardisée par un phénomène open-source) est une faille pour lui.


+++
 
WRInaute accro
bon, je vois que vous avez continuer sans moi mais sur la piste que j´avais pré-sentie. cela peut venir du manque de redirect des anciennes pages vers les rewrittées. il a été dit que l ÚR apportait un plus surtout si on fait ca dÈs le début car par la suite il est difficile de s´y retrouver, de rediriger les pages etc. je pense donc qu il y a eu duplicate content et que google n a retenue (apres s´en etre apercu >> d ou le délai peuterre) que les pages non rewrittées....
 
Nouveau WRInaute
vous avez dit référencement ?

Effectivement, on ne sait plus quoi faire pour être bien référencé.. mais en vérité, c'est une entreprise impossible que de rester dans les trois premières pages lorsqu'il y en a au moins 1 million ou plus pour une requête donnée.

là est le big problème.

Reste plus qu'à faire son site à destination de ses clients "potentiels" en espérant qu'un jour ils arriveront sur votre site, probablement par une pub externe.. :cry:
 
Nouveau WRInaute
bon, je vois que vous avez continuer sans moi mais sur la piste que j´avais pré-sentie. cela peut venir du manque de redirect des anciennes pages vers les rewrittées.

Je penche pour l'hypothèse HerveG. En supposant l'inverse, je me demande comment Google pourrait determiner l'utilisation de l'UR sur un site... Comment faire la diffèrence entre un site lambda statique et une pur machine à Gaz dynamique sous UR(en supposant que l'UR soit humble sans 25000 mot clé interne etc...)... A ma connaissance le serveur ne renvoie aucune variable à ce propos ? Googlebot n'est qu'un script sorti des placards, je veux bien qu'il puisse "punir" la surutilisation de mot clé dans une url mais punir purement et simplement l'utilisation de l'UR, je ne vois pas comment il pourrait le faire ? Si quelqu'un à une mthode en tete (var serveur etc...) cela m'interresserait...

BJ all
 
WRInaute accro
herveG a dit:
aaaahhhhh ,mais la si je comprends bien, tu avais déja tes pages indexées sur google sans rewriting et tu les as rewrité ensuite, c est ca ?
et ouais, le gros piege dans lequel 95% des phpBB-men et autre phpNukiens sont tombés :mrgreen:

J'ai un site sur lequel l'UR a été intégré DES le départ, avant meme que google connaisse l'existence de ce site.. Resultat ? Le site n'a toujours certes pas de PR mais TOUTES les pages sont indéxées :)
 
WRInaute accro
eh oui... il me semble qu il y avait un sondage sur l´utilité et les risques de L´UR.....!! et il était justement question du moment ou l on metatit en place l´UR en tant que facteur de succès ou de risque....
 
WRInaute occasionnel
pour ma part UR a pu etre utilise et l'est encore pour tenter de masquer le deploiement massif de bd.
d ou l'apparition de la parade des pages de "resultats complementaires "
et la c'est quand meme en general assez facile de les deceler.
poids tres proches sur des 100 taines de pages, mots clefs souvent present dans l url, des chiffres avec _126 pour le traitement de doublons...
Dh
 
WRInaute occasionnel
bien sur l'algo est aujourd hui imparfait et les galeries photos payent pour le moment
pour ma part contourner cela avec des Commentaires

Dh
 
WRInaute accro
oui mais commentaire sous quelle forme ?
le naunaute poste un commentaire c'est ca ? ou bien on met
Code:
<!-- -->
?

mais ca résout pas le probleme : les commentaires (du naunaute) c'est quand on va sur une photo en particulier .. Quand on navigue en mode "galerie" (liste des photos miniatures", générallement y a juste "x commentaires" ...
 
WRInaute occasionnel
slt

quand je dis commentaires cela signifie du texte explicatif sur la photo proposée
ceci pour donner du poids a la page et en plus s'assurer que les commentaires sont de poids differents et variés
Le alt title meta ne semble plus valoir que si la page a un contenu .

Dh
 
WRInaute discret
mahefarivony a dit:
herveG a dit:
aaaahhhhh ,mais la si je comprends bien, tu avais déja tes pages indexées sur google sans rewriting et tu les as rewrité ensuite, c est ca ?
et ouais, le gros piege dans lequel 95% des phpBB-men et autre phpNukiens sont tombés :mrgreen:

J'ai un site sur lequel l'UR a été intégré DES le départ, avant meme que google connaisse l'existence de ce site.. Resultat ? Le site n'a toujours certes pas de PR mais TOUTES les pages sont indéxées :)

tatata, les pages dynamiques du sites sont toutes indexées et l'ur a virer a une époque de nouvelles pages sans duplicate content. vous voulez une methode pour detecter l'ur sur un site phpnuke ? c'est pas très compliqué de mettre dans un script des motif commun pour detecter si un site est fait en phpnulke ou pas, suffit de regarder un peu sa structure en modules. Choses d'autant + standardisée qu'une module googletrap est disponnible au grand publique (ca aide a établir des constantes)

+++
 
Discussions similaires
Haut