Referencement depuis une page 'recherche'

Nouveau WRInaute
Salut à vous,
Voila j'ai une petite question :
Comment puis-je bien faire référencer des pages de mon site uniquement accessible depuis mon formulaire de recherche ?

Voila mes pistes, dites moi si je fais complètement fausse route :
1. Créer une page répertoriant toutes les pages 'innaccessibles' et l'ajouter dans le sitemap. (Esperant que les robots arrivent sur la page repertoire grâce au sitemap et suivent les liens)
ou
2. Mettre toutes les pages inaccessibles dans le sitemap ..
ou
3. Ne rien faire, les robots vont trouver ces pages tout seuls ... (faut pas rêver ;) )

Autres suggestions ?

Merci à vous !
 
WRInaute accro
pour indexer des pages de recherche tu peux passer par un nuage de tags (qui est le résultat des recherches les plus demandées sur le site)
 
WRInaute accro
Ce n'est pas bien conseillé par Google d'indexer ses pages de recherches, je te conseil d'être propre et de faire cela avec parcimonie. Si tu comptes juste faire du spam index bête et méchant, oublie de suite, c'est toi qui perdra au final !
 
WRInaute accro
L.Jee a dit:
Ce n'est pas bien conseillé par Google d'indexer ses pages de recherches!

ah bon ? je connais des sites qui ne font que ca, avec en plus une recherche contextuelle sur la page de résultats, sur des liens sortants de site qui renvoie l'ascenseur en triangulaire, ca marche du feu de dieu :mrgreen:
 
WRInaute accro
Je n'ai pas dis que ça ne marchait pas ou qu'il ne fallait pas le faire, mais chez Google ils l'ont annoncé qu'ils ne voulaient pas de ça. Le jour ou la pénalité tombe, au moins tu sais pourquoi. A voir si le jeu en vaut la chandelle ;)
 
WRInaute accro
google ne veut pas que l'on indexe ses recherches ? ah bah je crois pas a ca. il existe de nombreux sites avec de grosses bdd mais non thématisé ou leur seul accés est l'indexation des recherches. ils sont nombeux et ca ne serait pas pertinent de la part de google de les pénaliser :? ensuite le systeme de tag permet ce genre dindexation, sans compter les nuages de tags qui s'appuie aussi sur les recherches, car si l'on veut afficher de la pertinence sur son site, autant aller chercher ce qui est le plus demandé par les clients et le top des recherches en fait partie
 
WRInaute passionné
L.Jee a en partie raison. La position officielle de GG est de demander aux webmaster d'empêcher l'indexation des pages de recherches. Dans les faits, GG en indexe beaucoup, y compris de moteurs qu'il fournis lui-même à des portails.
 
WRInaute accro
Top recherches oui, 400 requêtes indexées pour un site de 200 pages, essaye et on reparle ... Les tags il ne faut pas croire que tout passe non plus. Si tu partages 100 articles sur 400 tags, essaye aussi, tu pourrais être très surpris par la réaction de Google. Après si tu n'y crois pas, essaye et tu verras le résultat.
 
Nouveau WRInaute
Salut à tous et merci de vos réponses.
Alors pour éclaircir un peu le sujet : le site dont je participe au développement publie chaque jour environ 2000 documents.
Ces documents ne sont accessibles que via une url unique et par le formulaire de recherche du site (donc aucune navigation/lien vers ces documents).
Donc je ne cherche pas à indexer mes pages résultats (il y en aurait beaucoup trop...) mais les pages 'documents'.

J'ai pensé aussi à créer un sitemap_index s'updatant tout les jours avec un sitemap supplementaire contenant pour sa part les 2000 url uniques...

2ème question : est ce que les robots prennent autant en compte un sitemap qu'un lien dans une page pour l'indexage ?
 
WRInaute accro
le problème de l'indexation des résultats, c'est que tu vas créer du duplicate, vu qu'un même document va correspondre à plusieurs recherches différentes et que sur plusieurs recherches connexes, on va retrouver les mêmes documents.
 
WRInaute accro
ah ok, tu as 2000 pages orphelines a indexer :mrgreen:

etant pas un fan des sitesmap, je reste sur ma position de grouper intelligement (par recherche contextuelle) tes 2000 doc sur 200 pages de recherches générés avec des mots clés, et de les indexer par liens direct (tags par exemple..)
On peut toujours enlever le duplicate content sur des recherches, il faut stocker les resultats, et au moment du l'insertion des resultats en base ne pas reprendre un lien deja apelé dans une recherche précédente
 
WRInaute passionné
spiral123 a dit:
Salut à tous et merci de vos réponses.
Alors pour éclaircir un peu le sujet : le site dont je participe au développement publie chaque jour environ 2000 documents.
Ces documents ne sont accessibles que via une url unique et par le formulaire de recherche du site (donc aucune navigation/lien vers ces documents).
Donc je ne cherche pas à indexer mes pages résultats (il y en aurait beaucoup trop...) mais les pages 'documents'.

J'ai pensé aussi à créer un sitemap_index s'updatant tout les jours avec un sitemap supplementaire contenant pour sa part les 2000 url uniques...

2ème question : est ce que les robots prennent autant en compte un sitemap qu'un lien dans une page pour l'indexage ?

Dans ce cas, essayes de voir si tu peux générer toutes tes urls de documents de façon unique et met un petit sitemap (à l'attention des visiteurs (en complément du xml pour google)). Google va le crawler et indexer tes docs.
 
Nouveau WRInaute
KOogar a dit:
ah ok, tu as 2000 pages orphelines a indexer :mrgreen:

etant pas un fan des sitesmap, je reste sur ma position de grouper intelligement (par recherche contextuelle) tes 2000 doc sur 200 pages de recherches générés avec des mots clés, et de les indexer par liens direct (tags par exemple..)
On peut toujours enlever le duplicate content sur des recherches, il faut stocker les resultats, et au moment du l'insertion des resultats en base ne pas reprendre un lien deja apelé dans une recherche précédente

2000 pages orphelines par jour ^^ ... C'est pour ca qu'indexer le resultat de la recherche n'est pas évident...

Anto : Un énorme sitemap google, et un tout petit pour les visiteurs ^^
 
WRInaute accro
Anto1982 a dit:
Dans ce cas, essayes de voir si tu peux générer toutes tes urls de documents de façon unique et met un petit sitemap (à l'attention des visiteurs (en complément du xml pour google)). Google va le crawler et indexer tes docs.

et les pages indexées, elles sont classées ou dans les serps ? sur la page 50 ?
 
Discussions similaires
Haut