Google SiteMaps : comment guider Google dans son site

foodstyling

WRInaute discret
Je viens de télécharger le script, lu en diagonale. Ca a l'air super(à première vue). J'essaye demain.j'en donnerai des nouvelles
 

vanillefraise

WRInaute discret
Ce n'est pas le script qui me paraît le plus intéressant, c'est le principe.

Si je comprends bien, il s'agit de donner à Google des informations sur les différentes sections d'un site, leur importance, leur fréquence de mise à jour, ... sous la forme de fichiers XML, pour aider Googlebot (et les autres robots indexeurs qui reconnaitraient ce protocole) à indexer plus efficacement les contenus, en utilisant moins de ressources.
 

Phobos

WRInaute impliqué
Salut, pourrais tu tout résumer fair un screen ou je ne sais pas? je n'arrive pas à afficher ces pages :(
edit: ah si, ça s'affiche au bout d'un bout de temps ça fait une erreur 502 trois fois sur 4
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
effectivement c'est une mini révolution !
je ferai un article dès que possible... après le WE quoi ;-)
 

Phobos

WRInaute impliqué
Fais le plutôt la semaine prochaine, quand ça marchera :lol:

j'enchaine erreur 502 sur erreur 502, pas moyen :(

edit: enfin ça marche ! Faut obligatoirement mettre une unique sitemap ? parce que bon un fichier xml généré à partir de 5500 enregistrements sql qui doit faire 7000 lignes c'est un peu lourd :|
 

Vincent_prague

WRInaute discret
Moi non plus, je n'arrive pas à atteindre le site google. Pourtant d'habitude, google dimensionne correctement ses serveurs... Victimes de leur succès pour une fois! Ca a l'air vachement intéressant en tout cas :)

J'aime bien le commentaire du responsable de google dans l'interview :
We provide an open-source tool called Sitemap Generator to assist in this process. Eventually, we are hoping webservers will natively support the protocol so there are no extra steps for webmasters.
Google définit les standards, à l'instar de microsoft (mais ici c'est open source). Révélateur de leur position forte :)
 

vanillefraise

WRInaute discret
Vincent_prague a dit:
Google définit les standards, à l'instar de microsoft (mais ici c'est open source). Révélateur de leur position forte :)

Petite précision :

l'outil pour générer les Sitemaps est open-source ( http://sourceforge.net/projects/goog-sitemapgen ) , par contre, le standard que Google définit ( https://www.google.com/webmasters/sitem ... tocol.html ) est distribué sous licence Creative Commons ( http://creativecommons.org/licenses/by-sa/2.0/deed.fr ) , ce qui est un peu différent.
 

rebirth

WRInaute impliqué
Allez hop, c'est lance !

On va voir ce que ca donne sur un site recent et lourd en nombre de pages, et qui ne possede pas de plan de site "a la main"....
 

gorgu

WRInaute occasionnel
pouarf... on va se crawler tout seul maintenant...
bon, il va falloir faire des jolis scripts php qui gérent tout cela.

De se que j'ai lu en gros c'est une grande liste de toutes nos pages avec la date de derniére mise à jour en xml...

Il va donc falloir tenir soit même à jour tout cela surtout si l'on désire conserver ses forums.
 

oli004

WRInaute passionné
De se que j'ai lu en gros c'est une grande liste de toutes nos pages avec la date de derniére mise à jour en xml...

Il va donc falloir tenir soit même à jour tout cela surtout si l'on désire conserver ses forums.

Peut etre que google fera une comparaison de la date en "lastmod" par rapport a celle du fichier qu'il a en memoire, et si les date sont les mêmes alors google ne crawl pas la page
 

phreddpullfer

WRInaute discret
Phobos a dit:
http://www.forumfr.com/index-sitemap.xml
On va voir ce que ça donne, j'ai pas utilisé l'outil en python, je l'ai généré en php vu que leur outil n'était pas trop compatible avec l'organisation :)

Meme avec l'option de recuperation des url dans les logs ????
 

Phobos

WRInaute impliqué
oui, notamment car je ne veux pas inclure les urls présentes dans mon robots.txt (nombreuses) ;)
Là c'est marqué downloaded, ok, donc ça va j'ai pas fais d'erreurs :)
 

rituel

WRInaute impliqué
D'accord avec Gorgu.
Pour ma part j'ai préparé une règle de rewriting : sitemap.xml -> sitemap.asp
Du coup quand il va chercher le fichier xml, je leur balance dynamiquement un plan de mon site, et il me prend tout en compte, même les pages logiques.
 

Americas

WRInaute accro
C'est bien ce que je craignais :roll:

Avec les réécritures... certains vont certainement en profiter pour faire gober au bot n'importe quel map caché et faire indexer des pages "spéciales"... ça promet :?
 

Rackham

WRInaute discret
Générateur SiteMap

Phobos a dit:
On va voir ce que ça donne, j'ai pas utilisé l'outil en python, je l'ai généré en php vu que leur outil n'était pas trop compatible avec l'organisation :)

Bonjour,

Je suis intéressé par un autre générateur, je ne peux pas utiliser Python sur mon serveur. Merci d'avance pour un lien vers le script utilisable.
 

gorgu

WRInaute occasionnel
euh... les logs c'est encore une enorme connerie.... je sais pas a quoi ils pensent en ce moment... j'ai aps l'intention de faire indexer mes backoffices :p
 

Phix

WRInaute occasionnel
Ca a l'air très intéressant, espèrons qu'on verra apparaître des outils en php pour générer ces sitemaps...
 

gorgu

WRInaute occasionnel
ben me parait difficile de faire un outil générique pour les sites en php.

etant donné qu'il faut prendre en compte la date de derniére modification.
 

Phobos

WRInaute impliqué
cette date n'est même pas obligatoire, mais oui effectivement, dur dur de faire du générique ;)
 

foodstyling

WRInaute discret
N'ayant jamais fait de fichiers xml, je me retrouve avec une "parsing error" dans mon fichier. QQ pourrait-il poster un exemple de fichier Google sitemap afin de pouvoir trouver mon erreur. Je vais quand même mettre les premieères et dernières lignes de mon fichier, fait sur le modèle de celui de Google. Ce sont les points d'interrogations qui m'inquiètent. Merci d'avance.

Code:
<?xml version='1.0' encoding='UTF-8'?>
<urlset xmlns="https://www.google.com/schemas/sitemap/0.84"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="https://www.google.com/schemas/sitemap/0.84
https://www.google.com/schemas/sitemap/0.84/sitemap.xsd">

<url>
??????<loc>http://www.f**dstyling.be/</loc>
<lastmod>2005-01-01</lastmod>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.f**dstyling.be/</loc>
<lastmod>2005-06-04</lastmod>
???</url>
<url>
<loc>http://www.f**dstyling.be/Cabillaud_aux_jets.html</loc>
???</url>
<url>
<loc>http://www.f**dstyling.be/Aspergeveloute.html</loc>
???</url>
<url>
<loc>http://www.f**dstyling.be/Cabillaud_aux_jets.html</loc>
???</url>
 <url>
<loc>http://www.f**dstyling.be/Cabillaud_feves.html</loc>
 ???</url>
 <url>
<loc>http://www.f**dstyling.be/Chocofram.html</loc>
???</url>


et les dernières lignes:
  <url>
<loc>http://www.f**dstyling.be/detailfr.php?recordID=77</loc>
 ???</url>
  <url>
<loc>http://www.f**dstyling.be/detailfr.php?recordID=78</loc>
 ???</url>
  <url>
<loc>http://www.f**dstyling.be/detailfr.php?recordID=80</loc>
 ???</url>
  <url>
<loc>http://www.f**dstyling.be/detailfr.php?recordID=81</loc>
 ???</url>
</urlset>
 

gorgu

WRInaute occasionnel
t'as pas la bonne extention t'as du mettre .php ;)
il faut pas le passer par le moteur php


je crois que j'ai trouvé une astuce pour créer le fichier simplement à partir de php
je tente de coder et je vous tiens au courant
 

Rackham

WRInaute discret
Dans un message précédent Phobos disait avoir écrit quelque chose, suis toujours intéressé.

Il y a un exemple de script ici
http://www.iteam5.net/francesco/sitemap_gen/

Je m'en vais le tester, mais le voici (l'accès au site est très long) :

Code:
<%
' sitemap_gen.asp
' A simple ASP script to automatically produce sitemaps for a webserver, in the Google Sitemap Protocol (GSP)
' by Francesco Passantino
' www.iteam5.net/francesco/sitemap_gen
' v0.1 released 4 june 2005
'
' BSD 2.0 license,
' http://www.opensource.org/licenses/bsd-license.php



'modify this to change website and root folder
session("server")="http://www.yousite.net"
vDir = "/blog/"



MAXURLS_PER_SITEMAP = 50000
set fso = CreateObject("Scripting.FileSystemObject")
root = Server.MapPath(vDir) & "\"
set fold = fso.getFolder(root)

response.ContentType = "text/xml"
response.write "<?xml version='1.0' encoding='UTF-8'?>"
response.write "<!-- generator='http://www.iteam5.net/francesco/sitemap_gen'-->"
response.write "<urlset xmlns='https://www.google.com/schemas/sitemap/0.84'>"

if fold.subfolders.count > 0 then
for each f in fold.subfolders
sfoldname = root & f.name & "\"
fpath = vDir & f.name & "/"

if folderpermission(fpath) then
set cfold = fso.getFolder(sfoldname)
if cfold.subfolders.count > 0 or cfold.files.count > 0 then
for each sf in cfold.subfolders
sfoldname = root & f.name & "\" & sf.name & "\"
path = vDir & f.name & "/" & sf.name & "/"
set sfold = fso.getFolder(sfoldname)
if sfold.files.count > 0 then
for each fil in sfold.files
response.write getfilelink(path, fil)
next
end if
next
for each fil in cfold.files
response.write getfilelink(fpath, fil)
next
else
response.Write getfoldlink(cfold, fpath)
end if
if session("URLS")=MAXURLS_PER_SITEMAP then exit for
end if
next
end if

if session("URLS")<MAXURLS_PER_SITEMAP then
for each fil in fold.files
response.write getfilelink(vDir, fil)
next
end if

response.write "</urlset>"
set fso = nothing


Function getfilelink(fold, file)
If FileExtensionIsBad(file) then Exit Function
filelmdate=file.dateLastModified
if month(filelmdate)<10 then filedatem="0"
if day(filelmdate)<10 then filedated="0"

filedate=year(filelmdate)&"-"&filedatem&month(filelmdate)&"-"&filedated&day(filelmdate)
getfilelink = "<url><loc>"&server.htmlencode(session("server")&fold&file.name)&"</loc><lastmod>"&filedate&"</lastmod><priority>1.0</priority></url>"
session("URLS")=session("URLS")+1
Response.Flush
End Function

Function Folderpermission(pathName)

'modify this to exclude path
PathExclusion=Array("/test1/","/test/test2/")
Folderpermission =True
for each PathExcluded in PathExclusion
if ucase(pathName) = ucase(PathExcluded) then
Folderpermission = False
exit for
end if
next
End Function

Function FileExtensionIsBad(sFileName)
Dim sFileExtension, bFileExtensionIsValid, sFileExt

'http://www.googleguide.com/file_type.html
Extensions = Array("gif","jpg","zip","pdf","ps","html","htm","asp","wk1","wk2","wk3","wk4","wk5","wki","wks","wku","lwp","mw","xls","ppt","doc","wks","wps","wdb","wri","rtf","ans","txt")

if len(trim(sFileName)) = 0 then
FileExtensionIsBad = true
Exit Function
end if

sFileExtension = right(sFileName, len(sFileName) - instrrev(sFileName, "."))
bFileExtensionIsValid = false 'assume extension is bad
for each sFileExt in extensions
if ucase(sFileExt) = ucase(sFileExtension) then
bFileExtensionIsValid = True
exit for
end if
next
FileExtensionIsBad = not bFileExtensionIsValid
End Function
%>
 

Phobos

WRInaute impliqué
<loc>http://www.f**dstyling.be/detailfr.php?recordID=77</loc>
???</url>
doit être:
<loc>http://www.f**dstyling.be/detailfr.php?recordID=77</loc>
???</loc>

;)

Rackham, j'ai écris quelque chose, mais c'est absolument pas adaptable.
 

foodstyling

WRInaute discret
Désolé de t'ennuyer encore une fois,Phobos, mais faut-il que je remplace tous les </url> du fichier par des </loc> ?
 

foodstyling

WRInaute discret
Au secours Phobos, je crains de n'avoir rien compris. J'ai fait un test de validation et il me retourne un nombre incalculables d'erreures, heureusement toute du même type.Mais je les comprends pas.Que faire?

10: 8 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
14: 11 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
17: 10 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
20: 10 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
23: 10 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
26: 11 cvc-complex-type.2.3: Element 'url' cannot have character [children], because the type's content type is element-only.
 

gorgu

WRInaute occasionnel
héhé j'ai modiifé mon script, ont peu facilement l'utiliser comme compteur de visites de page :p
 

oli004

WRInaute passionné
@gorgu

http://www.jouer.org/Php/google-sitemap-00396.html

voilà se que j'en penses

on pourrais également imaginer faire ce genre de choses avec une jolie petite image est un http_refer pour les sites sans php.

En suivant ton lien, j'arrive a la page mais en haut il y avait :

Warning: ereg(): REG_BADRPT in /home/jouer/sitemap.php on line 5

Je présume que ce n'est pas souhaité :?
 

vanillefraise

WRInaute discret

gorgu

WRInaute occasionnel
oli004 a dit:
@gorgu

http://www.jouer.org/Php/google-sitemap-00396.html

voilà se que j'en penses

on pourrais également imaginer faire ce genre de choses avec une jolie petite image est un http_refer pour les sites sans php.

En suivant ton lien, j'arrive a la page mais en haut il y avait :

Warning: ereg(): REG_BADRPT in /home/jouer/sitemap.php on line 5

Je présume que ce n'est pas souhaité :?

rien de grave ;) j'ai fait un filtre incorrect et je suis allé me plonger devant la tv avant de vérifier ;) rien à voir avec le script de l'article
 

sky

WRInaute discret
Slt,
Gorgu, sympa ton idée je trouve. Mais, pour ceux qui peuvent avoir accès au tache cron, il serait peut être mieux de regénérer le fichier tous les xx heures ou jours ?

Je le test en ce moment sous ce principe.

Si ça interesse, voici le script un peut modifié (juste la création du fichier)
Code:
<?php
//connexion mysql

$toutXml='';
$toutXml.="<?xml version=\"1.0\" encoding=\"UTF-8\"?>
<urlset xmlns=\"https://www.google.com/schemas/sitemap/0.84\">
";

$liste= mysql_query("SELECT url,date FROM `sitemap` order by id limit 0,50000");
while(list($a,$b) = mysql_fetch_array($liste))
{
  $toutXml.=
  "<url>
      <loc>$a</loc>
      <lastmod>$b</lastmod>
   </url>
";

}

$toutXml.="</urlset>";

mysql_close;

$fp = fopen("sitemap.xml", "w+");
fwrite($fp, $toutXml);
fclose($fp);
?>
Merci en tout cas ;)

Sky
 

sky

WRInaute discret
Au faite, en me penchant plus sur la syntaxe possible du fichier xml, on voi que l'on peut donner une priorité aux page et une heure plus présise.
Certains l'ont essayer ?
 

kjbstar

Nouveau WRInaute
Heu, Gorgu, j'avoue que là je comprend pas trop mon erreur :mrgreen:
En .php, ton script affiche tout bien...Dans le code source ! Donc inutile...
En .xml , j'ai le code php qui est afifché en dur, il n est pas interpreté.
Merci !
 

kjbstar

Nouveau WRInaute
Faut croire ;D
Bah c est surtout que tu demandes un mod qui doit etre assez long à faire moins de 4 jours après la sortie du SiteMap...

Sinon moi content, il m'a suffit de mater Le Retour du Jedi pour apres résoudre mon probleme en 1 essai ^^
Par contre, je m'y connais très peu en xml, c'est grave pour google si l'extension est en php ?
 

gorgu

WRInaute occasionnel
kjbstar a dit:
Heu, Gorgu, j'avoue que là je comprend pas trop mon erreur :mrgreen:
En .php, ton script affiche tout bien...Dans le code source ! Donc inutile...
En .xml , j'ai le code php qui est afifché en dur, il n est pas interpreté.
Merci !

normal... en fait ce fichier n'est pas là pour donner à google un fichier automatiquement. Je penses qu'il faut "valider" un peu tout cela avant de le jeter en pature (c'est un code made in 10 minutes)

l'idée est donc de lancer la page php dans ton coin. afficher source. Ouvrir note pad , copié collé :)

et ensuite tu place ce fichier .xml sur ton serveur.

Une telle requête permettrait trop facilement de mettre ton serveur à plat.
 

Molenda

Nouveau WRInaute
Bonjour,
Peut tu me dire à qui s'adresser pour installer sur mon site le sitemapgenerator ? Je suis complétement dépassé par cette chose ?

F.M.
 

JPhi

Nouveau WRInaute
Peut tu me dire à qui s'adresser pour installer sur mon site le sitemapgenerator ? Je suis complétement dépassé par cette chose ?
Il faut que tu ais accès à linux avec python d'installé ou alors un windows avec python ...
Ensuite ça dépend de quelle source tu utilises pour générer ton sitemap (log httpd,txt, ou répertoire)
Si tu as un accès à tout ça sur ton serveur tu fais ton fichier config.xml avec tes règles et tu lances :
python sitemap_gen.py --config=config.xml
Et tu te retrouves avec un joli sitemap.xml.gz :)
Ensuite tu le places à un endroit sur ton site et tu indiques à google où il se trouve comme indiqué sur la page sur le sitemap.

Ce qui me fait marrer c'est la précision avec laquelle il génère les priorités :
<priority>0.00138312586445</priority>
:lol:

Quelqu'un a une idée s'il ya une taille maximum du site map ?
Apres avoir utilisé le sitemap_gen je comprends maintenant l'intéret du .gz :D
 

sky

WRInaute discret
Quelqu'un a une idée s'il ya une taille maximum du site map ? >
50 000 liens ou un fichier de 10mo
 

gorgu

WRInaute occasionnel
pour gziper son sitemap avec mon petit script (je ne le mets aps dans mon article car il faut être conscient des soucis éventuels)
Code:
<?
$html="";
function cache_write($file,$html, $ext='.xml.gz')
{
	$html=gzencode($html, 9);
	unlink($file.$ext);
    if($fp=fopen($file.$ext,'a'))
    {
    fseek($fp,0);
    fputs($fp,$html);
    fclose($fp);
    }
	echo"ok";
}
// connectez vous avec votre include preféré
$html.="<?xml version=\"1.0\" encoding=\"UTF-8\" ?>
<urlset xmlns=\"https://www.google.com/schemas/sitemap/0.84\">
";
$liste= mysql_query("SELECT url,date FROM `sitemap` order by id limit 0,50000");
while(list($a,$b) = mysql_fetch_array($liste))
{
$html.="<url>
 <loc>$a</loc>
 <lastmod>$b</lastmod>
</url>
";
}
$html.="</urlset>";
// déconnectez vous avec votre include preféré
cache_write('repertoireouvouspouvezecrire/sitemap',$html);
?>
 

kjbstar

Nouveau WRInaute
hedonism a dit:
Ohax a dit:
il existe un mod qui fait automatiquemment ça pour phpbb ?

merci
kjbstar a dit:
Faut croire ;D
Bah c est surtout que tu demandes un mod qui doit etre assez long à faire moins de 4 jours après la sortie du SiteMap...
Tu sousestimes la communauté phpBB
http://www.phpbb.com/phpBB/viewtopic.php?t=296051
En meme temps, j ai dit "doit etre", donc j etais pas affirmatif :mrgreen:
Quoiqu'il en soit, quelle rapidité :O
 

tangui

WRInaute impliqué
On dirait que Google a mis en place ce système en vue de son TrustRank, étant donné que la fréquence des MAJ va etre un critère important pour la TR (meme si c'est déjà le cas). Ce googleSiteMaps va faciliter le travail aux robots...
 

gorgu

WRInaute occasionnel
je suis pas persuadé (loin de là en fait ) que l'a fréquence de MAJ d'une page soit une gage de qualité .

d'un site surement d'une page moins.

une page une fois rédigée est rédigée...
 

kjbstar

Nouveau WRInaute
Ca peut être aussi un moyen rapide et simple de faire connaitre à google l'existence d'un site sans mettre de BL "abusifs" ou que ce soit.

Je viens de commencer un test, j'ai fini un site hier, referencé seulement sur 4 annuaires à trafic, sans lien en dur, mal indexés (site x...).
Par contre, j'ai generé un sitemap de ce site, l'ai soumit il y a 6 heures, et une heure apres Google a téléchargé le sitemap.

Je verrais bien d'içi samedi si ce site sera indexé ou non.
 

orvinfait

WRInaute discret
Je viens de mettre en ligne un script en PHP créant automatiquement des fichiers sitmap.xml et un fichier sitmap_index.xml. Ce script peut être utilisé par des sites ayant des dizaines de milliers de pages et des sous-répertoires sur trois niveaux. Des fichiers ou des répertoires peuvent être exclus de l'indexation.
Pour accéder à ce script http://www.orvinfait.fr/scripts_web_performant.html
 

gorgu

WRInaute occasionnel
j'ai absolument rien compris au fonctionnement du teins ... desolé :)
une petit page d'explication serait un plus :D
 

orvinfait

WRInaute discret
J'ai pourtant mis quelques explications dans le script mais ce qui me parait évident ne l'est pas forcément pour tous. Je souhaiterai savoir ce qui n'est pas compris où sont les problèmes de compréhension?
 

Gwinck

WRInaute discret
Intéressant ce sitemap, mais il y a une grosse différence de travail entre réaliser un sitemap avec juste la pondération+fréquence de maj et réaliser un sitemap avec pondération+fréquence de maj+date de dernière maj puisque si j'ai bien compri dans le deuxième cas il faut générer le sitemap à chaque maj alors que sans la date de dernière maj on peut le laisser tel quel et juste ajouter les nouvelles pages...

J'ai raté un truc ou mon explication tient la route?

Vu que la date de dernière mise à jour sert uniquement(?) à empêcher googlebot de repasser inutilement qui va se prendre la tête à mettre à jour cette valeur systématiquement? Dans l'espoir d'avoir un bonus alors que Google spécifie qu'il n'y en a pas pour le positionnement?
 

Gwinck

WRInaute discret
Pour ceux qui galèrent vraiment, j'ai vu sur Google groups=>Google-sitemap un gars qui vendait ses services pour la création de sitemaps, quelque chose comme 30$ pour 10.000 pages, je file pas l'url j'aime pas faire trop de pub.

Ca a l'air sympa les sitemaps mais d'un côté ça favorise pas ceux qui ne font pas de programmation encore une fois, même si c'est du script linéaire pas si abstrait que ça :)
 

sky

WRInaute discret
Après avoir tester tout ceci, amélioré le script audessus pour qu'il s'adapte bien à mon site, deux me turlupinent :

1) Pour les forum, quand un sujet commence à être vieux, faudrai changer le changefreq non? Les jeunes topic devraient avoir un changefreq=daily ou weekly. les vieux yearly?

2) Est ce qu'il faut vraiment resoumettre le sitemap.xml à google à chaque régénération de ledit fichier ?

Merci :)
Sky
 

Phobos

WRInaute impliqué
1)pour un forum, ne met pas de changefreq
2)google la reprend quand il faut, pas besoin de resoumettre tout le temps ;)
 

Gwinck

WRInaute discret
Pas de changefreq et pas de date de last maj pour les forums? Mettre à jour la date de dernière maj à chaque post ce serait le top, mais c'est clairement infaisable...
 

Phobos

WRInaute impliqué
je met une lastmaj, je la récupère dans la date du dernier post si elle est plus récente que le dernier changement général (changement d'organisation, etc) :)
 

Gwinck

WRInaute discret
Ca m'a l'air bien pensé. Tu as constaté un changement quelconque déjà? Peut-être la fréquence de passage des robots si tu traques celà?
 

Phobos

WRInaute impliqué
Je traques, mais j'ai pas de stats précises, en ce moment il passe sa vie à me crawler j'ai l'impression, mais je n'ai pas mis en place uniquement la sitemap, il y a eu pas mal d'autres changements ;)
 

WebRankInfo

Olivier Duffez (admin)
Membre du personnel
J'ai rédigé un article présentant SiteMaps (pour ceux qui ont la flemme de lire toute cette discussion) : https://www.webrankinfo.com/actualites/2 ... temaps.htm

J'inaugure également la rubrique SiteMaps sur WRI avec un début de FAQ SiteMaps, qui sera complétée prochainement (pour l'instant c'est surtout issu des infos de Google, traduites en français).
J'espère également pouvoir fournir des scripts ou compléter la liste indiquée sur https://www.webrankinfo.com/dossiers/sitemaps/tutoriel-fichier-sitemap
 

cocota

WRInaute discret
orvinfait a dit:
Je viens de mettre en ligne un script en PHP créant automatiquement des fichiers sitmap.xml et un fichier sitmap_index.xml. Ce script peut être utilisé par des sites ayant des dizaines de milliers de pages et des sous-répertoires sur trois niveaux. Des fichiers ou des répertoires peuvent être exclus de l'indexation.
Pour accéder à ce script http://www.orvinfait.fr/scripts_web_performant.html

Alors là franchement BRAVO !!ça fait 2 heures que je tournais en rond sur les forums pour trouver un tuto et je tombe sur ton script,niquel marche du premier coup,c'est vrai que vous etes tous assez branché programmation et moi et le xml ça fait 2,et gràce à ton script en 2mns j'ai crée tout nikel !!!

Bravo
 

Théophraste

WRInaute impliqué
Tiens, ce qui serait rigolo, c'est que les autres moteurs pénalisent les sites utilisant sitemap, pour collaboration...
Cela serait de bonne guerre, GG utilise un cheval de troie pour rentrer dans les sites, les autres moteurs pourraient tacitement se concerter histoire de limiter ça... Ils pourraient faire de meme, mais après un GG sitemap, s'il faut mettre ds ses pages un msn sitemap, un yahoo sitemap, etc...
:arrow:
 

willyz85

WRInaute discret
J'ai cherché un peu partout mais j'ai pas trouvé réponce à ma question.

Doit on mettre un lien vers sitemap.xml pour que google le detecte ?

Merci
 

Foxus

WRInaute passionné
j'ai RIEN compris

en fait c jsute ça le fichier :

<urlset>
-
<url>
<loc>https://www.google.com/BUILD</loc>
<lastmod>2005-04-30T03:45:08+00:00</lastmod>
</url>
-
<url>
<loc>https://www.google.com/about.html</loc>
<lastmod>2005-05-07T00:45:09+00:00</lastmod>
</url>
</urlset>

Et c'est bon je soumet ça a google via mo ncomtpe google (en mettant les url ?

ca fait quoi si j'enleve les <lastmod> ?

je vais me programmer ça en delphi alors si c si simple que ça


merci de ne aps me laisser sans reponse
 

Ninifoot

Nouveau WRInaute
J'aurai une question :

mes pages sont appelées par l'URL suivant : articles.php?lng=fr&pg=2, articles.php?lng=fr&pg=3, articles.php?lng=fr&pg=4, etc...

est-ce qu'il faut que je référence toutes ces pages, ou alors juste la page articles.php ?
 

Gwinck

WRInaute discret
Foxus a dit:
ca fait quoi si j'enleve les <lastmod> ?

Ouai pareil... Les lastmod c'est le plus chiant à générer, quelqu'un a un avis sur un sitemap avec fréquence de maj et priorité uniquement?
 

graphilab

Nouveau WRInaute
En fait pour oscommerce on à deja des sitemaps.(On peut aussi ajouter la date d'insertion ou de modification)
Ce qui est chiant c'est le nombre de requetes hallucinant si votre boutique à des milliers de produits. (sauf si on utilise un systeme de cache)
J'ai pas analysé le script de google mais appriori j'voit pas comment il peut fonctionner pour un site 100% php/mysql sans quil accede à la base de donnée ou sont stockés les produits, les categories etc...
[edit]j'avait pas vu le include donc c bon :)[/edit]
 

kloh

Nouveau WRInaute
Foxus a dit:
j'ai RIEN compris

en fait c jsute ça le fichier :

<urlset>
-
<url>
<loc>https://www.google.com/BUILD</loc>
<lastmod>2005-04-30T03:45:08+00:00</lastmod>
</url>
-
<url>
<loc>https://www.google.com/about.html</loc>
<lastmod>2005-05-07T00:45:09+00:00</lastmod>
</url>
</urlset>

Et c'est bon je soumet ça a google via mo ncomtpe google (en mettant les url ?

ca fait quoi si j'enleve les <lastmod> ?

je vais me programmer ça en delphi alors si c si simple que ça


merci de ne aps me laisser sans reponse

Au risque qu'elle paraisse déplacée, je réitère la question.. (en gras dans la citation^^)
 

Foxus

WRInaute passionné
kloh je n'ai pas bien saisis ta question mais j'ai du mal m'exprimé

je me suis basé sur le sitemap.xml du site google.com

dedans il est tres tres simpliste, j'ai juste changer les urls par celles de mon site et j'aio soumis l'url de mon sitemap.xml sur mon compte google.

sa structure est :

<url>
<loc>https://www.google.com/BUILD</loc> (la par contre je laisse ou met l'url de mon site ???)
<lastmod>2005-04-30T03:45:08+00:00</lastmod> : ca je l'ai elenver

</url>
-
<url>
<loc>https://www.google.com/about.html</loc> je met toute mes url
<lastmod>2005-05-07T00:45:09+00:00</lastmod> j'enleve ca aussi
</url>
</urlset>

c bon ?

plus de 650 url dedans generé avec mon soft que je vien de programemr il y a 2 heure (un exe en delphi) :)
 

kloh

Nouveau WRInaute
ok j'avais pas compris, je pensais que tu demandais si c'était comme ça que ça marchais ^^*
pour un "petit" site comme le mien ça doit marcher cette méthode, je vais essayer..
 

Foxus

WRInaute passionné
kloh je pense aussi :)

sinon au debut on doit laisser le : <loc>https://www.google.com/BUILD</loc> ? ou le remplacer ? une intuition ? un avis ?
 

kloh

Nouveau WRInaute
J'ai essayer ce script ( http://www.orvinfait.fr/scripts_web_performant.html ) qui a été donné dans un message plus haut et j'obtiens ce message :
Warning: readdir(): supplied argument is not a valid Directory resource in /var/www/free.fr/d/9/timesplittersgames/sitemap.php on line 85

Voilà le passage avec les numéros des lignes:
Code:
65 -  /* Mettre l'adresse de votre site ici 
66 -  exemple: http://www.monsite.fr/
67 -  Ne pas oublier la barre oblique a la fin
68 -  */
69 -  $adresse_site="http://www.timesplittersgames.tk";
70 - 
71 -  /* Preciser ici le dossier de depart si besoin.
72 -  Pour les sites fonctionnant sous Apache mettre: $rep_deb="../www/";   */
73 -  $rep_deb="";
74 -
75 -
76 -  /*compteur du nombre de fichiers sitmap
77 -  ces fichiers sont mis dans le tableau $lifi */
78 -  $vlifi=0;
79 -  
80 -  $telo1=0;
81 -  $a_enr_fir="<?xml version=\"1.0\" encoding=\"UTF-8\"?>\n<urlset xmlns=\"https://www.google.com/schemas/sitemap/0.84\">\n";
82 -  $a_enr_fi1t=$a_enr_fir;
83 -  $handle=opendir($rep_deb);
84 -  $rot1=0;
85 -  while ($file=readdir($handle)) 
86 -  	{
87 -    	if($file != "." && $file != "..") 
88 -		{
89 -		$fi1[$rot1]=$file;
90 -		$rot1++;
91 - 		}
92 -	}


Sinon j'ai utilisé la méthode de Foxus et envoyé à Google et j'attend de voir ce que ça donne

EDIT : c'est bon la méthode de Foxus marche^^, mon fichier xml vient d'être pris en compte par Google^^
 

Discussions similaires

Haut