Nouvelle page et stimulation du crawl: des techniques?

WRInaute occasionnel
Hello,

J'avais lu des messages dans un post il y a quelques jours à ce sujet mais je n'arrive pas à le retrouver...

Vous avez des astuces pour accélérer le passage de GGbot sur pages profondes?

Certains parlaient de twitter, d'autres donnaient un site...Bref si quelqu'un à des conseils :)
 
WRInaute occasionnel
Parfait c'est bien toi qui avait mis ça :)
Dans le cas d'une page nouvelle, je comprends bien l’intérêt.
Mais est-ce que ça sert de faire ça lors de modifications sur une page, type title, images...?
 
WRInaute accro
Bah moi je l'utilise dans le cadre de mise a jours mais c'est pour plus qu'une balise méta ou un alt.
Mais bon a priori qui peut le plus peut le moins ...
Va savoir si derrière il ne risque pas d'y avoir une notion de spam si tu abuse ... ça je sais pas.
 
WRInaute occasionnel
Disons que j'ai fait pas mal d'optim sur une rubrique de 10 pages: titles, alt, textes, liens internes, balises H ... pour chaque page...et je me demandais si twitter l'URL de la rubrique permettrait à Google de checker les changement plus rapidement sachant que ce sont des pages profondes.
 
WRInaute accro
le principe pingomatic n'ai pas lié a la profondeur de page.

j'utilise cette fonction qui est accessible sur le front office de mes pages via un bouton et un peux d'ajax :

Code:
	function pingomatic($title,$url) {
	    $content='<?xml version="1.0"?>'.
	        '<methodCall>'.
	        ' <methodName>weblogUpdates.ping</methodName>'.
	        '  <params>'.
	        '   <param>'.
	        '    <value>'.$title.'</value>'.
	        '   </param>'.
	        '  <param>'.
	        '   <value>'.$url.'</value>'.
	        '  </param>'.
	        ' </params>'.
	        '</methodCall>';
	 
	    $headers="POST / HTTP/1.0\r\n".
	    "User-Agent: Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.9.1) Gecko/20090624 Firefox/3.5 (.NET CLR 3.5.30729)\r\n".
	    "Host: rpc.pingomatic.com\r\n".
	    "Content-Type: text/xml\r\n".
	    "Content-length: ".strlen($content);
	 
	    $request=$headers."\r\n\r\n".$content;
	    $response = "";
	    $fs=fsockopen('rpc.pingomatic.com',80, $errno, $errstr);
	    if ($fs) {
	        fwrite ($fs, $request);
	        while (!feof($fs)) $response .= fgets($fs);
	        echo "<xmp>".$response."</xmp>";
	        fclose ($fs);
	        return;
	    } else {
	        echo "<xmp>".$errstr." (".$errno.")</xmp>";
	        return;
	    }
	}
 
WRInaute occasionnel
Je te remercie pour ton retour. Je vais regarder ça de plus près.

Mais est-ce que tu penses que ça peut jouer un rôle de twitter/pingomatic c'est rubrique?

Dans tous les cas je pense pas que ça puisse faire du mal :p
 
WRInaute accro
Chez moi je le fait par principe pour l'instant (en me disant que ça ne peut pas faire de mal), j'ai en tête un système de contrôle que je veux poser sur les pages pour voir les bots qui rappliquent suite au ping, mais je n'ai pas encore mis ça en place donc pas la certitude d'un effet dans un sens ou dans l'autre.
 
WRInaute accro
lol si je pourrait mais suis une grosse flemme je suis du genre a préférer insérer vite fait une petite table dans la base et a mettre un petit script vite fait qui me log juste ce que je veux savoir. Et puis, surtout, sur le site impacté j'ai 3/4 projets en cours de dev qui m'occupent plus qu'il ne faudrait pour au moins encore un trimestre (sans parler de la modération encore 250 interventions a traiter).
 
Discussions similaires
Haut