Référencement du Forum phpbb

WRInaute occasionnel
Mon hébergeur ne support pas la fonction "url rewriting". :(
Je souhaiterais savoir s'il existe une autre méthode pour permettre le référencement, de tous mes messages disponibles sur mon forum, sur google par exemple.

Le lien de mon forum est le suivant : http://www.e-atlantide.com/forum/index.php

Je dispose de la version phpBB 2.0.8.

D'avance merci.
 
WRInaute passionné
je croi avoir vu un jour sur le site de codes-sources un script en php qui permet de faire une sorte de url-rewriting fait maison...jsui pas trop sur...à voir !
 
WRInaute occasionnel
A priori, le topic cité fonctionne uniquement si le module url-rewriting est activé. Ce n'est pas le cas chez mon hébergeur.
 
WRInaute occasionnel
Tu peux désactiver les sid sans que le module url-rewriting soit activé. En plus, tu peux ne les désactiver que quand des robots comme googlebot passent, ce qui permet à tes visiteurs de naviques sans cookies.
Inclue cette fonction qui vérifie si le visiteur est un robot comme google n'importe où dans ton fichier sessions.php :
Code:
//Fonction qui vérifie si le visiteur est un robot comme google
function est_robot() {
	global $HTTP_SERVER_VARS; 
	$RobotsList = array ( 
		"antibot", 
		"appie", 
		"architext", 
		"bjaaland", 
		"digout4u", 
		"echo", 
		"fast-webcrawler", 
		"ferret", 
		"googlebot", 
		"gulliver", 
		"harvest", 
		"htdig", 
		"ia_archiver", 
		"jeeves", 
		"jennybot", 
		"linkwalker", 
		"lycos", 
		"mercator", 
		"moget", 
		"muscatferret", 
		"myweb", 
		"netcraft", 
		"nomad", 
		"petersnews", 
		"scooter", 
		"slurp", 
		"unlost_web_crawler", 
		"voila", 
		"voyager", 
		"webbase", 
		"weblayers", 
		"wget", 
		"wisenutbot", 
		"acme.spider", 
		"ahoythehomepagefinder", 
		"alkaline", 
		"arachnophilia", 
		"aretha", 
		"ariadne", 
		"arks", 
		"aspider", 
		"atn.txt", 
		"atomz", 
		"auresys", 
		"backrub", 
		"bigbrother", 
		"blackwidow", 
		"blindekuh", 
		"bloodhound", 
		"brightnet", 
		"bspider", 
		"cactvschemistryspider", 
		"cassandra", 
		"cgireader", 
		"checkbot", 
		"churl", 
		"cmc", 
		"collective", 
		"combine", 
		"conceptbot", 
		"coolbot", 
		"core", 
		"cosmos", 
		"cruiser", 
		"cusco", 
		"cyberspyder", 
		"deweb", 
		"dienstspider", 
		"digger", 
		"diibot", 
		"directhit", 
		"dnabot", 
		"download_express", 
		"dragonbot", 
		"dwcp", 
		"e-collector", 
		"ebiness", 
		"eit", 
		"elfinbot", 
		"emacs", 
		"emcspider", 
		"esther", 
		"evliyacelebi", 
		"nzexplorer", 
		"fdse", 
		"felix", 
		"fetchrover", 
		"fido", 
		"finnish", 
		"fireball", 
		"fouineur", 
		"francoroute", 
		"freecrawl", 
		"funnelweb", 
		"gama", 
		"gazz", 
		"gcreep", 
		"getbot", 
		"geturl", 
		"golem", 
		"grapnel", 
		"griffon", 
		"gromit", 
		"hambot", 
		"havindex", 
		"hometown", 
		"htmlgobble", 
		"hyperdecontextualizer", 
		"iajabot", 
		"ibm", 
		"iconoclast", 
		"ilse", 
		"imagelock", 
		"incywincy", 
		"informant", 
		"infoseek", 
		"infoseeksidewinder", 
		"infospider", 
		"inspectorwww", 
		"intelliagent", 
		"irobot", 
		"iron33", 
		"israelisearch", 
		"javabee", 
		"jbot", 
		"jcrawler", 
		"jobo", 
		"jobot", 
		"joebot", 
		"jubii", 
		"jumpstation", 
		"katipo", 
		"kdd", 
		"kilroy", 
		"ko_yappo_robot", 
		"labelgrabber.txt", 
		"larbin", 
		"legs", 
		"linkidator", 
		"linkscan", 
		"lockon", 
		"logo_gif", 
		"macworm", 
		"magpie", 
		"marvin", 
		"mattie", 
		"mediafox", 
		"merzscope", 
		"meshexplorer", 
		"mindcrawler", 
		"momspider", 
		"monster", 
		"motor", 
		"mwdsearch", 
		"netcarta", 
		"netmechanic", 
		"netscoop", 
		"newscan-online", 
		"nhse", 
		"northstar", 
		"occam", 
		"octopus", 
		"openfind", 
		"orb_search", 
		"packrat", 
		"pageboy", 
		"parasite", 
		"patric", 
		"pegasus", 
		"perignator", 
		"perlcrawler", 
		"phantom", 
		"piltdownman", 
		"pimptrain", 
		"pioneer", 
		"pitkow", 
		"pjspider", 
		"pka", 
		"plumtreewebaccessor", 
		"poppi", 
		"portalb", 
		"puu", 
		"python", 
		"raven", 
		"rbse", 
		"resumerobot", 
		"rhcs", 
		"roadrunner", 
		"robbie", 
		"robi", 
		"robofox", 
		"robozilla", 
		"roverbot", 
		"rules", 
		"safetynetrobot", 
		"search_au", 
		"searchprocess", 
		"senrigan", 
		"sgscout", 
		"shaggy", 
		"shaihulud", 
		"sift", 
		"simbot", 
		"site-valet", 
		"sitegrabber", 
		"sitetech", 
		"slcrawler", 
		"smartspider", 
		"snooper", 
		"solbot", 
		"spanner", 
		"speedy", 
		"spider_monkey", 
		"spiderbot", 
		"spiderline", 
		"spiderman", 
		"spiderview", 
		"spry", 
		"ssearcher", 
		"suke", 
		"suntek", 
		"sven", 
		"tach_bw", 
		"tarantula", 
		"tarspider", 
		"techbot", 
		"templeton", 
		"teoma_agent1", 
		"titin", 
		"titan", 
		"tkwww", 
		"tlspider", 
		"ucsd", 
		"udmsearch", 
		"urlck", 
		"valkyrie", 
		"victoria", 
		"visionsearch", 
		"vwbot", 
		"w3index", 
		"w3m2", 
		"wallpaper", 
		"wanderer", 
		"wapspider", 
		"webbandit", 
		"webcatcher", 
		"webcopy", 
		"webfetcher", 
		"webfoot", 
		"weblinker", 
		"webmirror", 
		"webmoose", 
		"webquest", 
		"webreader", 
		"webreaper", 
		"websnarf", 
		"webspider", 
		"webvac", 
		"webwalk", 
		"webwalker", 
		"webwatch", 
		"whatuseek", 
		"whowhere", 
		"wired-digital", 
		"wmir", 
		"wolp", 
		"wombat", 
		"worm", 
		"wwwc", 
		"wz101", 
		"xget", 
		"awbot", 
		"bobby", 
		"boris", 
		"bumblebee", 
		"cscrawler", 
		"daviesbot", 
		"ezresult", 
		"gigabot", 
		"gnodspider", 
		"internetseer", 
		"justview", 
		"linkbot", 
		"linkchecker", 
		"nederland.zoek", 
		"perman", 
		"pompos", 
		"psbot", 
		"redalert", 
		"shoutcast", 
		"slysearch", 
		"ultraseek", 
		"webcompass", 
		"yandex", 
		"robot", 
		"crawl" 
	); 
	$botID = strtolower( $HTTP_SERVER_VARS['HTTP_USER_AGENT'] ); 
	for ($i = 0; $i < count( $RobotsList ); $i++) 
	{ 
		if ( strstr( $botID, $RobotsList[$i] ) ) 
		{ 
		return true; 
		} 
	}
	return false; 
}

et remplace dans ce même fichier ce code :
Code:
$SID = 'sid=' . $session_id;
par
Code:
	if ( est_robot() ){	//if ajouté pour supprimer les sessions pour les robots
		$SID = '';
	}else{
		$SID = 'sid=' . $session_id;
	}

Ca devrait fonctionner :D
 
WRInaute occasionnel
Google a référencé maintenant une partie des messages contenus sur mon forum (http://www.e-atlantide.com/forum/) mais ils sont uniquement visibles en cliquant sur le lien "relancer la recherche en incluant les pages ignorées".
A quoi cela correspond ? Comment faire pour optimiser le référencement ?

J'ai rajouté dans le fichier robots.txt les éléments suivants :
Code:
User-agent: *
Disallow: /forum/admin/
Disallow: /forum/search.php
Disallow: /forum/login.php
Disallow: /forum/profile.php
Disallow: /forum/faq.php
Disallow: /forum/memberlist.php
 
WRInaute occasionnel
La possibilité que j'ai proposée permet de supprimer le SID uniquement s'il y a un robot, alors que celle à l'adresse que tu donnes permet de supprimer le SID pour tous les utilisateurs invités.
:wink:
 
WRInaute impliqué
Et cela corrige aussi les problèmes de sessions pour les invités causés par certains navigateurs comme AOL et ses multiples proxys .
 
Nouveau WRInaute
Vous etes vraiment genial :)

GOOGLE a presentement 20 connexions ouvertes sur mon forum et ramasse tout ce qu'il peut.

Comment j'ai trouvé, il y a 20 connections d'adresse ip comme celle ci de 64.68.82.* sur mon forum, le record du nombre d'utilisateurs en ligne est de 20 depuis aujourd'hui :)

Merci!!!!!!!!!!!!!!!!!!!!!
 
Discussions similaires
Haut