Référencement du Forum phpbb

Discussion dans 'Administration d'un site Web' créé par e-atlantide, 12 Avril 2004.

  1. e-atlantide
    e-atlantide WRInaute occasionnel
    Inscrit:
    12 Avril 2004
    Messages:
    287
    J'aime reçus:
    0
    Mon hébergeur ne support pas la fonction "url rewriting". :(
    Je souhaiterais savoir s'il existe une autre méthode pour permettre le référencement, de tous mes messages disponibles sur mon forum, sur google par exemple.

    Le lien de mon forum est le suivant : http://www.e-atlantide.com/forum/index.php

    Je dispose de la version phpBB 2.0.8.

    D'avance merci.
     
  2. rottman
    rottman WRInaute passionné
    Inscrit:
    6 Janvier 2004
    Messages:
    1 804
    J'aime reçus:
    0
    je croi avoir vu un jour sur le site de codes-sources un script en php qui permet de faire une sorte de url-rewriting fait maison...jsui pas trop sur...à voir !
     
  3. Jo
    Jo WRInaute discret
    Inscrit:
    13 Novembre 2003
    Messages:
    158
    J'aime reçus:
    0
  4. e-atlantide
    e-atlantide WRInaute occasionnel
    Inscrit:
    12 Avril 2004
    Messages:
    287
    J'aime reçus:
    0
    A priori, le topic cité fonctionne uniquement si le module url-rewriting est activé. Ce n'est pas le cas chez mon hébergeur.
     
  5. Twister
    Twister WRInaute occasionnel
    Inscrit:
    16 Janvier 2004
    Messages:
    350
    J'aime reçus:
    0
    Tu peux désactiver les sid sans que le module url-rewriting soit activé. En plus, tu peux ne les désactiver que quand des robots comme googlebot passent, ce qui permet à tes visiteurs de naviques sans cookies.
    Inclue cette fonction qui vérifie si le visiteur est un robot comme google n'importe où dans ton fichier sessions.php :
    Code:
    //Fonction qui vérifie si le visiteur est un robot comme google
    function est_robot() {
    	global $HTTP_SERVER_VARS; 
    	$RobotsList = array ( 
    		"antibot", 
    		"appie", 
    		"architext", 
    		"bjaaland", 
    		"digout4u", 
    		"echo", 
    		"fast-webcrawler", 
    		"ferret", 
    		"googlebot", 
    		"gulliver", 
    		"harvest", 
    		"htdig", 
    		"ia_archiver", 
    		"jeeves", 
    		"jennybot", 
    		"linkwalker", 
    		"lycos", 
    		"mercator", 
    		"moget", 
    		"muscatferret", 
    		"myweb", 
    		"netcraft", 
    		"nomad", 
    		"petersnews", 
    		"scooter", 
    		"slurp", 
    		"unlost_web_crawler", 
    		"voila", 
    		"voyager", 
    		"webbase", 
    		"weblayers", 
    		"wget", 
    		"wisenutbot", 
    		"acme.spider", 
    		"ahoythehomepagefinder", 
    		"alkaline", 
    		"arachnophilia", 
    		"aretha", 
    		"ariadne", 
    		"arks", 
    		"aspider", 
    		"atn.txt", 
    		"atomz", 
    		"auresys", 
    		"backrub", 
    		"bigbrother", 
    		"blackwidow", 
    		"blindekuh", 
    		"bloodhound", 
    		"brightnet", 
    		"bspider", 
    		"cactvschemistryspider", 
    		"cassandra", 
    		"cgireader", 
    		"checkbot", 
    		"churl", 
    		"cmc", 
    		"collective", 
    		"combine", 
    		"conceptbot", 
    		"coolbot", 
    		"core", 
    		"cosmos", 
    		"cruiser", 
    		"cusco", 
    		"cyberspyder", 
    		"deweb", 
    		"dienstspider", 
    		"digger", 
    		"diibot", 
    		"directhit", 
    		"dnabot", 
    		"download_express", 
    		"dragonbot", 
    		"dwcp", 
    		"e-collector", 
    		"ebiness", 
    		"eit", 
    		"elfinbot", 
    		"emacs", 
    		"emcspider", 
    		"esther", 
    		"evliyacelebi", 
    		"nzexplorer", 
    		"fdse", 
    		"felix", 
    		"fetchrover", 
    		"fido", 
    		"finnish", 
    		"fireball", 
    		"fouineur", 
    		"francoroute", 
    		"freecrawl", 
    		"funnelweb", 
    		"gama", 
    		"gazz", 
    		"gcreep", 
    		"getbot", 
    		"geturl", 
    		"golem", 
    		"grapnel", 
    		"griffon", 
    		"gromit", 
    		"hambot", 
    		"havindex", 
    		"hometown", 
    		"htmlgobble", 
    		"hyperdecontextualizer", 
    		"iajabot", 
    		"ibm", 
    		"iconoclast", 
    		"ilse", 
    		"imagelock", 
    		"incywincy", 
    		"informant", 
    		"infoseek", 
    		"infoseeksidewinder", 
    		"infospider", 
    		"inspectorwww", 
    		"intelliagent", 
    		"irobot", 
    		"iron33", 
    		"israelisearch", 
    		"javabee", 
    		"jbot", 
    		"jcrawler", 
    		"jobo", 
    		"jobot", 
    		"joebot", 
    		"jubii", 
    		"jumpstation", 
    		"katipo", 
    		"kdd", 
    		"kilroy", 
    		"ko_yappo_robot", 
    		"labelgrabber.txt", 
    		"larbin", 
    		"legs", 
    		"linkidator", 
    		"linkscan", 
    		"lockon", 
    		"logo_gif", 
    		"macworm", 
    		"magpie", 
    		"marvin", 
    		"mattie", 
    		"mediafox", 
    		"merzscope", 
    		"meshexplorer", 
    		"mindcrawler", 
    		"momspider", 
    		"monster", 
    		"motor", 
    		"mwdsearch", 
    		"netcarta", 
    		"netmechanic", 
    		"netscoop", 
    		"newscan-online", 
    		"nhse", 
    		"northstar", 
    		"occam", 
    		"octopus", 
    		"openfind", 
    		"orb_search", 
    		"packrat", 
    		"pageboy", 
    		"parasite", 
    		"patric", 
    		"pegasus", 
    		"perignator", 
    		"perlcrawler", 
    		"phantom", 
    		"piltdownman", 
    		"pimptrain", 
    		"pioneer", 
    		"pitkow", 
    		"pjspider", 
    		"pka", 
    		"plumtreewebaccessor", 
    		"poppi", 
    		"portalb", 
    		"puu", 
    		"python", 
    		"raven", 
    		"rbse", 
    		"resumerobot", 
    		"rhcs", 
    		"roadrunner", 
    		"robbie", 
    		"robi", 
    		"robofox", 
    		"robozilla", 
    		"roverbot", 
    		"rules", 
    		"safetynetrobot", 
    		"search_au", 
    		"searchprocess", 
    		"senrigan", 
    		"sgscout", 
    		"shaggy", 
    		"shaihulud", 
    		"sift", 
    		"simbot", 
    		"site-valet", 
    		"sitegrabber", 
    		"sitetech", 
    		"slcrawler", 
    		"smartspider", 
    		"snooper", 
    		"solbot", 
    		"spanner", 
    		"speedy", 
    		"spider_monkey", 
    		"spiderbot", 
    		"spiderline", 
    		"spiderman", 
    		"spiderview", 
    		"spry", 
    		"ssearcher", 
    		"suke", 
    		"suntek", 
    		"sven", 
    		"tach_bw", 
    		"tarantula", 
    		"tarspider", 
    		"techbot", 
    		"templeton", 
    		"teoma_agent1", 
    		"titin", 
    		"titan", 
    		"tkwww", 
    		"tlspider", 
    		"ucsd", 
    		"udmsearch", 
    		"urlck", 
    		"valkyrie", 
    		"victoria", 
    		"visionsearch", 
    		"vwbot", 
    		"w3index", 
    		"w3m2", 
    		"wallpaper", 
    		"wanderer", 
    		"wapspider", 
    		"webbandit", 
    		"webcatcher", 
    		"webcopy", 
    		"webfetcher", 
    		"webfoot", 
    		"weblinker", 
    		"webmirror", 
    		"webmoose", 
    		"webquest", 
    		"webreader", 
    		"webreaper", 
    		"websnarf", 
    		"webspider", 
    		"webvac", 
    		"webwalk", 
    		"webwalker", 
    		"webwatch", 
    		"whatuseek", 
    		"whowhere", 
    		"wired-digital", 
    		"wmir", 
    		"wolp", 
    		"wombat", 
    		"worm", 
    		"wwwc", 
    		"wz101", 
    		"xget", 
    		"awbot", 
    		"bobby", 
    		"boris", 
    		"bumblebee", 
    		"cscrawler", 
    		"daviesbot", 
    		"ezresult", 
    		"gigabot", 
    		"gnodspider", 
    		"internetseer", 
    		"justview", 
    		"linkbot", 
    		"linkchecker", 
    		"nederland.zoek", 
    		"perman", 
    		"pompos", 
    		"psbot", 
    		"redalert", 
    		"shoutcast", 
    		"slysearch", 
    		"ultraseek", 
    		"webcompass", 
    		"yandex", 
    		"robot", 
    		"crawl" 
    	); 
    	$botID = strtolower( $HTTP_SERVER_VARS['HTTP_USER_AGENT'] ); 
    	for ($i = 0; $i < count( $RobotsList ); $i++) 
    	{ 
    		if ( strstr( $botID, $RobotsList[$i] ) ) 
    		{ 
    		return true; 
    		} 
    	}
    	return false; 
    }
    
    et remplace dans ce même fichier ce code :
    Code:
    $SID = 'sid=' . $session_id;
    
    par
    Code:
    	if ( est_robot() ){	//if ajouté pour supprimer les sessions pour les robots
    		$SID = '';
    	}else{
    		$SID = 'sid=' . $session_id;
    	}
    
    Ca devrait fonctionner :D
     
  6. e-atlantide
    e-atlantide WRInaute occasionnel
    Inscrit:
    12 Avril 2004
    Messages:
    287
    J'aime reçus:
    0
    Je viens de faire la modification.

    Je vous tiens informé du résultat.

    A bientôt et merci pour ton aide.
     
  7. e-atlantide
    e-atlantide WRInaute occasionnel
    Inscrit:
    12 Avril 2004
    Messages:
    287
    J'aime reçus:
    0
    Google a référencé maintenant une partie des messages contenus sur mon forum (http://www.e-atlantide.com/forum/) mais ils sont uniquement visibles en cliquant sur le lien "relancer la recherche en incluant les pages ignorées".
    A quoi cela correspond ? Comment faire pour optimiser le référencement ?

    J'ai rajouté dans le fichier robots.txt les éléments suivants :
    Code:
    User-agent: *
    Disallow: /forum/admin/
    Disallow: /forum/search.php
    Disallow: /forum/login.php
    Disallow: /forum/profile.php
    Disallow: /forum/faq.php
    Disallow: /forum/memberlist.php
     
  8. gueb
    gueb Nouveau WRInaute
    Inscrit:
    29 Avril 2004
    Messages:
    7
    J'aime reçus:
    0
    Merci pour le truc, je viens de faire la modification sur mon forum...

    MAIS pourquoi la modification sur ce site est plus longue est compliquee que celle decrite dans ce forum ci? je parle du point #1 sur phpbb-fr?

    http://forums.phpbb-fr.com/viewtopic_39 ... sc_s0.html

    Merci!
     
  9. WebRankInfo
    WebRankInfo Admin
    Membre du personnel
    Inscrit:
    19 Avril 2002
    Messages:
    20 753
    J'aime reçus:
    796
    ce site ... ce forum-ci... je ne suis pas sur de comprendre de quel site et de quel forum tu parles ?
     
  10. gueb
    gueb Nouveau WRInaute
    Inscrit:
    29 Avril 2004
    Messages:
    7
    J'aime reçus:
    0
  11. Twister
    Twister WRInaute occasionnel
    Inscrit:
    16 Janvier 2004
    Messages:
    350
    J'aime reçus:
    0
    La possibilité que j'ai proposée permet de supprimer le SID uniquement s'il y a un robot, alors que celle à l'adresse que tu donnes permet de supprimer le SID pour tous les utilisateurs invités.
    :wink:
     
  12. Dr DLP
    Dr DLP WRInaute impliqué
    Inscrit:
    29 Juin 2003
    Messages:
    525
    J'aime reçus:
    0
    Et cela corrige aussi les problèmes de sessions pour les invités causés par certains navigateurs comme AOL et ses multiples proxys .
     
  13. gueb
    gueb Nouveau WRInaute
    Inscrit:
    29 Avril 2004
    Messages:
    7
    J'aime reçus:
    0
    Vous etes vraiment genial :)

    GOOGLE a presentement 20 connexions ouvertes sur mon forum et ramasse tout ce qu'il peut.

    Comment j'ai trouvé, il y a 20 connections d'adresse ip comme celle ci de 64.68.82.* sur mon forum, le record du nombre d'utilisateurs en ligne est de 20 depuis aujourd'hui :)

    Merci!!!!!!!!!!!!!!!!!!!!!
     
Chargement...
Similar Threads - Référencement Forum phpbb Forum Date
FORUM PHPBB et optimisation pour un meilleur référencement Débuter en référencement 16 Février 2012
Référencement d'un forum phpbb Débuter en référencement 4 Décembre 2010
Referencement forum PHPBB, faut il une page differente de l'index ? Problèmes de référencement spécifiques à vos sites 19 Mai 2009
Demande d'informations sur référencement forum phpbb Débuter en référencement 21 Mars 2009
Référencement forum phpbb3 Développement d'un site Web ou d'une appli mobile 13 Octobre 2008
Conseils referencement forum phpbb Débuter en référencement 5 Janvier 2008
Référencement d'un forum phpBB Débuter en référencement 29 Août 2005
Référencement d'un Forum phpbb dans google Débuter en référencement 5 Février 2005
Référencement d'un forum phpbb Problèmes de référencement spécifiques à vos sites 28 Novembre 2004
Référencement Forum de discussion PHPBB Problèmes de référencement spécifiques à vos sites 16 Septembre 2004
Referencement forum phpbb Problèmes de référencement spécifiques à vos sites 25 Juillet 2004
Forum non actif et impact sur le référencement du blog Référencement Google 12 Janvier 2019
Référencement sur les forums auto moto Débuter en référencement 23 Décembre 2018
Forum non actif et impact sur le référencement du blog Référencement Google 31 Octobre 2018
Conseils référencement pour notre site et forum avec 2 adresses différentes Demandes d'avis et de conseils sur vos sites 20 Septembre 2018
Référencement très limité de mon forum Problèmes de référencement spécifiques à vos sites 9 Janvier 2018
Aide et Conseil Dans le Forum pour Referencement Débuter en référencement 26 Novembre 2014
Référencement du forum satnew.net Problèmes de référencement spécifiques à vos sites 29 Décembre 2013
Referencement forums Référencement Google 23 Août 2013
Participation aux forums et référencement naturel Débuter en référencement 8 Mai 2013