Bonjour,
Les mod Rewrites phpBB SEO, sans duplicates de paginations et bien plus rapides sont sorits
Pour vous faire un idée, veuillez vous rendre sur le forum de démonstration de phpBB SEO et comparez .
Vous pourrez y tester tous les mod Rewrites en effectuant des réglages sur cette page.
Bien entendu compatibles avec
mx Google Sitemaps et
mx Sitemaps.
Et J'ai craqué : SEO URL Topic Anywhere
L'esprit de "suite" ou toolkit complet pour le référencement des forums phpBB fait sont chemin, les résultats parlent déjà :
Je vais également bientôt updater le mod de webmedic, mais il n'offrira jamais un résultat de la même qualité et autant de déclinaisons.
Les add on de cette suite vont être adaptés, error mod abandonné pour une solution nettement plus efficace, mais reprenant le même principe.
Vous pouvez bien entendu installer et utiliser ma dernière mise à jour du mod de webmedic, il marche, avec les limites que l'on sait.
Dans ce cas il est bon de lire les avertissements concernant le mod phpBB SEO Avancé, il sont aussi valable pour le mod de webmedic, injecter les titres des sujets dans vos URL ne doit pas être fait à la légère.
Tout ce qui suit est bien entendu toujours valable, et sera enrichit des avancées "backportable" des mod Rewrite phpBB SEO.
Voici donc phpBB google keyword URLs 2.3.1 SEO MOD :
Ainsi que
mx Google Sitemaps v1.0.1:
Ceci est le premier mod totaltement repensé de A à Z et qui préfigure de l'esprit dans lequel je shouaite faire évoluer cette suite.
Spécifictaion détaillées mx Google Sitemap 1.0.1. Support sur phpbb-fr.com
Le mod à été testé avec succès sur des forums contenant plus de 5000 sujets (+ pagination).
Pas de démo mx pour l'instant mais ça marche
Démo avec url rewriting :
SitemapIndex
Sitemap Forums
Forum Sitemaps
Page ajoutée
Installer ce mod est un jeu d'enfant, pour avoir de belles url réécrites, vous devez just utiliser les deux fichiers situés dans contrib/moded_4_mod_rewrite/ à la place de ceux fournit par défaut.
Pour mettre à jour depuis la version 1.0RC1 et RC2 Procédez comme pour une nouvelle installation, remplacez tous les fichiers.
Le grand avantage de ce mod est qu'il est totalement indépendant de phpbb, il ne modifie aucune ligne de celui ci et n'introduit à priori donc pas de failles.
Plus de switch Oracle & Postgresql donc plus de problèmes, si tant est qu'il n'y en ait jamais eû avec Oracle & Postgresql.
Pour la version DLP, en début de code :
Peut être utile si vous utilisez l'extention ".html"
Et enfin : [DEV] mx SiteMaps Module V 0.0.1
Conçu de la même manière que mx Google Sitemaps, il est aussi simple à installer et vous fera de beaux plans de sites. Les MAJ seront très simples elles aussi, le mod marche et ne devrait pas beaucoup évoluer avant la release officiel.
Démo :
Le mod de webmedic :
Ce mod assez semblable à tous ceux qui incluent le titre des post et forum dans l'url mais
il a la particularité d'être associé à tout un tas d'autre mod d'optimisation de référencement comme :
De plus le mod principale gère les meta tags de façon contextuelle.
INSTALLATION :
Avant toutes choses, installer le Guest session mod de cyber alien pour les sid:
cyber alien
++
dcz
Les mod Rewrites phpBB SEO, sans duplicates de paginations et bien plus rapides sont sorits
Pour vous faire un idée, veuillez vous rendre sur le forum de démonstration de phpBB SEO et comparez .
Vous pourrez y tester tous les mod Rewrites en effectuant des réglages sur cette page.
Bien entendu compatibles avec
mx Google Sitemaps et
mx Sitemaps.
Et J'ai craqué : SEO URL Topic Anywhere
L'esprit de "suite" ou toolkit complet pour le référencement des forums phpBB fait sont chemin, les résultats parlent déjà :
227 URL listé dans Google le 03 mai 2006, dont seulement 4 en cache, à 37 800, toutes en cache, zéro duplicates, ce jour, le 02 juin 2006.
Je vais également bientôt updater le mod de webmedic, mais il n'offrira jamais un résultat de la même qualité et autant de déclinaisons.
Les add on de cette suite vont être adaptés, error mod abandonné pour une solution nettement plus efficace, mais reprenant le même principe.
Vous pouvez bien entendu installer et utiliser ma dernière mise à jour du mod de webmedic, il marche, avec les limites que l'on sait.
Dans ce cas il est bon de lire les avertissements concernant le mod phpBB SEO Avancé, il sont aussi valable pour le mod de webmedic, injecter les titres des sujets dans vos URL ne doit pas être fait à la légère.
Tout ce qui suit est bien entendu toujours valable, et sera enrichit des avancées "backportable" des mod Rewrite phpBB SEO.
Voici donc phpBB google keyword URLs 2.3.1 SEO MOD :
Code:
##############################################################
## MOD History:
##
## 2006-01-20 - version 2.3.1
## - Updated for phpbb 2.0.19
## - Fixed not well displayed code for metas
## - Fixed security leak for virutal folders.
## Before that www.example.com/phpbbfolder/path-that-do-not-exist/topic-titlexx.html is working and breaks all relative paths.
## Now this kind of thing is redirected to www.example.com/phpbbfolder/topic-titlexx.html with a 301.
## - Added Mozilla navigation bar handeling
Ainsi que
mx Google Sitemaps v1.0.1:
Ceci est le premier mod totaltement repensé de A à Z et qui préfigure de l'esprit dans lequel je shouaite faire évoluer cette suite.
Code:
##############################################################
## MOD Title: mx Google Sitemaps
## MOD Author: dcz <n/a> http://www.phpbb-seo.com/
##
##
## MOD Description: Solution modulaire pour générer des plans sitemap Google pour phpbb et mxBB PORTAL
## Ce mod va créer un sitemap index établissant la liste des sitemaps installés.
## Prêt pour phpBB, Knowledge Base et mxBB PORTAL (http://www.mx-system.com)
Le mod à été testé avec succès sur des forums contenant plus de 5000 sujets (+ pagination).
Pas de démo mx pour l'instant mais ça marche
Démo avec url rewriting :
SitemapIndex
Sitemap Forums
Forum Sitemaps
Page ajoutée
Installer ce mod est un jeu d'enfant, pour avoir de belles url réécrites, vous devez just utiliser les deux fichiers situés dans contrib/moded_4_mod_rewrite/ à la place de ceux fournit par défaut.
Pour mettre à jour depuis la version 1.0RC1 et RC2 Procédez comme pour une nouvelle installation, remplacez tous les fichiers.
Le grand avantage de ce mod est qu'il est totalement indépendant de phpbb, il ne modifie aucune ligne de celui ci et n'introduit à priori donc pas de failles.
Plus de switch Oracle & Postgresql donc plus de problèmes, si tant est qu'il n'y en ait jamais eû avec Oracle & Postgresql.
Pour la version DLP, en début de code :
Code:
// Change this to '.html' if needed
$Ext = '.php';
Et enfin : [DEV] mx SiteMaps Module V 0.0.1
Code:
##############################################################
## MOD Title: mx Sitemaps
## MOD Author: dcz <n/a> http://www.phpbb-seo.com/
## MOD Description: Ce module Crée des Plans de sites pour phpBB et, le cas échéant, mxBB Portal.
## Possibilité d'ajouter des liens depuis l'ACP, listes des derniers sujets actifs, mod Rewrite ...
## MOD Version: 0.0.1
##
## Installation Level: Easy for the Basics, Advanced if setting up mod_Rewrite.
## Installation Time: 3 Minutes for the Basis, a bit more if setting up mod_Rewrite.
Conçu de la même manière que mx Google Sitemaps, il est aussi simple à installer et vous fera de beaux plans de sites. Les MAJ seront très simples elles aussi, le mod marche et ne devrait pas beaucoup évoluer avant la release officiel.
Démo :
- Installation phpBB "Vanilla"
:?: Plan de Site
:?: Plan des Forums
:?: Plan du Froum n°2
Le mod de webmedic :
Ce mod assez semblable à tous ceux qui incluent le titre des post et forum dans l'url mais
il a la particularité d'être associé à tout un tas d'autre mod d'optimisation de référencement comme :
[*]Un mod rewrite qui inclus les titres des forums et des sujets, qui gère les titres des pages et produit des Meta tags dynamiques.
[*]une sitemap google rewrité ;
[*]un mod qui gère les erreurs (404 etc) et la sécurité (tentative de listing, worms, bad bots, formail, scripts php et pearl distants etc ..);
[*]un mod archive (permettant d'associer encore une serie de liens dur vers les sujets);
[*]manage bots mod; qui est capable de gerer les visites des differents bots et qui peut les aiguiller vers une template optimisée pour eux. Ce mod n'est actuellement abandoné à phpbb.com. Je l'ai testé tel quel avec phpbb 2.0.19 sans problèmes, mais je déconseille son utilisation, de toute façon son utilité est toute relative.
De plus le mod principale gère les meta tags de façon contextuelle.
INSTALLATION :
Avant toutes choses, installer le Guest session mod de cyber alien pour les sid:
cyber alien
- NOTE : Update de la version 2.3.0 à la version 2.3.1
MAJ 2.30 => 2.31 : voir le fichier update-2.30-2.3.1.txt situé dans le dossier extras/ - NOTE : Pour les utilisateurs de GFPORTAL :
des solutions éxistent.
A tester. - NOTE : Pour activer le mod rewrite avec easyphp :
Il faut ouvrir le fichier EasyPHP1-8\conf_files\httpd.conf et décommenter
(en enlevant le "#" devant) les 2 ligne adéquate soit :
Code:LoadModule rewrite_module modules/mod_rewrite.so #####et AddModule mod_rewrite.c
- phpBB google keyword URLs 2.3.1 SEO MOD
download it
Ce mod transformera les url des forum et topics :
-http://www.votresite.com/phpBB/viewtopic.php?t=xx devient -http://www.votre site.com/phpBB/titre-du-topis-vtxx.html
et
-http://www.votresite.com/phpBB/viewforum.php?f=xx devient -http://www.votresite.com/phpBB/titre-du-forum-vfxx.html
De plus les resultats de recherches sont eux aussi réécrit suivant les même règle, ce qui est très utile lorsque
des utilisateurs postent des url de messages trouvé en faisant des recherches dans le forum, cela évite de générer
des duplicates comme c'est le cas avec la majorité des mod rewrite disponibles.
Tous les mods groupés dans ce post fonctionnent avec le même format d'url, c'est tout l'interêt de cette "suite"
de référencement de forum phpbb.
Donc pour résumer, il faut, pour utiliser tout ou partie des éléments de la "suite" intaller le
phpBB google keyword URLs 2.3.1 SEO MOD.
Et mis à part le .htaccess, rien de plus simple.
Dans l'archive se trouvent plusieurs fichiers d'instructions et elle sont plutôt minimales,
la seule subtilité est qu'il y a un ordre à respecter (et donc des tests à chaque étapes).
L'ordre est le suivant :
- 1)phpBB-google-keyword-URLs-2.31.txt :
C'est le mod url rewrite + titre forum et posts.
Les parties à remplacer ou ajouter sont simple à trouver dans le code.
Chez ovh il faut par exemple ajouter des "/" devant /votredossierphpBB/
(ou les scritps si votre site est à la racine i.e : /viewforum.php).
Et puis, bien sur, le robots.txt :
Pour éviter les duplicates (plusieurs url pour une même page) tueuses de PR ( )
il vous faut créer un fichier nommé robots.txt, le placer à la racine de votre hébèrgement
et mettre cela dedans (ou à la suite de ce qu'il y a déjà le cas échéant) :
Code:User-agent: * Disallow: /dossierphpbb/post- Disallow: /dossierphpbb/updates-topic Disallow: /dossierphpbb/stop-updates-topic Disallow: /dossierphpbb/viewtopic.php? Disallow: /dossierphpbb/viewforum.php? Disallow: /dossierphpbb/index.php? Disallow: /dossierphpbb/error.php Disallow: /dossierphpbb/-br Disallow: /dossierphpbb/mark Disallow: /dossierphpbb/image- Disallow: /dossierphpbb/1- Disallow: /dossierphpbb/next Disallow: /dossierphpbb/arreter Disallow: /dossierphpbb/voir
Ce à quoi j'ai aussi ajouté, car je trouve ces page inutiles au référencement :
Code:Disallow: /dossierphpbb/posting.php? Disallow: /dossierphpbb/groupcp.php Disallow: /dossierphpbb/profile.php? Disallow: /dossierphpbb/memberlist.php Disallow: /dossierphpbb/search.php Disallow: /dossierphpbb/login.php Disallow: /dossierphpbb/faq.php
Pour finir, ceux qui aurait par exemple utiliser un autre rewriting, il faut interdire les anciennes pages, ce qui donne pour le mod de DLP :
Code:Disallow: /dossierphpbb/ptopic Disallow: /dossierphpbb/ntopic Disallow: /dossierphpbb/sutra Disallow: /dossierphpbb/setopic Disallow: /dossierphpbb/mforum Disallow: /dossierphpbb/ftopic Disallow: /dossierphpbb/forum
Evidemment, remplacez dossierphpbb par votre vrai dossier d'install phpbb, si il est à la racine,
reitrez simplement /dossierphpbb/.
En plus de cela, pour les anciennnes url rewrité, vous pouvez, une fois votre robots.txt en place,
signifier à google de ne plus tenir compte de celle ci en soummettant votre robots.txt là
en cliquant sur le lien système automatique de suppression d'URL.
Vos ancienne url devraient ainsi disparaitre des resultats de recherche environ 5 jours après la demande.
NOTE : Cette dernière manip retirera toutes les url interdites par le robots.txt chez google,
si vous n'aviez pas fait d'url rewriting avant, attendez une peu avant de la faire (dans le cas ou vous étiez déjà indéxé sur google),
car les anciennes url marchent encore, et il vaut donc mieux attendre un peut que google découvre les nouvelles avant de soumetre le robots.txt.
Le fait qu'il soit en place va lui indiquer de trouver petit à petit les nouvelles, sans qu'il retire les ancienne tout de suite.
Tant que celui là n'est pas en place, le reste ne sert à rien. Toutes les autres modifs sont optionnelles,
à partir de ce stade de l'installation, toutes les combinaisons de mods de la "suite" marchent,
le manage bot mod marche avec le cyber alien guest session mod moyennant une modification mineure (cf plus bas).
- 2)phpBB-keyword-title-optimizations-for-2.31.txt:
Ce mod optimise la façon dont les titres sont gérés par phpBB, principalement en les simplifiant de manière à
avoir uniquement le titre du forum et des post en titre de page.
Quand il dit :
Code:$page_title = "Your Top 3 - keywords/keyphrases - seperated by hiphens";
Code:$page_title = "Vos trois top keywords séparé par des - ";
- 3)phpBB-dynamic-keyword-metatags-for-2.31.txt:
Ce mod génère des balises <meta name="description" ... et <meta name="keywords" de chaque post à partir de leur
titres et contenus. Cela aide au référencement que chaque page ait une déscription qui corresponde au titre et une
selection de mots de la page comme keywords. Bien sûr la selection de mot cléfs est plus ou moins bien sentie,
mais les termes importants de chaque posts (répétés, mis en evidence etc) seront présents.
Dans le mod en question :
Code:AND t.topic_id = $topic_id LIMIT 25";
Le 25 corespond au nombre de mon clefs séléctionné par défaut. Personnelement je l'ai laissé à 25, trop de mot
cléfs ajoutent des termes inutiles et pas assez ne fait pas ressortir tous les bons. 25 est un bon compromis,
je trouve. En tous cas c'est incomparable avec une version normale de phpbb qui ne sort aucune balise meta keyword.
Ne pas oublier de remplacer YOUR DESCRIPTION & YOUR KEYWORDS par leur valeur souhaité dans cette partie du mod:
Code:$meta_description = '<meta name="description" content="YOUR DESCRIPTION">'; $meta_keywords = '<meta name="keywords" content="YOUR KEYWORDS">';
- Optimisation des meta keyword :
A lire pour filtrer les mots de manière simple :
http://www.phpbb.com/kb/article.php?article_id=30
Les metas keyword de ce mod sont en fait générées à partir de la listes des mots clefs de la fonction search de phpbb.
Il est donc possible de limiter la présence de certains termes dans ces balises et du même coup d'optimiser grandement
l'execution de la fonction de recherche de votre forum. De plus en allégeant considérablement les tables de recherche
(qui peuvent être vraiment énormes) de votre forum, vous y gagnerez en temps de chargement de manière générale sur toutes vos pages.
C'est un peu long, mais ça vaut le coup.
Principe :
A chaque nouveau post, phpbb compte tous les mots du message (en retirant ceux inclus dans le fichier search_stopwords.txt situé
dans les dossiers langues de phpbb), les compare avec ceux déjà présents dans la base, et le cas échéant crée de nouvelles entrées
ou augmente le comptage du mot (somme de toutes ses occurances dans le forum). La fonction qui génère les meta keyword récupère
les mots clefs dans les tables de recherche de phpbb ainsi crées en fonction de leur poids.
Vous comprendrez que plus votre fichier search_stopwords.txt comporte des mots, moins vous ferez de requètes sql pour incrémenter
ou ajouter un mot dans les tables de recherche, et que si vous enlevez de cette façon des mots inutiles au référencment
car inutile pour une recherche par mots clefs, vous faites d'une pierre trois coup :
1) Les métas keywords seront plus précises (beaucoup);
2) Votre systeme de recherche sera plus rapide car il ne s'encombrera plus de recherches sur des termes inutiles;
3) L'affichage et le postage seront optimisés sur votre forum.
Le problème numéro un, c'est que, les listes fournies par défaut sont pas suffisantes, et de plus, le code de la fonction
search qui doit normallement eviter de prendre en compte les mots de moins de trois lettres ne marche pas vraiment.
A la longue les tables de recherche deviennent un peu folklo si on ne fait rien.
Donc, primo, le code de Giefca pour ne prendre en compte au postage que les mot de trois lettre, cela fera autant de moins
à mettre dans le fichier search_stopwords.txt (je ne connais aucun mot clef pertinant de deux lettres) :
Code:# #--[ OUVRIR ] # includes/functions_search.php # #--[ CHERCHER ] # if ( $mode == 'post' ) { $entry = str_replace('*', ' ', $entry); // 'words' that consist of <3 or >20 characters are removed. $entry = preg_replace('/[ ]([\S]{1,2}|[\S]{21,})[ ]/',' ', $entry); } # #--[ REMPLACER PAR ] # if ( $mode == 'post' ) { $entry = str_replace('*', ' ', $entry); // 'words' that consist of <3 or >20 characters are removed. $split = explode(' ', $entry); $taille_split = sizeof($split); for ($i = 0; $i < $taille_split; $i++) { $split[$i] = trim($split[$i]); if ((strlen($split[$i]) < 3) || (strlen($split[$i]) > 20)) { $split[$i] = ''; } } $entry = implode(' ', $split); }
Ensuite, comme vos table ne sont pas encore optimisées du tout, il faut les reconstruire.
Il existe un exellent mod pour ça et tout a fait fonctionel : Rebuild Search.
Très simple a installer, il vous suffit d'éditer un fichier phpbb, ce mod est vraiment très utile.
Et une alternative toute simple, qui ne fait que retirer les mots des tables de recherches sans refaire toutes les tables :
http://www.phpbb.com/kb/article.php?article_id=30
Donc, une fois que vous l'avez installé, en faisant toutes les sauvegardes nécéssaires, rendez vous sur phpmyadmin et lancez cette commande sql :
Code:SELECT ls.word_id, ls.word_text, COUNT(wm.word_id) as entries FROM `phpbb_search_wordlist` as ls LEFT JOIN `phpbb_search_wordmatch` as wm ON ls.word_id=wm.word_id GROUP BY wm.word_id ORDER BY entries DESC LIMIT 0,100
Vous constaterez à ce moment à quel point vos tables de recherche sont polluées de mots inutiles aux recherches (sic).
Ouvrez votre fichier search_stopwords.txt (situé dans \language\lang_french) et commencez par enlever tous
les mots de une ou deux lettres (si bien sur vous utilisez les patch de Giefca), si il est vide créez le.
Ajoutez y tous les mots d'au moins trois lettres (si bien sûr vous utilisez le patch de Giefca, car si non,
il vaut mieux mettre les mots d'une et deux lettres aussi) dont vous ne voulez pas comme mot clef, tant
pour votre fonction de recherche que pour les meta keywords, en mettant aussi ceux sortants dans la liste
générée sur votre phpmyadmin (les mots inutiles de cette liste sont dans le top 100, alors ils risquent
encore plus de sortir dans les metas keyword s'ils sont présents dans un post).
Une fois votre fichier search_stopwords bien mis à jour, en oubliant pas qu'il faut un mot par ligne et sans
espace à la fin, vous l'uploadez à sa place et vous lancez le mod Rebuild Search depuis votre ACP, vous pouvez
choisir pas mal d'options, je vous conseille les paramètres suivants :
- Time limit : 250 c'est le timout d'execution de votre serveur, généralement 300s, 250 pour plus de sécurité.
- Starting post_id doit être à 0 pour une première utilisation ainsi que pour toutes les updates de search_stopwords.txt,
autrement le mod recomence au dernier post non traité. - Posts per cycle 50
Disable board : coché, cela evitera d'accepter un post pendant l'execution du script, ce qui n'est pas censé être
un problème dans l'execution de ce mod, mais si c'est 100 nouveaux posts peut être alors ...
Pour ce qui est d'effacer ou non les tables de recherche avant de lancer le mod, je pense qu'il est utile de ne pas
effacer les tables avant de les refaire uniquement si on effectue une partie seulement du traitement des posts.
Si non, autant les effacer direct (en ayant fait une sauvegarde avant bien sur).
Lancez la procédure, au bout des 50 premiers posts traités, vous verez l'avancement de la procédure apparaitre,
jusqu'à ce que ce soit terminé.
Un fois cela fait, relancez la requête sql cité plus haut et appréciez la difference.
Il restera peut être d'autres mots inutiles oubliés, parce qu'ils n'étaient pas précédement dans le top 100.
Qu'à cela ne tienne, mettez votre fichier search_stopwords.txt à jour et relancez le scripts.
Vous pouvez également vérifier les contenus de vos metas pour voir si des mots clefs inutiles mais moins
populaire ne seraient pas passés au travers.
Mettez a jour votre search_stopwords.txt en conséquence et vous aurez vite des meta keyword vraiment interessantes.
Pour les gros forums, comme l'execution du script peu quand même prendre pas mal de temps, essayez de limiter le
nombre de cycles dans cette procédure en travaillant bien votre search_stopwords.txt au départ et en attendant
d'avoir trouvé plusieurs nouveaux mauvais mots clefs avant de le relancer. Et faite cela à un moment ou votre
cite est peu visité pour ne pas refuser trop de monde
Pour les forums utilisants plusieurs langues, je conseile de mettre le même search_stopwords.txt avec tous les
mauvais mots clefs dans toutes les langues dans chaque dossier lang_langue/
Voilà.
- Optimisation des meta keyword :
- 4)phpBB-keyword-title-album-optimizations-for-2.31.txt: Ce mod concerne les utilisateurs qui ont installé le smartor album MOD.
- 5)phpBB-keyword-url-nav-links-for-2.31.txt: Nouveauté 2.3.1, permet la réécriture des nav links.
- 1)phpBB-google-keyword-URLs-2.31.txt :
- mx Google Sitemaps v1.0.0RC1
download it
Je place le tuto de l'ancien mod ici : http://forums.phpbb-fr.com/viewpost_588476.html#588476
Donc tout est dit dans le fichier install, sauf que désormais pour ajouter du contenu en dure il faut faire un truc du genre en suivant les prérequis décrits pour que le mod s'y retrouve en auto :
Créer deux fichier php par sitemap ajouté :
index_nomdufichier.php :
Code:<?php // nécessaire pour la sécurité if ( !defined('IN_PHPBB') && !defined('IN_PORTAL') ) { die('Hacking attempt'); exit; } if ( $is_index ) { //Output start if necessary if (!$started) { header("Content-type: text/xml"); $started = true; echo $I_header; } echo "\t" . '<sitemap>' . "\n"; echo "\t\t" . '<loc>URL</loc>' . "\n"; echo "\t" . '</sitemap>' . "\n"; } ?>
Ou "URL" doit pointer vers soit une url du type :
http://www.votredomaine.com/sitemap.php?terme
Vous pouvez choisir ce que vous voulez pour terme mais en minuscule et pas trop long.
Ou si vous activez le mod rewrite pour les sitemaps, une url du type :
http://www.votredomaine.com/nomdelasitemap.xml
Auquel cas il vous faut ajouter dans le .htaccess :
Code:RewriteRule ^nomdelasitemap.xml$ /sitemap.php?terme [L]
Cette partie fera que le mod intégrera directement dans l'index des siteamps la sitemap que vous voulez ajouter.
Ensuite creez un fichier :
sitemap_nomdufichier.php :
Code:<?php // nécessaire pour la sécurité if ( !defined('IN_PHPBB') && !defined('IN_PORTAL') ) { die('Hacking attempt'); exit; } $terme = ( isset( $HTTP_GET_VARS['terme'] ) ) ? TRUE : FALSE; if ( $terme) { //Lancement de la sortie de page header("Content-type: text/xml"); $started = true; echo $S_header; /* Ici vous pouvez coder en dure (un ti echo ou un ti include d'un fichier ... ) vos listes d'urls ou les créer automatiquement celon vos besoins */ // fin de la sortie de page echo $S_footer; exit; } ?>
Voilà, de cette façon, toutes les url de votre nouvelle liste seront bien affichées quand il faut. Pour l'installer, il vous suffit de l'uploader dans le dossier mx_ggsitemaps/includes/ et tout le reste (à part le .htaccess) se fait automatiquement
- phpBB Error mod 1.0.0
download it
error_mod_1.0.0_fr_pack.zip
A installer rapidement si vous changer d'url avec ce mod pour que les bots trouvent une page intelligente au lieux d'erreurs 404
qu'ils ne manqueront pas de trouver en suivant les anciennes url. Cela leur permet de concentrer les duplicates sur cette page et
de leur fournir tout de même les nouveaux liens vers le site.
De plus si un utilisateur clique sur un liens dans un moteur de recherche correspondant à une ancienne url du site, la fonction
search du mod affichera presque à coup sûr la page en question dans une liste de resultats.
Il se peut même qu'il fasse découvrir des 404 insoupçonnés (Qui au début m'ont fait penser à des bugs).
Par exemple, la css du thème que j'utilise et qui étais loin d'être parfaite, faisait référence à des background image
inexistantes et inutile. Je n'ai découvert cela qu'avec ce mod, car cela générais de vrai 404 à chaque page, bien que l'utilisateur
ne vois pas s'afficher la page 404 d'apache.
Et pour le .htaccess, celui que j'ai mis plus bas est pas mal allégé, l'auteur banne un bon paquet de bots par ce biais et bien
que j'en ait laissé un certain nombre, il y en a beaucoup plus au départ. Je me suis dit que ça allait peut être un peu trop
charger le serveur de tout mettre. Mais en définitive, ce qui est vraiment nécessaire c'est :
Code:#enable these to allow your Error Module to work. ErrorDocument 400 /votredossierphpBB/error.php?mode=400 ErrorDocument 403 /votredossierphpBB/error.php?mode=403 ErrorDocument 404 /votredossierphpBB/error.php?mode=404 ErrorDocument 500 /votredossierphpBB/error.php?mode=500
Si ça ne marche pas avec ça, pas la peine d'en mettre plus.
Le pack Fr contient tous les fichiers traduits ainsi qu'une traduction de l'install.
- phpBB keyword urls topics anywhere
Abandoné. Pas interessant de toutes façons.
- manage bots mod
download it
Je laisse ce lien pour ceux qui voudrait tout de même utiliser ce mod bien que la branche de dev principale de celui ci se soit
éteinte sur www.phpbb.com. En l'état actuel, il marche sans problème avec phpbb 2.0.19, à voir s'il sera mis à jour par la suite.
Ce mod permet, en plus de comptabiliser les passages des bots et de les montrer dans viewonline, de proposer au bots un template
optimisé différent de ceux des utilisateurs.
Concrètement, cela permet de se fabriquer une version de son template allégée de tous les liens inutiles et générateurs de duplicates.
Les bot s'y retrouveront donc plus facilement dans les forums.
Problème :
Il se peut que cette pratique soit prise pour du cloaking, en fait je ne suis pas sûr, et renseignements pris, je le suis encore moins.
Google semble s'être rescemment auto banni un page qui presentais des mots clefs differents à ses propres bots.
un des article à ce sujet.
Personnellement, je trouve que de presenter une page juste allégée de liens de toutes façon interdits par le robots.txt ou le .htaccess
n'est pas de la triche, car le contenu de recherche est strictement identique a celui présenté aux utilisateurs, il ne s'agit que
de preserver un peu de bande passante et de facilité le travail des bots.
Seulement en ces temps de blacklistage intensif, on est jamais trop prudent.
Du coup en poussant la parano à fond, le simple fait d'utiliser manage bot pour retirer les sid pourrait être pris pour du cloaking
(J'utilise le mod de cyber alien alors pas de problème vu que je les enlève à tout le monde, mais bon...).
Alors voilà, en attendant de voir une vrai position de google sur le sujet qui tracerait une limite franche entre
optimisation et tricherie, je préfère ne pas activer de template particulière pour google. Google & cloaking
Personnellement, sans penser tricher j'aurais repris mon thème en modifiant légèrement :
- index_body.tpl :
laissé que les liens vers les forums, mais en laissant toutes les images;
- viewforum_body.tpl :
laissé que les liens vers le forum les sujet et l'index, en laissant toutes les images des autres liens;
- viewtopic_body.tpl :
En ne laissant que les liens vers le sujet, le lien "top" et l'index, en virant les "citer" "mp etc, et j'ai laissé les images des autres liens;
- overall_header.tpl :
Le mien est fait d'images, je les aurai donc toutes laissés mais en virant leurs liens. Elagage du code java.
Tout cela aurait fait que les bots voient un forum ayant la même tête que celui que voient les utilisateurs,
mais que la version bot ne concerve que les liens utiles au référencement.
Après avoir fait cela, j'aurais utilisé text replacer (que l'on peut trouver ici)
pour remplacer toutes les occurances du nom de mon template dans tout ses fichiers d'un coup par le nouveau nom du nouveau template ainsi crée.
Je l'aurais ensuite uploadé et installé comme chaque template et assigné aux bots dans l'acp ("manage bot").
A part le fait d'avoir à se bricoler un template (l'exemple fournit est assez rude et pas complet), ce mod est simple à installer.
Il faut juste appliquer les instructions de INSTALL.txt (rien de plus dans UPDATE.txt)
De plus il s'avère qu'il peu fonctionner avec le guest mod de cyber alien moyennant un petit changement dand le code à appliquer :
Code:#Au lieu de : global $SID; if ( !empty($SID) && !preg_match('#sid=#', $url) && !IS_ROBOT ) #Mettre : global $SID; if ( !empty($SID) && !preg_match('#sid=#', $url) )
Ce mod est cencé avoir sa propre gestion des SID pour les bots, mais pour éviter d'être mal pris par google, je préfère garder celle de cyber alien et desactiver celle ci. - index_body.tpl :
++
dcz