Please Help ! J'espère ne pas etre blacklisté

Nouveau WRInaute
Bonjour.
Je viens de créer un tout nouveau site, les 5 premiers jours, 650 url.

Mais voilà, dés le début de la création de ce site, j'ai appliqué une réécriture d'url en omettant le texte robots.txt, et j'ai peur que google trouve un contenu double, sous peu, depuis hier, j'ai inséré le fichier robots.txt pour qu'il ne trouve que les url réécrites.

Entre temps, j'ai fait le sitemap du site, google est venu crawlé dedans, mais je n'ai pas de résultat qui apparaissent.

La question est la suivante : est que des gens de l'entreprise google peuvent me certifié que mon site n'a pas été blacklisté à cause de la réécriture d'url qui a omis temporairement le robots.txt ?

Si c'est le cas, peuvent ils, s'il vous plaît, me le dé-blacklisté, je n'avais pas l'intention de commettre de faute?

Merci de votre compréhension ;)
 
Nouveau WRInaute
A part les outils permettant de connaitre PR , nombre d'URL qui pointent sur le site,

y a t il des outils pour savoir si on est blaclisté ?

Peut on contacter google pour arranger la situation ? si oui, qui ?
 
WRInaute passionné
Si c'est le cas, peuvent ils, s'il vous plaît, me le dé-blaclusté, je n'avais pas l'intention de commettre de faute?
Oui, il faut que tu le demandes en mp aux modérateurs du site... et si possible poliment... je suis sûr qu'ils comprendront... et ils te feront réapparaitre dans Google d'ici quelques heures... :arrow:
 
WRInaute discret
il suffit de faire un
Code:
site:
si tu n'as pas de reponse, tu es blacklisté (ou pas encore insere si c'est un nouveau site)
 
WRInaute discret
je pense que tu n'est pas encore dans gg, je ne pense pas qu'on puisse etre blackliste avant meme d'avoit ete inclus, mais bon on ne sais jamais...
 
WRInaute impliqué
Avec GG, il faut de la patience.

Attend au moins d' être dans l'index, d'avoir été crawlé (cela peut aller jusque 1-2 mois d'attente).

Et puis tu seras blacklisté,..........non, allez, je plaisante,..... :lol:
 
Nouveau WRInaute
Je comprends que google puisse faire son blacklistage, mais qu'il explicite clairement les regles du jeu :

_ déjà en informatique, on ne sait pas forcément si vraiment on fait une faute, tout système a ses failles, et si cela représente des inconvénients, les moteurs de recherche doivent en informer les webmasters, les avertir afin qu'ils se conforment aux règles d'un travail de bon qualité.

_ ensuite, derrière certains sites, il peut y avoir des intérêts non négligeables, des intérêts économiques, et l'activité comme celle de google n'est pas négligeable. Avant de blacklister, le mieux serait d'informer.

_ ensuite, il y a des regles de netétiquette, pourquoi les moteurs de recherche ne se concerteraient ils pas ensemble pour éditer et enrichir ces règles, en faire des normes sans cesse remises à jour , comme pour le format xhtml, mySQL. ?

Enoncer une transparence en quelque sorte.
 
WRInaute accro
krystian a dit:
Bonjour.
Je viens de créer un tout nouveau site, les 5 premiers jours, 650 url.
J'ai du mal à comprendre comment avec un forum avec 1 seul message et juste ce forum sur le site, car l'url d'accueil ramène sur le forum, on puisse arriver à 650 link ?
Dans ce cas, c'est vrai que google doit s'apercevoir que 95% du contenu de toutes les pages se ressemble -> duplicate content -> bye bye :arrow:
 
Nouveau WRInaute
J'ai du mal à comprendre comment avec un forum avec 1 seul message et juste ce forum sur le site, car l'url d'accueil ramène sur le forum, on puisse arriver à 650 link

Déjà, si itu jetais un coup d'oeil sur le site, et plus exactement le forum, tu verrais que ce forum est constitué de plus de 650 forums, c'est une suite du développement de la communauté phpBB2.

Comme pour les annuaires, c'est exactement la même chose, index, catégories et sous catégories.
Le développement de ce nombre d'url se fait par le moyen du php, l'un des langages assez puissants ces derniers temps.

Dans ce cas, c'est vrai que google doit s'apercevoir que 95% du contenu de toutes les pages se ressemble

1 Faux. Chaque url a des metas différents et un contenu différent, sur des liens qui n'ont pas de caractères GET

2 Que veut tu dire par bye bye ?? cela ne constitue pas une fraude au sens où google devrait me placert en blacklist.

3 la meme méthode s'est appliquée à ce forum de ce site http://krakowiakfrancja.free.fr, google.com m'index 730 pages, vient crawler tous les jours, et bigdaddy m'en donne 9400. La preuve qu'il n'y a ni faute, ni bye bye. La différence,vient dans l'application d'une SEO qui a été partielle, mais qui est entière maintenant.

4 ce que j'appelle double content, cela signifie, dans le présent cas cité plus haut , 1 page qui a plusieurs url. Cela les moteurs de recherche détestent. L'équation est 1 page 1 url, et pas plusieurs url qui ramèneraient au même contenu.

Et comme je te le dis, la puissance du php,alié avec mysql, permet de générer des pages différentes et nombreuses .
 
WRInaute accro
krystian a dit:
Dans ce cas, c'est vrai que google doit s'apercevoir que 95% du contenu de toutes les pages se ressemble

1 Faux. Chaque url a des metas différents et un contenu différent, sur des liens qui n'ont pas de caractères GET
Oui, mais ce que je disais, c'est qu'avec uniquement 1 message j'ai des doutes que le contenu arrive a être réellement différent.
Le poids de chaque page est d'environ 110Ko pour combien de mots différents. Je comprends maintenant pourquoi on dit que phbb est gourmand :wink:

http://www.webconfs.com/similar-page-checker.php donne 99% de similitude.
Voir https://www.webrankinfo.com/forum/viewt ... sc&start=0
 
Nouveau WRInaute
Tout à fait d'accord à ce niveau, sur le contenu.

Il faut savoir que surphpBB, meme si des méthodes SEO et de réécriture d'url sont proposées, l'essentiel du travail consiste à apporter un contenu, et qui plus est approprié au site.

Si on a plein de page de ce genre de forum indexées, mais vides, il se peut que google n'index que l'url, et le titre, ce qui est déjà pas mal

ensuite, j'ai pu retrouvé cette page car.... je ne suis pas blacklisté, ouf .
 
WRInaute occasionnel
depuis quand gg blacklist pour du duplicate content??? 8O

si ca serai la cas il y aurai plus beaucoup de site chez google parce que je pense que tout le monde a eu au moin un un fois du duplicate content!
 
Discussions similaires
Haut