Google déraille completement....

WRInaute discret
je pense que tu es pas encore totalement référencé, y a juste l'URL de ton site, le reste suivra d'ici quelques heures
 
WRInaute passionné
olivierb a dit:
je pense que tu es pas encore totalement référencé, y a juste l'URL de ton site, le reste suivra d'ici quelques heures
Ou quelques jours... considère cela comme un "placeholder" qui signifie que Google a trouvé ta page mais n'a pas encore eu l'occasion de la visiter.

Dan
 
Nouveau WRInaute
hetzeld a dit:
olivierb a dit:
je pense que tu es pas encore totalement référencé, y a juste l'URL de ton site, le reste suivra d'ici quelques heures
Ou quelques jours... considère cela comme un "placeholder" qui signifie que Google a trouvé ta page mais n'a pas encore eu l'occasion de la visiter.

Dan

Tu es optimiste...je suis comme cela depuis le 15 Juin....et j'étais super placé sur Google depuis 3 ans...Vraiment je ne comprends pas, je me demande si j'ai pas subis un piratage commercial ! Enfin, selon les gas de Google, c'est impossible...mais en tout cas ils ne m'ont jamais donné d'explications sur ce bug...
 
Nouveau WRInaute
hetzeld a dit:
olivierb a dit:
je pense que tu es pas encore totalement référencé, y a juste l'URL de ton site, le reste suivra d'ici quelques heures
Ou quelques jours... considère cela comme un "placeholder" qui signifie que Google a trouvé ta page mais n'a pas encore eu l'occasion de la visiter.

Dan

J'ai je pense un indice,lorsque j'execute la commande tracert sous dos, le chemin n'arrive pas jusqu'a mon site et bloque à la derniere étape, ne serait-ce pas pour cette raison que le robot Google n'arrive pas a extraire les pages ?
 
Nouveau WRInaute
Le meme probleme se produit sur mon site,
une douzaine de pages bien référencées jusqu'à maintenant subissent le meme phenomène, plus de titre, plus de description, plus de cache. Google affiche uniquement le chemin.

Je n'ai pas fait de modif sur ces pages recemment.
 
WRInaute occasionnel
Voila ce que j'ai pu constater qui irait un peu dans le meme sens : beaucoup de pages n'ont plus de cache depuis 2 jours environ, ou alors sortent avec une version de cache ancienne (alors que google les faisait sortir avec un cache beaucoup plus récent il y a peu de temps). Sur les sites concernés le bot a augmenté sa cadence de passage de manière assez nette.. peut etre un pb technique qui a concerné une partie de l'index.

Autre constation qui n'a surement rien a voir : des changements de Checksum sur certaines pages. Quelqu'un a-t-il deja constaté cela ? Vu la logique du checksum, je ne pensais pas qu'il pouvait changer...

Fred
 
WRInaute accro
iconso a dit:
Autre constation qui n'a surement rien a voir : des changements de Checksum sur certaines pages. Quelqu'un a-t-il deja constaté cela ? Vu la logique du checksum, je ne pensais pas qu'il pouvait changer...

Fred

J'ai toujours pensé que le checksum était lié a un site, pas a ses pages
 
WRInaute passionné
mahefarivony a dit:
J'ai toujours pensé que le checksum était lié a un site, pas a ses pages
Ben non... comme le PR est associé à une page.
D'ailleurs, tu auras sans doute remarqué que le checksum n'est pas le même avec et sans le / à la fin du nom de domaine.

Dan
 
WRInaute occasionnel
mahefarivony a dit:
J'ai toujours pensé que le checksum était lié a un site, pas a ses pages
Chaque page qui a un PageRank possède un checksum unique a priori. C'est la combinaison URL / checksum qui permet de récupérer le PageRank sur les datacenters. Par ailleurs quand un site est créé il peut se voir attribuer plusieurs checksum en fonction de l'URL exacte, par exemple :
- 1 pour h**p://www.site.com
- 1 pour h**p://www.site.com/
- 1 pour h**p://www.site.com/default_page

En fait Google semble mettre un certain temps a comprendre que les 3 pages ci-dessus sont strictement les memes ... (pas très malin ce Google :lol: )
Toujours est-il qu'il me semble que le checksum, une fois qu'il a été attribué, ne devrait pas changer (vu son role d'identifiant unique).

Fred
 
Nouveau WRInaute
bern a dit:
Le meme probleme se produit sur mon site,
une douzaine de pages bien référencées jusqu'à maintenant subissent le meme phenomène, plus de titre, plus de description, plus de cache. Google affiche uniquement le chemin.

Je n'ai pas fait de modif sur ces pages recemment.

Bern, je me demande si le probleme ne vient pas de notre serveur, essaye de faire un tracert sur ton site, le mien bloque en fin de sauts...c'est peut-etre pour cela que google plante. (mon mail: pianos arobase chavanne.com)
 
WRInaute passionné
Le dernier "hop" hw002.vianetworks.fr ne répond pas au ping, parce qu'il est probablement configuré ainsi (ou derrière un firewall bloquant les requêtes ICMP correspondantes) mais cela ne l'empêche pas d'être opérationnel.

Si un visiteur le voit, Google le voit aussi.
Tu peux toujours vérifier s'il n'y a pas un problème de routage en lancant le page validator du W3C

Dan
 
Nouveau WRInaute
hetzeld a dit:
Le dernier "hop" hw002.vianetworks.fr ne répond pas au ping, parce qu'il est probablement configuré ainsi (ou derrière un firewall bloquant les requêtes ICMP correspondantes) mais cela ne l'empêche pas d'être opérationnel.

Si un visiteur le voit, Google le voit aussi.
Tu peux toujours vérifier s'il n'y a pas un problème de routage en lancant le page validator du W3C

Dan

Dan, merci de ton message, effectivement, j'ai lancé un validator, et il me met FATAL ERROR NO DOCTYPE SPECIFIED
effectivement, je n'ai jamais eu de tag DOCTYPE dans ma page, sans doute google en tient-il compte depuis peu....De plus, je ne sais pas quoi mettre comme tag Doctype !!!
 
WRInaute passionné
Le manque de déclaration <!DOCTYPE..> ne gêne pas Google, mais c'est mieux d'en avoir une.
Si tu ne sais pas, tu es plus vraisemblablement en html 4.01 transitional.
Tous ceux qui sont en 4.01 strict ou en xhtml le savent , ils en ont assé ch... pour y arriver. :lol:

Mets ceci tout en haut de tes pages (première ligne avant <html>), et teste ton site:
Code:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">

Dan
 
Nouveau WRInaute
hetzeld a dit:
Le manque de déclaration <!DOCTYPE..> ne gêne pas Google, mais c'est mieux d'en avoir une.
Si tu ne sais pas, tu es plus vraisemblablement en html 4.01 transitional.
Tous ceux qui sont en 4.01 strict ou en xhtml le savent , ils en ont assé ch... pour y arriver. :lol:

Mets ceci tout en haut de tes pages (première ligne avant <html>), et teste ton site:
Code:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">

Dan

Merci Dan, effectivement ca marche. Mais je ne comprends toujours pas pourquoi mon site apparait avec l'url seule....car finalement cela n'a aucun rapport avec le code html...
 
WRInaute passionné
As-tu changé la structure de tes URLs depuis le 15 juin environ ?
Ce n'est effectivement pas normal dans le cas d'un site ancien, sauf changement d'URLs...

Dan
 
WRInaute discret
Bonjour,

Si je demande à google d'inscrire un site qui ressemble en tous points au tien...
Google ira le voir, et verra qu'il y a 2 sites identiques. Il aura envie de les virer tous les deux.
Maintenant, si je suis un concurrent : Je créé un ou plusieurs sites identiques au tien, je lance google sur ces sites, google voit le probleme, et vire tous les sites de son index.

A méditer...
 
WRInaute passionné
Galle,

Dans le cas de contenu dupliqué, priorité est donnée au site le plus ancien - le cache Google faisant foi. Il est exceptionnel que l'ensemble des sites dupliqués soit pénalisé. Je ne pense donc pas qe ton scénario soit possible.

Dan
 
Nouveau WRInaute
hetzeld a dit:
Galle,

Dans le cas de contenu dupliqué, priorité est donnée au site le plus ancien - le cache Google faisant foi. Il est exceptionnel que l'ensemble des sites dupliqués soit pénalisé. Je ne pense donc pas qe ton scénario soit possible.

Dan

Bonjour Dan,

Ce que tu viens de dire est en effet tres interessant. Il y a quelques mois j'ai cree un petit site qui reprend exactement une petite sous-partie de mon site principal. Or, je n'ai pas virer cette section du site principal (qui est le plus ancien) et au final j'ai 2 contenus identiques. Or, depuis 2 GD le petit site a disparu...

J'en deduis qu'il a du etre blackliste par Google (bon, c'est pas grave vu le peu d'importance de ce site).

Maintenant, d'apres toi, si le gros site fait un lien vers le petit, est-ce que Google considerera que finalement la duplication est "voulue" ou du moins "sue" par le gros site, ou mieux vaut carrement changer le contenu (soit le virer du gros site, soit le refaire dans le petit) pour que Google n'interprete pas ca comme des pages alias juste pour augmenter les liens (et en plus ce n'est pas le cas) :?:

Merci, et a bientot,

Olivier.
 
WRInaute discret
C'est pas evident ces histoires de duplicate content.
Car après tout pourquoi ne pourrait on pas avoir des pages avec le meme contenu sur deux sites differents. Exemple : un mode d'emploi pour un objet, une charte de forum, etc. Doit on introduire artificiellement des différences dans des pages qui ont tout lieu d'etre identiques pour ne pas subir le courroux du sacro saint robot.
Si oui, c'est triste, et il est mal fait ce robot !
Ils sont intelligents chez google, ils devraient trouver un moyen de détecter les duplicate frauduleux de ceux résultant d'une maladresse du webmaster ou d'un choix délibéré mais ponctuel pour certaines pages qui n'ont pas raison de ne pas être de contenu identique.

Par exemple sur WRI les posts "Règle d'utilisation du forum" sont ils spécialement interdits au bot ou bien les lit il tous et a l'intelligence de ne pas prendre ca pour du duplicate ?
 
Nouveau WRInaute
Ce qui peut faire peur , c'est qu'on jour on soit oblige de creer des sites/pages non pas comme on desire (dans les limites du respect de tous) mais en fonction de criteres d'acceptation, refus ou de ranking des outils de recherche, ce qui nous rendrait dependant d'eux ?
 
Nouveau WRInaute
hetzeld a dit:
As-tu changé la structure de tes URLs depuis le 15 juin environ ?
Ce n'est effectivement pas normal dans le cas d'un site ancien, sauf changement d'URLs...

Dan

Oui Dan, j'ai constaté que le serveur n'était plus le meme, mais les DNS n'ont pas changé. Mon adresse url n'a pas changé...
 
WRInaute passionné
Pianocha,

Si l'IP du serveur a changé, tu te trouves dans le cas de figure de celui qui change d'hébergeur. Il ne faut pas chercher plus loin...

Cela rentrera dans l'ordre automatiquement une fois que GoogleBot aura revisité toutes tes pages.

Dan
 
Nouveau WRInaute
hetzeld a dit:
Pianocha,

Si l'IP du serveur a changé, tu te trouves dans le cas de figure de celui qui change d'hébergeur. Il ne faut pas chercher plus loin...

Cela rentrera dans l'ordre automatiquement une fois que GoogleBot aura revisité toutes tes pages.

Dan

Si ce n'est que ca, tu me rassures...mais ca fait quand meme depuis le 15 Juin, et suite à 2 Google dance...
J'ai un autre doute, dans mon tracert, j'ai toujours un premier saut qui indique "Délai d'attente expiré" et le dernier saut ne passe pas comme tu l'as constaté, je me demande si Via netwoks n'a pas basculé mon site sur un serveur qui rame, et sans doute que Google n'attend pas...vu les milliards de pages qu'il doit visiter....
 
WRInaute occasionnel
olivier-g a dit:
Ce qui nous rendrait dependant d'eux ?
Oui on est complètement dépendant d'eux, et particulièrement de Google de part son importance ! Aujourd'hui avec le site qui est dans mon profil je connais pas mal de problèmes de ranking (j'ai des backlinks affichés mais un PR0 depuis maintenant plus de 4 mois) et ce n'est pas Google qui donnerait des explications, pour eux tout est "normal" ... c'est quand meme la première fois que je vois un pareil fiasco sur un référencement.

Sinon pour le duplicate content on a toujours tendance a exagérer un peu je pense, Google ne peut pas comparer 2 a 2 chacune des pages de son index (plus de 3 milliards tout de meme). La pénalité existe bien pourtant, mais comme on l'a fait constater c'est souvent le contenu le plus récent qui saute.. mais je ne suis pas de ceux qui pensent que ca pénalise tout le site, sauf si le site en question n'est basé que sur du duplicate content bien sur...

nico__p a dit:
Car après tout pourquoi ne pourrait on pas avoir des pages avec le meme contenu sur deux sites differents. Exemple : un mode d'emploi pour un objet, une charte de forum, etc.
Je ne vois pas le problème si ces pages sont pénalisées et/ou supprimées par Google, puisque je ne pense pas que tu espères ramener du monde sur ton site grace a la page de la charte de ton forum... :roll:

Fred
 
WRInaute discret
iconso a dit:
Je ne vois pas le problème si ces pages sont pénalisées et/ou supprimées par Google, puisque je ne pense pas que tu espères ramener du monde sur ton site grace a la page de la charte de ton forum... :roll:

Oui pour de telles pages leur disparition de l'index ne serait pas dramatique. Mais cela n'affecte-t-il pas tout le site (le blacklistage ou des pénalités) ?
 
WRInaute occasionnel
nico__p a dit:
Mais cela n'affecte-t-il pas tout le site (le blacklistage ou des pénalités) ?
Personnellement je ne pense pas, mais d'autre personnes ne partagerons pas mon avis sur ce forum. Trop de pages peuvent faire l'objet d'un duplicate content : intégrer une page complète de news en provenance d'un autre site, le co-branding, ce genre d'exemples ne manquent pas. Un site qui intègre ce genre de contenu n'a pas de raison d'être pénalisé dans son intégralité. D'ailleurs si tu cherches un peu dans Google, tu devrais trouver des tonnes d'exemple de duplicate content... parfois meme agaçant...

Fred
 
Nouveau WRInaute
Bonjour,

J'ai le même problème que pianocha :
Mon site www.distrimed.com était très bien référencé sur google depuis plus de trois ans. Depuis quelque temps il a pratiquement disparu de google, il ne reste qu'un lien sans commentaire ni cache quand on fait une recherche sur le mot "distrimed". Il reste aussi deux liens vers des pages des produits quand on fait la recherche "+distrimed +stethoscope".
J'ai pensé :
à un piratage (mais c'est peu probable),
à un problème de duplication-copie que google n'aurait pas apprécié (une copie conforme du site existe sur un autre serveur, dans un répertoire qui se nomme www.distrimed.com, mais c'est une copie de secours qui n'est pas active. Aucun lien ne dirige vers ce site de secours et les DNS pointent uniquement vers le site actif).
à un problème de serveur (mais mes logs ne m'ont rien montré d'anormal et je n'ai pas procédé à des modifications).

Un élément semble particulièrement instructif, il semble que pianocha soit hébergé chez vianetworks et c'est également là qu'est hébergé mon site. Est-il possible que vianetworks ait créé le probléme en modifiant certains paramètres (sécurité de son réseau, firewall ...) ?
C'est d'autant plus probable qu'en recherchant "vianetworks" sur les pages "France" on obtient également un lien bizare.
 
WRInaute discret
Havock a dit:
Un élément semble particulièrement instructif, il semble que pianocha soit hébergé chez vianetworks et c'est également là qu'est hébergé mon site. Est-il possible que vianetworks ait créé le probléme en modifiant certains paramètres (sécurité de son réseau, firewall ...) ?
C'est d'autant plus probable qu'en recherchant "vianetworks" sur les pages "France" on obtient également un lien bizare.
Havockas as tu lu
Tracert bloqué = Crawler go home ! ?
Ce thread contient les spéculations de pianocha sur les problèmes de référencement des clients de vianetworks.
 
Nouveau WRInaute
Havock a dit:
J'avais bien compris 8)

Notre second serveur est chez un autre hébergeur plus efficace. :p

Havock, Nous sommes dans la meme galère....mais selon Vianetworks tout devrait s'arranger le mois prochain...
Tu peux me contacter sur l'email: pianos arobas chavanne.com
 
Discussions similaires
Haut