La question revient souvent en ce moment (ici par exemple), alors j'ai fait un petit outil sans prétention qui vous indique si 2 pages sont hébergées sur la même classe C. => Test de la classe C de 2 adresses IP autres infos : Comparer les classes C de 2 adresses IP
si tu es incrits, tu peux savoir combien de sites sont rattachés à une IP, et tu dois même pouvoir voir les 3 ou les 5 premiers ... :wink:
Je suis un peu sceptique car j'ai regardé et cela voudrait dire que les sites hébergés par free (par exemple) ne pourraient pas faire de lien entre eux (si j'ai bien compris) car ils ont la même class C.
J'espère que cette rumeur est infondée : ce serait particulièrement stupide que des sites soient pénalisés pour cette raison.
Ce n'est pas possible que Google fasse une bétise pareille... J'ai plusieurs sites (tous différents) chez le même hebergeur et du coup ils ont tous la même classe C. Si je comprend bien plus aucun site ne pourrai (j'ai bien mis au conditionel) linker un autre site si il se trouve chez le même hebergeur sous peine d'être pénalisé ??? Ca va être chouette, l'avenir du web pour les BL : - "Salut, t'es interessé pour faire un lien vers mon site qui parle du même sujet que toi ?" - "Bien sûr ... Les surfeurs ont tout à y gagner. Au fait, t'es chez quel hebergeur ?'' - "Online" - "Ah ben non, le mien aussi. Ca va pas être possible !" :cry:
Beaucoup de référenceurs, notamment anglo saxons, "évitent" de créer des grappes de sites interconnectés situés dans la même classe d'IP. Est-ce que cela pose un vrai problème pour Google ? Je pense que non, mais il en est bien d'autres pour dire oui... Et il n'y a pas que Google... Pour les autres moteurs, il est probable que l'un d'entre eux au moins utilise d'une manière ou d'une autre ce critère. Il me semble avoir vu un article en ce sens sur Inktomi autrefois (mais je n'arrive pas à mettre la main dessus). Bon d'une manière générale, pour rassurer tout le monde, les seules conséquences visibles n'affectent dans la pratique que des sites très interconnectés, avec des liens réciproques, ou des masses de liens pointant des pages d'un site A vers un site B. Ce que cherchent à éviter les moteurs, ce sont les grappes de faux sites partenaires dont l'objectif est de faire monter le PR artificiellement... Bref, pour un seul lien, il ne faut pas se mettre martel en tête...
Bonjour, je ne vois absolument pas pourquoi de tels sites seraient pénalisés, pour la simple raison, qu'un interlinkage entre sites sur un meme serveur (ou un meme centre de données), peut etre totalement naturel..... je veux bien croire qu'éventuellement, des liens dans un tel cas aient moins de valeur car, la popularité rééle est bien sûr moins realiste en prenant en compte ces liens, mais une pénalité serait simplement illogique ! Par naturel j 'entends que chaque grande entreprise, peut avoir ses données dans un DC unique, et il est logique que les sites soient liés entre eux. donc, des systeme d'interlinkage avec des IP differentes, seraient surement un plus.... mais le contraire n'est pas négatif.
Je suis bien d'accord avec les derniers avis donnés. D'ailleurs tout dépend de ce qu'on appelle une pénalité ! Ca peut éventuellement être simplement la non prise en compte de certains liens ?
Je demande à voir si l'ami google prends vraiment en compte les classes d'ip... Ca poserait tellement de problème pour les mutualisés, ca deviendrait nimp. Et je vois mal les Hébergeurs donner des ip différentes (avec des classes différentes qui plus est) à chaque site hébergé...
Oui il les prend en compte forcement, au moins pour la géolocalisation, ensuite j'imagine que dans le cas du comptage de la popularité, il doit peut etre attribuer un facteur relativement infime à la propagation de celui-ci. Pourquoi ? parceque avec un serveur dedié par exemple, un particulier peut facilement créer une toile tres importante de sites, sans que celle ci ne soit destinée à autre chose que perturber le fonctionnement du moteur.
Voilà, je commence à mettre ça en oeuvre avec mes domaines : 1 domaine = 1 ip. Je l'ai fait sur un de mes domaines pour l'instant. Grosse surprise à laquelle je ne m'attendais pas : le temps de la propagation de la nouvelle ip, mon domaine revoie vers le premier site qui a été créé sur mon serveur... Et il n'y a aucun moyen d'y échapper, à part changer les dns pour transférer le site sur un autre serveur, une fois les dns propagés recréer le domaine avec nouvelle ip sur le premier serveur, et changer à nouveau les dns...
pour info j'ai mis à jour l'outil pour pouvoir analyser jusqu'à 10 URL d'un coup, et j'ai essayé d'améliorer la présentation des résultats pouvez-vous me dire ce que vous en pensez ? exemple ici j'ai repéré des bugs encore non expliqués liés aux résultats de la fonction gethostbyname() de PHP. Par exemple j'ai un doute sur les résultats pour france5.fr et m6.fr
Je trouve que la présentation est bien mieux ainsi. Un petit truc bizarre : si on tape une url fantaisiste (dfgfghfghgj par exemple ), on trouve une IP et une classe C, ça fait qu'on n'a pas intéret à faire une faute de frappe en tapant l'URL. Sinon, ça serait sympa que cet outil soit intégré à MyWRI avec un lien dans la page Détails, ainsi, les classes C des urls seraient comparées automatiquement à la classe C de notre site.
oui on trouve 194.146.224.100 comme adresse IP il doit y avoir un truc que je ne connais pas avec la fonction gethostbyname() la doc indique qu'en cas d'échec l'IP retournée est égale au nom d'hôte, ce qui n'est pas le cas dans cet exemple. je vais trouver... sinon j'ai noté pour MyWri. Peux-tu préciser ? Tu voudrais par exemple une rubrique qui affiche justement toutes les adresses IP et classes C des URL gérées dans ton MyWri ?
En fait, l'intéret n'est pas de comparer les classes C de nos différents sites. Dans Mywri, la page résumé est spécifique à chaque URL. Dans cette page, il faudrait mettre un lien qui permette d'entrer une ou plusieurs urls de sites qui ne sont pas à nous et de comparer leur classe C à celle de notre site. En fait, l'intérêt principal serait que ça éviterait de retaper notre url pour la comparaison. J'espère m'être fait comprendre, c'est assez confus
d'abord bravo pour le tool moi je suis entierement d'accord avec google et je pense qu'il faut arreter de le prendre pour plus bête qu'il ne l'est vu le nombre de server hebergeant des sites web dans les differentes range ip possibles en classe c il faut quand même une bonne dose de coincidence pour que des echanges de liens viennent du même range sans que les sites concernés n'appartiennent à un même propriétaire rog