Pages satellites : google index-t-il correctement ?

Nouveau WRInaute
J'ai fait une recherche sur webrank à propos des pages satellites, on y dit tout et son contraire ... J'aurais quelques questions :

La plus importante : Est-ce-qu'en mettant un script du type
<script language="Javascript" type="text/Javascript"> parent.location.href="http://www.jourj.net/"; </script>
<script>
avant le body, google va-t-il indexer la page (prend-t-il en compte les javascript en fait ...)

Est-ce que google prend en compte correctement les pages satellites ?

Topheee
 
WRInaute accro
Google ne suit pas le javascript donc il indexera la page sans redirection, si tu veux te faire blacklister c'est la meilleure méthode actuellement 8)
 
WRInaute impliqué
exact, tous les gros font çà et ils sont encore la pour longtemps
par contre toi si tu es petit, ne t'y risque pas
 
WRInaute impliqué
La réponse de crindor est limite bidon... des référenceurs (gros) se sont fait bannir a cause de ces méthodes.

Ce n'est pas parcequ'il reste des sites comme ca qu'il faut en faire autant...

Maintenant tout dépend du risque que tu as envie de prendre !
 
WRInaute impliqué
euuuh non , pas tout a fait
je peux faire une liste de sites qui quoi qu'ils fassent seront toujours la pendant que toi , avec une malheureuse balise mal placée tu vas te faire ejecter

je vais meme te donner un exemple qui confirme bien qu'un "petit" n'a pas droit a l'erreur
j'ai un site sans triche où par une malheureuse faute de frappe, un mot encadré par le signe $ s'est retrouvé plusieurs pages
et bien, toutes ces pages et seulement ces pages à l'unité pret, se sont retrouvees comme etant des pages complementaires, autant dire que pour sortir ces pages là il faut que google n'est rien d'autre à afficher, et encore
 
WRInaute impliqué
Ca vient du fait qu'un 'gros' comme tu dis se fait référencé plus souvent, donc une erreur sera plus vite corrigé... rien à voir avec notre problème actuel de page sat...
 
WRInaute impliqué
si justement, les rois de la page sat c'est justement ceux-là
et avec de belle redirection bourrine en javascript par dessus le marché

essaie d'en faire autant tu vas voir, t'aura meme pas le temps de faire l'aller et retour chez ta boulangere que tu auras deja disparu
 
WRInaute accro
Crindor> tu mélanges tout ca n'a rien à voir.

Sinon en parlant de gros y'a eu un sous domaine des pages jaunes qui a été blacklisté aussi.
 
WRInaute discret
squawk a dit:
on verra dans quelques semaines
Tu veux dire par là que le premier en question sur https://www.google.fr/search?sourceid=na ... ement+lyon a du soucis à se faire?
Là, j'y crois moyen car non seulement ça fait plusieurs mois qu'il est à cette place et en plus c'est pas le seul dans ce domaine à utiliser de telles techniques : regarde le 2ième aussi :evil: (en plus leur redirection js est plustot comique) ... et idem, celui-ci est encore là depuis plus longtemp à cette place.

D'accord Netbooster n'est pas un "petit" site pour le surfeur lambda(mais qui s'y connait un peu quand même), mais apparement il est "petit" pour google.

D'ou ma question et au risque de me répeter :
selon quels critères et à partir de quand on devient gros :?:

... ou petit d'ailleurs :wink:
 
WRInaute impliqué
tu as la reponse toi-meme, regardes juste le nom du site auquel tu fais allusion
un gros c'est une enseigne connu et reconnu dans son secteur, un gros c'est une structure qui fait vivre du monde et qui est economiquement utile pour la communauté quand il genere des emplois, un gros c'est quelqu'un qui se peut se permettre d'attaquer n'importe qui en justice qui lui porterait prejudice y compris sa sainteté google himself
et on peut encore trouver d'autres qualificatifs du meme accabi

a l'inverse, un petit c'est quelqu'un qui travaille pour lui-meme ou en tout cas, qui n'aura pas a mettre des wagons de gens sur le pavé si on lui ote le pain de la bouche
c'est quelqu'un que personne n'entendra en cas de soucis et qui ne pourra jamais se plaindre
 
WRInaute impliqué
Etant pur amateur dans le domaine, je me permet de rebondir sur la question.

Dans quelques pages j'ai mis ceci :

<script type = "text/javascript" language = "JavaScript" src = "http://www.poui??es.be/?????.asp"> </script>

les ???? c'est pour ne pas montrer le nom du fichier

Cela appelle tout simplement une page asp qui enregistre dans une bd l'ip visiteur,et consort,... pour des stats.

Cela se trouve avant le body.

Ce script tombe t'il dans le sens de la discussion ci-dessus ? C'est à dire vue comme pages satellites ?

Merci de vos lumières.
 
WRInaute discret
crindor a dit:
tu as la reponse toi-meme, regardes juste le nom du site auquel tu fais allusion
un gros c'est une enseigne connu et reconnu dans son secteur, un gros c'est une structure qui fait vivre du monde et qui est economiquement utile pour la communauté quand il genere des emplois, un gros c'est quelqu'un qui se peut se permettre d'attaquer n'importe qui en justice qui lui porterait prejudice y compris sa sainteté google himself
et on peut encore trouver d'autres qualificatifs du meme accabi

a l'inverse, un petit c'est quelqu'un qui travaille pour lui-meme ou en tout cas, qui n'aura pas a mettre des wagons de gens sur le pavé si on lui ote le pain de la bouche
c'est quelqu'un que personne n'entendra en cas de soucis et qui ne pourra jamais se plaindre
... donc ces critères complétement subjectifs ne sont pas le résultat d'un algo ou d'un filtre et necessitent une intervention humaine.

qui n'aura pas a mettre des wagons de gens sur le pavé si on lui ote le pain de la bouche
bah ... dans le cas du premier en question, je doute qu'un blaklistage (mérité, quand même!!!) mette beaucoup de personnes sur le pavé car le net n'est pas leur activité première (... et puis tu ne me feras pas pleurer sur leur sort :wink: )
Par contre google ne semble pas avoir eu de pitié pour netbooster - a juste titre ou pas , ça je ne sais pas - mais eux c'est le net qui les fait vivre (... mais là non plus je ne vais pas pleurer).
 
WRInaute impliqué
... donc ces critères complétement subjectifs ne sont pas le résultat d'un algo ou d'un filtre et necessitent une intervention humaine.

je suis persuadé qu'il y a un filtre...protecteur, donc une intervention humaine a priori

Par contre google ne semble pas avoir eu de pitié pour netbooster - a juste titre ou pas , ça je ne sais pas - mais eux c'est le net qui les fait vivre (... mais là non plus je ne vais pas pleurer).

je ne connais pas assez bien netbooster pour en parler mais je ne pense pas que ce soit une grosse equipe et qui n'a en tout cas pas vocation de creer des emplois à grandes echelles
ce serait plutot un business enfanté par Internet qui vient brouiller les plans etablis par les vrais meneurs de l'économie virtuelle
donc je ne vois pas pourquoi le saint Thomas du net lui aurait passé une pommade protectrice

tout ca pour dire, si reellement il y avait les memes filtres pour tout le monde, je ne vois pas pourquoi certains passeraient à travers les gouttes, je n'ai pas fait l'ena mais quand meme j'ai des yeux pour voir
 
WRInaute passionné
ça n'a sitrictement rien à avoir avec gros ou petit, car Google indexe des pages et non des sites, dans un gros site une page aura si elle est bien référencée davantage de bakclinks et de poids que dans un petit site.
 
WRInaute impliqué
des pages sont toujours rattachées a un domaine, donc rien de plus facile
tu ne vas pas de me faire croire que quand le Dab scanne une page, il ne sait pas d'avance à quel domaine il a à faire
voyons !

d'ailleurs ta theorie ne tient pas
on a vu des sites completement desindexés pour seulement quelques pages non correctes et ce n'etait pas un blacklistage manuel mais l'application d'un filtre sur des "fautes" que sur certaines pages

donc oui il indexe des pages mais sait reagir sur l'ensemble du domaine donc je confirme mon hypothese
 
WRInaute accro
je ne connais pas assez bien netbooster pour en parler mais je ne pense pas que ce soit une grosse equipe et qui n'a en tout cas pas vocation de creer des emplois à grandes echelles
ce serait plutot un business enfanté par Internet qui vient brouiller les plans etablis par les vrais meneurs de l'économie virtuelle
donc je ne vois pas pourquoi le saint Thomas du net lui aurait passé une pommade protectrice

tout ca pour dire, si reellement il y avait les memes filtres pour tout le monde, je ne vois pas pourquoi certains passeraient à travers les gouttes, je n'ai pas fait l'ena mais quand meme j'ai des yeux pour voir

netbooster a une centaine d'employé, des gros sites us se sont fait blacklisté. Franchement je pense pas que la taille du site soit un paramètre, par contre faut vraiment abuser pour se faire blacklister, peu de sites se sont fait blacklister pour le moment même si la tendance risque de s'accroire, peut etre que les gros sites d'immo n'abusent pas encore assez :wink:
 

➡️ Offre MyRankingMetrics ⬅️

pré-audit SEO gratuit avec RM Tech (+ avis d'expert)
coaching offert aux clients (avec Olivier Duffez ou Fabien Faceries)

Voir les détails ici

coaching SEO
Discussions similaires
Haut