Site pour obtenir des visites humaines

Nouveau WRInaute
Bonjour,

J'ai développé un site internet permettant aux autres sites internet d'obtenir plus de visites humaines.
https://free-web-traffic.sitecrea.fr/
Aucune demande d'argent, c'est totalement gratuit.

Le principe est simple, pour chaque site visité de façon automatique par votre compte sur Free Web Traffic, vous recevrez en échange une vraie visite humaine sur votre propre site.

Le surf est automatique depuis un onglet de votre navigateur, qui enchaîne de lui-même la visite sur les sites des utilisateurs.

À bientôt, j'espère.
Steeve
 
Olivier Duffez (admin)
Membre du personnel
Ah merci pour ce service, ça va vraiment rendre service à nos sites, il n'y a pas à en douter. De belles "visites humaines" naturelles qui viendront générer du CA et des conversions.
 
Nouveau WRInaute
He bien... oui sachant que google favorise le référencement des sites selon leur popularité, si il détecte des centaines de visites humaines, il améliorera son référencement sans aucun doute.
Je précise humaine car si vous le testez, vous verrez que c'est pas des bots, ce sont des visites dans un navigateur qui active le javascript, activé par d'autres utilisateurs de façon automatique en arrière plan dans un onglet de chrome par exemple.

Le principe est basique et fonctionne parfaitement.

De toute façon c'est totalement gratuit, transparent, et facile, ca coute rien d'essayer pour vérifier.

Ca me rapporte pas un centime et je l'héberge sur un serveur à mes frais.
 
WRInaute discret
Le principe des visionneuses et d'échange de visites existe depuis plus de 10 ans.
Ce n'est pas nocif mais ça n'apporte vraiment rien au référencement.
Ca peut juste gonfler un peu les rank comme alexa ou les stats pour vendre un site, sinon, ça ne sert strictement à rien, j'avais copieusement testé à l'époque...
 
Nouveau WRInaute
L'algorithme de référencement google évolue beaucoup, apparemment pour l'instant, il favorise un site plutôt qu'un autre très proche selon son taux d'activité .

La ou certains site visionneuses deviennent nocif, c'est lorsqu'il ne masque pas correctement le referal, et si google détecte l'origine non naturelle, il coup la publicité sur le site par exemple.

D'où la création de free-web-traffic.sitecrea.fr pour corriger ce problème, avec un tas de sécurités et vérification pour s'assurer que google considère bien la visite comme un humain, qui a visité le site directement sans avoir cliquer sur le lien d'un autre site.

C'est plus de travail qu'on l'imagine, et je pense que mon résultat est niquel, facile a utilisé, simple, avec les stats de visite de son lien, et des visite chez google analytics vérifiables pour son propre site.
 
Nouveau WRInaute
Techniquement, si l'auteur du site, n'ajoute pas de code google javascript en tête de page, et ne mesure pas le trafic de son site, je ne pense pas que Google puisse mesurer la popularité du site non plus. Du moins, si il le fait, j'ignore comment.

Sauf peut être le nombre de recherche google qui pointe vers le site, ou présence de lien externe du site chez d'autres sites.

Mais dès qu'on y ajoute, un code google Analytics, sitemap, pub google, ou autre service, AdWords, conversion, et compagnie, alors google connait le nombre de visiteurs, de type "non bot", donc qui déclenche une action javascript.

J'imagine donc que chez google pour chaque site, il doit y avoir un genre de score de popularité, avec l'option inconnus lorsqu'il ne lui est pas possible de le connaitre.

Quoi qu'il en soit, il est facile de constaté que les sites visités chaque jours (hors annonce) sont mieux placés parmi les résultats google.
Toutefois il y a clairement d'autres facteurs qui rentre en ligne de compte.

L'outil que je propose permet juste de maximiser ces chances, dans le pire des cas, juste au cas ou.
C'est pas comme si ca coutait quoi que ce soit.
 
WRInaute passionné
'imagine donc que chez google pour chaque site, il doit y avoir un genre de score de popularité

On a connu mieux comme fiabilité d'info

Le truc qui me gène c'est que tu tires vers le bas ton ratio de visiteurs de qualité et tu fous en l'air tes statistiques pour des résultats nuls ou presque..
 
Olivier Duffez (admin)
Membre du personnel
on n'a aucune preuve que Google se base sur ça (on a même des affirmations de Google qui dit ne pas utiliser les données de GA)
tu te bases sur quoi exactement ? tu sembles absolument vouloir que ce faux trafic soit considéré comme du trafic direct, c'est pour quelle raison ? J'espère que ce n'est pas l'étude de Semrush
 
Nouveau WRInaute
Donc on parlerait ici de ton taux de transformation que tu te calcule personnellement sur tes statistiques.

Depuis ton interface de https://free-web-traffic.sitecrea.fr/ tu dispose du détail précis de chaque visites comptabilisées, avec la date et heure de cette visite.
Il te suffirait donc de soustraire cette valeur dans ton calcule pour distinguer avec précision tes visites réelles de celles que tu ajoute avec cet outil.
 
Nouveau WRInaute
Pour répondre a Webrankinfo (admin)

Je n'ai aucune preuve que Google utilise la popularité d'un site comme variable pour augmenter son classement dans les recherches google.
Cependant aucune preuve de l'inverse non plus, de plus, lorsque je fais une recherche google avec des mots pas hyper précis, je ne tombe que très très rarement sur des sites désertés sans visites.

99% du temps ce sont des sites qui ont un taux de popularité supérieur ou apparemment supérieur aux autres suggestions des pages suivantes de résultats google.
J'en conclus donc que google favorise des sites visités à ceux que le sont moins.

Et donc, ca ne coute rien d'avoir pleins de visites en supplément.

Le point d'accès d'origine est important car sinon, google défavorise le site, et coupe la pub qu'il pourrait contenir. C'est pourquoi j'ai mis tant d'énergie pour que le système ne permette pas a google de remonter la visite depuis Free-web-traffic.sitecrea.fr
 
WRInaute accro
@steeve.cordier et que fais-tu du taux de rebond ?
Voilà une chose qui est assurément suivi par Google.
Si tu as 500 visites mais qu'elles restent entre 0 et 2 sec, crois-tu envoyer un bon signal ?
 
Nouveau WRInaute
@passion je suis content que tu me pose cette question, car c'est aussi une des fonctionnalité que j'ai anticipé.
Chaque visite automatique est définie sur une durée variable, entre 30 et 75 secondes, ce qui est la tranche la plus commune de visite d'un site internet. C'est justement cette valeur aléatoire qui rythme l'onglet de navigation automatique qui enchaine tout seul entre les sites des utilisateurs.

Ca évite aussi que chaque visite ai un nombre suspect de secondes identiques (ou tout rond).
 
Olivier Duffez (admin)
Membre du personnel
et ces visites génèrent combien de pages ? si c'est une seule, la durée n'a aucun intérêt, elle est considérée comme zéro dans analytics (et ça contribue au taux de rebond)
 
Nouveau WRInaute
Mm, je suis pas sur de bien comprendre la remarque.

Les visiteurs iront sur la ou les pages qu'a définie le propriétaire du site.
Donc si le propriétaire définie une seule Url alors il recevra que des visite sur cette url

Un peu comme un visiteur qui vient sur un article de blog, regarde la page puis s'en va

Si je regarde la définition chez Google du taux de rebond:
Le taux de rebond correspond au nombre de sessions avec consultation d'une seule page divisé par l'ensemble des sessions, ou au pourcentage de l'ensemble des sessions sur votre site au cours desquelles les utilisateurs n'ont accédé qu'à une seule page et n'ont déclenché qu'une seule demande au niveau du serveur ...

Le taux de rebond au final c'est une données purement personnel, pour savoir a quel point les visiteurs se baladent sur plusieurs page de son site.
Ca n'empêche pas qu'un site soit intéressant.

Un forum par exemple, la plupart des visites lorsqu'on se pose une question sur google, nous mène dans une seul page d'un forum, on y consulte la conversation, on y trouve ou pas sa réponse, puis en s'en va.

Du moins, la plupart vienne chercher une réponse dans une discussion, puis enchaine ailleurs. Leur taux de rebond serait donc bas, ce qui n'empêche pas le forum d'être bien référencé car il fournis rapidement une réponse.
 
Olivier Duffez (admin)
Membre du personnel
je n'ai pas dit que Google tient compte du taux de rebond, d'ailleurs comment pourrait-il le mesurer ?
j'ai dit que régler une durée de consultation de page me parait étrange, en tout cas dans le cas où une seule page est consultée, je ne vois pas à quoi ça sert (analytics considère la durée égale à zéro)
 
Nouveau WRInaute
Pourtant, si je prends quelques stats d'audience chez Google Analytics, il calcule bien la durée moyenne de sessions.

Exemple 1 avec 231 utilisateurs, 1:11 du durée moyenne, c'est un site qui n'utilise pas Free-web-traffic
Exemple 2 avec 475 utilisateurs et 25:25 moyenne de sessions, un site qui utilise Free-web-traffic

Du coup je pense que Google compte une durée de session avec l'intervalle de temps entre deux visites de la même ip.

Puisque le système automatique tourne en boucle, certains utilisateur laisse l'onglet ouvert en arrière plan qui enchaine les site et re visites plusieurs fois un site de la liste aléatoire.
 

Fichiers joints

  • dur1.jpg
    dur1.jpg
    145.6 KB · Affichages: 2
  • dur2.jpg
    dur2.jpg
    121.5 KB · Affichages: 2
Olivier Duffez (admin)
Membre du personnel
je crois que tu devrais te renseigner un peu sur la notion de durée de session
les cas où tu la fais artificiellement gonfler, c'est quand tu crées plusieurs pages vues par session. D'ailleurs, je me demande comment font ceux qui utilisent ton système pour exploiter leurs stats, vu que tout est faussé...

si j'ai bien compris, tu es persuadé que l'algo de Google se base sur des mesures qu'il ne peut pas faire dans plein de cas (Google Analytics n'a pas 100% de parts de marché) ? ça n'a aucun sens !
 
Nouveau WRInaute
Quoi qu'il en soit, depuis que j'utilise mon système, j'ai chaque mois Google qui me félicite de la progression du nombre d'impression, donc pour Google le site gagne en popularité.

Mon référencement semble s'être amélioré dans la même période quasiment sur plusieurs sujets.

J'en conclus que derrière le grand mystère de l'algorithme de référencement google, il y a une variable lié à la popularité du site.

De plus, un site qui n'utilise pas google Analytics, a de forte chance d'être moins bien référencé, voir pas du tout, ce qui me parait logique.

De même un site qui envois chaque jour son sitemap a google sera sans doute mieux référencé qu'un autre qui ne le fait pas.

Cependant, je n'ai aucune preuve, je connais pas la méthode précise de google pour référencé et classé les sites parmi les résultats, je ne fais que des constats sur une dizaine de sites.

Après, chacun vois midi à sa porte, je propose juste un outil qui me semble pratique. Avoir son site qui s'ouvre chez pleins de personnes, même si elles ne sont pas devant l'écran, ca me semble toujours bon a prendre, ca ne coute pas un centime.

Clairement, un forum comme webrankinfo.com ne semble pas en avoir besoin, contrairement aux sites de boulangerie et artisan en tout genre, blog, site internet qui démarre etc..
 
WRInaute impliqué
Ne prends pas mes remarques (ni je suppose celle des autres) comme une critique du travail que tu viens aimablement présenter ici. Mais nécessairement, on s'interroge sur ce forum sur les techniques de référencement, et si le trafic naturel était un critère réel de référencement, alors pourquoi pas dans l'idée payer pour "doper" son trafic (certains le vendent d'ailleurs).

Mais démêler le vrai du faux est nécessaire pour prendre en SEO les décisions qui s'imposent. On se laisse facilement avoir, notamment par les corrélations, qui sont soit de pures coïncidences soit des simples corrélations (et donc pas des causalités).

Un site est-il bien placé dans les SERP parce qu'il est largement visité, ou est-il largement visité parce qu'il haut dans les SERP ?

Oui, les sites "populaires" sont mieux référencés que les autres, mais, à mon avis, parce qu'ils envoient pleins de signaux qui les rendent populaires (et non parce qu'ils ont plus de visites) : de nombreuses pages (donc qualité du linking interne), une notoriété naturelle qui amène des BL, un contenu plutôt de qualité, etc.

Quant à l'utilisation d'Analytics pour influencer le classement, on a pas mal d'articles.

Par exemple, celui-ci est intéressant Google Comments on Idea It Uses Google Analytics for Ranking Purposes, il explique que l'intérêt de Google de se lancer sur le marché de l'analyse du trafic s'est fait pour répondre à un besoin des marketeux qui voulaient estimer le revenu d'une page pour y mettre de la pub.

Tweet de John Mueller :
We don't use Google Analytics in Search

De plus, un site qui n'utilise pas google Analytics, a de forte chance d'être moins bien référencé, voir pas du tout, ce qui me parait logique.

D'autres se sont posé la question, et ont fait des tests en comparant le trafic avant / après l'installation d'Analytics (https://www.seoblog.com/analytics-affect-rankings-seo/). Je te laisse voir les hypothèses, et la réponse.

Ce serait aujourd'hui une assez mauvaise idée de la part de Google, car ce serait perçu comme constituant un abus de position dominante.
 
Nouveau WRInaute
@emualliug Je comprends bien le débat, et même le point de vue du vielle article de 2016 joint dans ton message.

Mais en dehors de ces théories du complots, et analyses qui se contredisent, si on adopte un raisonnement simple.

En gardant en tête que tout est relatif et qu'il faut partir du principe que Google ne se comporte pas de la même façon selon le type de site internet.

Premièrement, sans google Analytics, il y a de fortes chances que google ignore même l'existence d'un site internet. On ne peut pas le blâmer pour ca.

Ensuite, lorsqu'il connait le site internet, il doit le positionner dans une de ces cases, et savoir si il doit le scanner souvent ou pas, a quel profondeur, etc..
Enfin, lorsqu'il a scanné le site il lui faut un algorithme (ou intervention humaine mais peut probable) pour catégoriser ce site internet.

Lorsque le site est catégorisé, un nouveau comportement de Google spécifique à cette catégorisation lui est attribué. Il ne va pas scanner de la même manière une boutique en ligne et un forum et encore moins un blog avec de la google pub dedans.

Pour terminer, le vrai pouvoir de google sur notre monde, c'est son choix de classement des sites parmi les réponses. Cet algorithme de classement est très probablement complexe, il doit relier une recherche à des résultats, incluant aussi le pays d'origine de la recherche voir même la localité. L'idée principal de cette algorithme est de satisfaire au maximum la personne qui recherche avec des résultats les plus pertinents possible.

Si l'on souhaite connaitre le fonctionnement de cette algorithme, il nous suffis de ce demander, qu'est ce qui nous serait le plus pertinent, le plus logique, le plus attendu.

C'est mon opinion personnel, et c'est comme ca que je vois les choses.

Dans ma carrière de développeur de site internet, j'ai réalisé des dizaines de sites web, qui pour certains sont passé d'inconnus à la première page de recherche google.
Pour apparaitre parmi les 100 premières pages de google, il faut soit qu'un site très connu diffuse votre lien plusieurs jours, soit que vous ajoutiez Google Analytics à votre header. La seconde option est bien plus facile.

Ensuite, soit vous payez google pour devenir une annonce, soit votre lien est très présent sur la toile, et hop, vous serez en première page.

Enfin, pour être en première page de google sur certaines recherches assez précises (pas de terme générale c'est mission impossible), il faut avoir optimiser son référencement naturelle au maximum, et prouver à Google que votre site n'est pas un site fantôme.

Selon mon ressentie, si un site vitrine est en concurrence avec d'autres sites du genre, google rangera mieux ceux qui prouvent recevoir des centaines de visites chaque jour.

D'ailleurs ce serait facilement vérifiable qu'en on y pense. Avec un mot qui n'existe pas encore, on y construirait deux pages web sur deux domaine différents, avec ce mot dans les méta les h1 etc..
L'un des deux site est sur google Analytics, et l'autre pas. On va vite voir que celui qui est sur google Analytics sera dans les résultats mais pas l'autre, ce qui est logique.

Ensuite on y met les deux sur google Analytics, l'un des deux serait sur https://free-web-traffic.sitecrea.fr/ et l'autre pas. Après plusieurs semaines, si nos deux sites ont des contenus différents mais parle a peut pret autant du même sujet, avec le même nombre de fois la diffusion du mot inventé et unique. On pourrait y constaté que Google range en premier celui dont il est sur qu'il est souvent visité.
 
Olivier Duffez (admin)
Membre du personnel
Parfois en SEO on peut affirmer des choses. C'est rare, mais ça arrive.
Par exemple, je peux affirmer que tu as tort quand tu dis "sans google Analytics, il y a de fortes chances que google ignore même l'existence d'un site internet."

Tu sembles mélanger les choses. Ou ne pas bien connaître le fonctionnement de Google.
ça décrédibilise tout le reste de ton raisonnement !
 
Nouveau WRInaute
Il y a de fortes chances que Google ignore même l'existence d'un site internet.

Les autres chances moins fortes sont :
- Diffusion du lien sur des sites souvent visités par google (plus compliqué qu'ajouter une ligne de code google)
- Diffusion du lien sur des sites moins souvent visité (beaucoup plus long)
- Lancer les processus de référencement Bing, Yahoo, pour qu'avec rebond Google apprenne l'existence de son site (super long aussi)

En même temps, google teste pas sans arrêt des noms domaine qui n'existe pas pour vérifier si il y a un site dessus...
 
Discussions similaires
Haut