Astuce Alternative à l'offuscation de lien

Nouveau WRInaute
Bonjour, je suis à la recherche d'une alternative à l'offuscation de lien. Je m'explique, je fais de l'offuscation de lien classique :

HTML:
<span class=”obflink” data-target=” _blank” data-url=”aHR0cHM6Ly93d3cudHJpbWFyZGVhdS5jb20v”>Lien test</span>

Code:
$('.obfuscated-link').on('click', function() {
    var url64 = $(this).attr('data-url');
    var url = window.atob(url64);
    var target = $(this).attr('data-target');
    window.open(url, target);
  });

Est-ce que ce type d'offuscation est néfaste pour le SEO ? Auriez-vous une alternative ?

Merci.
 
Nouveau WRInaute
Je suis curieux de connaître le but.
Pour faire court maillage interne : cocon sémantique.

En fait, je souhaiterais que ma page cible soit un service (par exemple construction de site internet), mais je n'ai pas trop envie de créer des liens en plein milieu de la page de service vers les pages intermédiaires pour ne pas "laisser filer" le lecteur. Du coup, les pages filles et petites filles seront dans la partie blog pour le lecteur, mais pas pour Google.
 
WRInaute passionné
Google est sensé comprendre le javascript oui.
Il faudrait faire un test avec une nouvelle page pas encore indexée pour être bien sûr, et voir si Google la trouve, mais je n'ai pas trop de doutes.
 
Nouveau WRInaute
Google est sensé comprendre le javascript oui.
Il faudrait faire un test avec une nouvelle page pas encore indexée pour être bien sûr, et voir si Google la trouve, mais je n'ai pas trop de doutes.
Du coup, comment faire pour les pages du type CGV, politiques de confidentialité, etc. pour qu'il n'y ait pas de jus Google qui parte pour chaque page ? Ces liens sont dans le footer de chaque page ? Si on met un événement JS supplémentaire (1ier mouvement de la souris) Google le détecterait encore ?
 
WRInaute discret
C'est facile pour Google de détecter un lien, il suffit d'avoir 100 visiteurs sous Google Chrome, les 100 personnes vont sur l'url (qui est bien caché) et normalement ton url sera détecté par Google.

Le robot Googlebot (tout seul) il n'existe pas, Googlebot c'est en réalité le navigateur Chrome de tous les internautes, chaque fois qu'un visiteur sous chrome consulte une url, l'url est envoyé dans les serveur de Google ensuite Googlebot peut la gérer comme il veut.

J'ai une preuve que cela existe:
- Plusieurs fois j'ai créé des pages invisible et ouvert publiquement, c'était des pages de construction (des démos) que je montrais à un utilisateur de Chrome (et moi j'suis sous Firefox) et comment c'est possible que cette URL qui n'est divulgué nulpart, peut apparaitre sur Google ? C'est forcément Chrome (et ou Firefox) qui envoie l'info à Google et ensuite c'est traité par Google : Googlebot etc.. et ensuite l'url apparait sur Google.fr


Google Chrome c'est un navigateur gratuit, Google ne gagne même pas de tune avec ça, par contre il gagne sur un gros truc qu'aucune personne n'est au courant, c'est que tous les navigateurs Chrome de tou les utilisateurs sont utilisés pour récupérer les urls, peut-être même que les urls sont envoyées sur les serveurs de Google et sont triés ensuite par Googlebot et ensuite leur IA il avance bien grâce à Chrome installé sur des millions de périphériques.

Rien qu'en allumant Chrome, dés qu'on met la souris sur l'input au centre de l'écran, vous avez vu le curseur de la souris change de place elle se met tout en haut dans la barre d'URL, Tapez "test" vous allez recevoir des suggestions de mots clés (ça vient directement des serveurs de Google) et si google chrome est capable de détecté des suggestions d'urls à distance, alors il est aussi capable d'envoyer l'url qui apparait sur cette barre dans les serveurs de Google ensuite Google il fait ce qu'il veut avec cette URL. C'est obligé que ca existe ça ... Google Chrome a été créé pour ça, pour aider Google et son IA ... ensuite chaque instance Googlebot (il y'en a peut etre des millions de Googlebot) sa parcoure presque toujours les même sites par jour et hop.. Il doit y avoir au moins 10 000 000 de Googlebot (dupliqué) mais ce sont grâce aux utilisateurs de Chrome que les 10 000 000 de googlebots sont lancés/spy pour aller dans les bons endroits.
 
WRInaute impliqué
je fais de l'offuscation de lien classique

Ce genre de faux lien où c'est une commande JS qui ouvre une page m'énerve en tant qu'internaute (par exemple quand le ctrl+clic ne fonctionne pas), suppose que JS soit activé (pas forcément vrai pour les lecteurs d'écran par exemple) et est globalement une source de problème en terme d'accessibilité. Au surplus, ça complexifie la mise en forme, puisqu'il faudrait traiter ces faux liens comme des balises <a>, et qu'à l'occasion d'un changement de thème ou autre, c'est un coup à y mettre le bazar.

Bref, mais ça n'engage que moi, le bénéfice escompté me semble assez minime alors que les inconvénients me paraissent réels.
 
Nouveau WRInaute
Ce genre de faux lien où c'est une commande JS qui ouvre une page m'énerve en tant qu'internaute (par exemple quand le ctrl+clic ne fonctionne pas), suppose que JS soit activé (pas forcément vrai pour les lecteurs d'écran par exemple) et est globalement une source de problème en terme d'accessibilité. Au surplus, ça complexifie la mise en forme, puisqu'il faudrait traiter ces faux liens comme des balises <a>, et qu'à l'occasion d'un changement de thème ou autre, c'est un coup à y mettre le bazar.

Bref, mais ça n'engage que moi, le bénéfice escompté me semble assez minime alors que les inconvénients me paraissent réels.
Il n'y a aucun inconvénient, à part le fait que ça nécessite que JS soit activé. En 2021, très peu de site fonctionne sans JS, jquery ou react : très de navigateur où JS n'est pas activé :).
 
WRInaute impliqué
Je ne suis pas un fervent défenseur de Google, mais il ne faut pas pour autant verser dans tous les excès et démêler le légendaire du véritable.

Le robot Googlebot (tout seul) il n'existe pas, Googlebot c'est en réalité le navigateur Chrome de tous les internautes

Googlebot existe bien. Google explore les sites via son bot et pas autrement. Il suffit d'analyser les logs serveurs pour en être convaincu, outre l'user-agent spécifique (à la limite, ça peut se forger) l'exploration se fait à partir d'IP spicifiques, qui sont propres à Google.

chaque fois qu'un visiteur sous chrome consulte une url, l'url est envoyé dans les serveur de Google ensuite Googlebot peut la gérer comme il veut

Pour le coup, c'est en partie vrai, mais ce n'est pas un gros secret, ça figure dans l'avis de confidentialité : « si vous avez activé "Améliorer les recherches et la navigation / Envoie à Google les URL des pages que vous consultez", les statistiques d'utilisation de Chrome comprennent des informations relatives aux pages Web que vous consultez et à l'utilisation que vous en faites ».

comment c'est possible que cette URL qui n'est divulgué nulpart, peut apparaitre sur Google ?

L'envoi d'URL par Chrome est une possibilité, ce n'est toutefois pas la seule, même à supposer qu'aucun lien vers la page n'existe. Pour la homepage, Google récupère probablement les NDD déposés auprès des regsitrar (du moins quand c'est possible). Pour le reste, je n'exclue pas que l'usage de certains services (genre Googlemap, Googlefonts, etc.) aient permis la récupération d'URL par le referer.

Google Chrome c'est un navigateur gratuit, Google ne gagne même pas de tune avec ça

À mon sens, la stratégie commerciale avec Chrome, c'est surtout de dominer le marché avec tous les avantages que cela inclus : être prépondérant sur les standards, et du coup avoir le produit le plus adapté au web. C'est simple : les webmaster font un site conçu pour bien tourner sur Chrome, parce que Chrome est largement utilisé, et les internautes utilisent Chrome, parce qu'il sait bien rendre les sites. Ça a été la méthode microsoft pendant des années.

Accessoirement, cela permet à Google de "pousser" ses intérêts en ayant la main sur la technologie. Imagine demain un navigateur qui deviendrait majoritaire sur le marché et intégrerait d'office une préservation avancée de la confidentialité avec un filtrage drastique des cookies publicitaire. Google ne veut pas ça pour AdSense, il faut donc que ce soit son navigateur qui domine le marché, sur lequel il peut définir sa politique de cookies, ou même quel est le moteur de recherche installé par défaut (ce que Google paye assez cher à Firefox et Apple).

Tapez "test" vous allez recevoir des suggestions de mots clés (ça vient directement des serveurs de Google)

C'est vrai, mais c'est autre chose : c'est la recherche prédictive, tout est encore décrit dans l'avis de confidentialité. À noter que ça ne renvoie pas nécessairement sur Google, mais sur le moteur de recherche sélectionné.
 
Nouveau WRInaute
C'est facile pour Google de détecter un lien, il suffit d'avoir 100 visiteurs sous Google Chrome, les 100 personnes vont sur l'url (qui est bien caché) et normalement ton url sera détecté par Google.

Le robot Googlebot (tout seul) il n'existe pas, Googlebot c'est en réalité le navigateur Chrome de tous les internautes, chaque fois qu'un visiteur sous chrome consulte une url, l'url est envoyé dans les serveur de Google ensuite Googlebot peut la gérer comme il veut.

J'ai une preuve que cela existe:
- Plusieurs fois j'ai créé des pages invisible et ouvert publiquement, c'était des pages de construction (des démos) que je montrais à un utilisateur de Chrome (et moi j'suis sous Firefox) et comment c'est possible que cette URL qui n'est divulgué nulpart, peut apparaitre sur Google ? C'est forcément Chrome (et ou Firefox) qui envoie l'info à Google et ensuite c'est traité par Google : Googlebot etc.. et ensuite l'url apparait sur Google.fr


Google Chrome c'est un navigateur gratuit, Google ne gagne même pas de tune avec ça, par contre il gagne sur un gros truc qu'aucune personne n'est au courant, c'est que tous les navigateurs Chrome de tou les utilisateurs sont utilisés pour récupérer les urls, peut-être même que les urls sont envoyées sur les serveurs de Google et sont triés ensuite par Googlebot et ensuite leur IA il avance bien grâce à Chrome installé sur des millions de périphériques.

Rien qu'en allumant Chrome, dés qu'on met la souris sur l'input au centre de l'écran, vous avez vu le curseur de la souris change de place elle se met tout en haut dans la barre d'URL, Tapez "test" vous allez recevoir des suggestions de mots clés (ça vient directement des serveurs de Google) et si google chrome est capable de détecté des suggestions d'urls à distance, alors il est aussi capable d'envoyer l'url qui apparait sur cette barre dans les serveurs de Google ensuite Google il fait ce qu'il veut avec cette URL. C'est obligé que ca existe ça ... Google Chrome a été créé pour ça, pour aider Google et son IA ... ensuite chaque instance Googlebot (il y'en a peut etre des millions de Googlebot) sa parcoure presque toujours les même sites par jour et hop.. Il doit y avoir au moins 10 000 000 de Googlebot (dupliqué) mais ce sont grâce aux utilisateurs de Chrome que les 10 000 000 de googlebots sont lancés/spy pour aller dans les bons endroits.
Si j'ai bien suivi, il n'est pas possible de faire des liens offusqué. Du coup tu n'en fais pas ou as-tu une autre méthode ?
 
WRInaute passionné
Du coup, comment faire pour les pages du type CGV, politiques de confidentialité, etc. pour qu'il n'y ait pas de jus Google qui parte pour chaque page ? Ces liens sont dans le footer de chaque page ? Si on met un événement JS supplémentaire (1ier mouvement de la souris) Google le détecterait encore ?

Il faut laisser ces pages CGV, Contact etc. telles qu'elles sont, pas de nofollow, pas de lien bidouillé, elles sont utiles à Google et il sait reconnaître ce que c'est. Les liens sont présents sur toutes les pages, MAIS en footer. Les liens en header et en footer (ou en barre latérale), Google comprend que c'est le menu, et qu'il est répété sur toutes les pages, les liens qu'on met en footer n'ont d'ailleurs pas grand poids (voire aucun).

Je ne connais pas de moyen de cacher une url à google, leur bot est fait pour tout trouver.
 
WRInaute discret
@unZero je ne fais jamais de lien offuscationné à par quelques fois pour des adresses emails dans les pages CGU pour éviter de recevoir du spam

Exemple :
Se rendre sur https://www.javascriptobfuscator.com/Javascript-Obfuscator.aspx
Je rentre ceci : document.write('<a href="mailto:adresse@mail.fr">Nous contacter</a>');
Je clique sur Obfuscate
Je récupère ceci :
Code:
var _0xb28d=["\x3C\x61\x20\x68\x72\x65\x66\x3D\x22\x6D\x61\x69\x6C\x74\x6F\x3A\x61\x64\x72\x65\x73\x73\x65\x40\x6D\x61\x69\x6C\x2E\x66\x72\x22\x3E\x4E\x6F\x75\x73\x20\x63\x6F\x6E\x74\x61\x63\x74\x65\x72\x3C\x2F\x61\x3E","\x77\x72\x69\x74\x65"];document[_0xb28d[1]](_0xb28d[0])
Et je le met entre deux <script></script>

Et ensuite je colle ça dans la page html, et ca a l'air fiable.


Est-ce que ce type d'offuscation est néfaste pour le SEO ? Auriez-vous une alternative ?

Si tu cherches à faire en sorte que ce lien (email) soit suivi par Google ou par des autres bots, alors oui c'est néfaste
Si tu cherches à savoir pour la page qui comporte ce genre de code offuscationné, ce n'est pas néfaste pour cette page a par pour le lien de l'email qui ne sera pas (trop) suivi car c'est offuscationné
 
WRInaute impliqué
En 2021, très peu de site fonctionne sans JS, jquery ou react

Beaucoup trop peu à mon avis.
Quand j'en vois certains qui dégainent jquery juste pour animer un bidule qui ne sert à rien (et alors qu'ils auraient très bien pu faire la même chose uniquement en CSS les 3/4 du temps)...
 
WRInaute impliqué
à par quelques fois pour des adresses emails dans les pages CGU pour éviter de recevoir du spam

C'est pour le coup un usage légitime de l'obfuscation. À noter que Google l'interprète en général assez bien (voir le code de la page depuis la GSC), mais ça fait un petit filtre face à ceux qui écument le web à la recherche d'adresses mails. C'est pas le Pérou, mais ça limite.

Par contre, j'opterai plus volontiers pour un script qui remplace le contenu de balises pas l'adresse mail "véritable" afin qu'un message apparaisse pour ceux chez qui JS n'est pas activité (du genre "Activez JS pour voir l'adresse de courrier électronique")

Quand j'en vois certains qui dégainent jquery juste pour animer un bidule qui ne sert à rien

La facilité de jquery permet l'usage de code là où on pourrait s'en passer. C'est un peu dommage, mais c'est finalement la rançon du succès, comme les GIF animés étaient la panacée du web dans les années 2000.

Les fonctions inutiles, c'est une chose, mais là où ça me gène c'est quand la fonction inutile prend le pas sur la fonctionnalité. À ceux qui mettent en place un script JS lors des clics droits avec une fenêtre qui vous dit "interdit de copier" : une place vous est réservée dans le 5e cercle de l'Enfer (et ça ne vous prémunit de rien, bien entendu).

Les malvoyants ne représentent peut être pas une part de marché digne de sacrifices, mais pourtant l'accessibilité devrait être une préoccupation majeure de tout site internet.

Il y a des mesures positives, par forcément simples : balisage correct, alt pour les contenus visuels, aria-label, contraste visuel suffisant des écritures, séparation du fond et de la forme, etc. mais ça tombe bien la plupart de ces fonctionnalités sont favorables au SEO (et depuis CSS 2, c'est un régal).
Par contre, de grâce, évitez de tomber dans les mesures négatives, c'est-à-dire des opérations non-naturelles qui dégradent l'accessibilité de votre site web, comme par exemple un contenu qui a besoin de JS pour fonctionner.
 
WRInaute passionné
comme les GIF animés étaient la panacée du web dans les années 2000.

Ca l'est de nouveau, tu ne vas pas assez sur les réseaux sociaux o_O

Pour en revenir sur l'obfuscation en générale, de nos jours il faut faire un site en ne pensant qu'aux visiteurs, si on part dans des trucs spécifiques visibles (ou invisibles) que par les robots, d'abord un jour ça ne marchera plus et c'est une course permanente perdue d'avance, au risque d'être sanctionné par Google même. Il faut trouver le bon équilibre entre SEO et visiteurs.
 
Discussions similaires
Haut