Cryptage du code source et bonne lisibilité par les moteurs.

Nouveau WRInaute
Bonsoir,

J'ai plusieurs fois consulté les sujets existants dans WRI sans trouver de réponse précise aussi je me permet de lancer ce sujet pour, éventuellement, me permettre d'avoir une confirmation pouvant porter sur certains points de mes travaux en cours.

Je passe sur le débat maintes fois tenu de la capacité réelle de pouvoir protéger un code source en html ou javascript par une méthode de cryptage puisque, à priori, le visiteur reçoit une page html dans son navigateur et, qu'à priori toujours, l'algo qui l'a codé à son envoi est délivré sur le poste visiteur pour que son navigateur puisse lui représenter une page html classique.

De la même manière mes essais actuels portent sur un mode me permettant de rendre visible le code crypté de tel sorte qu'un outil comme "Lynx viewer" puisse l'afficher en totalité et sans problème, ce qui tendrait à me faire penser que les robots des moteurs devraient savoir lire ce même code comme s'il était en mode texte classique puisqu'ils sauront l'interpréter tout comme le fait "Lynx viewer".

La réponse que je n'ai pas trouvé dans les discussions déjà tenues et qui sont assez anciennes (2002, 2003, 2004...) consiste à savoir si aujourd'hui on dispose d'autres informations concernant des incompatibilités existantes de codes sources cryptés avec le mode d'action des robots et leur capacité à indexer correctement les contenus cryptés.

Cette question répondra à celle qui se pose de la qualité, voir même de la possibilité de faire référencer correctement des textes, documents ou pages qui auront été cryptés.

Mes recherches ici à WRI et sur le web ne m'ont pas apporté d'éléments d'appréciation nouveaux ou suffisants.

Pour illustrer mon propos j'ai mis en ligne un petit site de 6 pages à l'adresse : http://www.technologies-industrie.fr dont le code est entièrement crypté pour mes essais et je donne l'url du site sur lequel il est possible de tester du code avec "Lynx viewer" en ligne et sans installer le programme : http://www.yellowpipe.com/yis/tools/lynx/lynx_viewer.php

Je sais qu'il y a parmi vous de nombreux webmasters aguerris ayant l'expérience de cette problématique, aussi, si vous pouviez me faire un retour d'infos ou des commentaires sur ce sujet celà m'aiderait dans la poursuite de mon travail en cours.


Polyèdre
 
WRInaute impliqué
Autre question bête : pourquoi crypter ?
dans l'ére de l'open source et du web 2.438, codons propre et montrons le ! :mrgreen:

voila désolé de ne pas apporter plus de réponde que mon prédecesseur ^^
 
Nouveau WRInaute
"nickargall" : oui !. car je teste également la possibilité de sélectionner le s navigateurs pouvant accéder au site et dans le cas de celui que j'ai mis en ligne il n'est visible que sous IE-6 et IE-7.

Ces choix n'ont évidemment rien à voir avec un ostracisme quelconque envers Firefox, Opéra ou Netscape mais simplement que nos tests actuels sont faits pour nous assurer que nos visiteurs professionnels qui naviguent à plus de 98% sous Internet Explorer voient s'afficher correctement nos pages.

Sous "FF" en descendant la page blanche avec l'ascenceur le texte codé doit apparaître.
 
Nouveau WRInaute
"NxtGen" : pour en maîtriser le savoir-faire de manière efficace, ce qui bien sûr, ne préjuge en rien du besoin de crypter systématiquement le code source.
 
WRInaute accro
contenu javascript = pas d'indexation.
Ici, tes utilisateurs IE verront peut être ton contenu, j'en sais rien.
Mais les moteurs ne verront rien.
 
WRInaute accro
Re: Cryptage du code source et bonne lisibilité par les mote

Polyèdre a dit:
De la même manière mes essais actuels portent sur un mode me permettant de rendre visible le code crypté de tel sorte qu'un outil comme "Lynx viewer" puisse l'afficher en totalité et sans problème, ce qui tendrait à me faire penser que les robots des moteurs devraient savoir lire ce même code comme s'il était en mode texte classique puisqu'ils sauront l'interpréter tout comme le fait "Lynx viewer".
Ben voilà, tu as tout dit : les moteurs le verront comme lynx viewer et même comme FF, c'est à dire aucun contenu :lol:
PS : tu l'as essayé cet outil avec ta page ?
 
Nouveau WRInaute
Bonjour,

Idem que kazhar : les robots des moteurs ne seront pas capables d'interpréter ton code, de la même manière qu'un navigateur ayant Javascript desactivé ne pourra pas "servir" la page.
 
Nouveau WRInaute
"Leonick" : oui !. testé avec "Lynx viewer" à l'url mise ligne dans mon post et Lynx affiche sans problème la totalité du code crypté.

C'est d'ailleurs pourquoi je me posai les questions :

1èrement = les moteurs voient-ils le code crypté ?.. reponse : oui puisque Lynx, navigateur en mode texte le voit.

2èmment = voyant ce code crypté peuvent-ils l'interpréter et l'indexer ?.. réponse : (l'idée m'en ai venue cette nuit et j'ai testé ce matin) non parcequ'en lançant "XENU" sur le site crypté il ne met dans son rapport que la seule URL de la page "index.html" ce qui prouve qu'il n'a pas pu lire les autres ni donc le contenu crypté de ces pages.

CQFD !..

Que Firefox ne voit qu'une page blanche est normal, j'ai indiqué dans une réponse précédent à "nickargall" que je bloque, pour ces tests, les navigateurs autres que IE-6 et 7.

"kazhar", je te confirme que les visiteurs sous IE-6 et IE-7 voient le site tout à fait normalement (tests multiples effectués par des partenaires au 4 coins du pays)
 
WRInaute accro
Quel est l'intérêt ? à par de géner certains internautes qui ont javascript désactivé ou restreint (cas de certaines entreprises où l'admin réseau configure ses PC).
Si c'est pour éviter de se faire récupérer le contenu, il est relativement facile de faire un parseur qui va reproduire le texte tel que le voit le navigateur.
Je ne pense pas que la méthode de codage change sensiblement selon les différentes pages.
 
WRInaute accro
Leonick a dit:
Quel est l'intérêt ? à par de géner certains internautes qui ont javascript désactivé ou restreint (cas de certaines entreprises où l'admin réseau configure ses PC).
Si c'est pour éviter de se faire récupérer le contenu, il est relativement facile de faire un parseur qui va reproduire le texte tel que le voit le navigateur.
Je ne pense pas que la méthode de codage change sensiblement selon les différentes pages.
Oh bin j'ai ma petite idée concernant lemotif
 
WRInaute accro
j'ai bien vu ça sur IE, mais comme de toutes façons les moteurs ne reconnaissent pas le J :lol:
Enfin c'est un bon moyen pour ne pas se faire piquer son "travail". Un site mal référencé sera mal connu et on aura moins de personnes ayant envie de le copier :lol: :lol:
 
WRInaute accro
Leonick a dit:
j'ai bien vu ça sur IE, mais comme de toutes façons les moteurs ne reconnaissent pas le J :lol:
Enfin c'est un bon moyen pour ne pas se faire piquer son "travail". Un site mal référencé sera mal connu et on aura moins de personnes ayant envie de le copier :lol: :lol:
Je l'ai dit dans mon post d'avant le précédent, que c'était bien trouvé :)
MAIS le test avec Lynx ne permet pas de préjuger de la capacité des moteurs à décoder les scripts, seulement de la capacité des interpréteurs des navigateurs !
 
Nouveau WRInaute
"Szarah" : oui, tu as raison et c'est bien ce que je souhaite confirmer.

"Leonick" : le site exemple est crypté pour réaliser ces tests et ne l'est pas dans sa mise en ligne habituelle, il sera "décrypté" dès que j'en aurai fini avec mes tests (il y en a d'autres). Je ne pense pas que nos visiteurs "lambda" se trouveront devant ce dilemme, je doute même beaucoup qu'ils soient nombreux à vouloir aller voir le code source de la page qu'ils sont en train de lire, alors aller utiliser un parseur !!!..

Mais je n'exclue pas que certains visiteurs puissent vouloir le faire et donc j'étudie les possibilités de rendre moins facile (pour le plus grand nombre) ces actes de copies non autorisées voir même, comme nous l'avons déjà connu, de plagiat pur et simple de certains de nos contenus.

Je ne parle pas de nos images ou de nos photos, celles qui sont mises en lignes ne nous posent pas de problème quand elles sont copiées, un bon nombre d'entre elles figurent dans les BD de Google, Yahoo ou WLS.

"Szarah" : Bien vu !..

"Leonick" : mon "travail" ne se situe pas là, j'ai répondu à "NxtGen" sur ce point plus haut.

"Szarah" : C'est exactement le point que je voulais éclaircir de manière certaine pour cette action très précise sur le code.

Vos remarques sur le cryptage (pris en tant que tel et d'une manière générale) sont pertinentes, je les partage et je connaissais déjà ce qu'elles indiquent.

Contrairement aux "clins d'oeils" (ou sourires) faits sur le résultat qu'obtiendra un code crypté, c'est pour justement optimiser le référencement des sites concernés que, comme je l'ai déjà dit auparavant, "c'est dans le but de maîtriser" de manière certaine les effets du cryptage de passages de texte ou de certains documents inclus dans des pages de code normales et restées "claires" que je mène ces tests.
 
WRInaute accro
Au mieux, les moteurs arriveraient à comprendre le contenu, comme ils le font pour du pdf, ils proposeraient alors l'équivalent en html, certe dégradé dans le cas du pdf, mais toute la protection serait HS :roll:
 
Nouveau WRInaute
"Leonick" : J'avais fait ce rapprochement avec cette capacité qu'ils ont à lire le Pdf mais ce que j'ignore c'est si, dans le cas du Pdf, ils lisent son code et indèxent le contenu en "clair" pour eux de sorte à pouvoir répondre aux requètes qui seraient faites avec des termes contenus dans ce code Pdf qu'ils ont décrypté.

Bien évidemment, après leur passage la page Pdf crawlée est retournée au navigateur du poste visiteur telle qu'elle était au départ du serveur du site.

Si c'est le cas avec le code Pdf on peu raisonnablement penser qu'on devrait voir dans l'avenir un moteur intégrer cette capacité pour le ".js" qui reste un langage très usité ou pour le php qui se crypte aussi de manière performante avec certains outils.
 
Nouveau WRInaute
Bonsoir,

Merci à vous qui avez répondu à mon post, j'en ai fini avec les derniers tests menés aujourd'hui et j'ai obtenu les précisions souhaitées.

Le site de test est à nouveau dans son état habituel.

"Leonick" ton lien est arrivé à temps pour m'envoyer à la machine à café, quand les neuronnes se mettent à ronfler on en arrive à zapper des évidences :oops:

Ceci dit, pour ce qui me concerne je n'aurais pas, moi, perdu mon temps et encore merci d'avoir pris un peu sur le vôtre.

Polyèdre (au fait, celui qui figure dans mon avatar comporte 240 faces)
 
Discussions similaires
Haut