noindex fr-fr dans fichier robots.txt avec translatepress

WRInaute occasionnel
Bonjour,

Cela fait longtemps que j'ai envie de traduire mon site, que je regarde l’évolution des plugins et avec l'arrivée d'un petit nouveau, translatepress, je me suis lancé.

Ce plugin permet de traduire toute la page via google translate, avec dans sa version pro, l'url, l'alt, les menus présents, le sitemap yoast...

Puis ensuite on peut corriger manuellement les erreurs.

Seul bémol de taille, il ralenti le site comme la plupart des traducteurs wordpress.

Donc, comme mon site principal est en .fr, j'ai fais une copie, créé un nouveau site avec une url en .com.

Pour empêcher l'indexation du fr par le robots.txt est-ce que c'est ok ? :
Noindex: /fr/
Disallow: /fr/

Et le problème c'est qu'il créé autant de sitemap que de langue, ce qui est bien, mais il créé aussi un sitemap sans attribut :

monsite.com/sitemap_index.xml
monsite.com/fr/sitemap_index.xml

monsite.com/en/sitemap_index.xml

Est-il possible d'interdire monsite.com/sitemap_index.xml tout en laissant les autres sitemaps indexable ?

Merci !
 
WRInaute accro
Je ne vois décidément pas l'intérêt de proposer de la traduction automatique. Quand on a l'ambition d'attaquer un marché linguistique autre que le sien, on passe par des traducteurs professionnels (et du coup on utilise des plugin de type WPML pour stocker les traductions).

Surtout qu'a priori, tu te crées des problèmes nombreux qu'il faut corriger avec ce plugin, pour un résultat de mauvaise qualité.
 
WRInaute occasionnel
Salut Usagi,

Mais tous le monde n'a pas les moyens de payer un traducteur (tu peux me prêter l'argent ? ;) )

Et d'après eux, ils sont plus rapide que wpml :
https://translatepress.com/top-wordpress-translation-plugins-compared-based-on-page-load-time/

Mais j'aimerai bien voir d'autres tests indépendants.

Et avec ce plugin c'est vraiment plus simple de tout traduire et corriger ensuite.

Enfin, je suis toujours à la recherche d'une astuce pour bloquer le sitemap origginel via le robots.txt, qui ne devrait pas apparaître sans le /fr/ tout en permettant d'indexer les autres versions.

Il y a aussi une autre possibilité, je pourrais mettre mon site en fr-be, mais je ne trouve pas d'explications claires sur l'utilisation des hreflang, enfin des risques d'utiliser le même contenu avec une hreflang différentes, sauf d'après cet article pour qui à priori, cela ne devrait pas poser de problème :

https://www.oncrawl.com/oncrawl-seo-thoughts/hreflang-and-seo-5-mistakes-to-avoid/

et là :

https://yoast.com/hreflang-ultimate-guide/

Et c'est utilisé par Ikea : https://www.ikea.com/

Et d'un autre côté, mon site originel est en .fr et ciblé pour la France dans Google, ce qui avec le recul, était certainement une erreur et m'a peut-être privé d'autres utilisateurs francophones, donc peut-être que mettre celui ci en fr-be me fera trouver une nouvelle audience, qui sait.
 
WRInaute occasionnel
Oups, je viens de voir en fait que si le sitemap général de Yoast a 2 versions, les sous sitemaps sont bien en /fr/, donc ce plugin est vraiment bien !

Et au fait Usagi, comme wpml, translatepress permet de stocket les traductions, une fois que toutes les pages sont traduites et enregistré, tu peux désactiver google translate !
 
Dernière édition:
WRInaute occasionnel
Tu serais pas traducteur par hasard ?

Je test les traductions en retraduisant ensuite la page traduite avec google translate, et c'est impressionnant, il n'y a que quelques langues comme le coréen où la qualité rappel l'ancien google translate, mais pour les principales langues, comme l'anglais ou le chinois, la traduction est souvent niquel, que quelques mots à corriger.
 
Olivier Duffez (admin)
Membre du personnel
la qualité de la traduction
bien entendu, ce n'est pas encore équivalent à la traduction pro, et donc souvent insuffisant, mais les progrès réalisés ces derniers mois/années sont considérables. Pas seulement chez Google d'ailleurs, essayez deepl vous verrez

il me semble évident qu'une partie du boulot des traducteurs va être remplacée par des "robots traducteurs"
sur le web, j'anticipe d'énormes problèmes de vol de contenus (via cette traduction automatique)
 
WRInaute accro
Je reste persuadé qu'on est encore très loin d'être en mesure de traduire "bien" via ce type d'outil. Ça a progressé, certes, mais d'un point de vue réassurance, on est très loin de valoir une traduction professionnelle humaine.
 
Olivier Duffez (admin)
Membre du personnel
ça dépend pour quels contenus... et ça progresse très vite (deep learning)
on en reparle dans 2 ans !
 
WRInaute occasionnel
Oui, deepl surpasse google, cela ne m’étonnerais pas qu'ils se fassent acheter par le géant bientôt !

Je m'en sert aussi.
 
WRInaute occasionnel
Je n'ai pas encore autorisé l'indexation du site, j’attends d'avoir fais quelques corrections, mais je me demande toujours, comme le premier site est en .fr et donc ciblé France, je n'ai que très peu de visiteurs venant de Belgique, Suisse ou Canada.

Sur une semaine par exemple j'ai :
France : 12600
Canada : 890
Belgique : 870
Suisse : 870

et je me demande si ces résultats n'aurais pas été meilleur avec un .com

Et sur la console google il n'est plus possible de choisir les utilisateurs cible si on a un .fr.

Et donc j'hésite avec ce nouveau site qui je le rappel et la copie du 1er, soit je bloque la version /fr/ soit je laisse l'indexation mais en fr-be ou fr-ca.

Qu'en pensez vous ?
 
Discussions similaires
Haut