URGENT : <meta name="robots" content="noindex,follow" /> et Google m'indexe mes pages !

Discussion dans 'Problèmes de référencement spécifiques à vos sites' créé par milkiway, 19 Avril 2010.

  1. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    Bonjour,

    Catastrophe 8O mon trafic se prend une raclée et je me rends compte qu'en parallèle, il indexe toute ma version mobile qui contient pourtant :
    Code:
    <meta name="robots" content="noindex,follow" />
    Ma balise n'est pas bonne ?

    Comment arrêter le massacre ?

    Merci
     
  2. strekk

    strekk WRInaute discret

    Inscrit:
    23 Décembre 2009
    Messages:
    181
    J'aime reçus:
    0
    Oui j'ai l'impression que c'est pas une totale garantie, google fait un peu ce qu'il veut (comme toujours...).

    A mes yeux la balise est bonne...

    Je connais un gros site qui a des pages qui sont en noindex,nofollow, auxquelles on ne peut accéder que par de liens nofollow, ET bloquées par robots.txt, et qui sont quand meme indexées...
     
  3. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    A vrai dire, je n'avais aps réfléchi un instant au "follow" mais je pense que quand on ne veut pas du tout indexer une page ni la lister dnas les SERP, il doit falloir ajouter un nofollow ?
    Je viens de le faire j'attends vos avis.

    En tout cas j'en ai tiré quelques conclusions...
     
  4. strekk

    strekk WRInaute discret

    Inscrit:
    23 Décembre 2009
    Messages:
    181
    J'aime reçus:
    0
    Normalement le follow n'a rien à voir avec l'indexation ou pas. INDEX il indexe, NOINDEX il n'indexe pas. Ensuite la différence c'est juste qu'en FOLLOW il va voir les liens présents sur la page (et fait passer le link juice), en NOFOLLOW il s'arrête là (et le link juice aussi)... Enfin c'est la théorie.

    J'avais lu quelque part une interview de matt cutts qui disait de privilégier le noindex,follow. Comme ça la page qu'on ne veut pas indexer ne l'est pas, par contre le link juice continue de "couler" vers les pages liées, sinon il est perdu.
     
  5. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    C'est bien ce que je pensais mais force est de constater que la théorie a la vie dure...
     
  6. aladdin

    aladdin WRInaute passionné

    Inscrit:
    29 Avril 2005
    Messages:
    1 453
    J'aime reçus:
    0
    ton noindex tu l'avais dès la création de ta page ? ou tu viens de le rajouter ?

    si au départ ta page n'était pas en noindex, google va mettre du temps à comprendre, pour accélérer la désindexation c'est simple, envoi un code 404 à google quand il visite cette page. sinon tu risque d'attendre longtemps
     
  7. jeanluc

    jeanluc WRInaute accro

    Inscrit:
    3 Mai 2004
    Messages:
    3 285
    J'aime reçus:
    0
    Ta balise est bonne. Que Google ne la respecte pas serait nouveau.

    Peux-tu regarder le code source de la page telle qu'elle est en cache chez Google et vérifier que tu y retrouves ta balise quelque part entre <head> et </head> et qu'il n'y a pas d'autre balise <meta name="robots" ...> ou <meta name="googlebot" ...> dans la page ?

    Jean-Luc
     
  8. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    Hé bin décidément que de conclusions à tirer de cet exercice. Le noindex était là depuis le début.
    Je viens d'ajouter la règle au robot.txt
    30 minutes après, plus une seule page indexée.
     
  9. jeanluc

    jeanluc WRInaute accro

    Inscrit:
    3 Mai 2004
    Messages:
    3 285
    J'aime reçus:
    0
    Cela ne peut être qu'une coïncidence. Le contenu de robots.txt influence le crawl, mais n'a aucun impact direct sur les SERP.

    Jean-Luc
     
  10. aladdin

    aladdin WRInaute passionné

    Inscrit:
    29 Avril 2005
    Messages:
    1 453
    J'aime reçus:
    0
    ma théorie ? les gens de google lisent WRI :lol:
     
  11. flashingid

    flashingid Nouveau WRInaute

    Inscrit:
    11 Mai 2009
    Messages:
    27
    J'aime reçus:
    0
    J'avais aussi déjà vu ca sur un autre site que si ce n'était pas déclaré dans le fichier robots alors il était possible que des pages soient tout de même indexées.

    Par contre il me semble qu'il y a quelque chose pour ca dans l'outil webmaster tools de Google ou ont peux lui dire de ne pas scanner certaines url.
     
  12. cedric_g

    cedric_g WRInaute accro

    Inscrit:
    18 Janvier 2006
    Messages:
    3 617
    J'aime reçus:
    0
    Bonjour

    D'expérience (en tout cas de ce que j'ai constaté sur plusieurs sites depuis quelques années), Google agit "par excès". Sous-entendu, lorsqu'une page est par exemple filtrée via le robots.txt MAIS présente dans le sitemap, alors elle est indexée.

    En fait, dès lors qu'il trouve un indicateur "valable" pour l'indexation, il indexe !

    L'idéal :
    - absence impérative de la page dans le sitemap.xml (sur ce point on peut parfois avoir de mauvaises surprises, notamment avec les générateurs de sitemaps...)
    - balise robots en "noindex,follow" dans la page
    - filtrage via robots.txt

    Sinon, il y a un risque d'indexation potentielle... Pas la peine de mettre les liens internes pointant sur la page en "nofollow", ça ne gêne pas (expérience faite sur plusieurs boutiques en ligne).

    J'agis également de la sorte lorsqu'il s'agit de variantes de pages existantes avec des paramètres dans l'URL (typiquement avec pagination ou tri, dans des pages catégories de boutiques en ligne) sauf que je rajoute en sus une balise "rel canonical" pointant vers l'URL sans paramètres.
     
  13. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    Je précise que je n'ai aucun sitemap sur le domaine en question.
     
  14. aladdin

    aladdin WRInaute passionné

    Inscrit:
    29 Avril 2005
    Messages:
    1 453
    J'aime reçus:
    0
    je t'ai dis : 404 et go ;)
     
  15. milkiway

    milkiway WRInaute accro

    Inscrit:
    3 Février 2004
    Messages:
    4 968
    J'aime reçus:
    0
    Non mais c'est déjà désindexé ;)
     
  16. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    je ne crois pas, car j'ai quelques "erreurs" signalées par GWT sur le fait que des url sont dans le sitemap et sont bloquées par robots.txt
     
  17. cedric_g

    cedric_g WRInaute accro

    Inscrit:
    18 Janvier 2006
    Messages:
    3 617
    J'aime reçus:
    0
    Oui, elles ressortent en erreur, mais je puis t'assurer que j'en ai eu qui étaient fut un temps indexées (c'était l'un des principaux problèmes de Prestashop dans sa version 1.0 car le module générateur de sitemap, bugué, générait un sitemap.xml avec des URL fonctionnelles mais erronées d'un point de vue "pratique" : bonjour le duplicate !)

    Ceci étant dit, je n'ai jamais pris le temps de faire le test "scientifique" de la chose (je l'ai juste constaté sur une bonne dizaine de boutiques !)
     
  18. salva

    salva WRInaute accro

    Inscrit:
    16 Avril 2006
    Messages:
    4 559
    J'aime reçus:
    0
    Idem, j'ai une url absente du sitemap, ajoutée dans le robots.txt et supprimée via GWT depuis le 14/05/2009.
    Pourtant Google m'affiche toujours
     
  19. raoux

    raoux Nouveau WRInaute

    Inscrit:
    4 Juillet 2006
    Messages:
    30
    J'aime reçus:
    0
    Bonjour, je remonte ce vieux post, parce que je n'arrive pas à désindexer un site : cas de figure suivant :
    • - Site en préprod, plusieurs des utilisateurs finaux travaillent sur des tests de fonctionnalité en live, à quelques semaines de la publication du site.
    • - Il s'agit d' une refonte, donc pour éviter que Google n'y comprenne plus rien entre l'ancien et le nouveau site, ou me fasse des histoires de duplicate... je crois plus sain d'éviter qu'il le référence
    • - Sans que je comprenne comment, il s'est retrouvé très vite indexé en partie, alors qu'il n'y a aucun lien qui le relie au web.
    • - J'ai donc placé une balise meta noindex, nofollow sur toutes les pages, suivant en cela les recommandations de grand chef sioux :

    Après qq jours nada, rien ne bouge. Bien sûr j'aurais dû bloquer en amont avec robots.txt, mais c'est trop tard ! Et je ne peux plus configurer le robots.txt avec un disallow, sinon il ne verra plus la balise meta noindex...
    Que faire ???
     
  20. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Demander la suppression du répertoire / sous domaine dans GWT
    et la seule protection efficace à 100% c'est de bloquer les access par .htaccess / .htpassword
     
  21. raoux

    raoux Nouveau WRInaute

    Inscrit:
    4 Juillet 2006
    Messages:
    30
    J'aime reçus:
    0
    Merci. Demander la suppression du repertoire dans GWT impactera -t'il seulement (si ça marche) le domaine provisoire (type nsxxxxxx.ovh.net) ou cela risque t'il d'avoir un impact sur le "vrai" nom de domaine, une fois que j'aurai fait la bascule ? :?
     
  22. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Juste le domaine provisoire. Tu le déclare bien entendu comme un site à part dans GWT
     
  23. raoux

    raoux Nouveau WRInaute

    Inscrit:
    4 Juillet 2006
    Messages:
    30
    J'aime reçus:
    0
    Cool, merci Marie Aude, modo VIP, 7/7 et 24/24 même le dimanche !!! :p
     
  24. raoux

    raoux Nouveau WRInaute

    Inscrit:
    4 Juillet 2006
    Messages:
    30
    J'aime reçus:
    0
    Je confirme que toutes les pages du domaine ont disparu des SERP dans les 24h suivant ma demande de suppression.
    Powerful ! 8)
     
  25. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonjour,
    je suis nouveau sur ce forum et suis aussi novice dans le domaine des nouvelles technologies. Je suis face à une situation difficile à gérer. Je m’explique. J'ai créé un blog puis suite à des problèmes j'ai décidé de retirer tous mes fichiers de mon blog mais je n'ai supprimé celui-ci définitivement.
    Mon problème aujourd'hui est que de nombreux fichiers notamment format word et pdf sont toujours accessibles sur Google. J'ai supprimé le URL par le biais de outils webmarter mais les fichiers sont toujours là et ça m'agace. Quelqu’un pourrait-il m'aider s'il vous plait ?
    cordialement bonne fête de foin d'année.
    dyk27
     
  26. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    enlève des fichiers du site web
     
  27. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Bonsoir,
    Mon blog aujourd'hui est vide !
    J'ai enlevé tous mes fichiers. Mais ces derniers apparaissent encours dans les résultats de recherche Google sous la forme de data et doc. On arrive même à les télécharger !
     
  28. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    faut demander la suppression complète de ton site dans GWT. Par contre, pour l'avoir vécu, y! ne faisait rien et gardait les pages dans son index, même quand on envoyait un code 410. Je ne sais pas comment bing fait
     
  29. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Meric pour la réponse. Je suis désolé pour le doublon. Je n'ai pas bien lu les consignes.
    Par contre comment peut-on demander la suppression de ces pages tout en garant mon site vide ?
    Aussi c'est quoi le GWT ?
    Désolé je débute.
    Merci
     
  30. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonjour,
    Voici ce que donne ma page avant d'introduire une URL à bloquer . Ma question : où puis-je introduire mon URL à bloquer s'il vous plait Quelle est la procédure.
    bonne journée. Dyk7


    User-Agent: *
    Allow: /
    Disallow: /contact
    Disallow: /mail/subscribe
    Disallow: /mail/valid-*

    #
    # this technically isn't valid, since for some godforsaken reason
    # sitemap paths must be ABSOLUTE and not relative.
    #
    Sitemap: /sitemap.xml
     
  31. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Tu remplaces

    Code:
    Allow: /
    par

    Code:
    Disallow: /
    GWT : Google Webmaster Tools. Il faut que tu valides ton site sur cet outil pour en demander la suppression sur Google.
     
  32. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonjour, merci d'avoir répondu à ma demande.
    J'ai procédé comme tu me le recommandes mais le résultat est le suivant :

    ligne 11 : Sitemap: /sitemap.xml URL de sitemap non valide ; syntaxe incompréhensible

    je ne comprend pas pourquoi ?

    Je ne desespere pas en comptant sur votre aide !
    merci

    cordialement
     
  33. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Tu modifies le robots.txt de manière remplacer :

    Code:
    User-Agent: *
    Allow: /
    Disallow: /contact
    Disallow: /mail/subscribe
    Disallow: /mail/valid-*
    
    #
    # this technically isn't valid, since for some godforsaken reason
    # sitemap paths must be ABSOLUTE and not relative.
    #
    Sitemap: /sitemap.xml
    
    par

    Code:
    User-Agent: *
    Disallow: /
    
    Sur le domaine à supprimer.
     
  34. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    j'ai vraiment un point qui manque ,
    le résultat est le même, voici le résultat :
    http://monblog./
    Bloqué par la ligne 2 : Disallow: /
    Identifié comme répertoire ; certains fichiers peuvent être soumis à des restrictions différentes.
    Autorisé
    Identifié comme répertoire ; certains fichiers peuvent être soumis à des restrictions différentes.


    Faut-il envoyer un Sitemap: /sitemap.xml ?

    je ne vois pas ce que je dois faire de plus !

    merci
     
  35. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Tu peux nous donner l'url du site ? (ici hein, pas en mp)
     
  36. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    comme demandé voici mon blog.

    http://hgbelkadi.overblog.com/

    Je vous rappelle que je souhaite faire disparaitre tous mes anciens ficher qui sont toujours indexés par Google soit au format pdf, html ou word en cache ! Je ne comprend pas le méthode pour vraiment effacer tout. Merci de votre aide.
     
  37. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    ça risque d'être dur, voire impossible, car il parait probable que overblog utilise des serveurs caches, donc même quand tes fichiers seront supprimés, ils continueront à être accessibles par les différents serveurs cache.
    Si les fichiers ne sont pas référencés par des ref générées par overblog mais uniquement avec les noms que tu as donné aux fichiers, une solution consisterait à écraser ces fichiers par des documents vierges (doc, pdf, etc...) qui remplaceront ainsi ceux en cache
     
  38. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Quelle solution me préconisez-vous pour les supprimer, les "écraser"...j'ai écrit deux courriers postaux à overblog, mais pas de réponse pour le moment !!!! au secours !
    Merci et bon réveillon !
     
  39. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    si les liens ne sont pas créés automatiquement (et donc on ne pourrait écraser un fichier existant) : oui
     
  40. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonjour,
    mon blog est actuellement vide, aucun fichier existant ; j'ai tout supprimé. Il ne reste que des fichiers sur le web soit en cache ou en pdf, word que je n'arrive pas à supprimer !
     
  41. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    "soit en cache ou en pdf, word"

    Pour le cache c'est juste une question de patience

    Pour les autres fichiers, j'en ai vu quelques uns. Tu peux faire quelque chose en envoyant un courrier AR à overblog en parlant de problèmes de droits d'auteurs, et en donnant la liste exacte des fichiers.

    Ou au pire, tu envoies une plainte DMCA à Google en demandant la suppression des résultats de recherche
     
  42. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Voici la réponse obtenu par l'équipe Google suite à mes demande suppression :
    P.S : je signale que j'ai créé un compte webmaster et j'ai demandé la suppression des URL. La suppression est prise en compte ("fichiers supprimés") mais les fichier demeure visible sur le moteurs de recherches


    Bonjour

    Merci de votre réclamation ci-jointe.
    Nous ne pouvons que vous confirmer que Google Inc. n'exerce qu'un simple rôle d'indexation des liens existants sur Internet. Pour mettre efficacement fin au référencement de la page Web litigieuse, il vous appartient donc d’agir directement à l’encontre de l’éditeur ou de l’hébergeur du site concerné, afin de solliciter le retrait du contenu en cause.

    Une fois la page litigieuse supprimée du site en cause, la copie en cache de la page concernée pourra rester accessible sur Google (ainsi que sur les autres moteurs de recherche) jusqu'à la prochaine exploration de ce site par les moteurs. Afin d'accélérer la suppression de ce cache, nous vous conseillons de compléter le formulaire en ligne, accessible à l'adresse: https://www.google.com/webmasters/tools

    Bien Cordialement,

    L'Équipe Google
     
  43. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Les plaintes DMCA ne sont pas traitées de la même façon que les demandes de désindexation
     
  44. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    J'ai demandé la suppression de fichier via DMCA : voici le message obtenu :


    Suppression d'un contenu portant atteinte aux droits d'auteur

    Tableau de bord de suppression de contenus –
    3 URL en attente

    Je tente tout mais pour le moment rien de concret.

    dyk27
     
  45. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    comme je disais au dessus : pour accélérer la mise à jour (et donc la suppression) de données en serveur cache, il faut fournir un fichier plus récent. Donc il faut remettre du contenu vide (mais pas de taille zéro, donc mets des espaces) plus récent pour que le serveur cache fasse (normalement) la mise à jour
     
  46. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Faut aussi un peu de patience... quelques jours quand même
     
  47. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonjour et meilleurs vœux à tous,

    Euh pardon, mais peux-tu me dire la procédure pour fournir un fichier pus récent ? Dois remettre des fichiers sur mon blog (aujourd'hui vide ! ) pour que les fichiers anciens soient supprimés ?
    Comment puis-je faire cette manipulation sachant que j'ai supprimé ces fichier de mon blog et aussi demandé leur suppression par le biais de mon compte webmaster ?
    Merci de votre
    dyk27
     
  48. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    oui et avec le même nom. Si c'est possible, sinon ça ne sert à rien de faire ces pages
     
  49. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Overblog renomme les fichiers sur ses serveurs. Donc pas certain que ça serve à quelque chose
     
  50. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    bonsoir!
    si je comprend bien, je dois m'adresser principalement à OVERBLOG par une lettre AR !
    Impossible de les contacter par mail car il ne réserve le contact que pour la version Prenium (version payante) !
    Par téléphone, pareil, pas de réponse si on est pas prenium. En somme c'est du racket !
    merci de votre aide
     
  51. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    je confirme qu' OVERBLOB renomme mes fichiers déjà supprimés.

    Ont-ils le droit ?

    Comment peut-on arriver à mettre fin à cette pratique ?

    Merci
     
  52. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Oui ils ont le droit, toutes les grandes plateforme de blog le font (vous ne croyez quand même pas que les noms de vos fichiers sont uniques ? )

    Pour faire supprimer vos fichiers, faites une lettre AR. C'est tout.
     
  53. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Merci overblog...
    A l'ère des nouvelles technologies, de la 4G et j'en passe, je suis condamné à revenir aux méthodes du XIXe siècle pour faire une requête ! Merci Overblog.
    Au final il aurait gagné sur toute l aligne. Il m’a gâché mes vacances et en plus, je dois envoyer une lettre avec AR sans être certain d’avoir une réponse personnalisée.
    Visiblement ils ne répondent qu'aux personnes qui sont en mode prenium !!!! Moi qui pensais que la société des privilèges fut abolie il y a bien longtemps (fin du XVIIIe siècle). Et bien, non ! La preuve je l'ai eu téléphone aujourd'hui : overblog vous informe qu'aucune suite ne sera donnée à votre appel. Cette ligne téléphonique est réservée qu'au détenteurs de la version prenium.
     
  54. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Bein oui mais en optant pour un système auto-hébergé où on a pas la main de A à Z, forcément à un moment ça coince...

    Investir dans un nom de domaine et un hébergement à soi reste la première règle quand on crée un site internet.
     
  55. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Oui mais si on est pas professionnel dans les nouvelles technologies ou de la vente en ligne..., je ne vois l'utilité d'investir dans un nom de domaine. Chacun son métier. Mon blog eétait au départ consacré à des exrcices en histoire et géographie, je ne gagne pas d'argent là dessus. Mais ce n'est pas pour autant qu'on doit se laisses faire sous pretexte que la toile c'est la jungle. Être hébergé par un site (ex. EVERBLOG) n'implique pas à mon sens un droit sur mes documents personnels, à moins que cela ne soit indiqué dans une clause avec des un *aux caractères 3.

    Bref, je viens d'envoyer ma lettre avec AR pour que OVERBLOG retire les fichiers de ses serveur. Je dois à présent patienter jusqu’à quand ? Qui sait ! En, attendant, il sont visibles et téléchargeables malgré des demandes multiples (courriers postaux prioritaires).
     
  56. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    En fait la situation est un peu plus compliquée qu'il n'y parait... en tant qu'hébergeur, Over-blog a des obligations vis à vis de la loi française, et notamment une conservation d'historique sur ses serveurs pendant un certain temps, même des contenus supprimés par les utilisateurs

    C'est pour cela qu'il est écrit au paragraphe 7 des conditions générales d'utilisation
    De plus, à l'article 10 il est dit

    De plus, il est inexact de dire que les documents que tu avais téléchargé sur ton blog sont toujours indexés et accessibles par Google.

    Les quelques documents qui sont encore indexés par Google (un .pdf et un .odt) ne sont plus accessibles : il y a une belle page vide quand on clique sur le lien apparaissant dans la page des résultats.

    Ce qui est encore accessibles, ce sont quelques documents insérés dans des articles encore visibles via le cache de Google, et dont le lien dans l'article est curieux : un lien direct vers un des serveurs de données d'Over-Blog, et pas le lien vers le document.

    Ce lien n'est PAS le type de lien inséré de façon standard quand on rajoute un document dans un article.

    Over-blog peut donc, de façon tout à fait justifiée, te répondre qu'il n'est pas responsable du cache de Google, et que les documents supprimés ne sont plus accessibles.

    Pour faire disparaitre une page vide du cache de Google, le plus simple est d'utiliser la technique d'Usaji-Yojimbo : faire repasser le robot de Google sur une page vide. Par exemple en faisant un lien vers cette page.
     
  57. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Rapidement et à chaud, merci Marie-Aude pour l’intérêt porté à mes messages.
    Je dois relire ligne par ligne ta réponse pour tout comprendre et par voie de conséquence, corriger mon amateurisme : supprimer définitivement mes fichiers.

    Dyk27
     
  58. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    j'avoue, que je ne comprend tout dans ce passage !
    Est-il possible d'avoir plus d'éléments et m'expliquer davantage s'il vous plait.
    merci
     
  59. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    suite à ma plainte à Google voici la réponse reçu hier :


    Bonjour,

    Merci de votre réclamation ci-jointe.
    Conformément au Digital Millennium Copyright Act, nous avons donné suite à votre notification pour atteinte aux droits d'auteur. D'ici quelques heures, les URL suivantes ne figureront plus dans les résultats de recherche Google :

    http://data.over-blog-kiwi...etc
    http://data.over-blog-kiwi...etc
    http://data.over-blog-kiwi...etc

    (j'ai supprimé la suite du lien afin d'éviter encore des problèmes d’indexation)

    Si vous avez besoin d'une assistance supplémentaire, veuillez nous contacter en répondant directement à cet e-mail ou en utilisant nos formulaires en ligne à l'adresse http://support.google.com/legal.

    Bien Cordialement,

    L'Équipe Google

    Le hic c'est que les 3 fichiers en question sont toujours téléchargeables !!!
    Aucune changements noté

    merci de votre aide
     
  60. UsagiYojimbo

    UsagiYojimbo WRInaute accro

    Inscrit:
    23 Novembre 2005
    Messages:
    12 380
    J'aime reçus:
    0
    Ils précisent bien qu'il faut attendre un peu et que ce n'est pas immédiat...
     
  61. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0

    Merci UsagiYojimbo,


    je patiente...mais ce qui m'étonne c'est que la quasi totalité (plus 100 fichiers) ont été supprimés à ma demande et que ces trois (qui me posent vraiment problème) sont toujours accessibles.
    Est-ce un hasard où une manipulation informatique de ma part qui est à l'origine au moment de les mettre sur mon blog ?
    Curieux comme le disait Marie-Aude plus haut .
    merci
     
  62. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Re UsagiYojimbo

    Peux-tu s'il te plait me donner un lien où tu expliques pas-à-pas comment :

    faire repasser le robot de Google sur une page vide. Par exemple en faisant un lien vers cette page.


    Par avance, merci !
     
  63. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    Tu vas n'importe où sur le web, sur un blog, sur un site de digg, et tu publies un lien vers la page
     
  64. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Euh pardon Marie-Aude, mais je ne vais tout de même créer un nouveau blog ? Assez de problèmes comme ça ! ;)
     
  65. Marie-Aude

    Marie-Aude WRInaute accro

    Inscrit:
    5 Juin 2006
    Messages:
    18 363
    J'aime reçus:
    0
    ça ne t'arrive jamais de commenter sur les blogs ? ^^
     
  66. dyk27

    dyk27 Nouveau WRInaute

    Inscrit:
    24 Décembre 2013
    Messages:
    26
    J'aime reçus:
    0
    Bah, non ! Pas encore. Ça sera une première... et je ne plaisante pas. ;)
    Je n'ai jamais porté de commentaires sur le web. J'ai toujours publié mes cours sur mon ancien blog pour me faciliter la vie, mais au final, c'est l'inverse qui s'est produit. Comme je le disais plus haut, je ne suis du métier même si être prof aujourd'hui implique la maîtrise des TICE.
    Si tu as la possibilité de m'aider, je te serai reconnaissant. Car là, même si cela te semble simple, je ne sais pas comment faire. Merci
    Sincèrement
     
  67. Leonick

    Leonick WRInaute accro

    Inscrit:
    8 Août 2004
    Messages:
    22 709
    J'aime reçus:
    0
    si tu as un compte gmail, tu t'envoies un lien sur ton mail gmail et gg devrait retourner crawler ce lien
     
  68. noren

    noren WRInaute accro

    Inscrit:
    8 Avril 2011
    Messages:
    2 918
    J'aime reçus:
    0
    Je me permet de monter ce sujet car j'aurais une petite question.

    Mon soucis c’est que sur mes sites (sur lequel je travail actuellement) je liste le début des articles (une 20aine d'articles par page) aussi bien dans la section, la rubrique et dans 1 ou plusieurs tags, on retrouve donc le même petit "résumé" des articles sur plusieurs pages.

    Minimum 3 fois :
    -dans sa section
    -dans sa rubrique
    -dans l'article lui même
    plus 1 à X fois de plus en fonction des tags associés.

    La solution du noindex, follow pour la pagination (à partir de la page 2) est une bonne solution dans ce cas? la liste des articles présents dans les pages en noindex seront tout aussi bien référencés et aurons le même jus?

    En gros est-ce que mettre une page en "noindex" ne fait rien perdre a tous les liens internes qui y figurent?
     
  69. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    tu parle de deux choses différentes.
    * le souci des pages en DC section avec rubrique et tags là faut choisir ce que tu veux indexer (et mettre le reste en noindex)
    * le souci de la pagination et amha si par exemple tu décide de garder indexable les "sections" et pas les "rubriques" alors c'est tout en index et tout en noindex pour le reste mais faut pas faire une distinction sur la "profondeur" mais sur le "type"

    le souci de DC entre ton extrait sur la page et les différents "index" c'est pas grave ... si tu veux l'éviter quand même faut prévoir un champ spécial ou un traitement approprié sur le contenu pour avoir un truc qui ne s'affiche pas dans la page mais dans les indexs.

    Autre point qui m'intrigue c'est quoi la différence entre section et rubrique car pour moi c'est la même chose.
     
  70. noren

    noren WRInaute accro

    Inscrit:
    8 Avril 2011
    Messages:
    2 918
    J'aime reçus:
    0
    Disons qu'une section (catégorie) c’est par exemple : blog, dossiers, vidéos etc.
    Et que ces sections sont donc composées en rubriques.

    Lorsqu'on arrive sur la page d'index du blog on liste X articles par page avec un résumé pour chacun.
    Mais ces mêmes articles appartiennent à une rubrique spécifique du blog ou du dossier etc. Donc on retrouvera ce même résumé dans les rubriques.
    Et elles apparaitront également sur les pages des tags.

    La solution que je voyais c’est d'indexer uniquement la page 1 (en tout cas pour les tags) et mettre en noindex les autres pages. Et je comptais également pour les tags ne pas mettre de résumer de l'article. Uniquement une image et le titre.
    Mais j'espère qu'en mettant les pages 2 etc. en "noindex" pour les tags ca ne va pas faire perdre de jus aux articles qui y sont présents.

    maintenant me reste à régler le DC entre les sections (catégories) et les rubriques. je pourrais éventuellement utiliser un résumé différent, l'un utilisant le début de l'article et l'autre le meta description....mais bon je sais pas trop.

    Bon après faut prendre en compte que je mettrais certainement un très très court extrait : 20-30 mots.
    Sachant que les articles feront facilement plus de 200-300 mots minimum.

    Après ça me fait un peu ch*er de devoir créer un résumé exprès pour ces pages de listing. ça deviendrait vite lourd :?

    Si je sais que mettre les pages de listing des articles en noindex ne pose aucun soucis sur le référencement des articles qui y sont inclus, ca me semble être une assez bonne solution.

    J'aurais quand même un peu de DC avec les pages 1 vu qu'elles seraient toutes en "index" :roll:
     
  71. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    t'as du t'amuser a coder ça car dans le principe une section n'a rien de différent d'une rubrique qui elle peut contenir d'autres rubriques etc ... :D (récursivité)
    la solution c'est de rien publier dans une section ou rubrique qui ne lui appartienne pas ou de le faire en ajax voir avec une technique classique anti DC (photo, frame).
    les tags c'est tricard depuis longtemps :? et de toute façon conseillé "noindex".
    ça changera rien pour le DC que tu auras en page 1.
    si le résumé c'est 2/3% du contenu de la page alors le Dc c'est de la légende urbaine tout comme celui énoncé sur les RS, mais si c'est 50% du contenu là c'est une autre histoire ...
    300 mots s'est "short" comme norme.
    préco WP ... pas idiot dans le fond.
    les trucs a mettre en noindex c'est :
    * les pages pauvres
    * les pages de trie
    * les pages de recherche (ça s'apparente a tes tags)
    * les formulaires si il y en a plétore
    * tout ce qui parle de wikipédia (humour)
    Pas indexer les pages 2 et suite partout c'est pas bon, ce genre de page est viable car c'est une sommpe de petit texte pertinents normalement. Si tu dois avoir un truc qui a des suite faut l'indexer mais faut pas en avoir 36 identiques. Ton souci c'est "section et rubrique" tag j'en parle même pas c'est noindex dans tous les cas 1 ou pas (avis perso)

    en revanche si ta section regroupe plusieurs rubriques et que tu liste les derniers articles de toutes tes rubriques c'est moins un souci car cette page sera un composite de X pages ... tout comme les indexs rubriques sont des composites de X articles mais les deux index section et index rubrique ne seront jamais identiques ...

    perso j'ai des rubriques qui se présentent sous la forme d'une suite de lien avec la méta descriptions, méta description (on est tous flemmards) qui est souvent pour pas dire tous le temps la copie d'une phrase ou deux de l'article Bref mes indexes reprennent tous un contenu court dans l'article et, vois tu, quand je cherche cette phrase dans GG les deux pages sortent ;-) ... bref si ce DC était un souci je pense que je verrais même pas la queue d'un chat.
    En revanche quand je met 2 phrases dans cette meta qui me sert d'extrait, l'article contien au moins 500 mots si ce n'est plus (voir parfois largement plus) ...

    Je pense que le DC interne c'est une histoire de proportion si la moitié de ton contenu se trouve répété oui ça craint mais si la proportion de ce contenu répété ou que ce soit sur ton site c'est qques % c'est encore un fois pas la même histoire. Après te dire si c'est 2 10 ou 30 % la limite ??? ce que je sais c'est que l'univers SEO c'est 200 / 400 mots l'article et que sur cette base des sites on des soucis a se faire si ils ne gèrent pas bien le DC interne avec leur extraits ;-)
     
  72. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    On est pas (encore) en train de squatter un topic pour une autre histoire là ? :D
     
  73. noren

    noren WRInaute accro

    Inscrit:
    8 Avril 2011
    Messages:
    2 918
    J'aime reçus:
    0
    Non t'inquiete je gère ca avec ma table taxon et la recursivité ;) (parent_id) :mrgreen: Me suis justement un peu inspiré de WP
    J'avais déjà fait un ou 2 topic sur mon problème avec les taxons. Concernant l'optimisation des requêtes notamment

    D'ailleurs je gère également les tags et bien d'autres choses avec la table taxons. Très pratique :mrgreen:

    Oui ma page index section regroupera tous les articles des rubriques de cette section, donc le % DC au niveau des pages sections et rubriques dans leur globalité seront toujours normalement faibles. C’est plus le fait de répéter plusieurs les mêmes petits résumés par ci par la qui me dérange :?

    Question tags je compte pas en avoir des centaines (je ne suis pas fan des nuages de tags etc. je suis plutôt partisan de stags vraiment utiles). Une vingtaine tout au plus et assez complémentaires des rubriques. Disons qu'ils ressembleraient plus à des sous rubriques faisant l'objet de thèmes très recherchés mais qui n'auraient pas fait l'objet d'une rubrique en tant que telle :wink:
    Et ça m’embête de pas indexer au moins la 1ere page de ces tags (pour le référencement) :| . Étant donné que j'en aurais assez peu je pensais donc que cette solution de ne pas mettre de résumé pour la page 1 (je mettrais quand un petit texte d'accueil) et mettre en noindex les pages suivantes étaient pas trop mal :?

    Chiant ce panda, avant ces foutus algos c’est franchement pas le genre de question qu'on se posait (enfin moi en tout cas)

    Bon je vais encore pas mal cogiter la dessus, faut que j'arrive à trouver le compromis ou que je me fasse à l'idée de sacrifier certaines pages pour le référencement. Dur dur j'aurais l'impression de perdre quelque chose

    Non on squat pas vraiment on parle bien du noindex, follow :)

    PS : je sais aps pourquioi mais j'ai l'impression que t'en veux au wiki :mrgreen:
     
  74. zeb

    zeb WRInaute accro

    Inscrit:
    5 Décembre 2004
    Messages:
    13 577
    J'aime reçus:
    0
    Moooooaaaaa ??? :D mais non.