RedirectPermanent non pris en compte par google

Nouveau WRInaute
Bonjour à tous
j'espere que qq'un pourra m'aider un peu car je ne comprends pas ce que me fait mister google !
J'ai un site sur lequel j'ai été obligé de modifier des centaines d'url j'ai donc fait des redirections de ce style :
RedirectPermanent /italie/voyages/135-hotels/539-hotel-vila-tiki http://www.mondomaine.fr/hotel-vila-tiki

ainsi j'ai toutes mes url qui sont redirigées vers les nouvelles dans le fichier .htaccess et ce depuis une semaine.

j'ai testé et les redirections fonctionnent bien. Cependant dans GWT après la mise à jour donc le dernier scroll des robots de google datant d'aujourd'hui même j'ai de nouveau ces urls qui reaparaissent comme étant en "Balises META description en double" et le nombre de celles-ci augmente a chaque jour mise à jour par les robots.

Ma question est donc : dois je demander la suppression de ces pages à google une par une avec : "URL à supprimer" dans GWT ?

Il se peut qu'il reste des liens menant à ces anciennes urls dans le site qui est très fourni et je ne peux pas tout vérifier.

Donc mon autre question : est ce qu'une url supprimé a la main dans GWT peut réaparaitre dans l'index google parce qu'elle a été scrollée dans une page du site ?

Please help car je pete une durite !!
Merci :)
Sandrine
 
WRInaute discret
Ça m'est déjà arrivé aussi, mais ça se tasse avec le temps. Parfois Google
fait une rechute et elles réapparaissent quelques jours, et ça s'arrête.
 
WRInaute discret
oui le truc, c'est de vérifier que tout marche sur le site, puis attendre... et ça peut être *très* long, tout en étant la seule/meilleure chose à faire. d'où l'importance de penser sa stratégie d'URL dès le début
 
Nouveau WRInaute
merci pour vos réponses
donc ce n'est pas grave si des liens continuent de pointer vers ces anciennes urls ?
Je ne peux rien faire d'autre que rediriger les urls de façon permanente et demander les suppressions de ces url à google donc ?
Vous me confirmez cela ?
 
Olivier Duffez (admin)
Membre du personnel
Google n'a peut-être pas encore crawlé les URL depuis que tu as mis en place les redirections.
Ou alors il n'a pas mis à jour GWT.
As-tu soumis un sitemap des anciennes URL ?
Quelle est l'URL du site ?
 
Nouveau WRInaute
Et bien si le dernier crawl a été fait après il date du 10 juillet c'est marqué sur la page d'optimisation des balises et mes modifs ont été faites le 04 juillet.
Le 7 une mise a jour GWT a été faite et le 10 aussi et dans celle du 10 il m'a trouvé des erreurs qui concernait mes nouvelles url donc je sais que tout à été pris en compte.
Mais ce que je ne comprends pas c'est pourquoi alors que j'ai fait des redirections il considère encore que j'ai des métas et donc surement des pages dupliquées.

Voici l'url du site : http://www.voyages-au-bresil.fr

Merci de votre aide ! et n'hésitez pas si vous voyez des choses qui ne vont pas !

(EDIT : Olivier je suis honorée de ta présence sur mon post ! Fabien a fait un début d'audit pour ce site récemment, peut être que tu pourras retrouver ça qq part et t'éviter des recherches, pour te remémorer qui je suis : j'avais suivi votre formation en 2009 et j'ai retrouvé Fabien et Antoine au ski l'hiver de la même année, merci encore !)

Sandrine
 
WRInaute accro
sandykil a dit:
Et bien si le dernier scroll a été fait après il date du 10 juillet c'est marqué sur la page d'optimisation des balises et mes modifs ont été faites le 04 juillet.
crawl, pas scroll :wink:
peut-être n'a-t-il pas eu le temps de crawler toutes tes url pour faire sa màj ? et ensuite, il faut le temps qu'il mette à jour tous ses serveurs de cache
 
Nouveau WRInaute
Oups c'est corrigé pour le crawl merci ! C'est ce mot qu'utilise mon client donc je me suis laissée aller !!
je ne sais pas si c'est ça car pour ma première vague de mise à jour fin juin : dès le lendemain, google avait tout pris en compte et corrigé et je n'avais plus que 8 amélioration html au lieu de 168 la veille...donc je ne comprends pas trop sa logique la.
 
Nouveau WRInaute
C'est encore moi, le robot est repassé aujourd'hui sur mon site, il y a du mieux il me trouve 49 erreurs désormais, cependant ce sont toujours des erreurs d'urls qui sont redirigées par un redirect permanent et de plus supprimées manuellement avec l'outil de suppresion d'url google...
VOici un exemple :
Il considère que ces deux pages là ont la même balise meta desc :

http://www.voyages-au-bresil.fr/135-hotels/521-hotel-golfinho
http://www.voyages-au-bresil.fr/fr/par-regions/voyages-nordeste-du-bre ... l-golfinho

Et vous pouvez cliquer dessus j'ai bien redirigé ces pages depuis 15 jours et je les ai demandé en suppression en début de semaine dernière et le robot est passé deux fois depuis. Je suis allée voir dans les demandes d'url a supprimer et je ne vois pas d'url en attente de suppression ....

Si qq'un a une idée à part attendre, car je pense, pour ma part, après avoir passé du temps à étudier le comportement de google sur ce site, que ça ne changera rien, les erreurs qu'il trouve à ce jour sont des erreurs qui resteront dans les prochains crawls si je n'agis pas je pense. Mais quoi faire de plus :)

Merci à vous
 
Olivier Duffez (admin)
Membre du personnel
les rapports de GWT ne sont pas mis à jour en temps réel, il faut parfois attendre "un certain temps"
ce qui compte c'est que les choses soient faites sur ton site, ce qui est le cas
les 2 URL que tu indiques sont bien désindexées de Google (cf. test avec la commande info:URL)
sandykil a dit:
Et vous pouvez cliquer dessus j'ai bien redirigé ces pages depuis 15 jours et je les ai demandé en suppression en début de semaine dernière et le robot est passé deux fois depuis. Je suis allée voir dans les demandes d'url a supprimer et je ne vois pas d'url en attente de suppression
dans les demandes de suppression d'URL, il faut aller voir celles qui sont "supprimées" et pas "en attente"
 
Discussions similaires
Haut