référencement d'un site qui disparait sur google, mais pas chez les autres

Nouveau WRInaute
Bonjour,
J'ai actuellement un problème avec un site internet heula.fr
Il est la depuis 12ans et depuis quelque temps, je ne sais pas depuis quand exactement, google ne le référence plus.
Quand je fais le test de l'url j'ai le droit a

Google n'a pas accès à cette URL
Impossible de la tester.

Si je vais sur les autres navigateurs c'est ok, le site est bien la.

La je viens de refaire toutes les demandes d'indexation que j'avais en tête, donc peut être qu'il reviendra entre temps, donc la question
Comment re référencer le site. (si ce que j'ai fait ne fonctionne pas)

Comment est il possible de disparaitre du jour au lendemain?

Merci d'avance.
 
WRInaute impliqué
@rick38 a identifié la raison de la non-indexation.

L'erreur 500 provient probablement d'une mauvaise configuration d'Apache, peut-être un .htaccess qui génère une boucle lorsque la requête porte sur une ressource qui n'existe pas ?

Solution de dépannage : créer un robots.txt vide.
 
Nouveau WRInaute
@rick38 a identifié la raison de la non-indexation.

L'erreur 500 provient probablement d'une mauvaise configuration d'Apache, peut-être un .htaccess qui génère une boucle lorsque la requête porte sur une ressource qui n'existe pas ?

Solution de dépannage : créer un robots.txt vide.
C'est fait, la recherche d'url ne fonctionne toujours pas.

Précision les autres navigateur arrivent sans problème a faire fonctionner leur robot, puisque le référencement existe.
D'autre de mes sites configuré a 100% a l'identique fonctionnent

httaccess n'a rien de spécial, il est basique, et c'est hébergé chez 1and1.
 
WRInaute passionné
Toutes les urls 404 du site donnent une erreur 500, il faut trouver ce problème de toute façon.
 
Nouveau WRInaute
Toutes les urls 404 du site donnent une erreur 500, il faut trouver ce problème de toute façon.
si un truc ne va pas, effectivement il faudrait que je le modifie, mais tout le hic c'est de comprendre ou est le problème.
Puisque aucune modif a été faite entre avant le référencement ok, et maintenant la disparition du référencement.

Est il possible qu'une personne malveillante ait réclamé la suppression du référencement a google, du genre par de multiple signalement?
je n'ai jamais étudié la question sur l’existence possible de ce genre de chose, je ne sais pas si il est possible de voir un blacklist de son site.


Précision Google Search Console semble avoir un début, puisque la page informe maintenant
"Cette URL n'a pas été indexée par Google
Cette page ne figure pas dans l'index, mais ce n'est pas dû à une erreur. Pour savoir pourquoi elle n'a pas été indexée, veuillez consulter les informations ci-dessous"

J'ai donc fait la demande d'indexation option que je n'avais pas ce matin.
 
WRInaute accro
mais tout le hic c'est de comprendre ou est le problème.

Deja il faudrait exprimer ton probleme correctement, faire la distinction entre "indexation"
https://www.google.fr/search?q=site...2ahUKEwjw6Oj0uMnzAhVl6uAKHWJbDs4Q8NMDegQIARBS
Ton site est bien indexé par Google.

Et positionnement/referencement de ton site sur requetes..

Le gros souci de ton site est qu'il est tres tres pauvre en contenu et qu'il n'est pas responsive....

Il ne faut donc pas t'etonner si tu t'enfonces...

Il est la depuis 12ans

Il faudrait peut etre le faire evoluer
http://web.archive.org/web/20170322193008/https://www.heula.fr/

Rien n'est immuable, surtout internet
 
Nouveau WRInaute
Deja il faudrait exprimer ton probleme correctement, faire la distinction entre "indexation"
https://www.google.fr/search?q=site...2ahUKEwjw6Oj0uMnzAhVl6uAKHWJbDs4Q8NMDegQIARBS
Ton site est bien indexé par Google.

Et positionnement/referencement de ton site sur requetes..

Le gros souci de ton site est qu'il est tres tres pauvre en contenu et qu'il n'est pas responsive....

Il ne faut donc pas t'etonner si tu t'enfonces...



Il faudrait peut etre le faire evoluer
http://web.archive.org/web/20170322193008/https://www.heula.fr/

Rien n'est immuable, surtout internet


Vous êtes complétement a coté de la plaque, le site est ok.
L'indexation avait bien été supprimé de google, en regardant les messages au dessus vous l'auriez vu.
l'indexation est revenu sur google ce matin suite a toutes les demandes que j'ai faite a google,
Et il est revenu en top recherche sur pas mal de chose, presque comme avant.



Parler de contenu du site me semble vraiment limite, avec plus de 2000 produits nom, et description unique, en stock avec 3 images par produit totalement original, je doute que le contenu soit considéré comme pauvre par google.
Le site a évolué dans le temps, il n'est pas adapté aux téléphone, mais fonctionne très bien sur le téléphone.


Ce que je cherche maintenant c'est de savoir comment le site a pu être dégagé de google, car le site a bien été supprimé, et non perdu des places.
 
Olivier Duffez (admin)
Membre du personnel
c'est sa façon cash de contribuer, mais il n'a pas vraiment tort : si Google voit des pages vides sur le site, il n'a pas envie de les indexer, et pas non plus d'indexer les prochaines qui sont publiées. C'est le crawl prédictif basé sur de l'IA...

bon, il y a peut-être des pb plus simples que ça, il faudrait demander à l'hébergeur s'il voit une raison pour laquelle Google n'a pas accès aux pages. Ou bien regarder dans les logs s'il y a des erreurs d'accès à certains fichiers essentiels pour le site (y compris les CSS).
 
Nouveau WRInaute
c'est sa façon cash de contribuer, mais il n'a pas vraiment tort : si Google voit des pages vides sur le site, il n'a pas envie de les indexer, et pas non plus d'indexer les prochaines qui sont publiées. C'est le crawl prédictif basé sur de l'IA...

bon, il y a peut-être des pb plus simples que ça, il faudrait demander à l'hébergeur s'il voit une raison pour laquelle Google n'a pas accès aux pages. Ou bien regarder dans les logs s'il y a des erreurs d'accès à certains fichiers essentiels pour le site (y compris les CSS).

Sauf que comme informé, suite a la demande d'indexation google a réindexé le site, et la totalité des pages, sans aucune modification sur le site, ce qui implique que le site ou l'hébergeur n'est pas en cause, mais bien autre chose.
Et je ne vois pas pourquoi parler de page vide, les pages ont du contenu.

L'ouverture de la question de base était
"""""""""""""""""
Comment re référencer le site. (si ce que j'ai fait ne fonctionne pas)

Comment est il possible de disparaitre du jour au lendemain?
""""""""""""""""""""

Donc critiquer le site en disant qu'il est merdique et vide, n'est absolument pas constructif et hors sujet.
Et on peut dire qu'un site est merdique pour les robots, uniquement si les autres navigateurs le boudent aussi, pas quand il est en top place partout ailleurs.
La il a été totalement supprimé de la base de donnés google, après des années de référencement.

Au passage google search console m'informe seulement des erreurs de taille pour les mobiles, aucune autre erreur.
 
WRInaute accro
Tu as entendu parler de "mobile first" ? Les chances d'indexation/référencement d'un site non adapté aux mobiles sont de plus en plus faibles sur Google. Et ça arrive à un moment ou à un autre. Manifestement, c'est arrivé plus tard pour toi que pour d'autres. Un incident technique, quel qu'il soit a fait "sauter" ton site et maintenant Google le réévalue aux normes actuelles...
 
WRInaute impliqué
comment le site a pu être dégagé de google

La raison a été donnée, robots.txt générait une erreur 500. La seule erreur que Google tolère sur robots.txt c'est une 404, sinon il considère que toutes les indexations sont refusées.

Est il possible qu'une personne malveillante ait réclamé la suppression du référencement a google, du genre par de multiple signalement?

Non.

Je corrige un peu ce que j'ai dit.

D'après la documentation (https://developers.google.com/search/docs/advanced/robots/robots_txt?hl=fr)

Étant donné que le serveur n'a pas pu donner de réponse précise à la requête robots.txt de Google, les erreurs de serveur sont interprétées temporairement comme si le site était entièrement inaccessible. […]

Si le fichier robots.txt est inaccessible pendant plus de 30 jours, la dernière copie en cache du fichier robots.txt est utilisée. Si aucune copie en cache n'est disponible, Google considère qu'aucune restriction d'exploration ne s'applique.

C'est donc un peu moins grave que ce je pensais, mais ça reste suffisamment ennuyeux pour expliquer l'absence d'indexation du site.
 
Dernière édition:
WRInaute impliqué
uniquement si les autres navigateurs le boudent aussi, pas quand il est en top place partout ailleurs.

Pour compléter : ne pas confondre "navigateur" et "crawler".

Le robots de crawl de Google n'a pas les mêmes règles que celui de Bing (et les autres), ce qui explique que le site avait "disparu" de Google, et pas des autres.
 
Dernière édition:
Nouveau WRInaute
Tout est dit.
Il faut être suicidaire pour ignorer le mobile en 2021.

cela serait suicidaire pour un site 2021, pas pour un ancien site, l'investissement pour un site n'est pas gratuit.

mais quoi qu'il arrive ce n'est pas la question du sujet. L'aspect mobile est une question pratique mais qui n'a rien a voir avec le référencement direct, sauf dans les cas ou le site est pourri de base au point que google le bombarde d'erreur comme les CMS.
 
WRInaute impliqué
L'aspect mobile est une question pratique mais qui n'a rien a voir avec le référencement direct

Tu te trompes lourdement, le référencement est intrinsèquement lié à la version mobile.
C'est ce que Marie-Aude essayait de te dire en évoquant le "mobile first". Ce que Google analyse désormais en priorité, c'est la version mobile, pas la version PC.
 
Nouveau WRInaute
Et tu n'as pas le sentiment que la "taille" est en l'occurrence l'erreur suprême à corriger au plus vite ?
Vous vous proposez de financer la transformation du site?

la transfo ne prend pas 5 min est n'est pas gratuite.
Donc cette question n'est pas dans mon camp et n'a pas de rapport avec le sujet.

Les stats de google donne se site entre la place 1 et 2 en fonction des recherches, donc pas de quoi estimer un rapport entre le référencement est la taille mobile.

et d'après le retour que je commence a avoir, mon problème était lié a la vague de tentative de piratage, le site a subit de forte tentative, mais bon des tentatives ridicules vue que c'est des tentative CMS, vue que le site n'est pas un CMS aucune chance que ce genre de chose le touche.
 
Nouveau WRInaute
Tu te trompes lourdement, le référencement est intrinsèquement lié à la version mobile.
C'est ce que Marie-Aude essayait de te dire en évoquant le "mobile first". Ce que Google analyse désormais en priorité, c'est la version mobile, pas la version PC.


Le mobile first est bien plus complexe que simplement mobile prioritaire.
sur des sites identique, le mobile sera effectivement prio, mais si le site mobile est moins bon que celui full pc, le mobile passera en second.
 
Nouveau WRInaute
Je l'ai rétudié suite aux info de emualliug, mais ce que vous ne semblez pas admettre c'est le fonctionnement du mobile first.
Le mobile first ne dégage pas les sites qui fonctionnent sur mobile, et qui ne sont pas graphiquement adapté aux mobile.
ils sont juste moins bien noté.
par contre ils ont un bug sur leur façon de faire, c'est que google récupère tous les liens utilisé sur le site, par n'importe qui.
Donc au moment de la tentative de piratage, google a voulu indexé tous les liens utilisés, sauf que 99,99% des liens renvoyait sur des pages d'erreur vue que c'était des liens pourri.

La seul solution au problème, c'est de faire sitemaps dynamique.

Le site actuellement a 1077 pages indexé avec ce genre d'info.

Exploration
Dernière exploration
15 oct. 2021, 23:50:39
Explorée avec
Googlebot pour smartphone
Exploration autorisée ?
Oui
Récupération de page
Réussie
Indexation autorisée ?
Oui
 
Dernière édition par un modérateur:
Nouveau WRInaute
La raison a été donnée, robots.txt générait une erreur 500. La seule erreur que Google tolère sur robots.txt c'est une 404, sinon il considère que toutes les indexations sont refusées.



Non.

Je corrige un peu ce que j'ai dit.

D'après la documentation (https://developers.google.com/search/docs/advanced/robots/robots_txt?hl=fr)



C'est donc un peu moins grave que ce je pensais, mais ça reste suffisamment ennuyeux pour expliquer l'absence d'indexation du site.


Merci pour les infos, même si ce n'était pas lié, les pistes m'ont quand même aidé a trouvé ce qu'il fallait faire.
le vrai problème c'est d'avoir google analytics, subire une tentative de piratage, et ne pas avoir de sitemaps, en gros google a récupéré tous les liens des pirates, et a tenté d'indexer tous les liens, évidement il n'a pas aimé le résultat des pages provenant des liens lié a la tentative de piratage.

Et je parle en centaine de millier de lien en une semaine.

Suite a la demande d'indexation tout est revenu a la normal, google a bien réussi a retrouver toutes les pages, mais je vais faire un sitemaps détaillé, histoire d'éviter le problème une seconde fois.
 
Olivier Duffez (admin)
Membre du personnel
Si je peux me permettre, avoir un sitemap ou pas, ne change rien au fait que si Google découvre des URL du site (par exemple acte de piratage), alors il peut décider de les indexer.

C'est bien de prévoir des sitemaps (exhaustifs, générés automatiquement et tout le temps à jour) pour faire des analyses avancées utiles en SEO. Mais tu dois surtout améliorer la sécurité du site pour éviter que ce genre de problème revienne.

Enfin, si j'ai bien compris, le site a subi un piratage qui a généré plein d'URL dans tous les sens. C'est une donnée importante du problème, qui n'avait pas été fournie dans le 1er message. Faut tout dire pour obtenir la meilleure aide possible ;-)
 
Nouveau WRInaute
Si je peux me permettre, avoir un sitemap ou pas, ne change rien au fait que si Google découvre des URL du site (par exemple acte de piratage), alors il peut décider de les indexer.

C'est bien de prévoir des sitemaps (exhaustifs, générés automatiquement et tout le temps à jour) pour faire des analyses avancées utiles en SEO. Mais tu dois surtout améliorer la sécurité du site pour éviter que ce genre de problème revienne.

Enfin, si j'ai bien compris, le site a subi un piratage qui a généré plein d'URL dans tous les sens. C'est une donnée importante du problème, qui n'avait pas été fournie dans le 1er message. Faut tout dire pour obtenir la meilleure aide possible ;-)


Heu, la sécurité du site est bonne puisqu'ils n'ont rien abimé, et n'ont pas réussi a faire la moindre modif sur le site, et ils n'ont pas réussi a ajouter de fichier.
Ils n'ont pas piraté le site et créé des url, mais tenté de pirater le site en utilisant des url
Du style
/wp-includes/wlwmanifest.xml
/sito/wp-includes/wlwmanifest.xml
/wp2/wp-includes/wlwmanifest.xml
/wordpress/wp-includes/wlwmanifest.xml
/site/wp-includes/wlwmanifest.xml
/wp1/wp-includes/wlwmanifest.xml
/wp/wp-login.php
/wordpress/wp-login.php
/blog/wp-login.php

mais on parle de millier de tentative dans le genre, un peu comme si ils avaient testé toutes les failles des CMS
Quelque url sont moins CMS, mais bon pas très convaincante comme tentative.

C'est en cherchant les infos dans les stats provenant de différente source que le regroupement c'est fait, et que la perte de référencement est devenu logique, puisque erreur 500 en pagaille.

Le sitemaps normalement devrait permettre d'éviter le problème, car même si google analyse les liens pourri, vue que la page vide apparaitra, et que la page n'est pas dans le sitemaps google estimera que c'est de sa faute si il tombe sur une page vide, puisque je ne lui ai pas donné l'info.

j’admets que c'est théorique, mais logique si on prend la description du fonctionnement de google, cela devrait fonctionner.
quoi qu'il arrive j'ai aussi juste a faire attention au référencement après une tentative de piratage.
 
WRInaute impliqué
Ils n'ont pas piraté le site et créé des url, mais tenté de pirater le site en utilisant des url […] on parle de millier de tentative dans le genre, un peu comme si ils avaient testé toutes les failles des CMS

Rien que de très banal pour tout site internet. C'est la pain quotidien de tout webmaster que de voir fleurir chaque jours les mêmes tentatives d'accès aux mêmes fichiers à la recherche des brèches les plus courantes.

Tout ça pour dire que ces informations ne me laissent pas penser que ton site ait été l'objet d'une tentative ciblée de piratage. Des robots tournent et testent le moindre NDD pour voir s'il répond à l'une des failles les plus courantes.

puisque erreur 500 en pagaille.

L'accès à ce type d'URL qui n'existe pas ne devrait pas retourner une erreur de la classe 500 qui implique une erreur du serveur. Le résultat normal serait une réponse de la classe 400 : 404 (page inexistante) ou 403 (accès interdit).

Le sitemaps normalement devrait permettre d'éviter le problème […] google estimera que c'est de sa faute si il tombe sur une page vide, puisque je ne lui ai pas donné l'info

Non, pas vraiment. comme le dit @WebRankInfo, ça ne changera rien. Le sitemap dit à Google quelles pages existent et doivent être explorées, par quelles pages ne doivent pas être explorées. Si Google suit un lien (on verra ensuite que c'est pas le problème ici), et que le site renvoi une réponse 404 (par exemple), Google n'indexera pas la page, mais c'est tout. Sur une erreur 500, c'est à voir, mais je ne serais pas étonné qu'il retente régulièrement d'indexer la page, car la réponse implique que c'est le serveur qui a rencontré une erreur et ait été dans l'impossibilité de fournir la page, pas qu'elle n'existe pas.

car même si google analyse les liens pourri

Les tentatives que tu décris ne laissent absolument pas penser qu'il existe des liens vers ces pages. Google n'a donc aucune raison de tenter d'y accéder. C'est pour ça que je dis que ce n'est pas le problème.
 
Nouveau WRInaute
Rien que de très banal pour tout site internet. C'est la pain quotidien de tout webmaster que de voir fleurir chaque jours les mêmes tentatives d'accès aux mêmes fichiers à la recherche des brèches les plus courantes.

Tout ça pour dire que ces informations ne me laissent pas penser que ton site ait été l'objet d'une tentative ciblée de piratage. Des robots tournent et testent le moindre NDD pour voir s'il répond à l'une des failles les plus courantes.



L'accès à ce type d'URL qui n'existe pas ne devrait pas retourner une erreur de la classe 500 qui implique une erreur du serveur. Le résultat normal serait une réponse de la classe 400 : 404 (page inexistante) ou 403 (accès interdit).



Non, pas vraiment. comme le dit @WebRankInfo, ça ne changera rien. Le sitemap dit à Google quelles pages existent et doivent être explorées, par quelles pages ne doivent pas être explorées. Si Google suit un lien (on verra ensuite que c'est pas le problème ici), et que le site renvoi une réponse 404 (par exemple), Google n'indexera pas la page, mais c'est tout. Sur une erreur 500, c'est à voir, mais je ne serais pas étonné qu'il retente régulièrement d'indexer la page, car la réponse implique que c'est le serveur qui a rencontré une erreur et ait été dans l'impossibilité de fournir la page, pas qu'elle n'existe pas.



Les tentatives que tu décris ne laissent absolument pas penser qu'il existe des liens vers ces pages. Google n'a donc aucune raison de tenter d'y accéder. C'est pour ça que je dis que ce n'est pas le problème.

Pour moi le banal sont les 4attaques un peu poussé par an, et les attaques a chaque nouvelle information d'une faille sur un CMS.

Pas vraiment ce genre d'attaque qui test absolument la totalité de ce qui est connu.


L'erreur 500 est pourtant été souvent détecté dans les stats, mais bon cela reste une attaque que je ne comprend pas trop vue le nombre.

quelque exemple autre, certain truc je ne comprend même pas pourquoi ils ont cherché l'info.
Peut être qu'ils cherchaient absolument a trouver la version d'un cms pour pouvoir y accéder.
mais les 7672 ouvertures de /apple-touch-icon.png, il me semble que quand un truc n'existe pas il n'y a pas besoin de s'acharner.

/apple-touch-icon.png 7.672
/apple-touch-icon-precomposed.png 7.626
/apple-touch-icon-120x120-precomposed.png 2.576
/apple-touch-icon-120x120.png 2.575
/apple-touch-icon-152x152.png 1.792
/media/feeds/err-log.php
/th1s_1s_a_4o4.html 40
/component/option,com_wrapper/Itemid,8/
/data/admin/allowurl.txt
/vendor/phpunit/phpunit/build.xml
/vendor/.env
/joomla/installation/index.php
...Designer/Telerik.Web.UI.DialogHandler.aspx
 
WRInaute impliqué
les 7672 ouvertures de /apple-touch-icon.png, il me semble que quand un truc n'existe pas il n'y a pas besoin de s'acharner.

/apple-touch-icon.png 7.672
/apple-touch-icon-precomposed.png 7.626
/apple-touch-icon-120x120-precomposed.png 2.576
/apple-touch-icon-120x120.png 2.575
/apple-touch-icon-152x152.png 1.792

Ce sont les navigateurs Safari qui cherchent à récupérer ces icônes, même lorsqu'elles n'existent pas. Autant de tentatives que d'utilisateurs, voir que de chargement de page car, en délivrant une réponse 500 tu ne leur a jamais dit que la page n'existait pas (mais que le serveur avait un problème).

Comme l'indiquait @rick38, le fait que toutes les pages inexistantes renvoient un code 500 n'est pas normal, et il serait opportun de corriger la cause de ceci. Sans doute pas une préoccupation majeure du point de vue SEO, mais on le voit, dans certains cas, ça créer des effets de bords surprenants (par exemple sur robots.txt).
 
Nouveau WRInaute
Ce sont des bots
Je ne sais pas trop comment je dois le prendre, vous pensiez que j'avais cru qu'un gars avait cliqué 7000 fois sur un lien?
Plus sérieusement, le bot est capable de déterminer si le fichier existe, c'est justement quand il existe qu'il devient intéressant pour le pirate.
Donc normalement il n'a pas besoin de tester un truc 7000 fois.

Sauf si dans le cas présent cela pourrait estimer qu'il existe 7000failles contenant se fichier et qu'ils ont testé 7000 protocole de failles possible sur le site.

Et si il ont fait ce genre de truc pour chaque CMS, je comprend mieux la quantité astronomique testé.
 
WRInaute accro
Le plus simple dans ce cas est de proposer les apple-touch-icon ainsi que les autres formats pour ne plus avoir ce genre d'erreur. Il existe une multitude de sites qui te permettent de tous les générer à partir d'une grande image de ton favicon par exemple.
Ex : https://www.favicon-generator.org/
 
Nouveau WRInaute
Le plus simple dans ce cas est de proposer les apple-touch-icon ainsi que les autres formats pour ne plus avoir ce genre d'erreur. Il existe une multitude de sites qui te permettent de tous les générer à partir d'une grande image de ton favicon par exemple.
Ex : https://www.favicon-generator.org/
Sauf que la je parle de ce genre d'image mais ce n'est qu'un exemple, il y en a plein d'autre, donc en gros j'en m'en fiche un peu que le bot du pirate se casse les dents.
Temps que google n'estime pas après, que si 7000 visites sur un lien, alors il faut l'indexer.
Ou que 7000 erreur 500 alors le site ne fonctionne pas.
 
Nouveau WRInaute
Est-ce la même IP qui réclame le fichier ?
Oui IP Russe, d'ailleurs, même si je ne vérifie pas toutes les ip des tentatives de piratage, c'est la première fois que je voyais une ip russe.

Bon l'info de l'ip n'est normalement pas une preuve du lieu résidence, mais de mon coté c'est souvent Algérie, Pakistan, chine, Turquie
 
WRInaute impliqué
m'en fiche un peu que le bot du pirate

Des visites sur "/apple-touch-icon.png" et consorts ont peu de chance d'être initiées par un bot dans un objectif de piratage par contre ("/vendor/.env", bien plus probablement) ; il s'agit très certainement de visites par un utilisateur apple.

Temps que google n'estime pas après, que si 7000 visites sur un lien, alors il faut l'indexer

Une URL n'est pas forcément un lien.

Google (côté moteur de recherche) ne sait pas quels liens sont suivis, moins encore quelles sont celles qui sont suivies.
 
Nouveau WRInaute
Des visites sur "/apple-touch-icon.png" et consorts ont peu de chance d'être initiées par un bot dans un objectif de piratage par contre ("/vendor/.env", bien plus probablement) ; il s'agit très certainement de visites par un utilisateur apple.



Une URL n'est pas forcément un lien.

Google (côté moteur de recherche) ne sait pas quels liens sont suivis, moins encore quelles sont celles qui sont suivies.
c'est forcément le pirate, la seul fois ou l'info est dans les stats, c'est les jours de tentative de piratage, et par une ip russe.
Et je vois mal 7000 visiteurs aller sur /apple-touch-icon.png alors que l'image n'existe pas sur le serveur.

Je parle d'url utilisé, google connaissant l’existence peut tenter de faire un lien de référencement.
Par exemple, il a référencé une page qui n'est renvoyé par aucun lien sur le site, mais uniquement envoyé par mail, le simple fait que les gens aillent sur la page a suffit pour qu'il l'index.
 
WRInaute accro
En attendant, tu as des pistes pour améliorer ton site du côté mobile maintenant, pas la peine de tourner en rond si ta faille a été corrigée.

1/ Déjà corriger ton problème d'erreur 500, ton Internal Server Error qui n'a pas lieu d'être sauf en cas d'une erreur de code. On dirait une page 404 qui n'a tout simplement pas été déclarée et renvoie une erreur serveur.
2/ Ensuite, en profiter pour ajouter ces fameuses icones pour mobile.
3/ Enfin corriger ton code et il y a pas mal de boulot en perspective : https://validator.nu/?doc=https://www.heula.fr/
 
WRInaute impliqué
Et je vois mal 7000 visiteurs aller sur /apple-touch-icon.png alors que l'image n'existe pas sur le serveur.

Ce n'est pas une demande spécifique de l'utilisateur, mais une requête faite systématiquement par certains navigateur (Safari). Comme favicon.ico.

Je parle d'url utilisé, google connaissant l’existence peut tenter de faire un lien de référencement.

Le seul fait qu'une URL soit utilisée n'implique pas Google en ait connaissance.

Par exemple, il a référencé une page qui n'est renvoyé par aucun lien sur le site, mais uniquement envoyé par mail, le simple fait que les gens aillent sur la page a suffit pour qu'il l'index.

??
 
Discussions similaires
Haut