Défendez un site Web de Google Duplicate Proxy

Discussion dans 'Référencement Google' créé par youssefbni1, 5 Février 2009.

  1. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
    j'ai deux site web déclassé sur google ( ils été dans la premiere page )

    google a indexé :

    https://tshake.com/index.html/010110A/http/www.darafnanes.com --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=1

    le site web --> http://www.darafnanes.com déclassé vers la page 6



    https://tshake.com/index.html/010110A/http/www.riad-marrakech.123.fr --> la cache de google ---> http://209.85.129.132/search?q=cach...te:https://tshake.com riad&hl=fr&ct=clnk&cd=2

    le site web --> http://www.riad-marrakech.123.fr déclassé vers la page 20

    Voici un site qui explique le phénomène ---malheureusement en anglais : voici l'adresse de la traduction :

    http://translate.google.com/transla...on+via+proxy+duplicate+content&hl=fr&lr=&sa=G

    comment faire a empechez un proxy? puisque la page https://tshake.com/index.html/010110A/http/www.darafnanes.com est indexé sur google est ce que c pour cela que mon site est déclassé ?
     
  2. Marie-Aude
    Marie-Aude WRInaute accro
    Inscrit:
    5 Juin 2006
    Messages:
    16 368
    J'aime reçus:
    2
    Le seul truc qui est important c'est ça :
    This is current the best solution available, and applies if you are running a PHP or ASP based website: you set ALL pages robot meta tags to "noindex" and "nofollow", then you implement a PHP or ASP script on each page that checks for valid spiders from the major search engines, and if so, resets the robot meta tags to index and follow. The important distinction here is that it's easier to validate a real spider, and to discount a spider that's trying to spoof you, because the major search engines publish processes and procedures to do this, including IP lookups and the like.

    Mais ça ne me parait pas une bonne solution. C'est dangereux (l'idée c'est d'interdire tout par défaut, et ensuite de reconnaitre et d'autoriser les robots des bons spiders sur la base de leurs protocoles publiés).

    Amha, le plus efficace sur un truc comme ça, c'est de faire un spam report sur le résultat de la recherche.
     
  3. youssefbni1
    youssefbni1 Nouveau WRInaute
    Inscrit:
    31 Juillet 2007
    Messages:
    37
    J'aime reçus:
    0
Chargement...
Similar Threads - Défendez Web Google Forum Date
Astuce optimisation image au format Webp YouTube, Google Images et Google Maps Lundi à 10:01
Impact du Coronavirus sur le trafic web Référencement Google 26 Mars 2020
Architecture site web Rédaction web et référencement 24 Mars 2020
Que pensez vous de Annuaire Web France Demandes d'avis et de conseils sur vos sites 21 Février 2020
Comment générer un impact positif sur votre SEO avec les Web Push Notifications ? Référencement Google 18 Février 2020
Comment faire la migration de mes PNG en WEBP ? YouTube, Google Images et Google Maps 16 Février 2020
Besoin d'un sitemap.xml pour web app en REACT? Débuter en référencement 13 Février 2020
developpeur web et web mobile Développement d'un site Web ou d'une appli mobile 6 Février 2020
Convertir page web en UTF-8 Développement d'un site Web ou d'une appli mobile 26 Janvier 2020
Pages exclues dans le webmaster tools Développement d'un site Web ou d'une appli mobile 22 Janvier 2020
  1. Ce site utilise des cookies. En continuant à utiliser ce site, vous acceptez l'utilisation des cookies.
    Rejeter la notice