Nous avons une page de recherche de magasin sur le site de notre client. L'utilisateur final entre son code postal et un rayon de recherche et nous affichons les résultats sur une carte Google.
Récemment, nous avions commencé à remarquer que le site atteignait la limite de recherche de carte gratuite (environ 25 000 par 24 heures) sans augmentation notable du trafic global. J'ai activé une journalisation supplémentaire pour essayer de trouver le problème.
Il s'avère que Googlebot pousse à travers des milliers de recherches sur cette carte. Ceci est un petit échantillon:
2017-07-09 23: 56: 22,719 [7] INFO ShopLanding - [Sujet 41] Google Maps: le G23 recherché a reçu OK de 66.249.66.221 09/07/2017 23: 56: 35,469 [7] INFO ShopLanding - [Thread 10] Google Maps: CA6 recherché a reçu OK de 66.249.66.221 2017-07-09 23: 57: 24,563 [7] INFO ShopLanding - [Sujet 48] Google Maps: le BN14 recherché a reçu OK de 66.249.66.223 2017-07-09 23: 58: 00,970 [7] INFO ShopLanding - [Thread 42] Google Maps: CB4 recherché a reçu OK de 66.249.66.221 2017-07-09 23: 58: 13,064 [7] INFO ShopLanding - [Sujet 54] Google Maps: la recherche DY9 a reçu OK de 66.249.66.221 2017-07-09 23: 59: 18,722 [7] INFO ShopLanding - [Thread 59] Google Maps: TS3 recherché a reçu OK de 66.249.66.223 2017-07-09 23: 59: 53,223 [7] INFO ShopLanding - [Sujet 49] Google Maps: la recherche S45 a reçu OK de 66.249.66.221
Existe-t-il un moyen d'empêcher Google de traiter autant de demandes? Cela représente une part importante de l'allocation gratuite. Les recherches légitimes semblent être inférieures à 200 par jour.
ÉDITER
Le site est construit sur C # ASP.NET. La recherche en magasin utilise POST, l'URL ne change pas lors de la soumission. Je peux publier un échantillon de journaux IIS demain matin pour confirmer ce comportement.
la source
POST
demandes pour AJAX, je vérifierai cependant les journaux IIS.Réponses:
Pour empêcher googlebot de rechercher via googlemaps, placez un fichier nommé
robots.txt
à la racine de votre domaine. par exemple https://www.wikipedia.org/robots.txtExemple de robots.txt:
Où / search-store / est la page qui envoie la demande à google maps.
S'il se trouve que c'est autre chose que Googlebot, vous pouvez essayer de désactiver toutes les analyses vers cette page avec:
Notez que cela n'arrêtera pas les scripts qui ignorent le fichier robots.txt.
la source