J'ai quelques URL générées dynamiquement.
Puis-je utiliser l'expression régulière pour bloquer ces URL dans un fichier robots.txt?
robots.txt
regular-expression
Sudheera Njs
la source
la source
Réponses:
Les expressions régulières ne sont pas valides dans robots.txt, mais Google, Bing et certains autres bots reconnaissent certaines correspondances de modèles.
Supposons que si vous vouliez bloquer toutes les URL qui ont
example
n'importe où dans l'URL, vous pouvez utiliser une entrée générique *Vous pouvez également utiliser le signe dollar $ pour spécifier que les URL doivent se terminer de cette façon. Donc, si vous souhaitez bloquer toutes les URL qui se terminent par
example
, mais pas les URL qui ont unexample
autre endroit dans l'URL, vous pouvez utiliser:Plus d'informations détaillées sur Google peuvent être trouvées ici: Spécifications Robots.txt , Bing ici: Comment créer un fichier Robots.txt et il y a un guide interactif sur Moz ici
la source