Pouvons-nous utiliser l'expression régulière dans le fichier robots.txt pour bloquer les URL?

J'ai quelques URL générées dynamiquement. Puis-je utiliser l'expression régulière pour bloquer ces URL dans un fichier