Comment télécharger une liste de fichiers depuis un serveur de fichiers comme celui-ci http://www.apache.org/dist/httpd/binaries/ ?
Je suppose que je pourrais utiliser wget mais ensuite il essaie d'obtenir tous les liens et le fichier html également. Existe-t-il un meilleur outil pour y parvenir?
download
apache-http-server
wget
BinaryMisfit
la source
la source
Réponses:
Vous pouvez spécifier les extensions de fichier à
wget
télécharger lors de l'exploration des pages:Ceci effectuera une recherche récursive et uniquement les fichiers télécharger les
.zip
,.rpm
et les.tar.gz
extensions.la source
en supposant que vous vouliez vraiment juste une liste des fichiers sur le serveur sans les récupérer (encore):
tandis que «filter.awk» ressemble à ceci
vous devrez peut-être filtrer certaines entrées comme
la source
Réf: http://blog.incognitech.in/download-files-from-apache-server-listing-directory/
Vous pouvez utiliser la commande suivante:
Explication avec chaque option
wget
: Commande simple pour faire une demande CURL et télécharger des fichiers distants sur notre machine locale.--execute="robots = off"
: Cela ignorera le fichier robots.txt lors de l'exploration des pages. C'est utile si vous n'obtenez pas tous les fichiers.--mirror
: Cette option reflétera essentiellement la structure du répertoire pour l'URL donnée. C'est un raccourci-N -r -l inf --no-remove-listing
qui signifie:-N
: ne récupérez pas les fichiers sauf s'ils sont plus récents que les fichiers locaux-r
: spécifier le téléchargement récursif-l inf
: profondeur de récursivité maximale (inf ou 0 pour infini)--no-remove-listing
: ne supprimez pas les fichiers '.listing'--convert-links
: les liens HTML ou CSS téléchargés pointent vers des fichiers locaux--no-parent
: ne montez pas dans le répertoire parent--wait=5
: attendez 5 secondes entre les récupérations. Afin que nous ne battions pas le serveur.<website-url>
: Il s'agit de l'URL du site Web à partir duquel télécharger les fichiers.Téléchargement heureux: smiley:
la source