Je veux télécharger un site Web entier (avec des sous-sites). Y at-il un outil pour cela?
software-recommendation
UAdapter
la source
la source
--convert-links
dans wget) ne révéleront pas les sites qui ne sont révélés qu'en soumettant un formulaire, entre autres choses.Réponses:
Essayez l'exemple 10 à partir d' ici :
–mirror
: activer les options appropriées pour la mise en miroir.-p
: téléchargez tous les fichiers nécessaires pour afficher correctement une page HTML donnée.--convert-links
: après le téléchargement, convertir les liens dans le document pour une visualisation locale.-P ./LOCAL-DIR
: enregistrez tous les fichiers et répertoires dans le répertoire spécifié.la source
--wait=seconds
argument si vous souhaitez être plus convivial sur le site; il attendra le nombre de secondes spécifié entre les extractions.--no-parent
pour "ne jamais monter au répertoire parent" pris à partir d' ici .httrack est l'outil que vous recherchez.
la source
Avec
wget
vous pouvez télécharger un site Web entier, vous devez utiliser-r
switch pour un téléchargement récursif . Par exemple,la source
WEBHTTRACK WEBSITE COPIER est un outil pratique pour télécharger un site Web complet sur votre disque dur en vue d'une navigation hors ligne. Lancez le centre de logiciels ubuntu et saisissez "guillemets de site Web" sans les guillemets dans le champ de recherche. sélectionnez-le et téléchargez-le du centre logiciel sur votre système. démarrez la webHTTrack à partir du menu de lancement ou du menu de démarrage, à partir de là, vous pourrez commencer à profiter de cet outil formidable pour les téléchargements de votre site
la source
Je ne connais pas les sous-domaines, à savoir les sous-sites, mais wget peut être utilisé pour récupérer un site complet. Jetez un oeil à la question de ce superutilisateur . Il dit que vous pouvez utiliser
-D domain1.com,domain2.com
pour télécharger différents domaines dans un seul script. Je pense que vous pouvez utiliser cette option pour télécharger des sous-domaines, par exemple-D site1.somesite.com,site2.somesite.com
la source
J'utilise Burp - l'outil spider est beaucoup plus intelligent que wget et peut être configuré pour éviter les sections si nécessaire. La suite Burp elle-même est un ensemble puissant d’outils facilitant les tests, mais l’outil spider est très efficace.
la source
Vous pouvez télécharger toute la commande du site Web:
Exemple :
la source
Si la rapidité vous préoccupe (et que le serveur ne fonctionne pas bien), vous pouvez essayer puf , qui fonctionne comme wget mais peut télécharger plusieurs pages en parallèle. Ce n'est cependant pas un produit fini, pas entretenu et horriblement non documenté. Néanmoins, pour télécharger un site Web contenant de nombreux fichiers de petite taille, cela pourrait être une bonne option.
la source