Application Mac OS X gratuite pour télécharger un site Web entier

26

Existe-t-il une application gratuite pour télécharger un site entier installable sur Mac OS X 10.6?

Am1rr3zA
la source

Réponses:

21

J'ai toujours adoré le nom de celui-ci: SiteSucker .

MISE À JOUR : Les versions 2.5 et supérieures ne sont plus gratuites. Vous pourrez peut-être toujours télécharger des versions antérieures de leur site Web.

Grzegorz Adam Hankiewicz
la source
J'aime bien celui-là aussi. Interface simple à utiliser également.
Troggy
Idem! cette chose fonctionne, a une belle interface graphique et est facile à configurer ....
Brad Parks
1
Ce n'est pas gratuit. Sur l'App Store, ils demandent 5 $.
JohnK
2
@JohnK semble avoir changé de politique pour les versions 2.5.x et supérieures, mais les versions antérieures sont toujours disponibles gratuitement sur sitesucker.us/mac/versions2.html .
Grzegorz Adam Hankiewicz
1
@GrzegorzAdamHankiewicz a raison, vous pouvez télécharger 2.4.6 gratuitement sur leur site ici - ricks-apps.com/osx/sitesucker/archive/2.x/2.4.x/2.4.6/…
csilk
43

Vous pouvez utiliser wget avec son --mirrorinterrupteur.

wget --mirror –w 2 –p --HTML-extension –-convert-links –P / home / user / sitecopy /

page de manuel pour les commutateurs supplémentaires ici .

Pour OSX, vous pouvez facilement installer wget(et d'autres outils de ligne de commande) à l'aide de brew.

Si l'utilisation de la ligne de commande est trop difficile, CocoaWget est une interface graphique OS X pour wget. (La version 2.7.0 inclut wget 1.11.4 à partir de juin 2008, mais cela fonctionne très bien.)

John T
la source
J'ai besoin d'un logiciel, je ne veux pas utiliser wget
Am1rr3zA
33
wget est un logiciel, et c'est le plus flexible.
John T
7
wget est un logiciel génial, c'est un guichet unique pour tout téléchargement dont vous pourriez avoir envie.
Phoshi
ok alors Tanx pour votre réponse
Am1rr3zA
1
Wget est super. J'utilise wget --page-requisites --adjust-extension --convert-linkslorsque je souhaite télécharger des pages simples mais complètes (articles, etc.).
ggustafsson
3

SiteSuuker a déjà été recommandé et il fait un travail décent pour la plupart des sites Web.

Je trouve également que DeepVacuum est un outil pratique et simple avec quelques "préréglages" utiles.

La capture d'écran est jointe ci-dessous.

-

Interface simple avec "préréglages"

PKHunter
la source
1
Outil génial, juste ce dont j'avais besoin!
Hello World
C'est vraiment simple et ça marche très bien!
madx
1

pavuk est de loin la meilleure option ... C'est une ligne de commande mais possède une interface graphique X-Windows si vous l'installez à partir du disque d'installation ou le téléchargez. Peut-être que quelqu'un pourrait écrire une coque Aqua pour cela.

pavuk trouvera même des liens dans des fichiers javascript externes référencés et les dirigera vers la distribution locale si vous utilisez les options de synchronisation -mode ou de miroir -mode.

Il est disponible via le projet os x ports, installez le port et tapez

port install pavuk

Beaucoup d'options (une forêt d'options).

Simon Sheehan
la source
0

Téléchargement du site Web A1 pour Mac

Il a des préréglages pour diverses tâches de téléchargement de site courantes et de nombreuses options pour ceux qui souhaitent configurer en détail. Inclut le support UI + CLI.

Commence comme un essai de 30 jours, après quoi il se transforme en "mode gratuit" (toujours adapté aux petits sites Web de moins de 500 pages)

À M
la source
-2

Utilisez curl, il est installé par défaut dans OS X. wget n'est pas, du moins pas sur ma machine, (Leopard).

Dactylographie:

curl http://www.thewebsite.com/ > dump.html

Va télécharger dans le fichier, dump.html dans votre dossier actuel

Fred
la source
Le principal problème avec cela est que c'est le téléchargement de la page d'accueil , pas du site Web entier.
Phoshi
Eh bien, regardez la page de manuel
Fred
2
La dernière fois que j'ai vérifié, curlne fait pas de téléchargements récursifs (c'est-à-dire qu'il ne peut pas suivre les hyperliens pour télécharger des ressources liées comme d'autres pages Web). Ainsi, vous ne pouvez pas vraiment refléter un site Web entier avec lui.
Lawrence Velázquez
Eh bien, alors faites un script rapide pour obtenir les liens, nous sommes en ligne de commande, non? Sinon, utilisez simplement un outil avec une interface graphique.
Fred
2
(Et son nom est cURL ... Je pense que le montage de John T améliorait vraiment votre réponse.)
Arjan