Comment utilisez-vous wget pour télécharger un site entier (domaine A) lorsque ses ressources se trouvent sur un autre domaine (domaine B)? J'ai essayé: wget -r --level=inf -p -k -E --domains=domainA,domainB
Comment utilisez-vous wget pour télécharger un site entier (domaine A) lorsque ses ressources se trouvent sur un autre domaine (domaine B)? J'ai essayé: wget -r --level=inf -p -k -E --domains=domainA,domainB
J'essaye d'obtenir quelques fichiers de mon serveur ftp à partir de la ligne de commande. J'utilise wget pour télécharger le dossier entier en une seule fois. La commande est: wget -m ftp://username:[email protected]:/path/to/folder Mais le problème est que mon mot de passe contient le...
wget --load-cookieschargera les cookies sous la forme d'un "fichier texte au format utilisé à l'origine par le fichier cookies.txt de Netscape". Cependant, Firefox conserve ses cookies dans une base de données SQLite . Existe-t-il un moyen d'extraire le "fichier cookies.txt de Netscape" du...
J'utilise wget --mirror --html-extension --convert-linkspour mettre en miroir un site, mais je me retrouve avec beaucoup de noms de fichiers au format post.php?id=#.html. Lorsque j'essaie de les afficher dans un navigateur, cela échoue, car le navigateur ignore la chaîne de requête lors du...
J'ai un site Web et je souhaite télécharger toutes les pages / liens de ce site Web. Je veux faire un wget -rsur cette URL. Aucun des liens ne va "en dehors" de ce répertoire spécifique, donc je ne suis pas inquiet de télécharger l'intégralité d'Internet. En fait, les pages que je veux se trouvent...
Si j'écris wget "no such address" -o "test.html", il crée d'abord le test.html et en cas d'échec, le laisse vide. Cependant, si vous n'utilisez pas -o, il attendra pour voir si le téléchargement réussit et seulement après cela, il écrira le fichier. J'aimerais que ce dernier comportement soit...
J'utilise Linux Mint 15 Cinnamon fonctionnant à partir d'une clé USB de 8 Go. Je veux obtenir l'ISO pour 'Linux Mint 14 "Nadia" KDE'. J'ai essayé d'utiliser wgetdans le terminal. Voici exactement ce que j'ai tapé: wget http://mirror.ufs.ac.za/linuxmint/stable/14/linuxmint-14-kde-dvd-64bit.iso après...
Essentiellement, je veux explorer un site entier avec Wget, mais j'en ai besoin pour ne JAMAIS télécharger d'autres ressources (par exemple, images, CSS, JS, etc.). Je veux seulement les fichiers HTML. Les recherches Google sont complètement inutiles. Voici une commande que j'ai essayée: wget...
Comment demandez-vous à wget d'explorer récursivement un site Web et de télécharger uniquement certains types d'images? J'ai essayé d'utiliser cela pour explorer un site et télécharger uniquement des images Jpeg: wget --no-parent --wait=10 --limit-rate=100K --recursive --accept=jpg,jpeg...
J'ai un fichier assez volumineux hébergé sur cinq serveurs différents. Je voudrais pouvoir télécharger différentes parties du fichier depuis chaque serveur et ensuite concaténer les parties, afin de produire le fichier d'origine. Existe-t-il un moyen de le faire avec curl / wget ou tout autre outil...
J'essaie d'utiliser wget pour créer un miroir local d'un site Web. Mais je constate que je ne reçois pas toutes les pages de liens. Voici le site http://web.archive.org/web/20110722080716/http://cst-www.nrl.navy.mil/lattice/ Je ne veux pas toutes les pages qui commencent web.archive.org, mais je...
Je veux récupérer une archive de cette bibliothèque python à partir du terminal. https://github.com/simplegeo/python-oauth2/downloads Cependant, je ne peux pas simplement appeler wget https://github.com/simplegeo/python-oauth2/tarball/master parce que cela récupère une page Web. Comment puis-je...
Je sais que vous pouvez télécharger des pages Web récursivement en utilisant wget, mais est-il possible de faire un essai à blanc? Afin que vous puissiez en quelque sorte faire un test pour voir combien serait téléchargé si vous le faisiez réellement? En pensant aux pages qui ont beaucoup de liens...
J'essaie de télécharger une URL qui ressemble à http://www.somesite.com/restaurants.html#photo=22x00085. Je l'ai mis entre guillemets simples, mais il ne télécharge que http://www.somesite.com/restaurants.html qui n'est pas la bonne page. Y a-t-il une
J'essaie de télécharger deux sites à inclure sur un CD: http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info Le problème que j'ai, c'est que ce sont deux wikis. Ainsi, lors du téléchargement avec par exemple: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ J'obtiens...
Si exécuté sans paramètres mes wgetimpressions: D:\>wget SYSTEM_WGETRC = c:/progra~1/wget/etc/wgetrc syswgetrc = c:/progra~1/wget/etc/wgetrc D:\Apps\Util\wget: missing URL Usage: D:\Apps\Util\wget [OPTION]... [URL]... Try `D:\Apps\Util\wget --help' for more options. Cela signifie probablement,...
Imaginez que je voulais une simple copie de page à télécharger sur mon disque dur pour une conservation permanente. Je ne recherche pas un get récursif profond, juste une seule page, mais aussi des ressources chargées par cette page à télécharger également. Exemple: https://www.tumblr.com/...
Comment puis-je écrire un script bash qui va faire ce qui suit: URL = "example.com/imageID=" while (1..100) wget URL + $i #it will wget example.com/imageID=1, then 2, then 3, etc done J'ai donc un certain nombre de boucles à effectuer, une URL qui se termine par un numéro de la boucle. J'ai besoin...
D'accord, j'abandonne. Comment puis-je limiter la taille des fichiers téléchargés, comme dire que je ne veux pas de fichiers supérieurs à 2
J'ai une URL de page html et je veux la grep. Comment puis-je le faire wget someArgs | grep keyword? Ma première idée était wget -q -O - url | grep keyword, mais la sortie de wget contourne grep et se pose sur le terminal dans sa forme