Je télécharge en wgetutilisant un lien lent. Parfois, la barre de progression ressemble à ceci: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Quelle est la signification de
Je télécharge en wgetutilisant un lien lent. Parfois, la barre de progression ressemble à ceci: 15% [+++++++++++++++===> ] 10,582,848 --.-K/s in 82s Quelle est la signification de
J'ai actuellement un script shell en cours d'exécution sur un serveur Linux qui utilise wget in oder pour télécharger une page Web distante. Ceci est à son tour exécuté par une tâche cron qui doit s'exécuter à certains moments. Quelqu'un peut-il confirmer que l'ajout de l' -qoption empêchera non...
Je me demandais s'il wgetétait possible de télécharger un RPM puis de le diriger sudo rpm -ipour l'installer, sur une seule ligne? Je réalise que je pourrais simplement courir: wget -c <URL> sudo rpm -i <PACKAGE-NAME>.rpm pour installer le package, mais je me demandais s'il serait...
Je suis tombé sur ce site qui en parle. Donc, lorsque vous téléchargez un site Web entier en obtenant la version gzippée, quelle est la bonne commande? J'ai testé cette commande, mais je ne sais pas si wget obtient vraiment la version gzippée: wget --header="accept-encoding: gzip" -m...
Si j'essaie wget sur une page Web, je reçois la page en html. Est-il possible de récupérer uniquement le texte d'un fichier sans html associé? (Ceci est requis pour moi car certaines des pages HTML contiennent le programme c est téléchargé avec des balises html. Je dois l'ouvrir dans le navigateur...
Comment utiliser wget pour télécharger des fichiers depuis Onedrive? (et fichiers batch et dossiers entiers, si
Je suis intéressé par une seule commande qui téléchargerait le contenu d'un torrent (et participerait peut-être en tant que graine après le téléchargement, jusqu'à ce que je l'arrête). Habituellement, il existe un démon torrent-client qui doit être démarré séparément au préalable, et un client à...
Je n'ai trouvé que puf (récupérateur d'URL parallèle) mais je n'ai pas pu le faire lire les URL d'un fichier; quelque chose comme puf < urls.txt ne fonctionne pas non plus. Le système d'exploitation installé sur le serveur est
J'essaie de télécharger des fichiers depuis ce site Web . L'URL est: http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Lorsque j'utilise cette commande: wget http://www.ncbi.nlm.nih.gov/geo/download/?acc=GSE48191&format=file Je reçois seulement index.html?acc=GSE48191ce qui...
Je voudrais essentiellement diriger une wgetcommande vers un fichier sur un serveur distant via SSH. Comment puis-je faire ceci? Je sais que je pourrais simplement sshaccéder au serveur et lui faire télécharger le fichier, mais je préfère de loin utiliser la machine locale pour le télécharger et...
J'exécute des milliers de processus d'arrière-plan curl en parallèle dans le script bash suivant START=$(date +%s) for i in {1..100000} do curl -s "http://some_url_here/"$i > $i.txt& END=$(date +%s) DIFF=$(( $END - $START )) echo "It took $DIFF seconds" done J'ai un serveur dédié 49Gb...
Je voudrais explorer les liens sous www.website.com/XYZ et télécharger uniquement les liens qui se trouvent sous www.website.com/ABC. J'utilise la commande wget suivante pour obtenir les fichiers que je veux: wget -I ABC -r -e robots=off --wait 0.25 http://www.website.com/XYZ Cela fonctionne...
Je cours wgetcomme ça: wget --mirror --adjust-extension --convert-links --no-cookies http://tshepang.net -o log-main Je reçois un tas de ces messages: Last-modified header missing -- time-stamps turned off. Je suppose que cela signifie que les pages sont de nouveau téléchargées, même si je les ai...
J'écris un script qui implique le téléchargement et la manipulation d'un fichier, et je veux m'assurer que le fichier n'est pas incomplet (en raison, par exemple, d'une connexion interrompue) avant de travailler
Je veux utiliser wget(à partir d'un script php) pour télécharger des fichiers image, mais je ne veux pas télécharger des fichiers d'une certaine taille. Puis-je limiter la taille des fichiers avec wget? Sinon, quelle est la meilleure
J'ai un site sur un serveur qui est essentiellement un tas de pages HTML, d'images et de sons. J'ai perdu mon mot de passe sur ce serveur et je dois récupérer tout ce qui y est stocké. Je peux aller page par page et tout enregistrer mais le site compte plus de 100 pages. J'utilise OSX. J'ai essayé...
Je suis sshallé sur mon serveur et j'ai couru wget -r -np zzz.aaa/bbb/cccet il a commencé à fonctionner. Ensuite, ma connexion Internet (chez moi) a été interrompue et je me suis inquiété en supposant que cela wgetavait été hupinterrompu car la sshconnexion était perdue et donc le terminal était...
Si vous utilisez l'extension d'accolade avec wget, vous pouvez facilement récupérer des images numérotées séquentiellement: $ wget 'http://www.iqandreas.com/sample-images/100-100-color/'{90..110}'.jpg' Il va chercher les 10 premiers fichiers numérotés 90.jpgà 99.jpgtrès bien, mais 100.jpget revenir...
Par exemple, j'ai un lien http://www.abc.com/123/def/ghi/jkl.mno. Je veux le télécharger en utilisant wgetou curlet obtenir le nom du fichier de sortie comme def_ghi_jkl.mno, où la partie def_ghiest prise à partir du lien. Je mettrai cette wgetcommande dans un script pour télécharger plusieurs...
Je veux simplement pouvoir explorer un système de fichiers dropbox, sans beaucoup de charge supplémentaire sur le CPU, la mémoire, le stockage (c'est-à-dire sans enregistrer localement des copies des fichiers distants). Il semble que le client officiel consomme beaucoup de réassurances (et ferait...