J'ai besoin de télécharger 100 Go de fichiers (c'est environ 150 fichiers) dans un délai de 7 jours avant leur expiration. Le taux de téléchargement est limité par l'hôte, donc cela prend BEAUCOUP plus longtemps que le taux de transfert théorique basé sur des vitesses Internet normales. J'ai un script de commandes curl http://curl.haxx.se/docs/manpage.html - une ligne par fichier.
J'ai eu l'idée de faire tourner automatiquement n instances EC2, d'exécuter la commande et de transférer les fichiers par FTP vers un emplacement central, puis d'arrêter les machines. Comment pourrais-je faire ça?
Je me fiche que ce soit Linux ou Windows.
la source
J'ai déjà utilisé boto pour écrire de telles choses. Le plus simple est de faire tourner des images linux puis de les faire ssh pour les faire fonctionner.
la source
Pas sûr de la meilleure solution. Mais si vous faites cela régulièrement et que vous avez besoin de quelque chose pour démarrer et arrêter automatiquement vos machines, alors vous voudrez peut-être regarder ce produit: http://LabSlice.com (avec l'avertissement que je suis le CTO).
la source
Vagrant avec le fournisseur AWS le fait facilement et est multi-plateforme.
Une fois le
Vagrantfile
fichier créé, vous lancez l'instance avecvagrant up
, vous y connectez avecvagrant ssh
et la détruisez avecvagrant destroy
. Super simple.la source