Les deux facteurs importants ici sont la rapidité avec laquelle la source peut transmettre des données et la rapidité avec laquelle le destinataire peut les valider. GigE est un très bon début, ce qui signifie qu'en théorie, cela ne prend que 4,7 heures. Les facteurs qui peuvent augmenter ceci:
- Si les mémoires tampons du réseau du destinataire sont épuisées (la source émet trop rapidement).
- Si le point d’envoi est très fragmenté, il ne pourra pas transmettre les données à la vitesse de ligne.
- Si le destinataire n'est pas très fragmenté, il risque de ne pas pouvoir écrire assez rapidement.
- Quelque chose sur votre chemin de réseau monopolise la bande (un port de liaison montante caché étant saturé par un autre trafic).
Mon calcul de retour d'enveloppe indique que vous devez diffuser à environ 49 Mo / seconde pour que cela fonctionne. Si ce disque dur est nu et que la pile de réseau est bonne, ce sont probablement les niveaux de fragmentation de la source qui déterminent la vitesse ultime.
Edit : Je vois dans les commentaires que vous prévoyez sur un système de sauvegarde sur disque.
Quelques autres choses à considérer. L'utilisation de plusieurs lecteurs cibles dans une configuration de bande est un bon moyen de paralléliser le processus de recherche et de réduire les dommages liés à la fragmentation. RAID10 est la meilleure solution pour cela, bien que Raid5 / 6 puisse fonctionner si votre carte RAID est suffisamment rapide pour la gérer. Si ce n'est pas le cas, RAID10 est votre seul espoir redondant. Les disques de 7,2K tr / min peuvent vraiment être utilisés dans ces situations. Je le fais actuellement mais avec des disques de 500 Go et non de 2 To. Vous voulez vraiment, vraiment, vous assurer que ces lecteurs écrivent autant que possible séquentiellement et réduire les écritures aléatoires.
Les écritures aléatoires sont causées de plusieurs manières. Si votre système de sauvegarde copie simplement les fichiers vers un nouvel emplacement, vous créez simplement des millions de fichiers et les sauvegardes seront inévitablement aléatoires dans ce cas. Vous voulez éviter les systèmes de sauvegarde qui le font. Si votre système de sauvegarde crée des fichiers d'archive volumineux (des fichiers de 10 Go par exemple), des E / S aléatoires se produisent lorsque ces fichiers se fragmentent.
Éviter la fragmentation de gros fichiers nécessite quelques étapes:
- Assurez-vous qu’un seul fichier est écrit à la fois.
- Il existe quelques exceptions à cela si vous utilisez le bon type de système de fichiers sous Linux, mais je ne sais pas si vous le faites. Si vous utilisez NTFS, gardez-en un seul.
- Il doit y avoir suffisamment d'espace libre pour qu'un seul fichier volumineux soit écrit en une seule fois.
- Après avoir couru pendant un moment, surveillez votre tableau de fragmentation.
- Si possible, configurez votre système de sauvegarde pour créer le fichier au total avant utilisation. Vous obtiendrez peut-être des fichiers de 10 Go pour la plupart vides, mais au moins ils sont contigus et aideront à réduire le «flu-fluep» à mesure que le système vieillit.