J'ai sauvegardé toutes mes photos numériques à quelques endroits. J'utilise la commande cp, mais - étant donné la valeur personnelle - j'ai commencé à me demander s'il existe un moyen plus fiable. Je ne suis pas étranger à Linux, Bash, Perl, etc., donc je pourrais écrire quelque chose pour copier et comparer les hachages md5, mais je me demandais si quelque chose existait déjà (réinvention, roues et quoi).
La plupart de mes recherches sur Google pour la copie et (vérifier | valide | vérifier | hachage | confirmer) apparaissent rsync. Cependant, pour autant que je sache, rsync utilise uniquement des hachages pour voir si un fichier doit être mis à jour. Il n'effectue pas de comparaison de hachage par la suite.
Pour cette utilisation, en particulier, les fichiers sont binaires et généralement de 8 à 10 Mo. Toutes les recommandations pour les services publics ou des conseils pour les solutions de bricolage seraient grandement appréciées.
Réponses:
De
man rsync
, sous-c
option:-c, --checksum: sauter en fonction de la somme de contrôle, pas du temps de modification et de la taille
la source
Il y a plusieurs années, j'avais les mêmes exigences que vous. La solution que j'ai choisie était d'utiliser ZFS via le pilote ZFS-FUSE sur mon serveur de stockage. Je pensais que mes photos personnelles, documents numérisés et autres fichiers similaires étaient des choses auxquelles je ne pouvais accéder qu'occasionnellement, donc cela peut prendre beaucoup de temps, disons un an ou plus, avant de remarquer qu'un fichier a été corrompu en raison de une erreur de lecteur ou similaire.
À ce moment-là, toutes les copies de sauvegarde que j'ai peuvent être cette version pourrie des fichiers.
ZFS présente un avantage sur RAID-5 en ce qu'il peut détecter et réparer les erreurs dans les données stockées sur les disques individuels, même si les lecteurs ne signalent pas d'erreur de lecture lors de la lecture des données. Il détectera, via des sommes de contrôle, que l'un des disques a retourné des informations corrompues et utilisera les données de redondance pour réparer ce disque.
En raison de la façon dont la somme de contrôle dans ZFS est conçue, je sentais que je pouvais compter sur elle pour stocker des données rarement utilisées pendant de longues périodes. Chaque semaine, je lance un "zpool scrub" qui passe en revue et relit toutes les données et vérifie les sommes de contrôle.
ZFS-FUSE a très bien fonctionné pour moi au cours des dernières années.
Dans un passé lointain, pour un client, j'ai implémenté un système de base de données qui stockait des informations de somme de contrôle sur tous les fichiers stockés dans un répertoire particulier. J'ai ensuite eu un autre script qui s'exécuterait périodiquement et vérifierait le fichier par rapport à la somme de contrôle stockée dans la base de données. Avec cela, nous avons pu détecter rapidement un fichier corrompu et restaurer à partir de sauvegardes. Nous implémentions essentiellement les mêmes types de contrôles que ZFS effectue en interne.
la source
https://sourceforge.net/projects/crcsum/ Il étend Linux cp & mv avec vérification de la somme de contrôle
la source
J'ai trouvé cet utilitaire (Linux et Windows) qui fait exactement ce que vous voulez (copie hachée + vérification hachée avec journal): http://sourceforge.net/projects/quickhash/
Le seul inconvénient étant qu'il n'existe que sous forme d'interface graphique (pas d'accès en ligne de commande)
la source
si vous copiez le fichier localement (comme l'implique votre référence à la
cp
place descp
etc), alors justecmp
les fichiers source et de destination ... mais de façon réaliste, s'ilcp
n'émet pas une sorte d'erreur (soit sur la ligne de commande soit dans la valeur de retour d'exécution), il n'y a aucune raison de croire que cela ne fonctionne pas.si vous souhaitez en effet une sauvegarde légitimement redondante, envisagez une solution distante comme dropbox .
la source