Pourquoi effacer un fichier avec des motifs aléatoires au lieu de tous les 0 ou 1?

28

Les fichiers informatiques ne sont pas réellement supprimés lorsqu'ils sont supprimés sous Windows. Le pointeur d'adresse est simplement libéré et cet espace est libéré pour être remplacé ultérieurement.

Pour les informations sensibles, il est recommandé de l'effacer avec un scrubber qui masque d'abord le fichier.

Il s'avère que ces laveurs écrivent une séquence spécifique de 1 et de 0 sur le disque dur sur plusieurs itérations.

Pourquoi ne pouvez-vous pas simplement écrire tous les zéros ou tous les uns dans le fichier, puis le supprimer normalement?

Comment quelqu'un pourrait-il réussir à récupérer des données à partir d'un simple effacement comme cela plus ou moins que l'utilisation de plusieurs itérations et modèles?

CSharperWithJava
la source
4
Grande question.
JNK

Réponses:

15

La version courte: théoriquement , le modèle original peut toujours être lu par certains matériels et logiciels sophistiqués. Pour assurer la sécurité de vos données "effacées", elles doivent être effacées.

La réponse longue: http://en.wikipedia.org/wiki/Data_remanence


Edit: Pour être juste envers ceux qui ont déjà voté, je laisse ma réponse telle qu'elle a été écrite à l'origine; cependant, lisez les commentaires pour une divulgation complète.

Beaucoup de gens, moi y compris, estiment que plus d'une passe avec des données pseudo-aléatoires de qualité cryptographique est une perte de temps et de cycles CPU.

Adrien
la source
Donc, pour les supports magnétiques, il y a un bit hérité qui pourrait potentiellement être lu?
JNK
6
Pas un bit hérité, mais que, à un niveau distinct du système de fichiers, les différents niveaux précédents d'énergie magnétique ne sont pas complètement neutralisés sans plusieurs remplacements avec des motifs variables. Il s'agit certainement d'une opération médico-légale à fort coût. (Budget de type Megacorp et / ou agence de trois lettres) ...
Adrien
2
Il s'agit d'une rumeur de longue date, mais je ne pense pas qu'il existe des preuves pour étayer l'idée que cela est possible. J'ai lu les voyages de plusieurs personnes pour essayer de trouver quelqu'un qui peut le faire et ils sont tous venus les mains vides. Ils sont tous arrivés à la conclusion que c'est un mythe. Cela étant dit, on ne sait vraiment pas ce qui se passe ou ne se passe pas dans les murs des agences à trois lettres.
Jarvin
3
@Dan: Tout d'abord, je suis fermement du côté "Gutmann était sur le crack" du débat. «Certaines personnes sont en désaccord avec cette théorie» était, je pense, implicite dans mon «théoriquement», et est explicitement mentionné dans l'article lié. Dans l'esprit de "ne pas dupliquer l'effort", j'espérais amener les gens à lire ce qui est déjà un très bon article plutôt que de simplement le régurgiter ici. J'aurais peut-être dû être plus direct, alors voici: Beaucoup de gens, moi y compris, pensent que plus d'une passe avec des données pseudo-aléatoires cryptographiquement saines est une perte de temps et de cycles CPU. YMWV
Adrien
1
Dans le bon vieux temps du codage MFM, de la faible densité de données et des moteurs pas à pas, les variateurs avaient des problèmes où l'espacement entre les pistes pouvait conserver une aimantation résiduelle en raison du positionnement laxiste de la tête et des changements de température. Le document de Gutmann a été écrit en 1996. Son écrasement de motifs fixes multiples en 35 passes était une tentative d'essuyer un disque avec certitude sans rien en savoir. Dans les décennies qui ont suivi, il a déclaré que le nettoyage avec des données aléatoires était suffisant pour les lecteurs modernes à haute densité de données.
Fiasco Labs
3

Je pense que je me souviens avoir lu quelque chose sur les propriétés magnétiques des plateaux étant tel que tout ensemble aléatoire donné d'octets écrasant un bloc ne démagnétiserait pas nécessairement complètement ou ne réaccorderait pas une zone de disque à un état totalement neutre, donc certaines informations sur les données antérieures étaient laissé derrière. Certes, je ne pense pas que ce soit beaucoup, mais cela sonnait suffisamment pour qu'une analyse médico-légale déterminée puisse au moins retrouver la nature des données effacées.

L'idée des modèles spécifiques de 1 et de 0 est qu'ils sont tels qu'ils fonctionnent avec le codage du disque dur 8 / 10B (ou quoi que ce soit) qui est utilisé afin de remettre le bloc de stockage magnétique global dans un état neutre.

Jetez un œil à Spinrite , il peut apparemment vous montrer les différents "niveaux" magnétiques dans lesquels les données sont stockées afin de récupérer et de "rafraîchir" les données sur un lecteur, du moins c'est ce qu'il prétend.

Mokubai
la source
3

Les méthodes de récupération logicielles normales ne peuvent pas récupérer des données écrasées une fois par n'importe quel modèle, il faut un gros budget et des techniques sophistiquées pour récupérer des données qui n'ont été écrasées qu'une seule fois. Un remplacement est suffisant, sauf si vous avez le FBI NSA, NASA ect., Qui veulent vos données. Mais si votre paranoïaque l'écrase 35 fois, démontez ensuite le disque dur et broyez les plateaux en poussière fine, puis dispersez cette poussière dans l'océan au cours d'un voyage de 160 km, j'espère que vous ne vous retrouverez pas coincé sur une île dans le processus,; - )

Bien sûr, les systèmes d'exploitation modernes peuvent laisser des copies de fichiers "supprimés" éparpillés dans des secteurs non alloués, des répertoires temporaires, des fichiers d'échange, des blocs défectueux remappés, etc., mais Gutmann pense qu'un secteur écrasé peut être récupéré à l'examen par un microscope sophistiqué et cette affirmation a été accepté sans réserve par de nombreux observateurs. Cependant, je ne pense pas que ces observateurs aient suivi les références dans l'article de Gutmann. Je peux donc dire que Gutmann ne cite personne qui prétend lire les sous-données dans les secteurs écrasés, pas plus qu'il ne cite d'articles suggérant que les programmes de disques de nettoyage ordinaires ne seraient pas complètement efficaces.

http://www.nber.org/sys-admin/overwritten-data-guttman.html

.

Moab
la source
Pourquoi prendre la peine de frotter le disque en chauffant simplement les plateaux au-dessus du point Curie les effacera complètement? Moudre en poussière si vous le devez, mais un bon feu de charbon de bois est bon marché.
Fiasco Labs
0

Imaginez que vous avez écrit des détails d'entreprise sensibles sur un tableau blanc. Une fois que vous quittez la pièce, vous essuyez simplement les détails du tableau. Je peux toujours lire la majeure partie de celui-ci en regardant le tableau blanc sous un angle, ou en utilisant des techniques avancées pour soulever des traces infimes de résidus de marqueur sur le tableau. D'un autre côté, si vous écriviez du charabia aléatoire sur le tableau après l'avoir essuyé, il serait beaucoup plus difficile pour moi de lire les détails de l'entreprise.

Cette analogie pour écraser un disque dur avec des zéros par rapport à des données aléatoires est la raison pour laquelle beaucoup de gens pensent qu'il est préférable d'écraser votre disque dur avec des 0 et 1 aléatoires, et plus d'une fois pendant que vous y êtes.

Le simple fait d'écraser toutes les données avec des zéros empêchera certainement 99,9% de la population de lire vos données sensibles. Le remplacer par un modèle prévisible (car les ordinateurs sont héréditairement non aléatoires) de 0 et de 1 rendra cela un peu plus difficile. L'utilisation d'un modèle cryptographiquement sécurisé rendra cela encore plus difficile. Et répéter ce processus élèvera encore plus la barre.

Mais en raison de rendements décroissants, je crois qu'un passage de 0 et de 1 pseudo-aléatoires est plus que suffisant. Et si ce n'est pas le cas, vous feriez mieux d'apporter votre disque dur à une entreprise de destruction de données sécurisée au lieu d'augmenter l'usure du disque et de gaspiller les cycles et le temps du processeur. Les disques durs sont bon marché.

Daniel AA Pelsmaeker
la source