J'ai visionné plusieurs vidéos et je comprends maintenant un peu mieux le fonctionnement des ordinateurs. Je comprends mieux ce qu'est la RAM, mémoire volatile et non volatile et le processus de permutation. Je comprends aussi pourquoi l'augmentation de la RAM accélère la vitesse d'un ordinateur.
Je ne comprends pas pourquoi le nettoyage de l'espace disque accélère la vitesse d'un ordinateur. Le fait-il? Pourquoi ça? Est-ce que cela a à voir avec la recherche de l'espace disponible pour sauver des choses? Ou en déplaçant des objets pour créer un espace suffisamment long et continu pour sauver quelque chose? Combien d'espace libre sur le disque dur devrais-je laisser libre?
memory
performance
disk-space
Remi.b
la source
la source
speeds up the experience of using a PC
.Réponses:
Ici, j'ai écrit un livre par accident. Prendre un café d'abord.
Ce n'est pas le cas, du moins pas seul. C'est un mythe très commun. La raison pour laquelle il est un mythe commun est parce que le remplissage de votre disque dur se produit souvent en même temps que d’autres tâches qui, traditionnellement, pourraient ralentir votre ordinateur † . Les performances des disques SSD ont tendance à se dégrader au fur et à mesure que le disque se remplit , mais il s'agit d'un problème relativement nouveau, propre aux disques SSD, qui ne se remarque pas vraiment pour les utilisateurs occasionnels. En règle générale, un espace disque libre insuffisant n'est qu'un fouillis rouge .
Par exemple, des choses comme:
Fragmentation de fichier. La fragmentation des fichiers est un problème †† , mais le manque d’espace libre, bien qu’un des nombreux facteurs qui y contribuent, n’en est pas la seule cause. Quelques points clés ici:
Les chances qu'un fichier soit fragmenté ne sont pas liées à la quantité d'espace libre disponible sur le lecteur. Ils sont liés à la taille du plus grand bloc d'espace libre contigu sur le lecteur (par exemple, des "trous" d'espace libre) sur lesquels la quantité d'espace libre se trouve placer une limite supérieure . Ils sont également liés à la manière dont le système de fichiers gère l’allocation de fichiers (voir ci-dessous). Considérez: Un lecteur qui est rempli à 95% avec tout l’espace libre dans un seul bloc contigu a 0% de chance de fragmenter un nouveau fichier ††† (et les chances de fragmenter un fichier ajouté sont indépendantes de l’espace libre). Un lecteur plein à 5%, mais dont les données sont réparties uniformément sur le lecteur, présente un risque très élevé de fragmentation.
N'oubliez pas que la fragmentation de fichiers affecte uniquement les performances lorsque l'utilisateur accède aux fichiers fragmentés . Considérez: vous avez un lecteur défragmenté agréable qui a encore beaucoup de "trous" libres. Un scénario commun. Tout se passe bien. Cependant, vous finissez par arriver à un point où il ne reste plus de gros blocs d'espace libre. Vous téléchargez un film énorme, le fichier finit par être gravement fragmenté. Cela ne ralentira pas votre ordinateur. Tous vos fichiers d’application et ceux qui étaient auparavant corrects ne seront pas subitement fragmentés. Cela peut faire le filmprend plus de temps à charger (bien que les débits binaires typiques d'un film soient si bas comparés aux taux de lecture du disque dur qu'il soit probablement imperceptible), et cela peut affecter les performances liées aux E / S pendant le chargement du film , mais cela ne correspond pas à cela, rien ne change.
Bien que la fragmentation des fichiers soit certainement un problème, les effets sont souvent atténués par la mise en mémoire tampon et la mise en cache du système d'exploitation et du matériel. Les écritures différées, la lecture anticipée, les stratégies telles que le préfetcher dans Windows, etc., contribuent à réduire les effets de la fragmentation. En général , vous ne fait l' expérience de l' impact significatif jusqu'à ce que la fragmentation devient grave (j'ose même dire que tant que votre fichier d'échange n'est pas fragmenté, vous remarquerez probablement jamais).
L'indexation de recherche est un autre exemple. Supposons que l'indexation automatique est activée et que le système d'exploitation ne gère pas cette tâche avec élégance. Au fur et à mesure que vous enregistrez de plus en plus de contenu indexable sur votre ordinateur (documents et autres), l'indexation peut prendre plus de temps et peut commencer à avoir une incidence sur la vitesse perçue de votre ordinateur lorsqu'il est en cours d'exécution, aussi bien en termes d'utilisation d'E / S que de processeur. . Cela n'est pas lié à l'espace libre, mais à la quantité de contenu indexable que vous avez. Cependant, le fait de manquer d'espace libre va de pair avec le stockage de davantage de contenu, ce qui crée une fausse connexion.
Logiciel antivirus. Similaire à l'exemple d'indexation de recherche. Supposons qu'un logiciel antivirus soit configuré pour analyser en arrière-plan votre lecteur. Comme vous avez de plus en plus de contenu numérisable, la recherche nécessite davantage de ressources d'E / S et de CPU, pouvant éventuellement interférer avec votre travail. Encore une fois, cela est lié à la quantité de contenu numérisable que vous avez. Plus de contenu signifie souvent moins d'espace libre, mais le manque d'espace libre n'en est pas la cause.
Logiciel installé. Supposons que de nombreux logiciels installés se chargent au démarrage de votre ordinateur, ce qui ralentit les temps de démarrage. Ce ralentissement est dû au chargement de nombreux logiciels. Cependant, les logiciels installés prennent de l'espace sur le disque dur. Par conséquent, l'espace libre sur le disque dur diminue en même temps que cela, et une nouvelle connexion peut être facilement établie.
Ce qui précède illustre une autre raison pour laquelle il s’agit d’un mythe si courant: le manque d’espace libre n’est pas une cause directe du ralentissement, de la désinstallation de diverses applications, de la suppression de contenu indexé ou numérisé, etc. répondre) augmente à nouveau les performances pour des raisons indépendantes de la quantité d'espace libre. Mais cela libère aussi naturellement l’espace disque. Par conséquent, encore une fois, une connexion apparente (mais fausse) entre "plus d'espace libre" et "ordinateur plus rapide" peut être faite.
Considérez: Si votre machine tourne lentement en raison de nombreux logiciels installés, etc., et que vous clonez exactement votre disque dur sur un disque dur plus volumineux, développez ensuite vos partitions pour obtenir plus d'espace libre, la machine ne fonctionnera pas comme par magie up. Les mêmes logiciels sont chargés, les mêmes fichiers sont toujours fragmentés de la même manière, le même indexeur de recherche fonctionne toujours, rien ne change malgré le fait qu’il y ait plus d’espace libre.
Non. Il y a deux choses très importantes à noter ici:
Votre disque dur ne cherche pas pour trouver des endroits pour mettre des choses. Votre disque dur est stupide. Ce n'est rien. C'est un gros bloc de stockage adressé qui place aveuglément les choses là où votre système d'exploitation le dit et lit tout ce qui lui est demandé. Les disques modernes ont des mécanismes sophistiqués de mise en cache et de mise en mémoire tampon conçus pour prédire ce que le système d'exploitation va demander en fonction de l'expérience acquise au fil du temps (certains disques sont même conscients du système de fichiers qu'ils utilisent), mais essentiellement, pensez à votre lecteur comme une grosse brique de stockage avec des fonctionnalités de performance bonus occasionnelles.
Votre système d'exploitation ne recherche pas non plus d'endroits où placer des choses. Il n'y a pas de "recherche". De nombreux efforts ont été déployés pour résoudre ce problème, car il est essentiel aux performances du système de fichiers. La manière dont les données sont réellement organisées sur votre lecteur est déterminée par votre système de fichiers.. Par exemple, FAT32 (anciens PC sous DOS et Windows), NTFS (plus tard Windows), HFS + (Mac), ext4 (certains Linux) et bien d’autres. Même les concepts de "fichier" et de "répertoire" ne sont que des produits de systèmes de fichiers classiques - les disques durs ne connaissent pas les mystérieuses bêtes appelées "fichiers". Les détails sortent du cadre de cette réponse. Cependant, tous les systèmes de fichiers courants disposent de moyens permettant de suivre l'emplacement de l'espace disponible sur un lecteur, de sorte qu'une recherche d'espace libre est, dans des circonstances normales, inutile (systèmes de fichiers en bonne santé). Exemples:
NTFS a une table de fichiers principale , qui comprend les fichiers spéciaux
$Bitmap
, etc., ainsi que de nombreuses métadonnées décrivant le lecteur. Essentiellement, il garde la trace des prochains blocs libres, afin que les nouveaux fichiers puissent être écrits directement dans des blocs libres sans avoir à analyser le lecteur à chaque fois.Un autre exemple, ext4 a ce qu'on appelle "l'allocateur de bitmap" , une amélioration par rapport à ext2 et ext3 qui l'aide essentiellement à déterminer directement où sont les blocs libres au lieu d'analyser la liste des blocs libres. Ext4 prend également en charge "l'allocation différée", c'est-à-dire la mise en mémoire tampon des données dans la RAM par le système d'exploitation avant de l'écrire sur le lecteur afin de prendre de meilleures décisions quant à l'emplacement du fichier afin de réduire la fragmentation.
Beaucoup d'autres exemples.
Non, cela ne se produit pas, du moins avec aucun système de fichiers à ma connaissance. Les fichiers finissent par être fragmentés.
La défragmentation consiste à "déplacer des objets pour créer un espace suffisamment long pour conserver quelque chose" . Cela n'arrive pas lorsque les fichiers sont écrits. Cela se produit lorsque vous exécutez votre défragmenteur de disque. Sous Windows plus récent, au moins, cela se produit automatiquement selon un planning, mais cela n’est jamais déclenché par l’écriture d’un fichier.
Il est essentiel pour les performances du système de fichiers d' éviter de déplacer des éléments de cette manière, ce qui explique la fragmentation et la défragmentation distinctes.
C'est une question plus délicate à laquelle répondre, et cette réponse s'est déjà transformée en un petit livre.
Règles de base:
Pour tous types de lecteurs:
Spécifique SSD:
Personnellement, je prends habituellement un disque plus gros quand il me reste environ 20-25% d’espace libre. Ce n’est pas lié aux performances, c’est juste que lorsque j’arriverai à ce point, je pense que je vais bientôt manquer d’espace pour les données, et il est temps d’obtenir un disque plus puissant.
Plus important que de regarder l'espace libre est de s'assurer que la défragmentation planifiée est activée le cas échéant (pas sur les disques SSD), de sorte que vous n'arriviez jamais au point où cela devient suffisamment grave pour vous affecter. Il est tout aussi important d'éviter les ajustements erronés et de laisser votre système d'exploitation agir, par exemple , ne désactivez pas le préfetcher Windows ( sauf pour les SSD ), etc.
Il y a une dernière chose qui mérite d'être mentionnée. Une des autres réponses citées ici indique que le mode semi-duplex de SATA empêche la lecture et l’écriture simultanées. Bien que cela soit vrai, cela est extrêmement simpliste et n’a pour la plupart aucun lien avec les problèmes de performances abordés ici. Cela signifie simplement que les données ne peuvent pas être transférées dans les deux sens sur le réseau en même temps. Cependant, SATA a une spécification assez complexe impliquant de très petites tailles de bloc maximum (environ 8 Ko par bloc sur le câble, je pense), des files d'attente d'opérations de lecture et d'écriture, etc., et n'empêche pas les écritures dans les tampons de se produire pendant que des lectures sont en cours, entrelacées. opérations, etc.
Tout blocage qui se produirait serait dû à une compétition pour des ressources physiques, généralement atténuée par une grande quantité de cache. Le mode duplex de SATA est presque entièrement sans importance ici.
† "Ralentir" est un terme large. Ici, je l’utilise pour faire référence à des éléments liés à l’entrée / sortie (par exemple, si votre ordinateur est assiégé, le contenu du disque dur n’a aucun impact), ou liés au processeur et en concurrence avec des éléments liés de manière tangentielle. utilisation élevée du processeur (par exemple, un logiciel antivirus analysant des tonnes de fichiers).
†† Les disques SSD sont affectés par la fragmentation en ce que les vitesses d'accès séquentiel sont généralement plus rapides que les accès aléatoires, même si les disques SSD ne sont pas soumis aux mêmes limitations qu'un dispositif mécanique (même dans ce cas, le manque de fragmentation ne garantit pas l'accès séquentiel, en raison du nivellement par l'usure, etc. comme le note James Snell dans les commentaires). Cependant, dans pratiquement tous les scénarios d'utilisation générale, il ne s'agit pas d'un problème. Les différences de performances dues à la fragmentation sur les disques SSD sont généralement négligeables pour des tâches telles que le chargement d'applications, le démarrage de l'ordinateur, etc.
††† En supposant un système de fichiers sain qui ne fragmente pas intentionnellement les fichiers.
la source
Outre l'explication de Nathanial Meek pour les disques durs, il existe un scénario différent pour les disques SSD.
Les disques SSD ne sont pas sensibles aux données dispersées car le temps d'accès à n'importe quel emplacement du disque SSD est identique. Le temps d’accès SSD typique est de 0,1 ms, contre 10 à 15 ms pour les disques durs. Il est toutefois sensible aux données déjà écrites sur le disque SSD.
Contrairement aux disques durs traditionnels qui peuvent écraser des données existantes, un disque SSD a besoin d'espace totalement vide pour écrire des données. Cela se fait par des fonctions appelées Trim et Garbage Collection, qui purgent les données marquées comme supprimées. La récupération de place fonctionne mieux en combinaison avec une certaine quantité d'espace libre sur le SSD. Il est généralement recommandé de disposer de 15% à 25% d’espace libre.
Si le garbage collection ne peut pas terminer son travail à temps, chaque opération d'écriture est précédée d'un nettoyage de l'espace sur lequel les données doivent être écrites. Cela double le temps pour chaque opération d'écriture et dégrade les performances globales.
Voici un excellent article qui explique le fonctionnement de Trim and Garbage Collection.
la source
Quelque part dans un disque dur traditionnel se trouve un plateau en métal en rotation où les bits et les octets individuels sont réellement codés. Lorsque des données sont ajoutées au plateau, le contrôleur de disque les stocke d’abord à l’extérieur du disque. Au fur et à mesure que de nouvelles données sont ajoutées, de l'espace est utilisé en se déplaçant vers l'intérieur du disque en dernier.
Dans cet esprit, deux effets entraînent une diminution des performances du disque à mesure que le disque se remplit: Seek Times et Rotational Velocity .
Temps de recherche
Pour accéder aux données, un disque dur traditionnel doit déplacer physiquement une tête de lecture / écriture dans la position correcte. Cela prend du temps, appelé le "temps de recherche". Les fabricants publient les durées de recherche de leurs disques, généralement en quelques millisecondes. Cela peut sembler peu, mais pour un ordinateur, c'est une éternité. Si vous devez lire ou écrire sur de nombreux emplacements de disque différents pour effectuer une tâche (ce qui est courant), ces temps de recherche peuvent s’ajouter au délai ou à la latence perceptible.
Un lecteur presque vide aura la plupart de ses données dans ou à proximité de la même position, généralement au bord extérieur près de la position de repos de la tête de lecture / écriture. Cela réduit le besoin de chercher sur le disque, ce qui réduit considérablement le temps passé à chercher. Un lecteur presque plein devra non seulement rechercher plus souvent sur le disque et avec des mouvements plus ou plus longs, mais il pourra également avoir du mal à conserver les données associées dans le même secteur, ce qui augmentera encore la recherche de disque. Cela s'appelle des données fragmentées .
La libération d'espace disque peut améliorer les temps de recherche en permettant au service de défragmentation non seulement de nettoyer plus rapidement les fichiers fragmentés, mais également de déplacer les fichiers vers l'extérieur du disque, de sorte que le temps de recherche moyen soit plus court.
Vitesse de rotation
Les disques durs tournent à un taux fixe (généralement 5 400 tr / min ou 7 200 tr / min pour votre ordinateur, et 10 000 tr / min ou même 15 000 tr / min sur un serveur). Il faut également un espace fixe (plus ou moins) sur le lecteur pour stocker un seul bit. Pour un disque tournant à une vitesse de rotation fixe, la vitesse linéaire de l'extérieur du disque sera supérieure à celle de l'intérieur du disque. Cela signifie que les bits situés près du bord extérieur du disque se déplacent au-delà de la tête de lecture plus rapidement que les bits situés près du centre du disque. Ainsi, la tête de lecture / écriture peut lire ou écrire des bits plus rapidement près du bord extérieur du disque que la interne.
Un lecteur presque vide passe le plus clair de son temps à accéder aux bits situés près du bord extérieur du disque. Un lecteur presque plein passera plus de temps à accéder aux bits situés près de la partie interne la plus lente du disque.
Encore une fois, vider l’espace disque peut accélérer l’ordinateur en permettant au service de défragmentation de déplacer les données vers l’extérieur du disque, où les lectures et les écritures sont plus rapides.
Parfois, un disque se déplace trop vite pour la tête de lecture, et cet effet est réduit car les secteurs proches du bord extérieur sont décalés ... écrits dans le désordre afin que la tête de lecture puisse suivre. Mais dans l’ensemble, cela tient.
Ces deux effets se résument à un contrôleur de disque qui regroupe d’abord les données dans la partie la plus rapide du disque et qui n’utilise pas les parties plus lentes du disque tant qu’il n’a pas à le faire. Au fur et à mesure que le disque se remplit, la partie la plus lente du disque est de plus en plus longue.
Les effets s'appliquent également aux nouveaux lecteurs. Toutes choses étant égales par ailleurs, un nouveau disque dur de 1 To est plus rapide qu'un nouveau disque de 200 Go, car le disque dur de 1 To stocke des bits plus rapprochés et ne remplit pas les pistes internes aussi rapidement. Cependant, il est rarement utile d’utiliser cette information pour éclairer les décisions d’achat, car les fabricants peuvent utiliser plusieurs plateaux pour atteindre la taille de 1 To, des plateaux plus petits pour limiter un système à 1 Go à 200 Go, des restrictions de logiciel / contrôleur de disque permettant de limiter un plateau à 1 To à 200 Go seulement. ou vendez un lecteur avec des plateaux partiellement terminés / défectueux à partir d’un lecteur de 1 To avec beaucoup de secteurs défectueux comme un lecteur de 200 Go.
Autres facteurs
Il convient de noter ici que les effets ci-dessus sont assez faibles. Les ingénieurs en matériel informatique consacrent beaucoup de temps à la réduction de ces problèmes. Des éléments tels que les mémoires tampons de disque dur, la mise en cache Superfetch et d'autres systèmes permettent de réduire le problème. Sur un système en bonne santé avec beaucoup d'espace libre, vous ne remarquerez probablement rien. De plus, les disques SSD ont des caractéristiques de performance complètement différentes. Cependant, les effets existent et un ordinateur ralentit légitimement à mesure que le lecteur se remplit. Sur un système en mauvaise santé , où l'espace disque est très réduit, ces effets peuvent créer une situation de saturation de disque, le disque cherchant en permanence des données fragmentées et libérant de l'espace disque pouvant résoudre ce problème, ce qui entraîne des améliorations plus spectaculaires et plus visibles. .
De plus, l'ajout de données sur le disque signifie que certaines autres opérations, telles que l'indexation ou les analyses AV et les processus de défragmentation, ne font que faire plus de travail en arrière-plan, même s'ils le font à la même vitesse ou presque.
Enfin, les performances des disques sont un indicateur énorme des performances globales des PC de nos jours ... un indicateur encore plus grand que la vitesse du processeur. Même une petite baisse du débit du disque équivaut très souvent à une véritable baisse globale des performances du PC. Cela est d'autant plus vrai que les performances du disque dur n'ont pas vraiment suivi le rythme des améliorations apportées au processeur et à la mémoire. le disque à 7 200 tr / min est la norme de bureau depuis plus de dix ans maintenant. Plus que jamais, ce disque qui tourne est le goulot d’étranglement de votre ordinateur.
la source
Freeing disk space won't decrease seek times if your data is already all over the drive.
" Je ne peux pas contester cela en soi, mais je peux souligner que le service de défragmentation peut maintenant déplacer ces données vers le devant du lecteur, et que ces choses vont améliorer les temps de recherche. Les autres points de votre commentaire ont des compteurs similaires: le manque d'espace disque n'augmentera pas la recherche de données bien organisées, mais il est moins probable que les données restent organisées.Toutes les autres réponses sont techniquement correctes - cependant, j'ai toujours trouvé que cet exemple simple l'expliquait le mieux.
Trier des choses est vraiment facile si vous avez beaucoup d'espace ... mais difficile si vous n'avez pas assez d'espace ... les ordinateurs ont aussi besoin d'espace !
Ce " 15 casse-tête " classique est compliqué et prend du temps, car vous n'avez qu'un seul carré libre pour mélanger les tuiles et les placer dans le bon ordre de 1 à 15.
Cependant, si l'espace était beaucoup plus grand, vous pourriez résoudre ce casse-tête en moins de 10 secondes.
Pour tous ceux qui ont déjà joué avec ce casse-tête ... comprendre l'analogie semble venir naturellement. ;-)
la source
Un ordinateur disposant de très peu d'espace disque, sur un disque dur mécanique en rotation, ralentit généralement pendant une période de temps significative à mesure que la fragmentation des fichiers augmente. Une fragmentation accrue signifie des lectures lentes - très lentes dans les cas extrêmes.
Une fois qu'un ordinateur est dans cet état, libérer de l'espace disque ne résoudra pas le problème. Vous devez également défragmenter le disque. Avant qu'un ordinateur soit dans cet état, libérer de l'espace ne l'accélérera pas; cela réduira simplement les chances que la fragmentation devienne un problème.
Cela ne concerne que les ordinateurs équipés de disques durs mécaniques en rotation, car la fragmentation a un effet négligeable sur la vitesse de lecture des disques SSD.
la source
Les disques Flash peuvent définitivement ralentir lorsqu'ils sont pleins ou fragmentés, bien que les mécanismes de ralentissement soient différents de ceux qui se produiraient avec un disque dur physique. Une puce de mémoire flash typique sera divisée en un certain nombre de blocs d'effacement, chacun d'entre eux consistant en un grand nombre (des centaines, voire des milliers) de pages d'écriture, et supportera trois opérations principales:
Tandis qu’il serait théoriquement possible d’écrire sur un lecteur flash de lire toutes les pages d’un bloc, d’en changer une dans le tampon, d’effacer le bloc, puis d’écrire le tampon sur le périphérique flash, une telle approche serait extrêmement difficile. lent; cela risquerait également de provoquer une perte de données en cas de coupure de courant entre le début de l'effacement et la fin de l'écriture. De plus, les parties fréquemment écrites du disque s'useraient extrêmement rapidement. Si, par exemple, les 128 premiers secteurs de la FAT étaient stockés dans un bloc flash, le lecteur serait mort après que le nombre total d'écritures dans tous ces secteurs aurait atteint environ 100 000, ce qui n'est pas beaucoup, d'autant plus que 128 secteurs détiendrait environ 16 384 entrées FAT.
Parce que l'approche ci-dessus fonctionnerait horriblement, le lecteur l'aura à identifier une page vierge, à y écrire les données et à enregistrer le fait que le secteur logique en question est stocké à cet emplacement. Tant que suffisamment de pages vierges sont disponibles, cette opération peut être effectuée rapidement. Toutefois, si le nombre de pages vierges est insuffisant, il peut être nécessaire de rechercher des blocs contenant relativement peu de pages "actives", de déplacer les pages actives de ces blocs vers les pages vierges restantes et de marquer les anciennes copies comme " mort"; cela fait, le lecteur pourra alors effacer les blocs ne contenant que des pages "mortes".
Si un lecteur est seulement à moitié plein, il y aura certainement au moins un bloc qui est au plus à moitié plein de pages actives (et il y aura probablement des blocs qui en contiennent peu ou pas du tout). Si chaque bloc contient 256 pages et que les blocs les moins complets contiennent 64 pages en direct (un cas moyennement mauvais), alors pour 192 écritures de secteur demandées, le lecteur devra effectuer 64 copies de secteur supplémentaires et un effacement de bloc (le coût moyen environ 1,34 page et 0,005 bloc effacent). Même dans le pire des cas, chaque écriture de 128 secteurs nécessiterait 128 copies de secteurs supplémentaires et un effacement de bloc (coût moyen par écriture de 2 pages écrites et de 0,01 effacement de blocs).
Si un lecteur est plein à 99% et que les blocs les moins pleins ont 248/256 pages actives, toutes les 8 écritures sectorielles nécessiteront 248 écritures de page supplémentaires et un effacement de bloc, générant ainsi un coût par écriture de 32 écritures et de 0,125 bloc. efface - un ralentissement très sévère.
En fonction de la quantité de stockage "supplémentaire" que possède un lecteur, les choses pourraient ne pas devenir aussi mauvaises. Néanmoins, même au point où un lecteur est rempli à 75%, les performances dans le cas le plus défavorable peuvent être plus de deux fois plus mauvaises que celles du cas le plus défavorable, à 50%.
la source
Vous l'avez bien cloué. Vous pouvez considérer un disque dur SATA comme un support de communication semi-duplex (autrement dit, il ne peut accepter ou transmettre que des données à la fois. Pas les deux.) Ainsi, lorsque le lecteur est bloqué pendant une période prolongée à la recherche d’un emplacement libre pour écrire to, il ne peut lire aucune donnée. En règle générale, vous ne devriez pas charger vos disques à plus de 80% de leur capacité pour cette raison. Plus il est complet, plus il est probable que les fichiers sont fragmentés, ce qui provoque le blocage du lecteur lors des demandes de lecture (ce qui bloque les demandes d'écriture).
Vous pouvez faire plusieurs choses pour résoudre ces problèmes:
la source
$Bitmap
fichier par exemple sur NTFS ou l’ allocateur de bitmap dans ext4. C'est-à-dire que cette réponse répand de la désinformation sérieuse. 3. Il y a beaucoup de mises en mémoire tampon et de mise en cache en lecture et en écriture qui rendent beaucoup de choses discutables. Cette réponse décrit un peu les effets de la fragmentation, et même alors limitée à des systèmes de fichiers plus anciens, ce n’est certainement pas un espace libre précis. Libérer de l'espace disque n'accélère pas la vitesse d'un ordinateur.En suivant l’approche short & sweet, ma réponse trop simpliste (strictement limitée à votre confusion principale) est la suivante:
Tant que votre
Dans ce cas, vous ne pouvez pas différencier les performances d’un disque vide à 80% par rapport à 30%, et vous ne devez vous soucier de rien d’autre que le stockage de plus en plus de nouvelles données.
Tout ce qui nécessitera plus de stockage conduira à de mauvaises performances car il pourrait y avoir un manque d'espace disponible.
Bien sûr, le nettoyage de disque via un outil est bon comme:
Toutes ces raisons (et bien d’autres encore) conduisent à des performances plus médiocres car elles continuent à confondre le système d’exploitation lorsqu’on trouve le bon ensemble de bits avec lequel travailler.
la source
Un effet sur les disques en rotation que je n'ai pas vu mentionné plus haut: La vitesse d'accès et la vitesse de transfert de données sont différentes sur les différentes parties d'un disque.
Un disque tourne à vitesse fixe. Les pistes situées à l'extérieur d'un disque sont plus longues et peuvent donc contenir plus de données par piste que les pistes situées à l'intérieur. Si votre lecteur peut lire 100 Mo / s à partir des pistes les plus externes, la vitesse sur les pistes les plus à l'intérieur sera inférieure à 50 Mo / s.
Dans le même temps, il y a moins de pistes entre 1 Go de données sur les pistes extérieures du disque et entre 1 Go de données sur les pistes les plus intérieures. Ainsi, en moyenne, moins de mouvements de la tête seront nécessaires pour les données stockées à l'extérieur que pour les données des pistes les plus internes.
Le système d'exploitation essaiera d'utiliser les pistes les plus externes, si possible. Bien sûr, ce n'est pas possible si le disque est plein. La suppression de données créera de la place là où la vitesse de transfert est la plus rapide et rend les choses plus rapides. Pour la même raison, vous devriez acheter des disques durs en rotation qui sont plus volumineux que nécessaire si vous voulez de la vitesse (à condition que ce soit abordable), car vous n'utiliserez que les parties les plus rapides du disque.
la source