Je lis les systèmes d'exploitation de William Stallings : internes et principes de conception (septième édition) , et un passage sur la hiérarchie de la mémoire m'a embrouillé. Que veut dire l'auteur lorsqu'il mentionne un "coût par bit plus élevé"?
Voici ce que dit le paragraphe pertinent de la page 24:
Comme on pouvait s'y attendre, il existe un compromis entre les trois caractéristiques clés de la mémoire: la capacité, le temps d'accès et le coût. Une variété de technologies sont utilisées pour implémenter des systèmes de mémoire, et à travers ce spectre de technologies, les relations suivantes s'appliquent:
- Temps d'accès plus rapide, coût par bit plus élevé
- Plus grande capacité, moindre coût par bit
- Plus grande capacité, vitesse d'accès plus lente
Je comprends que plus vous descendez dans la pyramide de la hiérarchie de la mémoire, plus le temps d'accès est lent.
Par exemple, un disque magnétique ou une carte SSD aura des temps d'accès plus lents que les registres CPU ou le cache ou la RAM.
Mais qu'est-ce que cela signifie pour qu'il y ait un "coût par bit plus élevé"? Est-ce que cela ralentit les autres processus pour accéder à cette mémoire? Cela semblerait contre-intuitif car les temps d'accès sont censés être plus rapides? Prennent-ils simplement plus de place et donc il y en a moins?
la source
Réponses:
Le coût par bit est le coût monétaire (c'est-à-dire en dollars et en cents) par unité de mémoire, c'est tout, c'est-à-dire une façon de dire "en supposant que la quantité de mémoire requise est la même". (Vous pourriez également dire le coût par gig de mémoire - mais mentionner la taille implique un cas d'utilisation. Un peu est sans doute la plus petite quantité qui peut être stockée)
la source
Le coût par bit est simplement le prix à payer pour une quantité de mémoire spécifique.
Si une certaine quantité de mémoire de marque X coûte 20 $ et la même quantité de mémoire de marque Y coûte 25 $, alors la marque X a un meilleur coût par bit. Les différences de coût par bit sont beaucoup plus prononcées lors de la comparaison de différents types de mémoire (SRAM, DRAM, flash, SSD ...)
la source
En plus de ces autres réponses qui mentionnent à juste titre que le coût par bit est le montant d'argent par bit:
Si vous avez une mémoire qui stocke 1024 octets, cela fait 8192 bits. Si cette mémoire vous coûte 10 $, ce serait 10 $ (coût) / 8192 bits, ou 0,001220703125 $ par bit. Si vous aviez de la mémoire avec un temps d'accès plus rapide, cela coûterait peut-être 20 $ à la place, auquel cas vous auriez 0,00244140625 $ par bit.
la source
Je pense que le peu que d'autres réponses manquent est ce que Stallings dit à propos de la relation perpétuelle entre les trois scénarios:
Disons que vous avez de la mémoire, n'importe quelle mémoire, qui coûte 10 $ pour un bâton de 1 Go avec un temps d'accès de 10 ns ... donc 10 $ / Go.
Ce que Stallings dit, c'est que si vous voulez un stockage plus rapide, cela coûtera plus cher, disons 15 $ par 1 Go avec un temps d'accès de 5 ns = 15 $ / Go - un coût par bit plus élevé par rapport à la mémoire précédente.
Si vous vouliez des bâtons plus grands, cela pourrait vous coûter 15 $ pour 2 Go, cette fois en réduisant le coût par bit - 7,50 $ par Go. Cependant, ce bâton plus gros aura un temps d'accès plus lent, disons 12 ns.
Cependant, vous pouvez peut-être obtenir une version premium de la plus grande clé qui a toujours un temps d'accès de 10ns, mais cela coûterait encore plus - peut-être 18 $ (9 $ / Go).
Comme le dit Stallings, "il existe un compromis entre les trois caractéristiques clés de la mémoire: la capacité, le temps d'accès et le coût". Et il suggère à juste titre que, tout comme c'est actuellement le cas, ce fut le cas pour les technologies / générations de mémoire précédentes, et ce sera le cas pour les technologies / générations de mémoire futures.
[1 Go = (1024) (1024) (1024) (8) = 8589934592 bits. Par conséquent, le coût littéral par bit pour notre mémoire de 10 $ (ci-dessus) serait de 0,0000000012 $ par bit]
la source
Plus précisément, les registres CPU sont le type de mémoire le plus rapide et le plus cher. Ils occupent l'immobilier le plus précieux de tout le PC. Les différents niveaux de caches sont plus éloignés du calcul réel et le temps de propagation du signal électrique commence à être pris en compte. Vous ne pouvez pas construire le tout à partir de registres.
la source