Si la RAM est bon marché, pourquoi ne pas tout charger dans la RAM et l'exécuter à partir de là?

132

La RAM est bon marché et beaucoup plus rapide que les SSD. C'est juste volatile. Alors, pourquoi les ordinateurs ne disposent-ils pas de BEAUCOUP de RAM et, à la mise sous tension, chargent-ils tout dans la RAM du disque dur / SSD et exécutent-ils tout à partir de là, en supposant qu'il n'y a aucun besoin réel de conserver quoi que ce soit en dehors de la mémoire? Les ordinateurs ne seraient-ils pas beaucoup plus rapides?

Bien sûr, le système d'exploitation actuel peut ne pas supporter cela du tout, mais y a-t-il une raison pour que la RAM ne soit pas utilisée de cette façon?

pkr298
la source
109
Vous supposez que la RAM est bon marché. Combien coûte 1 To de RAM?
Alan Shutko
39
Ce que vous décrivez s'appelle un RAMDisk et les gens font déjà ce que vous décrivez. Je charge la plupart de mes programmes en mémoire en utilisant un RAMDisk. Vous n'avez pas non plus besoin de matériel spécial, vous pouvez utiliser la mémoire système et les logiciels pour le faire.
Ramhound
16
Nous le faisons, dans la mesure où un système d’exploitation donné le prend en charge. Windows utilise "RAM" inutilisée pour "cache disque", et je suppose que beaucoup de versions de Linux le font aussi. Mais il y a beaucoup trop de disque pour tout ranger dans la RAM.
Daniel R Hicks
19
"pas cher" est un terme relatif. Chaque mémoire est moins chère qu’elle ne l’était il ya quelques années, mais c’est plus chère que le stockage sur un disque dur. Et de toute façon, la marche des progrès garantira que les programmes remplissent toujours toute la RAM disponible, peu importe la quantité disponible; Si l'ordinateur de tout le monde avait soudainement plus de RAM disponible, les développeurs mettraient plus de choses dans leurs programmes.
Jhocking
15
Google charge l'Internet sur la RAM
Ari

Réponses:

177

Il y a quelques raisons pour lesquelles la RAM n'est pas utilisée de cette façon:

  1. La RAM de bureau commune (DDR3) n’est pas chère, mais elle n’est pas aussi bon marché. Surtout si vous souhaitez acheter des modules DIMM relativement volumineux.
  2. La RAM perd son contenu lorsqu'elle est éteinte. Ainsi, vous devrez recharger le contenu au démarrage. Supposons que vous utilisiez un disque RAM de 100 Go de la taille d'un disque SSD, ce qui signifie un délai d'environ deux minutes lorsque 100 Go sont copiés à partir du disque.
  3. La RAM utilise plus d’énergie (disons 2–3 watts par DIMM, à peu près la même chose qu’un SSD inactif).
  4. Pour utiliser autant de RAM, votre carte mère aura besoin de nombreux sockets DIMM et des traces qui s’y trouvent. Habituellement, cela est limité à six ou moins. (Plus d'espace à bord signifie plus de coûts, donc des prix plus élevés.)
  5. Enfin, vous aurez également besoin de RAM pour exécuter vos programmes, vous aurez donc besoin de la taille normale de la RAM pour fonctionner (par exemple, 18 Go et suffisamment pour stocker les données que vous comptez utiliser).

Cela dit: Oui, les disques RAM existent. Même en tant que carte PCI avec sockets DIMM et en tant qu'appareils pour des IOps très élevées. (Principalement utilisé dans les bases de données d'entreprise avant que les disques SSD ne deviennent une option). Ces choses ne sont pas bon marché cependant.

Voici deux exemples de cartes de disque RAM bas de gamme qui ont été mises en production:

Notez qu'il existe bien plus de moyens de le faire que de simplement créer un disque RAM dans la mémoire de travail commune.

Vous pouvez:

  1. Utilisez un lecteur physique dédié avec mémoire volatile (dynamique). Soit en tant qu'appliance, soit avec une interface SAS, SATA ou PCI [e].
  2. Vous pouvez faire de même avec le stockage sauvegardé sur batterie (inutile de copier les données initiales car le contenu sera conservé tant que la puissance de secours restera valide).
  3. Vous pouvez utiliser des RAM statiques plutôt que des mémoires DRAM (plus simples, plus coûteuses).
  4. Vous pouvez utiliser la mémoire flash ou une autre mémoire permanente pour conserver toutes les données (Avertissement: la mémoire flash a généralement un nombre de cycles d'écriture limité). Si vous utilisez le flash uniquement comme stockage, vous venez de passer aux disques SSD. Si vous stockez tout dans la RAM dynamique et que vous sauvegardez sur une sauvegarde flash à la mise hors tension, vous retournez aux appliances.

Je suis sûr qu’il ya encore beaucoup à décrire, d’Amiga RAD: réinitialiser les disques RAM restants sur IOPS, porter l’égalisation et Dieu sait quoi. Cependant, je vais couper ce court et ne liste qu'un seul élément supplémentaire:

Prix ​​de la DDR3 (DRAM actuelle) par rapport aux prix du SSD:

  • DDR3: 10 € / Go, ou 10 000 € / To
  • SSD: significativement moins. (Environ 1/4 à 1/10)
Hennes
la source
12
+1 pour atteindre deux points critiques: les disques durs restent moins chers que la mémoire vive et la mémoire vive est volatile. ROM est votre banc de travail et votre disque dur, votre entrepôt. Nuf sed.
Chad Harrison
1
@Hennes - Ne proposait pas de charger la totalité du disque en mémoire avec une solution logicielle RAMDisk. Vous pouvez charger, par exemple, Photoshop depuis un lecteur mécanique dans un disque RAMDisk en utilisant des points de jonction et les performances seraient meilleures ou aussi bonnes qu’une installation SSD.
Ramhound
29
+1 pour "RAM bon marché, mais pas si bon marché". Une recherche rapide montre que les disques SSD se vendent actuellement entre 75 centimes d'euro par gig, en fonction de la capacité et du fabricant. Les modules DDR3 RAM, en fonction de la capacité, se vendent entre 7 et 10 USD par Go. Le ratio coût de la RAM sur SSD peut donc atteindre 15: 1.
KeithS
2
RAM loses its contents when powered off.Pour être exact, seule la RAM volatile, mais la RAM non-volatile conserve tout, même lorsqu'elle est éteinte, comme par exemple les puces Flash . En ce sens, le SSD n'est pas différent de la RAM, mais en est un sous-type.
Saul
1
Je ne suis pas d'accord. Les cellules flash du SSD n'ont peut-être pas besoin d'énergie, mais le contrôleur et les autres composants électroniques du SSD sont alimentés. Pas beaucoup de puissance, mais à peu près la même puissance que celle tirée par un DIMM moderne (1-3 Watt).
Hennes
71

Les systèmes d'exploitation le font déjà, avec le cache de page :

En informatique, un cache de page, souvent appelé cache de disque, est un cache "transparent" de pages sauvegardées sur disque conservées dans la mémoire principale (RAM) par le système d'exploitation pour un accès plus rapide. Un cache de page est généralement implémenté dans les noyaux avec la gestion de la mémoire de pagination et est complètement transparent pour les applications.

Lorsque vous lisez une page à partir d'un disque, votre système d'exploitation charge ces données en mémoire et les conserve jusqu'à ce que la mémoire soit mieux utilisée. Si vous avez suffisamment de mémoire, votre système d'exploitation ne lit chaque page qu'une fois, puis l'utilise à partir de la mémoire. La seule raison pour laquelle le système d'exploitation effectuera des E / S réelles sur disque est s'il doit lire une page qui n'est pas déjà en mémoire ou si une page est écrite sur (dans ce cas, vous voulez probablement qu'elle soit enregistrée sur le disque).

Un des avantages de faire les choses de cette façon est que vous n’avez pas à charger la totalité du disque dur dans la mémoire, ce qui est utile s’il ne tient pas, et cela signifie également que vous ne perdez pas de temps à lire des fichiers non traités par vos applications. avoir besoin. Un autre avantage est que le cache peut être supprimé chaque fois que le système d'exploitation a besoin de plus de mémoire (il est préférable de lire votre prochain disque plus lentement, plutôt que de faire planter vos programmes, car ils manquent de mémoire). De plus, il est utile que les utilisateurs n'aient pas besoin de décider manuellement de ce qui doit ou non figurer dans le disque virtuel: tout ce que vous utilisez le plus souvent sera automatiquement conservé dans la mémoire principale.

Si vous avez beaucoup de mémoire, mais que vos applications ne tournent pas aussi vite que prévu, il y a de fortes chances qu'elles soient plus lentes car elles fonctionnent en toute sécurité. Par exemple, SQLite est beaucoup plus rapide si vous lui dites de ne pas attendre que les écritures soient terminées, mais votre base de données sera complètement détruite si vous ne vous arrêtez pas proprement.

En outre, il /tmps’agit généralement d’un disque virtuel sur les distributions Linux, car il est acceptable que ces données soient perdues. Il y a encore un débat quant à savoir si c'est une bonne idée, car si trop de données sont écrites /tmp, vous risquez de manquer de mémoire.

Brendan Long
la source
5
Très bonne réponse. Les systèmes d'exploitation ont également des fonctionnalités telles que Superfetch, qui chargera les données demandées du disque dans la RAM au moment du démarrage.
Matthew Lock
Bonne réponse. tous les premiers attaquent (tentent de l'invalider) la question au lieu d'y répondre réellement
vsync
44

Comme Alan Shutko l'a souligné dans son commentaire sur la question, la RAM n'est pas vraiment bon marché.

Voici quelques points de données. Lorsque je recherche sur Google 4 Go de RAM, 64 Go SSD et 1 To HDD (disque dur mécanique), voici les coûts que je vois (à compter du 25 août 2013):

Whoa! Les disques durs sont 100 fois moins chers que la RAM! Et les disques SSD sont 8 fois moins chers que la RAM.

(De plus, comme indiqué dans d'autres réponses, la RAM est intrinsèquement volatile et vous avez donc besoin d'une autre forme de stockage persistant.)

Suman
la source
2
La RAM est plusieurs ordres de grandeur plus rapide que le SSD (sans le problème d’usure d’écriture) qui est plusieurs ordres de grandeur plus rapide que la rouille tournante et le VERRE. Et bien sûr, vous pouvez utiliser un disque de 1 To pour 80 $, mais essayez de trouver ce stockage sur un plateau de 15 000 tr / min avec une connectivité SCSI ou Fibre Channel. Vous envisagez 4 x 250 Go @ ~ 250 $ plus le coût d'un contrôleur BBU (environ 500 $), soit environ le même prix qu'un SSD.
symcbean
1
@symcbean - C'est un peu piquant; Gardez à l'esprit que l'obtention de la RAM dans de grandes coupures (comme vous le souhaitez pour remplacer un disque ou un SSD) coûte plus cher, à savoir 25 $ / Go.
Russell Borogove
3
@symcbean acheter un disque SSD présentant des caractéristiques d'entreprise similaires coûtera bien plus de 1 000 dollars.
mikebabcock
Il serait très intéressant de revoir cette réponse tous les quelques mois, de modifier le prix et de voir comment les prix chutent constamment.
Résumé Zelig
@OferZelig "voyez comment les prix chutaient constamment" Vous voulez dire sauf quand ils ne le font pas ?
un CVn
9

Je fais toutes mes opérations de lecture / écriture immédiates pour la génération de contenu sur des disques RAM sur mon ordinateur local. J'y stocke également mes dossiers de journalisation MongoDB, ainsi que mes compilateurs, mes interpréteurs Python et ma bibliothèque standard. Ce disque est enregistré à l’arrêt et restauré au démarrage. Le deuxième disque RAM que j'utilise est de 64 mégaoctets et tous les dossiers de cache de mon navigateur Internet y pointent. celui-ci est perdu à la fermeture et se vide quand il est plein.

Utiliser les bons outils pour le travail, je suppose, serait la réponse que je vous donnerais. Je génère des données 30 à 1000 fois plus rapidement avec un disque RAM que sur mon disque Western Digital à 7 200 tr / min.

C'est le programme que j'utilise: http://www.romexsoftware.com/en-us/primo-ramdisk/

... et quand 32gigs de Ram coûte moins de 200 $, je ne vois pas pourquoi cela ne deviendrait pas plus courant.

Disque de 8 Go de RAMDisque dur SATA III de tous les jours

blakev
la source
4
Vous savez que le système d'exploitation met déjà en cache des choses pour vous, non?
Potatoswatter
"Lorsque 32 Go de RAM coûtent moins de 200 $" 32 Go sur un disque dur de 1 To commencent à environ 3 $, à peu près; Les disques grand public de 1 To coûtent moins de 100 USD aujourd'hui, et même des disques de niveau entreprise peuvent être obtenus à des prix similaires par gigaoctet (Amazon veut actuellement 408 USD pour le Seabox ST4000NM0043 de 4 To, qui affiche un prix de revient recommandé de 520 USD, et représente un seul appareil sans même acheter environ).
un CVn
1
@ Potatoswatter ouais, si. Mais il ne met pas en cache 10 000 fichiers nouvellement créés. Donc, je les "cache" explicitement sur mon disque RAM.
Blakev
@ MichaelKjörling Nous n'essayons pas de stocker 1 To en RAM. C'est ridicule. Soyez réaliste et choisissez quelques dossiers de clés que vous voulez toujours avoir dans la RAM et vous pourrez (ordres de grandeur) accélérer significativement certaines opérations de votre flux de travail. Voir mes images ci-dessus.
Blakev
1
"tout est relatif. Sur ma machine, tout "tout" est chargé à partir de mon image de disque dur de 8 Go; octet pour octet, les 8 concerts sont clonés à chaque fois. Par souci de la question, si vous êtes à la recherche d'une solution pour vraiment faire serait vous rester dans « possible » ou sauter hors de proportion d'adapter un type de réponse « qui est impossible ».
Blakev
5

Oui, c’est la prémisse de nombreuses bases de données en mémoire qui apparaissent sur le marché. SAP HANA en est un exemple. L'idée est que la RAM est bon marché et que, d'un point de vue performances, les opérations de lecture / écriture sur RAM sont 1000 fois plus rapides que les opérations sur disque. Ainsi, la plupart des données sont conservées dans la RAM et vous définissez ensuite une stratégie de vieillissement des données à l'aide de laquelle les anciennes données sont recyclées dans un stockage froid (c.-à-d. Un disque).

Mithrandir
la source
4

Brève explication :

La première fois qu'une application est exécutée, elle est transférée du disque dur ou du réseau vers la RAM. Alors, ne vous inquiétez pas, vous le faites déjà.

Mais, en général, il n’existe pas un seul fichier d’application / processus et certaines opérations d’E / S ciblées sur le disque dur ou le réseau (autres fichiers de l’application ou autres opérations d’E / S avec système, etc.), ce qui peut ralentir votre application. Ceux-ci pourraient être dirigés vers le disque RAM, mais vous devriez considérer que les suppressions de disque RAM à la mise hors tension et doivent être remplies à nouveau au démarrage.

Et la RAM n'est pas si bon marché que celle présentée dans la question. Vous devez compter non seulement le coût de la mémoire RAM, mais également le coût de la RAM en fonctionnement, y compris les sockets sur votre carte mère (ceux-ci sont limités / rares et donc plus précieux) et le coût des données perdues lorsque l'alimentation est en panne.

Par exemple, un ordinateur avec 1 To de disque dur pourrait être acheté à bon marché et il s’agit d’une informatique domestique, l’ordinateur avec 1 To de mémoire vive est dans la gamme des supercalculateurs. (mais Intel travaille sur quelque chose de moyen: http://vr-zone.com/articles/more-on-xeon-e5-terabyte-of-ram-even-at-midrange-/14366.html )

Dee
la source
4

C'est une excellente question et je trouve les réponses fascinantes. Je vais commenter ceci en tant que DBA Oracle et mes réponses sont spécifiques à la base de données Oracle. C'est une grave erreur que beaucoup de gens font quand ils travaillent avec Oracle. Je ne sais pas si cela s'applique également à d'autres applications. Ce n'est pas censé être hors sujet, mais est conçu comme une réponse spécialisée.

Lorsque vous optimisez les performances avec Oracle, vous cherchez vraiment à éliminer les goulots d'étranglement. Bien que la plupart d'entre nous ne le disent pas, il est basé sur la théorie des contraintes: https://en.wikipedia.org/wiki/Theory_of_constraints

La mémoire peut ne pas être votre goulot d'étranglement. Oracle dispose de mécanismes complexes pour gérer la mémoire et une simple augmentation de la mémoire peut réellement ralentir les choses si le goulot d'étranglement se situe dans d'autres domaines. Permettez-moi de vous donner un exemple très commun.

Les requêtes semblent être lentes. Le consensus est que si nous augmentons la RAM, nous devrions augmenter le temps de réponse des requêtes car la mémoire est plus rapide que le disque. Eh bien ... Voici comment Oracle gère la gestion de la mémoire pour les données. Oracle propose divers emplacements de mémoire affectés à des tâches spécifiques. Ainsi, vous pouvez augmenter ces souvenirs. La zone utilisée pour les données s'appelle le «cache de tampons». Il s'agit d'une série de listes chaînées (leur nombre a tendance à augmenter avec chaque version). Chaque fois qu’un bloc est détecté sur le disque au cours d’une requête, un algorithme de hachage est exécuté pour déterminer la liste dans laquelle le coller. il faut donc payer pour l'obtenir ... ce n'est pas vraiment important).

CEPENDANT, lorsque vous exécutez une requête, Oracle retire le verrou de la chaîne de mémoire tampon que vous recherchez à ce moment-là. Ce verrouillage (remarque: il ne s'agit pas d'un verrou. Google "verrouille" si vous ne connaissez pas la différence) bloque toutes les autres opérations de cette chaîne pendant la durée de votre lecture. Donc, il bloque les lectures ET les écritures (ce qui est totalement différent du fait qu'Oracle prétend que les verrous ne bloquent pas les lectures).

Cela est nécessaire car, au fur et à mesure que vous lisez le bloc dans la chaîne, Oracle le déplace en fonction de la fréquence à laquelle il est "demandé". Les blocs les plus fréquemment demandés sont déplacés vers le haut et les moins fréquemment, en bas et vieillis. Vous ne pouvez pas avoir 2 sessions en train de lire une liste chaînée et de déplacer des blocs ou vous obtiendrez des pointeurs pointant vers des emplacements inexistants.

Lorsque vous augmentez la taille de la mémoire, vous augmentez la taille de chaque liste liée. Cela augmente le temps nécessaire pour lire la liste. Une requête simple ou complexe peut faire des dizaines de milliers, voire des millions de lectures vers le bas de listes chaînées. Chaque lecture est rapide, mais leur nombre conduit à des verrous qui bloquent d’autres sessions. Oracle appelle cela un "E / S logique" (ou un tampon get ou autre chose. Ce jargon est spécifique à Oracle et peut vouloir dire autre chose dans d'autres secteurs de l'informatique).

Donc, si la liste est longue et que le code SQL est vraiment mauvais, les instructions SQL conserveront leurs verrous plus longtemps. L'augmentation de la mémoire peut occasionnellement réduire les performances. La plupart du temps, cela n'arrivera pas. Les gens dépenseront beaucoup d'argent et ne verront aucun avantage. Cela étant dit, il arrive parfois que vous ayez besoin de plus de mémoire dans le cache, mais vous devez identifier correctement le goulot d'étranglement pour savoir si cela convient. Je ne peux pas discuter de la façon d'analyser cela dans ce post. Voir les forums DBA. Certaines personnes en discutent là-bas. C'est assez complexe.

Quelqu'un at-il des exemples spécifiques avec d'autres logiciels où cela peut arriver? Il existe un formidable ouvrage intitulé "The Goal" qui traite de la réduction des contraintes dans une usine. Ce processus est très similaire à ce que font les administrateurs de base de données Oracle lors de l'évaluation des problèmes de performances. C'est souvent la lecture standard dans les programmes de MBA. Il est très utile de lire pour les professions informatiques.

https://en.wikipedia.org/wiki/Eliyahu_M._Goldratt

Bob
la source
Ce n’est pas sûr que la question soit pertinente, mais intéressante.
jb.
c'est une raison pour ne pas ajouter de la RAM. C'est spécifique et étroit, mais je pense que cela s'applique.
Bob
très intéressant. Cela apporte un autre angle à la discussion générale.
Lorenz Lo Sauer
3

La RAM peut être bon marché mais pas aussi bon marché que le stockage traditionnel.

J'ai un disque dur de 3 To (99 $): Devis HDD

Et vous en aurez besoin de 48 pour 3 To à (719 $) chacun: Devis RAM

Cela totaliserait 34 512 $ contre 99 $. Sans parler du prix du matériel nécessaire pour exécuter 3 To de RAM.

Michael Irey
la source
la réponse est sans rapport avec la question
BlueBerry - Vignesh4303 Le
1
Je pense qu'à la fin, il essaie de dire "RAM n'est pas bon marché".
jaczjill
De plus, vous ne pouvez pas connecter 48 de ces kits à 8 canaux à un appareil que je connaisse. Bien que certains systèmes acceptent 16 variateurs REG ECC de 64 Go (ou plus) sur un même serveur. Cependant, ce ne sont pas bon marché du tout.
drescherjm
2

C'est en fait fait dans certains scénarios. Si vous avez une pile de système d'exploitation / d'application suffisamment petite, vous pouvez l'exécuter entièrement en RAM. Bien sûr, il présente tous les inconvénients de la réponse acceptée. Mais c'est possible et ça arrive.

Jetez un coup d’œil à Puppy Linux, une distribution Linux populaire. Leur page comment ça marche parle de courir à partir de RAM: http://puppylinux.org/wikka/howPuppyWorks

David Hewitt
la source
Et bien sûr, dans un environnement de cluster, vous pouvez conserver la pile d'applications sur un système de fichiers distribué / réseau, servir le système d'exploitation de base via PXE ou similaire et exécuter les nœuds sans disque si vous le souhaitez.
Aesin
2

Je pense que la réponse peut être partiellement répondue comme suit:

Prémisse:

  • Seuls les types de RAM peu coûteux sont produits et vendus en grande quantité
  • Les fabricants de RAM veulent vendre leur produit.
  • les prix bas exigent de vendre de gros volumes pour générer des bénéfices
  • une large base d'utilisateurs utilise une technologie de mémoire établie
  • nouvelle technologie de mémoire prend des années pour être largement adopté
  • les emplacements de mémoire sont très limités dans les périphériques toujours plus petits de ladite base utilisateur
  • la technologie mobile est en augmentation
  • au moins 0,1% de 1Bil. Les utilisateurs de PC peuvent opter pour 128 Go de RAM ou plus (devinettes)
  • les mises à jour technologiques très demandées génèrent un bénéfice plus élevé que les nouvelles générations technologiques

Étant donné le nombre limité d'emplacements de mémoire, une solution importante consiste à utiliser des puces de mémoire plus grandes avec des dimensions internes plus petites et / ou un empilement 3D. Les deux processus ont progressé comme prévu au cours des 36 derniers mois.

La question est donc: " taille de mémoire maximale DDR3 " ou sémantiquement: " DDR3 pourquoi n'y a-t-il aucun module de mémoire supérieur à 16 Go "

Et la réponse est:

La norme DDR3 autorise des capacités de puces de 512 mégabits à 8 gigabits, permettant effectivement une taille maximale de module de mémoire de 16 gigaoctets ( src ).

La DDR4 va changer cela, comme indiqué dans cette carte technologique:

entrez la description de l'image ici

Résultat:

  • un marché de la mémoire semi-bloqué
  • Une extravagance Apple Macbook Pro s'arrêtant à 16GB
  • une demande accrue de services en nuage ou distants (pour héberger ces machines virtuelles et bases de données InMemory, beaucoup de développeurs et d'ingénieurs s'exécuteraient avec autant de bonheur sur le plan local)
  • ... ???

Quelques mises en garde au poste approfondi de Hennes:

  • La mémoire de bureau commune (DDR3) n’est pas chère, mais elle n’est pas si chère : elle est assez économique pour que certaines personnes puissent l’acheter en raison de leur contexte exigeant en données.
  • La RAM perd son contenu lorsqu'elle est éteinte : les humains ont résolu des problèmes plus difficiles que la mémoire volatile. Les brevets et solutions sur la "gestion de la mémoire volatile" depuis 2010 en témoignent.
  • La RAM utilise plus d'énergie : éteignez sélectivement la mémoire inutilisée (banques) sur les appareils mobiles. Également de 1W à 2W, comparé aux GPU de 800W
  • vous aurez besoin de beaucoup de sockets DIMM : la technologie des puces a continué à évoluer normalement, ce qui signifie que l'option des puces à mémoire supérieure n'existe pas, mais les fabricants de puces vous les vendront volontiers en grande quantité
  • vous aurez également besoin de RAM pour exécuter vos programmes dans : True. Mais on pkr298présume que l’ensemble du système d’exploitation et des programmes sont chargés dans la RAM, mais pas qu’il faut abolir le disque dur / SSD.
Lorenz Lo Sauer
la source
La désactivation des banques de mémoire inutilisées dans la DRAM pose un problème. La technologie DRAM nécessite l'actualisation des cellules. Conservez ceci dans un seau qui fuit. Si je le remplis d'eau (électricité), il représente un 1; si je le vide, cela représente un 0. Malheureusement, le seau a des fuites et se trouve dans des eaux peu profondes. Un seau plein se videra lentement jusqu'à ce qu'il corresponde au niveau d'eau. Un seau vide sera lentement jusqu'à ce qu'il corresponde au niveau de l'eau. Après un moment, il est impossible de dire quel était l'état du seau.
Hennes
Pour résoudre ce problème, passez de temps en temps devant le seau. S'il est presque plein, le seau sera recouvert; s'il est presque vide, il sera vidé complètement. Ceci est un rafraîchissement . L'actualisation d'une cellule de mémoire consomme de l'énergie, empêchant ainsi la mémoire DRAM d'être complètement désactivée tout en conservant son contenu. --- Il existe différentes manières de contourner ce problème, par exemple SRAM n'a pas besoin des actualisations externes et peut toujours conserver son contenu, mais nécessite plus de silicium (donc des puces plus petites ou plus chères).
Hennes
1

Vous avez effectivement raison Dans un proche avenir, tous les supports de stockage et de mémoire seront sous la forme sur le nano-RAM. NRAM est essentiellement des commutateurs "mécaniques" de quelques atomes de largeur. Il n'a pas besoin de courant pour se maintenir, il est donc économe en énergie et n'a pas besoin d'être refroidi. Les commutateurs étant si petits, la densité est très élevée c’est bon pour deux raisons, la première est que l’accès à la mémoire est très rapide et que vous pourrez avoir des téraoctets de données sur de petits appareils comme le téléphone portable. si vous aimez en lire plus, voyez ceci: http://www.nantero.com/mission.html et ceci http://en.wikipedia.org/wiki/Nano-RAM

noamtcohen
la source
0

Comme d'autres l'ont dit, la RAM est volatile et environ 10 fois plus coûteuse que les SSD.

Cependant, il EST un produit là - bas qui est assez proche de ce que vous décrivez - Je ne peux malheureusement pas rappeler le nom.

Qu'est-ce que c'est un lecteur basé sur RAM (IIRC max 64gb) couplé avec une carte CF et une batterie. Lorsque vous allumez le système, le contenu de la carte CF est copié dans la RAM (je crois que les demandes envoyées par la carte CF si elles n’ont pas encore été chargées). À la fermeture, le contenu de la RAM est copié sur la carte CF. -la batterie est assez grosse pour que cela se termine avant qu'elle ne soit épuisée.

Ce n'est pas bon marché.

Loren Pechtel
la source