LSI propose sa technologie de hiérarchisation du stockage CacheCade , qui permet aux périphériques SSD d'être utilisés comme caches de lecture et d'écriture pour augmenter les matrices RAID traditionnelles.
D'autres fournisseurs ont adopté des technologies similaires; Les contrôleurs HP SmartArray ont leur SmartCache . Adaptec a MaxCache ... Sans parler d'un certain nombre d'outils d'accélération logicielle ( sTec EnhanceIO , Velobit , FusionIO ioTurbine , Intel CAS , Facebook flashcache ?) .
Issu d'un arrière-plan ZFS , j'utilise différents types de SSD pour gérer les fonctions de cache de lecture (L2ARC) et d'écriture (ZIL). Différents traits sont nécessaires pour leurs charges de travail respectives; Faible latence et endurance pour la mise en cache d'écriture. Grande capacité de lecture.
- Étant donné que les SSD CacheCade peuvent être utilisés pour le cache d' écriture et de lecture, à quoi sert la NVRAM intégrée du contrôleur RAID?
- Lorsqu'il est utilisé comme cache d'écriture, quel est le danger pour les SSD CacheCade en termes d'endurance en écriture? L'utilisation de disques SSD grand public semble être encouragée.
- Les écritures vont-elles directement sur le SSD ou atteignent-elles d'abord le cache du contrôleur?
- Dans quelle mesure l'algorithme de mise en cache de lecture est-il intelligent? Je comprends le fonctionnement des fonctions ZFS ARC et L2ARC . Existe-t-il un aperçu du processus de hiérarchisation CacheCade?
- Quelles mesures existent pour surveiller l'efficacité de la configuration de CacheCade? Existe-t-il une méthode pour observer un taux ou un pourcentage d'accès au cache ? Comment savoir si cela fonctionne vraiment?
Je suis intéressé par des opinions et des retours sur la solution LSI. Des mises en garde? Conseils?
la source
Réponses:
Si vous laissez la fonction de mise en cache d'écriture du contrôleur activée, la NVRAM sera toujours utilisée principalement. Le cache d'écriture SSD ne sera généralement utilisé que pour de plus grandes quantités de données d'écriture, où la NVRAM seule ne suffit pas à suivre.
Cela dépend de la fréquence à laquelle vos écritures rendent le cache d'écriture SSD nécessaire ... que vos disques soient capables de gérer la charge d'écriture assez rapidement ou non pour que la NVRAM ne se remplisse pas. Dans la plupart des scénarios que j'ai vus, le cache d'écriture est peu ou pas actif la plupart du temps, donc je ne m'attends pas à ce que cela ait un impact important sur l'endurance en écriture - la plupart des écritures sur les SSD feront probablement partie de votre lecture mise en cache.
Répondu ci-dessus ... Le cache du contrôleur est touché en premier, le cache SSD est plus une 2e ligne de défense.
Désolé ... aucune connaissance pour y contribuer - j'espère que quelqu'un d'autre aura un aperçu?
Il ne semble pas y avoir d'outils de surveillance disponibles pour cela comme il existe avec d'autres implémentations SAN de cet ensemble de fonctionnalités ... Et comme le disque virtuel CacheCade n'est pas présenté au système d'exploitation, vous n'aurez peut-être aucun moyen de le faire manuellement surveiller l'activité soit. Cela peut simplement nécessiter des tests supplémentaires pour vérifier l'efficacité ...
Opinion / observation: dans de nombreux cas (lorsqu'elle est utilisée correctement, lire le cache de taille appropriée pour l'ensemble de données de travail), cette fonctionnalité fait voler les choses. Mais au final, cela peut être aléatoire.
la source
Convention MegaCli -perfmon -start -interval <val> -aN
Description -perfmon: Specifies collection of performance data.
The possible parameters are:
-start: Starts the performance data collection.
-interval: the time interval (in minutes) that you specified for which you want the performance data collection. The default value is 5 minutes
En parlant de solutions matérielles, je n'ai trouvé aucun moyen de connaître le taux de réussite exact ou quelque chose. Je crois qu'il y a 2 raisons à cela: le volume derrière le contrôleur apparaît comme un seul lecteur (et donc il devrait "juste fonctionner"), et il est difficile de compter les "hits" qui ne seront pas pour les fichiers mais plutôt pour les secteurs du disque dur afin il peut y avoir un certain taux de réussite, même sur un disque dur vide, ce qui peut prêter à confusion. De plus, les algorithmes derrière «l'hybridation» ne sont pas publics, donc connaître le taux de réussite n'aidera pas beaucoup. Il vous suffit de l'acheter et de le mettre en œuvre - faibles dépenses (par rapport à une solution SSD pure), bon impact sur la vitesse.
L'approche "Achetez-le et utilisez-le" est une bonne chose à considérer, mais le fait est que personne ne sait avec certitude comment créer la combinaison la plus rapide: devrions-nous utiliser plusieurs gros disques durs et plusieurs gros disques SSD de cache, ou devrions-nous utiliser de nombreux petits disques durs et plusieurs gros SSD, etc., et quelle est la différence entre 100 ou, disons, 500 Go ou 2000 Go de cache SSD (même 500 semble exagéré si les données chaudes de volume sont de petite taille), et devrait-il être comme 2x64Gb ou 8x8Gb pour avoir le transfert de données parallèle. Encore une fois, chaque fournisseur utilise son propre algorithme et peut le changer lors de la prochaine mise à jour du firmware.
J'écris ceci principalement pour dire que mes résultats m'ont donné une réponse étrange: si vous utilisez un serveur à profil général et à charge générale, le contrôleur hybride h / w est très bien même avec des SSD relativement petits, mais si vos tâches étaient spécifique, vous feriez mieux d'opter pour une solution s / w (que vous pourrez choisir puisque vous êtes le seul à connaître le profil de charge) ou pour certains stockages de cartes PCI à prix élevé.
la source
Voici quelques réclamations de Dell:
En termes d'IOPS, leurs chiffres semblent être à égalité. J'ai tendance à conserver les rapports DiskSpd de divers serveurs, et si j'adapte l'un des rapports que j'ai au nombre de broches que j'ai dans le serveur cachecade, je ne devrais obtenir que 750k IOPS. Cependant, en testant ce serveur, je dépassais 2M. C'était vraiment la seule fois où j'ai vu la charge du processeur en tant que facteur par les threads diskspd commencer à être un facteur. Habituellement, le processeur est encore minimal lorsque le disque commence à se couvrir, mais ce n'était pas le cas ici. Je me donne un coup de pied pour ne pas avoir exécuté diskspd avec et sans mais bon.
L'autre facteur ici est qu'il est totalement transparent ... dépensez quelques centaines de dollars sur un ssd de classe entreprise plus petit, ajoutez-le en tant que volume cachecade et vous avez terminé. Si vous avez de l'argent à brûler sur un stockage entièrement SSD, cela n'a pas d'importance, mais pour donner vie à des fuseaux physiques, je considère que cela en vaut la peine.
la source
Je l'ai essayé sur Dell R515 avec Dell PERC H700 Raid avec 1 Go de mémoire avec quelques SSD 500 Mo / s
J'ai fait mon banc de marquage quelques heures après l'installation, et après 48 heures
Je n'ai pas vu beaucoup d'amélioration pour la vitesse d'écriture, une petite amélioration pour Read, j'ai fait le test il y a un blanc et je n'ai pas de chiffres maintenant.
Mais ce n'était pas significatif et j'ai fini par utiliser la boîte de stockage sans cette fonctionnalité.
D'après mon expérience, la plupart de ces logiciels ne sont qu'une blague! si vous avez besoin d'une hiérarchisation du stockage, créez le vôtre, obtenez du matériel fiable de Dell et remplissez la boîte de SSD
Sur mon lieu de travail, la hiérarchisation du stockage fonctionne très bien HP 3Par et le module complémentaire d'optimisation adaptative, cela fonctionne comme annoncé, mais cette solution est d'environ 100K :)
la source