Si vous recherchez des performances, il est important de comprendre l'interconnexion que vous utilisez pour connecter les disques au module RAID. Pour SATA ou IDE, vous envisagerez 1 ou 2 par canal, respectivement (en supposant que vous utilisez un contrôleur avec des canaux indépendants). Pour SCSI, cela dépend fortement de la topologie du bus. Le premier SCSI avait une limite de périphérique de 7 ID de périphérique par chaîne (alias. Par contrôleur), dont l'un devait être le contrôleur lui-même, vous auriez donc 6 périphériques par chaîne SCSI. Les nouvelles technologies SCSI permettent presque le double de ce nombre, vous devriez donc regarder 12+. La clé ici est que le débit combiné de tous les disques ne peut pas dépasser la capacité de l'interconnexion , sinon vos disques seront «inactifs» lorsqu'ils atteignent des performances optimales.
Gardez à l'esprit que les lecteurs ne sont pas le seul maillon faible ici; chaque interconnexion sans redondance se traduit par un point de défaillance unique. Si vous ne me croyez pas, configurez une matrice RAID 5 sur un contrôleur SCSI à chaîne unique, puis court-circuitez le contrôleur. Pouvez-vous toujours accéder à vos données? Ouais, c'est ce que je pensais.
Aujourd'hui, les choses ont un peu changé. Les disques n'ont pas beaucoup avancé en termes de performances, mais les progrès constatés sont suffisamment importants pour que les performances ne soient pas un problème à moins que vous ne travailliez avec des "fermes de disques", auquel cas vous parlez d'une infrastructure entièrement différente.et cette réponse / conversation est théorique. Ce qui vous inquiètera probablement le plus, c'est la redondance des données. RAID 5 était bon à son apogée en raison de plusieurs facteurs, mais ces facteurs ont changé. Je pense que vous constaterez que RAID 10 pourrait être plus à votre goût, car il fournira une redondance supplémentaire contre les pannes de disque tout en augmentant les performances de lecture. Les performances d'écriture souffriront légèrement, mais cela peut être atténué par une augmentation des canaux actifs. Je prendrais une configuration RAID 10 à 4 disques par rapport à une configuration RAID 5 à 5 disques tous les jours, car la configuration RAID 10 peut survivre à une (cas spécifique de) panne de deux disques, tandis que la matrice RAID 5 roulerait simplement et mourrait avec une panne de deux disques. En plus de fournir une redondance légèrement meilleure, vous pouvez également atténuer le «contrôleur en tant que point de défaillance unique» situation en divisant le miroir en deux parties égales, chaque contrôleur ne manipulant que la bande. En cas de panne du contrôleur, votre bande ne sera pas perdue, seulement l'effet miroir.
Bien sûr, cela peut aussi être complètement faux pour votre situation. Vous devrez examiner les compromis impliqués entre la vitesse, la capacité et la redondance. Comme l'ancienne plaisanterie d'ingénierie, «mieux-moins cher-plus vite, choisissez-en deux», vous constaterez que vous pouvez vivre avec une configuration qui vous convient, même si elle n'est pas optimale.
Le maximum effectif est la bande passante du contrôleur RAID.
Disons que le disque lit max à 70 Mo / sec. En période de pointe, vous ne pouvez pas pelleter les données assez rapidement. Pour un serveur de fichiers occupé (RAID 5) ou un serveur db (RAID 10), vous pouvez le faire rapidement.
SATA-2 a une spécification d'interface de 300 Mo / S, SCSI Ultra 320 serait plus cohérent. Vous parlez de 6 à 10 disques parce que vous n'atteindrez pas le pic trop souvent.
la source
La limite de disques dans un RAID était autrefois déterminée par le nombre de périphériques sur un BUS SCSI. Jusqu'à 8 ou 16 périphériques peuvent être connectés à un seul bus et le contrôleur comptait comme un seul périphérique - il s'agissait donc de 7 ou 15 disques.
Par conséquent, de nombreux disques RAID étaient constitués de 7 disques (l'un était un disque de secours), ce qui signifiait qu'il restait 6 disques - ou 14 disques avec 1 disque de secours.
Donc, la chose la plus importante à propos des disques dans un groupe RAID est probablement le nombre d'IOPS dont vous avez besoin.
Par exemple, un disque SCSI à 10 000 tr / min peut exécuter environ 200 IOPS - si vous en aviez 7 dans un RAID 5 - vous perdriez 1 disque pour la parité, mais vous auriez alors 6 disques pour la lecture / écriture et un maximum théorique de 1 200 IOPS - si vous besoin de plus d'IOPS - ajoutez plus de disques (200 IOPS par disque).
Et les disques plus rapides 15k RPM SAS peuvent aller jusqu'à 250 IOPS, etc.
Et puis il y a toujours des SSD (30 000 IOPS par disques) et ils sont raidables (bien que très chers).
Et je pense que SAS a une valeur maximale folle pour le nombre d'appareils - comme 16 000 disques
la source
Avec RAID6 et SATA, j'ai eu beaucoup de succès avec 11 disques ... Et un hot-spare (certains mauvais contrôleurs auront besoin de deux hot-spare pour faire une reconstruction de RAID6). Ceci est pratique car de nombreux JBOD se présentent en groupes de 12 disques comme le HP MSA60.
la source
Jusqu'à ce que vous atteigniez la vitesse maximale du bus au point le plus étroit de la chaîne (carte de raid, maillons), cela peut donc avoir du sens. La même chose lorsque vous ajoutez un grand nombre de cartes réseau 1 GbE à votre bus PCI n'a aucun sens.
la source