Ajout d'un stockage de 60 To à un serveur SLES 10

10

Je dois ajouter un stockage d'archivage / de transfert à un serveur SLES 10. L'exigence est de présenter des volumes assez importants (9-20 To chacun environ, 60 To environ au total) qui seront utilisés pour stocker des données d'archives (littéralement, c'est pour une bibliothèque) comprenant de gros fichiers d'images (150Meg Tiff's pour la plupart) et de grosses tarballs. Les données seront très largement biaisées pour lire les entrées-sorties, certainement> 95% et probablement plus de 99%.

Le stockage a déjà été acheté - une baie Dell MD3000 SAS connectée en chaîne avec 2 MD1000 entièrement équipés de disques SATA 2 To à 7200 tr / min, soit 45 disques au total. La pile de baies est connectée à l'aide de deux adaptateurs SAS externes à double port, c'est-à-dire qu'il y a 4 chemins vers la pile.

Mon intention est de les configurer comme un ensemble de 4 volumes assis sur 4 groupes RAID avec un disque de secours par baie. Tous les groupes seront RAID 6 avec 7 ou 14 disques, et chaque groupe RAID sera présenté comme un seul LUN utilisant toute la capacité de ce groupe. Du côté SLES, ceux-ci doivent être formatés en tant que volumes XFS.

J'ai une expérience limitée avec SLES (et Linux en général) et je recherche des recommandations à ce sujet, en particulier:

  1. Y a-t-il des éléments spécifiques à prendre en compte lors de la configuration de volumes XFS de cette taille sous SLES 10, c'est-à-dire que les paramètres par défaut vont-ils être OK étant donné le profil IO?
  2. Quelle est la meilleure façon d'initialiser \ partition \ formater ces derniers? J'ai utilisé Parted pour définir une étiquette de disque et le gestionnaire de partition YAST (acceptant toutes les valeurs par défaut) pour créer et formater le volume XFS pour mon test initial.
  3. Comment configurer le multichemin? Lorsque je présente un volume de test initial, il apparaît sous la forme de quatre périphériques distincts (/ dev / sdl, / dev / sdm, / dev / sdn et / dev / sdn). Que dois-je faire pour travailler avec cela en tant que volume unique?
  4. Lors de mes tests initiaux, je constate des taux de transfert à partir d'un volume EMC Clariion SAN existant d'environ 30 Mo / s. C'est beaucoup plus bas que ce à quoi je m'attendais, même en tenant compte de la pénalité d'écriture RAID 6 que je m'attendais à voir quelque chose dans le stade de 70-100Meg / sec.
  5. Comment savoir si tout va bien - où dois-je rechercher les erreurs \ avertissements, etc.? L'éditeur de partition YAST prend beaucoup de temps à lancer par exemple et j'aimerais comprendre pourquoi.
  6. Souhaitez-vous partitionner cela différemment et \ ou utiliser un système de fichiers différent et si oui, pourquoi?

Le serveur est un Dell 2950 - je n'ai pas vérifié les spécifications détaillées, mais le haut montre l'utilisation au maximum en bas à un chiffre.

Helvick
la source

Réponses:

4

Lors de mon travail précédent, nous avions un problème similaire. Nous faisions de la production pour les planétariums et chaque image était de 64 mégapixels. Beaucoup de grandes images. Celles-ci seraient traitées pour chaque théâtre dans une opération de lecture très agressive sur un cluster d'ordinateurs.

Dans ce cas, le serveur avait une configuration de stockage similaire. Plusieurs matrices RAID externes à connexion directe. Chacun d'eux était dans des volumes RAID6 exposés à l'hôte et ajoutés à un VG (groupe de volumes) sous LVM (Logical Volume Manager). Chaque spectacle / production obtiendrait alors son propre LV (volume logique), formaté XFS, que nous ferions grandir avec le projet au besoin.

Si vos ensembles de données sont assez statiques ou se développent d'une manière prévisible comme celle-ci, cette approche devrait bien fonctionner pour vous. Mais attention, cette approche a un inconvénient. Vous finissez par devoir micro-gérer les LV sur votre stockage. Certains administrateurs le préfèrent de cette façon mais d'autres essaient de l'éviter. Mais cela vous permet de développer chaque système de fichiers LV et XFS à mesure que le jeu de données se développe. Gardez vos volumes XFS aussi petits que possible afin de ne pas vous retrouver avec un fsck qui prend des années à terminer. Et peut agir comme un contrôle des dommages si un système de fichiers va vers le sud.

Avis de non-responsabilité: Si je mettais cela en place aujourd'hui, j'utiliserais OpenSolaris et ZFS. Principalement b / c, il évite les problèmes de micro-gestion et est un système de fichiers / gestionnaire de volume supérieur. Vous voudrez peut-être y jeter un œil également.

3dinfluence
la source
4

Je serais tellement plus inclus pour acheter plus de disques et les RAID 10.

J'ai eu des problèmes horribles avec des centaines de disques FATA (SATA attachés aux fibres) de 1 To que nous avons achetés il y a quelque temps, ce sont 1k £ chacun et je perds 5% par mois! Fondamentalement, ils ne sont tout simplement pas conçus pour un cycle de service 24x7 et que vous pourriez avoir les mêmes problèmes, c'est pourquoi je recommanderais R10.

RAID6 est un pas dans la bonne direction, mais si vous avez la possibilité, je laisserais au moins un disque de côté en tant que disque de secours - si un disque meurt n'importe où sur votre baie, il sautera et se rayera en attendant que vous le fassiez. remplacer le disque défectueux. À ce sujet, assurez-vous d'avoir au moins 2 ou 3 disques de rechange sur place prêts à être remplacés et assurez-vous également d'avoir toute la configuration d'alerte pour vous informer en cas de problème 24h / 24 et 7j / 7.

En ce qui concerne les performances, ces disques de 2 Go ne sont pas si souples pour un disque de 7,2 ko et SAS peut être très rapide, je m'attends donc à 70 Mo / s pour les lectures séquentielles que vous avez mentionnées - évidemment, les aléas et les écritures seront assez faibles.

Désolé si je semble négatif, je lutte avec le stockage depuis des années maintenant et je ne peux dormir facilement qu'avec les systèmes de disques d'entreprise - je viens de faire trop de quarts de travail 48/72 heures fixant le matériel bas de gamme.

Chopper3
la source
2
Excellents points - je n'ai pas précisé dans la question mais j'ai réservé 3 disques de rechange, 1 par baie. Malheureusement, je n'ai pas la possibilité d'ajouter plus de disques dans un avenir proche, mais je pourrai peut-être amener le client à accepter de réduire la capacité de certains volumes.
Helvick