Je veux construire une archive RAID 1 bas de gamme de 6 To, sur un vieux PC.
MB: Intel d2500hn 64bit
CPU: Intel Atom D2500
RAM: 4GB DDR3 533 MHz
PSU: Chinese 500W
NO GPU
1x Ethernet 1Gbps
2x SATA2 ports
1x PCI port
4x USB 2.0
Je veux construire une archive RAID1 sur Linux (CentOS 7 je pense, puis j'installerai tout ce dont j'ai besoin, je pense ownCloud ou quelque chose de similaire), je vais l'utiliser dans mon réseau local domestique.
Est-ce mieux un contrôleur PCI raid 10-20 $ ou un RAID logiciel?
Si le raid logiciel est meilleur, que dois-je choisir sur CentOS? Est-il préférable de mettre le système sur un port USB externe et d'utiliser 2 disques sur les connecteurs ou dois-je mettre le système sur un disque puis créer un RAID?
Si je ferais un RAID 5 à 3 disques, devrais-je choisir un RAID matériel ou un simple connecteur PCI SATA?
raid
centos7
software-raid
hardware-raid
raid1
Igor Z.
la source
la source
Réponses:
Une carte RAID «matérielle» de 10 à 20 $ n'est rien de plus qu'un blob de pilote binaire opaque exécutant une implémentation RAID uniquement logicielle. Restez bien à l'écart.
Une carte RAID à 200 $ offre une prise en charge matérielle appropriée (c'est-à-dire: un RoC exécutant un autre blob binaire opaque qui est meilleur et ne fonctionne pas sur le CPU hôte principal). Je suggère également de rester à l'écart de ces cartes car, faute de cache d'écriture différée, elles n'offrent aucun avantage tangible par rapport à une implémentation RAID logicielle.
Une carte RAID de 300/400 $ offrant un cache de réécriture protégé contre les pertes d'énergie vaut la peine d'être achetée, mais pas pour les petits PC / NAS basés sur Atom.
En bref: je vous suggère fortement d'utiliser le RAID logiciel Linux. Une autre option à considérer sérieusement est une configuration ZFS en miroir mais, avec un processeur Atom et seulement 4 Go de RAM, ne vous attendez pas à de hautes performances.
Pour d'autres informations, lisez ici
la source
Allez ZFS. Sérieusement. C'est tellement mieux par rapport au RAID matériel, et la raison est simple: il utilise des bandes de taille variable afin que les modes RAID à parité (Z1 et Z2, RAID5 et RAID6) équivalent au niveau RAID10 soient toujours extrêmement rentables. + vous pouvez utiliser un cache flash (ZIL, L2ARC, etc.) exécutant @ un ensemble dédié de voies PCIe.
https://storagemojo.com/2006/08/08/15/zfs-performance-versus-hardware-raid/
Il y a ZFS sur Linux, ZoL.
https://zfsonlinux.org/
la source
Voici un autre argument en faveur d'un logiciel sur un système bon marché.
Les trucs se cassent, vous le savez, c'est pourquoi vous utilisez le raid, mais les contrôleurs de raid se cassent également, tout comme le ram, le processeur, l'alimentation et tout le reste, y compris les logiciels. Dans la plupart des échecs, il est assez simple de remplacer le composant endommagé par un équivalent ou mieux. Soufflez une alimentation de 100w, prenez-en une de 150w et lancez-vous. Similaire avec la plupart des composants. Cependant, avec un raid matériel, il y a maintenant trois exceptions à ce modèle: contrôleur de raid, disques durs et carte mère (ou autre en amont si ce n'est une carte d'extension).
Regardons la carte de raid. La plupart des cartes de raid sont mal documentées et incompatibles. Vous ne pouvez pas remplacer une carte par la société xyz par une carte par abc, car elles stockent les données différemment (en supposant que vous pouvez déterminer qui a créé la carte pour commencer). La solution à cela est d'avoir une carte de raid de rechange, exactement identique à celle de production.
Les disques durs ne sont pas aussi mauvais que les cartes de raid, mais comme les cartes de raid ont des connecteurs physiques pour les disques, vous devez utiliser des disques compatibles et des disques beaucoup plus gros peuvent causer des problèmes. Une attention particulière est nécessaire lors de la commande de disques de remplacement.
Les cartes mères sont généralement plus difficiles que les lecteurs, mais moins que les cartes de raid. Dans la plupart des cas, il suffit de vérifier que des emplacements compatibles sont disponibles, mais les raids amorçables peuvent ne pas être la fin des maux de tête. Le moyen d'éviter ce problème est d'utiliser des boîtiers externes, mais ce n'est pas bon marché.
Tous ces problèmes peuvent être résolus en y injectant de l'argent, mais pour un système bon marché, ce n'est pas souhaitable. Les raids logiciels, d'autre part, sont immunisés contre la plupart (mais pas tout à fait) de ces problèmes car ils peuvent utiliser n'importe quel périphérique de blocage.
Le seul inconvénient du raid logiciel sur un système bon marché est le démarrage. Pour autant que je sache, le seul chargeur de démarrage qui prend en charge le raid est grub et il ne prend en charge que le raid 1, ce qui signifie que votre / boot doit être stocké sur le raid 1, ce qui n'est pas un problème tant que vous n'utilisez que le raid 1 et seulement un problème mineur dans la plupart des autres cas. Cependant grub lui-même (en particulier le bloc de démarrage de la première étape) ne peut pas être stocké sur le raid. Cela peut être géré en plaçant une copie de rechange sur les autres lecteurs.
la source
/boot
partition sur chacun et une partition de données sur chacun/
(au lieu de dédier l'intégralité du disque à la baie). Tant que vous créez une partition de démarrage distincte sur chaque lecteur et que vous l'exécutezgrub-install
sur chaque lecteur, elles doivent toutes être amorçables et md doit pouvoir monter la matrice dégradée. J'imagine que cela fonctionnerait également avec des saveurs autres que RAID 1.Comme d'autres l'ont dit, le RAID matériel et les différents inconvénients ne présentent aucun avantage. Mes principales raisons de préférer le RAID logiciel sont qu'il est plus simple et plus portable (et donc plus susceptible d'avoir une récupération réussie à partir de divers scénarios de défaillance).
(Aussi comme d'autres l'ont dit) Le RAID 5 à 3 disques est un très mauvais schéma RAID - c'est presque le pire de tous les mondes, avec très peu d'avantages. Une sorte de compromis entre RAID 0 et RAID 1, et légèrement meilleur que l'un ou l'autre, mais c'est à peu près la seule bonne chose à dire à ce sujet. RAID est passé à de bien meilleurs schémas, comme RAID 6.
Mon conseil (matériel):
Obtenez une carte SATA à 4 ports pour cet emplacement PCI, ce qui vous donne six ports SATA au total - un pour un lecteur de démarrage et cinq pour des lecteurs de données. J'en vois un pour ~ 15 $, annoncé comme RAID matériel, mais vous pouvez simplement ignorer ces fonctionnalités et l'utiliser comme SATA ordinaire.
Obtenez un petit SSD pour le lecteur de démarrage. Je sais qu'il y a toujours la perception que "les SSD sont trop chers", mais c'est à peine plus vrai, et pas du tout sur la petite extrémité - 120 Go est bien plus que ce dont vous aurez besoin pour ce lecteur de démarrage, et vous pouvez en obtenir un pour ~ 25 $.
Un ajout facultatif mais vraiment sympa (si votre boîtier PC a 3 baies de lecteur 5,25 pouces) est d'obtenir un convertisseur de baie de lecteur: vous pouvez transformer 3 baies de lecteur 5,25 pouces (optiques) en 5 baies 3,5 pouces (HDD) à chargement frontal remplaçables à chaud baies, vous n'aurez donc pas à démonter la machine (ou même à l'arrêter) pour échanger des lecteurs (recherchez "fond de panier 5 en 3").
Utilisez 5x les disques durs de toute taille en RAID 6 (double redondance, 3x espace utilisable de taille de disque).
Mon conseil (logiciel): regardez OpenMediaVault pour le logiciel OS / serveur de fichiers. C'est une "distribution d'appliance" parfaite pour exactement ce type d'utilisation - basée sur Debian (en fait un port Linux de FreeNAS basé sur BSD) avec tout pré-configuré pour un serveur NAS. Cela rend la configuration et la gestion du RAID logiciel (ainsi que LVM, partages réseau, etc.) très simples.
la source