J'ai configuré une paire de serveurs identiques avec des matrices RAID (8 cœurs, 16 Go de RAM, 12x2 To RAID6), 3 interfaces 10GigE, pour héberger certains services hautement disponibles.
Les systèmes exécutent actuellement Debian 7.9 Wheezy oldstable (car corosync / pacemaker ne sont pas disponibles sur 8.x stable ni sur testing).
- Les performances du disque local sont d'environ 900 Mo / s en écriture, 1600 Mo / s en lecture.
- le débit du réseau entre les machines est supérieur à 700 Mo / s.
- via iSCSI, chaque machine peut écrire sur le stockage de l'autre à plus de 700 Mo / s.
Cependant, peu importe la façon dont je configure DRBD, le débit est limité à 100 Mo / s. Cela ressemble vraiment à une limite codée en dur. Je peux réduire les performances de manière fiable en modifiant les paramètres, mais cela ne dépasse jamais 1 Gbit (122 Mo / s sont atteints pendant quelques secondes à la fois). Je tire vraiment mes cheveux sur celui-ci.
- noyau de vanille ordinaire 3.18.24 amd64
- drbd 8.9.2 ~ rc1-1 ~ bpo70 + 1
La configuration est divisée en deux fichiers global-common.conf
::
global {
usage-count no;
}
common {
handlers {
}
startup {
}
disk {
on-io-error detach;
# no-disk-flushes ;
}
net {
max-epoch-size 8192;
max-buffers 8192;
sndbuf-size 2097152;
}
syncer {
rate 4194304k;
al-extents 6433;
}
}
et cluster.res
:
resource rd0 {
protocol C;
on cl1 {
device /dev/drbd0;
disk /dev/sda4;
address 192.168.42.1:7788;
meta-disk internal;
}
on cl2 {
device /dev/drbd0;
disk /dev/sda4;
address 192.168.42.2:7788;
meta-disk internal;
}
}
Sortie de cat /proc/drbd
sur esclave:
version: 8.4.5 (api:1/proto:86-101)
srcversion: EDE19BAA3D4D4A0BEFD8CDE
0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r-----
ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884
[>....................] sync'ed: 0.1% (16103024/16107384)M
finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec
Sortie du vmstat 2
maître (les deux machines sont presque complètement inactives):
procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
r b swpd free buff cache si so bi bo in cs us sy id wa
0 0 0 14952768 108712 446108 0 0 213 254 16 9 0 0 100 0
0 0 0 14952484 108712 446136 0 0 0 4 10063 1361 0 0 99 0
0 0 0 14952608 108712 446136 0 0 0 4 10057 1356 0 0 99 0
0 0 0 14952608 108720 446128 0 0 0 10 10063 1352 0 1 99 0
0 0 0 14951616 108720 446136 0 0 0 6 10175 1417 0 1 99 0
0 0 0 14951748 108720 446136 0 0 0 4 10172 1426 0 1 99 0
Sortie iperf
entre les deux serveurs:
------------------------------------------------------------
Client connecting to cl2, TCP port 5001
TCP window size: 325 KByte (default)
------------------------------------------------------------
[ 3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 6.87 GBytes 5.90 Gbits/sec
Apparemment, la synchronisation initiale est censée être un peu lente, mais pas aussi lente ... De plus, elle ne réagit pas vraiment à toute tentative de limitation du taux de synchronisation drbdadm disk-options --resync-rate=800M all
.
la source
Réponses:
Dans les versions plus récentes de DRBD (8.3.9 et plus récentes), il existe un contrôleur de resynchronisation dynamique qui doit être réglé. Dans les anciennes versions de DRBD, le réglage
syncer {rate;}
était suffisant; maintenant, il est davantage utilisé comme point de départ légèrement suggéré pour la vitesse de resynchronisation dynamique.Le contrôleur de synchronisation dynamique est réglé avec les «paramètres c» dans la section disque de la configuration de DRBD (voir
$ man drbd.conf
pour plus de détails sur chacun de ces paramètres).Avec 10Gbe entre ces nœuds et en supposant une faible latence puisque le protocole C est utilisé, la configuration suivante devrait accélérer les choses:
Si vous n'êtes toujours pas satisfait, essayez de passer
max-buffers
à 12k. Si vous n'êtes toujours pas satisfait, vous pouvez essayer de vous présenterc-fill-target
par incréments de 2M.la source
Quelqu'un ailleurs m'a suggéré d'utiliser ces paramètres:
Et les performances sont excellentes.
Edit: Selon @Matt Kereczman et d'autres suggestions, j'ai finalement changé pour ceci:
La vitesse de resynchronisation est élevée:
La vitesse d'écriture est excellente pendant la resynchronisation avec ces paramètres (80% de la vitesse d'écriture locale, vitesse du fil complet):
La vitesse de lecture est OK:
Modification ultérieure:
Après une resynchronisation complète, les performances sont très bonnes (écriture à vitesse filaire, lecture de vitesse locale). La resynchronisation est rapide (5/6 heures) et ne nuit pas trop aux performances (lecture de la vitesse du fil, écriture de la vitesse du fil). Je vais certainement rester avec c-plan-ahead à zéro. Avec des valeurs non nulles, la resynchronisation est beaucoup trop longue.
la source
c-plan-ahead doit définir une valeur positive pour activer le contrôleur de taux de synchronisation dynamique. disque
c-plan-ahead 15; // 5 * RTT / 0.1s unit,in my case is 15 c-fill-target 24; c-max-rate 720M;
la source