J'utilise ZoL 0.6.2 à partir de leur PPA sur Ubuntu 12.04. C'est sur un hôte avec 16 Go de mémoire destiné à exécuter certaines machines virtuelles en utilisant KVM / Libvirt. Après un certain temps, ZoL utilise une quantité insensée de mémoire, atteignant 98% de l'utilisation de la RAM avec certaines machines virtuelles en cours d'exécution. Il en résulte de nouveaux processus refusant de démarrer "impossible d'allouer de la mémoire". Je ne peux même plus démarrer toutes mes machines virtuelles qui, avant d'utiliser ZFS, utilisaient environ 40 à 50% de RAM.
Si je comprends bien, sans peaufiner, ZoL devrait libérer de la mémoire dès que le système est à court de mémoire. Et bien non. J'ai donc décidé de définir le arc_max
paramètre sur 1 Go.
# echo 1073741824 >> /sys/module/zfs/parameters/zfs_arc_max
Pourtant, il ne libère aucune mémoire.
Comme vous pouvez le voir sur les statistiques ARC ci-dessous, il utilise plus de mémoire que ce qu'il est configuré pour (comparer c
= 7572030912
avec c_max
= 1073741824
).
Qu'est-ce que je fais mal ici?
# cat /proc/spl/kstat/zfs/arcstats
4 1 0x01 84 4032 43757119584 392054268420115
name type data
hits 4 28057644
misses 4 13975282
demand_data_hits 4 19632274
demand_data_misses 4 571809
demand_metadata_hits 4 6333604
demand_metadata_misses 4 289110
prefetch_data_hits 4 1903379
prefetch_data_misses 4 12884520
prefetch_metadata_hits 4 188387
prefetch_metadata_misses 4 229843
mru_hits 4 15390332
mru_ghost_hits 4 1088944
mfu_hits 4 10586761
mfu_ghost_hits 4 169152
deleted 4 35432344
recycle_miss 4 701686
mutex_miss 4 35304
evict_skip 4 60416647
evict_l2_cached 4 0
evict_l2_eligible 4 3022396862976
evict_l2_ineligible 4 1602907651584
hash_elements 4 212777
hash_elements_max 4 256438
hash_collisions 4 17163377
hash_chains 4 51485
hash_chain_max 4 10
p 4 1527347963
c 4 7572030912
c_min 4 1038188800
c_max 4 1073741824
size 4 7572198224
hdr_size 4 66873056
data_size 4 7496095744
other_size 4 9229424
anon_size 4 169150464
anon_evict_data 4 0
anon_evict_metadata 4 0
mru_size 4 1358216192
mru_evict_data 4 1352400896
mru_evict_metadata 4 508928
mru_ghost_size 4 6305992192
mru_ghost_evict_data 4 4919159808
mru_ghost_evict_metadata 4 1386832384
mfu_size 4 5968729088
mfu_evict_data 4 5627991552
mfu_evict_metadata 4 336846336
mfu_ghost_size 4 1330455552
mfu_ghost_evict_data 4 1287782400
mfu_ghost_evict_metadata 4 42673152
l2_hits 4 0
l2_misses 4 0
l2_feeds 4 0
l2_rw_clash 4 0
l2_read_bytes 4 0
l2_write_bytes 4 0
l2_writes_sent 4 0
l2_writes_done 4 0
l2_writes_error 4 0
l2_writes_hdr_miss 4 0
l2_evict_lock_retry 4 0
l2_evict_reading 4 0
l2_free_on_write 4 0
l2_abort_lowmem 4 0
l2_cksum_bad 4 0
l2_io_error 4 0
l2_size 4 0
l2_asize 4 0
l2_hdr_size 4 0
l2_compress_successes 4 0
l2_compress_zeros 4 0
l2_compress_failures 4 0
memory_throttle_count 4 0
duplicate_buffers 4 0
duplicate_buffers_size 4 0
duplicate_reads 4 0
memory_direct_count 4 66583
memory_indirect_count 4 7657293
arc_no_grow 4 0
arc_tempreserve 4 0
arc_loaned_bytes 4 0
arc_prune 4 0
arc_meta_used 4 427048272
arc_meta_limit 4 2076377600
arc_meta_max 4 498721632
# free -m
total used free shared buffers cached
Mem: 15841 15385 456 0 75 74
-/+ buffers/cache: 15235 606
Swap: 0 0 0
la source
make static; strip -s killmem
)update-initramfs -u -k all
avant de redémarrer pour que ces paramètres soient/etc/modprobe.d/zfs.conf
propagés.options zfs zfs_vdev_scheduler=cfq
à mon /etc/modprobe.d/zfs.conf . J'ai redémarré et cela a fonctionné; le planificateur était maintenant cfq au lieu de noop . Pouvez-vous expliquer pourquoi celaupdate-initramfs -u -k all
est nécessaire?zfs_arc_max
peut-être que cette clé est en quelque sorte mise en cache dans initramfs?http://fibrevillage.com/storage/169-zfs-arc-on-linux-how-to-set-and-monitor-on-linux
cet article est très bon
à partir de la version ZoL 0.6.2, vous pouvez définir le c_max au moment de l'exécution, mais la taille ARC ne sera pas publiée automatiquement. pour forcer la libération de la RAM, il est nécessaire d'exporter le zpool.
la source
Une fois que vous avez modifié la taille de votre arc, vous devez supprimer vos caches.
et attendez (votre invite ne reviendra pas immédiatement, mais d'autres processus continueront de s'exécuter). Il déchargera lentement les caches (2,5 min pour mon cache de 24 Go sur 2 paires de noirs WD raid 1 To 2 To sur un processeur 2Ghz 4 ans sur une boîte avec 64 Go) - attention, vous n'aurez soudainement plus de caches, et tout les processus de lecture des données retireront le disque brut, vous verrez donc probablement les E / S attendre un instant avant que le cache ne soit repeuplé.
la source
# sync; echo 1 > /proc/sys/vm/drop_caches
Clear dentries and inodes:# sync; echo 2 > /proc/sys/vm/drop_caches
Clear PageCache, dentries and inodes:# sync; echo 3 > /proc/sys/vm/drop_caches
Un problème dans lequel vous pourriez tomber est la mise en cache ZFS des fichiers de la machine virtuelle (disques virtuels). Pour éviter cela, je définis toujours la propriété primarycache sur "metadata" sur les systèmes de fichiers contenant des disques virtuels.
La logique étant que le système d'exploitation invité a une meilleure idée des zones de ses disques à mettre en cache.
la source
AFAIK une des conditions suivantes doit être remplie pour adapter le paramètre.
la source
Vous en avez un "
>
" trop.La commande doit être
pas "
>>
">>
signifie "ajouter à" (liste existante).>
signifie "écraser" (valeur).C'est pourquoi le code de commande de votre question ne fonctionnera pas.
la source