Nous développons un programme qui reçoit et transmet des "messages", tout en gardant un historique temporaire de ces messages, afin qu'il puisse vous dire l'historique des messages si demandé. Les messages sont identifiés numériquement, mesurent généralement environ 1 kilo-octet et nous devons conserver des centaines de milliers de ces messages.
Nous souhaitons optimiser ce programme pour la latence: le temps entre l'envoi et la réception d'un message doit être inférieur à 10 millisecondes.
Le programme est écrit en Haskell et compilé avec GHC. Cependant, nous avons constaté que les pauses de garbage collection sont beaucoup trop longues pour nos besoins de latence: plus de 100 millisecondes dans notre programme réel.
Le programme suivant est une version simplifiée de notre application. Il utilise un Data.Map.Strict
pour stocker les messages. Les messages sont ByteString
identifiés par un Int
. 1 000 000 de messages sont insérés dans un ordre numérique croissant et les messages les plus anciens sont continuellement supprimés pour conserver l'historique à un maximum de 200 000 messages.
module Main (main) where
import qualified Control.Exception as Exception
import qualified Control.Monad as Monad
import qualified Data.ByteString as ByteString
import qualified Data.Map.Strict as Map
data Msg = Msg !Int !ByteString.ByteString
type Chan = Map.Map Int ByteString.ByteString
message :: Int -> Msg
message n = Msg n (ByteString.replicate 1024 (fromIntegral n))
pushMsg :: Chan -> Msg -> IO Chan
pushMsg chan (Msg msgId msgContent) =
Exception.evaluate $
let
inserted = Map.insert msgId msgContent chan
in
if 200000 < Map.size inserted
then Map.deleteMin inserted
else inserted
main :: IO ()
main = Monad.foldM_ pushMsg Map.empty (map message [1..1000000])
Nous avons compilé et exécuté ce programme en utilisant:
$ ghc --version
The Glorious Glasgow Haskell Compilation System, version 7.10.3
$ ghc -O2 -optc-O3 Main.hs
$ ./Main +RTS -s
3,116,460,096 bytes allocated in the heap
385,101,600 bytes copied during GC
235,234,800 bytes maximum residency (14 sample(s))
124,137,808 bytes maximum slop
600 MB total memory in use (0 MB lost due to fragmentation)
Tot time (elapsed) Avg pause Max pause
Gen 0 6558 colls, 0 par 0.238s 0.280s 0.0000s 0.0012s
Gen 1 14 colls, 0 par 0.179s 0.250s 0.0179s 0.0515s
INIT time 0.000s ( 0.000s elapsed)
MUT time 0.652s ( 0.745s elapsed)
GC time 0.417s ( 0.530s elapsed)
EXIT time 0.010s ( 0.052s elapsed)
Total time 1.079s ( 1.326s elapsed)
%GC time 38.6% (40.0% elapsed)
Alloc rate 4,780,213,353 bytes per MUT second
Productivity 61.4% of total user, 49.9% of total elapsed
La métrique importante ici est la "pause maximale" de 0,0515 s, soit 51 millisecondes. Nous souhaitons réduire cela d'au moins un ordre de grandeur.
L'expérimentation montre que la durée d'une pause GC est déterminée par le nombre de messages dans l'historique. La relation est à peu près linéaire, ou peut-être super-linéaire. Le tableau suivant montre cette relation. ( Vous pouvez voir nos tests d'analyse comparative ici , et quelques graphiques ici .)
msgs history length max GC pause (ms)
=================== =================
12500 3
25000 6
50000 13
100000 30
200000 56
400000 104
800000 199
1600000 487
3200000 1957
6400000 5378
Nous avons expérimenté plusieurs autres variables pour déterminer si elles peuvent réduire cette latence, dont aucune ne fait une grande différence. Parmi ces variables sans importance figurent: l'optimisation ( -O
, -O2
); Options RTS GC ( -G
, -H
, -A
, -c
), nombre de cœurs ( -N
), différentes structures de données ( Data.Sequence
), la taille des messages, et la quantité de déchets de courte durée produite. Le principal facteur déterminant est le nombre de messages dans l'historique.
Notre théorie de travail est que les pauses sont linéaires dans le nombre de messages car chaque cycle GC doit parcourir toute la mémoire de travail accessible et la copier, qui sont des opérations clairement linéaires.
Des questions:
- Cette théorie du temps linéaire est-elle correcte? La durée des pauses GC peut-elle être exprimée de cette manière simple, ou la réalité est-elle plus complexe?
- Si la pause GC est linéaire dans la mémoire de travail, existe-t-il un moyen de réduire les facteurs constants impliqués?
- Existe-t-il des options pour la GC incrémentielle, ou quelque chose du genre? Nous ne pouvons voir que des documents de recherche. Nous sommes très disposés à échanger le débit contre une latence plus faible.
- Existe-t-il des moyens de «partitionner» la mémoire pour des cycles GC plus petits, autres que la division en plusieurs processus?
la source
COntrol.Concurrent.Chan
par exemple? Les objets mutables changent l'équation)? Je vous suggère de commencer par vous assurer que vous savez quels déchets vous générez et d'en faire le moins possible (par exemple, assurez-vous que la fusion se produit, essayez-funbox-strict
). Essayez peut-être d'utiliser une bibliothèque de streaming (iostreams, tubes, conduit, streaming) et d'appelerperformGC
directement à des intervalles plus fréquents.MutableByteArray
; GC ne sera pas du tout impliqué dans ce cas)Réponses:
En fait, vous vous débrouillez assez bien pour avoir un temps de pause de 51 ms avec plus de 200 Mo de données en direct. Le système sur lequel je travaille a un temps de pause maximum plus grand avec la moitié de cette quantité de données en direct.
Votre hypothèse est correcte, le temps de pause majeur du GC est directement proportionnel à la quantité de données en direct, et malheureusement, il n'y a aucun moyen de contourner cela avec GHC tel quel. Nous avons expérimenté la GC incrémentale dans le passé, mais il s'agissait d'un projet de recherche et n'a pas atteint le niveau de maturité nécessaire pour l'intégrer dans le GHC publié.
Nous espérons que cela vous aidera à l'avenir, ce sont les régions compactes: https://phabricator.haskell.org/D1264 . C'est une sorte de gestion manuelle de la mémoire où vous compactez une structure dans le tas, et le GC n'a pas à la parcourir. Cela fonctionne mieux pour les données à longue durée de vie, mais peut-être sera-t-il assez bon pour les messages individuels de votre environnement. Nous visons à l'avoir dans GHC 8.2.0.
Si vous êtes dans un environnement distribué et que vous avez un équilibreur de charge, vous pouvez jouer des astuces pour éviter de prendre la pause, vous vous assurez essentiellement que l'équilibreur de charge n'envoie pas de requêtes aux machines sur le point de faites un GC majeur, et bien sûr assurez-vous que la machine complète toujours le GC même si elle ne reçoit pas de demandes.
la source
performGC
? (2) Pourquoi le compactage avec-c
fonctionne-t-il moins bien - nous supposons qu'il ne trouve pas beaucoup de choses qu'il peut laisser en place? (3) Y a-t-il plus de détails sur les compacts? Cela semble très intéressant mais malheureusement, c'est un peu trop loin dans le futur pour que nous puissions y réfléchir.J'ai essayé votre extrait de code avec une approche de mémoire tampon en utilisant
IOVector
comme structure de données sous-jacente. Sur mon système (GHC 7.10.3, mêmes options de compilation), cela a entraîné une réduction du temps maximum (la métrique que vous avez mentionnée dans votre OP) d'environ 22%.NB. J'ai fait deux hypothèses ici:
Avec quelques
Int
paramètres et arithmétiques supplémentaires (comme lorsque les messageId sont réinitialisés à 0 ouminBound
), il devrait alors être simple de déterminer si un certain message est toujours dans l'historique et de le récupérer à partir de l'index correspondant dans le ringbuffer.Pour votre plaisir d'essai:
la source
IOVector
valeurs et (immuables, GC'd) à chaque index. Nous étudions actuellement les options de réimplémentation à l'aide de structures mutables. Il est susceptible d'être similaire à votre système de tampon en anneau. Mais nous le déplaçons entièrement en dehors de l'espace mémoire Haskell pour faire notre propre gestion manuelle de la mémoire.Je suis d'accord avec les autres - si vous avez des contraintes de temps réel difficiles, alors utiliser un langage GC n'est pas idéal.
Cependant, vous pouvez envisager d'expérimenter d'autres structures de données disponibles plutôt que simplement Data.Map.
Je l'ai réécrit en utilisant Data.Sequence et j'ai obtenu des améliorations prometteuses:
Même si vous optimisez la latence, j'ai remarqué que d'autres mesures s'amélioraient également. Dans le cas de 200000, le temps d'exécution passe de 1,5 s à 0,2 s et l'utilisation totale de la mémoire passe de 600 Mo à 27 Mo.
Je dois noter que j'ai triché en peaufinant le design:
Int
deMsg
, donc ce n'est pas à deux endroits.Int
s àByteString
s, j'ai utilisé unSequence
deByteString
s, et au lieu d'unInt
par message, je pense que cela peut être fait avec unInt
pour le toutSequence
. En supposant que les messages ne peuvent pas être réorganisés, vous pouvez utiliser un seul décalage pour traduire le message souhaité à l'endroit où il se trouve dans la file d'attente.(J'ai inclus une fonction supplémentaire
getMsg
pour le démontrer.)la source
Data.Sequence
- nous l'avons testé et nous l'avons trouvé pire que Data.Map! Je ne sais pas quelle était la différence, alors je vais devoir enquêter ...Comme mentionné dans d'autres réponses, le ramasse-miettes de GHC traverse les données en direct, ce qui signifie que plus vous stockez de données de longue durée en mémoire, plus les pauses GC seront longues.
GHC 8.2
Pour surmonter partiellement ce problème, une fonctionnalité appelée régions compactes a été introduite dans GHC-8.2. C'est à la fois une fonctionnalité du système d'exécution GHC et une bibliothèque qui expose une interface pratique avec laquelle travailler. La fonctionnalité de régions compactes permet de placer vos données dans un endroit séparé en mémoire et GC ne les traversera pas pendant la phase de récupération de place. Donc, si vous souhaitez conserver une grande structure en mémoire, envisagez d'utiliser des régions compactes. Cependant, la région compacte elle - même n'a pas de mini-garbage collector à l' intérieur, cela fonctionne mieux pour les structures de données ajoutées uniquement , pas quelque chose comme l'
HashMap
endroit où vous souhaitez également supprimer des éléments. Bien que vous puissiez surmonter ce problème. Pour plus de détails, reportez-vous au billet de blog suivant:GHC 8.10
De plus, depuis GHC-8.10, un nouvel algorithme de ramasse-miettes incrémentiel à faible latence est implémenté. C'est un algorithme GC alternatif qui n'est pas activé par défaut mais vous pouvez y adhérer si vous le souhaitez. Ainsi, vous pouvez basculer le GC par défaut vers un plus récent pour obtenir automatiquement les fonctionnalités fournies par les régions compactes sans avoir à effectuer un emballage et un déballage manuels. Cependant, le nouveau GC n'est pas une solution miracle et ne résout pas tous les problèmes de manière automatique, et il a ses compromis. Pour les benchmarks du nouveau GC, reportez-vous au référentiel GitHub suivant:
la source
Eh bien, vous avez trouvé la limitation des langages avec GC: ils ne sont pas adaptés aux systèmes en temps réel hardcore.
Vous avez 2 options:
1er Augmentez la taille du tas et utilisez un système de mise en cache à 2 niveaux, les messages les plus anciens sont envoyés sur le disque et vous conservez les messages les plus récents en mémoire, vous pouvez le faire en utilisant la pagination du système d'exploitation. Le problème, bien qu'avec cette solution, est que la pagination peut être coûteuse en fonction des capacités de lecture de l'unité de mémoire secondaire utilisée.
2ème programme cette solution en utilisant «C» et l'interface avec FFI à haskell. De cette façon, vous pouvez gérer votre propre mémoire. Ce serait la meilleure option car vous pouvez contrôler vous-même la mémoire dont vous avez besoin.
la source