Pourquoi autant de méthodes de calcul de PSD?

53

La méthode de Welch a été mon algorithme de prédilection pour le calcul de la densité spectrale de puissance (PSD) de séries temporelles échantillonnées de manière uniforme. J'ai remarqué qu'il existe de nombreuses autres méthodes pour calculer le PSD. Par exemple, dans Matlab, je vois:

  • PSD utilisant la méthode de Burg
  • DSP utilisant la méthode de covariance
  • DSP en utilisant un périodogramme
  • DSP utilisant la méthode de covariance modifiée
  • DSP utilisant la méthode multitaper (MTM)
  • PSD selon la méthode de Welch
  • PSD utilisant la méthode AR de Yule-Walker
  • Spectrogramme utilisant la transformée de Fourier à court terme
  • Estimation spectrale

Quels sont les avantages de ces différentes méthodes? Comme question pratique, quand voudrais-je utiliser autre chose que la méthode de Welch?

nibot
la source
Pas même un novice en traitement du signal, mais devinez {ceci} peut être pertinent, ainsi que {this} . Je viens de googler.
Développeur
4
En fait, vous ne "calculez" pas le PSD mais vous "estimez" le. Il y a une énorme différence.
leonbloy
1
Ce lien contient des exemples de certaines des techniques mentionnées ci-dessus: mathworks.com/help/signal/ug/nonparametric-methods.html

Réponses:

67

Je n'ai aucune connaissance de la méthode Multitaper. Cela dit, vous avez posé toute une question. Dans la poursuite de mon diplôme de MSEE, j'ai suivi un cours complet sur l'estimation du PSD. Le cours couvrait tout ce que vous avez énuméré (à l'exception de la méthode Multitaper), ainsi que les méthodes de sous-espace. Même cela ne couvre que certaines des idées principales et de nombreuses méthodes découlent de ces concepts.

Pour commencer, il existe deux méthodes principales d’estimation de la densité spectrale de puissance: non paramétrique et paramétrique.

Les méthodes non paramétriques sont utilisées lorsque le signal est mal connu à l'avance. Ils ont généralement moins de complexité de calcul que les modèles paramétriques. Les méthodes de ce groupe sont en outre divisées en deux catégories: les périodogrammes et les corrélogrammes. Les périodogrammes sont aussi parfois appelés méthodes directes, car ils entraînent une transformation directe des données. Ceux-ci comprennent le spectre d'échantillonnage, la méthode de Bartlett, la méthode de Welch et le périodogramme Daniell. Les corrélogrammes sont parfois appelés méthodes indirectes, car ils exploitent le théorème de Wiener-Khinchin. Par conséquent, ces méthodes sont basées sur la transformation de Fourier d’une sorte d’estimation de la séquence d’autocorrélation. En raison de la grande variance associée aux décalages d'ordre plus élevés (due à une petite quantité d'échantillons de données utilisés dans les corrélations), le fenêtrage est utilisé. La méthode Blackman-Tukey généralise les méthodes du corrélogramme.

Les méthodes paramétriques supposent généralement une sorte de modèle de signal avant le calcul de l'estimation de la densité spectrale de puissance. Par conséquent, il est supposé qu'une certaine connaissance du signal est connue à l'avance. Il existe deux catégories principales de méthodes paramétriques: les méthodes autorégressives et les méthodes de sous-espaces.

Les méthodes autorégressives supposent que le signal peut être modélisé comme la sortie d'un filtre autorégressif (tel qu'un filtre IIR) piloté par une séquence de bruit blanc. Par conséquent, toutes ces méthodes tentent de résoudre les coefficients IIR, ce qui permet de calculer facilement la densité spectrale de puissance résultante. L'ordre du modèle (ou le nombre de prises) doit cependant être déterminé. Si l'ordre du modèle est trop petit, le spectre sera très lissé et manquera de résolution. Si l'ordre du modèle est trop élevé, de faux pics provenant d'une quantité abondante de pôles commencent à apparaître. Si le signal peut être modélisé par un processus AR du modèle 'p', la sortie du filtre d'ordre> = p piloté par le signal produira un bruit blanc. Il existe des centaines de métriques pour la sélection de l'ordre du modèle. Notez que ces méthodes sont excellentes pour les signaux à bande étroite SNR élevés à modérés. Le premier est dû au fait que le modèle se décompose en bruit important et est mieux modélisé en tant que processus ARMA. Cette dernière est due à la nature impulsive du spectre résultant issu des pôles de la transformée de Fourier du modèle résultant. Les méthodes de RA reposent sur la prédiction linéaire, qui est utilisée pour extrapoler le signal en dehors de ses valeurs connues. En conséquence, ils ne souffrent pas de lobes secondaires et ne nécessitent pas de fenêtrage.

Les méthodes de sous-espace décomposent le signal en un sous-espace de signal et un sous-espace de bruit. L'exploitation de l'orthogonalité entre les deux sous-espaces permet de former un pseudospectre où des pics importants au niveau des composants à bande étroite peuvent apparaître. Ces méthodes fonctionnent très bien dans les environnements à faible SNR, mais leur calcul est très coûteux. Elles peuvent être regroupées en deux catégories: les méthodes de sous-espace de bruit et les méthodes de sous-espace de signal.

Les deux catégories peuvent être utilisées de deux manières: décomposition en valeurs propres de la matrice d'autocorrélation ou décomposition en valeurs singulières de la matrice de données.

Les méthodes de sous-espace de bruit tentent de résoudre un ou plusieurs vecteurs propres du sous-espace de bruit. Ensuite, l'orthogonalité entre le sous-espace de bruit et le sous-espace de signal produit des zéros dans le dénominateur des estimations de spectre résultantes, ce qui entraîne des valeurs ou des pics importants pour les vraies composantes du signal. Le nombre de sinusoïdes discrets, ou le rang du sous-espace du signal, doit être déterminé / estimé ou connu à l'avance.

Les méthodes de sous-espace de signal tentent de supprimer le sous-espace de bruit avant l'estimation spectrale, améliorant ainsi le RSB. Une matrice d'autocorrélation à rangs réduits est formée avec uniquement les vecteurs propres déterminés à appartenir au sous-espace du signal (là encore, un problème d'ordre de modèle), et la matrice à rangs réduits est utilisée dans l'une quelconque des autres méthodes.

Maintenant, je vais essayer de couvrir rapidement votre liste:

  • PSD utilisant la méthode de Burg: La méthode de Burg utilise la récursion de Levinson légèrement différemment de la méthode de Yule-Walker, en ce sens qu'elle estime les coefficients de réflexion en minimisant la moyenne de l'erreur de prédiction linéaire en avant et en arrière. Il en résulte une moyenne harmonique des coefficients de corrélation partielle de l'erreur de prédiction linéaire en avant et en arrière. Il produit des estimations à très haute résolution, comme toutes les méthodes autorégressives, car il utilise la prédiction linéaire pour extrapoler le signal en dehors de son enregistrement de données connu. Ceci élimine efficacement tous les phénomènes de lobes latéraux. Elle est supérieure à la méthode YW pour les enregistrements de données courts et supprime également le compromis entre l'utilisation d'estimations d'autocorrélation biaisées et non biaisées, car les facteurs de pondération se divisent. Un inconvénient est qu'il peut présenter une division de ligne spectrale. En plus, il souffre des mêmes problèmes que toutes les méthodes de RA. En d'autres termes, les RSB faibles à modérés dégradent gravement les performances, car ils ne sont plus correctement modélisés par un processus de RA, mais plutôt par un processus ARMA. Les méthodes ARMA sont rarement utilisées car elles aboutissent généralement à un ensemble non linéaire d'équations par rapport aux paramètres de la moyenne mobile.

  • DSP utilisant la méthode de covariance : La méthode de covariance est un cas particulier de la méthode des moindres carrés, dans laquelle la partie fenêtrée des erreurs de prédiction linéaire est ignorée. Ceci a des performances supérieures à la méthode de Burg, mais contrairement à la méthode de YW, la matrice inverse à résoudre n'est pas le Toeplitz hermitien en général, mais plutôt le produit de deux matrices de Toeplitz. Par conséquent, la récursivité de Levinson ne peut pas être utilisée pour résoudre les coefficients. De plus, le filtre généré par cette méthode n’est pas garanti stable. Cependant, pour l’estimation spectrale, c’est une bonne chose, ce qui entraîne des pics très importants pour le contenu sinusoïdal.

  • PSD utilisant un périodogramme : il s'agit de l'un des pires estimateurs. Il s'agit d'un cas particulier de la méthode de Welch avec un seul segment, une fenêtre rectangulaire ou triangulaire (selon l'estimation de l'autocorrélation utilisée, biaisée ou non) et aucun chevauchement. Cependant, c'est l'un des "moins chers" sur le plan informatique. La variance qui en résulte peut être assez élevée.

  • DSP utilisant la méthode de covariance modifiée : améliore la méthode de covariance et la méthode de Burg. Elle peut être comparée à la méthode de Burg, selon laquelle la méthode de Burg ne minimise que l’erreur de prédiction linéaire moyenne en avant / arrière par rapport au coefficient de réflexion, tandis que la méthode MC la minimise par rapport à TOUS les coefficients AR. De plus, il ne souffre pas de la division de ligne spectrale et fournit beaucoup moins de distorsion que les méthodes énumérées précédemment. De plus, bien qu’il ne garantisse pas un filtre IIR stable, sa réalisation en filtre réseau est stable. Elle est également plus exigeante en calcul que les deux autres méthodes.

  • PSD utilisant la méthode de Welch: La méthode de Welch améliore le périodogramme en abordant l'absence de la moyenne d'ensemble qui est présente dans la vraie formule de PSD. Il généralise la méthode de Barlett en utilisant le chevauchement et le fenêtrage pour fournir davantage "d'échantillons" de DSP pour la moyenne de pseudo-ensembles. Cela peut être une méthode peu coûteuse et efficace en fonction de l'application. Cependant, si vous avez une situation avec des sinusoïdes très proches les unes des autres, les méthodes AR peuvent être mieux adaptées. Cependant, il n’est pas nécessaire d’estimer l’ordre du modèle comme pour les méthodes de réduction de bruit. Par conséquent, si l’on ignore a priori votre spectre, cela peut être un excellent point de départ.

  • PSD utilisant la méthode AR de Yule-Walker : Il s'agit d'un cas spécial de la méthode des moindres carrés où les résidus d'erreur complets sont utilisés. Cela entraîne une diminution des performances par rapport aux méthodes de covariance, mais peut être efficacement résolu en utilisant la récursivité de Levinson. C'est aussi la méthode d'autocorrélation.

  • Spectrogramme utilisant la transformée de Fourier à court terme : vous passez maintenant dans un domaine différent. Ceci est utilisé pour les spectres variant dans le temps. C'est-à-dire celui dont le spectre change avec le temps. Cela ouvre toute une boîte de Pandore, et il existe autant de méthodes que celles que vous avez énumérées pour l'analyse temps-fréquence. C'est certainement le moins cher, c'est pourquoi il est si fréquemment utilisé.

  • Estimation spectrale : Ce n'est pas une méthode, mais un terme générique pour le reste de votre message. Parfois, le périodogramme est appelé "spectre d'échantillonnage" ou "périodogramme Schuster", le premier pouvant être ce dont vous parlez.

Si cela vous intéresse, vous pouvez également vous pencher sur des méthodes de sous-espace telles que MUSIC et la décomposition harmonique de Pisarenko. Celles-ci décomposent le signal en sous-espace signal et bruit et exploitent l'orthogonalité entre le sous-espace bruit et les vecteurs propres du sous-espace signal pour produire un pseudospectre. Tout comme les méthodes de RA, il est possible que vous n'obteniez pas une "vraie" estimation de DSP, car la puissance n'est probablement pas conservée, et les amplitudes entre les composantes spectrales sont relatives. Cependant, tout dépend de votre application.

À votre santé

Bryan
la source
Merci pour la bonne réponse! Pourriez-vous ajouter quelques remarques introductives sur la différence entre les méthodes paramétriques et non paramétriques? En outre, il serait peut-être plus clair de regrouper les méthodes étroitement liées ou dérivées les unes des autres, à savoir le périodogramme method la méthode de Bartlett et la méthode de Welch.
nibot
Certainement. Je viens d'ajouter une introduction et quelques catégories.
Bryan
Bienvenue. Merci d'avoir contribué à une réponse aussi détaillée.
Jason R
Si vous pouviez entrer plus dans les détails sur les avantages / inconvénients, plutôt que sur la manière dont chacun est calculé, cela nous donnerait une meilleure idée de la façon de sélectionner celui-ci pour une application spécifique.
CyberMen
1
Si vous lisez la réponse, c'est ce que j'ai fait. En outre, pour les implémentations pratiques, la manière dont chacun est calculé est un avantage / désavantage. Certaines d’entre elles sont très efficaces sur le plan informatique, mais ne sont pas aussi performantes. Certaines d’entre elles fonctionnent très bien, mais sont très complexes et difficiles à mettre en œuvre sur des cibles de faible puissance.
Bryan
12

Je voulais ajouter à la seule catégorie que le premier message ne couvrait pas. La méthode multi-couches est une méthode non paramétrique permettant de calculer un spectre de puissance similaire à l'approche par périodogramme. Dans cette méthode, un spectre de puissance est calculé en combinant les données et en calculant une transformée de Fourier, en prenant l'amplitude du résultat et en le quadratisant. La méthode multi-couches met en moyenne un nombre prédéterminé de périodogrammes, chacun calculé avec une fenêtre différente. Cette méthode fonctionne car les fenêtres sélectionnées ont deux propriétés mathématiques. Premièrement, les fenêtres sont orthogonales. Cela signifie que chacun des périodogrammes n'est pas corrélé. Par conséquent, la moyenne de plusieurs périodogrammes donne une estimation avec une variance inférieure à celle qui consiste à utiliser un seul effilement. Deuxièmement, les fenêtres ont la meilleure concentration possible dans le domaine fréquentiel pour une longueur de signal fixe.

Dans matlab, les fonctions de fenêtre peuvent être appelées à l’aide de la fonction dpss. En plus d'utiliser des fenêtres optimales, un algorithme a été développé pour pondérer les différents périodogrammes en fonction de la quantité de fuite qu'ils ajouteront à l'estimation du spectre de puissance. L'algorithme produit un ensemble de poids adaptatifs aux données. L'obtention d'une estimation du spectre avec un ensemble de pondérations adaptatives aux données peut être réalisée dans Matlab en créant un objet spectre.mtm avec "adaptatif" utilisé comme option de combinaison.

En ce qui concerne les méthodes non paramétriques, la méthode MT est sans doute la meilleure méthode pour estimer un spectre de puissance pour une série temporelle stationnaire.

ncRubert
la source
En regardant la dernière phrase de votre message, vous voudrez toujours utiliser un calcul de MT sur une méthode de Welch.
ncRubert